JP2017215743A - Image processing device, and external world recognition device - Google Patents

Image processing device, and external world recognition device Download PDF

Info

Publication number
JP2017215743A
JP2017215743A JP2016108686A JP2016108686A JP2017215743A JP 2017215743 A JP2017215743 A JP 2017215743A JP 2016108686 A JP2016108686 A JP 2016108686A JP 2016108686 A JP2016108686 A JP 2016108686A JP 2017215743 A JP2017215743 A JP 2017215743A
Authority
JP
Japan
Prior art keywords
vehicle
image processing
image
processing apparatus
verification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016108686A
Other languages
Japanese (ja)
Other versions
JP6713349B2 (en
Inventor
秋山 靖浩
Yasuhiro Akiyama
靖浩 秋山
浜田 宏一
Koichi Hamada
宏一 浜田
泰 金田
Yasushi Kaneda
泰 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2016108686A priority Critical patent/JP6713349B2/en
Priority to PCT/JP2017/012756 priority patent/WO2017208601A1/en
Publication of JP2017215743A publication Critical patent/JP2017215743A/en
Application granted granted Critical
Publication of JP6713349B2 publication Critical patent/JP6713349B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately detect objects such as other vehicle and the like approaching to a vicinity from a far direction of an own vehicle in a shot image.SOLUTION: An imaging processing device 10 comprises: a first detection unit 101; and a second detection unit 104. The first detection unit 101 is configured to extract candidates of other vehicles existing in a far area corresponding to a point away by a first distance with respect to a camera 20 from a first photograph image shot by a camera at first time and obtained. The second detection unit 104 is configured to detect other vehicles existing in a near area corresponding to a point away by a second distance closer than the first distance with respect to the camera 20 from a second photograph image shot by the camera 20 at second time later than the first time and obtained. In this instance, the second detection unit 104 is configured to determine whether the candidate of the other vehicle extracted by the first detection unit 101 is other vehicle on the basis of the second photograph image, and thereby detect the other vehicle as an object.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置および外界認識装置に関する。   The present invention relates to an image processing apparatus and an external environment recognition apparatus.

近年、車両同士の衝突や人と車両の衝突などの事故を未然に避けるため、自車両周辺の状況を車載カメラでモニタし、危険を感知した際はドライバーに警報を出力すると共に、自車両の挙動を自動で制御する技術が進展している。このような技術において、自車両に対して遠方に位置する物体を車載カメラで撮影すると、当該物体はカメラへの映り込み範囲が小さいことから、当該物体に対応する画像領域の解像度が低くなる。その結果、車両形状等の特徴情報が得られにくくなり、不検知や誤検知が生じ易くなるため、安定した制御が困難であった。   In recent years, in order to avoid accidents such as collisions between vehicles and human-vehicle collisions, the situation around the vehicle is monitored with an in-vehicle camera, and when a danger is detected, an alarm is output to the driver and Technology to automatically control behavior is advancing. In such a technique, when an object located far away from the host vehicle is photographed by the in-vehicle camera, the object has a small reflection range on the camera, so that the resolution of the image area corresponding to the object is lowered. As a result, characteristic information such as the vehicle shape is difficult to obtain, and non-detection and erroneous detection are likely to occur, so that stable control is difficult.

上記のような遠方車両の検知における問題点を解決する手法として、たとえば特許文献1に記載の技術が提案されている。特許文献1には、所定の時間間隔で撮影された2枚の画像をそれぞれ所定のテンプレート画像と比較することにより、車両の周囲に存在する車両等の物体を認識する方法が開示されている。   For example, a technique described in Patent Document 1 has been proposed as a technique for solving the problems in the detection of a distant vehicle as described above. Patent Document 1 discloses a method for recognizing an object such as a vehicle around a vehicle by comparing two images taken at a predetermined time interval with a predetermined template image.

特開2005−318546号公報JP 2005-318546 A

特許文献1に記載された技術では、車両等の物体が自車両から遠方に存在するときに撮影された1枚目の撮影画像についても、テンプレート画像と比較している。しかし、前述のように認識対象とする物体が自車両から遠方に存在するときには、その物体に対応する画像領域の解像度が低くなるため、1枚目の撮影画像は物体の特徴を正確に反映したものとはなりにくい。したがって、特許文献1の手法を用いても、自車両の遠方から近傍に接近してくる他車両等の対象物を撮影画像において正確に検知するのは困難である。   In the technique described in Patent Document 1, the first photographed image photographed when an object such as a vehicle is far away from the host vehicle is also compared with the template image. However, as described above, when the object to be recognized exists far from the host vehicle, the resolution of the image area corresponding to the object is low, so the first captured image accurately reflects the feature of the object. It is hard to be a thing. Therefore, even if the method of Patent Document 1 is used, it is difficult to accurately detect an object such as another vehicle that approaches the vicinity from a distance of the own vehicle in the captured image.

本発明による画像処理装置は、第1の時刻にカメラで撮影して得られた第1の撮影画像から、前記カメラに対して第1の距離だけ離れた地点に存在する対象物の候補を抽出する第1検知部と、前記第1の時刻よりも後の第2の時刻に前記カメラで撮影して得られた第2の撮影画像から、前記カメラに対して前記第1の距離よりも近い第2の距離だけ離れた地点に存在する前記対象物を検知する第2検知部と、を備え、前記第2検知部は、前記第2の撮影画像に基づいて、前記第1検知部により抽出された前記対象物の候補が前記対象物であるか否かを識別することにより、前記対象物を検知する。
本発明による外界認識装置は、画像処理装置を備え、前記第2検知部による前記他車両の検知結果に基づいて、前記自車両の運転者に対する警告を行うための警報信号および前記自車両の動作を制御するための車両制御信号のいずれか少なくとも一つを出力する。
An image processing apparatus according to the present invention extracts a candidate for an object existing at a point away from the camera by a first distance from a first photographed image obtained by photographing with a camera at a first time. And a first captured image obtained by photographing with the camera at a second time after the first time, and closer to the camera than the first distance A second detection unit that detects the object existing at a point separated by a second distance, and the second detection unit is extracted by the first detection unit based on the second captured image. The target object is detected by identifying whether or not the candidate for the target object is the target object.
An external environment recognition apparatus according to the present invention includes an image processing device, and based on a detection result of the other vehicle by the second detection unit, an alarm signal for warning the driver of the own vehicle and an operation of the own vehicle At least one of vehicle control signals for controlling the vehicle is output.

本発明によれば、自車両の遠方から近傍に接近してくる他車両等の対象物を撮影画像において正確に検知できる。   According to the present invention, it is possible to accurately detect an object such as another vehicle approaching the vicinity from a distance of the host vehicle in a captured image.

本発明の第1の実施形態に係る画像処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing apparatus which concerns on the 1st Embodiment of this invention. カメラから出力される撮影画像の例を示す図である。It is a figure which shows the example of the picked-up image output from a camera. 検出器を生成する際に用いられる学習用画像の例を示す図である。It is a figure which shows the example of the image for learning used when producing | generating a detector. 撮影画像における遠方領域と近傍領域の設定例を示す図である。It is a figure which shows the example of a setting of a distant area | region and a near region in a picked-up image. 動きベクトル検証処理を説明する図である。It is a figure explaining a motion vector verification process. 空間周波数検証処理を説明する図である。It is a figure explaining a spatial frequency verification process. 合計検証スコアTSCと感度設定値CCとの関係を示す特性曲線の例を示す図である。It is a figure which shows the example of the characteristic curve which shows the relationship between the total verification score TSC and the sensitivity setting value CC. 本発明の第1の実施形態に係る画像処理装置の処理フローを示す図である。It is a figure which shows the processing flow of the image processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る外界認識装置の一例を示す図である。It is a figure which shows an example of the external field recognition apparatus which concerns on the 2nd Embodiment of this invention.

−第1の実施形態−
以下、本発明の第1の実施形態に係る画像処理装置について、図面を参照して説明する。図1は、本発明の第1の実施形態に係る画像処理装置10の機能構成を示すブロック図である。図1に示す画像処理装置10は、車両に搭載されて用いられる。なお、以下の説明では、画像処理装置10が搭載されている車両を「自車両」と称し、自車両の周囲に存在する他の車両を「他車両」と称する。
-First embodiment-
Hereinafter, an image processing apparatus according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a functional configuration of an image processing apparatus 10 according to the first embodiment of the present invention. An image processing apparatus 10 shown in FIG. 1 is mounted on a vehicle and used. In the following description, a vehicle on which the image processing apparatus 10 is mounted is referred to as “own vehicle”, and other vehicles existing around the own vehicle are referred to as “other vehicles”.

画像処理装置10は、撮影領域に対応する自車両の所定の位置、たとえば自車両のボディに取り付けられたカメラ20と接続されている。画像処理装置10は、第1検知部101、検証部102、決定部103、第2検知部104および設定変更部105を備える。なお、図1に示す画像処理装置10の各機能は、マイクロコンピュータ、メモリ等のハードウェアや、マイクロコンピュータ上で実行される各種プログラムなどを適宜組み合わせることにより、実現可能である。   The image processing apparatus 10 is connected to a predetermined position of the host vehicle corresponding to the shooting area, for example, a camera 20 attached to the body of the host vehicle. The image processing apparatus 10 includes a first detection unit 101, a verification unit 102, a determination unit 103, a second detection unit 104, and a setting change unit 105. Each function of the image processing apparatus 10 shown in FIG. 1 can be realized by appropriately combining hardware such as a microcomputer and a memory, and various programs executed on the microcomputer.

カメラ20は、自車両周辺に存在する他車両を動画で、または所定時間ごとに静止画で撮影し、取得した動画の各コマまたは各静止画を、所定時間ごとの撮影画像として第1検知部101へ出力する。なお、画像処理装置10において他車両の認識を行いやすくするために、自車両の任意の箇所にカメラ20を設置することができる。たとえば、自車両のフロントバンパー、リアバンパー、左右のサイドミラー等の部分に、カメラ20が設置される。または、自車両の車内にカメラ20を設置してもよい。さらに、自車両の周囲で特定の領域のみに存在する他車両の認識を目的として、カメラ20を単独で設置してもよいし、あるいは、自車両の周囲の全ての領域について他車両を認識できるように、カメラ20を複数設置してもよい。   The camera 20 shoots other vehicles existing around the host vehicle with moving images or still images at predetermined time intervals, and each frame or each still image of the acquired moving images is captured as a captured image at predetermined time intervals as a first detection unit. 101. In addition, in order to make it easy to recognize another vehicle in the image processing apparatus 10, the camera 20 can be installed at an arbitrary location of the host vehicle. For example, the camera 20 is installed in a part such as a front bumper, a rear bumper, and left and right side mirrors of the host vehicle. Or you may install the camera 20 in the vehicle of the own vehicle. Furthermore, for the purpose of recognizing other vehicles existing only in a specific area around the own vehicle, the camera 20 may be installed alone, or the other vehicles can be recognized in all areas around the own vehicle. As described above, a plurality of cameras 20 may be installed.

図2は、カメラ20から第1検知部101へ出力される撮影画像の例を示す図である。図2(a)は、自車両のリアバンパー部分にカメラ20が設置されている場合に、自車両の後方を走行している他車両203および204を撮影して得られた撮影画像の例である。図2(a)の撮影画像には、自車両の後方に延びている道路202の上に、自車両に対して地平線201に近い遠方の領域に存在する他車両203と、自車両に対して近傍の領域に存在する他車両204とが映り込んでいる。   FIG. 2 is a diagram illustrating an example of a captured image output from the camera 20 to the first detection unit 101. FIG. 2A is an example of a photographed image obtained by photographing the other vehicles 203 and 204 running behind the host vehicle when the camera 20 is installed in the rear bumper portion of the host vehicle. is there. In the captured image of FIG. 2A, on the road 202 extending behind the host vehicle, the other vehicle 203 existing in a distant area near the horizon 201 with respect to the host vehicle, and the host vehicle The other vehicle 204 existing in the nearby area is reflected.

図2(b)は、遠方の領域に存在する他車両203のみが映り込んでいる撮影画像の例である。図2(b)の撮影画像において、他車両203の周囲の所定範囲には、切り出し領域205が設定される。第1検知部101は、この切り出し領域205の画像を切り出して、撮影画像から他車両203を認識するための機械学習に利用することができる。   FIG. 2B is an example of a captured image in which only the other vehicle 203 existing in a distant area is reflected. In the captured image of FIG. 2B, a cutout area 205 is set in a predetermined range around the other vehicle 203. The first detection unit 101 can cut out the image of the cutout area 205 and use it for machine learning for recognizing the other vehicle 203 from the captured image.

図2(c)は、カメラ20に魚眼レンズを用いた場合に、遠方の領域に存在する他車両203を撮影して得られた撮影画像の例である。図2(c)の撮影画像は、自車両の右サイドミラーの部分に設置されたカメラ20に魚眼レンズを用いて、自車両の右側後方から他車両203が接近してくる状況を示している。この撮影画像には、図2(b)と同様に、第1検知部101において機械学習に利用する画像を切り出すための切り出し領域205が設定されている。すなわち、図2(c)に例示した魚眼レンズによる撮影画像は、一般的なレンズによる撮影画像とは異なり、上下左右方向の広範囲を撮影できるという利点がある。こうした魚眼レンズによる撮影画像からも、機械学習に利用する画像を切り出すことができる。   FIG. 2C is an example of a photographed image obtained by photographing another vehicle 203 existing in a distant area when a fisheye lens is used for the camera 20. The captured image in FIG. 2C shows a situation in which the other vehicle 203 approaches from the rear right side of the host vehicle using a fisheye lens to the camera 20 installed in the right side mirror portion of the host vehicle. As in FIG. 2B, a cutout area 205 for cutting out an image used for machine learning in the first detection unit 101 is set in the captured image. That is, the photographed image by the fisheye lens illustrated in FIG. 2C has an advantage that a wide range in the vertical and horizontal directions can be photographed, unlike a photographed image by a general lens. An image used for machine learning can also be cut out from an image taken with such a fisheye lens.

第1検知部101は、カメラ20より入力された撮影画像から、自車両に対して遠方の領域に存在する他車両の候補を検知し、他車両候補として抽出する。第1検知部101は、たとえば機械学習の手法を適用した検出器を利用して、撮影画像から他車両の候補を検知する。   The 1st detection part 101 detects the candidate of the other vehicle which exists in the area | region far from the own vehicle from the picked-up image input from the camera 20, and extracts it as another vehicle candidate. The first detection unit 101 detects a candidate for another vehicle from the photographed image using, for example, a detector to which a machine learning technique is applied.

図3は、第1検知部101の検出器を生成する際に用いられる学習用画像の例を示す図である。図3(a)は、遠方の領域に他車両203が存在する場合の学習用画像の例であり、図3(b)は、他車両203が存在しない場合の学習用画像の例である。図3(a)の学習用画像では、地平線201に近い遠方領域において道路202の上に他車両203が映り込んでいるのに対して、図3(b)の学習用画像では、他車両203の映り込みがない。なお、図3(a)の学習用画像は、前述のように図2(b)の撮影画像から切り出し領域205の部分を切り出した画像である。   FIG. 3 is a diagram illustrating an example of a learning image used when generating the detector of the first detection unit 101. FIG. 3A is an example of a learning image when the other vehicle 203 exists in a distant area, and FIG. 3B is an example of a learning image when the other vehicle 203 does not exist. In the learning image of FIG. 3A, the other vehicle 203 is reflected on the road 202 in a distant region near the horizon 201, whereas in the learning image of FIG. There is no reflection. Note that the learning image in FIG. 3A is an image obtained by cutting out the cutout area 205 from the captured image in FIG. 2B as described above.

第1検知部101では、以上説明したような2種類の学習用画像を用いた事前学習により構成される機械学習型検出器を用いることで、自車両から遠方の領域に存在する他車両を撮影画像上で認識し、これを他車両候補として抽出することができる。なお、実際の運用時には、他車両の種類や向き等に応じて撮影画像内に映り込む他車両の形態が様々に変化する。したがって、実用的な検知性能を得るためには、他車両が存在する場合と存在しない場合とで、学習用画像をそれぞれ複数枚、たとえば数千枚から数万枚ずつ用意することが好ましい。   The first detection unit 101 uses a machine learning type detector configured by prior learning using the two types of learning images as described above to photograph other vehicles existing in a region far from the host vehicle. It can be recognized on the image and extracted as another vehicle candidate. In actual operation, the form of the other vehicle that appears in the captured image varies depending on the type and direction of the other vehicle. Therefore, in order to obtain a practical detection performance, it is preferable to prepare a plurality of learning images, for example, several thousand to several tens of thousands, respectively, in the case where there is another vehicle and the case where there is no other vehicle.

ここで、図2(c)のようにカメラ20に魚眼レンズを用いた場合には、魚眼レンズは一般的なレンズと比較して、レンズ集光特性を変形させて撮像範囲を広げている。そのため、得られる撮影画像には歪みが生じ、画像の上下左右端に近い領域、すなわち自車両に対して遠方の領域に近づくほど、画像の解像度が低下する傾向がある。しかし、本実施形態の画像処理装置10では、第1検知部101において道路上に他車両が存在することを見分ければよく、他車両の形状までも見分ける必要はない。そのため、解像度が低い場合でも安定した検知結果を得ることが可能である。   Here, when a fish-eye lens is used for the camera 20 as shown in FIG. 2C, the fish-eye lens has a lens condensing characteristic that is wider than that of a general lens to widen the imaging range. Therefore, the captured image obtained is distorted, and the resolution of the image tends to decrease as the region approaches the upper, lower, left, and right ends of the image, that is, the region farther from the host vehicle. However, in the image processing apparatus 10 of the present embodiment, it is only necessary to recognize that there is another vehicle on the road in the first detection unit 101, and it is not necessary to recognize the shape of the other vehicle. Therefore, a stable detection result can be obtained even when the resolution is low.

ところで、第1検知部101において利用される機械学習とは、一般に、検知対象とする対象物の画像を複数枚入力して、そこから対象物を表現する画像特徴を抽出すると共に、未知の入力画像に対しては、学習した画像特徴を検出して識別できるように識別器のパラメータを自動設定する処理手法のことである。このような処理手法の具体例としては、たとえばDeep Learning(深層学習)が知られている。Deep learningでは、入力された複数画像が共通して持つ画像の特徴パラメータを細分して自動的に抽出することができる。また、特徴パラメータの抽出方法の一例としては、ニューラルネットワーク構造を用いた特徴抽出方法が知られている。ニューラルネットワーク構造では、入力画像群に共通な画像特徴に一致したときにのみ反応する、ニューロン・ユニットと呼ばれる入出力関数(活性化関数)が、小画像領域毎に多数組み合わされており、さらにこれが複数の層状に積み重ねられてピラミッド構造になっている。この方法によれば、検知対象とする対象物の位置や画像サイズを変えながら、段階的に対象物を識別できるようにニューロン・ユニットの各層毎に識別器パラメータを抽出して、最終的には、対象物全体を識別可能な識別器パラメータを得ることができる。   By the way, in general, the machine learning used in the first detection unit 101 is to input a plurality of images of an object to be detected, extract an image feature representing the object from the image, and input an unknown input. For images, this is a processing method that automatically sets the parameters of the classifier so that the learned image features can be detected and identified. As a specific example of such a processing method, for example, Deep Learning is known. Deep learning can automatically extract feature parameters of images that are shared by multiple input images. As an example of a feature parameter extraction method, a feature extraction method using a neural network structure is known. In the neural network structure, a large number of input / output functions (activation functions) called neuron units that react only when matching the image features common to the input image group are combined for each small image area. It is stacked in multiple layers to form a pyramid structure. According to this method, classifier parameters are extracted for each layer of the neuron unit so that the object can be identified step by step while changing the position and image size of the object to be detected. Thus, a discriminator parameter capable of discriminating the entire object can be obtained.

図4は、撮影画像における遠方領域と近傍領域の設定例を示す図である。第1検知部101は、図4に示すように、たとえば撮影画像上の所定の位置に境界線401を設定し、道路202上で境界線401から地平線201までの範囲を遠方領域R1、境界線401から画像下端までの範囲を近傍領域R2にそれぞれ設定する。そして、遠方領域R1を対象に上記の処理を行うことで、他車両候補を抽出し、その位置、形状、大きさ等の情報を、他車両候補の抽出結果を示す情報として検証部102へ出力する。   FIG. 4 is a diagram illustrating an example of setting a far area and a near area in a captured image. As illustrated in FIG. 4, the first detection unit 101 sets a boundary line 401 at a predetermined position on the captured image, for example, and sets a range from the boundary line 401 to the horizon 201 on the road 202 as the far region R1 and the boundary line. A range from 401 to the lower end of the image is set in the vicinity region R2. Then, by performing the above processing for the far region R1, the other vehicle candidate is extracted, and the information on the position, shape, size, and the like is output to the verification unit 102 as information indicating the extraction result of the other vehicle candidate. To do.

なお、撮影画像における遠方領域と近傍領域の範囲は、基本的にはそれぞれ任意に設定してよい。しかし現実的には、第2検知部104の最大検知距離、すなわち後述のような方法で第2検知部104が撮影画像から他車両を検知可能な自車両と他車両の距離の最大値に合わせて、これらの領域範囲を設定することが望ましい。具体的には、撮影画像上で第2検知部104の最大検知距離に対応する位置に境界線401を設定し、これより上側にある画像領域、すなわち第2検知部104が他車両を検知できない領域を遠方領域R1、下側の画像領域を近傍領域R2にそれぞれ設定すればよい。   Note that the ranges of the distant area and the near area in the captured image may be basically set arbitrarily. However, in reality, the maximum detection distance of the second detection unit 104, that is, the maximum value of the distance between the own vehicle and the other vehicle in which the second detection unit 104 can detect the other vehicle from the captured image by a method described later. Therefore, it is desirable to set these area ranges. Specifically, a boundary line 401 is set at a position corresponding to the maximum detection distance of the second detection unit 104 on the captured image, and the image region above this, that is, the second detection unit 104 cannot detect another vehicle. The region may be set as the far region R1, and the lower image region may be set as the near region R2.

検証部102は、第1検知部101で抽出された他車両候補について、これが実際に検知対象物としての他車両である可能性を検証する。検証部102は、カメラ20より所定時間ごとに入力された複数枚の撮影画像を用いて、第1検知部101で抽出された他車両候補が実際に他車両であるか否かを検証する。具体的には、検証部102は、複数の撮影画像から他車両候補の動きを示す動きベクトルを求め、この動きベクトルの特徴に基づいて他車両候補が他車両である可能性を検証する動きベクトル検証処理を行う。さらに、複数の撮影画像における他車両候補を含む画像領域の空間周波数分布を求め、この空間周波数分布の特徴に基づいて他車両候補が他車両である可能性を検証する空間周波数検証処理を行う。   The verification unit 102 verifies the possibility that the other vehicle candidate extracted by the first detection unit 101 is actually another vehicle as a detection target. The verification unit 102 verifies whether or not the other vehicle candidate extracted by the first detection unit 101 is actually another vehicle, using a plurality of photographed images input from the camera 20 every predetermined time. Specifically, the verification unit 102 obtains a motion vector indicating the motion of another vehicle candidate from a plurality of captured images, and verifies the possibility that the other vehicle candidate is another vehicle based on the feature of the motion vector. Perform verification processing. Furthermore, spatial frequency verification processing is performed for obtaining a spatial frequency distribution of an image region including other vehicle candidates in a plurality of captured images and verifying the possibility that the other vehicle candidate is another vehicle based on the feature of the spatial frequency distribution.

図5は、検証部102における動きベクトル検証処理を説明する図である。動きベクトル検証処理では、第1検知部101により他車両候補が抽出され、その抽出結果を示す情報が第1検知部101から出力されると、検証部102は、それ以降にカメラ20から入力される複数枚の撮影画像において、第1検知部101からの情報に基づいて他車両候補を追跡することにより、他車両候補の動きベクトルを抽出する。たとえば図5(a)に示すように、時刻T1において遠方領域R1内で他車両候補501が検知されたとする。この場合、時刻T1における他車両候補501の位置を起点に、時刻T2、T3、T4でそれぞれ得られた撮影画像から他車両候補501を追跡することで、動きベクトル503を抽出することができる。   FIG. 5 is a diagram for explaining motion vector verification processing in the verification unit 102. In the motion vector verification process, when another vehicle candidate is extracted by the first detection unit 101 and information indicating the extraction result is output from the first detection unit 101, the verification unit 102 is input from the camera 20 thereafter. By tracking other vehicle candidates based on information from the first detection unit 101, a motion vector of the other vehicle candidates is extracted. For example, as shown in FIG. 5A, it is assumed that another vehicle candidate 501 is detected in the far region R1 at time T1. In this case, the motion vector 503 can be extracted by tracking the other vehicle candidate 501 from the captured images obtained at the times T2, T3, and T4 starting from the position of the other vehicle candidate 501 at the time T1.

上記のようにして他車両候補の動きベクトルを抽出できたら、次に検証部102は、その動きベクトルの軌跡が現実的な車両の動きに相当するか否かを判断する。たとえば、図5(b)に示すように、実空間上ではほぼ等間隔に相当する間隔で直線状の軌跡を有する動きベクトル503が抽出された場合や、図5(c)に示すように、実空間上ではほぼ等間隔に相当する間隔で緩やかにカーブした軌跡の動きベクトル504が抽出された場合には、これらの動きベクトルが車両らしい動きを示しているとして、検知された他車両候補が実際に他車両である可能性が高いと判断できる。一方、図5(d)に示すように、実空間上ではほぼ等間隔に相当する間隔ではあるが方向が急激に変化する軌跡の動きベクトル505が抽出された場合や、図5(e)に示すように、方向はほぼ一定であるが間隔が急激に変化する軌跡の動きベクトル506が抽出された場合には、これらの動きベクトルが車両らしくない動きを示しているとして、検知された他車両候補が実際に他車両である可能性が低いと判断できる。検証部102が実行する動きベクトル検証処理では、これ以外にも様々な動きベクトルの軌跡について、現実的な車両の動きとの合致度合いから車両らしさを判断する。これにより、第1検知部101で抽出された他車両候補が実際に検知対象物の他車両であるか、それとも何か別の物体を誤って検知したものであるかを検証することができる。   If the motion vector of the other vehicle candidate can be extracted as described above, the verification unit 102 next determines whether or not the motion vector locus corresponds to a realistic vehicle motion. For example, as shown in FIG. 5B, when a motion vector 503 having a linear trajectory is extracted at an interval substantially equivalent to an equal interval in real space, or as shown in FIG. In the real space, when the motion vectors 504 of the trajectory gently curved at intervals equivalent to approximately equal intervals are extracted, it is assumed that these motion vectors indicate the movements that are likely to be vehicles, and the detected other vehicle candidates are It can be determined that there is a high possibility that the vehicle is actually another vehicle. On the other hand, as shown in FIG. 5 (d), when a motion vector 505 of a trajectory whose direction changes abruptly at an interval substantially equivalent to an equal interval in the real space is extracted, or in FIG. 5 (e). As shown, when motion vectors 506 of a locus whose direction is substantially constant but whose interval changes rapidly are extracted, it is determined that these motion vectors indicate motions that are not likely to be vehicles, and other vehicles detected are detected. It can be determined that the possibility that the candidate is actually another vehicle is low. In the motion vector verification process executed by the verification unit 102, the vehicle-likeness is determined from the degree of coincidence with the actual vehicle motion for various motion vector trajectories. As a result, it is possible to verify whether the other vehicle candidate extracted by the first detection unit 101 is actually another vehicle to be detected, or whether another object has been erroneously detected.

なお、図5では、時刻T1から時刻T4までの4枚の撮影画像から他車両候補501の動きベクトルを抽出する例を説明したが、動きベクトルを抽出する際に参照する撮影画像の枚数はこれに限らず、任意の枚数とすることができる。   In addition, in FIG. 5, although the example which extracts the motion vector of the other vehicle candidate 501 from four captured images from the time T1 to the time T4 has been described, the number of captured images to be referred to when extracting the motion vector is this. However, the number of sheets can be any number.

図6は、検証部102における空間周波数検証処理を説明する図である。空間周波数検証処理では、第1検知部101により他車両候補が抽出されると、検証部102は、それ以降にカメラ20から入力される複数枚の撮影画像のそれぞれについて、他車両候補を含む画像領域を特定する。このときには、前述の動きベクトル検証処理において求めた他車両候補の動きベクトルを利用することが好ましいが、動きベクトルを利用しない他の方法を用いてもよい。そして、各撮影画像で特定した画像領域の空間周波数を解析することで、その画像領域内に実際に車両が存在するか否かを判断する。なお、空間周波数とは、2次元画像における空間的な周期をもつ波長構造の性質を示す情報であり、たとえばフーリエ変換を用いて求めることができる。具体的には、図6に示すように、撮影画像内に特定された画像領域の各画素の値を水平方向の周波数成分と垂直方向の周波数成分に変換して数値化することにより、空間周波数を求めて可視化することが可能である。   FIG. 6 is a diagram for explaining the spatial frequency verification processing in the verification unit 102. In the spatial frequency verification process, when another vehicle candidate is extracted by the first detection unit 101, the verification unit 102 includes an image including the other vehicle candidate for each of a plurality of photographed images input from the camera 20 thereafter. Identify the area. At this time, it is preferable to use the motion vector of the other vehicle candidate obtained in the motion vector verification process described above, but other methods that do not use the motion vector may be used. Then, by analyzing the spatial frequency of the image area specified in each captured image, it is determined whether or not a vehicle actually exists in the image area. Spatial frequency is information indicating the nature of a wavelength structure having a spatial period in a two-dimensional image, and can be obtained using, for example, Fourier transform. Specifically, as shown in FIG. 6, the spatial frequency is obtained by converting the value of each pixel in the image area specified in the captured image into a frequency component in the horizontal direction and a frequency component in the vertical direction and digitizing the value. Can be visualized.

ここで、図6では、水平方向の画素数が20、垂直方向の画素数が14の画像領域について求められた空間周波数画像の例を示している。すなわち、フーリエ変換を行うことで、元の画像領域と同じサイズの画像が空間周波数成分を示す画像として得られる。この空間周波数画像では、画像中心に近いほど水平および垂直の空間周波数が低く、画像中心から遠ざかるほど水平および垂直の空間周波数が高いことを表しており、各周波数成分の含有量が大きいほど白く、各周波数成分の含有量が小さいほど黒く表示される。なお、フーリエ変換の特性上、空間周波数画像では図6に示すように、画像中心に対して4つの象限に点対称の象限画像がそれぞれ得られる。しかし、これらの象限画像はほぼ同じ空間周波数成分結果を表現しているので、いずれか一つの象限画像、たとえば右上の第1象限にある象限画像のみに注目すればよい。   Here, FIG. 6 shows an example of a spatial frequency image obtained for an image region having 20 horizontal pixels and 14 vertical pixels. That is, by performing Fourier transform, an image having the same size as the original image region can be obtained as an image showing a spatial frequency component. In this spatial frequency image, the closer to the center of the image, the lower the horizontal and vertical spatial frequencies, and the farther away from the center of the image, the higher the horizontal and vertical spatial frequencies. The smaller the content of each frequency component, the more black it is displayed. Due to the characteristics of the Fourier transform, as shown in FIG. 6, in the spatial frequency image, quadrant images that are point-symmetric in four quadrants with respect to the image center are obtained. However, since these quadrant images represent almost the same spatial frequency component results, it is only necessary to focus on any one quadrant image, for example, the quadrant image in the first quadrant at the upper right.

図6(a)は、たとえば図3(a)に例示した学習用画像のように、道路上にいる他車両が映り込んだ撮影画像について空間周波数成分を可視化した例である。画像内に他車両が存在する場合には、他車両の幾何学的な形状が画像内に一定範囲で存在するため、図6(a)に示すように、空間周波数は低い周波数から高い周波数まで広く分布する。したがって、他車両候補を含む画像領域の空間周波数の状況が図6(a)と同様の傾向を示す場合には、実際に他車両が存在する可能性が高いと判断できる。   FIG. 6A is an example in which a spatial frequency component is visualized in a captured image in which another vehicle on the road is reflected, such as the learning image illustrated in FIG. When there is another vehicle in the image, the geometric shape of the other vehicle exists in a certain range in the image. Therefore, as shown in FIG. 6A, the spatial frequency ranges from a low frequency to a high frequency. Widely distributed. Therefore, when the state of the spatial frequency of the image region including the other vehicle candidate shows the same tendency as in FIG. 6A, it can be determined that there is a high possibility that the other vehicle actually exists.

図6(b)は、たとえば図3(b)に例示した学習用画像のように、他車両が映り込んでいない撮影画像について空間周波数成分を可視化した例である。画像内に他車両が存在しない場合には、道路のみの均一的な画像模様となるため、図6(b)に示すように、空間周波数はほとんど高周波数成分が存在せず、画像中心の低周波数成分付近のみに集中する分布となる。したがって、他車両候補を含む画像領域の空間周波数の状況が図6(b)と同様の傾向を示す場合には、実際に他車両が存在する可能性が低いと判断できる。   FIG. 6B is an example in which a spatial frequency component is visualized for a captured image in which no other vehicle is reflected, such as the learning image illustrated in FIG. When there is no other vehicle in the image, a uniform image pattern of only the road is obtained. Therefore, as shown in FIG. 6B, the spatial frequency has almost no high frequency component, and the image center is low. The distribution is concentrated only in the vicinity of the frequency component. Therefore, when the state of the spatial frequency of the image area including the other vehicle candidate shows the same tendency as in FIG. 6B, it can be determined that the possibility that the other vehicle actually exists is low.

検証部102は、以上説明したような2種類の処理を実行することにより、それぞれ異なる時刻にカメラ20で撮影して得られた複数の撮影画像に基づいて、第1検知部101で抽出された他車両候補が他車両である可能性を検証することができる。そして、動きベクトル検証処理と空間周波数検証処理のそれぞれの検証結果に基づいて、他車両候補が他車両であることの確からしさに関する検証スコアを算出し、決定部103および設定変更部105に出力する。具体的には、検証部102は、動きベクトル検証処理による現実的な他車両の動きとの合致度合いに応じた検証スコアSC1と、空間周波数検証処理による他車両の存在可能性に応じた検証スコアSC2とを算出し、さらにこれらを足し合わせることで合計検証スコアTSCを算出して、決定部103および設定変更部105に出力する。   The verification unit 102 executes the two types of processing described above, and is extracted by the first detection unit 101 based on a plurality of captured images obtained by the camera 20 at different times. The possibility that the other vehicle candidate is another vehicle can be verified. Then, based on the verification results of the motion vector verification process and the spatial frequency verification process, a verification score relating to the probability that the other vehicle candidate is another vehicle is calculated and output to the determination unit 103 and the setting change unit 105. . Specifically, the verification unit 102 determines the verification score SC1 according to the degree of coincidence with the actual movement of the other vehicle by the motion vector verification process, and the verification score according to the existence possibility of the other vehicle by the spatial frequency verification process. SC2 is calculated, and these are added together to calculate a total verification score TSC, which is output to the determination unit 103 and the setting change unit 105.

決定部103は、検証部102による検証結果に基づいて、第2検知部104が最新の撮影画像から他車両の検知を行うか否かを決定する。具体的には、決定部103は、検証部102により算出された合計検証スコアTSCの値と、予め設定されたしきい値THとを比較する。その結果、合計検証スコアTSCがしきい値THよりも大きく、かつ、最新の撮影画像における他車両候補の位置が第2検知部104の検知領域、すなわち前述の近傍領域R2内にある場合は、第2検知部104が実行する車両検知処理によって他車両候補が実際に他車両であるか否かを確定するために、第2検知部104に対する動作指示を行う。一方、これらの条件のいずれか少なくとも一方を満たさない場合は、他車両候補が実際に他車両であるか否かを確定する必要がないと判断して、第2検知部104に対する動作指示を行わない。   The determination unit 103 determines whether or not the second detection unit 104 detects another vehicle from the latest captured image based on the verification result by the verification unit 102. Specifically, the determination unit 103 compares the value of the total verification score TSC calculated by the verification unit 102 with a preset threshold value TH. As a result, when the total verification score TSC is larger than the threshold value TH and the position of the other vehicle candidate in the latest photographed image is within the detection region of the second detection unit 104, that is, the above-described neighboring region R2, In order to determine whether or not the other vehicle candidate is actually another vehicle by the vehicle detection process executed by the second detection unit 104, an operation instruction is given to the second detection unit 104. On the other hand, when at least one of these conditions is not satisfied, it is determined that it is not necessary to determine whether the other vehicle candidate is actually another vehicle, and an operation instruction is issued to the second detection unit 104. Absent.

第2検知部104は、第1検知部101で他車両候補が抽出された後に取得された最新の撮影画像に基づいて、他車両候補が実際に他車両であるか否かを識別することにより、自車両の周囲に存在する他車両を検知する。第2検知部104は、最新の撮影画像に対して所定の車両検知処理を実行することにより、他車両候補が他車両であるか否かを識別する。具体的には、第2検知部104は、たとえば第1検知部101で説明したのと同様の機械学習型検出器を用いて、他車両候補が実際の車両としての特徴を有するか否かを判断することにより、他車両であるか否かを識別することができる。このとき、第1検知部101のように単に道路上に他車両が存在することを見分けるのではなく、他車両候補として抽出された画像部分の色や形状等の特徴に基づいて、実際の車両に該当するか否かを識別することが好ましい。最新の撮影画像から他車両を検知したら、第2検知部104は、他車両が接近していることを表す車両接近信号を出力する。また、たとえば撮影画像が全体的に暗いなど、他車両を検知するのが困難な状況のときには、検知FAIL信号を出力する。   The second detection unit 104 identifies whether the other vehicle candidate is actually another vehicle based on the latest captured image acquired after the other vehicle candidate is extracted by the first detection unit 101. Detects other vehicles around the host vehicle. The second detection unit 104 identifies whether or not the other vehicle candidate is another vehicle by executing a predetermined vehicle detection process on the latest photographed image. Specifically, the second detection unit 104 uses, for example, a machine learning type detector similar to that described in the first detection unit 101 to determine whether the other vehicle candidate has characteristics as an actual vehicle. By determining, it is possible to identify whether the vehicle is another vehicle. At this time, the actual vehicle is not determined based on the characteristics such as the color and shape of the image portion extracted as the other vehicle candidate, instead of simply identifying that there is another vehicle on the road as in the first detection unit 101. It is preferable to identify whether or not this is true. When the other vehicle is detected from the latest photographed image, the second detection unit 104 outputs a vehicle approach signal indicating that the other vehicle is approaching. Further, when it is difficult to detect other vehicles, for example, the captured image is entirely dark, a detection FAIL signal is output.

設定変更部105は、検証部102により算出された合計検証スコアTSCの値に基づいて、第2検知部104が最新の撮影画像から他車両の検知を行う際の感度設定値を動的に変更する。具体的には、合計検証スコアTSCの値が高くなるほど、第2検知部104が他車両を検知しやすくなるように、第2検知部104が実行する車両検知処理における感度設定値CCを変化させる。   Based on the value of the total verification score TSC calculated by the verification unit 102, the setting change unit 105 dynamically changes the sensitivity setting value when the second detection unit 104 detects another vehicle from the latest captured image. To do. Specifically, the sensitivity setting value CC in the vehicle detection process executed by the second detection unit 104 is changed such that the higher the total verification score TSC value, the easier it is for the second detection unit 104 to detect other vehicles. .

図7は、合計検証スコアTSCと感度設定値CCとの関係を示す特性曲線の例を示す図である。図7において特性曲線700に示すように、合計検証スコアTSCの値が低い場合には、他車両候補が実際に他車両である確度が低い状態と考えられるため、第2検知部104における感度設定値CCを低く設定して、第2検知部104の誤検知を防止する。一方、これとは逆に、合計検証スコアTSCの値が高い場合には、他車両候補が実際に他車両である確度が高い状態と考えられるため、第2検知部104における感度設定値CCを高く設定して、第2検知部104の検知漏れを防止する。なお、図7の特性曲線700の例では、合計検証スコアTSCが所定の値TSCnの場合に、感度設定値CCをCCmに設定することを示している。設定変更部105による感度設定値の変更は、画像処理装置10が他車両の検知を行っている間に、動的に実行することが好ましい。   FIG. 7 is a diagram illustrating an example of a characteristic curve indicating the relationship between the total verification score TSC and the sensitivity setting value CC. As shown by the characteristic curve 700 in FIG. 7, when the total verification score TSC is low, it is considered that the probability that the other vehicle candidate is actually another vehicle is low, so the sensitivity setting in the second detection unit 104 is performed. The value CC is set low to prevent erroneous detection of the second detection unit 104. On the other hand, when the value of the total verification score TSC is high, it is considered that the probability that the other vehicle candidate is actually another vehicle is high. Therefore, the sensitivity setting value CC in the second detection unit 104 is A high setting is made to prevent detection failure of the second detection unit 104. In the example of the characteristic curve 700 in FIG. 7, the sensitivity setting value CC is set to CCm when the total verification score TSC is a predetermined value TSCn. The change of the sensitivity setting value by the setting changing unit 105 is preferably executed dynamically while the image processing apparatus 10 is detecting another vehicle.

図8は、本発明の第1の実施形態に係る画像処理装置10の処理フローを示す図である。ステップ800では、自車両のイグニッションがONになったか否かを判定し、イグニッションがONでない場合は、ONになるまで待機状態を維持する。イグニッションがONの場合は、処理をステップ801に進める。   FIG. 8 is a diagram showing a processing flow of the image processing apparatus 10 according to the first embodiment of the present invention. In step 800, it is determined whether or not the ignition of the host vehicle is turned on. If the ignition is not turned on, the standby state is maintained until the ignition is turned on. If the ignition is on, the process proceeds to step 801.

ステップ801では、画像処理装置10の初期化が既に実行されたか否かを判定する。初期化済みであれば処理をステップ804に進め、初期化済みでなければ処理をステップ802に進める。ステップ802では、所定の初期化処理を実行し、次のステップ803では、カメラ20の撮影画像上に、図4に例示した遠方領域R1および近傍領域R2を設定する。   In step 801, it is determined whether the initialization of the image processing apparatus 10 has already been executed. If it has been initialized, the process proceeds to step 804; otherwise, the process proceeds to step 802. In step 802, a predetermined initialization process is executed. In the next step 803, the far region R1 and the near region R2 illustrated in FIG. 4 are set on the captured image of the camera 20.

続いてステップ804では、カメラ20により取得された撮影画像を第1検知部101に入力し、ステップ805では、第1検知部101により、ステップ804で入力された撮影画像から遠方領域R1内にいる他車両候補を検知して抽出する。ステップ806では、ステップ805で他車両候補が抽出されたか否かを判定する。他車両候補が抽出された場合は処理をステップ807へ進め、抽出されていない場合は処理をステップ804に戻して次の撮影画像を入力する。   Subsequently, in step 804, the captured image acquired by the camera 20 is input to the first detection unit 101. In step 805, the first detection unit 101 is within the far region R1 from the captured image input in step 804. Other vehicle candidates are detected and extracted. In step 806, it is determined whether or not another vehicle candidate is extracted in step 805. If another vehicle candidate is extracted, the process proceeds to step 807. If not extracted, the process returns to step 804 to input the next photographed image.

ステップ807では、検証部102により動きベクトル検証処理を行い、処理結果に応じた検証スコアSC1を算出する。ステップ808では、ステップ807で算出した動きベクトルを用いて、ステップ805で抽出した他車両候補の位置を算出および追跡する。ステップ809では、検証部102により空間周波数検証処理を行い、処理結果に応じた検証スコアSC2を算出する。ステップ810では、ステップ807で算出した検証スコアSC1の値と、ステップ809で算出した検証スコアSC2の値とを合計し、合計検証スコアTSCを算出する。   In step 807, the verification unit 102 performs motion vector verification processing, and calculates a verification score SC1 according to the processing result. In step 808, the position of the other vehicle candidate extracted in step 805 is calculated and tracked using the motion vector calculated in step 807. In step 809, the verification unit 102 performs spatial frequency verification processing, and calculates a verification score SC2 according to the processing result. In step 810, the value of the verification score SC1 calculated in step 807 and the value of the verification score SC2 calculated in step 809 are summed to calculate a total verification score TSC.

ステップ811では、決定部103により、ステップ808で求めた他車両候補の位置と、ステップ810で求めた合計検証スコアTSCの値とに基づいて、ステップ805で抽出した他車両候補が最新の撮影画像では近傍領域R2内に存在するか否かを判定する。ここでは、合計検証スコアTSCの値を予め設定されたしきい値THと比較して、合計検証スコアTSCがしきい値THよりも大きく、かつ、他車両候補の位置が近傍領域R2内である場合に、他車両候補が近傍領域R2内に存在すると判断し、処理をステップ812に進める。一方、これらの条件の一方または両方を満たさない場合には、他車両候補が近傍領域R2内には存在しないと判断し、処理をステップ804に戻して次の撮影画像を入力する。   In step 811, based on the position of the other vehicle candidate obtained in step 808 and the total verification score TSC obtained in step 810 by the determining unit 103, the other vehicle candidate extracted in step 805 is the latest captured image. Then, it is determined whether or not it exists in the vicinity region R2. Here, the value of the total verification score TSC is compared with a preset threshold value TH, the total verification score TSC is larger than the threshold value TH, and the position of the other vehicle candidate is within the vicinity region R2. In this case, it is determined that another vehicle candidate exists in the vicinity region R2, and the process proceeds to Step 812. On the other hand, when one or both of these conditions are not satisfied, it is determined that the other vehicle candidate does not exist in the vicinity region R2, and the process returns to step 804 to input the next photographed image.

ステップ812では、第2検知部104により、ステップ804で入力された撮影画像に基づいて、ステップ805で抽出した他車両候補が実際の他車両であるか否かを識別することにより、他車両を検知する。ステップ813では、ステップ812で他車両が検知されたか否かを判定する。他車両が検知された場合は処理をステップ814へ進め、抽出されていない場合は処理をステップ804に戻して次の撮影画像を入力する。   In step 812, the second detection unit 104 identifies whether the other vehicle candidate extracted in step 805 is an actual other vehicle based on the photographed image input in step 804, thereby identifying the other vehicle. Detect. In step 813, it is determined whether or not another vehicle is detected in step 812. If another vehicle is detected, the process proceeds to step 814. If not extracted, the process returns to step 804 to input the next photographed image.

ステップ813が肯定判定されることで他車両の存在が確定した場合、ステップ814では、ユーザに対して警報を行うための所定の警報処理を行う。ここでは、たとえば自車両と他車両との距離を算出し、その距離に基づいて、他車両が自車両に接近している旨を自車両の運転者であるユーザに報知する。ステップ815では、所定の動作終了条件に基づいて画像処理装置10の動作を終了するか否かを判定する。その結果、動作継続と判定した場合は処理をステップ804に戻し、動作終了と判定した場合は図8に示す処理フローを終了する。   If the determination in step 813 is affirmative and the presence of the other vehicle is confirmed, in step 814, a predetermined warning process is performed to give a warning to the user. Here, for example, the distance between the host vehicle and the other vehicle is calculated, and based on the distance, the user who is the driver of the host vehicle is notified that the other vehicle is approaching the host vehicle. In step 815, it is determined whether or not to end the operation of the image processing apparatus 10 based on a predetermined operation end condition. As a result, when it is determined that the operation is to be continued, the processing is returned to step 804, and when it is determined that the operation is to be ended, the processing flow shown in FIG. 8 is ended.

以上説明した本発明の第1の実施形態によれば、以下の作用効果を奏する。   According to the 1st Embodiment of this invention demonstrated above, there exist the following effects.

(1)画像処理装置10は、第1検知部101と、第2検知部104とを備える。第1検知部101は、第1の時刻にカメラで撮影して得られた第1の撮影画像から、カメラ20に対して第1の距離だけ離れた地点に相当する遠方領域R1内に存在する対象物すなわち他車両の候補を抽出する(ステップ805)。第2検知部104は、第1の時刻よりも後の第2の時刻にカメラ20で撮影して得られた第2の撮影画像から、カメラ20に対して第1の距離よりも近い第2の距離だけ離れた地点に相当する近傍領域R2内に存在する対象物すなわち他車両を検知する(ステップ812)。このとき、第2検知部104は、第2の撮影画像に基づいて、第1検知部101により抽出された他車両の候補が他車両であるか否かを識別することにより、対象物としての他車両を検知する。このようにしたので、自車両の遠方から近傍に接近してくる他車両を撮影画像において正確に検知できる。 (1) The image processing apparatus 10 includes a first detection unit 101 and a second detection unit 104. The first detection unit 101 exists in a distant region R1 corresponding to a point separated from the camera 20 by a first distance from the first captured image obtained by capturing with the camera at the first time. A candidate for an object, that is, another vehicle is extracted (step 805). The second detection unit 104 uses a second captured image obtained by photographing with the camera 20 at a second time after the first time, and is closer to the camera 20 than the first distance. An object existing in the vicinity region R2 corresponding to a point separated by a distance, that is, another vehicle is detected (step 812). At this time, the second detection unit 104 identifies whether or not the other vehicle candidate extracted by the first detection unit 101 is another vehicle based on the second captured image. Detect other vehicles. Since it did in this way, the other vehicle which approaches the vicinity from the distant place of the own vehicle can be detected correctly in the captured image.

(2)画像処理装置10は、検証部102と、決定部103とをさらに備える。検証部102は、それぞれ異なる時刻にカメラ20で撮影して得られた複数の撮影画像に基づいて、対象物である他車両の候補が他車両である可能性を検証する(ステップ807、809、810)。決定部103は、検証部102による検証結果に基づいて、第2検知部104が他車両の検知を行うか否かを決定する(ステップ811)。このようにしたので、第2検知部104による他車両の検知を適切なタイミングで実行できるため、正確な検知結果を得ることができる。 (2) The image processing apparatus 10 further includes a verification unit 102 and a determination unit 103. The verification unit 102 verifies the possibility that the candidate for the other vehicle, which is the object, is another vehicle, based on a plurality of captured images obtained by shooting with the camera 20 at different times (steps 807, 809, 810). The determination unit 103 determines whether or not the second detection unit 104 detects another vehicle based on the verification result by the verification unit 102 (step 811). Since it did in this way, since the detection of the other vehicle by the 2nd detection part 104 can be performed at an appropriate timing, an exact detection result can be obtained.

(3)検証部102は、ステップ807、809において、他車両の候補が他車両であることの確からしさに関する検証スコアSC1、SC2をそれぞれ算出する。決定部103は、ステップ811において、検証部102により算出された検証スコアSC1、SC2を合計した合計検証スコアTSCに基づいて、第2検知部104が他車両の検知を行うか否かを決定する。このようにしたので、決定部103において、検証部102による検証結果を正確に反映した決定を行うことができる。 (3) In steps 807 and 809, the verification unit 102 calculates verification scores SC1 and SC2 related to the probability that the other vehicle candidate is the other vehicle, respectively. In step 811, the determination unit 103 determines whether or not the second detection unit 104 detects another vehicle based on the total verification score TSC obtained by adding the verification scores SC <b> 1 and SC <b> 2 calculated by the verification unit 102. . Since it did in this way, in the determination part 103, the determination which reflected the verification result by the verification part 102 correctly can be performed.

(4)検証部102は、ステップ807、809において、複数の撮影画像における他車両の候補の動きを示す動きベクトルと、複数の撮影画像における他車両の候補を含む画像領域の空間周波数とに基づいて、検証スコアSC1、SC2をそれぞれ算出する。このようにしたので、他車両の候補が他車両であることの確からしさを正確に反映した検証スコアSC1、SC2を得ることができる。 (4) In Steps 807 and 809, the verification unit 102 is based on the motion vector indicating the motion of the other vehicle candidate in the plurality of captured images and the spatial frequency of the image area including the other vehicle candidate in the plurality of captured images. The verification scores SC1 and SC2 are calculated respectively. Since it did in this way, verification score SC1, SC2 which reflected the probability that the candidate of another vehicle is an other vehicle correctly can be obtained.

(5)画像処理装置10は、合計検証スコアTSCに基づいて第2検知部104が他車両を検知する際の感度設定値を動的に変更する設定変更部105をさらに備える。このようにしたので、状況に応じて第2検知部104の誤検知や検知漏れを適切に防止することができる。 (5) The image processing apparatus 10 further includes a setting change unit 105 that dynamically changes the sensitivity setting value when the second detection unit 104 detects another vehicle based on the total verification score TSC. Since it did in this way, the misdetection and detection omission of the 2nd detection part 104 can be prevented appropriately according to a situation.

−第2の実施形態−
図9は、本発明の第2の実施形態に係る外界認識装置の一例を示す図である。図9に示すように、本実施形態の外界認識装置900は、第1の実施形態で説明した画像処理装置10と、周辺認識部901、信号処理部902およびドライバー通知部903とを備える。外界認識装置900は、画像処理装置10と同様に自車両に搭載されたカメラ20に接続されると共に、自車両に搭載された制御部911、メモリ912、自車両制御部913、LED914、スピーカ915、ディスプレイ916およびカーナビゲーション装置917にも接続されている。なお、画像処理装置10と他の各機器とは、自車両内の信号バスを介して互いに接続されている。
-Second Embodiment-
FIG. 9 is a diagram showing an example of an external environment recognition apparatus according to the second embodiment of the present invention. As shown in FIG. 9, the external environment recognition device 900 of this embodiment includes the image processing device 10 described in the first embodiment, a periphery recognition unit 901, a signal processing unit 902, and a driver notification unit 903. The external environment recognition device 900 is connected to the camera 20 mounted on the host vehicle, similarly to the image processing device 10, and also includes a control unit 911, a memory 912, a host vehicle control unit 913, an LED 914, and a speaker 915 mounted on the host vehicle. The display 916 and the car navigation device 917 are also connected. Note that the image processing apparatus 10 and other devices are connected to each other via a signal bus in the host vehicle.

カメラ20は、自車両周辺の撮影画像を取得し、外界認識装置900内の画像処理装置10に出力する。メモリ912は、カメラ20が取得した撮像画像を一時的に保持する。制御部911は、カメラ20と外界認識装置900の間における撮影画像の入出力や、外界認識装置900と自車両制御部913の間における車両制御信号の入出力を制御する。   The camera 20 acquires a captured image around the host vehicle and outputs the captured image to the image processing device 10 in the external environment recognition device 900. The memory 912 temporarily holds a captured image acquired by the camera 20. The control unit 911 controls input / output of captured images between the camera 20 and the external environment recognition device 900 and input / output of vehicle control signals between the external environment recognition device 900 and the host vehicle control unit 913.

画像処理装置10は、第1の実施形態で説明したように、自車両の周囲に存在する他車両を検知し、その検知結果に基づく車両接近信号を周辺認識部901に出力する。また、他車両を検知するのが困難な状況のときには、検知FAIL信号を周辺認識部901に出力する。   As described in the first embodiment, the image processing apparatus 10 detects other vehicles around the host vehicle, and outputs a vehicle approach signal based on the detection result to the periphery recognition unit 901. Further, when it is difficult to detect other vehicles, a detection FAIL signal is output to the periphery recognition unit 901.

周辺認識部901は、画像処理装置10から車両接近信号が出力されると、これに基づいて、自車両の周囲環境を認識するための周辺認識処理を実行する。たとえば、カメラ20の撮影画像を用いて自車両の近傍および遠方の周辺空間を解析し、バイクや自転車を含む他車両および歩行者の有無を認識したり、自車両の走行や駐車の妨げになる障害物体の有無を認識したりする。また、他車両や歩行者が自車両に急接近している場合にはこれを検知して自車両との衝突を予測したり、自車両と障害物との衝突を予測したりする。さらに、自車両が走行中に車線逸脱した場合に警報を出す車線逸脱警報処理や、自車両のドライバーの死角に人や他車両が入り込んでいた場合に警報を出す死角警報処理などを、周辺認識処理に含めてもよい。周辺認識部901は、周辺認識処理の実行結果に基づく検知結果や警報情報を信号処理部902に出力すると共に、自車両のドライバーに対する通知情報を必要に応じてドライバー通知部903に出力する。   When a vehicle approach signal is output from the image processing apparatus 10, the periphery recognition unit 901 executes a periphery recognition process for recognizing the surrounding environment of the host vehicle based on the signal. For example, the vicinity of the host vehicle and the surrounding space of the host vehicle are analyzed using the captured image of the camera 20 to recognize the presence or absence of other vehicles and pedestrians including motorcycles and bicycles, and hinders the driving and parking of the host vehicle. Recognize the presence or absence of obstacles. Further, when another vehicle or a pedestrian is approaching the own vehicle suddenly, this is detected and a collision with the own vehicle is predicted, or a collision between the own vehicle and an obstacle is predicted. In addition, lane departure warning processing that issues a warning when the vehicle departs while driving, and blind spot warning processing that issues a warning when a person or other vehicle enters the blind spot of the driver of the vehicle, etc. It may be included in the processing. The periphery recognition unit 901 outputs detection results and alarm information based on the execution result of the periphery recognition processing to the signal processing unit 902, and outputs notification information for the driver of the host vehicle to the driver notification unit 903 as necessary.

信号処理部902は、周辺認識部901から出力された検知結果および警報情報に基づいて、自車両の動作を制御するための車両制御信号を生成し、自車両制御部913に送信する。自車両制御部913は、信号処理部902から受信した車両制御信号に基づいて自車両の動作を制御することで、他車両や歩行者との衝突を回避するために自車両を停止させたり、障害物との衝突を回避するために自車両の進行方向を変化させたりする。   The signal processing unit 902 generates a vehicle control signal for controlling the operation of the host vehicle based on the detection result and the alarm information output from the periphery recognition unit 901 and transmits the vehicle control signal to the host vehicle control unit 913. The own vehicle control unit 913 controls the operation of the own vehicle based on the vehicle control signal received from the signal processing unit 902 to stop the own vehicle in order to avoid a collision with another vehicle or a pedestrian, In order to avoid a collision with an obstacle, the traveling direction of the host vehicle is changed.

ドライバー通知部903は、周辺認識部901から出力された通知情報に基づいて、自車両のドライバーに対する警告を行うための警報信号を生成し、LED914、スピーカ915、ディスプレイ916、カーナビゲーション装置917のいずれかに送信する。LED914、スピーカ915、ディスプレイ916、カーナビゲーション装置917の各機器は、ドライバー通知部903から受信した警報信号を受信すると、これに基づいて所定の表示や音声出力を行うことで、自車両のドライバーに対して、自車両に接近している他車両や歩行者、障害物等の存在を警告する。   Based on the notification information output from the periphery recognition unit 901, the driver notification unit 903 generates an alarm signal for warning the driver of the vehicle, and any of the LED 914, the speaker 915, the display 916, and the car navigation device 917 Send to. When the LED 914, the speaker 915, the display 916, and the car navigation device 917 receive the warning signal received from the driver notification unit 903, the device performs a predetermined display and audio output based on the warning signal, thereby enabling the driver of the host vehicle. On the other hand, the presence of other vehicles approaching the host vehicle, pedestrians, obstacles, etc. is warned.

なお、画像処理装置10から検知FAIL信号が出力されているときには、画像処理装置10において他車両を検知するのが困難であると判断されるため、周辺認識部901は画像処理装置10の動作を一時的または連続して停止させることが好ましい。周辺認識部901は、画像処理装置10に対してON/OFF制御信号を出力することで、画像処理装置10の動作を開始または停止させることができる。さらにこのとき、周辺認識部901からドライバー通知部903へ通知情報を出力し、これに基づいてドライバー通知部903が警報信号を生成してLED914、スピーカ915、ディスプレイ916、カーナビゲーション装置917のいずれかに送信することで、画像処理装置10の動作が停止していることを自車両のドライバーに通知してもよい。   Note that when the detection FAIL signal is output from the image processing apparatus 10, it is determined that it is difficult for the image processing apparatus 10 to detect another vehicle, so the periphery recognition unit 901 performs the operation of the image processing apparatus 10. It is preferable to stop temporarily or continuously. The periphery recognition unit 901 can start or stop the operation of the image processing apparatus 10 by outputting an ON / OFF control signal to the image processing apparatus 10. Further, at this time, the notification information is output from the periphery recognition unit 901 to the driver notification unit 903, and based on this, the driver notification unit 903 generates an alarm signal and any one of the LED 914, the speaker 915, the display 916, and the car navigation device 917. To the driver of the own vehicle that the operation of the image processing apparatus 10 is stopped.

以上説明した本発明の第2の実施形態によれば、外界認識装置900は、画像処理装置10を備える。また、周辺認識部901、信号処理部902およびドライバー通知部903により、画像処理装置10内の第2検知部104による他車両の検知結果に基づいて、自車両の運転者に対する警告を行うための警報信号および自車両の動作を制御するための車両制御信号のいずれか少なくとも一つを出力する。このようにしたので、自車両の周囲環境を正確に認識することができる。   According to the second embodiment of the present invention described above, the external environment recognition apparatus 900 includes the image processing apparatus 10. Further, the periphery recognition unit 901, the signal processing unit 902, and the driver notification unit 903 are used to issue a warning to the driver of the host vehicle based on the detection result of the other vehicle by the second detection unit 104 in the image processing apparatus 10. At least one of an alarm signal and a vehicle control signal for controlling the operation of the host vehicle is output. Since it did in this way, the surrounding environment of the own vehicle can be recognized correctly.

なお、以上説明した各実施の形態では、撮影画像から検知する対象物を自車両周囲に存在する他車両としたが、対象物はこれに限定されず、他の物体を対象物としてもよい。また、車両に搭載されたカメラ20で取得した撮影画像を用いて対象物を検知する例を説明したが、撮影画像を取得するカメラは車両に搭載されたものに限らない。たとえば、街頭監視等に用いられるカメラなど、車載以外の様々な用途のカメラで取得された撮影画像を用いて、対象物を検知することができる。   In each of the embodiments described above, the target object detected from the captured image is the other vehicle around the host vehicle. However, the target object is not limited to this, and another object may be the target object. Moreover, although the example which detects a target object using the picked-up image acquired with the camera 20 mounted in the vehicle was demonstrated, the camera which acquires a picked-up image is not restricted to what was mounted in the vehicle. For example, it is possible to detect an object using captured images acquired by cameras for various uses other than in-vehicle use such as a camera used for street monitoring.

以上説明した実施形態や各種の変化例はあくまで一例であり、発明の特徴が損なわれない限り、本発明はこれらの内容に限定されない。本発明は、上述した実施形態や変形例に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。   The embodiment and various examples described above are merely examples, and the present invention is not limited to these contents as long as the features of the invention are not impaired. The present invention is not limited to the above-described embodiments and modifications, and various modifications can be made without departing from the spirit of the present invention.

10 画像処理装置
20 カメラ
101 第1検知部
102 検証部
103 決定部
104 第2検知部
105 設定変更部
900 外界認識装置
901 周辺認識部
902 信号処理部
903 ドライバー通知部
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 20 Camera 101 1st detection part 102 Verification part 103 Determination part 104 2nd detection part 105 Setting change part 900 External field recognition apparatus 901 Perimeter recognition part 902 Signal processing part 903 Driver notification part

Claims (7)

第1の時刻にカメラで撮影して得られた第1の撮影画像から、前記カメラに対して第1の距離だけ離れた地点に存在する対象物の候補を抽出する第1検知部と、
前記第1の時刻よりも後の第2の時刻に前記カメラで撮影して得られた第2の撮影画像から、前記カメラに対して前記第1の距離よりも近い第2の距離だけ離れた地点に存在する前記対象物を検知する第2検知部と、を備え、
前記第2検知部は、前記第2の撮影画像に基づいて、前記第1検知部により抽出された前記対象物の候補が前記対象物であるか否かを識別することにより、前記対象物を検知する画像処理装置。
A first detection unit for extracting a candidate for an object existing at a point away from the camera by a first distance from a first photographed image obtained by photographing with a camera at a first time;
A second distance closer to the camera than the first distance is separated from a second photographed image obtained by photographing with the camera at a second time after the first time. A second detector for detecting the object present at the point,
The second detection unit identifies the target by identifying whether the candidate for the target extracted by the first detection unit is the target based on the second captured image. An image processing device to detect.
請求項1に記載の画像処理装置において、
それぞれ異なる時刻に前記カメラで撮影して得られた複数の撮影画像に基づいて、前記対象物の候補が前記対象物である可能性を検証する検証部と、
前記検証部による検証結果に基づいて、前記第2検知部が前記対象物の検知を行うか否かを決定する決定部と、をさらに備える画像処理装置。
The image processing apparatus according to claim 1.
A verification unit that verifies the possibility that the candidate for the target is the target based on a plurality of captured images captured by the camera at different times; and
An image processing apparatus further comprising: a determination unit that determines whether or not the second detection unit detects the object based on a verification result by the verification unit.
請求項2に記載の画像処理装置において、
前記検証部は、前記対象物の候補が前記対象物であることの確からしさに関する検証スコアを算出し、
前記決定部は、前記検証部により算出された前記検証スコアに基づいて、前記第2検知部が前記対象物の検知を行うか否かを決定する画像処理装置。
The image processing apparatus according to claim 2,
The verification unit calculates a verification score related to the probability that the candidate for the target is the target,
The said determination part is an image processing apparatus which determines whether the said 2nd detection part detects the said target object based on the said verification score calculated by the said verification part.
請求項3に記載の画像処理装置において、
前記検証部は、前記複数の撮影画像における前記対象物の候補の動きを示す動きベクトルと、前記複数の撮影画像における前記対象物の候補を含む画像領域の空間周波数とに基づいて、前記検証スコアを算出する画像処理装置。
The image processing apparatus according to claim 3.
The verification unit is configured to determine the verification score based on a motion vector indicating a motion of the target candidate in the plurality of captured images and a spatial frequency of an image region including the target candidate in the plurality of captured images. An image processing apparatus for calculating
請求項3または請求項4に記載の画像処理装置において、
前記検証スコアに基づいて前記第2検知部が前記対象物を検知する際の感度設定値を動的に変更する設定変更部をさらに備える画像処理装置。
The image processing apparatus according to claim 3 or 4,
An image processing apparatus, further comprising: a setting changing unit that dynamically changes a sensitivity setting value when the second detection unit detects the object based on the verification score.
請求項1から請求項5までのいずれか一項に記載の画像処理装置において、
前記画像処理装置は自車両に搭載されており、
前記対象物は前記自車両の周囲に存在する他車両である画像処理装置。
In the image processing apparatus according to any one of claims 1 to 5,
The image processing apparatus is mounted on the host vehicle,
The image processing apparatus, wherein the object is another vehicle existing around the host vehicle.
請求項6に記載の画像処理装置を備え、
前記第2検知部による前記他車両の検知結果に基づいて、前記自車両の運転者に対する警告を行うための警報信号および前記自車両の動作を制御するための車両制御信号のいずれか少なくとも一つを出力する外界認識装置。
An image processing apparatus according to claim 6,
At least one of an alarm signal for warning the driver of the host vehicle and a vehicle control signal for controlling the operation of the host vehicle based on the detection result of the other vehicle by the second detector. A device that recognizes the outside world.
JP2016108686A 2016-05-31 2016-05-31 Image processing device, external recognition device Active JP6713349B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016108686A JP6713349B2 (en) 2016-05-31 2016-05-31 Image processing device, external recognition device
PCT/JP2017/012756 WO2017208601A1 (en) 2016-05-31 2017-03-28 Image processing device and external recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016108686A JP6713349B2 (en) 2016-05-31 2016-05-31 Image processing device, external recognition device

Publications (2)

Publication Number Publication Date
JP2017215743A true JP2017215743A (en) 2017-12-07
JP6713349B2 JP6713349B2 (en) 2020-06-24

Family

ID=60478102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016108686A Active JP6713349B2 (en) 2016-05-31 2016-05-31 Image processing device, external recognition device

Country Status (2)

Country Link
JP (1) JP6713349B2 (en)
WO (1) WO2017208601A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020140591A (en) * 2019-03-01 2020-09-03 KB−eye株式会社 Management server, traffic control system, traffic control method, and traffic control program
JP2020147129A (en) * 2019-03-13 2020-09-17 株式会社明電舎 Overhead power line metal fitting detection device and overhead power line metal fitting detection method
JP2021086597A (en) * 2020-03-09 2021-06-03 ニューラルポケット株式会社 Information processing system, information processing device, terminal device, server device, program, and method
JP2021148589A (en) * 2020-03-19 2021-09-27 株式会社明電舎 Trolley wire inspection device and trolley wire inspection method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005318546A (en) * 2004-03-29 2005-11-10 Fuji Photo Film Co Ltd Image recognition system, image recognition method, and image recognition program
JP2007249841A (en) * 2006-03-17 2007-09-27 Toyota Motor Corp Image recognition device
JP2009230229A (en) * 2008-03-19 2009-10-08 Toyota Motor Corp Object detection device
JP2012256159A (en) * 2011-06-08 2012-12-27 Alpine Electronics Inc Approaching object detecting device and method for detecting approaching object
JP2013061919A (en) * 2011-09-15 2013-04-04 Clarion Co Ltd External environment recognition method and device, and vehicle system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005318546A (en) * 2004-03-29 2005-11-10 Fuji Photo Film Co Ltd Image recognition system, image recognition method, and image recognition program
JP2007249841A (en) * 2006-03-17 2007-09-27 Toyota Motor Corp Image recognition device
JP2009230229A (en) * 2008-03-19 2009-10-08 Toyota Motor Corp Object detection device
JP2012256159A (en) * 2011-06-08 2012-12-27 Alpine Electronics Inc Approaching object detecting device and method for detecting approaching object
JP2013061919A (en) * 2011-09-15 2013-04-04 Clarion Co Ltd External environment recognition method and device, and vehicle system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020140591A (en) * 2019-03-01 2020-09-03 KB−eye株式会社 Management server, traffic control system, traffic control method, and traffic control program
JP2020147129A (en) * 2019-03-13 2020-09-17 株式会社明電舎 Overhead power line metal fitting detection device and overhead power line metal fitting detection method
JP7299041B2 (en) 2019-03-13 2023-06-27 株式会社明電舎 Overhead wire fitting detection device and overhead wire fitting detection method
JP2021086597A (en) * 2020-03-09 2021-06-03 ニューラルポケット株式会社 Information processing system, information processing device, terminal device, server device, program, and method
JP6997471B2 (en) 2020-03-09 2022-01-17 ニューラルポケット株式会社 Information processing system, information processing device, terminal device, server device, program, or method
JP2021148589A (en) * 2020-03-19 2021-09-27 株式会社明電舎 Trolley wire inspection device and trolley wire inspection method
JP7384083B2 (en) 2020-03-19 2023-11-21 株式会社明電舎 Contact wire inspection device and contact wire inspection method

Also Published As

Publication number Publication date
JP6713349B2 (en) 2020-06-24
WO2017208601A1 (en) 2017-12-07

Similar Documents

Publication Publication Date Title
JP6611353B2 (en) Image processing device, external recognition device
CN109074651B (en) Surrounding environment recognition device for moving body
EP3258214B1 (en) Object detection device
JP6888950B2 (en) Image processing device, external world recognition device
JP5297078B2 (en) Method for detecting moving object in blind spot of vehicle, and blind spot detection device
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
KR101891460B1 (en) Method and apparatus for detecting and assessing road reflections
EP2463843A2 (en) Method and system for forward collision warning
KR20160137247A (en) Apparatus and method for providing guidance information using crosswalk recognition result
WO2017208601A1 (en) Image processing device and external recognition device
JPH11353565A (en) Method and device for alarm of collision for vehicle
KR101326943B1 (en) Overtaking vehicle warning system and overtaking vehicle warning method
KR20130094997A (en) Apparatus and method detectinc obstacle and alerting collision
WO2018116841A1 (en) Object detection device
US20180114078A1 (en) Vehicle detection device, vehicle detection system, and vehicle detection method
US8160300B2 (en) Pedestrian detecting apparatus
KR101427032B1 (en) Apparatus and method for recognizing pedestrian in vehicle, and apparatus and method for warning and preventing collision with pedestrian in vehicle using thereof
JP2015153162A (en) Boundary line recognition device
JP2017167608A (en) Object recognition device, object recognition method, and object recognition program
JP2005156199A (en) Vehicle detection method and vehicle detector
KR20170138842A (en) System and Method for Tracking Vehicle on the basis on Template Matching
KR101724868B1 (en) Apparatus and method for recognizing traffic mark based on image
KR102485318B1 (en) System and Method for Recognizing Cut-in Vehicle on the basis of Monocular Image
JP2018163530A (en) Object detection device, object detection method, and object detection program
KR20210081887A (en) Danger detection output device and method using captured image of rear and side of vehicle

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170315

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170921

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200603

R150 Certificate of patent or registration of utility model

Ref document number: 6713349

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150