JP2015185135A - Parking recognition device, parking recognition method and program - Google Patents

Parking recognition device, parking recognition method and program Download PDF

Info

Publication number
JP2015185135A
JP2015185135A JP2014063877A JP2014063877A JP2015185135A JP 2015185135 A JP2015185135 A JP 2015185135A JP 2014063877 A JP2014063877 A JP 2014063877A JP 2014063877 A JP2014063877 A JP 2014063877A JP 2015185135 A JP2015185135 A JP 2015185135A
Authority
JP
Japan
Prior art keywords
vehicle
image
stop
stop recognition
inter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014063877A
Other languages
Japanese (ja)
Inventor
久 小磯
Hisashi Koiso
久 小磯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2014063877A priority Critical patent/JP2015185135A/en
Publication of JP2015185135A publication Critical patent/JP2015185135A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a parking recognition device, a parking recognition program and a program capable of suppressing installation cost and processing cost and enhancing recognition accuracy.SOLUTION: A parking recognition device 100 is a device for performing parking recognition by using a photographed image around a vehicle, and includes an image acquisition part 110 for generating a plurality of image frames which temporally continue, and image processing part 120 for calculating difference between frames of a pixel value from two image frames, and weighting a calculation result of the difference between frames of the pixel value in a first partial area in the two image frames, and a parking recognition part 130 for recognizing parking of a vehicle on the basis of the difference between frames of the pixel value.

Description

本発明は停車認識装置、停車認識方法及びプログラムに関し、例えば設置コストや処理コストを抑制し、かつ認識精度を高めることが可能な停車認識技術に関する。   The present invention relates to a stop recognition device, a stop recognition method, and a program, for example, a stop recognition technology capable of suppressing installation cost and processing cost and improving recognition accuracy.

従来より、自車周辺の人や車両等の動きを検知し、それらとの衝突や異常接近等の危険が発生する可能性があると判断した場合に、運転者への情報提供や所定の車両制御等を行う技術が種々提案されている。   Conventionally, if it is determined that there is a possibility of collision or abnormal approach with the movement of people or vehicles around the vehicle, information will be provided to the driver or the vehicle Various techniques for performing control and the like have been proposed.

例えば、特許文献1には、歩行者等との衝突の危険があれば、運転者にディスプレイ等を介し報知する装置が記載されている。この装置は、車外環境を車速センサやレーダ等により検知する。その結果、例えば信号で停車中であるなど、自車が歩行者等と衝突する可能性が低い状況にあると判断した場合には、運転者への報知を抑制する。これにより、不要な報知を抑えた効果的な運転支援を実現している。   For example, Patent Document 1 describes a device that notifies a driver via a display or the like if there is a danger of a collision with a pedestrian or the like. This device detects the environment outside the vehicle by a vehicle speed sensor, a radar, or the like. As a result, for example, when it is determined that the vehicle is unlikely to collide with a pedestrian or the like, such as being stopped by a signal, notification to the driver is suppressed. Thereby, the effective driving assistance which suppressed unnecessary information is realized.

特開2008−143387号公報JP 2008-143387 A

しかしながら、特許文献1記載の装置は、車両の停車を認識するために、種々のセンサやレーダ等から情報を取得できるよう構成する必要がある。そのため、車両に装置を設置する際のコストがかさむという問題がある。   However, the device described in Patent Document 1 needs to be configured so that information can be acquired from various sensors, radars, and the like in order to recognize the stop of the vehicle. Therefore, there is a problem that the cost for installing the device in the vehicle is increased.

また、車両の停車認識にかかる処理は、不要な報知を抑えるという観点から、可能な限り誤認識を抑制し得る、高精度のものであることが望ましい。一方、当該装置は本来運転者に危険を報知することを目的とするものであるから、誤認識抑制のための処理は、可能な限り処理負荷の低いものであることが望まれる。   In addition, it is desirable that the processing related to vehicle stop recognition is highly accurate so that erroneous recognition can be suppressed as much as possible from the viewpoint of suppressing unnecessary notifications. On the other hand, since the device is originally intended to notify the driver of the danger, it is desirable that the processing for suppressing erroneous recognition is as low in processing load as possible.

本発明は、このような問題点を解決するためになされたものであり、設置コストや処理コストを抑制し、かつ認識精度を高めることが可能な停車認識装置、停車認識方法及びプログラムを提供することを目的とする。   The present invention has been made to solve such problems, and provides a stop recognition device, a stop recognition method, and a program capable of suppressing installation cost and processing cost and improving recognition accuracy. For the purpose.

そこで、本発明は、車両周辺の撮影画像を用いて停車認識を行う装置であって、時間的に連続する複数の画像フレームを生成する画像取得部と、2つの前記画像フレームから、画素値のフレーム間差分を計算し、2つの前記画像フレーム内の第1の部分領域においては、前記画素値のフレーム間差分の計算結果に重み付けを行う画像処理部と、前記画素値のフレーム間差分に基づいて、前記車両の停車を認識する停車認識部と、を含む停車認識装置を提供する。
また、本発明は、車両周辺の撮影画像を用いて停車認識を行う装置であって、時間的に連続する複数の画像フレームを生成する画像取得部と、2つの前記画像フレーム内の第2の部分領域において、オプティカルフローによる動き検知を実行する画像処理部と、前記オプティカルフローによる動き検知結果に基づいて、前記車両の停車を認識する停車認識部と、を含む停車認識装置を提供する。
また、本発明は、車両周辺の撮影画像を用いて停車認識を行う方法であって、時間的に連続する複数の画像フレームを生成する画像取得ステップと、2つの前記画像フレームから、画素値のフレーム間差分を計算し、2つの前記画像フレーム内の第1の部分領域においては、前記画素値のフレーム間差分の計算結果に重み付けを行う画像処理ステップと、前記画素値のフレーム間差分に基づいて、前記車両の停車を認識する停車認識ステップと、を含む停車認識方法を提供する。
また、本発明は、車両周辺の撮影画像を用いて停車認識を行う方法であって、時間的に連続する複数の画像フレームを生成する画像取得ステップと、2つの前記画像フレーム内の第2の部分領域において、オプティカルフローによる動き検知を実行する画像処理ステップと、前記オプティカルフローによる動き検知結果に基づいて、前記車両の停車を認識する停車認識ステップと、を含む停車認識方法を提供する。
また、本発明は、コンピュータに上記停車認識方法を実行させるためのプログラムを提供する。
Therefore, the present invention is an apparatus that performs stop recognition using captured images around a vehicle, and includes an image acquisition unit that generates a plurality of temporally continuous image frames, and pixel values of the two image frames. An inter-frame difference is calculated, and in a first partial region in the two image frames, an image processing unit that weights the calculation result of the inter-frame difference of the pixel value, and an inter-frame difference of the pixel value And a stop recognition unit that recognizes the stop of the vehicle.
In addition, the present invention is a device that performs stop recognition using captured images around a vehicle, an image acquisition unit that generates a plurality of temporally continuous image frames, and a second of the two image frames. There is provided a stop recognition device including an image processing unit that performs motion detection by an optical flow in a partial region, and a stop recognition unit that recognizes the stop of the vehicle based on a motion detection result by the optical flow.
In addition, the present invention is a method for performing stop recognition using captured images around a vehicle, an image acquisition step for generating a plurality of temporally continuous image frames, and pixel values of two image frames. An image processing step that calculates an inter-frame difference and weights the calculation result of the inter-frame difference of the pixel value in the first partial region in the two image frames, and based on the inter-frame difference of the pixel value And a stop recognition step for recognizing the stop of the vehicle.
Further, the present invention is a method for performing stop recognition using captured images around a vehicle, an image acquisition step of generating a plurality of temporally continuous image frames, and a second of the two image frames. There is provided a stop recognition method including an image processing step of performing motion detection by an optical flow in a partial region, and a stop recognition step of recognizing the stop of the vehicle based on a motion detection result by the optical flow.
The present invention also provides a program for causing a computer to execute the stop recognition method.

本発明により、設置コストや処理コストを抑制し、かつ認識精度を高めることが可能な停車認識装置、停車認識方法及びプログラムを提供することができる。   According to the present invention, it is possible to provide a stop recognition device, a stop recognition method, and a program capable of suppressing installation cost and processing cost and improving recognition accuracy.

本発明の実施の形態の停車認識装置100の構成を示すブロック図である。It is a block diagram which shows the structure of the stop recognition apparatus 100 of embodiment of this invention. 本発明の実施の形態の停車認識装置100の処理を示すフローチャートである。It is a flowchart which shows the process of the stop recognition apparatus 100 of embodiment of this invention. 本発明の実施の形態の停車認識装置100の処理を示す図である。It is a figure which shows the process of the stop recognition apparatus 100 of embodiment of this invention. 本発明の実施の形態の停車認識装置100の処理を示す図である。It is a figure which shows the process of the stop recognition apparatus 100 of embodiment of this invention. 本発明の実施の形態の停車認識装置100の処理を示す図である。It is a figure which shows the process of the stop recognition apparatus 100 of embodiment of this invention.

はじめに、本発明の実施の形態にかかる停車認識装置100が実現する停車認識手法の概要について説明する。   First, an outline of the stop recognition method realized by the stop recognition device 100 according to the embodiment of the present invention will be described.

停車認識装置100は、画像処理による車両の停車認識を実現する。本実施の形態では、画像処理の一例として、(1)フレーム間差分を利用した停車認識手法と、(2)オプティカルフローを利用した停車認識手法、及び(3)両手法を併用する手法を提示する。   The stop recognition device 100 realizes stop recognition of a vehicle by image processing. In this embodiment, as an example of image processing, (1) a stop recognition method using a difference between frames, (2) a stop recognition method using an optical flow, and (3) a method using both methods together are presented. To do.

(1)フレーム間差分を利用した停車認識手法
停車認識装置100は、撮影時刻の異なる2つの画像フレームの画素値を比較し、その差分に基づいて車両の停車認識を行う。画素値とは、画像フレームを構成する各画素の輝度(グレースケール画像の場合)又はRGB等の色空間で表現された多次元ベクトル(カラー画像の場合)である。画素値の差分とは、典型的には輝度の差分である。又は、RGBいずれかの値の差分であっても良い。あるいは、画素値を用いて計算可能な任意の指標値の差分であっても良い。本実施の形態では、比較的差が出やすいことから、輝度を利用する。
(1) Stop recognition method using inter-frame difference The stop recognition apparatus 100 compares pixel values of two image frames having different shooting times, and performs stop recognition of the vehicle based on the difference. The pixel value is a multidimensional vector (in the case of a color image) expressed in a color space such as the luminance (in the case of a grayscale image) or RGB or the like of each pixel constituting the image frame. The pixel value difference is typically a luminance difference. Alternatively, it may be a difference between any of RGB values. Or the difference of the arbitrary index values which can be calculated using a pixel value may be sufficient. In the present embodiment, since the difference is relatively easy to make, luminance is used.

図3は、時間的に連続する2つの画像フレーム間で、輝度の差がどのように観察されるかを示す図である。ここで、輝度の差分が所定の閾値を超えて現れた画素を白、その他の画素を黒で示している。図3(A)は、車外の状況が視覚的に殆ど変化していないときに取得された映像における、輝度の変化を示している。この場合、閾値を超える輝度変化がないため、全体が黒で表現されている。図3(B)は、車両前方の横断歩道や交差道路を自転車等が横断した場合の、フレーム間における輝度の変化を示す。この場合、自転車等の動が白の画素として表現されている。図3(C)は、前車や隣の車線の車が動いている場合の輝度の変化を示す。この場合、周辺の車両等の動きが白の画素として表現されている。   FIG. 3 is a diagram showing how a luminance difference is observed between two temporally continuous image frames. Here, a pixel in which a difference in luminance exceeds a predetermined threshold is shown in white, and the other pixels are shown in black. FIG. 3A shows a change in luminance in an image acquired when the situation outside the vehicle hardly changes visually. In this case, since there is no luminance change exceeding the threshold value, the whole is expressed in black. FIG. 3B shows a change in luminance between frames when a bicycle crosses a pedestrian crossing or an intersection road ahead of the vehicle. In this case, the movement of the bicycle or the like is expressed as white pixels. FIG. 3C shows a change in luminance when the vehicle in the front vehicle or the adjacent lane is moving. In this case, the movements of surrounding vehicles and the like are expressed as white pixels.

このように、車外の状況に動きがあると、フレーム間において輝度の差分が発生する。この差分は、輝度に限らず他の画素値でも観察され得る。典型的には、車両が動いているときには、画素値のフレーム間差分は比較的大きい値となり、車両が停止しているときには、比較的小さい値となる傾向がある。そこで、本実施の形態では、この差を利用して車両の停車を認識する。   Thus, when there is a movement in a situation outside the vehicle, a difference in luminance occurs between frames. This difference can be observed not only with luminance but also with other pixel values. Typically, when the vehicle is moving, the inter-frame difference in pixel values tends to be a relatively large value, and when the vehicle is stopped, it tends to be a relatively small value. Therefore, in the present embodiment, the stop of the vehicle is recognized using this difference.

具体的には、輝度のフレーム間差分が所定の閾値を超えて発生した場合は車両が動いているものと判断し、閾値以下である場合は車両が停止しているものと判断する。輝度のフレーム間差分は、例えば以下のようにして計算できる。まず、2つの画像フレームそれぞれについて、フレーム内に含まれる全ての画素の輝度を足し合わせる。次に、足し合わせた輝度同士の差分を求める。これは、フレーム間で対応する各画素について差分をとり、その差分を足し合わせたものということもできる。最後に、その差分と、あらかじめ定められ閾値とを比較する。なお、輝度のフレーム間差分の計算方法はこれに限定されず、任意の方法を採用できる。例えば、1画素あたりの差分の平均等を用いても良い。   Specifically, when the luminance difference between frames exceeds a predetermined threshold, it is determined that the vehicle is moving, and when it is equal to or less than the threshold, it is determined that the vehicle is stopped. The luminance inter-frame difference can be calculated as follows, for example. First, for each of the two image frames, the luminances of all the pixels included in the frame are added. Next, the difference between the added luminances is obtained. It can also be said that a difference is taken for each corresponding pixel between frames and the difference is added. Finally, the difference is compared with a predetermined threshold value. Note that the method of calculating the luminance inter-frame difference is not limited to this, and an arbitrary method can be adopted. For example, an average of differences per pixel may be used.

ところで、画素値のフレーム間差分は、必ずしも車両自体が動いているときにのみ発生するのではない。例えば、図4(A)は、車両が横断歩道手前で停車中に、車両前方を車載カメラで撮影して得られた2枚の画像フレームから、輝度変化した画素を抽出したものである。ここで、車両は停車しているため、周囲の風景は動かず輝度変化が発生しないが、画面中央を横切る人や車両が輝度変化として検出されている。このように、停車中であってもある程度の輝度変化が検出されるが、これは停車認識の精度を低下させる恐れがあるノイズとして作用する。   By the way, the inter-frame difference in pixel values does not necessarily occur only when the vehicle itself is moving. For example, FIG. 4 (A) shows a pixel whose luminance has changed from two image frames obtained by photographing the front of the vehicle with an in-vehicle camera while the vehicle is stopped in front of the pedestrian crossing. Here, since the vehicle is stopped, the surrounding landscape does not move and no luminance change occurs, but a person or vehicle crossing the center of the screen is detected as the luminance change. In this way, a certain amount of luminance change is detected even when the vehicle is stopped, but this acts as noise that may reduce the accuracy of stop recognition.

そこで、図4や図5に示すように、停車中であっても画素値の差分が検出されやすい、換言すれば物体の動きが観察されやすい画面内の領域を事前に特定できる場合、その領域をマスクすることが好ましい。すなわち、マスク領域については、差分値の計算対象から排除することができる。これにより、マスクされた領域内において発生する輝度変化が、停車認識の判定処理に与える影響を抑制できる。   Therefore, as shown in FIG. 4 and FIG. 5, if a difference in pixel values is easily detected even when the vehicle is stopped, in other words, an area in the screen where the movement of the object is easily observed can be specified in advance. Is preferably masked. That is, the mask area can be excluded from the calculation target of the difference value. Thereby, the influence which the luminance change which generate | occur | produces in the masked area | region has on the determination process of stop recognition can be suppressed.

図4(B)の例では、画像フレームの上下方向の中央付近3分の1程度の帯状の領域をマスクしている。発明者の実験によれば、このようにマスク領域を設定することにより、車両が横断歩道手前で停車中、横断歩道や交差道路を横切る人や車両を、差分値の検出対象から効果的に除外できる。また、図5(B)は、画像フレーム中から車線を検出し、検出した車線の外側をマスクした例を示している。車線の検出技術は既知であるため、ここでは詳細な説明を省略する。これにより、車両が停車中、隣の車線の車両が動き出したような場合であっても、当該車両を差分値の検出対象から除外できる。   In the example of FIG. 4B, a band-like region of about one third near the center in the vertical direction of the image frame is masked. According to the inventor's experiment, by setting the mask area in this way, the person or vehicle crossing the pedestrian crossing or crossing road is effectively excluded from the detection target of the difference value while the vehicle is stopped in front of the pedestrian crossing. it can. FIG. 5B shows an example in which a lane is detected from an image frame and the outside of the detected lane is masked. Since the lane detection technique is known, detailed description thereof is omitted here. Thereby, even when the vehicle in the adjacent lane starts moving while the vehicle is stopped, the vehicle can be excluded from the detection target of the difference value.

これらの例にとどまらず、マスク領域を様々な手法により定義できることは勿論である。例えば、図4(B)で例示した、車両前方を横切る人や車両のためのマスク領域は、車載カメラの取り付け位置に応じ、適宜変更することが可能である。また、マスク領域を学習により自動的に設定することもできる。すなわち、車両が停車していると認識されたときに、なお輝度変化等が検出される領域を識別し、識別した領域を含むマスク領域を設定することとしても良い。   It goes without saying that the mask region can be defined by various methods, not limited to these examples. For example, the mask region for a person or vehicle crossing the front of the vehicle exemplified in FIG. 4B can be appropriately changed according to the mounting position of the in-vehicle camera. Also, the mask area can be automatically set by learning. That is, when it is recognized that the vehicle is stopped, an area where a luminance change or the like is still detected may be identified, and a mask area including the identified area may be set.

また、停車認識処理において、マスク領域は常に設定されていても良く、特定の状況においてのみ設定されることとしても良い。例えば、車速が所定値以下となった場合に、マスク領域を有効化することとしても良い。   Further, in the stop recognition process, the mask area may be always set, or may be set only in a specific situation. For example, the mask area may be validated when the vehicle speed becomes a predetermined value or less.

また、ここではマスク領域については差分値の検出対象から除外する例を説明したが、これに限定されず、当該領域においても画素値の差分を計算しつつ、他の領域と異なる重みを与えることとしてもよい。換言すれば、画像フレーム内に複数の部分領域を設定し、各部分領域について、画素値の差分に対する重み付けを変えることとしても良い。   In addition, although an example in which the mask area is excluded from the difference value detection target has been described here, the present invention is not limited to this, and the pixel area difference is also calculated in the area and given a different weight from the other areas. It is good. In other words, a plurality of partial areas may be set in the image frame, and the weighting for the difference in pixel value may be changed for each partial area.

なお、フレーム間差分の計算の基となる複数のフレームは、典型的には時間的に隣接する2つのフレームである。しかしながら、本発明はこれに限定されず、所定のフレーム数(例えば5フレーム)を間に介した2つのフレームを使用してもよい。あるいは、2つのフレームの間隔を状況に応じ動的に変更するよう構成してもよい。例えば、画素値のフレーム間差分が取得できない場合に、フレーム間隔を広げて差分値の計算を再試行しても良い。さらに、差分値の計算に用いるフレーム数は、2つだけでなく、3以上であっても良い。   Note that the plurality of frames that are the basis for the calculation of the interframe difference are typically two frames that are temporally adjacent. However, the present invention is not limited to this, and two frames having a predetermined number of frames (for example, 5 frames) may be used. Or you may comprise so that the space | interval of two frames may be changed dynamically according to a condition. For example, when the inter-frame difference of pixel values cannot be obtained, the calculation of the difference value may be retried by increasing the frame interval. Furthermore, the number of frames used for calculating the difference value is not limited to two, and may be three or more.

(2)オプティカルフローを利用した停車認識手法
停車認識装置100は、撮影時刻の異なる2つの画像フレームに基づき、オプティカルフローを用いた動き検出を行うことにより車両の停車認識を行う。オプティカルフローによれば、フレーム間の画素等の対応関係に基づき、当該画素等の移動をフローベクトルとして表現することができる。例えば、最初の画像フレームにおいて位置aに特徴点(例えばSIFT、SURF等)が検出され、次の画像フレームにおいても対応する特徴点が位置bに検出される場合、この特徴点の動きはフローベクトル(a,b)として表される。車外の状況を撮影した連続画像からこのようなフローベクトルが検出される場合、車両と外部環境との間に相対的な動きがあるものと推測できる。具体的には、フローベクトルの大きさが所定の閾値を超える場合は車両が動いているものと判断し、閾値以下である場合は車両が停止しているものと判断することができる。
(2) Stop Recognition Method Using Optical Flow The stop recognition apparatus 100 performs stop detection of a vehicle by performing motion detection using an optical flow based on two image frames having different shooting times. According to the optical flow, based on the correspondence between the pixels and the like between frames, the movement of the pixels and the like can be expressed as a flow vector. For example, when a feature point (for example, SIFT, SURF, etc.) is detected at the position a in the first image frame and a corresponding feature point is detected at the position b in the next image frame, the motion of this feature point is a flow vector. It is expressed as (a, b). When such a flow vector is detected from a continuous image obtained by photographing the situation outside the vehicle, it can be assumed that there is a relative movement between the vehicle and the external environment. Specifically, when the magnitude of the flow vector exceeds a predetermined threshold, it can be determined that the vehicle is moving, and when it is equal to or less than the threshold, it can be determined that the vehicle is stopped.

ところで、上述の画素値のフレーム間差分と同様、フローベクトルも、必ずしも車両自体が動いているときにのみ発生するのではない。停車中であっても、車両周囲の物体の動きに応じてフローベクトルは検出され得るが、これは停車認識の精度を低下させる恐れがあるノイズとして作用する。   By the way, like the above-described inter-frame difference of pixel values, the flow vector does not necessarily occur only when the vehicle itself is moving. Even when the vehicle is stopped, the flow vector can be detected in accordance with the movement of an object around the vehicle, but this acts as noise that may reduce the accuracy of stop recognition.

そこで、図4(B)に示すように、画像フレームの所定の部分領域のみを、オプティカルフローの検出対象領域とすることが好ましい。例えば、図4(B)の例では、画面フレームの下端、左右方向の中央付近の帯状の領域をオプティカルフロー検出領域としている。発明者の実験によれば、このようにオプティカルフロー検出領域を設定することにより、周囲の人や車両の動きの影響を抑制でき、かつ路面の動きを効果的に検出することができる。また、このようにオプティカルフロー検出領域を可能な限り小さく設定することにより、処理コストを抑制できる。一般に、オプティカルフローにかかる計算処理は処理負荷が大きくなる傾向があるため、かかる計算処理量を抑制することは、停車認識装置100全体の処理負荷の抑制に大きく寄与する。   Therefore, as shown in FIG. 4B, it is preferable that only a predetermined partial region of the image frame is an optical flow detection target region. For example, in the example of FIG. 4B, the lower end of the screen frame, the band-like area near the center in the left-right direction is set as the optical flow detection area. According to the inventor's experiment, by setting the optical flow detection region in this way, it is possible to suppress the influence of the movement of surrounding people and vehicles and to effectively detect the movement of the road surface. Further, the processing cost can be suppressed by setting the optical flow detection region as small as possible. In general, since the calculation processing related to the optical flow tends to increase the processing load, suppressing the calculation processing amount greatly contributes to the suppression of the processing load of the entire stop recognition device 100.

なお、フローベクトルの計算の基となる複数のフレームは、典型的には時間的に隣接する2つのフレームである。しかしながら、本発明はこれに限定されず、所定のフレーム数(例えば5フレーム)を間に介した2つのフレームを使用してもよい。あるいは、2つのフレームの間隔を状況に応じ動的に変更するよう構成してもよい。例えば、フローベクトルが検出できない場合に、フレーム間隔を広げてフローベクトルの計算を再試行しても良い。さらに、フローベクトルの計算に用いるフレーム数は、2つだけでなく、3以上であっても良い。   Note that the plurality of frames that are the basis of calculation of the flow vector are typically two frames that are temporally adjacent. However, the present invention is not limited to this, and two frames having a predetermined number of frames (for example, 5 frames) may be used. Or you may comprise so that the space | interval of two frames may be changed dynamically according to a condition. For example, when the flow vector cannot be detected, the calculation of the flow vector may be retried with a wider frame interval. Furthermore, the number of frames used for calculation of the flow vector is not limited to two but may be three or more.

(3)両手法を併用する手法
停車認識装置100は、上述の(1)フレーム間差分を利用した停車認識手法、(2)オプティカルフローを利用した停車認識手法を組み合わせることにより、それぞれを単独で使用する場合と比べ、より高精度な停車認識を実現できる。すなわち、画素値のフレーム間差分による停車認識のみ、あるいはオプティカルフローによる停車認識のみでは、例えば周辺環境の影響により、停車中であっても適切に停車を認識できないこと(誤認識)が一定程度発生しうる。特に、マスク領域やオプティカルフロー検出領域の設定が不適切であったり、調整途上であったりする場合等は、誤認識はより発生しやすい。
(3) Method using both methods in combination The stop recognition device 100 combines each of the above (1) stop recognition method using inter-frame difference and (2) stop recognition method using optical flow. Compared to the case of using it, it is possible to realize stop recognition with higher accuracy. In other words, only a stop recognition based on the difference between the pixel values of the frame or only a stop recognition based on the optical flow, for example, due to the influence of the surrounding environment, it is not possible to recognize the stop properly even when the vehicle is stopped (false recognition). Yes. In particular, when the setting of the mask area and the optical flow detection area is inappropriate or in the process of adjustment, erroneous recognition is more likely to occur.

一方、これらの複数の停車認識手法を併用することにより、誤認識の発生率を抑制することが可能である。典型的には、画素値のフレーム間差分による停車認識結果と、オプティカルフローによる停車認識結果と、の双方が共に「停車」を示している場合に、車両が停止しているものと判断することができる。これにより、車両が動いているにもかかわらず、停車と認識する事態の発生を抑制することができる。又は、いずれか一方が「停車」を示している場合に、車両が停止しているものと判断してもよい。これにより、車両が停止しているにもかかわらず、停車と認識しない事態の発生を抑制することができる。   On the other hand, it is possible to suppress the occurrence rate of misrecognition by using a plurality of stop recognition methods together. Typically, it is determined that the vehicle is stopped when both the stop recognition result based on the inter-frame difference of the pixel value and the stop recognition result based on the optical flow indicate “stop”. Can do. Accordingly, it is possible to suppress the occurrence of a situation where the vehicle is recognized as being stopped, although the vehicle is moving. Alternatively, when either one indicates “stop”, it may be determined that the vehicle is stopped. Thereby, it is possible to suppress the occurrence of a situation where the vehicle is not recognized as being stopped even though the vehicle is stopped.

あるいは、上述の停車認識手法による認識結果は、停車の有無という2値で出力するのではなく、スコアとして出力することもできる。例えば、上述の例では、画素値のフレーム間差分を閾値と比較したうえで停車か否かを判定したが、差分値または差分値に基づく任意の指標値を、停車認識スコアとして出力しても良い。また、上述の例では、フローベクトルの大きさを閾値と比較したうえで停車か否かを判定したが、フローベクトルの大きさまたはそれに基づく任意の指標値を、停車認識スコアとして出力しても良い。そして、この場合、停車認識装置100は、一方の停車認識手法による認識スコアと、他方の停車認識手法による認識スコアとの相関関係に基づき、停車か否かの判断を行うことができる。例えば、一方のスコアと、他方のスコアと、の組み合わせに対して停車か否かの判定結果を対応付けたルールを、テーブル等の形で予め保持しておき、当該ルールを参照することにより判断を行うことができる。あるいは、一方のスコアと、他方のスコアと、をパラメータとして入力可能な判定式の計算結果に応じ、停車の判断を行うこととしても良い。   Or the recognition result by the above-mentioned stop recognition method can also be output as a score instead of outputting with the binary of the presence or absence of a stop. For example, in the above-described example, it is determined whether or not the vehicle is stopped after comparing the inter-frame difference of the pixel value with a threshold value. However, even if the difference value or any index value based on the difference value is output as the stop recognition score good. In the above example, the magnitude of the flow vector is compared with a threshold value to determine whether or not the vehicle is stopped. However, the magnitude of the flow vector or any index value based on the magnitude may be output as the stop recognition score. good. In this case, the stop recognition device 100 can determine whether or not the vehicle is stopped based on the correlation between the recognition score obtained by one stop recognition method and the recognition score obtained by the other stop recognition method. For example, a rule in which a determination result indicating whether or not the vehicle is stopped is associated with a combination of one score and the other score is stored in advance in the form of a table or the like and is determined by referring to the rule. It can be performed. Or it is good also as determining a stop according to the calculation result of the determination type | formula which can input one score and the other score as a parameter.

また、両認識手法による認識結果に応じて、認識結果の計算の基となる複数のフレームの間隔を動的に変更することとしても良い。例えば、画素値のフレーム間差分が取得できていれば、フローベクトルにおけるフレーム間隔は小さく(例えば0すなわち隣接フレームとする等)抑えることとしても良く、勿論、その逆であってもよい。これにより、処理に要する記憶領域や時間を抑制することが可能となる。   Further, the intervals between a plurality of frames that are the basis of calculation of the recognition result may be dynamically changed according to the recognition result obtained by both recognition methods. For example, if the inter-frame difference of pixel values can be acquired, the frame interval in the flow vector may be suppressed (for example, 0, that is, an adjacent frame, etc.) or, of course, may be reversed. As a result, the storage area and time required for processing can be suppressed.

次に、本発明の実施の形態にかかる停車認識装置100について、図面を参照しながらより具体的に説明する。まず、図1を用いて、本発明の実施の形態にかかる停車認識装置100の構成について説明する。   Next, the stop recognition device 100 according to the embodiment of the present invention will be described more specifically with reference to the drawings. First, the structure of the stop recognition apparatus 100 concerning embodiment of this invention is demonstrated using FIG.

停車認識装置100は、画像取得部110、画像処理部120、及び停車認識部130を有する。   The stop recognition device 100 includes an image acquisition unit 110, an image processing unit 120, and a stop recognition unit 130.

画像取得部110は、車両外部の画像を取得するための装置であり、典型的には車載カメラである。画像取得部110は、好ましくは車両の進行方向の状況を撮影できる位置、例えば車両内部のフロントガラスに正対する任意の位置に取り付けられる。画像取得部110は、所定のフレームレート(単位時間あたりの撮影枚数)で車外の状況を撮影し、生成した画像(フレーム)を順次、画像処理部120に送信する。   The image acquisition unit 110 is a device for acquiring an image outside the vehicle, and is typically an in-vehicle camera. The image acquisition unit 110 is preferably attached at a position where the situation in the traveling direction of the vehicle can be photographed, for example, an arbitrary position facing the windshield inside the vehicle. The image acquisition unit 110 captures the situation outside the vehicle at a predetermined frame rate (the number of captured images per unit time), and sequentially transmits the generated images (frames) to the image processing unit 120.

画像処理部120は、画像取得部110から受信した複数の画像フレームを用いて、所定の画像処理を行う。画像処理部120は、例えば、画素のフレーム間差分を検出するフレーム間差分検出部121を有する。または、フレーム間における特徴点等の移動を動きベクトルとして検出する動きベクトル検出部122を有する。あるいは、画像処理部120は、フレーム間差分検出部121及び動きベクトル検出部122の双方を備えていてもよい。あるいは、画像処理部120は、車外の状況を認識するための他の画像処理を行う処理部(図示しない)を備えていてもよい。   The image processing unit 120 performs predetermined image processing using a plurality of image frames received from the image acquisition unit 110. For example, the image processing unit 120 includes an inter-frame difference detection unit 121 that detects inter-frame differences of pixels. Alternatively, it includes a motion vector detection unit 122 that detects movement of feature points or the like between frames as a motion vector. Alternatively, the image processing unit 120 may include both the inter-frame difference detection unit 121 and the motion vector detection unit 122. Alternatively, the image processing unit 120 may include a processing unit (not shown) that performs other image processing for recognizing a situation outside the vehicle.

停車認識部130は、画像処理部120の処理結果に応じて、車両が停車しているか否かを判断する。   The stop recognition unit 130 determines whether the vehicle is stopped according to the processing result of the image processing unit 120.

画像取得部110及び画像処理部120は、典型的には、データの入出力を行う入出力部と、データ及び制御プログラムを保持する記憶部と、制御プログラムに従って所定の処理を実行する制御部とを含む情報処理装置によって論理的に実現される情報処理主体である。具体的には、マイクロコントローラ等に実装され得る。   The image acquisition unit 110 and the image processing unit 120 typically include an input / output unit that inputs and outputs data, a storage unit that stores data and a control program, and a control unit that executes predetermined processing according to the control program. An information processing entity that is logically realized by an information processing apparatus including Specifically, it can be mounted on a microcontroller or the like.

つづいて、図2を用いて、本発明の実施の形態にかかる停車認識装置100の動作について説明する。   It continues and demonstrates operation | movement of the stop recognition apparatus 100 concerning embodiment of this invention using FIG.

S101:
画像取得部110が、車外の状況を撮影した画像を取得する。画像取得部110は、典型的には動画を撮影可能な車載カメラであって、所定のフレームレートで画像(フレーム)を生成する。画像取得部110は、生成した画像を逐次、画像処理部120に引き渡す。
S101:
The image acquisition unit 110 acquires an image obtained by photographing the situation outside the vehicle. The image acquisition unit 110 is typically an in-vehicle camera capable of shooting a moving image, and generates an image (frame) at a predetermined frame rate. The image acquisition unit 110 sequentially delivers the generated image to the image processing unit 120.

S102:
画像処理部120がフレーム間差分検出部121を備えている場合、フレーム間差分検出部121はS102乃至S104に示す処理を実施することができる。
S102:
When the image processing unit 120 includes the inter-frame difference detection unit 121, the inter-frame difference detection unit 121 can perform the processes shown in S102 to S104.

フレーム間差分検出部121は、画像取得部110が生成した画像フレームのうち、時間的に連続する2枚の画像フレームを入力する。典型的には、フレーム間差分検出部121は、画像取得部110が撮影した動画から、隣接する2枚の画像フレームを切り出して入力する。又は、フレーム間差分検出部121は、上記動画から、任意の数のフレーム(例えば5フレーム等)により隔てられた2枚の画像を入力しても良い。   The inter-frame difference detection unit 121 inputs two temporally continuous image frames from among the image frames generated by the image acquisition unit 110. Typically, the inter-frame difference detection unit 121 cuts out and inputs two adjacent image frames from the moving image captured by the image acquisition unit 110. Alternatively, the inter-frame difference detection unit 121 may input two images separated from the moving image by an arbitrary number of frames (for example, 5 frames).

次に、フレーム間差分検出部121は、予めマスク領域が設定されていれば、入力した画像フレームそれぞれから、マスク領域を除いた領域に含まれる画素を抽出する。マスク領域が設定されていない場合は、画像フレームに含まれる全ての画素を抽出する。   Next, if a mask area is set in advance, the inter-frame difference detection unit 121 extracts pixels included in the area excluding the mask area from each input image frame. If no mask area is set, all pixels included in the image frame are extracted.

なお、停車認識装置100は、図示しない記憶領域にマスク領域の設定情報(画像フレーム上における位置、サイズ、形状等)を予め保持しているものとする。フレーム間差分検出部121は、この設定情報を参照することにより、マスク領域の有無及び位置、サイズ、形状等を認識することができる。   It is assumed that the stop recognition device 100 holds in advance a mask area setting information (position, size, shape, etc. on the image frame) in a storage area (not shown). The inter-frame difference detection unit 121 can recognize the presence / absence and position, size, shape, etc. of the mask region by referring to the setting information.

S103:
フレーム間差分検出部121は、2枚の画像フレームから抽出した画素を用いて、画素値のフレーム間差分を計算する。一例として、画素値のフレーム間差分として、輝度の差分を計算する一手法について説明する。
S103:
The inter-frame difference detection unit 121 calculates the inter-frame difference of pixel values using the pixels extracted from the two image frames. As an example, a method for calculating a luminance difference as an inter-frame difference in pixel values will be described.

いま、フレーム間差分検出部121が入力した2枚の画像フレームを画像フレームA、画像フレームBとし、それぞれの画像フレームからn個の画素が抽出されているものとする。このときフレーム間差分検出部121は、画像フレームAから抽出した画素の輝度と、画像フレームBから抽出した画素の輝度とを1つずつ比較し、その差分を求めて累積する処理を行う。すなわち、まず画像フレームAの1番目の画素a1の輝度値と、画像フレームBの1番目の画素b1の輝度値とを比較し、差分d1を求める。次に、画像フレームAの2番目の画素a2の輝度値と、画像フレームBの2番目の画素b2の輝度値とを比較し、差分d2を求める。同様の処理をn番目の画素an,bnまでについて行い、差分値の合計d=(d1+d2+・・・+dn)を計算する。フレーム間差分検出部121は、このdを画素値のフレーム間差分の計算結果とする。   Now, assume that two image frames input by the inter-frame difference detection unit 121 are an image frame A and an image frame B, and n pixels are extracted from each image frame. At this time, the inter-frame difference detection unit 121 compares the luminance of the pixel extracted from the image frame A with the luminance of the pixel extracted from the image frame B one by one, and calculates and accumulates the difference. That is, first, the luminance value of the first pixel a1 of the image frame A and the luminance value of the first pixel b1 of the image frame B are compared to obtain the difference d1. Next, the luminance value of the second pixel a2 of the image frame A is compared with the luminance value of the second pixel b2 of the image frame B to obtain a difference d2. A similar process is performed for the nth pixels an and bn, and a sum of difference values d = (d1 + d2 +... + Dn) is calculated. The inter-frame difference detection unit 121 sets d as the calculation result of the inter-frame difference of the pixel value.

S104:
フレーム間差分検出部121は、S103で計算した画素値のフレーム間差分dに基づき、車両が停止しているかどうかを推定する。例えば、フレーム間差分検出部121は、フレーム間差分dと、予め定義された閾値θとを比較し、d≦θであれば車両が停止しているものと判定する。一方、d>であれば車両が動いているものと判定する。フレーム間差分検出部121は、この判定結果を、後段の停車認識部130に出力する。
S104:
The inter-frame difference detection unit 121 estimates whether the vehicle is stopped based on the inter-frame difference d of the pixel values calculated in S103. For example, the inter-frame difference detection unit 121 compares the inter-frame difference d with a predefined threshold value θ, and determines that the vehicle is stopped if d ≦ θ. On the other hand, if d>, it is determined that the vehicle is moving. The inter-frame difference detection unit 121 outputs the determination result to the subsequent stop recognition unit 130.

あるいは、フレーム間差分検出部121は、フレーム間差分dに基づいて停車認識スコアを計算しても良い。例えば、dをそのままスコアとして用いても良い。あるいは、例えばdを正規化するなど一定の処理を加えた指標をスコアとしても良い。この場合、フレーム間差分検出部121は、この停車認識スコアを、後段の停車認識部130に出力する。   Alternatively, the interframe difference detection unit 121 may calculate a stop recognition score based on the interframe difference d. For example, d may be used as a score as it is. Alternatively, for example, an index added with a certain process such as normalizing d may be used as the score. In this case, the interframe difference detection unit 121 outputs the stop recognition score to the stop recognition unit 130 at the subsequent stage.

S105:
画像処理部120が動きベクトル検出部122を備えている場合、動きベクトル検出部122はS105乃至S107に示す処理を実施することができる。なお、画像処理部120がフレーム間差分検出部121及び動きベクトル検出部122の両方を備えている場合、フレーム間差分検出部121及び動きベクトル検出部122は、それぞれが画像取得部110から画像フレームを入力して独立に動作し、それぞれが処理結果を停車認識部130に出力する。
S105:
When the image processing unit 120 includes the motion vector detection unit 122, the motion vector detection unit 122 can perform the processes shown in S105 to S107. When the image processing unit 120 includes both the inter-frame difference detection unit 121 and the motion vector detection unit 122, each of the inter-frame difference detection unit 121 and the motion vector detection unit 122 is connected to the image frame from the image acquisition unit 110. Are operated independently, and each outputs the processing result to the stop recognition unit 130.

動きベクトル検出部122は、画像取得部110が生成した画像フレームのうち、時間的に連続する2枚の画像フレームを入力する。典型的には、動画から隣接する2枚の画像フレームを切り出して入力するが、任意の数のフレーム(例えば5フレーム等)により隔てられた2枚の画像を入力しても良い。   The motion vector detection unit 122 inputs two temporally continuous image frames from among the image frames generated by the image acquisition unit 110. Typically, two adjacent image frames are cut out and input from the moving image, but two images separated by an arbitrary number of frames (for example, 5 frames) may be input.

次に、動きベクトル検出部122は、予めオプティカルフロー検出領域が設定されていれば、入力した画像フレームそれぞれから、オプティカルフロー検出領域に含まれる画像を切り出す。オプティカルフロー検出領域が設定されていない場合は、画像フレーム全体をオプティカルフロー検出領域とする。   Next, if an optical flow detection area is set in advance, the motion vector detection unit 122 cuts out an image included in the optical flow detection area from each input image frame. When the optical flow detection area is not set, the entire image frame is set as the optical flow detection area.

なお、停車認識装置100は、図示しない記憶領域にオプティカルフロー検出領域の設定情報(画像フレーム上における位置、サイズ、形状等)を予め保持しているものとする。動きベクトル検出部122は、この設定情報を参照することにより、オプティカルフロー検出領域の有無及び位置、サイズ、形状等を認識することができる。   It is assumed that the stop recognition device 100 previously holds setting information (position, size, shape, etc. on the image frame) of the optical flow detection area in a storage area (not shown). The motion vector detection unit 122 can recognize the presence / absence and position, size, shape, etc. of the optical flow detection region by referring to the setting information.

S106:
動きベクトル検出部122は、2枚の画像フレームから切り出した、2つのオプティカルフロー検出領域の画像を用いて、オプティカルフローによる動き検出を試行する。オプティカルフローによる動き検出の具体的手法については、種々の先行技術が存在するため詳細な説明を省略する。
S106:
The motion vector detection unit 122 tries motion detection by optical flow using images of two optical flow detection regions cut out from two image frames. Since there are various prior arts regarding a specific method of motion detection by optical flow, detailed description thereof is omitted.

S107:
動きベクトル検出部122は、オプティカルフローによる動き検出結果に応じて、車両が停止しているかどうかを推定する。例えば、画像フレームAに特徴点Pが存在し、画像フレームBに特徴点P’が存在し、これらの特徴点P及びP’が互いに対応するものである場合、換言すれば画像フレームAの特徴点Pが画像フレームBではP’に移動した場合、フローベクトルを(P,P’)と定義する。動きベクトル検出部122は、画像フレームA及びBから、1以上のフローベクトルを検出する。そして、これらのフローベクトルの長さの合計値又は平均値等が、所定の閾値以下である場合、車両が停止しているものと推定する。一方、フローベクトルの長さの合計値又は平均値等が閾値を超える場合、車両が動いているものと推定する。動きベクトル検出部122は、この判定結果を、後段の停車認識部130に出力する。
S107:
The motion vector detection unit 122 estimates whether the vehicle is stopped according to the motion detection result by the optical flow. For example, when the feature point P exists in the image frame A, the feature point P ′ exists in the image frame B, and these feature points P and P ′ correspond to each other, in other words, the feature of the image frame A. When the point P moves to P ′ in the image frame B, the flow vector is defined as (P, P ′). The motion vector detection unit 122 detects one or more flow vectors from the image frames A and B. When the total value or average value of the lengths of these flow vectors is equal to or less than a predetermined threshold, it is estimated that the vehicle is stopped. On the other hand, when the total value or average value of the length of the flow vector exceeds the threshold value, it is estimated that the vehicle is moving. The motion vector detection unit 122 outputs the determination result to the subsequent stop recognition unit 130.

あるいは、動きベクトル検出部122は、オプティカルフローによる動き検出結果に基づいて停車認識スコアを計算しても良い。例えば、フローベクトルの長さの合計値又は平均値等をそのままスコアとして用いても良い。あるいは、例えばフローベクトルの長さの合計値又は平均値等を正規化するなど一定の処理を加えた指標をスコアとしても良い。この場合、動きベクトル検出部122は、この停車認識スコアを、後段の停車認識部130に出力する。   Or the motion vector detection part 122 may calculate a stop recognition score based on the motion detection result by an optical flow. For example, the total value or average value of the lengths of the flow vectors may be used as a score as they are. Alternatively, for example, an index obtained by performing a certain process such as normalizing the total value or average value of the lengths of the flow vectors may be used as the score. In this case, the motion vector detection unit 122 outputs the stop recognition score to the stop recognition unit 130 at the subsequent stage.

S108:
停車認識部130は、画像処理部120による画像フレームの分析結果に従って、最終的な停車認識を行う。例えば、画像処理部120がフレーム間差分検出部121又は動きベクトル検出部122のいずれか一方のみを備えている場合、停車認識部130は、フレーム間差分検出部121又は動きベクトル検出部122による停車認識結果をそのまま踏襲し、最終的な停車認識結果とする。この場合、フレーム間差分検出部121又は動きベクトル検出部122は、停車しているか否かの2値を停車認識結果として出力するものとし、上述のスコア等多値による結果出力を行わないものとする。
S108:
The stop recognition unit 130 performs final stop recognition according to the analysis result of the image frame by the image processing unit 120. For example, when the image processing unit 120 includes only one of the inter-frame difference detection unit 121 and the motion vector detection unit 122, the stop recognition unit 130 stops by the inter-frame difference detection unit 121 or the motion vector detection unit 122. Follow the recognition result as it is, and use it as the final stop recognition result. In this case, the inter-frame difference detection unit 121 or the motion vector detection unit 122 outputs a binary value indicating whether or not the vehicle is stopped as a stop recognition result, and does not output a result based on the multivalue such as the above-described score. To do.

一方、画像処理部120がフレーム間差分検出部121及び動きベクトル検出部122の両方を備えている場合、停車認識部130は、フレーム間差分検出部121及び動きベクトル検出部122それぞれの停車認識結果に基づき、最終的な停車認識を行う。   On the other hand, when the image processing unit 120 includes both the inter-frame difference detection unit 121 and the motion vector detection unit 122, the stop recognition unit 130 determines the stop recognition results of the inter-frame difference detection unit 121 and the motion vector detection unit 122, respectively. Based on this, final stop recognition is performed.

典型的には、フレーム間差分検出部121及び動きベクトル検出部122の双方が共に「停車」と認識した場合に、車両が停止しているものと最終的に判断することができる。あるいは、フレーム間差分検出部121又は動きベクトル検出部122のいずれか一方が「停車」と認識した場合に、車両が停止しているものと最終的に判断してもよい。この場合も、フレーム間差分検出部121及び動きベクトル検出部122は、停車しているか否かの2値を停車認識結果として出力するものとする。   Typically, when both the inter-frame difference detection unit 121 and the motion vector detection unit 122 recognize both as “stop”, it can be finally determined that the vehicle is stopped. Alternatively, when either one of the inter-frame difference detection unit 121 or the motion vector detection unit 122 recognizes “stop”, it may be finally determined that the vehicle is stopped. Also in this case, the inter-frame difference detection unit 121 and the motion vector detection unit 122 output a binary value indicating whether or not the vehicle is stopped as a vehicle stop recognition result.

一方、フレーム間差分検出部121及び動きベクトル検出部122が、停車認識結果をスコア等の多値により出力可能である場合、停車認識部130は、フレーム間差分検出部121及び動きベクトル検出部122双方が出力するスコアの相関関係に基づき、停車しているか否かの最終判断を行うことができる。例えば、停車認識装置100は、フレーム間差分検出部121の出力スコアと、動きベクトル検出部122の出力スコアと、の組み合わせに対して停車か否かの判定結果を対応付けたルールを、図示しない記憶領域内にテーブル等の形で予め保持する。そして、停車認識部130は当該ルールを参照することにより停車か否かの最終判断を行う。あるいは、フレーム間差分検出部121の出力スコアと、動きベクトル検出部122の出力スコアと、をパラメータとして入力可能な判定式を予め定義しておき、当該判定式による計算結果に応じ、停車の判断を行うこととしても良い。   On the other hand, when the inter-frame difference detection unit 121 and the motion vector detection unit 122 can output the stop recognition result with multiple values such as a score, the stop recognition unit 130 includes the inter-frame difference detection unit 121 and the motion vector detection unit 122. Based on the correlation between the scores output by both parties, a final determination can be made as to whether or not the vehicle is stopped. For example, the stop recognition device 100 does not illustrate a rule in which a determination result as to whether or not the vehicle is stopped is associated with a combination of the output score of the interframe difference detection unit 121 and the output score of the motion vector detection unit 122. Prestored in the storage area in the form of a table or the like. Then, the stop recognition unit 130 makes a final determination as to whether or not the vehicle is stopped by referring to the rule. Alternatively, a determination expression that can be input using the output score of the inter-frame difference detection unit 121 and the output score of the motion vector detection unit 122 as parameters is defined in advance, and the stop determination is made according to the calculation result of the determination expression. It is also good to do.

S109〜S111:
停車認識装置100は、車両が停車中であるか否かを示す情報(フラグ)を、図示しない記憶領域に保持しているものとする。停車認識部130は、S108において車両が停車していると最終的に判断した場合、車両が停車中である旨を示す情報で上記フラグを更新する。一方、車両が停車していないと最終的に判断した場合、停車認識部130は、車両が非停車中である旨を示す情報で上記フラグを更新する。
S109 to S111:
It is assumed that the stop recognition device 100 holds information (flag) indicating whether or not the vehicle is stopped in a storage area (not shown). If the stop recognition unit 130 finally determines that the vehicle is stopped in S108, the stop recognition unit 130 updates the flag with information indicating that the vehicle is stopped. On the other hand, when it is finally determined that the vehicle is not stopped, the stop recognition unit 130 updates the flag with information indicating that the vehicle is not stopped.

これにより、例えば運転者に対する危険報知を行う機能モジュールが、上記フラグを参照することで車両が停止しているか否かを知ることができる。そして、車両が停止している場合は運転者に対する危険報知を抑制するなどの処理を行うことができる。   Thereby, for example, a functional module that notifies the driver of the danger can know whether or not the vehicle is stopped by referring to the flag. When the vehicle is stopped, it is possible to perform processing such as suppressing danger notification to the driver.

本実施の形態においては、画像取得部110が取得した画像のみに基づいて、画像処理部120及び停車認識部130が車両の停車認識を行うことができる。よって、種々のセンサやレーダ等から情報を取得する必要がなく、車両に停車認識装置100を設置する際のコストを抑制できる。   In the present embodiment, the image processing unit 120 and the stop recognition unit 130 can recognize the stop of the vehicle based only on the image acquired by the image acquisition unit 110. Therefore, it is not necessary to acquire information from various sensors, radars, etc., and the cost for installing the stop recognition device 100 in the vehicle can be suppressed.

また、本実施の形態においては、フレーム間差分検出部121が、停車中において周囲の人や車の動きが現れやすい領域をマスク領域として扱う。これにより、周囲の人や車が停車認識に与える影響を抑制し、誤認識を減らすことができる。   Further, in the present embodiment, the inter-frame difference detection unit 121 treats an area in which movements of surrounding people and cars are likely to appear as a mask area while the vehicle is stopped. Thereby, the influence which the surrounding person and a vehicle have on stop recognition can be suppressed, and misrecognition can be reduced.

また、本実施の形態においては、フレーム間差分検出部121及び動きベクトル検出部122による停車認識結果を併用して、停車認識部130が最終的な停車認識を行う。これにより、停車認識の精度を向上させるとともに、停車認識ロジックを柔軟に設計することが可能となる。   Moreover, in this Embodiment, the stop recognition part 130 performs final stop recognition using the stop recognition result by the inter-frame difference detection part 121 and the motion vector detection part 122 together. As a result, the accuracy of stop recognition can be improved and the stop recognition logic can be designed flexibly.

また、本実施の形態においては、フレーム間差分検出部121が、画像フレームからマスク領域を除いた領域を対象としてフレーム間差分を計算する。また、動きベクトル検出部122が、画像フレーム内に設定されたオプティカルフロー検出領域を対象として動き検出を行う。このように処理の対象領域を合理的に絞り込むことにより、画像処理部120は、認識精度を保ちつつ、処理負荷を抑制することができる。   In the present embodiment, the inter-frame difference detection unit 121 calculates the inter-frame difference for an area obtained by removing the mask area from the image frame. Further, the motion vector detection unit 122 performs motion detection on the optical flow detection region set in the image frame. Thus, by rationally narrowing down the processing target area, the image processing unit 120 can suppress the processing load while maintaining the recognition accuracy.

<その他の実施の形態>
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上述の実施の形態では、フレーム間差分による停車認識手法、マスク領域を用いる手法、オプティカルフローによる停車認識手法、オプティカルフロー検知領域を設定する手法等について説明したが、これらの各手法はそれぞれ任意に組合せて実行できることは勿論である。
<Other embodiments>
Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention. For example, in the above-described embodiment, the stop recognition method using the difference between frames, the method using the mask region, the stop recognition method using the optical flow, the method of setting the optical flow detection region, and the like have been described. Of course, it can be executed in any combination.

また、上述の実施の形態では、動き検知手法として、フレーム間差分による手法、オプティカルフローによる手法、及び両者を併用する手法について主に説明した。しかしながら、これらの手法に代えて、又はこれらの手法と併せて、他の画像処理による動き検知手法を採用しても構わない。   In the above-described embodiment, as the motion detection method, the method based on the difference between frames, the method based on the optical flow, and the method using both of them are mainly described. However, instead of these methods or in combination with these methods, a motion detection method based on other image processing may be adopted.

例えば、テンプレートマッチングと呼ばれる手法を採用しても良い。テンプレートマッチングとは、画像処理部120が、所定の元画像(テンプレート)にマッチする画像フレーム内の部分領域を検出し、当該部分領域が連続する画像フレームにおいてどのように動くかを追うことにより、画像フレームから動きを検出する手法である。画像処理部120は、例えば1つの画像フレームから、特徴点が集中している部分領域を切り出して元画像とし、続く画像フレームから、元画像にマッチする部分領域を検出することができる。あるいは、画像処理部120は、道路上によく出現する物体(標識やナンバープレートの数字等)の画像を元画像として予め保持しておき、一連の画像フレームから、元画像にマッチする部分領域を検出することとしても良い。   For example, a technique called template matching may be adopted. Template matching means that the image processing unit 120 detects a partial area in an image frame that matches a predetermined original image (template), and tracks how the partial area moves in a continuous image frame. This is a technique for detecting motion from an image frame. For example, the image processing unit 120 can extract a partial region where feature points are concentrated from one image frame as an original image, and detect a partial region that matches the original image from the subsequent image frame. Alternatively, the image processing unit 120 stores in advance an image of an object (such as a sign or a number on a license plate) that often appears on a road as an original image, and selects a partial region that matches the original image from a series of image frames. It may be detected.

また、停車認識装置100は、様々な車載システム、典型的には運転者に対する危険報知を行うシステムに組み込まれて使用されても良い。一般に、画像処理は高い処理負荷を伴うが、本発明に係る停車認識装置100は、上述のように、比較的低い処理コストで画像処理による停車認識を行うことができる。そのため、運転者に対する危険報知という重要な機能を有するシステム内に停車認識装置100を組み込んだとしても、そのような重要な機能の動作を妨げにくい。   In addition, the stop recognition device 100 may be used by being incorporated in various in-vehicle systems, typically systems that provide danger notification to the driver. In general, image processing involves a high processing load, but the stop recognition device 100 according to the present invention can perform stop recognition by image processing at a relatively low processing cost as described above. Therefore, even if the stop recognition device 100 is incorporated in a system having an important function of danger notification to the driver, it is difficult to prevent such an important function from operating.

また、上述の実施の形態では、本発明を主にハードウェアの構成として説明したが、これに限定されるものではなく、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。この場合、コンピュータプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non−transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。   In the above-described embodiment, the present invention has been mainly described as a hardware configuration. However, the present invention is not limited to this, and a CPU (Central Processing Unit) executes a computer program for arbitrary processing. Can also be realized. In this case, the computer program can be stored and provided to the computer using various types of non-transitory computer readable media. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)). The program may also be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

100 停車認識装置
110 画像取得部
120 画像処理部
121 フレーム間差分検出部
122 動きベクトル検出部
130 停車認識部
DESCRIPTION OF SYMBOLS 100 Stop recognition apparatus 110 Image acquisition part 120 Image processing part 121 Inter-frame difference detection part 122 Motion vector detection part 130 Stop recognition part

Claims (5)

車両周辺の撮影画像を用いて停車認識を行う装置であって、
時間的に連続する複数の画像フレームを生成する画像取得部と、
2つの前記画像フレームから、画素値のフレーム間差分を計算し、2つの前記画像フレーム内の第1の部分領域においては、前記画素値のフレーム間差分の計算結果に重み付けを行う画像処理部と、
前記画素値のフレーム間差分に基づいて、前記車両の停車を認識する停車認識部と、を含む
停車認識装置。
An apparatus for performing stop recognition using captured images around a vehicle,
An image acquisition unit that generates a plurality of temporally continuous image frames;
An image processing unit that calculates an inter-frame difference of pixel values from the two image frames, and weights a calculation result of the inter-frame difference of pixel values in a first partial region in the two image frames; ,
A stop recognition device, comprising: a stop recognition unit that recognizes stop of the vehicle based on the inter-frame difference of the pixel value.
車両周辺の撮影画像を用いて停車認識を行う装置であって、
時間的に連続する複数の画像フレームを生成する画像取得部と、
2つの前記画像フレーム内の第2の部分領域において、オプティカルフローによる動き検知を実行する画像処理部と、
前記オプティカルフローによる動き検知結果に基づいて、前記車両の停車を認識する停車認識部と、を含む
停車認識装置。
An apparatus for performing stop recognition using captured images around a vehicle,
An image acquisition unit that generates a plurality of temporally continuous image frames;
An image processing unit that performs motion detection by optical flow in the second partial regions in the two image frames;
A stop recognition device, comprising: a stop recognition unit that recognizes stop of the vehicle based on a motion detection result by the optical flow.
車両周辺の撮影画像を用いて停車認識を行う方法であって、
時間的に連続する複数の画像フレームを生成する画像取得ステップと、
2つの前記画像フレームから、画素値のフレーム間差分を計算し、2つの前記画像フレーム内の第1の部分領域においては、前記画素値のフレーム間差分の計算結果に重み付けを行う画像処理ステップと、
前記画素値のフレーム間差分に基づいて、前記車両の停車を認識する停車認識ステップと、を含む
停車認識方法。
A method of performing stop recognition using captured images around a vehicle,
An image acquisition step for generating a plurality of temporally continuous image frames;
An image processing step of calculating an inter-frame difference of pixel values from the two image frames, and weighting a calculation result of the inter-frame difference of pixel values in a first partial region in the two image frames; ,
And a stop recognition step for recognizing the stop of the vehicle based on the inter-frame difference of the pixel value.
車両周辺の撮影画像を用いて停車認識を行う方法であって、
時間的に連続する複数の画像フレームを生成する画像取得ステップと、
2つの前記画像フレーム内の第2の部分領域において、オプティカルフローによる動き検知を実行する画像処理ステップと、
前記オプティカルフローによる動き検知結果に基づいて、前記車両の停車を認識する停車認識ステップと、を含む
停車認識方法。
A method of performing stop recognition using captured images around a vehicle,
An image acquisition step for generating a plurality of temporally continuous image frames;
An image processing step of performing motion detection by optical flow in the second partial regions in the two image frames;
A stop recognition method, comprising: a stop recognition step for recognizing stop of the vehicle based on a motion detection result by the optical flow.
コンピュータに、請求項3又は4記載の停車認識方法を実行させるためのプログラム。   The program for making a computer perform the stop recognition method of Claim 3 or 4.
JP2014063877A 2014-03-26 2014-03-26 Parking recognition device, parking recognition method and program Pending JP2015185135A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014063877A JP2015185135A (en) 2014-03-26 2014-03-26 Parking recognition device, parking recognition method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014063877A JP2015185135A (en) 2014-03-26 2014-03-26 Parking recognition device, parking recognition method and program

Publications (1)

Publication Number Publication Date
JP2015185135A true JP2015185135A (en) 2015-10-22

Family

ID=54351537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014063877A Pending JP2015185135A (en) 2014-03-26 2014-03-26 Parking recognition device, parking recognition method and program

Country Status (1)

Country Link
JP (1) JP2015185135A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150068237A (en) * 2013-12-11 2015-06-19 광주과학기술원 Underwater Acoustic Positioning System and Method thereof
JP2020119183A (en) * 2019-01-23 2020-08-06 三菱電機株式会社 Vehicle control device and vehicle control method
CN111814560A (en) * 2020-06-10 2020-10-23 河南观潮智能科技有限公司 Parking space state identification method, system, medium and equipment
WO2020218330A1 (en) * 2019-04-23 2020-10-29 Arithmer株式会社 System, method and program for determining whether stop request display was ignored, and recording medium storing the program
WO2023149188A1 (en) * 2022-02-02 2023-08-10 ソニーグループ株式会社 Signal processing device, method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06314340A (en) * 1993-04-30 1994-11-08 Mitsubishi Electric Corp Vehicle periphery monitoring device
JPH07239998A (en) * 1994-02-28 1995-09-12 Mitsubishi Electric Corp Periphery monitoring device for vehicle
JPH08223566A (en) * 1995-02-10 1996-08-30 Hitachi Ltd Surrounding state recognition device for vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06314340A (en) * 1993-04-30 1994-11-08 Mitsubishi Electric Corp Vehicle periphery monitoring device
JPH07239998A (en) * 1994-02-28 1995-09-12 Mitsubishi Electric Corp Periphery monitoring device for vehicle
JPH08223566A (en) * 1995-02-10 1996-08-30 Hitachi Ltd Surrounding state recognition device for vehicle

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150068237A (en) * 2013-12-11 2015-06-19 광주과학기술원 Underwater Acoustic Positioning System and Method thereof
JP2020119183A (en) * 2019-01-23 2020-08-06 三菱電機株式会社 Vehicle control device and vehicle control method
WO2020218330A1 (en) * 2019-04-23 2020-10-29 Arithmer株式会社 System, method and program for determining whether stop request display was ignored, and recording medium storing the program
JP2020181242A (en) * 2019-04-23 2020-11-05 Arithmer株式会社 System, method, and program for stop-request-display ignorance determination, and recording medium with the program recorded thereon
CN111814560A (en) * 2020-06-10 2020-10-23 河南观潮智能科技有限公司 Parking space state identification method, system, medium and equipment
CN111814560B (en) * 2020-06-10 2023-12-26 河南观潮智能科技有限公司 Parking space state identification method, system, medium and equipment
WO2023149188A1 (en) * 2022-02-02 2023-08-10 ソニーグループ株式会社 Signal processing device, method, and program

Similar Documents

Publication Publication Date Title
JP5297078B2 (en) Method for detecting moving object in blind spot of vehicle, and blind spot detection device
WO2017158983A1 (en) Object recognition device, object recognition method, and object recognition program
US9950667B2 (en) Vehicle system for detecting object and operation method thereof
JP4692344B2 (en) Image recognition device
JP6384082B2 (en) Moving object detection apparatus, moving object detection method, and program
US20150262365A1 (en) Image processing device and image processing method
JP2013225295A5 (en)
JP2007065924A (en) Image processor
JP2007241740A (en) Vehicle periphery monitoring device
JP2015185135A (en) Parking recognition device, parking recognition method and program
WO2011125270A1 (en) Vehicle periphery monitoring device, vehicle periphery monitoring method, and vehicle device
JP6051608B2 (en) Vehicle surrounding object detection device
US20160314363A1 (en) Obstacle detection apparatus and method
US8160300B2 (en) Pedestrian detecting apparatus
JP2018060422A (en) Object detection device
US20170190301A1 (en) Vehicle periphery monitoring device
JP2010079582A (en) Apparatus, method and program for detecting object
US9824449B2 (en) Object recognition and pedestrian alert apparatus for a vehicle
US9934428B2 (en) Method and system for detecting pedestrians
JP2016012304A (en) Target article recognition apparatus
JP5259647B2 (en) Vehicle periphery monitoring device
KR20170055738A (en) Apparatus and method for recognize driving lane on image
JP2017167608A (en) Object recognition device, object recognition method, and object recognition program
JP5541099B2 (en) Road marking line recognition device
JP2017102634A (en) Image processing apparatus and image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170328