JP2013047878A - Road situation grasping device - Google Patents

Road situation grasping device Download PDF

Info

Publication number
JP2013047878A
JP2013047878A JP2011185810A JP2011185810A JP2013047878A JP 2013047878 A JP2013047878 A JP 2013047878A JP 2011185810 A JP2011185810 A JP 2011185810A JP 2011185810 A JP2011185810 A JP 2011185810A JP 2013047878 A JP2013047878 A JP 2013047878A
Authority
JP
Japan
Prior art keywords
image
vehicle
road
monitoring target
target lane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011185810A
Other languages
Japanese (ja)
Inventor
Daisuke Kamogashira
大輔 鴨頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011185810A priority Critical patent/JP2013047878A/en
Publication of JP2013047878A publication Critical patent/JP2013047878A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a road situation grasping device for accurately determining road situations with respect to a monitoring object lane by preventing the erroneous determination of a vehicle which is traveling in a non-monitoring object lane.SOLUTION: A road situation grasping device picks up an image on a road consisting of a plurality of lanes in which a vehicle is traveling by image pickup means, and determines the situation of the road on the basis of the picked-up image. The road situation grasping device is characterized by creating a moving vector image from the picked-up image, detecting the vehicle which is traveling in a non-monitoring object lane from the directivity of the created moving vector image and the traveling direction information of the vehicle provided in advance, and removing the image of the detected vehicle which is traveling in the non-monitoring object lane from the picked-up image.

Description

本発明の実施形態は、道路の状況を判定する道路状況把握装置に関する。   Embodiments described herein relate generally to a road condition grasping apparatus that determines a road condition.

高速道路等の有料道路上などにおいて、路側に設置されたカメラで道路上の画像を撮像し、撮像された画像から画像処理等によって道路上を走行する車両を検出し、検出した車両の位置、速度等の情報から現在の道路状況(道路渋滞、停止車両、低速車両等)を判定する道路状況把握装置が知られている。   On a toll road such as an expressway, an image on the road is captured with a camera installed on the roadside, and a vehicle traveling on the road is detected from the captured image by image processing or the like, and the position of the detected vehicle, 2. Description of the Related Art A road condition grasping device that determines current road conditions (road traffic jams, stopped vehicles, low-speed vehicles, etc.) from information such as speed is known.

このような道路状況把握装置では、カメラの設置位置による非監視対象車線の画像内への写り込みを想定していないため、非監視対象車線を走行する車両の一部が監視対象車線上に投影された場合に、道路状況を誤判定する可能性がある。   In such a road condition grasping device, since it is not assumed that the unmonitored lane is reflected in the image due to the installation position of the camera, a part of the vehicle traveling in the unmonitored lane is projected onto the monitored lane. In such a case, there is a possibility of misjudging road conditions.

すなわち、カメラの設置位置によっては、たとえば、図21に示すように、車両3が走行する監視対象車線1の画像内に非監視対象車線2が写りこみ、場合によっては非監視対象車線2を走行する車両4の一部が監視対象車線1に投影されることにより、道路状況を誤判定する可能性がある。   That is, depending on the installation position of the camera, for example, as shown in FIG. 21, the unmonitored lane 2 is reflected in the image of the monitored lane 1 on which the vehicle 3 travels. When a part of the vehicle 4 to be projected is projected onto the monitoring target lane 1, there is a possibility that the road condition is erroneously determined.

特開平6−274786号公報JP-A-6-274786

本発明が解決しようとする課題は、非監視対象車線を走行する車両の誤判定を防止し、監視対象車線に対する道路状況を正確に判定することが可能となる道路状況把握装置を提供することである。   The problem to be solved by the present invention is to provide a road condition grasping device that can prevent erroneous determination of a vehicle traveling in a non-monitoring target lane and accurately determine the road condition for the monitoring target lane. is there.

実施形態に係る道路状況把握装置は、車両が走行する複数の車線からなる道路上の画像を撮像手段により撮像し、この撮像された画像に基づき前記道路の状況を判定する道路状況把握装置において、前記撮像された画像から移動ベクトル画像を作成し、この作成された移動ベクトル画像の方向性とあらかじめ与えられる車両の進行方向情報とから非監視対象車線を走行する車両を検出し、この検出された非監視対象車線を走行する車両の画像を前記撮像された画像から除外することを特徴としている。   In the road situation grasping device according to the embodiment, an image on a road composed of a plurality of lanes on which a vehicle travels is picked up by an imaging unit, and the road situation is determined based on the picked-up image. A movement vector image is created from the captured image, and a vehicle traveling in the non-monitoring lane is detected from the directionality of the created movement vector image and the vehicle traveling direction information given in advance. An image of a vehicle traveling in a non-monitoring target lane is excluded from the captured image.

実施形態に係る道路状況把握装置の構成を概略的に示す模式図。The schematic diagram which shows roughly the structure of the road condition grasping | ascertainment apparatus which concerns on embodiment. 実施形態に係る道路状況把握装置の動作を説明するフローチャート。The flowchart explaining operation | movement of the road condition grasping | ascertainment apparatus which concerns on embodiment. 実施形態に係る道路状況把握装置の動作を説明するフローチャート。The flowchart explaining operation | movement of the road condition grasping | ascertainment apparatus which concerns on embodiment. あらかじめ登録される監視対象車線画像の一例を示す模式図。The schematic diagram which shows an example of the monitoring object lane image registered beforehand. あらかじめ登録される背景画像の一例を示す模式図。The schematic diagram which shows an example of the background image registered beforehand. あらかじめ登録される車両の進行方向情報の一例を示す図。The figure which shows an example of the advancing direction information of the vehicle registered beforehand. 入力された撮像画像の一例を示す模式図。The schematic diagram which shows an example of the input captured image. 入力された撮像画像の一例を示す模式図。The schematic diagram which shows an example of the input captured image. 作成された移動ベクトル画像の一例を示す模式図。The schematic diagram which shows an example of the produced movement vector image. 作成された車両領域画像の一例を示す模式図。The schematic diagram which shows an example of the produced vehicle area image. 作成された車両領域移動ベクトル画像の一例を示す模式図。The schematic diagram which shows an example of the produced vehicle area movement vector image. 抽出された車両領域ベクトルの一例を示す模式図。The schematic diagram which shows an example of the extracted vehicle area | region vector. ベクトル履歴保持部の具体的な内容例を示す模式図。The schematic diagram which shows the specific example of a content of a vector log | history holding part. 誤検出された非監視対象車線を走行する車両の画像を除外した車両領域画像の一例を示す模式図。The schematic diagram which shows an example of the vehicle area image which excluded the image of the vehicle which drive | works the non-monitoring object lane detected erroneously. 作成された背景差分画像の一例を示す模式図。The schematic diagram which shows an example of the produced background difference image. 作成された停止車両領域画像の一例を示す模式図。The schematic diagram which shows an example of the produced stop vehicle area | region image. 抽出された停止車両領域重心の一例を示す模式図。The schematic diagram which shows an example of the extracted stop vehicle area | region gravity center. 誤検出された非監視対象車線に停止する車両の画像を除外した車両領域画像の一例を示す模式図。The schematic diagram which shows an example of the vehicle area image which excluded the image of the vehicle which stops in the non-monitoring object lane detected erroneously. ベクトル履歴保持部の具体的な内容例を示す模式図。The schematic diagram which shows the specific example of a content of a vector log | history holding part. 登録された進行方向情報および停止車両領域重心座標の一例を示す模式図。The schematic diagram which shows an example of the advancing direction information registered and the stop vehicle area | region gravity center coordinate. 非監視対象車線の車両が監視対象車線の画像内に写りこむ一例を説明する模式図。The schematic diagram explaining an example in which the vehicle of a non-monitoring target lane is reflected in the image of a monitoring target lane.

以下、実施形態に係る道路状況把握装置について図面を参照して説明する。
図1は、本実施形態に係る道路状況把握装置の構成を概略的に示すものである。図1において、道路11は例えば高速道路等の有料道路で、監視対象車線12と非監視対象車線13とが並設されていて、監視対象車線12を車両(たとえば、乗用車)14が図示矢印a方向に走行し、非監視対象車線13を車両(たとえば、トラック)15が図示矢印b方向(監視対象車線12とは逆方向)に走行するものとする。なお、監視対象車線12および非監視対象車線13は、図示のようにカーブしているものとする。
Hereinafter, a road condition grasping device according to an embodiment will be described with reference to the drawings.
FIG. 1 schematically shows a configuration of a road condition grasping apparatus according to the present embodiment. In FIG. 1, a road 11 is a toll road such as a highway, for example, and a monitoring target lane 12 and a non-monitoring target lane 13 are arranged side by side, and a vehicle (for example, a passenger car) 14 is illustrated on the monitoring target lane 12 by an arrow a. It is assumed that the vehicle (for example, a truck) 15 travels in the direction of the arrow b (the direction opposite to the monitoring target lane 12) in the non-monitoring target lane 13. It is assumed that the monitored lane 12 and the non-monitored lane 13 are curved as illustrated.

道路11のカーブ部分近傍の側部には、撮像手段としてのビデオカメラ(以降、単にカメラと略称する)16が設置されている。カメラ16は、監視対象車線12のカーブ部分を通過する車両14を含む所定エリア内の画像を常時一定間隔(たとえば、33msごと)で撮像してフレーム画像として出力するもので、出力されたフレーム画像は順次、処理装置17に送られる。   A video camera (hereinafter simply abbreviated as a camera) 16 as an image pickup means is installed on the side of the road 11 near the curved portion. The camera 16 always captures an image in a predetermined area including the vehicle 14 passing through the curved portion of the monitoring target lane 12 at a constant interval (for example, every 33 ms) and outputs it as a frame image. The output frame image Are sequentially sent to the processing unit 17.

処理装置17は、カメラ16により撮像された画像に対し所定の画像処理を行なうことにより車両を検出し、車両検出結果から監視対象車線12における交通事象および異常車両などの状況を判定するもので、画像処理を実行する画像処理部18、画像処理により得られる移動ベクトル情報を保持するベクトル履歴保持部19、画像処理に使用する各種パラメータを保持するパラメータ保持部20、画像処理結果から最終的な道路状況の判定を行なう判定部21によって構成される。   The processing device 17 detects a vehicle by performing predetermined image processing on an image picked up by the camera 16, and determines a situation such as a traffic event and an abnormal vehicle in the monitored lane 12 from the vehicle detection result. An image processing unit 18 that executes image processing, a vector history holding unit 19 that holds movement vector information obtained by image processing, a parameter holding unit 20 that holds various parameters used for image processing, and a final road from the image processing result It is comprised by the determination part 21 which performs the determination of a condition.

ここで、判定部21により判定する道路状況とは、たとえば、「道路渋滞」、「停止車両」、「低速車両」、「通常状態」の4状態とする。「道路渋滞」とは監視対象車線12が車両14で渋滞している状態、「停止車両」とは監視対象車線12上に停止している車両14が存在する状態、「低速車両」とは監視対象車線12上にあらかじめ定められた所定値以下の速度で走行する車両14が存在する状態を示すものとする。なお、道路状況が上記4状態ではない場合は「通常状態」とする。   Here, the road conditions determined by the determination unit 21 are, for example, four states of “road congestion”, “stop vehicle”, “low speed vehicle”, and “normal state”. “Road congestion” means that the monitored lane 12 is congested in the vehicle 14, “stopped vehicle” means that there is a stopped vehicle 14 on the monitored lane 12, and “low speed vehicle” means monitoring It is assumed that the vehicle 14 running on the target lane 12 at a speed equal to or lower than a predetermined value is present. If the road condition is not the above four states, the “normal state” is set.

次に、このような構成において、図2および図3に示すフローチャートを参照して本実施形態に係る道路状況把握装置の動作を説明する。   Next, the operation of the road condition grasping apparatus according to the present embodiment will be described with reference to the flowcharts shown in FIGS. 2 and 3 in such a configuration.

まず、あらかじめパラメータ保持部20に、たとえば、図4に示すような監視対象車線画像(監視対象車線12を示す画像)、図5に示すような背景画像(車両14が存在しない監視対象車線12上の画像)、および、図6に示すような車両の進行方向情報(監視対象車線12を走行する車両14の進行方向情報)を保持(登録)しておく(ステップS1)。   First, for example, a monitoring target lane image as shown in FIG. 4 (an image showing the monitoring target lane 12), a background image as shown in FIG. And the traveling direction information of the vehicle (the traveling direction information of the vehicle 14 traveling in the monitored lane 12) as shown in FIG. 6 is held (registered) (step S1).

なお、進行方向情報は、たとえば、図6(a)に示すように真上を0°とした進行方向を情報として保持するもので、その具体例を図6(b)に示す。図6(b)の例は進行方向情報が「150」の場合である。   Note that the traveling direction information holds, for example, a traveling direction with 0 ° directly above as shown in FIG. 6 (a), and a specific example thereof is shown in FIG. 6 (b). The example of FIG. 6B is a case where the traveling direction information is “150”.

カメラ16は、監視対象車線12上に設定された所定エリア内の画像を常時一定間隔で撮像し、撮像したフレーム画像を処理装置17の画像処理部18へ順次送る(ステップS2)。   The camera 16 always captures images in a predetermined area set on the monitored lane 12 at regular intervals, and sequentially sends the captured frame images to the image processing unit 18 of the processing device 17 (step S2).

画像処理部18は、カメラ16で時系列に撮影された複数枚のフレーム画像から画像処理により移動ベクトル画像を作成する(ステップS3)。すなわち、たとえば、図7、図8に示すような時刻tのフレーム画像と時刻t+Δtのフレーム画像とから、フレーム間における移動ベクトルを求めて移動ベクトル画像(図9参照)として作成する。図9において、14a部が車両14に対応し、15a部が車両15に対応している。   The image processing unit 18 creates a movement vector image by image processing from a plurality of frame images taken in time series by the camera 16 (step S3). That is, for example, a movement vector between frames is obtained from a frame image at time t and a frame image at time t + Δt as shown in FIGS. 7 and 8, and is generated as a movement vector image (see FIG. 9). In FIG. 9, the portion 14 a corresponds to the vehicle 14, and the portion 15 a corresponds to the vehicle 15.

移動ベクトル画像の作成する範囲は、ステップS1で登録された監視対象車線画像で定義された領域とする。なお、移動ベクトル画像の作成方法には種々の方法があるが、ここでは濃淡パターンマッチング法を用いるものとする。   The range created by the movement vector image is an area defined by the monitoring target lane image registered in step S1. Although there are various methods for creating the movement vector image, here, the light and shade pattern matching method is used.

次に、画像処理部18は、ステップS3で作成した図9の移動ベクトル画像に対して、移動ベクトルの有無による2値化処理を行なうことにより、移動ベクトルを持つ画素を抽出し、さらにラベリング処理を実施して移動車両領域画像(図10参照)を作成する(ステップS4)。図10において、14b部が車両14に対応し、15b部が車両15に対応している。   Next, the image processing unit 18 performs a binarization process based on the presence or absence of a movement vector on the movement vector image of FIG. 9 created in step S3, thereby extracting pixels having a movement vector, and further performing a labeling process. To create a moving vehicle area image (see FIG. 10) (step S4). In FIG. 10, the portion 14 b corresponds to the vehicle 14, and the portion 15 b corresponds to the vehicle 15.

次に、画像処理部18は、ステップS4で作成された図10の移動車両領域画像に対しステップS3で作成した図9の移動ベクトル画像を投影することにより、図11に示すような車両領域ラベルごとの移動ベクトル画像(車両領域移動ベクトル画像)を作成する(ステップS5)。図11において、14c部が車両14に対応し、15c部が車両15に対応している。   Next, the image processing unit 18 projects the movement vector image shown in FIG. 9 created in step S3 on the moving vehicle area image shown in FIG. 10 created in step S4, so that the vehicle area label as shown in FIG. Each movement vector image (vehicle area movement vector image) is created (step S5). In FIG. 11, the part 14 c corresponds to the vehicle 14, and the part 15 c corresponds to the vehicle 15.

次に、画像処理部18は、ステップS5で作成された図11の車両領域移動ベクトル画像に対して、車両領域ラベルごとに各画素の平均値算出および重心点算出を実施し、最終的に車両領域ベクトル(図12参照)として抽出する(ステップS6)。図12において、14d部が車両14に対応し、15d部が車両15に対応し、14e,15eがそれぞれの重心点を示している。   Next, the image processing unit 18 performs an average value calculation and a centroid calculation of each pixel for each vehicle region label on the vehicle region movement vector image of FIG. 11 created in step S5, and finally the vehicle Extracted as a region vector (see FIG. 12) (step S6). In FIG. 12, a portion 14d corresponds to the vehicle 14, a portion 15d corresponds to the vehicle 15, and 14e and 15e indicate respective center of gravity points.

次に、画像処理部18は、ステップS6で抽出した図12の車両領域ベクトルおよび重心点の座標値(X,Y)をベクトル履歴保持部19に時系列に保持(登録)する(ステップS7)。図13に、ベクトル履歴保持部19の具体的な内容例を示す。   Next, the image processing unit 18 holds (registers) the vehicle area vector of FIG. 12 and the coordinate value (X, Y) of the barycentric point extracted in step S6 in the vector history holding unit 19 in time series (step S7). . FIG. 13 shows a specific content example of the vector history holding unit 19.

次に、画像処理部18は、ステップS7で登録した車両領域ベクトルと、ステップS1で登録された進行方向情報とを比較し(ステップS8)、車両領域ベクトルが進行方向情報と大きく異なる場合、非監視対象車線13の車両15を誤検出したと判断し、図10に示した移動車両領域画像から車両15に対応する画像15bの除去を行ない(ステップS9)、図14に示すような車両14に対応する画像14bだけの移動車両領域画像を作成する。   Next, the image processing unit 18 compares the vehicle area vector registered in step S7 with the traveling direction information registered in step S1 (step S8). If the vehicle area vector is significantly different from the traveling direction information, It is determined that the vehicle 15 in the monitoring target lane 13 has been erroneously detected, and the image 15b corresponding to the vehicle 15 is removed from the moving vehicle region image shown in FIG. 10 (step S9), and the vehicle 14 as shown in FIG. A moving vehicle area image of only the corresponding image 14b is created.

具体例に基づき説明すると、ベクトル履歴保持部19に登録された車両領域ベクトルが図13の枠A内の値であった場合、これらの車両領域ベクトルと進行方向情報とを比較し、差が大きい(たとえば、90以上等)場合は、非監視対象車線13を走行する車両15を誤検出したと判断し、移動車両領域画像から車両15に対応する画像15bを除外する。   If it demonstrates based on a specific example, when the vehicle area | region vector registered into the vector log | history holding | maintenance part 19 is the value in the frame A of FIG. 13, these vehicle area | region vectors will be compared with advancing direction information, and a difference will be large. In the case of (for example, 90 or more), it is determined that the vehicle 15 traveling on the non-monitoring target lane 13 is erroneously detected, and the image 15b corresponding to the vehicle 15 is excluded from the moving vehicle region image.

なお、ステップS8において、車両領域ベクトルと進行方向情報との差が小さい場合は、誤検出なしと判断し、ステップS9を飛び越してステップS10に進む。   In step S8, if the difference between the vehicle area vector and the traveling direction information is small, it is determined that there is no false detection, and the process skips step S9 and proceeds to step S10.

次に、画像処理部18は、ステップS2で得られた撮影画像とステップS1で登録された背景画像とから背景差分画像を作成する(ステップS10)。すなわち、図8に示した時刻t+Δtの画像と図5に示した背景画像とから、図15に示すような背景差分画像を作成する。図15において、14f部が車両14に対応し、15f部が車両15に対応している。   Next, the image processing unit 18 creates a background difference image from the captured image obtained in step S2 and the background image registered in step S1 (step S10). That is, a background difference image as shown in FIG. 15 is created from the image at time t + Δt shown in FIG. 8 and the background image shown in FIG. In FIG. 15, the part 14 f corresponds to the vehicle 14, and the part 15 f corresponds to the vehicle 15.

次に、画像処理部18は、ステップS10で作成された図15の背景差分画像と図14に示した移動車両領域画像との差分を求めることにより、図16に示すような停止車両領域画像を作成する(ステップS11)。   Next, the image processing unit 18 obtains a stop vehicle area image as shown in FIG. 16 by obtaining a difference between the background difference image of FIG. 15 created in step S10 and the moving vehicle area image shown in FIG. Create (step S11).

次に、画像処理部18は、ステップS11で作成された図16の停止車両領域画像に対しラベリング処理を実施し、さらにラベルごとに重心点算出を実施し、停止車両領域の重心点15g(図17参照)を抽出する(ステップS12)。   Next, the image processing unit 18 performs a labeling process on the stopped vehicle region image of FIG. 16 created in step S11, further calculates a centroid for each label, and a centroid point 15g of the stopped vehicle region (see FIG. 17) is extracted (step S12).

次に、画像処理部18は、ステップS12で重心点を抽出した場合(すなわち、停止車両領域が存在する場合、ステップS13)、当該フレーム直近(たとえば、当該フレームから3フレーム前まで)のベクトル履歴をベクトル履歴保持部19から参照する(ステップS14)。ここで、当該フレーム直近の車両領域ベクトルとステップS1で登録された進行方向情報との差分が大きい場合で(ステップS15)、かつ、ステップS12で抽出された停止車両領域の重心点と、当該フレーム直近の移動車両領域の重心点との差分が少ない場合(ステップS16)、非監視対象車線13の車両15が停止しているのを誤検出しているものと判断し、図16に示した停止車両領域画像から車両15に対応する画像15fの除去を行ない、図18に示すような停止車両領域画像を作成する(ステップS17)。   Next, when the center of gravity is extracted in step S12 (that is, in the case where there is a stop vehicle region, step S13), the image processing unit 18 immediately preceding the frame (for example, three frames before the frame). Is referenced from the vector history holding unit 19 (step S14). Here, when the difference between the vehicle area vector nearest to the frame and the traveling direction information registered in step S1 is large (step S15), the center of gravity point of the stopped vehicle area extracted in step S12, and the frame If the difference from the center of gravity of the latest moving vehicle area is small (step S16), it is determined that the vehicle 15 in the non-monitoring target lane 13 is erroneously detected, and the stop shown in FIG. The image 15f corresponding to the vehicle 15 is removed from the vehicle area image, and a stopped vehicle area image as shown in FIG. 18 is created (step S17).

具体例に基づき説明すると、ベクトル履歴保持部19に登録された移動車両領域の重心点座標(X,Y)および車両領域ベクトルが図19の枠B内の値であり、ステップS12で抽出された停止車両領域の重心座標(X,Y)およびあらかじめ登録された進行方向情報が図20に示す値であった場合、図19の車両領域ベクトルと図20の進行方向情報とを比較し、差が大きい(たとえば、90以上等)場合で、かつ、図20の停止車両領域の重心座標と図19の移動車両領域の重心座標とを比較し、差が小さい場合(たとえば、50未満等)は、非監視対象車線13に停止している車両15を誤検出したと判断し、停止車両領域画像から車両15に対応する画像15fを除外する。   Explaining based on a specific example, the barycentric coordinates (X, Y) and the vehicle area vector of the moving vehicle area registered in the vector history holding unit 19 are the values in the frame B of FIG. 19 and extracted in step S12. When the barycentric coordinates (X, Y) of the stop vehicle area and the advance direction information registered in advance are the values shown in FIG. 20, the vehicle area vector in FIG. 19 is compared with the advance direction information in FIG. If the difference is small (for example, less than 50, for example), if the difference is small (for example, less than 50). It is determined that the vehicle 15 stopped in the non-monitoring target lane 13 is erroneously detected, and the image 15f corresponding to the vehicle 15 is excluded from the stopped vehicle region image.

なお、ステップS13において、重心点を抽出しなかった場合(すなわち、停止車両領域が存在しない場合)、あるいは、ステップS15において、車両領域ベクトルと進行方向情報との差分が小さい場合、あるいは、ステップS16において、停止車両領域の重心点と移動車両領域の重心点との差分が大きい場合は、誤検出なしと判断し、ステップS18に進む。   It should be noted that when the center of gravity point is not extracted in step S13 (that is, when there is no stop vehicle region), or when the difference between the vehicle region vector and the traveling direction information is small in step S15, or step S16. If the difference between the center of gravity of the stopped vehicle area and the center of gravity of the moving vehicle area is large, it is determined that there is no false detection, and the process proceeds to step S18.

次に、画像処理部18は、上記のようにして求めた図14の移動車両領域画像および図18の停止車両領域画像を判定部21へ送り(ステップS18)、判定部21で最終的な道路状況の判定を実施する(ステップS19)。   Next, the image processing unit 18 sends the moving vehicle region image of FIG. 14 and the stopped vehicle region image of FIG. 18 obtained as described above to the determination unit 21 (step S18). The situation is determined (step S19).

以下、判定部21により行なわれる道路状況の判定処理の一例について簡単に説明する。移動車両領域画像から監視対象車線12で走行する車両14が検出されているか認識でき、停止車両領域画像から監視対象車線12で停止している車両14が検出されているか認識できるので、たとえば、検出した車両領域の座標値をあらかじめメモリに保持された変換テーブルを用いて絶対距離に変換することにより、検出された車両14(領域)の位置、車両面積、走行速度を求める。   Hereinafter, an example of the road condition determination process performed by the determination unit 21 will be briefly described. For example, it is possible to recognize from the moving vehicle area image whether the vehicle 14 traveling in the monitoring target lane 12 is detected, and from the stopped vehicle area image, whether the vehicle 14 stopped in the monitoring target lane 12 is detected. By converting the coordinate value of the vehicle area into an absolute distance using a conversion table previously stored in a memory, the position, vehicle area, and traveling speed of the detected vehicle 14 (area) are obtained.

次に、このようにして検出された車両情報に基づき監視対象車線12の状況として少なくとも道路渋滞、停止車両、低速車両、通常状態の4状態を判定する。具体的に説明すると、たとえば、上記のようにして取得された車両14の位置、車両面積、走行速度に基づき監視対象車線12が渋滞しているか否かの判定を行なうとともに、取得された走行速度に基づき停止車両、低速車両の判定を行なう。   Next, based on the vehicle information detected in this manner, at least four conditions of road congestion, a stopped vehicle, a low-speed vehicle, and a normal state are determined as the status of the monitored lane 12. Specifically, for example, it is determined whether or not the monitored lane 12 is congested based on the position, vehicle area, and traveling speed of the vehicle 14 acquired as described above, and the acquired traveling speed is determined. Based on this, a stop vehicle and a low-speed vehicle are determined.

なお、このような道路状況判定処理の詳細については、たとえば、特願2008−207034号に記載されているので、それを参照されたい。   The details of such road condition determination processing are described in Japanese Patent Application No. 2008-207034, for example.

以上説明した動作は1つのフレーム画像に対する動作であり、したがって各フレーム画像ごとに上記動作が繰り返される。   The operation described above is for one frame image, and thus the above operation is repeated for each frame image.

以上述べた少なくとも1つの実施形態の道路状況把握装置によれば、非監視対象車線13の車両15を誤検出しても、それを除外することができる。これにより、非監視対象車線13を走行する車両15の誤判定を防止し、監視対象車線12に対する道路状況を正確に判定することが可能となる。   According to the road condition grasping device of at least one embodiment described above, even if the vehicle 15 in the non-monitoring target lane 13 is erroneously detected, it can be excluded. Thereby, it is possible to prevent erroneous determination of the vehicle 15 traveling in the non-monitoring target lane 13 and to accurately determine the road condition with respect to the monitoring target lane 12.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行なうことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

11…道路、12…監視対象車線、13…非監視対象車線、14,15…車両、16…ビデオカメラ(撮像手段)、17…処理装置、18…画像処理部、19…ベクトル履歴保持部、20…パラメータ保持部、21…判定部。   DESCRIPTION OF SYMBOLS 11 ... Road, 12 ... Monitoring target lane, 13 ... Non-monitoring target lane, 14, 15 ... Vehicle, 16 ... Video camera (imaging means), 17 ... Processing apparatus, 18 ... Image processing part, 19 ... Vector history holding part, 20... Parameter holding unit, 21.

Claims (4)

車両が走行する複数の車線からなる道路上の画像を撮像手段により撮像し、この撮像された画像に基づき前記道路の状況を判定する道路状況把握装置において、前記撮像された画像から移動ベクトル画像を作成し、この作成された移動ベクトル画像の方向性とあらかじめ与えられる車両の進行方向情報とから非監視対象車線を走行する車両を検出し、この検出された非監視対象車線を走行する車両の画像を前記撮像された画像から除外することを特徴とする道路状況把握装置。   In a road situation grasping device that takes an image on a road composed of a plurality of lanes in which a vehicle travels and picks up an image on the road and determines the road situation based on the taken image, a movement vector image is obtained from the taken image. A vehicle that travels in the non-monitoring target lane is detected from the directionality of the generated moving vector image and the vehicle traveling direction information given in advance, and an image of the vehicle that travels in the detected non-monitoring target lane Is excluded from the picked-up image. 監視対象車線と非監視対象車線とが並設された道路において、前記監視対象車線上の画像を撮像手段により撮像し、この撮像された画像に対し所定の画像処理を施すことにより前記監視対象車線の状況を判定する道路状況把握装置であって、
前記撮像された画像から移動ベクトル画像を作成する移動ベクトル画像作成手段と、
この移動ベクトル画像作成手段により作成された移動ベクトル画像の方向性とあらかじめ与えられる車両の進行方向情報とから前記非監視対象車線を走行する車両を検出する車両検出手段と、
この車両検出手段により検出された非監視対象車線を走行する車両の画像を前記撮像された画像から除外する画像除外手段と、
を具備したことを特徴とする道路状況把握装置。
On a road in which a monitoring target lane and a non-monitoring target lane are arranged side by side, an image on the monitoring target lane is captured by an imaging unit, and the captured image is subjected to predetermined image processing to thereby perform the monitoring target lane. A road condition grasping device for judging the situation of
Movement vector image creation means for creating a movement vector image from the captured image;
Vehicle detection means for detecting a vehicle traveling in the non-monitoring lane from the directionality of the movement vector image created by the movement vector image creation means and the traveling direction information of the vehicle given in advance;
Image excluding means for excluding the image of the vehicle traveling in the non-monitoring target lane detected by the vehicle detecting means from the captured image;
A road condition grasping device characterized by comprising:
車両が走行する複数の車線からなる道路上の画像を撮像手段により撮像し、この撮像された画像に基づき前記道路の状況を判定する道路状況把握装置において、前記撮像された画像から移動ベクトル画像を作成するとともに、前記撮像された画像から車両が停止している停止車両領域画像を作成し、この作成された停止車両領域画像の重心座標および当該停止車両領域画像直近の前記作成された移動ベクトル画像の方向性および重心座標およびあらかじめ与えられる車両の進行方向情報から非監視対象車線にて停止する車両を検出し、この検出された非監視対象車線にて停止する車両の画像を前記撮像された画像から除外することを特徴とする道路状況把握装置。   In a road situation grasping device that takes an image on a road composed of a plurality of lanes in which a vehicle travels and picks up an image on the road and determines the road situation based on the taken image, a movement vector image is obtained from the taken image. A stop vehicle region image in which the vehicle is stopped is generated from the captured image, and the center of gravity coordinates of the generated stop vehicle region image and the generated movement vector image closest to the stop vehicle region image are generated. The vehicle that stops in the non-monitoring target lane is detected from the directionality and the center-of-gravity coordinates of the vehicle and the traveling direction information of the vehicle given in advance, and the captured image of the vehicle that stops in the non-monitoring target lane is detected. Road condition grasping device characterized by excluding from 監視対象車線と非監視対象車線とが並設された道路において、前記監視対象車線上の画像を撮像手段により撮像し、この撮像された画像に対し所定の画像処理を施すことにより前記監視対象車線の状況を判定する道路状況把握装置であって、
前記撮像された画像から移動ベクトル画像を作成する移動ベクトル画像作成手段と、
前記撮像された画像から車両が停止している停止車両領域画像を作成する停止車両領域画像作成手段と、
この停止車両領域画像作成手段により抽出された停止車両領域画像の重心座標および当該停止車両領域画像直近の前記作成された移動ベクトル画像の方向性および重心座標およびあらかじめ与えられる車両の進行方向情報から前記非監視対象車線にて停止する車両を検出する車両検出手段と、
この車両検出手段により検出された非監視対象車線にて停止する車両の画像を前記撮像された画像から除外する画像除外手段と、
を具備したことを特徴とする道路状況把握装置。
On a road in which a monitoring target lane and a non-monitoring target lane are arranged side by side, an image on the monitoring target lane is captured by an imaging unit, and the captured image is subjected to predetermined image processing to thereby perform the monitoring target lane. A road condition grasping device for judging the situation of
Movement vector image creation means for creating a movement vector image from the captured image;
A stopped vehicle area image creating means for creating a stopped vehicle area image in which the vehicle is stopped from the captured image;
From the barycentric coordinates of the stopped vehicle area image extracted by the stopped vehicle area image creating means, the directionality and barycentric coordinates of the created movement vector image nearest to the stopped vehicle area image, and the advance direction information of the vehicle given in advance Vehicle detection means for detecting a vehicle that stops in the unmonitored lane;
Image excluding means for excluding the image of the vehicle that stops in the non-monitoring target lane detected by the vehicle detecting means from the captured image;
A road condition grasping device characterized by comprising:
JP2011185810A 2011-08-29 2011-08-29 Road situation grasping device Withdrawn JP2013047878A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011185810A JP2013047878A (en) 2011-08-29 2011-08-29 Road situation grasping device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011185810A JP2013047878A (en) 2011-08-29 2011-08-29 Road situation grasping device

Publications (1)

Publication Number Publication Date
JP2013047878A true JP2013047878A (en) 2013-03-07

Family

ID=48010839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011185810A Withdrawn JP2013047878A (en) 2011-08-29 2011-08-29 Road situation grasping device

Country Status (1)

Country Link
JP (1) JP2013047878A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019036351A (en) * 2013-03-15 2019-03-07 イマージョン コーポレーションImmersion Corporation Method and apparatus to generate haptic feedback based on video content analysis
CN112489456A (en) * 2020-12-01 2021-03-12 山东交通学院 Signal lamp regulation and control method and system based on urban trunk line vehicle queuing length
CN114170801A (en) * 2021-12-07 2022-03-11 中国第一汽车股份有限公司 Method and device for determining crossing passage time, electronic terminal and storage medium
CN114267183A (en) * 2021-12-22 2022-04-01 临沂鼎甲建筑科技有限公司 Traffic control system with speed measuring function for town roads
JP7103699B2 (en) 2020-09-17 2022-07-20 株式会社石川エナジーリサーチ Engine-equipped flight equipment

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019036351A (en) * 2013-03-15 2019-03-07 イマージョン コーポレーションImmersion Corporation Method and apparatus to generate haptic feedback based on video content analysis
US10482608B2 (en) 2013-03-15 2019-11-19 Immersion Corporation Method and apparatus to generate haptic feedback from video content analysis
CN110536162A (en) * 2013-03-15 2019-12-03 意美森公司 The method and apparatus for generating the touch feedback from video content analysis
JP7103699B2 (en) 2020-09-17 2022-07-20 株式会社石川エナジーリサーチ Engine-equipped flight equipment
CN112489456A (en) * 2020-12-01 2021-03-12 山东交通学院 Signal lamp regulation and control method and system based on urban trunk line vehicle queuing length
CN114170801A (en) * 2021-12-07 2022-03-11 中国第一汽车股份有限公司 Method and device for determining crossing passage time, electronic terminal and storage medium
CN114267183A (en) * 2021-12-22 2022-04-01 临沂鼎甲建筑科技有限公司 Traffic control system with speed measuring function for town roads

Similar Documents

Publication Publication Date Title
JP5939357B2 (en) Moving track prediction apparatus and moving track prediction method
CN106647776B (en) Method and device for judging lane changing trend of vehicle and computer storage medium
CN107705552B (en) Emergency lane occupation behavior detection method, device and system
US9690996B2 (en) On-vehicle image processor
US20150085119A1 (en) Time to collision using a camera
JP2013047878A (en) Road situation grasping device
JP2014067198A (en) Moving object recognition device
JP2012003549A (en) Abnormal-driving vehicle detection system and road monitoring program
WO2018068312A1 (en) Device and method for detecting abnormal traffic event
JP2012128561A (en) Abnormal vehicle detection device
KR101828271B1 (en) Traffic management system and method thereof
US9365195B2 (en) Monitoring method of vehicle and automatic braking apparatus
CN115049993A (en) Vehicle abnormal stop monitoring method based on deep learning
JP2007066003A (en) Stop-line detection device
JP2007265016A (en) Vehicle detection device and vehicle detection method
JP2015185135A (en) Parking recognition device, parking recognition method and program
CN110956792B (en) Method for switching alarms
JP2012058851A (en) Abnormal vehicle detecting device
US11679769B2 (en) Traffic signal recognition method and traffic signal recognition device
JP2018005441A (en) Inter-vehicle distance alarm and collision alarm device
US11663834B2 (en) Traffic signal recognition method and traffic signal recognition device
JP2018163592A (en) Object detection support device
JP2018073049A (en) Image recognition device, image recognition system, and image recognition method
JP2013003920A (en) Road situation grasping device
JP5957315B2 (en) In-vehicle lane recognition system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131205

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131212

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140109

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141104