JP6394216B2 - Motion detection method, motion detection apparatus, and motion detection program - Google Patents
Motion detection method, motion detection apparatus, and motion detection program Download PDFInfo
- Publication number
- JP6394216B2 JP6394216B2 JP2014186178A JP2014186178A JP6394216B2 JP 6394216 B2 JP6394216 B2 JP 6394216B2 JP 2014186178 A JP2014186178 A JP 2014186178A JP 2014186178 A JP2014186178 A JP 2014186178A JP 6394216 B2 JP6394216 B2 JP 6394216B2
- Authority
- JP
- Japan
- Prior art keywords
- solution
- motion detection
- evaluation function
- motion
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本願開示は、動き検出方法、動き検出装置、及び動き検出プログラムに関する。 The present disclosure relates to a motion detection method, a motion detection device, and a motion detection program.
近年、自動車の安全性への意識の高まりと、カーエレクトロニクス技術の進歩により、ドライバーの運転を支援して安全性を高める技術に注目が集まっている。特に、車の発進時などに、車両に近づく歩行者や他車両などの接近物を自動的に検出し、ドライバーに注意を促すための、車両周辺接近物検知システムについての需要が増加している。接近物の検知には様々な方法が考えられるが、車載カメラの映像を使う方法が、低コストであり、他の運転支援システムとの連携の点からも有効である。 In recent years, attention has been focused on technologies that enhance driving safety by supporting driver's driving due to increasing awareness of automobile safety and advances in car electronics technology. In particular, when a vehicle starts, there is an increasing demand for a vehicle surrounding approach detection system that automatically detects approaching objects such as pedestrians and other vehicles approaching the vehicle and alerts the driver. . Various methods are conceivable for detecting an approaching object, but a method using an on-vehicle camera image is low-cost and effective from the viewpoint of cooperation with other driving support systems.
車載カメラによる車両周辺接近物検知システムにおいては、カメラ映像の動画に対してオプティカルフローを計算し、特定の方向を向いたオプティカルフローが検出された場合、接近物体があったと判断する。オプティカルフローの計算方式としては、SADを使った局所相関演算法がよく用いられる。 In a vehicle peripheral approaching object detection system using an in-vehicle camera, an optical flow is calculated for a moving image of a camera image, and when an optical flow directed in a specific direction is detected, it is determined that there is an approaching object. As a method for calculating an optical flow, a local correlation calculation method using SAD is often used.
車両周辺接近物検知システムにおいては、移動物体が遠くにあるうちに移動物体を検出することが、ドライバーに多くの時間的余裕を与えることになるため、安全性向上の観点から極めて重要である。移動物体が遠くにある場合には、動画中の移動量も小さいので、小さなオプティカルフローを逃さず検出する必要がある。しかしながら、小さなオプティカルフローを検出しようとすると、細かい誤りフローを誤検知するリスクが増加する。誤りフローは、動画中の草木などの細かい移動体や画像のノイズ等の原因により発生するだけでなく、移動物体が全くない状態で輝度の変化が起こっただけでも発生する可能性がある。 In the vehicle periphery approaching object detection system, detecting a moving object while the moving object is far away gives a driver a lot of time, and is extremely important from the viewpoint of improving safety. When the moving object is far away, the moving amount in the moving image is also small, so it is necessary to detect a small optical flow without missing it. However, when trying to detect a small optical flow, the risk of misdetecting a fine error flow increases. The error flow may not only occur due to a fine moving body such as a plant or the like in a moving image or noise of an image, but may also occur only when a luminance change occurs without any moving object.
輝度変化のみに起因して動きが検出されてしまう現象は、画像の輝度変化がグラデーションである場合に特に発生しやすい。画像の輝度変化がグラデーションであるとは、第1の画素位置の第1の輝度から第2の画素位置の第2の輝度まで、輝度が徐々に単調増加する又は単調減少することを意味する。特に、輝度変化が線形(即ち直線的)である場合に、誤った動きが検出されやすい。これは、空間的に直線的な輝度変化が存在する場合、直線的な輝度変化を有する物体が空間的に移動して発生する輝度変化と、全体の輝度が一様に増加(又は減少)することにより発生する輝度変化とは、局所的な情報のみからでは区別がつかないからである。即ち、ある画素位置とその近傍の局所的な領域に着目し、その領域で輝度の増加(又は減少)が発生したときに、物体が実際に動いて発生した輝度変化であるのか、全体の輝度が一様に変化して発生した輝度変化であるのか、区別がつかない。 The phenomenon in which motion is detected due to only the luminance change is particularly likely to occur when the luminance change of the image is gradation. That the luminance change of the image is gradation means that the luminance gradually increases or decreases monotonously from the first luminance at the first pixel position to the second luminance at the second pixel position. In particular, when the luminance change is linear (that is, linear), erroneous movement is likely to be detected. This is because, when there is a spatially linear brightness change, the brightness change caused by spatial movement of an object having a linear brightness change and the overall brightness uniformly increase (or decrease). This is because a change in luminance caused by the above cannot be distinguished from only local information. That is, paying attention to a certain pixel position and a local area in the vicinity of the pixel position, when an increase (or decrease) in luminance occurs in that area, it is a luminance change caused by actual movement of the object, or the entire luminance It is indistinguishable whether the brightness change is caused by uniform change.
なお上述のような輝度変化による誤った動き検出は、車両周辺接近物検知システムに限られる問題ではなく、オプティカルフローを検出する全てのシステムにおいて発生する可能性がある問題である。 The erroneous motion detection due to the luminance change as described above is not limited to the vehicle periphery approaching object detection system, but may be a problem that may occur in all systems that detect optical flows.
以上を鑑みると、輝度変化による誤ったオプティカルフローの検出を避けることができる動き検出装置及び方法が望まれる。 In view of the above, a motion detection apparatus and method that can avoid detection of an erroneous optical flow due to a change in luminance is desired.
動き検出方法は、輝度変化の影響を受ける第1の評価関数を用いて動き探索することによりオプティカルフローの最適解を求め、輝度変化の影響を受けない第2の評価関数を用いて前記最適解と対象物が静止している静止解とのうちの最適な方の解を選択する各段階をコンピュータにより実行する。 In the motion detection method, an optimal optical flow solution is obtained by performing motion search using a first evaluation function that is affected by a luminance change, and the optimal solution is obtained using a second evaluation function that is not affected by the luminance change. Each step of selecting the optimum solution of the stationary solution and the stationary solution where the object is stationary is executed by the computer.
動き検出装置は、プロセッサと、メモリとを含み、前記メモリに格納されたプログラムを前記プロセッサが実行することにより、輝度変化の影響を受ける第1の評価関数を用いて動き探索することによりオプティカルフローの最適解を求め、輝度変化の影響を受けない第2の評価関数を用いて前記最適解と対象物が静止している静止解とのうちの最適な方の解を選択する各段階を実行する。 The motion detection device includes a processor and a memory, and when the processor executes a program stored in the memory, a motion search is performed by using the first evaluation function that is affected by a change in luminance, thereby performing an optical flow. And executing each step of selecting the optimum solution of the optimum solution and the stationary solution in which the object is stationary using the second evaluation function that is not affected by the luminance change. To do.
少なくとも1つの実施例によれば、輝度変化による誤ったオプティカルフローの検出を避けることができる。 According to at least one embodiment, detection of an erroneous optical flow due to a luminance change can be avoided.
以下に、本発明の実施例を添付の図面を用いて詳細に説明する。以下の図において、同一又は対応する構成要素は同一又は対応する番号で参照し、その説明は適宜省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following drawings, the same or corresponding components are referred to by the same or corresponding numerals, and the description thereof will be omitted as appropriate.
図1は、動き検出装置の構成の一例を示す図である。図1に示す動き検出装置は、CPU(Central Processing Unit)10、ROM(Read Only Memory)11、RAM(Random Access Memory)12、GPU(Graphics Processing Unit)13、表示インタフェース14、及び映像入力インターフェース15を含む。図1に示す動き検出装置は、制御処理及び演算処理を実行するコンピュータであってよく、例えば車載の車両周辺接近物検知システム
CPU10は、ROM11やRAM12に格納されるプログラム及びデータに基づいてプログラムを実行することにより、動き検出装置の全体を制御すると共に、RAM12に格納される画像データを演算処理する。ROM11には、動き検出装置の制御に必要な基本的なプログラムが格納される
図2は、図1の動き検出装置のソフトウェアの構成の一例を示す図である。図2には、図1に示す動き検出装置のハードウェアが、ハードウェア104として示されている。CPU10が、例えば映像中の動きを検出して表示するアプリケーション101のプログラムを実行すると、当該プログラムからオプティカルフロー計算処理102が呼び出され、CPU10がオプティカルフロー計算処理102のプログラムを実行する。映像データ(時系列として並ぶ複数の画像データ)からオプティカルフローが計算されると、画像処理基本ソフトウェア103がGPU13により実行され、ハードウェア104内のフレームバッファ領域(RAM12)に対する描画が行われる。なおCP
オプティカルフロー計算処理102を実行することにより、図1に示す動き検出装置は、最初に、輝度変化の影響を受ける第1の評価関数を用いて動き探索することによりオプティカルフローの最適解を求める。動き検出装置は、次に、輝度変化の影響を受けない第2の評価関数を用いて前記最適解と対象物が静止してい
輝度変化の影響を受ける第1の評価関数とは、それを用いて計算した類似度又は相違度の値が、画像全体の輝度が一様に変化するような全体的な輝度の変化により変化してしまう評価関数のことである。また輝度変化の影響を受けない第2の評価関数とは、それを用いて計算した類似度又は相違度の値が、画像全体の輝度が一様に変化するような全体的な輝度の変化により変化しない評価関数のことである。また画像全体の輝度が一様に変化するような全体的な輝度の変化とは、より具体的には、画素ブロック内の各画素の画素値が各々同一の値増加又は減少するような画素値の変化のことである。 The first evaluation function that is affected by the luminance change is that the similarity or difference value calculated by using the first evaluation function changes due to a change in the overall luminance such that the luminance of the entire image changes uniformly. This is an evaluation function. The second evaluation function that is not affected by the luminance change is a value of the similarity or difference calculated by using the second evaluation function due to a change in the overall luminance such that the luminance of the entire image changes uniformly. An evaluation function that does not change. In addition, the change in overall brightness in which the brightness of the entire image changes uniformly, more specifically, a pixel value in which the pixel value of each pixel in the pixel block increases or decreases by the same value. It is a change of.
輝度変化の影響を受けない第2の評価関数を用いるということは、画素ブロック内の各画素についての絶対的な画素値の大小の情報を破棄し、画素間の相対的な画素値の情報のみを用いて類似度又は相違度を計算することに相当する。そのような第2の評価関数を用いる場合、輝度変化の影響を受ける第1の評価関数を用いる場合と比較して、類似度又は相違度の計算において使用される情報量が少ない。従って、輝度変化の影響を受けない第2の評価関数を用いてオプティカルフローの最適解を求めた場合、誤った解が求まっている可能性、即ち実際の動きとは異なる誤った動きを検出している可能性が、第1の評価関数を用いた場合に比較して大きくなってしまう。 The use of the second evaluation function that is not affected by the change in luminance means that the absolute pixel value information for each pixel in the pixel block is discarded, and only the relative pixel value information between the pixels is discarded. This is equivalent to calculating the degree of similarity or difference using. When such a second evaluation function is used, the amount of information used in the calculation of similarity or dissimilarity is small as compared with the case where the first evaluation function that is affected by a change in luminance is used. Therefore, when the optimal solution of the optical flow is obtained using the second evaluation function that is not affected by the luminance change, the possibility that an incorrect solution is obtained, that is, an erroneous motion different from the actual motion is detected. The possibility that the first evaluation function is larger than that in the case where the first evaluation function is used.
そこで上述のように、まず第1の評価関数を用いて最適解を求める動き探索処理を実行することにより適切な解を求め、輝度変化が存在しない状況下において信頼できる解を求める。これにより、オプティカルフロー検出の精度が落ちないことを保証できる。輝度変化が存在しない状況下ではこの最適解で問題ないが、輝度変化が存在する状況下ではこの最適解では誤りである可能性がある。そこで、輝度変化の影響を受けない第2の評価関数を用いて、最適解と静止解との何れの解が最適であるのかを判定し、最適な方の解を選択する修正処理を実行する。これにより、輝度変化の有無に関わらず、動き検出において信頼性の高い解を求めることができる。 Therefore, as described above, first, an appropriate solution is obtained by executing a motion search process for obtaining an optimal solution using the first evaluation function, and a reliable solution is obtained in a situation where there is no luminance change. Thereby, it can be ensured that the accuracy of optical flow detection does not drop. There is no problem with this optimal solution in a situation where there is no luminance change, but there is a possibility that this optimal solution is erroneous in a situation where there is a luminance change. Therefore, using the second evaluation function that is not affected by the luminance change, it is determined which of the optimal solution and the static solution is optimal, and correction processing for selecting the optimal solution is executed. . This makes it possible to obtain a highly reliable solution in motion detection regardless of whether or not there is a luminance change.
図1に戻り、映像入力インターフェース15は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)撮像素子等の撮像装置やDVD(Digital Versatile Disk)プレイヤー等の映像再生装置に接続されてよい。映像入力インターフェース15が接
表示インタフェース14は、例えばLCD(Liquid Crystal Display)等の
図3は、動き探索処理を説明するための図である。フレーム画像データ20とフレーム画像データ21とは、時系列中(時間軸上)で連続するフレームのデータである。フレーム画像データ21が現在のフレームの画像データであり、フレーム画像データ20が現在のフレームの1つ前のフレームの画像データである。図3において、フレーム画像データ20上の着目点、即ち動き検出対象の点が、画素位置30として示されている
動き探索処理においては、1つ前のフレーム画像データ20から現在のフレーム画像データ20への時間の経過に伴い画素位置30において発生した動きを検出する。画素位置
フレーム画像データ20中の画素ブロック31に対し、フレーム画像データ21において最も類似する画素ブロック35を探索する。具体的には、候補画素位置を中心とする小画像領域である画素ブロックと動き検出対象の画素位置30の周囲の画素ブロック31との間の類似度又は相違度を、候補画素位置を順次移動させながら評価関数に用いて計算し、類似度が最も大きくなる画素位置を特定する。このように
なお類似度が最も大きい画素ブロックを探索する際に、フレーム画像データ21全体を探索範囲としたのでは探索に時間がかかるので、動き検出対象の画素位置30即ち画素位置32の近傍に探索範囲を限定す
なお、輝度変化の影響を受ける第1の評価関数は、例えば、SSD(Sum of Squared Difference)及びSAD(Sum of Absolute Difference)のうちの何れか1つであってよい。1つ前のフレーム画像データ20の画素ブロック31の各画素の画素値をI(i,j)とし、
図4は、輝度変化の影響を受けない評価関数を用いた修正処理を説明するための図である。図4において、図3と同一又は対応する構成要素は同一又は対応する番号で参照し、その説明は適宜省略する。 FIG. 4 is a diagram for explaining a correction process using an evaluation function that is not affected by the luminance change. 4, the same or corresponding elements as those in FIG. 3 are referred to by the same or corresponding numerals, and a description thereof will be omitted as appropriate.
フレーム画像データ20上の画素位置30に対応す
図4に示す例において、フレーム画像データ20中の画素位置30を中心とする画素ブロック31に対して、フレーム画像データ21中の最適解である画素ブロック(即ち探索範囲内で画素ブロック31に最も類似する画素ブロック)は、画素ブロッ
具体的には、輝度変化の影響を受けない第2の評価関数を用い、画素ブロック31と最適解の画素ブロック43との間の類似度(又は相違度)を計算し、更に画素ブロック31と静止解の画素
なお輝度変化の影響を受けない第2の評価関数は、例えば、ZSAD(Zero-mean SAD)、NCC(Normalized Cross-Correlation)、及びZNCC(Zero-mean NCC)のうちの何れか1つであってよい。各画素の画素値がI(i,j)である画素ブロック31の平均画素値を/I("/"はオーバーライン)とし、各画素の画素値がT(i,j)である
図5は、動き探索及び修正処理の手順を示すフローチャートである。図1に示すCPU10が、例えばRAM12に格納されたオプティカルフロー計算処理102のプログラムを実行することにより、図5のフローチャートの各ステップを実行してよい。但し前述のように、CPU10ではなくGPU13にオプティカルフロー計算処理
図5及び以降の図において、フローチャートに記載された各ステップの実行順序は一例にすぎず、本願の意図する技術範囲が、記載された実行順番に限定されるものではない。例えば、Aステップの次にBステップが実行されるように本願に説明されていたとしても、Aステップの次にBステップを実行することが可能なだけでなく、Bステップの次にAステップを実行することが、物理的且つ論理的に可能である場合がある。この場合、どちらの順番でステップを実行しても、当該フローチャートの処理に影響する全ての結果が同一であるならば、本願に開示の技術の目的のためには、Bステップの次にAステップが実行されてもよいことは自明である。Aステップの次にBステップが実行されるように本願に説明されていたとしても、上記のような自明な場合を本願の意図する技術範囲から除外することを意図するものではなく、そのような自明な場合は、当然に本願の意図する技術範囲内に属する。 In FIG. 5 and subsequent figures, the execution order of each step described in the flowchart is merely an example, and the technical scope intended by the present application is not limited to the execution order described. For example, even if it is described in the present application that the B step is executed after the A step, it is not only possible to execute the B step after the A step, but also the A step after the B step. It may be physically and logically possible to perform. In this case, if all the results affecting the processing of the flowchart are the same regardless of the order in which the steps are executed, for the purpose of the technique disclosed in the present application, the A step is followed by the B step. It is obvious that may be executed. Even if it is described in the present application that the B step is executed after the A step, it is not intended to exclude the obvious case as described above from the technical scope intended by the present application. The obvious case naturally falls within the technical scope intended by the present application.
図5のステップS11において、CPU10がSAD_MINとXY_OPTとの両方を未決定とする。ここでSAD_MINはSA
ステップS13において、CPU10は、XY_CURを探索領域中で未計算の点に設定する。ここでXY_CURは、現在のフレーム画像中の候補画素位置を示す座標データを格納するパラメータである。ステップS14において、CPU10は、XY_PREVを中心とする画素ブロックとXY_CURを中心とする画素ブロックとの間でSADを求め
ステップS15において、CPU10は、SAD_MINが未決定である、或いは、SAD_CURがSAD_MINより小さい、の条件が満たされるか否かを判定する。この条件が満たされる場合、ステップS16において、CPU10は、SAD_CURの値をSAD_MINに
ステップS12において探索領域全体に対するSADの計算が終了したと判定されると、ステップS17において、CPU10は、XY_OPTに格納される最適解の座標データが、輝度変化による誤りである可能性を判定す
ステップS18において輝度変化による誤りの可能性があると判定された場合、ステップS19で、CPU10は、XY_PREVを中心とする画素ブロックとXY_OPTを中心とする画素ブロック
ステップS20で、CPU10は、XY_PREVを中心とする画素ブロックとXY_CENTERを中心とする画素ブロックとの間でZSADを求める。ここでXY_CENTER
ステップS21で、CPU10は、SAD_REL_CENTERがSAD_REL_OPTよりも小さい、との条件が満たされるか否かを判定する。条件が満たされない場合、処
なお図5の処理では、ステップS17において輝度変化による誤りである可能性を判定し、動き探索処理により得られた最適解に誤りの可能性があるときにのみ、ZSADを用いた修正処理を実行している。この手順は一例にすぎず、全ての最適解に対して無条件にZSADを用いた修正処理を実行してもよい。全ての最適解に対して修正処理を実行する場合、計算に時間はかかるものの、図5に示す手順の場合と同様に、適切な最終的な動き検出結果を得ることができる。全ての最適解に対して修正処理を実行する場合であっても、ZSADの計算は最適解と静止解との2つの点(XY_OPTとXY_CENTER)についてのみ実行すればよいので、修正処理を実行することにより追加となる計算時間はごく限られたものである。図5に示す手順においては、最適解に誤りの可能性がある場合のみZSADを用いた修正処理を実行するようにしているので、修正処理に掛かる計算時間を更に短くできる。 In the process of FIG. 5, the possibility of an error due to a luminance change is determined in step S17, and the correction process using ZSAD is executed only when there is a possibility of an error in the optimal solution obtained by the motion search process. doing. This procedure is only an example, and correction processing using ZSAD may be executed unconditionally for all optimal solutions. When correction processing is executed for all optimal solutions, although it takes time to calculate, an appropriate final motion detection result can be obtained as in the case of the procedure shown in FIG. Even when correction processing is executed for all optimal solutions, the ZSAD calculation needs to be executed only for two points (XY_OPT and XY_CENTER) of the optimal solution and the static solution, so the correction processing is executed. As a result, the additional calculation time is very limited. In the procedure shown in FIG. 5, the correction process using the ZSAD is executed only when there is a possibility of an error in the optimal solution, so that the calculation time required for the correction process can be further shortened.
図6は、輝度変化による誤検出の可能性の有無を判定する手順を示すフローチャートである。この処理は、図5のフローチャートのステップS17において実行される。 FIG. 6 is a flowchart illustrating a procedure for determining whether or not there is a possibility of erroneous detection due to a change in luminance. This process is executed in step S17 of the flowchart of FIG.
ステップS21において、CPU10は、XY_OPTが
ステップS21の判定において動き有りと判定された場合には、ステップS22において、CPU10は、XY_OPTとXY_CENTERとの距離が所定の閾値以上であるか否かを判定する。一般に、輝度変化により誤って動きが検出される場合、検出される動き量(移動量)は比較的小さな値となる。従って、検出された動き量が所定の閾値以上である場合には
ステップS22の判定において距離が所定の閾値より小さいである場合には、ステップS23において、CPU10は、XY_OPTとXY_CENTERとの周囲の画素値がグラデーション状の変化をしているか否かを判定する。この判定においては、XY_OPTとXY_CENTERとの間を結ぶ直線上又はその近傍に存在する画素の画素値を、XY_OPTの画素値とXY_CENTERの画素値との間を線形補間した画素値と比較してよい。例えばこれら画素値の差の絶対値を合計し、その合計値が所定の閾値以下である場合には、画素値がグラデーション状の変化をしていると判定してよい。前述のように、画素値がグラデーションである領域において輝度変化による誤った動き検出が発生するので、上記判定の結果に応じて、誤り検出の有無の可
図7は、修正処理の効果を示す表である。231個の試験動画に対して、検知対象とすべき物体を人手で予め特定することにより正解データを作成しておき、この正解データと図5に示す処理による検出結果データとの一致度を計算した。この計算において、検出結果データと一致した正解データの数をTPCとし、検出結果データと一致しなかった正解データの数をFNとする。また正解データと一致した検出結果データの数をTPRとし、正解データと一致しなかった検出結果データの数をFPとする。なおここで「一致する」とは、正解データと検出結果データとのいずれかの出現時において、両者に重なり部分(重複領域)があることを意味する。 FIG. 7 is a table showing the effect of the correction process. For the 231 test videos, correct answer data is created by manually specifying an object to be detected in advance, and the degree of coincidence between the correct answer data and the detection result data obtained by the process shown in FIG. 5 is calculated. did. In this calculation, the number of correct data that matches the detection result data is TPC, and the number of correct data that does not match the detection result data is FN. The number of detection result data that matches the correct answer data is TPR, and the number of detection result data that does not match the correct answer data is FP. Here, “match” means that there is an overlapping portion (overlapping region) between the correct answer data and the detection result data when they appear.
認識精度の評価観点としては、以下の2つの性能指標を使用する。第1の性能指標である網羅率は、正解データを母集合としたときの正解率であり、全体の正解データのうちの何%に対して検出結果データが正しく出力されたのかを示す。この網羅率はTPC/(TPC+FN)により計算される。第2の性能指標である正報率は、検出結果データを母集合としたときの正解率であり、全体の検出結果データのうちの何%が正解データに一致するのかを示す。この正報率はTPR/(TPR+FP)により計算される。 As evaluation viewpoints of recognition accuracy, the following two performance indexes are used. The coverage ratio, which is the first performance index, is a correct answer rate when the correct answer data is used as a population, and indicates what percentage of the entire correct answer data the detection result data is correctly output. This coverage is calculated by TPC / (TPC + FN). The accuracy rate, which is the second performance index, is the accuracy rate when the detection result data is a population, and indicates what percentage of the entire detection result data matches the correct data. This accuracy rate is calculated by TPR / (TPR + FP).
図7には、修正処理適用前の検出結果(図5のステップS11乃至S16による動き探索処理のみの検出結果)と修正処理適用後の検出結果(図5の全てのステップによる動き探索処理と修正処理とによる検出結果)とに対する網羅率と正報率とが示される。網羅率は、修正処理の適用前と適用後とで、殆ど変化はない。正報率は、修正処理の適用前の55.6%に対し、修正処理の適用後には78.1%に向上している。 FIG. 7 shows a detection result before applying the correction process (detection result of only the motion search process in steps S11 to S16 in FIG. 5) and a detection result after applying the correction process (motion search process and correction in all the steps in FIG. 5). The detection rate by the processing) and the correct report rate are shown. The coverage rate hardly changes between before and after the application of the correction process. The correct report rate is improved to 78.1% after applying the correction process, compared to 55.6% before applying the correction process.
図8は、背景の動きの影響を取り除く処理の手順を示すフローチャートである。前述の図5のフローチャートに示す処理手順では、動き検出装置を搭載した車両が移動しており、撮像側の動きにより背景が一様に動いているような場合を想定していない。しかしながら、撮像側の動きによる背景の動きを考慮することにより図5に示すフローチャートを変形することで、撮像側が運動している場合にも修正処理を実行することが可能である。 FIG. 8 is a flowchart showing a processing procedure for removing the influence of the background motion. In the processing procedure shown in the flowchart of FIG. 5 described above, it is not assumed that the vehicle on which the motion detection device is mounted is moving and the background is moving uniformly due to the movement on the imaging side. However, by modifying the flowchart shown in FIG. 5 by considering the background movement due to the movement on the imaging side, it is possible to execute the correction process even when the imaging side is moving.
図9は、背景の動きの影響を取り除く処理を説明するための図である。図9(a)に示されるフレーム画像51においては、物体50が動きベクトル52等で示される動きを示し
図8のステップS32において、CPU10が背景の平均移動量を取得する。具体的には、ステップS31で求められた全ての画素の動きベクトルの平均をとり、それを背景の平均移動量としてよい。或いは、ステップS31で求められた全ての画素の動きベクトルの平均をとり、その平均動きベクトルから所定の閾値以上大きさ又は方向が異なる動きベクトルを排除し、残った動きベクトルの平均を再度とることにより、背景の平均移動量を求めてよい。また或いは、例えば車両に搭載されている速
ステップS33において、CPU10は、画面全体のオプティカルフローから背景の平均移動量に相当するオプティ
ステップS34において、CPU10は、背景の平均移動量を差し引いた後のオプティカルフローに基づいて、輝度変化による誤りである可能性を判定す
上記説明したように、背景が一様に動いている場合には、背景の平均移動量を求め、求めた平均移動量を各画素のオプティカルフローから差し引くことで、背景の動きの影響をなくすことができる。代替的に、XY_CENTERが示す座標位置の代わりに、「XY_PREV+平均移動量」の座標位置を用いて、ステップS20及びS21の計算を実行してもよい。このようにして撮像側の動きに応じた背景の動きの影響を取り除くことにより、輝度変化の影響を受けない第2の評価関数を用いて最適解と対象物が静止している静止解とのうちの最適な方の解を選択することができる。 As described above, when the background is moving uniformly, the average movement amount of the background is obtained, and the obtained average movement amount is subtracted from the optical flow of each pixel to eliminate the influence of the background movement. Can do. Alternatively, the calculation of steps S20 and S21 may be executed using the coordinate position of “XY_PREV + average movement amount” instead of the coordinate position indicated by XY_CENTER. In this way, by removing the influence of the background movement according to the movement on the imaging side, using the second evaluation function not affected by the luminance change, the optimum solution and the stationary solution where the object is stationary You can choose the best solution.
図10乃至図12は、背景の動きの異なるパターンについて説明するための図である。図10(a)に示す例では、車両60が矢印61に示す方向に直進しており、動き検出装置に接続される撮像装置が撮像視野62で示される領域を撮像している。撮像視野62は、車両60が直進する方向とは垂直な方向に向いている。この場合、図10(b)に示されるように、画面全体が同一方向に略同一速度で移動するような動きが発生する。図9を参照して説明した方法と同様にして背景の平均移動量を計算することで、撮像側の動きに応じた背景の動きの影響を取
図11(a)に示す例では、車両60が矢印61に示す方向に直進しており、動き検出装置に接続される撮像装置が撮像視野63で示される領域を撮像している。撮像視野63は、車両60が直進する方向と同一の方向に向いている。この場合、図11(b)に示されるように、画面の中心から放射状に広がる動きベクトルが発生する。例えば車両に搭載されている速度計、ハンドル角、加速度センサ、角速度センサ等に基づいて車両の動きを推定し、その推定結果と画像から求めた動きベクトルとから、背景の各部分における撮像装置の動きに由来する移動量を求めてよい。このようにして求めた背景の移動量を計算する
図12(a)に示す例では、車両60が矢印64に示すように右方向に曲がるように進行しており、動き検出装置に接続される撮像装置が撮像視野65で示される領域を撮像している。撮像視野65は、車両60が進行する方向よりも左側を向いている。この場合、図12(b)に示されるように、画面全体が左側に移動するが、移動方向及び移動距離は画面上の位置に依存する。例えば車両に搭載されている速度計、ハンドル角、加速度センサ、角速度センサ等に基づいて車両の動きを推定し、その推定結果と画像から求めた動きベクトルとから、背景の各部分における撮像装置の動きに由来する移動量を求めてよい。このようにして求めた背景の移動量を計算
以上、本発明を実施例に基づいて説明したが、本発明は上記実施例に限定されるものではなく、特許請求の範囲に記載の範囲内で様々な変形が可能である。 As mentioned above, although this invention was demonstrated based on the Example, this invention is not limited to the said Example, A various deformation | transformation is possible within the range as described in a claim.
11
13 GPU
14 表示インタフェース
15 映像入力インターフェース
20 1つ前のフレーム画像データ
21 現在のフレーム画像データ
33 探索範囲
10 CPU
11 ROM
12 RAM
13 GPU
14 Display Interface 15 Video Input Interface 20 Previous Frame Image Data 21 Current Frame Image Data 33 Search Range
Claims (7)
輝度変化の影響を受けない第2の評価関数を用いて前記最適解と対象物が静止している静止解とのうちの最適な方の解を選択する
各段階をコンピュータにより実行する動き検出方法。 The optimal solution of the optical flow is obtained by performing motion search using the first evaluation function affected by the luminance change,
A motion detection method for selecting the optimum solution of the optimum solution and the stationary solution in which the object is stationary by using a second evaluation function that is not affected by a change in luminance. .
メモリと、
を含み、前記メモリに格納されたプログラムを前記プロセッサが実行することにより、
輝度変化の影響を受ける第1の評価関数を用いて動き探索することによりオプティカルフローの最適解を求め、
輝度変化の影響を受けない第2の評価関数を用いて前記最適解と対象物が静止している静止解とのうちの最適な方の解を選択する
各段階を実行する動き検出装置。 A processor;
Memory,
And when the processor executes a program stored in the memory,
The optimal solution of the optical flow is obtained by performing motion search using the first evaluation function affected by the luminance change,
A motion detection apparatus that executes each step of selecting an optimum solution of the optimum solution and a stationary solution in which an object is stationary by using a second evaluation function that is not affected by a luminance change.
輝度変化の影響を受けない第2の評価関数を用いて前記最適解と対象物が静止している静止解とのうちの最適な方の解を選択する
各段階を含む動き検出プログラム。 The optimal solution of the optical flow is obtained by performing motion search using the first evaluation function affected by the luminance change,
A motion detection program including each step of selecting an optimum solution of the optimum solution and a stationary solution in which an object is stationary by using a second evaluation function that is not affected by a luminance change.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014186178A JP6394216B2 (en) | 2014-09-12 | 2014-09-12 | Motion detection method, motion detection apparatus, and motion detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014186178A JP6394216B2 (en) | 2014-09-12 | 2014-09-12 | Motion detection method, motion detection apparatus, and motion detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016058019A JP2016058019A (en) | 2016-04-21 |
JP6394216B2 true JP6394216B2 (en) | 2018-09-26 |
Family
ID=55758758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014186178A Active JP6394216B2 (en) | 2014-09-12 | 2014-09-12 | Motion detection method, motion detection apparatus, and motion detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6394216B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7019309B2 (en) | 2016-06-01 | 2022-02-15 | ゼネラル・エレクトリック・カンパニイ | 3D imaging system |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3035420B2 (en) * | 1993-03-31 | 2000-04-24 | 大倉電気株式会社 | Image motion vector detection method |
JP3549175B2 (en) * | 1996-05-28 | 2004-08-04 | 株式会社東芝 | Motion vector detection method and apparatus |
JP4622265B2 (en) * | 2004-03-01 | 2011-02-02 | ソニー株式会社 | Motion vector detection device, motion vector detection method, and program |
JP2012068842A (en) * | 2010-09-22 | 2012-04-05 | Olympus Corp | Motion vector detection apparatus, motion vector detection method, and, motion vector detection program |
JP2013084140A (en) * | 2011-10-11 | 2013-05-09 | Suzuki Motor Corp | Optical flow detection device and detection method |
-
2014
- 2014-09-12 JP JP2014186178A patent/JP6394216B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7019309B2 (en) | 2016-06-01 | 2022-02-15 | ゼネラル・エレクトリック・カンパニイ | 3D imaging system |
Also Published As
Publication number | Publication date |
---|---|
JP2016058019A (en) | 2016-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6230751B1 (en) | Object detection apparatus and object detection method | |
US10853950B2 (en) | Moving object detection apparatus, moving object detection method and program | |
US20180114067A1 (en) | Apparatus and method for extracting objects in view point of moving vehicle | |
EP2180695B1 (en) | Apparatus and method for improving frame rate using motion trajectory | |
JP6188592B2 (en) | Object detection apparatus, object detection method, and object detection program | |
JP2010097561A (en) | Vehicle periphery monitoring device | |
JP2005209019A (en) | Apparatus, method and program for obstacle detection | |
WO2014033936A1 (en) | Image processing device, image processing method, and image processing program | |
JP6097150B2 (en) | Image processing apparatus, image processing method, and program | |
JP2010102427A (en) | Lane division line detection device, lane division line detection method and line division line detection program | |
JP2017058274A (en) | Measurement device, method, and program | |
JP2009277021A (en) | Approaching object detection apparatus and approaching object detection method | |
JP4962304B2 (en) | Pedestrian detection device | |
JP6384802B2 (en) | MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT | |
KR101239718B1 (en) | System and method for detecting object of vehicle surroundings | |
JP2012252501A (en) | Traveling path recognition device and traveling path recognition program | |
KR101637535B1 (en) | Apparatus and method for correcting distortion in top view image | |
US8983196B2 (en) | Vehicle periphery monitoring apparatus | |
JP6394216B2 (en) | Motion detection method, motion detection apparatus, and motion detection program | |
JP6407596B2 (en) | Image processing apparatus and driving support system | |
JP2014085842A (en) | White line detection device and method | |
JP2009181310A (en) | Road parameter estimation device | |
JP2006080761A (en) | Vehicle detector | |
JP2008257399A (en) | Image processor | |
JP2018147241A (en) | Image processing device, image processing method, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180723 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180731 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180813 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6394216 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |