JP2008276307A - Video image processing apparatus, video image processing system, and navigation device - Google Patents

Video image processing apparatus, video image processing system, and navigation device Download PDF

Info

Publication number
JP2008276307A
JP2008276307A JP2007115873A JP2007115873A JP2008276307A JP 2008276307 A JP2008276307 A JP 2008276307A JP 2007115873 A JP2007115873 A JP 2007115873A JP 2007115873 A JP2007115873 A JP 2007115873A JP 2008276307 A JP2008276307 A JP 2008276307A
Authority
JP
Japan
Prior art keywords
optical flow
frame
moving image
image processing
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007115873A
Other languages
Japanese (ja)
Inventor
Shoji Goto
章二 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007115873A priority Critical patent/JP2008276307A/en
Publication of JP2008276307A publication Critical patent/JP2008276307A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that detecting accuracy is insufficient in detecting an optical flow from an image picked up with an on-vehicle camera. <P>SOLUTION: An optical flow detecting part 20 detects an optical flow from a moving image picked up with an image pickup element installed in a moving element. Depending on the moving speed of the moving element, a reference frame selecting part 18 adaptively varies the frame interval between a subject frame and a reference frame when detecting the optical flow. For example, as the moving speed increases, the frame interval increases, the moving speed is reduced, the frame interval is reduced. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、動画像内から衝突する可能性のある対象を検出する動画像処理装置、動画像処理システムおよびナビゲーション装置に関する。   The present invention relates to a moving image processing apparatus, a moving image processing system, and a navigation apparatus that detect an object that may collide from within a moving image.

近年、自動車の安全技術が発展してきている。安全技術の一つとして、車両の前方または後方の画像を撮像するカメラを車両に搭載し、そのカメラで撮像された時間方向に前後するフレーム同士を比較してオプティカルフローを検出することにより、画像内から衝突する可能性のある対象を抽出する技術が提案されている。   In recent years, automobile safety technology has been developed. As one of the safety technologies, a camera that captures an image of the front or rear of the vehicle is mounted on the vehicle, and the optical flow is detected by comparing frames that are captured by the camera in the time direction. Techniques have been proposed for extracting objects that may collide from within.

特許文献1は、オプティカルフロー検出システムについて開示し、オプティカルフローの大きさに関連付けられた評価量または対象物体までの距離に応じて、フレームレートを制御する手法を開示する。
特開2004−355082号公報
Patent Document 1 discloses an optical flow detection system, and discloses a method for controlling a frame rate according to an evaluation amount associated with the magnitude of an optical flow or a distance to a target object.
JP 2004-355082 A

車載カメラで撮像された画像からオプティカルフローを検出する場合、参照フレームを最適に設定することが難しく、車両から近距離に位置する低速移動している対象を正しく検出できなかったり、車両から遠距離に位置する対象を検出できないことがあった。たとえば、高速走行中に近距離に位置する歩行者などを検出するとき、その移動方向や移動速度を正しく検出できないことがあった。また、低速走行中に遠距離に位置する歩行者などを検出できない場合があった。   When detecting an optical flow from an image captured by an in-vehicle camera, it is difficult to optimally set a reference frame, and a low-speed moving object located at a short distance from the vehicle cannot be detected correctly, or a long distance from the vehicle In some cases, the object located in the location could not be detected. For example, when detecting a pedestrian or the like located at a short distance during high-speed traveling, the movement direction and movement speed may not be detected correctly. Further, there are cases where pedestrians and the like located at a long distance cannot be detected during low-speed traveling.

本発明はこうした状況に鑑みなされたものであり、その目的は、動画像内から検出対象を精度よく検出することができる動画像処理装置、動画像処理システムおよびナビゲーション装置を提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is to provide a moving image processing apparatus, a moving image processing system, and a navigation apparatus that can detect a detection target from a moving image with high accuracy.

本発明のある態様は、移動体に搭載された撮像素子で撮像された動画像からオプティカルフローを検出する検出部と、移動体の移動速度に応じて、オプティカルフローを検出する際の対象フレームと参照フレームとのフレーム間隔を適応的に変化させる参照フレーム選択部と、を備える。   An aspect of the present invention includes a detection unit that detects an optical flow from a moving image captured by an image sensor mounted on a moving body, and a target frame when detecting an optical flow according to the moving speed of the moving body. A reference frame selection unit that adaptively changes a frame interval with the reference frame.

なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によれば、動画像内から検出対象を精度よく検出することができる。   According to the present invention, it is possible to accurately detect a detection target from within a moving image.

まず、本発明の実施の形態を詳細に説明する前にその概要を説明する。実施の形態は、車両の前方を撮像するカメラを搭載し、そのカメラで撮像した動画像を処理して、歩行者、障害物および前方車両などをオプティカルフローとして検出するものである。そのオプティカルフローをもとに、それらの対象物との衝突危険性をドライバーに報知することが可能となる。ここで、オプティカルフローとは、画像内のある点や図形がつぎの瞬間にどのような方向へ、どの程度の距離、移動するかを示すベクトルである。   First, an outline of the present invention will be described before describing the embodiments of the present invention in detail. In the embodiment, a camera that images the front of a vehicle is mounted, and a moving image captured by the camera is processed to detect pedestrians, obstacles, vehicles ahead, and the like as an optical flow. Based on the optical flow, it becomes possible to notify the driver of the danger of collision with those objects. Here, the optical flow is a vector indicating in what direction and how much distance a certain point or figure in the image moves at the next moment.

図1は、自車速度と安全車間距離との関係L1、および前の車両が急ブレーキをかけたときに縮まる車間距離L2を示す図である。図1の縦軸は車間距離(m)を示し、横軸は自車速度(km/h)を示す。第1ラインL1は自車速度に対応する安全車間距離を示す。図1にて第1ラインL1より上の領域は、速度に対して車間距離が十分とられており安全性が高い領域である。第2ラインL2は、前の車両が急ブレーキをかけたときに、ドライバーが危険を察知し、ブレーキをかけたときに縮まる車間距離を示す。図1にて第2ラインL2より下の領域は、ブレーキをかけても間に合わず、衝突する可能性が極めて高い領域である。第1ラインL1と第2ラインL2との間の領域は、ドライバーが適切に対処すれば、衝突を回避可能な領域である。   FIG. 1 is a diagram showing a relationship L1 between the host vehicle speed and the safe inter-vehicle distance, and an inter-vehicle distance L2 that contracts when the preceding vehicle suddenly brakes. The vertical axis in FIG. 1 represents the inter-vehicle distance (m), and the horizontal axis represents the vehicle speed (km / h). The first line L1 indicates the safe inter-vehicle distance corresponding to the own vehicle speed. In FIG. 1, the region above the first line L1 is a region where the distance between the vehicles is sufficiently high with respect to the speed and the safety is high. The second line L2 indicates an inter-vehicle distance that the driver senses a danger when the preceding vehicle applies a sudden brake and contracts when the brake is applied. In FIG. 1, the area below the second line L2 is an area where there is an extremely high possibility of a collision, even if the brake is applied. A region between the first line L1 and the second line L2 is a region where a collision can be avoided if the driver appropriately copes with it.

したがって、第2ラインL2より下の領域にある距離に、前の車両、歩行者および障害物などの対象を検出しても基本的に手遅れである。反対に、第1ラインL1よりはるか上の領域にある距離にそのような対象を検出した場合、比較的余裕がある。第1ラインL1の近傍の領域にある距離、および第1ラインL1と第2ラインL2との間の領域にある距離にそのような対象を検出した場合、早期にドライバーに認識させれば衝突を回避することができる。したがって、最も緊急性が高く、最も検出精度が必要な場合といえる。以下、この知見を利用して実施の形態について説明する。   Therefore, it is basically too late to detect objects such as the previous vehicle, pedestrians and obstacles at a distance in the region below the second line L2. On the other hand, when such an object is detected at a distance in a region far above the first line L1, there is a relatively large margin. If such an object is detected at a distance in the area in the vicinity of the first line L1 and a distance in the area between the first line L1 and the second line L2, a collision will occur if the driver recognizes it early. It can be avoided. Therefore, it can be said that it is the most urgent and requires the highest detection accuracy. Hereinafter, embodiments will be described using this knowledge.

まず、実施の形態1の概要について説明する。実施の形態1は、オプティカルフローを検出する際、車両の速度に応じて、対象フレームと参照フレームとのフレーム間隔を適応的に切り換えるものである。具体的には、車両の速度が現在の速度より遅くなるとそのフレーム間隔を狭くし、速度が速くなるとそのフレーム間隔を広くする。なお、カメラは車両に固定されるため、車両の速度は、カメラの移動速度に対応する。   First, an outline of the first embodiment will be described. In the first embodiment, when detecting an optical flow, the frame interval between the target frame and the reference frame is adaptively switched according to the speed of the vehicle. Specifically, the frame interval is narrowed when the speed of the vehicle is slower than the current speed, and the frame interval is widened when the speed is high. Since the camera is fixed to the vehicle, the vehicle speed corresponds to the moving speed of the camera.

図2は、対象フレームと参照フレームとのフレーム間隔を模式的に示した図である。図2の左側に示すように、通常、対象フレームは、時間方向に隣合うフレームを参照フレームとする。すなわち、フレーム間隔T1は一に固定されている。これに対し、図2の右側に示すように、本実施の形態では、対象フレームと参照フレームとのフレーム間隔T1、T2、T3が一の場合もあり、二の場合もあり、三の場合もある。もちろん、それ以上の場合もある。   FIG. 2 is a diagram schematically illustrating the frame interval between the target frame and the reference frame. As shown on the left side of FIG. 2, the target frame is usually a frame adjacent in the time direction as a reference frame. That is, the frame interval T1 is fixed at one. On the other hand, as shown on the right side of FIG. 2, in the present embodiment, the frame intervals T1, T2, and T3 between the target frame and the reference frame may be one, two, or three. is there. Of course, there may be more.

図3は、フレーム間隔の決定基準を説明するための図である。図3は、車両に搭載された後述する図4の撮像素子12で撮像された画像を示す。図1で示したように、車両の速度に応じて、対象物と衝突せずに止まれる距離および衝突を回避できない距離が異なってくる。実施の形態1は、前者と後者の距離を区分するライン付近の距離にある対象を精度よく検出できるよう処理する。   FIG. 3 is a diagram for explaining a frame interval determination criterion. FIG. 3 shows an image captured by an image sensor 12 of FIG. 4 (described later) mounted on the vehicle. As shown in FIG. 1, the distance that can be stopped without colliding with the object and the distance that the collision cannot be avoided differ depending on the speed of the vehicle. In the first embodiment, processing is performed so that an object at a distance near a line that divides the distance between the former and the latter can be detected with high accuracy.

実施の形態1は、車両が停止または低速時に、領域Aのオプティカルフローが最も精度よく検出できるよう、上記フレーム間隔を狭く設定する。中速時に、領域Bのオプティカルフローが最も精度よく検出できるよう、上記フレーム間隔を中程度に設定する。高速時に、領域Cのオプティカルフローが最も精度よく検出できるよう、上記フレーム間隔を広く設定する。ここで、低速、中速および高速の区分は、たとえば、0〜40km/h(低速)、40〜80km/h(中速)、80km/h<(高速)のように設定する。それぞれの区分ごとにフレーム間隔を設定しておき、取得した速度が区分を跨ぐとき、フレーム間隔を遷移先の区分のフレーム間隔に切り換える。   In the first embodiment, the frame interval is set narrow so that the optical flow in the region A can be detected with the highest accuracy when the vehicle is stopped or at a low speed. The frame interval is set to a medium level so that the optical flow in the region B can be detected with the highest accuracy at the medium speed. The frame interval is set wide so that the optical flow in region C can be detected with the highest accuracy at high speed. Here, the low speed, the medium speed, and the high speed are set, for example, as 0 to 40 km / h (low speed), 40 to 80 km / h (medium speed), and 80 km / h <(high speed). A frame interval is set for each division, and when the acquired speed crosses the division, the frame interval is switched to the frame interval of the transition destination division.

図3に示すように、速度が速くなるほど、より前方を高精度に検出するようフレーム間隔を広くする方向に設定する。すなわち、速度に応じて、注目領域が領域A、領域B、領域Cと切り換わるようよう設定する。より具体的には、車両の速度が速くなると、注目領域の位置をフレーム内にて遠距離の画像を写す領域の方向に移動させ、速度が遅くなると、注目領域の位置を近距離の画像を写す領域の方向に移動させる。以下、この制御を具体的に実行するための構成および動作について説明する。   As shown in FIG. 3, the frame interval is set to be widened so that the front is detected with higher accuracy as the speed increases. In other words, the attention area is set to switch to the area A, the area B, and the area C according to the speed. More specifically, when the speed of the vehicle is increased, the position of the attention area is moved in the direction of the area where the image of a long distance is captured in the frame, and when the speed is decreased, the position of the attention area is changed to a short distance image. Move in the direction of the area to be copied. Hereinafter, a configuration and operation for specifically executing this control will be described.

図4は、実施の形態1の実施例1に係る動画像処理システム500の構成を示す。動画像処理システム500は、撮像部10および動画像処理装置100を備える。撮像部10は、撮像素子12および信号処理部14を有する。動画像処理装置100は、フレームバッファ16、参照フレーム選択部18、ルックアップテーブル19、オプティカルフロー検出部20および後処理部26を有する。オプティカルフロー検出部20は、特徴点抽出部22およびオプティカルフロー演算部24を含む。動画像処理装置100の構成は、ハードウェア的には、任意のプロセッサ、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。   FIG. 4 shows a configuration of a moving image processing system 500 according to Example 1 of the first embodiment. The moving image processing system 500 includes the imaging unit 10 and the moving image processing apparatus 100. The imaging unit 10 includes an imaging element 12 and a signal processing unit 14. The moving image processing apparatus 100 includes a frame buffer 16, a reference frame selection unit 18, a lookup table 19, an optical flow detection unit 20, and a post-processing unit 26. The optical flow detection unit 20 includes a feature point extraction unit 22 and an optical flow calculation unit 24. The configuration of the moving image processing apparatus 100 can be realized by an arbitrary processor, memory, or other LSI in terms of hardware, and is realized by a program loaded in the memory in terms of software. Depicts functional blocks realized by. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

撮像部10は、車両の前方に搭載され、車両前方の動画像を撮像して動画像処理装置100に出力する。撮像素子12は、CCD(Charge Coupled Devices)センサやCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサなどが用いられ、入射光を電気信号に変換し、信号処理部14に出力する。   The imaging unit 10 is mounted in front of the vehicle, captures a moving image in front of the vehicle, and outputs the moving image to the moving image processing apparatus 100. The image sensor 12 uses a CCD (Charge Coupled Devices) sensor, a CMOS (Complementary Metal-Oxide Semiconductor) image sensor, or the like, converts incident light into an electrical signal, and outputs it to the signal processing unit 14.

信号処理部14は、撮像素子12から入力されるアナログ信号をデジタル信号に変換する。また、平滑化フィルタを備え、動画像処理装置100に対して出力する画像データに対して平滑化処理を施してもよい。また、その他のノイズ除去処理を施してもよい。   The signal processing unit 14 converts an analog signal input from the image sensor 12 into a digital signal. Further, a smoothing filter may be provided, and smoothing processing may be performed on the image data output to the moving image processing apparatus 100. Further, other noise removal processing may be performed.

動画像処理装置100は、撮像部10から入力される画像データからオプティカルフローを検出する。フレームバッファ16は、m(mは自然数)フレーム分、格納する領域を持ち、撮像部10から入力される画像データを一時格納する。領域が溢れた場合、先に入力されたフレームから順番に破棄する。フレームバッファ16に格納された画像フレームは、オプティカルフロー検出部20に順番に出力される。   The moving image processing apparatus 100 detects an optical flow from image data input from the imaging unit 10. The frame buffer 16 has an area for storing m (m is a natural number) frames, and temporarily stores image data input from the imaging unit 10. When the area overflows, it is discarded in order from the previously input frame. The image frames stored in the frame buffer 16 are sequentially output to the optical flow detection unit 20.

参照フレーム選択部18は、車両内の速度センサから速度情報を取得し、ルックアップテーブル19を参照して、取得した速度情報に関連付けられたフレーム間隔を特定する。そのフレーム間隔をもとに、対象フレームI(t)の参照フレームとすべき、nフレーム過去のフレームI(t−nT)またはnフレーム未来のフレームI(t+nT)を特定し、フレームバッファ16から取得する。なお、Tはフレーム間隔を示し、nは(1≦n≦m−1)の範囲の値をとる整数である。   The reference frame selection unit 18 acquires speed information from a speed sensor in the vehicle and refers to the lookup table 19 to specify a frame interval associated with the acquired speed information. Based on the frame interval, the frame I (t−nT) that is n frames past or the frame I (t + nT) that is n frames in advance that should be the reference frame of the target frame I (t) is specified, and the frame buffer 16 get. T represents the frame interval, and n is an integer that takes a value in the range of (1 ≦ n ≦ m−1).

ルックアップテーブル19は、速度情報とフレーム間隔を関連付けて管理する。速度情報とフレーム間隔との関係は、上述した知見をもとに、実験やシミュレーションにより決定された関係に設定される。   The lookup table 19 manages the speed information and the frame interval in association with each other. The relationship between the speed information and the frame interval is set to a relationship determined by experiments or simulations based on the above-described knowledge.

オプティカルフロー検出部20は、対象フレームI(t)と参照フレームI(t±nT)とを用いて、オプティカルフローを検出する。オプティカルフローを検出するアルゴリズムには勾配法やブロックマッチング法などがあるが、本実施の形態ではいずれかに限定されるものではなく、どのアルゴリズムを用いてもよい。以下の説明では、勾配法の一つであるピラミッド型LK(Lucas-kanade)法を用いる。LK法は、同一物体の局所領域内ではオプティカルフローが一定になると仮定する空間的局所最適化法の一つである。   The optical flow detection unit 20 detects an optical flow using the target frame I (t) and the reference frame I (t ± nT). An algorithm for detecting an optical flow includes a gradient method, a block matching method, and the like. However, the present embodiment is not limited to any one, and any algorithm may be used. In the following description, a pyramid type LK (Lucas-kanade) method, which is one of gradient methods, is used. The LK method is one of spatial local optimization methods that assume that the optical flow is constant within a local region of the same object.

特徴点抽出部22は、フレームバッファ16から入力された対象フレームI(t)内からLK法にもとづき、濃淡の変化が大きい特徴点を所定の数、抽出する。ここでは、解像度の異なる複数の階層で行う。特徴点抽出部22は、抽出した特徴点の座標と輝度情報をオプティカルフロー演算部24に出力する。   The feature point extraction unit 22 extracts a predetermined number of feature points having a large change in shading based on the LK method from the target frame I (t) input from the frame buffer 16. Here, it is performed in a plurality of layers having different resolutions. The feature point extraction unit 22 outputs the extracted feature point coordinates and luminance information to the optical flow calculation unit 24.

オプティカルフロー演算部24は、フレームバッファ16から入力された対象フレームI(t)、特徴点抽出部22から入力された特徴点の座標と輝度情報、および参照フレーム選択部18から入力された参照フレームI(t±nT)をもとに、オプティカルフローを算出する。より具体的には、対象フレームI(t)内の特徴点に対応する点を、参照フレームI(t±nT)内で探索する。   The optical flow calculation unit 24 includes the target frame I (t) input from the frame buffer 16, the feature point coordinates and luminance information input from the feature point extraction unit 22, and the reference frame input from the reference frame selection unit 18. An optical flow is calculated based on I (t ± nT). More specifically, a point corresponding to the feature point in the target frame I (t) is searched for in the reference frame I (t ± nT).

後処理部26は、オプティカルフロー検出部20から出力されたオプティカルフローに対して所定の後処理を施す。たとえば、入力されるオプティカルフローから、撮像部10自体の移動による成分を差し引く処理を行ってもよい。また、ノイズを除去するため、入力されるオプティカルフローの長さを所定の閾値と比較して、有効とすべきオプティカルフローの長さを制限する処理を行ってもよい。また、オプティカルフロー検出部20から出力されたオプティカルフローの長さの平均値を算出してもよい。ノイズ除去用の閾値は、あらかじめ設定された値でもよいし、当該平均値またはその平均値を調整した値であってもよい。   The post-processing unit 26 performs predetermined post-processing on the optical flow output from the optical flow detection unit 20. For example, you may perform the process which subtracts the component by the movement of imaging part 10 itself from the input optical flow. In addition, in order to remove noise, the length of the optical flow to be validated may be limited by comparing the length of the input optical flow with a predetermined threshold. Further, an average value of the lengths of the optical flows output from the optical flow detection unit 20 may be calculated. The threshold value for noise removal may be a preset value, or an average value or a value obtained by adjusting the average value.

図示しない任意のユーザインタフェースは、後処理部26から出力されたオプティカルフローをもとに危険な対象の出現をユーザに認識させる。たとえば、表示部にオプティカルフローを単純に表示してもよいし、車両との距離に応じて定められる危険とされる長さのオプティカルフローのみを表示してもよい。また、その危険とされる長さのオプティカルフローが発生した場合、スピーカから警告音を発してもよい。さらに、車両の制動系に制御信号を出力してもよい。   An arbitrary user interface (not shown) allows the user to recognize the appearance of a dangerous target based on the optical flow output from the post-processing unit 26. For example, the optical flow may be simply displayed on the display unit, or only the optical flow having a length that is determined to be dangerous according to the distance from the vehicle may be displayed. Further, when an optical flow having a length that is considered to be dangerous occurs, a warning sound may be emitted from a speaker. Further, a control signal may be output to the vehicle braking system.

以下、実施の形態1に係る実施例1について説明する。実施例1は、オプティカルフローの検出をすべてのフレームについて行う例である。
図5は、実施の形態1の実施例1に係る対象フレームと参照フレームとの関係を模式的に示す図である。図5では、対象フレームと参照フレームとのフレーム間隔T3a、T3b、T3cが三に設定されている。ここでは、オプティカルフローの算出がすべてのフレームについて行われている。
Hereinafter, Example 1 according to Embodiment 1 will be described. The first embodiment is an example in which optical flow detection is performed for all frames.
FIG. 5 is a diagram schematically illustrating the relationship between the target frame and the reference frame according to Example 1 of the first embodiment. In FIG. 5, frame intervals T3a, T3b, and T3c between the target frame and the reference frame are set to three. Here, the optical flow is calculated for all frames.

図6は、実施の形態1の実施例1に係る動画像処理システム500で検出されるオプティカルフローの一例を示す図である。図6中、矢印はオプティカルフローを示す。なお、簡略化のため各対象につき一本、描いている。実際は、各対象につき複数本、検出され、対象の回りに放射状に検出される場合もある。   FIG. 6 is a diagram illustrating an example of an optical flow detected by the moving image processing system 500 according to Example 1 of the first embodiment. In FIG. 6, an arrow indicates an optical flow. For simplicity, one is drawn for each object. In practice, a plurality of objects may be detected for each object, and may be detected radially around the object.

図6(a)は、実施の形態1の実施例1に係る動画像処理システム500で検出される停止時または低速時のオプティカルフローを示す。領域A内の人物のオプティカルフローが検出され、領域Bおよび領域C内の人物のオプティカルフローは検出されない。これは、低速時には対象フレームと参照フレームとの間隔が狭く設定されるため、近距離に位置する対象の動きが精度よく検出されるためである。   FIG. 6A shows an optical flow at a stop time or at a low speed detected by the moving image processing system 500 according to Example 1 of the first embodiment. The optical flow of the person in the region A is detected, and the optical flow of the person in the region B and the region C is not detected. This is because, at low speed, the distance between the target frame and the reference frame is set to be narrow, so that the motion of the target located at a short distance is detected with high accuracy.

図6(b)は、実施の形態1の実施例1に係る動画像処理システム500で検出される中速時のオプティカルフローを示す。領域Aおよび領域B内の人物のオプティカルフローが検出され、領域C内の人物のオプティカルフローは検出されない。これは、中速時には対象フレームと参照フレームとの間隔が中程度に設定されるため、中距離に位置する対象の動きが精度よく検出されるためである。図6(b)における領域A内の人物のオプティカルフローの長さが、図6(a)より長くなっている。また、方向もずれている。これは、図6(b)では、領域A内の検出精度が図6(a)より低下したことを示す。   FIG. 6B shows an optical flow at medium speed detected by the moving image processing system 500 according to Example 1 of the first embodiment. The optical flow of the person in the area A and the area B is detected, and the optical flow of the person in the area C is not detected. This is because, at medium speed, the interval between the target frame and the reference frame is set to a medium level, so that the movement of the target located at the medium distance is detected with high accuracy. The length of the optical flow of the person in the area A in FIG. 6B is longer than that in FIG. The direction is also shifted. This indicates that in FIG. 6B, the detection accuracy in the region A is lower than that in FIG.

図6(c)は、実施の形態1の実施例1に係る動画像処理システム500で検出される高速時のオプティカルフローを示す。領域A、領域Bおよび領域C内の人物のオプティカルフローが検出される。これは、高速時には対象フレームと参照フレームとの間隔が広く設定されるため、遠距離に位置する対象も検出されるためである。図6(c)における領域Aおよび領域B内の人物のオプティカルフローの長さが、図6(b)よりさらに長くなっている。また、方向もさらにずれている。これは、図6(c)では、領域Aおよび領域B内の検出精度が図6(b)より低下したことを示す。   FIG. 6C shows an optical flow at a high speed detected by the moving image processing system 500 according to Example 1 of the first embodiment. Optical flows of persons in the areas A, B, and C are detected. This is because a target located at a long distance is also detected because the interval between the target frame and the reference frame is set wide at high speed. The length of the optical flow of the person in the area A and the area B in FIG. 6C is longer than that in FIG. Also, the direction is further shifted. This indicates that the detection accuracy in the region A and the region B is lower than that in FIG. 6B in FIG.

したがって、中速時や高速時に、近距離に位置する対象のオプティカルフローに現れるノイズ成分を低減するために、所定の長さを超えるオプティカルフローをノイズとして無効にしてもよい。上述した後処理部26がこの処理を行うことができる。   Therefore, an optical flow exceeding a predetermined length may be invalidated as noise in order to reduce a noise component appearing in a target optical flow located at a short distance at medium speed or high speed. The post-processing unit 26 described above can perform this process.

図7は、実施の形態1の実施例1に係る動画像処理装置100の動作を示すフローチャートである。まず、フレームバッファ16は、撮像部10から入力された画像データを格納する(S10)。本動画像処理装置100によりオプティカルフロー検出処理が終了しない場合(S12のN)、参照フレーム選択部18は、車両の現在の速度情報を取得する(S14)。参照フレーム選択部18は、ルックアップテーブル19を参照して、当該速度情報にもとづく参照フレームI(t±nT)を決定する(S16)。   FIG. 7 is a flowchart showing the operation of the moving image processing apparatus 100 according to Example 1 of the first embodiment. First, the frame buffer 16 stores the image data input from the imaging unit 10 (S10). When the optical flow detection process is not completed by the moving image processing apparatus 100 (N in S12), the reference frame selection unit 18 acquires the current speed information of the vehicle (S14). The reference frame selection unit 18 refers to the lookup table 19 and determines a reference frame I (t ± nT) based on the speed information (S16).

特徴点抽出部22は、対象フレームI(t)の特徴点を所定の数、抽出する(S18)。オプティカルフロー演算部24は、当該対象フレームI(t)、そのフレームから抽出された特徴点、および決定された参照フレームI(t±nT)にもとづいて、オプティカルフローを算出する(S20)。つぎに、対象フレームI(t)がインクリメントされる(S22)。そして、ステップS12に遷移する。オプティカルフロー検出処理が終了するまで(S12のY)、ステップS14からステップS22までの処理が繰り返される。   The feature point extraction unit 22 extracts a predetermined number of feature points of the target frame I (t) (S18). The optical flow calculation unit 24 calculates an optical flow based on the target frame I (t), the feature points extracted from the frame, and the determined reference frame I (t ± nT) (S20). Next, the target frame I (t) is incremented (S22). And it changes to step S12. Until the optical flow detection process ends (Y in S12), the processes from step S14 to step S22 are repeated.

以上説明したように実施の形態1の実施例1によれば、車両の速度に応じて、対象フレームと参照フレームとのフレーム間隔を適応的に制御することにより、動画像内から検出対象を精度よく検出することができる。   As described above, according to the first example of the first embodiment, the detection target is accurately detected from the moving image by adaptively controlling the frame interval between the target frame and the reference frame according to the speed of the vehicle. Can be detected well.

たとえば、上述したLK法を用いてオプティカルフローを検出する場合、約20m先で水平方向速度が15km/hで移動している対象を検出することができるが、上述した図1の知見にしたがえば、実際に45km/h以上で走行中の車両が危険物を発見して安全に停止することが不可能である。   For example, when the optical flow is detected using the above-described LK method, it is possible to detect an object that is moving about 20 m away at a horizontal speed of 15 km / h, but based on the above-described knowledge of FIG. For example, it is impossible for a vehicle actually traveling at 45 km / h or more to detect a dangerous object and stop safely.

これに対し、本実施の形態では、対象フレームと参照フレームとのフレーム間隔を適応的に切り換えることにより、近距離に位置する低速で移動する対象も、遠距離に位置する高速で移動する対象も精度よく検出することができる。すなわち、近距離に位置する低速で移動する対象は、フレーム間隔を狭くすることにより、その動きを精度よく検出することができる。このフレーム間隔で、遠距離に位置する対象のオプティカルフローを検出しようとしても、その動きを検出することが難しい。反対に、遠距離に位置する対象は、フレーム間隔を広くすることにより、その動きを精度よく検出することができる。このフレーム間隔で、近距離に位置する対象のオプティカルフローを検出すると、検出処理が粗くなってしまい、その検出結果はノイジーなものとなる。   On the other hand, in this embodiment, by adaptively switching the frame interval between the target frame and the reference frame, both a target moving at a low speed located at a short distance and a target moving at a high speed located at a long distance can be used. It can be detected with high accuracy. That is, an object that moves at a low speed located in a short distance can accurately detect the movement by narrowing the frame interval. Even if an optical flow of a target located at a long distance is detected at this frame interval, it is difficult to detect the movement. On the contrary, the movement of the object located at a long distance can be accurately detected by widening the frame interval. If an optical flow of a target located at a short distance is detected at this frame interval, the detection process becomes rough, and the detection result becomes noisy.

また、オプティカルフロー検出処理が最適化する結果、処理量を軽減することができ、消費電力も低減することができる。さらに、オプティカルフローの長さが所定の閾値を超えるとき、そのオプティカルフローを無効にする処理を加えれば、ノイズをさらに低減することができる。   Further, as a result of the optimization of the optical flow detection process, the processing amount can be reduced and the power consumption can also be reduced. Furthermore, when the length of the optical flow exceeds a predetermined threshold value, noise can be further reduced by adding processing for invalidating the optical flow.

以下、実施の形態1の実施例2について説明する。実施例2は、撮像素子12で撮像された動画像に含まれるすべてのフレームに対してオプティカルフローの検出を行うのではなく、間欠的に行う例である。   Hereinafter, Example 2 of Embodiment 1 will be described. The second embodiment is an example in which the optical flow is not detected for all frames included in the moving image captured by the image sensor 12 but intermittently.

図8は、実施の形態1の実施例2に係る対象フレームと参照フレームとの関係を模式的に示す図である。図8では、対象フレームと参照フレームとのフレーム間隔T3a、T3d、T3gが三に設定されている。オプティカルフローの算出が三フレームおきに行われている。   FIG. 8 is a diagram schematically illustrating a relationship between a target frame and a reference frame according to Example 2 of the first embodiment. In FIG. 8, frame intervals T3a, T3d, and T3g between the target frame and the reference frame are set to three. Optical flow is calculated every three frames.

図9は、実施の形態1の実施例2に係る動画像処理システム510の構成を示す。実施例2に係る動画像処理システム510の構成は、実施例1に係る動画像処理システム500の構成と基本的に同様である。以下、相違点について説明する。   FIG. 9 shows a configuration of a moving image processing system 510 according to Example 2 of the first embodiment. The configuration of the moving image processing system 510 according to the second embodiment is basically the same as the configuration of the moving image processing system 500 according to the first embodiment. Hereinafter, differences will be described.

実施例2に係る動画像処理システム510の構成は、実施例1に係る動画像処理システム500の構成に対象フレーム選択部21が追加された構成である。対象フレーム選択部21は、フレームバッファ16内のフレームを間引いて、オプティカルフロー検出部20に出力する。たとえば、N(Nは整数)枚に一枚出力する。Nは、設計者が実験やシミュレーションにより設定される値である。対象フレーム選択部21で選択されなかったフレームは破棄されてもよい。   The configuration of the moving image processing system 510 according to the second embodiment is a configuration in which the target frame selection unit 21 is added to the configuration of the moving image processing system 500 according to the first embodiment. The target frame selection unit 21 thins out the frames in the frame buffer 16 and outputs them to the optical flow detection unit 20. For example, one sheet is output for N (N is an integer). N is a value set by the designer through experiments and simulations. Frames not selected by the target frame selection unit 21 may be discarded.

参照フレーム選択部18は、対象フレーム選択部21に連動して動作する。すなわち、対象フレーム選択部21で選択された対象フレームの参照フレームのみを特定して、フレームバッファ16から取得すればよい。   The reference frame selection unit 18 operates in conjunction with the target frame selection unit 21. That is, only the reference frame of the target frame selected by the target frame selection unit 21 may be specified and acquired from the frame buffer 16.

図10は、実施の形態1の実施例2に係る動画像処理装置110の動作を示すフローチャートである。図10に示すフローチャートは、図7に示したフローチャートと基本的に同様である。以下、相違点について説明する。ステップS12にて終了判定を行った後、対象フレーム選択部21は、対象フレームI(t)の順番がNの倍数に該当するか否かを判定する(S13)。Nの倍数に該当する場合(S13のY)、ステップS14に遷移し、その対象フレームI(t)のオプティカルフローを算出する。Nの倍数に該当しない場合(S13のN)、その対象フレームI(t)のオプティカルフローを算出せずに、ステップS22に遷移し、対象フレームI(t)をインクリメントする(S22)。   FIG. 10 is a flowchart illustrating the operation of the moving image processing apparatus 110 according to the second example of the first embodiment. The flowchart shown in FIG. 10 is basically the same as the flowchart shown in FIG. Hereinafter, differences will be described. After performing the end determination in step S12, the target frame selection unit 21 determines whether or not the order of the target frame I (t) corresponds to a multiple of N (S13). If it is a multiple of N (Y in S13), the process proceeds to step S14, and the optical flow of the target frame I (t) is calculated. If it does not correspond to a multiple of N (N in S13), the process shifts to step S22 without calculating the optical flow of the target frame I (t), and increments the target frame I (t) (S22).

以上説明したように実施の形態1の実施例2によれば、実施例1と同様の効果を奏する。さらに、オプティカルフローの検出処理をすべてのフレームに対して行わず、間欠的に行うことにより、演算量を削減することができる。N枚に一枚、処理する場合、演算量を約1/Nに削減することができる。また、Nの値を好適に設定すれば、検出精度に与える影響も限定的である。   As described above, according to the second embodiment of the first embodiment, the same effects as the first embodiment are obtained. Furthermore, the amount of calculation can be reduced by intermittently performing the optical flow detection process on all the frames. In the case of processing one sheet per N sheets, the amount of calculation can be reduced to about 1 / N. Further, if the value of N is suitably set, the influence on the detection accuracy is also limited.

たとえば、車両速度が60km/h、入力画像のフレームレートが30fps、N=2の場合、オプティカルフローの検出処理に必要な時間に車両が進む距離は、2×60×10^3÷3600÷30≒1.1(m)となり、影響は軽微である。   For example, when the vehicle speed is 60 km / h, the frame rate of the input image is 30 fps, and N = 2, the distance the vehicle travels during the time required for the optical flow detection process is 2 × 60 × 10 ^ 3 ÷ 3600 ÷ 30 ≈ 1.1 (m), and the influence is slight.

以下、実施の形態1の実施例3について説明する。実施例3は、通常、参照フレームを対象フレームと時間的に連続するフレームに設定し、N枚に一枚の割合で、対象フレームと時間的に連続しないフレーム、すなわち二フレーム以上時間的に離れたフレームに設定するものである。   Hereinafter, Example 3 of the first embodiment will be described. In the third embodiment, the reference frame is normally set to a frame that is temporally continuous with the target frame, and the frame that is not temporally continuous with the target frame at a rate of one frame per N frames, that is, two or more frames apart in time. Set to the specified frame.

実施の形態1の実施例3に係る動画像処理システムの構成は、実施例1に係る動画像処理システム500の構成と基本的に同様である。参照フレーム選択部18は、固定されたフレーム間隔の参照フレームを選択することを基本動作とし、所定の期間ごとにそのフレーム間隔より広いフレーム間隔の参照フレームを選択する。   The configuration of the moving image processing system according to Example 3 of the first embodiment is basically the same as the configuration of the moving image processing system 500 according to Example 1. The reference frame selection unit 18 selects a reference frame having a fixed frame interval as a basic operation, and selects a reference frame having a frame interval wider than the frame interval for each predetermined period.

たとえば、基本動作として対象フレームI(t)の参照フレームを、一フレーム過去のフレームI(t−T)または一フレーム未来のフレームI(t+T)に決定する。N枚に一枚、n(1を除く)フレーム過去のフレームI(t−nT)またはnフレーム未来のフレームI(t+nT)に決定する。Nの値およびフレーム間隔数nの値の少なくとも一方は、ルックアップテーブル19を参照して、入力される速度情報に関連付けられた値に設定してもよい。   For example, as a basic operation, the reference frame of the target frame I (t) is determined as a frame I (t−T) that is one frame past or a frame I (t + T) that is one frame in the future. One frame is determined as N (excluding 1) frames, past frame I (t-nT), or n frames future frame I (t + nT). At least one of the value of N and the value of the number of frame intervals n may be set to a value associated with the input speed information with reference to the lookup table 19.

なお、後処理部26がオプティカルフローの長さの平均値を算出する場合、nフレーム過去のフレームI(t−nT)またはnフレーム未来のフレームI(t+nT)を参照フレームとするオプティカルフローの長さは、上記平均値算出の基礎から外すことが望ましい。   When the post-processing unit 26 calculates the average value of the length of the optical flow, the length of the optical flow using the frame I (t−nT) in the past n frames or the frame I (t + nT) in the future n frames as a reference frame. It is desirable to remove from the basis for calculating the average value.

図11は、実施の形態1の実施例3に係る動画像処理装置100の動作を示すフローチャートである。図11に示すフローチャートは、図7に示したフローチャートと基本的に同様である。以下、相違点について説明する。ステップS16にて参照フレームの決定処理の前に、参照フレーム選択部18は、対象フレームI(t)の順番がNの倍数に該当するか否かを判定する(S15)。Nの倍数に該当する場合(S15のY)、参照フレーム選択部18は、対象フレームI(t)のn枚前のフレームを参照フレームI(t−nT)に決定する(S16b)。Nの倍数に該当しない場合(S15のN)、参照フレーム選択部18は、対象フレームI(t)の一枚前のフレームを参照フレームI(t−T)に決定する(S16a)。以下、図7と同様に処理する。   FIG. 11 is a flowchart showing the operation of the moving image processing apparatus 100 according to Example 3 of the first embodiment. The flowchart shown in FIG. 11 is basically the same as the flowchart shown in FIG. Hereinafter, differences will be described. Prior to the reference frame determination process in step S16, the reference frame selection unit 18 determines whether or not the order of the target frame I (t) corresponds to a multiple of N (S15). When it corresponds to a multiple of N (Y in S15), the reference frame selection unit 18 determines the frame n frames before the target frame I (t) as the reference frame I (t−nT) (S16b). When it does not correspond to the multiple of N (N of S15), the reference frame selection unit 18 determines the previous frame of the target frame I (t) as the reference frame I (t−T) (S16a). Thereafter, the same processing as in FIG. 7 is performed.

以上説明したように実施の形態1の実施例3によれば、実施例1と同様の効果を奏する。さらに、フレーム間隔を大きくして検出するフレームと、連続フレームで検出するフレームを混在させることにより、中距離から遠距離の対象におけるオプティカルフローの検出精度を高めるとともに、近距離の対象のオプティカルフローの検出を低ノイズで検出することができる。   As described above, according to the third embodiment of the first embodiment, the same effects as the first embodiment can be obtained. In addition, by mixing frames that are detected with a large frame interval and frames that are detected in continuous frames, the accuracy of optical flow detection in a medium to long distance target is improved, and the optical flow of a short distance target is improved. Detection can be detected with low noise.

つぎに、実施の形態2について説明する。まず、実施の形態2の概要について説明する。実施の形態2は、オプティカルフローを検出する際、車両の速度や操舵角に応じて異なる態様で、画像を複数の領域に分割するものである。また、領域ごとにそれぞれ設定された条件でオプティカルフローを算出する。   Next, a second embodiment will be described. First, an outline of the second embodiment will be described. The second embodiment divides an image into a plurality of regions in a different manner depending on the speed and steering angle of the vehicle when detecting an optical flow. Further, the optical flow is calculated under the conditions set for each region.

図12は、画像を複数の領域に分割する態様を模式的に示した図である。上述したように、オプティカルフローは時間方向に前後するフレームを用いて算出される。図12の左側は、複数の領域に分割されない、通常の態様を示す。図12の右側は、領域Dと領域Wの二つの領域に分割された態様を示す。この分割態様では領域Dが注目領域となり、残りの領域Wが非注目領域となる。注目領域Dと非注目領域Wについて、それぞれオプティカルフローを検出する。分割の態様、ここでは注目領域Dの位置および大きさは、車両の速度や操舵角に応じて、適応的に切り換えられる。注目領域Dは、図3および図6に示した領域A、領域Bまたは領域Cに相当し、主な検出領域として、車両の速度に応じて変化する領域である。すなわち、高精度な検出が要求される領域である。また、フレーム間隔TD、TWも、車両の速度に応じて、適応的に切り換えられる。領域Dと領域Wとでフレーム間隔TD、TWがそれぞれ異なってもよい。   FIG. 12 is a diagram schematically illustrating an aspect in which an image is divided into a plurality of regions. As described above, the optical flow is calculated using frames that move back and forth in the time direction. The left side of FIG. 12 shows a normal mode that is not divided into a plurality of regions. The right side of FIG. 12 shows a mode in which the region is divided into two regions, region D and region W. In this division mode, the region D becomes the attention region, and the remaining region W becomes the non-attention region. Optical flows are detected for the attention area D and the non-attention area W, respectively. The division mode, here, the position and size of the attention area D are adaptively switched according to the speed and steering angle of the vehicle. The attention area D corresponds to the area A, the area B, or the area C shown in FIGS. 3 and 6, and is an area that changes according to the speed of the vehicle as a main detection area. That is, this is an area where highly accurate detection is required. The frame intervals TD and TW are also adaptively switched according to the vehicle speed. The frame intervals TD and TW may be different between the region D and the region W, respectively.

図13は、画像の分割態様の決定基準を説明するための図である。図13の左上の画像は、車両の速度に応じて、注目領域Dの前後方向の位置を決定する様子を示す。すなわち、速度が速い場合、注目領域Dを画像内の上方に移動させ、遅い場合、下方に移動させる。それに応じて、注目領域Dの大きさを制御してもよい。すなわち、速度が速い場合、注目領域Dを画像内の上方に移動させつつ、注目領域Dの大きさを小さくする。反対に、速度が遅い場合、注目領域Dを画像内の下方に移動させつつ、注目領域Dの大きさを大きくする。この注目領域Dの決定方法は、図3および図6で説明した知見に基づく。   FIG. 13 is a diagram for explaining criteria for determining an image division mode. The upper left image in FIG. 13 shows how the position of the attention area D in the front-rear direction is determined according to the speed of the vehicle. That is, when the speed is fast, the attention area D is moved upward in the image, and when the speed is slow, the attention area D is moved downward. Accordingly, the size of the attention area D may be controlled. That is, when the speed is high, the size of the attention area D is reduced while moving the attention area D upward in the image. On the contrary, when the speed is low, the size of the attention area D is increased while moving the attention area D downward in the image. The method of determining the attention area D is based on the knowledge described with reference to FIGS.

図13の右上の画像は、操舵角に応じて、注目領域Dの左右の位置を決定する様子を示す。ハンドルが右に切られた場合、注目領域Dを画像内の右方に移動させ、左に切られた場合、左方に移動させる。図13の下の画像は、分離された注目領域Dおよび非注目領域Wを示す。注目領域Dおよび非注目領域Wは、オプティカルフローを算出するための各種パラメータが異なってもよい。当該パラメータには、対象フレームと参照フレームとのフレーム間隔、フレームの解像度、および算出されたオプティカルフローをノイズとして無効と判定するためのノイズ除去用の閾値のうち、少なくとも一つが含まれる。   The upper right image in FIG. 13 shows how the left and right positions of the attention area D are determined according to the steering angle. When the handle is turned to the right, the attention area D is moved to the right in the image. When the handle is turned to the left, the attention area D is moved to the left. The lower image in FIG. 13 shows the attention area D and the non-attention area W separated. The attention area D and the non-attention area W may have different parameters for calculating the optical flow. The parameter includes at least one of a frame interval between the target frame and the reference frame, a frame resolution, and a noise removal threshold value for determining that the calculated optical flow is invalid as noise.

図14は、実施の形態2に係る動画像処理システム520の構成を示す。実施の形態2に係る動画像処理システム520の構成は、実施の形態1に係る動画像処理システム500の構成と共通する部分がある。以下、相違する部分を中心に説明する。   FIG. 14 shows a configuration of a moving image processing system 520 according to the second embodiment. The configuration of the moving image processing system 520 according to the second embodiment has a common part with the configuration of the moving image processing system 500 according to the first embodiment. Hereinafter, a description will be made mainly on the different portions.

まず、撮像部10およびフレームバッファ16の構成は、実施の形態1に係る動画像処理システム500の構成と同様である。参照フレーム選択部18は、車両内の車速センサから速度情報を取得し、ルックアップテーブル19を参照して、取得した速度情報に関連付けられたフレーム間隔を特定する。その際、分割された領域ごとに異なるフレーム間隔を特定してもよい。なお、実施の形態2では、フレーム間隔を必ずしも適応的に制御する必要はなく、フレーム間隔は固定でもよい。   First, the configuration of the imaging unit 10 and the frame buffer 16 is the same as the configuration of the moving image processing system 500 according to the first embodiment. The reference frame selection unit 18 acquires speed information from a vehicle speed sensor in the vehicle and refers to the lookup table 19 to identify a frame interval associated with the acquired speed information. At that time, a different frame interval may be specified for each divided area. In the second embodiment, it is not always necessary to adaptively control the frame interval, and the frame interval may be fixed.

ルックアップテーブル19は、速度情報および操舵角情報の少なくとも一方の車両状態と、以下のパラメータを関連付けて管理する。当該パラメータには、注目領域Dの位置、注目領域Dの大きさ、対象フレームと参照フレームとのフレーム間隔、オプティカルフローを算出する際の画像の解像度、および無効にすべきオプティカルフローを判定するための閾値のうち、少なくとも一つが含まれる。これらの関連付けは、上述した知見や以下に示す知見をもとに、実験やシミュレーションにより決定された関係に設定される。   The look-up table 19 manages at least one vehicle state of speed information and steering angle information in association with the following parameters. The parameters include the position of the attention area D, the size of the attention area D, the frame interval between the target frame and the reference frame, the resolution of the image when calculating the optical flow, and the optical flow to be invalidated. At least one of the threshold values is included. These associations are set to relationships determined by experiments and simulations based on the above-described knowledge and the knowledge shown below.

注目領域Dのフレーム間隔、位置および大きさの決定基準については上述した。すなわち、車両の速度が速くなるほど、注目領域Dのフレーム間隔を大きくし、注目領域Dの位置を画像内の上方に移動させ、注目領域Dの大きさを小さくする。それに加えて、注目領域Dの上記閾値は、車両の速度が速くなるほど小さくする。これらは、注目領域Dで検出されるオプティカルフローの大きさが比較的小さい、すなわちノイズが少ないという性質にもとづく。なお、注目領域Dの解像度は、速度に関係なく固定でよい。   The criteria for determining the frame interval, position and size of the attention area D have been described above. That is, as the vehicle speed increases, the frame interval of the attention area D is increased, the position of the attention area D is moved upward in the image, and the size of the attention area D is decreased. In addition, the threshold value of the attention area D is reduced as the vehicle speed increases. These are based on the property that the size of the optical flow detected in the attention area D is relatively small, that is, there is little noise. Note that the resolution of the attention area D may be fixed regardless of the speed.

非注目領域Wのフレーム間隔は、速度に関係なく固定でよい。非注目領域Wの形状および大きさは、注目領域Dが分離された残りの領域であるため、注目領域Dの位置および大きさに応じて変化する。非注目領域Wの解像度は、速度が遅くなるほど高くする。非注目領域Wのノイズ除去用の閾値は、速度が速くなるほど大きくする。当該閾値は、ノイズを低減するため近距離ほど大きく設定すべきという知見にもとづく。速度が速くなると注目領域Dが画像内の上方に移動し、速度が遅くなると下方に移動するため、速度が速いとき近距離は非注目領域Wとなり、遅いとき近距離は注目領域Dとなる。   The frame interval of the non-attention area W may be fixed regardless of the speed. The shape and size of the non-attention area W is the remaining area from which the attention area D is separated, and thus changes according to the position and size of the attention area D. The resolution of the non-attention area W is increased as the speed decreases. The threshold for noise removal in the non-attention area W is increased as the speed increases. The threshold value is based on the knowledge that a shorter distance should be set to reduce noise. When the speed increases, the attention area D moves upward in the image, and when the speed decreases, the attention area D moves downward. Therefore, the short distance becomes the non-attention area W when the speed is high, and the short distance becomes the attention area D when the speed is low.

注目領域Dと非注目領域Wとの関係では、注目領域Dのフレーム間隔を非注目領域Wより大きくし、注目領域Dの解像度を非注目領域Wより高くし、注目領域Dのノイズ除去用の閾値を非注目領域Wより小さくする。これは、注目領域Dのほうが非注目領域Wより高精度にする必要があるためである。また、精度の低下を抑えつつ全体の演算量を低減するためである。   Regarding the relationship between the attention area D and the non-attention area W, the frame interval of the attention area D is set larger than that of the non- attention area W, the resolution of the attention area D is set higher than that of the non-attention area W, and noise removal of the attention area D is performed. The threshold is made smaller than the non-attention area W. This is because the attention area D needs to be more accurate than the non-attention area W. Another reason is to reduce the total amount of calculation while suppressing a decrease in accuracy.

オプティカルフロー検出部20は、特徴点抽出部22、パラメータ決定部23、第1オプティカルフロー演算部24aおよび第2オプティカルフロー演算部24bを備える。オプティカルフロー演算部24を二つ備えるが、これは領域を二つに分割することに対応し、三つ以上に分割する場合、三つ以上のオプティカルフロー演算部24を設ける。   The optical flow detection unit 20 includes a feature point extraction unit 22, a parameter determination unit 23, a first optical flow calculation unit 24a, and a second optical flow calculation unit 24b. Two optical flow calculation units 24 are provided. This corresponds to dividing the region into two, and when dividing into three or more, three or more optical flow calculation units 24 are provided.

特徴点抽出部22は、実施の形態1と同様である。パラメータ決定部23は、車両内の速度センサおよび操舵角センサから、速度情報および操舵角情報を取得し、ルックアップテーブル19を参照して、取得した速度情報および操舵角情報に関連付けられた各種パラメータを取得する。   The feature point extraction unit 22 is the same as that in the first embodiment. The parameter determination unit 23 acquires speed information and steering angle information from a speed sensor and a steering angle sensor in the vehicle, refers to the look-up table 19, and various parameters associated with the acquired speed information and steering angle information. To get.

注目領域Dの位置および大きさを取得した場合、第1オプティカルフロー演算部24aに設定し、それに対応した情報を第2オプティカルフロー演算部24bに設定する。注目領域Dおよび非注目領域Wの解像度を取得した場合、第1オプティカルフロー演算部24aおよび第2オプティカルフロー演算部24bに設定する。注目領域Dおよび非注目領域Wのノイズ除去用の閾値を取得した場合、第1閾値判定部28aおよび第2閾値判定部28bに設定する。   When the position and size of the attention area D are acquired, the first optical flow calculation unit 24a is set and information corresponding to the first optical flow calculation unit 24b is set. When the resolutions of the attention area D and the non-attention area W are acquired, they are set in the first optical flow calculation section 24a and the second optical flow calculation section 24b. When the noise removal threshold values of the attention area D and the non-attention area W are acquired, they are set in the first threshold determination section 28a and the second threshold determination section 28b.

第1オプティカルフロー演算部24aは、フレームバッファ16から入力された対象フレームI(t)、特徴点抽出部22から入力された特徴点の座標と輝度、および参照フレーム選択部18から入力された参照フレームI(t±nT)をもとに、注目領域Dのオプティカルフローを算出する。第2オプティカルフロー演算部24bは、同様に、非注目領域Wのオプティカルフローを算出する。第2オプティカルフロー演算部24bは、解像度を下げる場合、単純に画素を間引くのではなく、近傍に位置する複数の画素の平均値を用いてもよい。   The first optical flow calculation unit 24 a receives the target frame I (t) input from the frame buffer 16, the coordinates and brightness of the feature points input from the feature point extraction unit 22, and the reference input from the reference frame selection unit 18. Based on the frame I (t ± nT), the optical flow of the attention area D is calculated. Similarly, the second optical flow calculation unit 24b calculates the optical flow of the non-attention area W. When the resolution is lowered, the second optical flow calculation unit 24b may use an average value of a plurality of pixels located in the vicinity instead of simply thinning out the pixels.

後処理部26は、第1閾値判定部28aおよび第2閾値判定部28bを含む。第1閾値判定部28aは、パラメータ決定部23から設定された閾値と、第1オプティカルフロー演算部24aから入力されたオプティカルフローの大きさを比較し、当該閾値を超えるオプティカルフローを無効にする。第2閾値判定部28bは、パラメータ決定部23から設定された閾値と、第2オプティカルフロー演算部24bから入力されたオプティカルフローの大きさを比較し、当該閾値を超えるオプティカルフローを無効にする。   The post-processing unit 26 includes a first threshold determination unit 28a and a second threshold determination unit 28b. The first threshold determination unit 28a compares the threshold set by the parameter determination unit 23 with the size of the optical flow input from the first optical flow calculation unit 24a, and invalidates the optical flow exceeding the threshold. The second threshold determination unit 28b compares the threshold set by the parameter determination unit 23 with the magnitude of the optical flow input from the second optical flow calculation unit 24b, and invalidates the optical flow exceeding the threshold.

図15は、実施の形態2に係る動画像処理システム520で検出されるオプティカルフローの一例を示す図である。図15(a)は、実施の形態2に係る動画像処理システム520で検出される停止時または低速時のオプティカルフローを示す。注目領域D内のオプティカルフローは、通常のパラメータを用いて算出される。非注目領域W内のオプティカルフローは、フレーム間隔を通常より広げて算出される。ノイズ除去用の閾値は、注目領域D内で大きく、非注目領域W内で小さく設定される。   FIG. 15 is a diagram illustrating an example of an optical flow detected by the moving image processing system 520 according to the second embodiment. FIG. 15A shows an optical flow at the time of stoppage or low speed detected by the moving image processing system 520 according to the second embodiment. The optical flow in the attention area D is calculated using normal parameters. The optical flow in the non-attention area W is calculated with the frame interval wider than usual. The threshold for noise removal is set large in the attention area D and small in the non-attention area W.

図15(b)は、実施の形態2に係る動画像処理システム520で検出される中速時のオプティカルフローを示す。注目領域D内のオプティカルフローは、フレーム間隔を通常より広げて算出される。非注目領域W内のオプティカルフローは、解像度を低くして算出される。ノイズ除去用の閾値は、注目領域D内で小さく、非注目領域W内で大きく設定される。   FIG. 15B shows an optical flow at medium speed detected by the moving image processing system 520 according to the second embodiment. The optical flow in the attention area D is calculated with the frame interval wider than usual. The optical flow in the non-attention area W is calculated with a low resolution. The threshold for noise removal is set small in the attention area D and large in the non-attention area W.

図15(c)は、実施の形態2に係る動画像処理システム520で検出される高速時のオプティカルフローを示す。注目領域D内のオプティカルフローは、フレーム間隔を中速時よりさらに広げて算出される。非注目領域W内のオプティカルフローは、解像度を中速時よりさらに低くして算出される。ノイズ除去用の閾値は、注目領域D内で小さく、非注目領域W内で中速時よりさらに大きく設定される。   FIG. 15C shows an optical flow at a high speed detected by the moving image processing system 520 according to the second embodiment. The optical flow in the attention area D is calculated by further widening the frame interval from that at the medium speed. The optical flow in the non-attention area W is calculated with the resolution further lower than that at the medium speed. The threshold for noise removal is set to be smaller in the attention area D and larger in the non-attention area W than at the medium speed.

図16は、実施の形態2に係る動画像処理装置120の動作を示すフローチャートである。図16に示すフローチャートは、図7に示したフローチャートと基本的に同様である。以下、相違点について説明する。ステップS18にて特徴点を抽出した後、またはそれと並行して、パラメータ決定部23は、車両内の速度センサなどから、速度情報などを取得し、ルックアップテーブル19を参照して、取得した速度情報などに関連付けられた各種パラメータを取得し、分割された領域ごとにパラメーメを決定する(S19)。   FIG. 16 is a flowchart showing the operation of the moving image processing apparatus 120 according to the second embodiment. The flowchart shown in FIG. 16 is basically the same as the flowchart shown in FIG. Hereinafter, differences will be described. After the feature point is extracted in step S18 or in parallel therewith, the parameter determination unit 23 acquires speed information from a speed sensor in the vehicle, and refers to the lookup table 19 to acquire the acquired speed. Various parameters associated with information and the like are acquired, and parameters are determined for each divided area (S19).

第1オプティカルフロー演算部24aは、対象フレームI(t)、そのフレームから抽出された特徴点、決定された参照フレームI(t±nT)および決定されたパラメータにもとづいて、第1オプティカルフローを算出する(S20a)。それと並行して、第2オプティカルフロー演算部24bは、同様に、第2オプティカルフローを算出する(S20b)。以下、図7と同様に処理する。   The first optical flow calculation unit 24a performs the first optical flow based on the target frame I (t), the feature points extracted from the frame, the determined reference frame I (t ± nT), and the determined parameters. Calculate (S20a). In parallel with this, the second optical flow calculation unit 24b similarly calculates the second optical flow (S20b). Thereafter, the same processing as in FIG. 7 is performed.

以上説明したように実施の形態2によれば、実施の形態1と同様の効果を奏する。さらに、画像を複数の領域に分割し、領域ごとに最適なパラメータを設定することにより、精度を維持しつつ、演算量をさらに低減することができる。たとえば、非注目領域Wの解像度、すなわち処理対象の画素数を削減することにより、演算量を低減することができる。注目領域Dの解像度は下げないため、検出精度は維持される。   As described above, according to the second embodiment, the same effects as those of the first embodiment can be obtained. Furthermore, by dividing an image into a plurality of regions and setting optimum parameters for each region, it is possible to further reduce the amount of computation while maintaining accuracy. For example, the amount of calculation can be reduced by reducing the resolution of the non-attention area W, that is, the number of pixels to be processed. Since the resolution of the attention area D is not lowered, the detection accuracy is maintained.

以上、本発明をいくつかの実施形態をもとに説明した。これらの実施形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on some embodiments. It should be understood by those skilled in the art that these embodiments are exemplifications, and that various modifications can be made to combinations of the respective components and processing processes, and such modifications are within the scope of the present invention. is there.

上述した実施の形態に係る動画像処理システム500、510、520は、カーナビゲーションシステムと連携して使用することができる。
図17は、実施の形態に係る動画像処理システムと連携したカーナビゲーションシステム700の構成を示す図である。連携の態様として、動画像処理装置100は、カーナビゲーション装置600のユーザインタフェースを利用して、検出結果を外部に報知することができる。たとえば、動画像処理装置100は、カーナビゲーション装置600の表示部を用いてオプティカルフローを表示したり、スピーカから警告音を発することができる。また、動画像処理装置100は、カーナビゲーション装置600の筐体内に設置されてもよい。
The moving image processing systems 500, 510, and 520 according to the above-described embodiments can be used in cooperation with the car navigation system.
FIG. 17 is a diagram illustrating a configuration of a car navigation system 700 that is linked to the moving image processing system according to the embodiment. As an aspect of cooperation, the moving image processing apparatus 100 can notify the detection result to the outside using the user interface of the car navigation apparatus 600. For example, the moving image processing apparatus 100 can display an optical flow using the display unit of the car navigation apparatus 600 and can emit a warning sound from a speaker. Further, the moving image processing apparatus 100 may be installed in a housing of the car navigation apparatus 600.

また、動画像処理装置100で行う処理を、カーナビゲーション装置600に搭載されたプロセッサおよびメモリを用いて行ってもよい。この場合、動画像処理装置100固有のハードウェア資源は必要なくなる。これらの態様によれば、普及率の高いカーナビゲーション装置のハードウェア資源を有効に活用して、オプティカルフローを検出することができる。   Further, the processing performed by the moving image processing apparatus 100 may be performed using a processor and a memory mounted on the car navigation apparatus 600. In this case, hardware resources unique to the moving image processing apparatus 100 are not necessary. According to these aspects, it is possible to detect the optical flow by effectively utilizing the hardware resources of the car navigation device having a high penetration rate.

実施の形態では自動車を例に説明したが、移動体であれば、バイク、自転車、電車、船舶および飛行機などにも適用可能である。また、自動車の前方の画像を撮像する例を説明したが、後方や左右の画像を撮像する形態にも適用可能である。   In the embodiment, an automobile has been described as an example. However, as long as it is a moving body, it can be applied to a motorcycle, a bicycle, a train, a ship, an airplane, and the like. Moreover, although the example which image | photographs the front image of a motor vehicle was demonstrated, it is applicable also to the form which images the image of back and right and left.

自車速度と安全車間距離との関係、および前の車両が急ブレーキをかけたときに縮まる車間距離を示す図である。It is a figure which shows the relationship between the own vehicle speed and a safe inter-vehicle distance, and the inter-vehicle distance which shrink | contracts when the front vehicle applies sudden braking. 対象フレームと参照フレームとのフレーム間隔を模式的に示した図である。It is the figure which showed typically the flame | frame space | interval of an object frame and a reference frame. フレーム間隔の決定基準を説明するための図である。It is a figure for demonstrating the determination criteria of a frame space | interval. 実施の形態1の実施例1に係る動画像処理システムの構成を示す図である。1 is a diagram illustrating a configuration of a moving image processing system according to Example 1 of Embodiment 1. FIG. 実施の形態1の実施例1に係る対象フレームと参照フレームとの関係を模式的に示す図である。6 is a diagram schematically showing a relationship between a target frame and a reference frame according to Example 1 of Embodiment 1. FIG. 図6(a)は、実施の形態1の実施例1に係る動画像処理システムで検出される停止時または低速時のオプティカルフローを示す。図6(b)は、実施の形態1の実施例1に係る動画像処理システムで検出される中速時のオプティカルフローを示す。図6(c)は、実施の形態1の実施例1に係る動画像処理システムで検出される高速時のオプティカルフローを示す。FIG. 6A shows an optical flow at the time of stoppage or low speed detected by the moving image processing system according to Example 1 of the first embodiment. FIG. 6B shows an optical flow at medium speed detected by the moving image processing system according to Example 1 of the first embodiment. FIG. 6C shows an optical flow at a high speed detected by the moving image processing system according to Example 1 of the first embodiment. 実施の形態1の実施例1に係る動画像処理装置の動作を示すフローチャートである。6 is a flowchart showing the operation of the moving image processing apparatus according to Example 1 of Embodiment 1. 実施の形態1の実施例2に係る対象フレームと参照フレームとの関係を模式的に示す図である。6 is a diagram schematically showing a relationship between a target frame and a reference frame according to Example 2 of Embodiment 1. FIG. 実施の形態1の実施例2に係る動画像処理システムの構成を示す図である。It is a figure which shows the structure of the moving image processing system which concerns on Example 2 of Embodiment 1. FIG. 実施の形態1の実施例2に係る動画像処理装置の動作を示すフローチャートである。6 is a flowchart showing the operation of the moving image processing apparatus according to Example 2 of the first embodiment. 実施の形態1の実施例3に係る動画像処理装置の動作を示すフローチャートである。10 is a flowchart showing the operation of the moving image processing apparatus according to Example 3 of Embodiment 1. 画像を複数の領域に分割する態様を模式的に示した図である。It is the figure which showed typically the aspect which divides | segments an image into a some area | region. 画像の分割態様の決定基準を説明するための図である。It is a figure for demonstrating the determination criteria of the division | segmentation aspect of an image. 実施の形態2に係る動画像処理システムの構成を示す図である。6 is a diagram illustrating a configuration of a moving image processing system according to Embodiment 2. FIG. 図15(a)は、実施の形態2に係る動画像処理システムで検出される停止時または低速時のオプティカルフローを示す。図15(b)は、実施の形態2に係る動画像処理システムで検出される中速時のオプティカルフローを示す。図15(c)は、実施の形態2に係る動画像処理システムで検出される高速時のオプティカルフローを示す。FIG. 15A shows an optical flow at the time of stopping or at a low speed detected by the moving image processing system according to the second embodiment. FIG. 15B shows an optical flow at medium speed detected by the moving image processing system according to the second embodiment. FIG. 15C shows an optical flow at a high speed detected by the moving image processing system according to the second embodiment. 実施の形態2に係る動画像処理装置の動作を示すフローチャートである。10 is a flowchart illustrating an operation of the moving image processing apparatus according to the second embodiment. 実施の形態に係る動画像処理システムと連携したカーナビゲーションシステムの構成を示す図である。It is a figure which shows the structure of the car navigation system cooperated with the moving image processing system which concerns on embodiment.

符号の説明Explanation of symbols

10 撮像部、 12 撮像素子、 14 信号処理部、 16 フレームバッファ、 18 参照フレーム選択部、 19 ルックアップテーブル、 20 オプティカルフロー検出部、 21 対象フレーム選択部、 22 特徴点抽出部、 23 パラメータ決定部、 24 オプティカルフロー演算部、 24a 第1オプティカルフロー演算部、 24b 第2オプティカルフロー演算部、 26 後処理部、 28a 第1閾値判定部、 28b 第2閾値判定部、 100 動画像処理装置、 500 動画像処理システム、 600 カーナビゲーション装置、 700 カーナビゲーションシステム。   DESCRIPTION OF SYMBOLS 10 Image pick-up part, 12 Image pick-up element, 14 Signal processing part, 16 Frame buffer, 18 Reference frame selection part, 19 Look-up table, 20 Optical flow detection part, 21 Target frame selection part, 22 Feature point extraction part, 23 Parameter determination part 24 optical flow calculation unit, 24a first optical flow calculation unit, 24b second optical flow calculation unit, 26 post-processing unit, 28a first threshold value determination unit, 28b second threshold value determination unit, 100 moving image processing device, 500 moving image Image processing system, 600 car navigation system, 700 car navigation system.

Claims (6)

移動体に搭載された撮像素子で撮像された動画像からオプティカルフローを検出する検出部と、
前記移動体の移動速度に応じて、前記オプティカルフローを検出するための対象フレームと参照フレームとのフレーム間隔を適応的に変化させる参照フレーム選択部と、
を備えることを特徴とする動画像処理装置。
A detection unit that detects an optical flow from a moving image captured by an image sensor mounted on a moving body;
A reference frame selection unit that adaptively changes a frame interval between a target frame and a reference frame for detecting the optical flow according to a moving speed of the moving body;
A moving image processing apparatus comprising:
前記参照フレーム選択部は、
前記移動速度が速くなると前記フレーム間隔を広くし、前記移動速度が遅くなると前記フレーム間隔を狭くすることを特徴とする請求項1に記載の動画像処理装置。
The reference frame selection unit
The moving image processing apparatus according to claim 1, wherein the frame interval is widened when the moving speed is high, and the frame interval is narrowed when the moving speed is low.
前記検出部は、前記動画像に含まれる複数のフレームに対して、間欠的にオプティカルフローを検出することを特徴とする請求項1または2に記載の動画像処理装置。   The moving image processing apparatus according to claim 1, wherein the detection unit intermittently detects an optical flow for a plurality of frames included in the moving image. 移動体に搭載された撮像素子で撮像された動画像からオプティカルフローを検出する検出部と、
前記オプティカルフローを検出するための対象フレームと参照フレームとのフレーム間隔を決定する参照フレーム選択部と、を備え、
前記参照フレーム選択部は、固定されたフレーム間隔の参照フレームを選択し、所定の期間ごとにそのフレーム間隔より広いフレーム間隔の参照フレームを選択することを特徴とする動画像処理装置。
A detection unit that detects an optical flow from a moving image captured by an image sensor mounted on a moving body;
A reference frame selection unit for determining a frame interval between a target frame and a reference frame for detecting the optical flow,
The moving picture processing apparatus, wherein the reference frame selection unit selects a reference frame having a fixed frame interval and selects a reference frame having a frame interval wider than the frame interval for each predetermined period.
移動体に搭載され、動画像を撮像する撮像素子と、
前記撮像素子により撮像された動画像を処理する請求項1から4のいずれかに記載の動画像処理装置と、
を備えることを特徴とする動画像処理システム。
An image sensor that is mounted on a moving body and captures a moving image;
The moving image processing apparatus according to any one of claims 1 to 4, wherein a moving image captured by the image sensor is processed.
A moving image processing system comprising:
車両に搭載され、車両周辺の動画像を撮像する撮像素子により撮像された動画像を処理する請求項1から4のいずれかに記載の動画像処理装置と連携し、検出結果を外部に報知することを特徴とするナビゲーション装置。   5. The moving image processing apparatus according to claim 1, which processes a moving image picked up by an image pickup device that is mounted on a vehicle and picks up a moving image around the vehicle, and notifies a detection result to the outside. A navigation device characterized by that.
JP2007115873A 2007-04-25 2007-04-25 Video image processing apparatus, video image processing system, and navigation device Pending JP2008276307A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007115873A JP2008276307A (en) 2007-04-25 2007-04-25 Video image processing apparatus, video image processing system, and navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007115873A JP2008276307A (en) 2007-04-25 2007-04-25 Video image processing apparatus, video image processing system, and navigation device

Publications (1)

Publication Number Publication Date
JP2008276307A true JP2008276307A (en) 2008-11-13

Family

ID=40054223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007115873A Pending JP2008276307A (en) 2007-04-25 2007-04-25 Video image processing apparatus, video image processing system, and navigation device

Country Status (1)

Country Link
JP (1) JP2008276307A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011085979A (en) * 2009-10-13 2011-04-28 Honda Elesys Co Ltd In-vehicle image recognition system
US8854458B2 (en) 2009-04-15 2014-10-07 Toyota Jidosha Kabushiki Kaisha Object detection device
WO2017045275A1 (en) * 2015-09-17 2017-03-23 百度在线网络技术(北京)有限公司 Method, device for navigation graph plotting and storage medium thereof
CN110861578A (en) * 2018-08-28 2020-03-06 株式会社万都 Vehicle and control method thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8854458B2 (en) 2009-04-15 2014-10-07 Toyota Jidosha Kabushiki Kaisha Object detection device
JP2011085979A (en) * 2009-10-13 2011-04-28 Honda Elesys Co Ltd In-vehicle image recognition system
WO2017045275A1 (en) * 2015-09-17 2017-03-23 百度在线网络技术(北京)有限公司 Method, device for navigation graph plotting and storage medium thereof
US10724873B2 (en) 2015-09-17 2020-07-28 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for rendering navigation image and storage medium
CN110861578A (en) * 2018-08-28 2020-03-06 株式会社万都 Vehicle and control method thereof

Similar Documents

Publication Publication Date Title
JP2008276308A (en) Video image processing apparatus, video image processing system, and navigation device
JP6328369B2 (en) In-vehicle control device
US9950667B2 (en) Vehicle system for detecting object and operation method thereof
CN109997148B (en) Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and computer-readable recording medium
JP2007249841A (en) Image recognition device
JP6081247B2 (en) Display switching device and display switching method for vehicle rear image
JPWO2016051981A1 (en) In-vehicle image recognition device
JP2008158640A (en) Moving object detection apparatus
JP7075833B2 (en) Object detection method and object detection device
WO2016151976A1 (en) Moving body detection device, image processing device, moving body detection method, and integrated circuit
JP2008276307A (en) Video image processing apparatus, video image processing system, and navigation device
JP6384803B2 (en) MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT
JP2009146153A (en) Moving object detection device, moving object detection method and moving object detection program
JP7247772B2 (en) Information processing device and driving support system
JP4321410B2 (en) Object detection apparatus and method
JP2018074411A (en) Object detection device and object detection method
JP6793448B2 (en) Vehicle condition determination device, display processing device and vehicle condition determination method
JP2008282106A (en) Method for detecting obstacle and obstacle detector
JP2009087336A (en) Method for detecting obstacle
JP2009181310A (en) Road parameter estimation device
WO2021084818A1 (en) Object detection device, object detection method, and object detection program
JP2007233469A (en) Object-detecting device and method therefor
JP2010286985A (en) Apparatus and method for detecting object
JP4847303B2 (en) Obstacle detection method, obstacle detection program, and obstacle detection apparatus
JP2010128744A (en) Corresponding block search apparatus