JP2008217330A - Speed estimation method and speed estimation program - Google Patents

Speed estimation method and speed estimation program Download PDF

Info

Publication number
JP2008217330A
JP2008217330A JP2007052799A JP2007052799A JP2008217330A JP 2008217330 A JP2008217330 A JP 2008217330A JP 2007052799 A JP2007052799 A JP 2007052799A JP 2007052799 A JP2007052799 A JP 2007052799A JP 2008217330 A JP2008217330 A JP 2008217330A
Authority
JP
Japan
Prior art keywords
image
speed
scan line
speed estimation
odd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007052799A
Other languages
Japanese (ja)
Inventor
Masahiko Tsukamoto
昌彦 塚本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kobe University NUC
Original Assignee
Kobe University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kobe University NUC filed Critical Kobe University NUC
Priority to JP2007052799A priority Critical patent/JP2008217330A/en
Publication of JP2008217330A publication Critical patent/JP2008217330A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a speed estimation method and a speed estimation program for precisely estimating the speed of an object moving at a high speed only with a camera without using any sensor or marker. <P>SOLUTION: This speed estimation method includes a step for acquiring a pickup image picked up by an interlaced movable camera means; a step for estimating the optical flow of an even-numbered scanning line image and an odd-numbered scanning line image in one frame of the pickup image; a step for processing an estimated flow vector as image data, and for resizing the flow vector into the same size as that of the pickup image; a step for superimposing the pickup image on the image of the resized flow vector; and a step for estimating the speed of a traveling object by using the time lag in scanning the even-numbered scanning line image and odd-numbered scanning line image of one frame and the image pattern of the flow vector. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、カメラ手段を搭載した高速移動物体の速度推定方法および速度推定プログラムに関する技術であり、特に、インターレース方式のカメラを用いたフレーム内オプティカルフローによる速度推定方法および速度推定プログラムに関するものである。   The present invention relates to a speed estimation method and a speed estimation program for a high-speed moving object equipped with camera means, and more particularly to a speed estimation method and a speed estimation program based on an intra-frame optical flow using an interlaced camera. .

近年のコンピュータの小型化・軽量化に伴い、コンピュータを常に身につけて生活するウェアラブルコンピューティングに対する注目が集まっている。そこで、このウェアラブルコンピューティングの技術を用いて、展示会やテーマパーク内でユーザの道案内をし、ユーザの必要としている情報を提供するヒューマンナビゲーションシステムが一つの例として挙げられる。また、医療現場での介護ロボットや災害救助、安全巡視などの役割を果たす移動コンピュータに関する技術や、車両動態の詳細を把握するための技術として、ヘリコプタに代表される特定地点に滞空可能なプラットフォームから時系列画像を取得し、背景差分値、オプティカルフローの情報などを用いて解析する技術も知られている。このような背景から、対象(ユーザ)の位置や速度を正確に推定する要求が高まっている。従来、屋外での位置推定においては、広範囲での実行が可能であるGPS(Global Positioning System;全地球測位システム)を利用することが一般的である。   With the recent reduction in size and weight of computers, attention has been focused on wearable computing that always wears a computer and lives. One example of this is a human navigation system that uses this wearable computing technology to guide users in exhibitions and theme parks and provide the information required by the users. In addition, from a platform that can stay at a specific point represented by a helicopter as a technology related to mobile robots that play a role in nursing care robots, disaster relief, safety patrols, etc. in the medical field, and to grasp the details of vehicle dynamics There is also known a technique for acquiring a time-series image and analyzing it using a background difference value, optical flow information, and the like. From such a background, there is an increasing demand for accurately estimating the position and speed of the target (user). Conventionally, in outdoor position estimation, it is common to use a GPS (Global Positioning System) that can be executed in a wide range.

しかし、屋内など人工衛星からの電波が届かない場所では、GPSを用いた各種サービスを利用することができない。そこで、屋内での位置情報を得る手段として、GPSの代わりとなる位置検出システムの研究が行われている。位置検出システムに用いられる手法として、屋内の天井,壁,床などにセンサやマーカを配置し、それらをカメラで画像に取り込み解析したり、センサから値を受信したりすることによって、ユーザの位置を割り出すというものが多く見られる。使用されるセンサやマーカには多くの種類が存在し、これらの配置の仕方により様々な速度推定の技術が研究されている。   However, various services using GPS cannot be used in places where radio waves from artificial satellites do not reach such as indoors. In view of this, research has been conducted on a position detection system as an alternative to GPS as means for obtaining position information indoors. As a method used in the position detection system, sensors and markers are placed on indoor ceilings, walls, floors, etc., and the position of the user is obtained by capturing them in an image and analyzing them, or receiving values from the sensors. You can see many things. There are many types of sensors and markers used, and various speed estimation techniques have been studied depending on the arrangement method.

従来の速度推定の技術では、対象物体が高速移動時の移動量の算出の不確定さが課題として挙げられている。これは、従来の速度推定技術の場合、対象物体がカメラの画像が歪まない程度の比較的低速な移動を行うことを想定されていることに起因する。すなわち、カメラを装着した対象物体が比較的低速で移動を行った場合に、カメラ画像のフレーム間で対応する部分があると速度や位置の推定ができるのであるが、カメラを装着した対象物体が高速で移動を行った場合に、カメラ画像のフレーム間が飛んでしまってどれだけ移動したかが検出不能となり、速度や位置の推定ができないことになる。また、カメラを装着した対象物体が高速で移動を行った場合に、カメラ画像に歪みが生じるので、マーカを検出することが困難となり、速度や位置の算出が不正確となるのである。   In the conventional speed estimation technique, the uncertainties in the calculation of the amount of movement when the target object moves at high speed is cited as an issue. This is because, in the case of the conventional speed estimation technique, it is assumed that the target object moves relatively slowly so that the camera image is not distorted. That is, when the target object with the camera moves at a relatively low speed, if there is a corresponding part between frames of the camera image, the speed and position can be estimated. When moving at a high speed, it is impossible to detect how much the camera image has been moved between frames and the speed and position cannot be estimated. Further, when the target object on which the camera is mounted moves at high speed, the camera image is distorted, so that it is difficult to detect the marker, and the calculation of the speed and position becomes inaccurate.

また、フレーム間における被写体の画像データの差分を用いることなく、1フレームのデータを用いて、簡単な演算処理により、被写体の移動速度を検出する方法が知られている(特許文献1,特許文献2)。これは、偶数走査線と奇数走査線のインターレース画像から形成したノンインターレース画像のデータに対して2次元離散ウェーブレット変換を行って、得られる係数値から速度判定を行うものである。しかし、これらの技術は、対象物の移動速度を推定したり、また、移動量や位置を推定するものではない。   In addition, there is known a method for detecting the moving speed of a subject by a simple calculation process using data of one frame without using a difference in subject image data between frames (Patent Document 1, Patent Document 1). 2). In this method, two-dimensional discrete wavelet transform is performed on non-interlaced image data formed from interlaced images of even-numbered scanning lines and odd-numbered scanning lines, and speed is determined from the obtained coefficient values. However, these techniques do not estimate the moving speed of an object or estimate the moving amount or position.

また、従来からマーカを利用せずに移動物体の速度推定する技術として、連続する2枚の画像から求められる、画面上の各点の速度場であるオプティカルフローの手法が知られている。このオプティカルフローは、画像中のある点や図形が次の瞬間にどのような方向へ、どの程度移動するかを示す速度ベクトルのことであり、カメラ手段でキャプチャした画像からオプティカルフローを推定することで、カメラや対象物体の移動方向を推定することができるものである。   Conventionally, as a technique for estimating the speed of a moving object without using a marker, an optical flow technique that is a speed field of each point on a screen, which is obtained from two consecutive images, is known. This optical flow is a velocity vector that indicates in what direction and how much a certain point or figure in the image moves at the next moment, and estimates the optical flow from the image captured by the camera means. Thus, the moving direction of the camera or the target object can be estimated.

しかし、連続する2フレームの画像を用いてオプティカルフローを求める場合、カメラがある一定速度以上速く移動した場合に、正確なフローベクトル推定が行えないといった問題がある。その理由として、カメラを高速で移動させると撮像画像が歪むことが要因の1つにある。これはカメラ手段のノンインターレーススキャンによる画像の歪みによるものである。また、もう一つの理由として、連続するフレーム間の局所領域内の画像に共通部分がなくなることが要因に挙げられる。すなわち、連続するフレーム間の局所領域内に同一物体が入っている場合は推定可能であるが、連続するフレーム間の局所領域内に同一物体がないほど高速で移動した場合は推定不可能となるのである。どれぐらいの速さで移動したときに同一物体が局所領域外に出てしまうかは、画像のスキャンタイムと局所領域のサイズ、さらには物体の大きさによる。一般的な環境の場合、2フレーム間のスキャンタイムは、100ms以上はかかると考えられる。100msの間に連続する2フレーム間の局所領域内の画像に共通部分がなくなる程度の速さでカメラを高速で移動させた場合は、正確なオプティカルフローが推定で行われないことになる。   However, when an optical flow is obtained using two consecutive frames of images, there is a problem that accurate flow vector estimation cannot be performed when the camera moves faster than a certain speed. One reason is that the captured image is distorted when the camera is moved at high speed. This is due to image distortion caused by non-interlaced scanning of the camera means. Another reason is that there is no common part in the image in the local area between successive frames. In other words, it can be estimated if the same object is in the local area between consecutive frames, but it cannot be estimated if the object moves in such a high speed that there is no identical object in the local area between consecutive frames. It is. How fast the same object moves out of the local area when it moves depends on the scan time of the image, the size of the local area, and the size of the object. In a general environment, it is considered that the scan time between two frames takes 100 ms or more. When the camera is moved at high speed at such a speed that there is no common part in the image in the local region between two consecutive frames for 100 ms, accurate optical flow is not estimated.

特開2004−126923号公報JP 2004-126923 A 特開2004−159312号公報JP 2004-159912 A

上述したように、連続するフレームの画像から求めたオプティカルフローを用いた速度推定の特徴としては、マーカを用いないため汎用性には長けているが、高速移動には対応していないといった問題がある。すなわち、従来のオプティカルフローの技術では、対象がカメラの画像が歪まない程度の比較的低速で移動する場合には対応できているが、高速で移動を行う場合、カメラ画像に歪みが生じ、マーカを検出することができなくなること、連続する2フレームの画像に共通部分がなくなることにより、速度・移動量の算出が不正確となるといった問題がある。   As described above, as a feature of speed estimation using an optical flow obtained from images of continuous frames, a marker is not used, so it is excellent in versatility, but there is a problem that it does not support high-speed movement. is there. In other words, the conventional optical flow technology can cope with the case where the object moves at a relatively low speed that does not distort the camera image. However, if the object moves at a high speed, the camera image is distorted and the marker is moved. Cannot be detected, and there is a problem that the calculation of the speed and the moving amount becomes inaccurate due to the absence of a common part in two consecutive frames of images.

また、マーカを用いて速度推定を行う技術は、実用するにあたり、あらかじめそれらを屋内に多数配置する必要がある。実際の生活環境で、センサやマーカを屋内などに多数配置することは手間がかかることで実用的とは言えず、景観を損ねるといった問題もある。   Moreover, in order to use the technique for estimating the speed using the marker, it is necessary to arrange a large number of them indoors in advance. In an actual living environment, arranging a large number of sensors and markers indoors is not practical because it takes time, and there is also a problem that the landscape is damaged.

カメラ画像から対象物あるいはカメラ本体が高速に移動する場合の速度を推定する従来方式では、前フレームと現フレームとで対応する部分を見つけ出し、その変化量からカメラと物体との対象運動が計測できる。しかし、前フレームと現フレームとで対応する部分が見つからない場合の計測はあまり確立していないのが現状である。すなわち、従来技術においては、高速移動対応、かつ、マーカを利用しない汎用性のある速度推定手法が確立されていない。   In the conventional method of estimating the speed when the object or the camera body moves at high speed from the camera image, the corresponding part is found in the previous frame and the current frame, and the target motion between the camera and the object can be measured from the amount of change. . However, the current situation is that the measurement when the corresponding part is not found in the previous frame and the current frame is not well established. That is, in the prior art, a versatile speed estimation method that is compatible with high-speed movement and does not use a marker has not been established.

そこで、本発明は、特殊なマーカを必要とすることなく、カメラを搭載した移動物体自身の高速移動時の速度推定を精度良く行うことができる速度推定方法や速度推定プログラムを提供することを目的とする。   Accordingly, an object of the present invention is to provide a speed estimation method and a speed estimation program that can accurately perform speed estimation during high-speed movement of a moving object equipped with a camera without requiring a special marker. And

上記目的を達成するため、本発明の第1の観点の速度推定方法は、インターレース方式のカメラ手段が移動可能なものであって該カメラ手段により撮像して撮像画像を取得するステップと、該撮像画像の1フレームにおける偶数走査線画像と奇数走査線画像のオプティカルフローを推定するステップと、1フレームの偶数走査線画像と奇数走査線画像のスキャンのタイムラグおよび推定したオプティカルフローベクトルの画像パターンを用いて移動物体の速度と挙動を推定するステップと、を備えた構成とされたことを特徴とする。   In order to achieve the above object, a speed estimation method according to a first aspect of the present invention includes a step in which an interlaced camera means is movable and images are captured by the camera means to obtain a captured image, and the imaging Using the step of estimating the optical flow of the even-numbered scan line image and the odd-numbered scan line image in one frame of the image, the time lag of the scan of the even-numbered scan line image and the odd-numbered scan line image of one frame, and the image pattern of the estimated optical flow vector And a step of estimating the speed and behavior of the moving object.

本発明は、カメラ手段を搭載する物体が高速で移動する場合を想定し、1 フレームのカメラ画像を奇数走査・偶数走査の順でスキャンするインターレーススキャンによる1フレーム内の画像のブレから被写体の移動速度を推定する。
カメラ手段を搭載する物体が高速で移動する際には、前後のフレームの画像から共通部分を見出せない場合が多い。その場合、フレーム間の対応が不明なため速度の推定ができない。そこで、本発明においては、1フレームの画像から奇数走査画像と偶数走査画像を取得し、この2つの画像における被写体のズレの程度を解析することによって、被写体の移動ベクトルを割り出すのである。
The present invention assumes that the object carrying the camera means moves at high speed, and moves the subject from blurring of the image in one frame by interlace scanning in which one frame of the camera image is scanned in the order of odd scan and even scan. Estimate speed.
When the object carrying the camera means moves at high speed, there are many cases where a common part cannot be found from the images of the previous and subsequent frames. In this case, the speed cannot be estimated because the correspondence between frames is unknown. Therefore, in the present invention, an odd-numbered scanned image and an even-numbered scanned image are acquired from one frame image, and the movement vector of the subject is determined by analyzing the degree of displacement of the subject in these two images.

すなわち、インターレース方式のカメラ手段を搭載した物体が高速で移動する場合、1 フレームのカメラ画像のみから、1フレームの画像から取得できる奇数走査画像と偶数走査画像のズレを利用することで、物体の速度ベクトルを割り出すものである。カメラ手段を搭載した物体が移動する場合、カメラ画像の被写体の速度ベクトルで、向きを逆方向としたものが物体の速度ベクトルとなる。   In other words, when an object equipped with interlaced camera means moves at high speed, the shift between the odd-numbered scan image and the even-numbered scan image that can be acquired from one frame image is used only from one frame of the camera image. The velocity vector is determined. When an object equipped with camera means moves, the object's speed vector is the speed vector of the subject in the camera image, the direction of which is opposite.

従来のオプティカルフローの手法では、連続する2フレームの画像を用いて行っていたため、そのままでは高速移動に対応することが困難であった。一般的に汎用のコンピュータにおける連続する2フレーム間のフレームレートは、実行するプログラムにもよるが、約100ms以上であると想定される。そのフレームレートの長さが速度・位置推定の誤差につながるため、フレームレートの長さをコンピュータの性能を上げる方法以外で速くする必要がある。そこでインターレース方式のカメラ手段を用いる。インターレース方式のカメラ手段では、1フレームの画像を奇数走査・偶数走査の2回の走査に分けてスキャンする。その奇数走査・偶数走査の間の時間(タイムラグ) は、2フレーム間のフレームレート(約100ms)に比べると相当速い。したがって、1フレーム内の奇数走査画像・偶数走査画像から速度を推定すれば、100msの間に2フレーム間で画像の共通部がないぐらい高速な場合でも正確な推定ができると想定する。もちろん、タイムラグの間に画像が飛んでしまう程カメラを高速で移動させた場合は速度推定の限界となるが、この手法をとることで、従来のオプティカルフローの手法に比べて飛躍的に高速移動に対応できることとなるのである。   In the conventional optical flow technique, since it is performed using two consecutive frames of images, it is difficult to cope with high-speed movement as it is. In general, the frame rate between two consecutive frames in a general-purpose computer is assumed to be about 100 ms or more although it depends on the program to be executed. Since the length of the frame rate leads to a speed / position estimation error, it is necessary to increase the length of the frame rate by a method other than the method of improving the performance of the computer. Therefore, interlaced camera means is used. The interlaced camera means scans an image of one frame divided into two scans of odd scan and even scan. The time (time lag) between the odd scan and the even scan is considerably faster than the frame rate between two frames (about 100 ms). Therefore, it is assumed that if the speed is estimated from the odd-numbered scan image and the even-number scan image within one frame, accurate estimation can be performed even when there is no common part of the image between two frames in 100 ms. Of course, if the camera is moved at such a high speed that the image flies during the time lag, it will be the limit of speed estimation, but by using this method, it moves at a much faster speed than the conventional optical flow method. It will be possible to cope with.

また、フローベクトルの画像パターンを用いることにより、カメラ手段を搭載した物体が平行移動する場合のみならず、カメラ手段を搭載した物体が上下・回転・斜め方向などに動いたときでも正確に動きの大きさ・方向を推定可能となる。   Also, by using the flow vector image pattern, not only when the object equipped with the camera means moves in parallel, but also when the object equipped with the camera means moves up / down / rotation / diagonal directions, etc. The size and direction can be estimated.

なお、カメラ手段としては、USB(Universal Serial Bus)カメラ,ディジタルカメラ,ディジタルビデオカメラなどが利用できる。   As the camera means, a USB (Universal Serial Bus) camera, a digital camera, a digital video camera, or the like can be used.

また、本発明の速度推定方法は、インターレース方式のカメラ手段が移動可能なものであって該カメラ手段により撮像して撮像画像を取得するステップと、該撮像画像の1フレームにおける偶数走査線画像と奇数走査線画像のオプティカルフローを推定するステップと、推定したフローベクトルを画像データとして処理し撮像画像と同サイズにリサイズするステップと、撮像画像とリサイズした前記フローベクトルの画像を重畳させるステップと、1フレームの偶数走査線画像と奇数走査線画像のスキャンのタイムラグおよびフローベクトルの画像パターンを用いて移動物体の速度と挙動を推定するステップと、を備えた構成とされたことを特徴とする。
コンピュータの表示端末に画像として表示するなど、移動物体の速度と挙動を可視化するものである。
Further, the speed estimation method of the present invention is a method in which interlaced camera means is movable, the step of taking an image with the camera means to obtain a picked-up image, the even-numbered scan line image in one frame of the picked-up image, Estimating an optical flow of an odd scan line image, processing the estimated flow vector as image data and resizing the same size as the captured image, superimposing the captured image and the resized image of the flow vector, And a step of estimating the speed and behavior of the moving object using the time lag of the scan of the even scan line image and the odd scan line image of one frame and the image pattern of the flow vector.
The speed and behavior of a moving object are visualized by displaying it as an image on a display terminal of a computer.

次に、本発明の第2観点の速度推定方法は、移動する被写体をインターレース方式のカメラ手段により撮像して撮像画像を取得するステップと、該撮像画像の1フレームにおける偶数走査線画像と奇数走査線画像のオプティカルフローを推定するステップと、1フレームの偶数走査線画像と奇数走査線画像のスキャンのタイムラグおよび推定したオプティカルフローベクトルの画像パターンを用いて移動物体の速度と挙動を推定するステップと、を備えたことを特徴とする。
また、同様に、コンピュータの表示端末に画像として表示するなど、移動物体の速度と挙動を可視化する場合には、移動する被写体をインターレース方式のカメラ手段により撮像して撮像画像を取得するステップと、該撮像画像の1フレームにおける偶数走査線画像と奇数走査線画像のオプティカルフローを推定するステップと、推定したフローベクトルを画像データとして処理し撮像画像と同サイズにリサイズするステップと、撮像画像とリサイズした前記フローベクトルの画像を重畳させるステップと、1フレームの偶数走査線画像と奇数走査線画像のスキャンのタイムラグおよびフローベクトルの画像パターンを用いて移動物体の速度と挙動を推定するステップと、を備えた構成とされたことを特徴とする。
Next, a speed estimation method according to a second aspect of the present invention includes a step of capturing a moving subject with an interlaced camera means to acquire a captured image, and even-numbered scan line images and odd-numbered scans in one frame of the captured image. Estimating the optical flow of a line image; estimating the velocity and behavior of a moving object using a scan time lag of an even scan line image and an odd scan line image of one frame and an image pattern of an estimated optical flow vector; , Provided.
Similarly, when visualizing the speed and behavior of a moving object, such as displaying it as an image on a display terminal of a computer, a step of capturing a moving subject with an interlaced camera means to obtain a captured image; A step of estimating an optical flow of an even-numbered scan line image and an odd-numbered scan line image in one frame of the captured image; a step of processing the estimated flow vector as image data and resizing to the same size as the captured image; A step of superimposing the image of the flow vector, and a step of estimating a speed and behavior of a moving object using a scan time lag of an even scan line image and an odd scan line image of one frame and an image pattern of the flow vector. It is characterized by being provided with.

本発明は、カメラの撮像対象の物体が高速で移動する場合を想定し、1 フレームのカメラ画像を奇数走査・偶数走査の順でスキャンするインターレーススキャンによる1フレーム内の画像のブレから被写体の移動速度を推定する。
高速移動物体をカメラで撮影する際には、前後のフレームの画像から共通部分を見出せない場合が多い。その場合、フレーム間の対応が不明なため速度の推定ができない。そこで、本発明においては、1フレームの画像から奇数走査画像と偶数走査画像を取得し、この2つの画像における被写体のズレの程度を解析することによって、被写体の移動ベクトルを割り出すのである。
The present invention assumes that the object to be imaged by the camera moves at high speed, and moves the subject from blurring of the image in one frame by interlace scanning in which one frame of the camera image is scanned in the order of odd scan and even scan. Estimate speed.
When a high-speed moving object is photographed with a camera, a common part cannot often be found from images of previous and subsequent frames. In this case, the speed cannot be estimated because the correspondence between frames is unknown. Therefore, in the present invention, an odd-numbered scanned image and an even-numbered scanned image are acquired from one frame image, and the movement vector of the subject is determined by analyzing the degree of displacement of the subject in these two images.

ここで、上記請求項1又は2の速度推定方法のオプティカルフローを推定するステップにおいて、偶数走査線画像と奇数走査線画像における濃淡分布パターンの移動は局所的であるとして、所定の局所範囲を探索して濃淡パターンのマッチングを行い、フローベクトルを推定することが好ましい。
所定の局所範囲を探索して濃淡パターンのマッチングを行い、フローベクトルを推定することで、計算量が少なく処理時間を短くすることができる。
Here, in the step of estimating the optical flow of the speed estimation method according to claim 1 or 2, a predetermined local range is searched on the assumption that the movement of the gradation distribution pattern in the even-numbered scan line image and the odd-numbered scan line image is local. Then, it is preferable to perform matching of the shading pattern and estimate the flow vector.
By searching for a predetermined local range, matching shade patterns, and estimating a flow vector, the amount of calculation is small and the processing time can be shortened.

また、上記請求項1又は2の速度推定方法のカメラ手段により撮像して撮像画像を取得するステップにおいて、カメラ手段によりキャプチャされた画像がカラー画像の場合に、該カラー画像をグレースケール画像に変換処理することが好ましい。
カラー画像のまま画像処理を行うことにより生じる処理時間の遅延の不都合を回避するためである。
Further, in the step of capturing the captured image by capturing with the camera means of the speed estimation method according to claim 1 or 2, when the image captured by the camera means is a color image, the color image is converted into a grayscale image. It is preferable to process.
This is to avoid inconvenience of processing time delay caused by performing image processing with a color image.

また、上記請求項1又は2の速度推定方法の推定したフローベクトルを画像データとして処理し前記撮像画像と同サイズにリサイズするステップにおいて、最近隣内挿法を用いてリサンプリング処理を行い、推定したフローベクトルの画像をリサイズすることが好ましい。
最近隣内挿法とは、最も近いピクセルの値を利用して出力ピクセルに割り当てる手法であり、処理時間を短縮できる。
Further, in the step of processing the flow vector estimated by the speed estimation method of claim 1 or 2 as image data and resizing to the same size as the captured image, resampling processing is performed using nearest neighbor interpolation, and estimation is performed. It is preferable to resize the image of the flow vector.
The nearest neighbor interpolation method is a method of assigning to the output pixel using the value of the nearest pixel, and can reduce the processing time.

また、本発明によれば、上記の速度推定方法の各ステップをコンピュータに実行させるための速度推定プログラム、またその速度推定プログラムを記録したコンピュータ読み取り可能な記録媒体が提供される。   The present invention also provides a speed estimation program for causing a computer to execute each step of the speed estimation method, and a computer-readable recording medium on which the speed estimation program is recorded.

本発明の速度推定方法や速度推定プログラムによれば、カメラや被写体が高速で移動している場合、カメラの画像に歪みが生じ、背景が明確に認識されない問題や連続する2フレームの画像に共通部分がないため推定したオプティカルフローが不正確であるという問題点を解決し、センサやマーカを用いることなくカメラのみで高速に移動する対象物の速度推定を精度よく行えるといった効果がある。
従来技術では連続する複数フレームを用いた速度推定が行われていたが、本発明の速度推定方法や速度推定プログラムでは1フレーム内の画像のブレを用いて速度推定を行うため、従来技術と比較して約10 倍以上の高速移動への対応が可能となるといった効果がある。
According to the speed estimation method and the speed estimation program of the present invention, when the camera or the subject is moving at high speed, the camera image is distorted, and the background is not clearly recognized or common to two consecutive frames. This solves the problem that the estimated optical flow is inaccurate because there is no portion, and has an effect that the speed of an object moving at high speed can be accurately estimated by using only the camera without using a sensor or a marker.
In the prior art, speed estimation was performed using a plurality of consecutive frames. However, the speed estimation method and speed estimation program of the present invention perform speed estimation using image blurring in one frame. Thus, there is an effect that it is possible to cope with high-speed movement of about 10 times or more.

以下、本発明の実施例について、図面を参照しながら詳細に説明していく。ただし、本発明の範囲は、以下の実施例や図示例に限定されるものではなく、幾多の変更及び変形が可能である。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the scope of the present invention is not limited to the following examples and illustrated examples, and various changes and modifications can be made.

先ず、本発明の速度推定方法を実現する移動物体の速度推定コンピュータの概略構成図について図1を参照しながら説明を行う。速度推定コンピュータ1は、中央演算処理装置(CPU)2を中心に、本発明の速度推定方法のステップを中央演算処理装置に実行させるプログラムが格納されているROM3、上記プログラムの実行時に使用されるRAM4、ヒューマンマシン・インターフェースであるキーボード5及びマウス6、ディスプレイ7、それと被写体を撮影するカメラ8と、カメラ8で撮影した画像データ及び符号化処理後の符号データを記録するハードディスク(HD)9により構成される。   First, a schematic configuration diagram of a moving object speed estimation computer for realizing the speed estimation method of the present invention will be described with reference to FIG. The speed estimation computer 1 is mainly used for a central processing unit (CPU) 2 and a ROM 3 in which a program for causing the central processing unit to execute the steps of the speed estimation method of the present invention is used. A RAM 4, a keyboard 5 and mouse 6, which are human machine interfaces, a display 7, a camera 8 for photographing a subject, and a hard disk (HD) 9 for recording image data captured by the camera 8 and encoded data after encoding processing. Composed.

次に、本発明の速度推定方法について処理の流れについて、図3を参照しながら説明する。本発明の速度推定方法は、インターレース方式のカメラ手段が移動可能なものであって該カメラ手段により撮像して撮像画像を取得するステップと、該撮像画像の1フレームにおける偶数走査線画像と奇数走査線画像のオプティカルフローを推定するステップと、推定したフローベクトルを画像データとして処理し撮像画像と同サイズにリサイズするステップと、撮像画像とリサイズした前記フローベクトルの画像を重畳させるステップと、1フレームの偶数走査線画像と奇数走査線画像のスキャンのタイムラグおよびフローベクトルの画像パターンを用いて移動物体の速度を推定するステップとを備える。
以下に、各ステップについて説明を行う。
Next, the processing flow of the speed estimation method of the present invention will be described with reference to FIG. The speed estimation method according to the present invention includes a step in which an interlaced camera means is movable and images are captured by the camera means to obtain a captured image, and even-numbered scan line images and odd-numbered scans in one frame of the captured image. A step of estimating an optical flow of a line image, a step of processing the estimated flow vector as image data and resizing it to the same size as the captured image, a step of superimposing the captured image and the resized image of the flow vector, and one frame Estimating the speed of the moving object using the scan time lag of the even scan line image and the odd scan line image and the image pattern of the flow vector.
Hereinafter, each step will be described.

(1)インターレース方式のカメラ手段を用いて画像をキャプチャする。
先ず、インターレース方式のカメラ手段が移動可能なものであって該カメラ手段により撮像して撮像画像を取得するステップは、インターレース方式のカメラ手段を搭載した物体が周囲の風景(例えば、天井、床など)を撮影(画像をキャプチャ)するものである。
画像のキャプチャは、上記速度推定コンピュータの性能およびプログラム内容にもよるが、約100msに1回の割合でキャプチャされる。キャプチャされた画像とは、例えば480×480のRGBのカラー画像である。
ここで、インターレース方式のカメラ手段について図2を参照しながら説明する。カメラのスキャンの方法には大きく分けて、ノンインターレース方式とインターレース方式の2通りがある。カメラ画像は画素という点の集まりから構成されていて、ノンインターレース方式では、上方の一点から一行ずつスキャンするのに対して、インターレース方式では上方の一点からまず奇数番目の走査線、次に偶数番目の走査線と2度に分けて走査することにより画像を表示する(図2(a)参照)。この2つのスキャン方法はいずれも高速の物体を捉える場合や、カメラ本体が高速に移動する場合、スキャンの具合によって取得した画像が歪んだりブレたりする。これは、スキャンの実行時間によるもので、インターレース方式の場合、図2(b)のように奇数走査線画像と偶数走査線画像の被写体にズレ
が生じる。
(1) An image is captured using interlaced camera means.
First, an interlaced camera unit is movable, and the step of capturing an image by capturing an image with the camera unit is a situation in which an object equipped with the interlaced camera unit is a landscape (for example, a ceiling, a floor, etc.) ) (Capture the image).
The image is captured at a rate of about once every 100 ms, depending on the performance of the speed estimation computer and the program contents. The captured image is, for example, an RGB color image of 480 × 480.
Here, the interlaced camera means will be described with reference to FIG. There are two types of camera scanning methods, a non-interlace method and an interlace method. The camera image is composed of a collection of dots called pixels. In the non-interlace method, scanning is performed line by line from the upper point, whereas in the interlace method, the odd-numbered scan lines are first scanned from the upper point and then the even-numbered lines. The image is displayed by scanning twice with the scanning line (see FIG. 2A). In both of these scanning methods, when a high-speed object is captured or when the camera body moves at high speed, the acquired image is distorted or blurred depending on the scanning condition. This is due to the scan execution time. In the case of the interlace method, as shown in FIG. 2B, the objects of the odd scan line image and the even scan line image are misaligned.

(2)キャプチャされた画像がカラー画像の場合は、グレースケール画像に変換する。
上記(1)でキャプチャされた画像がカラー画像の場合は、グレースケール画像に変換する。グレースケール化した画像の輝度は0〜255の値を取ることになる。
ここで、カメラをある一定以上の速さで動かした場合、図3(a)のようにブレが生じた画像が得られる。そのブレは、インターレースカメラの奇数走査・偶数操作のスキャンのタイムラグにより生じるものである。
(2) If the captured image is a color image, it is converted to a grayscale image.
If the image captured in (1) is a color image, it is converted to a grayscale image. The luminance of the gray scaled image takes a value from 0 to 255.
Here, when the camera is moved at a certain speed or more, an image with blurring is obtained as shown in FIG. The blur is caused by the time lag between the odd-numbered scan and the even-numbered scan of the interlace camera.

(3)キャプチャされた1フレームの画像を奇数走査・偶数走査画像に分ける。
撮像画像の1フレームにおける偶数走査線画像と奇数走査線画像のオプティカルフローを推定するステップは、先ず、上記(2)で得られたグレースケール画像を、図3(b)に示されるように奇数走査により得られた画像と偶数走査により得られた画像とに分けることである。このとき、画像の縦方向に関して1行飛ばしで画像を分けているため、ここで得られる画像サイズは、キャプチャされた画像が480×480の場合、240×480となる。
(3) Divide the captured image of one frame into odd-numbered scan and even-numbered scan images.
The step of estimating the optical flow of the even-numbered scan line image and the odd-numbered scan line image in one frame of the captured image is performed by first converting the grayscale image obtained in the above (2) to an odd number as shown in FIG. Dividing into an image obtained by scanning and an image obtained by even scanning. At this time, since the image is divided by skipping one line in the vertical direction of the image, the obtained image size is 240 × 480 when the captured image is 480 × 480.

(4)奇数走査・偶数走査画像に分けられた2つの画像からオプティカルフローを推定する。
撮像画像の1フレームにおける偶数走査線画像と奇数走査線画像のオプティカルフローを推定するステップは、次に、上記(3)で得られた2つの奇数走査画像および偶数走査画像から、例えば、Lucas-Kanade法を用いて偶数走査画像から奇数走査画像へのオプティカルフローを推定する。局所領域の大きさは、適宜4×4や16×16に設定して行う。
(4) Optical flow is estimated from two images divided into odd-numbered scan and even-numbered scan images.
The step of estimating the optical flow of the even-numbered scan line image and the odd-numbered scan line image in one frame of the captured image is then performed from the two odd-numbered scan images and even-numbered scan images obtained in (3) above, for example, Lucas- The optical flow from the even scan image to the odd scan image is estimated using the Kanade method. The size of the local area is appropriately set to 4 × 4 or 16 × 16.

(5)推定したフローベクトルを画像として保存する。
推定したフローベクトルを画像データとして処理し撮像画像と同サイズにリサイズするステップは、先ず、推定したフローベクトルを画像として保存する。ここでは、上記(3)で奇数・偶数の240×480画像に分けてオプティカルフローを出しているため、フローベクトルを保存する画像サイズも240×480である。
(5) Save the estimated flow vector as an image.
In the step of processing the estimated flow vector as image data and resizing it to the same size as the captured image, first, the estimated flow vector is stored as an image. Here, since the optical flow is divided into odd and even 240 × 480 images in (3) above, the image size for storing the flow vectors is 240 × 480.

(6)フローベクトルが保存された画像をリサイズする。
推定したフローベクトルを画像データとして処理し撮像画像と同サイズにリサイズするステップは、次に、上記(1)でキャプチャした画像に、フローベクトルを描画したいため、フローベクトルを保存している画像サイズを480×480にリサイズする。このとき、最近隣内挿法(Nearest Neighbor Method)を用いてリサンプリング処理を行う。最近隣内挿法とは、最も近いピクセルの値を利用して出力ピクセルに割り当てる手法として知られているものである。
(6) Resize the image in which the flow vector is stored.
The step of processing the estimated flow vector as image data and resizing it to the same size as the captured image is the next step to draw the flow vector on the image captured in (1) above, so that the image size storing the flow vector is stored. Is resized to 480 × 480. At this time, resampling processing is performed using a nearest neighbor method. The nearest neighbor interpolation method is known as a method of assigning to the output pixel using the value of the nearest pixel.

(7)各点でのフローベクトルを描画し、各フレームでのフローベクトルを求めるリサイズされたフローベクトル画像をキャプチャした画像上に示す。
撮像画像とリサイズした前記フローベクトルの画像を重畳させるステップは、上記(4)でキャプチャされた1枚のフレームの各点においてフローベクトルが推定される。それらを1フレーム内で合計し、そのフレームでのフローベクトルを算出する。
例えば、図3(c)のように画像の各点でのオプティカルフローが推定でき、それらの平均値を画像の真ん中に太い線で出している。その太い線が、キャプチャした画像の1フレームでのオプティカルフローと推定できる。
(7) A flow vector at each point is drawn, and the resized flow vector image for obtaining the flow vector at each frame is shown on the captured image.
In the step of superimposing the captured image and the resized image of the flow vector, the flow vector is estimated at each point of one frame captured in the above (4). These are summed within one frame, and the flow vector in that frame is calculated.
For example, as shown in FIG. 3C, the optical flow at each point of the image can be estimated, and the average value thereof is shown as a thick line in the middle of the image. The thick line can be estimated as an optical flow in one frame of the captured image.

(8)1フレームの偶数走査線画像と奇数走査線画像のスキャンのタイムラグおよびフローベクトルの画像パターンを用いて移動物体の速度を推定する。
インターレース方式のカメラ手段の1フレームの偶数走査線画像と奇数走査線画像のスキャンのタイムラグと、フローベクトルの画像パターンを用いてカメラの速度推定を行う。図4に示すように、インターレース方式のカメラ手段では、1フレームの画像を奇数走査・偶数走査の2回の走査に分けてスキャンする場合は、その奇数走査・偶数走査の間の時間(タイムラグ) は、2フレーム間のフレームレート(約100ms)に比べると相当速い。したがって、1フレーム内の奇数走査画像・偶数走査画像から速度を推定すれば、100msの間に2フレーム間で画像の共通部がないぐらい高速な場合でも正確な推定が可能となる。但し、タイムラグの間に画像が飛んでしまうほど、カメラを高速で移動させた場合は速度推定の限界となる。
(8) The speed of the moving object is estimated using the scan time lag and the flow vector image pattern of the even scan line image and the odd scan line image of one frame.
The speed of the camera is estimated using the time lag of scanning one frame of even-numbered scan line images and odd-numbered scan line images of the interlaced camera means and the image pattern of the flow vector. As shown in FIG. 4, in the interlaced camera means, when one frame image is divided into two scans of odd scan and even scan, the time between the odd scan and even scan (time lag) Is considerably faster than the frame rate between two frames (about 100 ms). Therefore, if the speed is estimated from the odd-numbered scanned image and the even-numbered scanned image in one frame, accurate estimation is possible even when the speed is so high that there is no common part of the image between two frames in 100 ms. However, if the camera is moved at a high speed so that the image is skipped during the time lag, the speed is limited.

また、フローベクトルの画像パターンを用いるとは、図5に示すように、カメラ手段が平行移動・ズーム・回転したときのオプティカルフローの画像パターンに特徴があるために、この画像パターンを利用することでカメラ手段を搭載した物体の動きを捉えることが可能となる。
以上の処理フローを行うことにより、1フレームの画像からオプティカルフローが推定でき、カメラが高速で移動した場合にも正確な速度推定が行える。
In addition, as shown in FIG. 5, the flow vector image pattern is characterized by the optical flow image pattern when the camera means is translated, zoomed, and rotated. It is possible to capture the movement of an object equipped with camera means.
By performing the above processing flow, the optical flow can be estimated from an image of one frame, and accurate speed estimation can be performed even when the camera moves at high speed.

また、移動する物体の速度を推定する場合は、本発明の速度推定方法は、移動する被写体をインターレース方式のカメラ手段により撮像して撮像画像を取得するステップと、該撮像画像の1フレームにおける偶数走査線画像と奇数走査線画像のオプティカルフローを推定するステップと、推定したフローベクトルを画像データとして処理し撮像画像と同サイズにリサイズするステップと、撮像画像とリサイズした前記フローベクトルの画像を重畳させるステップと、1フレームの偶数走査線画像と奇数走査線画像のスキャンのタイムラグおよびフローベクトルの画像パターンを用いて移動物体の速度を推定するステップと備える。
各ステップの説明は、上述の(1)〜(8)と同様である。
When estimating the speed of a moving object, the speed estimation method of the present invention includes a step of capturing a moving subject with an interlaced camera means to acquire a captured image, and an even number in one frame of the captured image. A step of estimating an optical flow of a scanning line image and an odd number of scanning line images, a step of processing the estimated flow vector as image data and resizing to the same size as the captured image, and superimposing the captured image and the resized image of the flow vector And a step of estimating the speed of the moving object by using the time lag of the scan of the even-numbered scan line image and the odd-numbered scan line image of one frame and the image pattern of the flow vector.
The description of each step is the same as (1) to (8) above.

以下の実施例では、本発明に係る速度推定方法および速度推定プログラムを用いて、従来手法では不正確であった高速移動物体の速度ベクトルおよび移動量を、精度良く算出できることを、実験データを参照しながら説明する。   In the following examples, using the speed estimation method and the speed estimation program according to the present invention, it is possible to accurately calculate the speed vector and the amount of movement of a high-speed moving object, which was inaccurate with the conventional method. While explaining.

実施例1では、本発明の速度推定方法の有用性について、評価実験を行うことにより確認したデータを示しながら説明する。
先ず、評価実験のためのシステム構成について、図6を参照しながら説明する。図6は評価実験装置の模式図を示している。再現性のある背景画像が添付された円筒状の筒を図6のような位置に配置する。その筒の円周は380cmであり、手動若しくはモータ等を用いて自動で動かすことができる。また、その筒の外周面から上方に30cmの距離にカメラを固定し、筒を回転させることでデータを取得する。評価実験で用いたカメラは、アールエフ株式会社製「製品名:The CARD−7RL」である。このカメラはインターレース方式で画像のスキャンを行うものである。
In Example 1, the usefulness of the speed estimation method of the present invention will be described while showing data confirmed by conducting an evaluation experiment.
First, the system configuration for the evaluation experiment will be described with reference to FIG. FIG. 6 shows a schematic diagram of an evaluation experiment apparatus. A cylindrical tube to which a reproducible background image is attached is arranged at a position as shown in FIG. The cylinder has a circumference of 380 cm and can be moved manually or automatically using a motor or the like. Further, the camera is fixed at a distance of 30 cm upward from the outer peripheral surface of the cylinder, and data is acquired by rotating the cylinder. The camera used in the evaluation experiment is “Product Name: The CARD-7RL” manufactured by RF Corporation. This camera scans images in an interlaced manner.

円筒状の筒に添付した背景画像は、図7(a)に示すような3種類のカラー画像を図7(b)のような位置関係で配置した背景を用いる。これら3種類の画像は画像処理でよく用いられる標準画像であり、303ピクセル×303ピクセル(8.02cm×8.02cm)の大きさにJPEG形式で圧縮したものである。
従来手法のオプティカルフローを用いた速度推定では、ノンインターレースカメラを用いたものが多いため、本評価実験でもノンインターレースでのスキャンに近い形で比較することとした。本評価実験で用いるカメラはインターレースカメラであり、本発明の速度推定方式の処理ステップの中で奇数走査画像と偶数走査画像に分けるため、どちらかの画像を用いればノンインターレーススキャンにほぼ一致する。そこで、本実験では奇数走査画像だけを利用し、連続する2フレーム間の奇数走査画像でオプティカルフローを推定する手法を従来手法として、本発明の速度推定方式と比較している。
The background image attached to the cylindrical tube uses a background in which three types of color images as shown in FIG. 7A are arranged in a positional relationship as shown in FIG. 7B. These three types of images are standard images often used in image processing, and are compressed in the JPEG format to a size of 303 pixels × 303 pixels (8.02 cm × 8.02 cm).
Since most of the speed estimation using the optical flow of the conventional method uses a non-interlace camera, in this evaluation experiment, it was decided to make a comparison similar to a scan with non-interlace. The camera used in this evaluation experiment is an interlaced camera, and is divided into an odd-numbered scan image and an even-numbered scan image in the processing steps of the speed estimation method of the present invention. Therefore, in this experiment, a method of using only odd-numbered scan images and estimating optical flow with odd-number scan images between two consecutive frames is compared with the speed estimation method of the present invention as a conventional method.

上述した評価実験装置を用いて、速度推定の精度評価実験を行い、従来手法と本発明の速度推定方式との比較を行う。また、比較するにあたり同条件で行う必要があるため、従来手法と本発明の速度推定方式の両方の手法を1回の実験で同時に行う。以下に、実験の手順を説明する。   A speed estimation accuracy evaluation experiment is performed using the evaluation experiment apparatus described above, and a comparison between the conventional method and the speed estimation method of the present invention is performed. In addition, since it is necessary to perform the comparison under the same conditions, both the conventional method and the velocity estimation method of the present invention are simultaneously performed in one experiment. The experimental procedure is described below.

(実験手順1)図7の背景が添付された筒を一定方向に1周回す。実験ではカメラに対してyの正方向へ動かす。この場合、yの正方向が、オプティカルフローが出るべき方向となる(図8参照)。
(実験手順2)カメラで撮像した各画像フレームで、画像上の各点のオプティカルフローとそれらの合計値を推定する。
(実験手順3)1周回した後、全フレーム(図9参照)において、フレーム1からフレームx) の合計値の平均値を1回の実験のデータとして取り扱う。このとき、オプティカルフローの検出値は、x方向の成分とy方向の成分とを分けて取得する。
(実験手順4)従来のオプティカルフローの手法と本発明の速度推定方式ともに、筒を動かす速度とオプティカルフローの大きさ(検出値) をグラフにプロットし、それらの関係を記録する。
(実験手順5)これらの作業を30回繰り返し行う。また、各条件でのフレームレートを記録しておく。
(Experimental procedure 1) The tube attached with the background of FIG. In the experiment, it is moved in the positive direction of y with respect to the camera. In this case, the positive direction of y is the direction in which the optical flow should come out (see FIG. 8).
(Experimental procedure 2) In each image frame imaged with the camera, the optical flow of each point on the image and the total value thereof are estimated.
(Experimental procedure 3) After one round, in all frames (see FIG. 9), the average value of the total values of frames 1 to x) is handled as data of one experiment. At this time, the detection value of the optical flow is acquired separately for the x-direction component and the y-direction component.
(Experimental procedure 4) In both the conventional optical flow method and the speed estimation method of the present invention, the speed of moving the cylinder and the magnitude (detected value) of the optical flow are plotted on a graph, and the relationship between them is recorded.
(Experimental procedure 5) These operations are repeated 30 times. The frame rate under each condition is recorded.

カメラ(本実験の場合は背景を添付した筒)を動かす速度が速いほど、推定されるオプティカルフローの値は大きくなるため、速度とオプティカルフローの検出値が比例関係にあれば、理想的な結果が得られていると考えられる。
また、背景を添付した筒は一定方向(yの正方向)へ動かしているため、誤差がまったくないと考えた場合、オプティカルフローの検出値はyの正方向の値のみ出ることになる。もし、x方向への値またはyの負方向への値が出ている場合は、オプティカルフロー推定に誤差が生じており、正確な速度推定が行えていないと考えられる。その点に着目して実験結果の評価を行った。
As the speed of moving the camera (in the case of this experiment, the cylinder with the background attached) increases, the estimated optical flow value increases. Therefore, if the speed and the detected optical flow value are in a proportional relationship, the ideal result It is thought that is obtained.
In addition, since the cylinder with the background is moved in a certain direction (positive direction of y), when it is considered that there is no error, the detected value of the optical flow is only output in the positive direction of y. If a value in the x direction or a value in the negative direction of y appears, an error has occurred in the optical flow estimation, and it is considered that accurate velocity estimation cannot be performed. The experimental results were evaluated focusing on this point.

従来のオプティカルフローの手法と本発明の速度推定方式について、下記(a)〜(d)で示すように、カメラの移動速度とオプティカルフローの相関関係、限界速度、照度の変化によりオプティカルフローの精度の変化についての相関関係を調べる。また、オプティカルフローの特徴として、各フレームにおいてオプティカルフローを推定する点(座標)の数が多数あることが挙げられることから、推定する点の数を変化させるとどのような精度の変化が見られるかを確認する。   Regarding the conventional optical flow method and the speed estimation method of the present invention, as shown in the following (a) to (d), the accuracy of the optical flow depends on the correlation between the moving speed of the camera and the optical flow, the limit speed, and the change in illuminance. Examine the correlation with respect to changes. In addition, as a feature of the optical flow, since there are a large number of points (coordinates) for estimating the optical flow in each frame, any change in accuracy can be seen when the number of points to be estimated is changed. To check.

(a)カメラの移動速度とオプティカルフローの大きさとの相関関係を調べる。
(b)限界速度(正確な速度推定ができなくなる速度)を調べる。
(c)照度(1050LUXと90LUX)の変化による速度推定の精度を比較する。
(d)各フレームにおいてオプティカルフローを推定する点の数を変化させたときのオプティカルフローの精度を比較する。
(A) The correlation between the moving speed of the camera and the magnitude of the optical flow is examined.
(B) The limit speed (speed at which accurate speed estimation cannot be performed) is examined.
(C) Compare the accuracy of speed estimation due to changes in illuminance (1050LUX and 90LUX).
(D) Compare the accuracy of the optical flow when the number of points at which the optical flow is estimated in each frame is changed.

まず、照度が1050LUXのときの測定グラフを図10〜図13に示す。これらの結果から、従来のオプティカルフローの手法(図中では従来手法と表記)と本発明の速度推定方式(図中では提案手法と表記)についての限界速度を算出したものを下記表1にまとめる。図10〜図13と表1より、各条件におけるx方向のオプティカルフロー検出値を見ると、従来のオプティカルフローの手法と本発明の速度推定方式ともに限界速度より遅いところでは、0に近い値となっていることが分かる。しかし、完全に0にならない理由としては実験装置の多少のぶれなど実験過程の誤差が考えられるが、x方向の検出値はy方向の検出値と比べて無視できる程小さいものである。   First, measurement graphs when the illuminance is 1050 LUX are shown in FIGS. Based on these results, the critical speeds calculated for the conventional optical flow method (denoted as the conventional method in the figure) and the speed estimation method of the present invention (denoted as the proposed method in the figure) are summarized in Table 1 below. . 10 to 13 and Table 1, when the optical flow detection value in the x direction under each condition is seen, both the conventional optical flow method and the speed estimation method of the present invention have a value close to 0 when the speed is slower than the limit speed. You can see that However, the reason why the value does not completely become zero may be an error in the experimental process such as slight fluctuation of the experimental apparatus, but the detected value in the x direction is negligibly small compared to the detected value in the y direction.

次に、y方向の相関関係について説明する。ここで分かりやすくするため、点の数が3486個のときのy方向の検出値だけをピックアップしたグラフを図14に示す。図14より、従来のオプティカルフローの手法では限界速度である4.38(cm/秒)のところまで比例関係にあるのに対して、本発明の速度推定方式では限界速度63.62(cm/秒)のところまで比例関係にあることが認められる。
したがって、従来のオプティカルフローの手法では速度が4.38(cm/秒)、本発明の速度推定方式では63.62(cm/秒)まで正確な速度推定が行えており、本発明の速度推定方式は、従来のオプティカルフローの手法に比べ、約14.5 倍も高速移動に対応できていることが理解できる。
Next, the correlation in the y direction will be described. For easy understanding, FIG. 14 shows a graph in which only the detected values in the y direction when the number of points is 3486 are picked up. FIG. 14 shows that the conventional optical flow method has a proportional relationship up to the limit speed of 4.38 (cm / sec), whereas the speed estimation method of the present invention has a limit speed of 63.62 (cm / sec). It is recognized that there is a proportional relationship up to (second).
Therefore, accurate speed estimation can be performed up to a speed of 4.38 (cm / second) with the conventional optical flow method, and 63.62 (cm / second) with the speed estimation method of the present invention. It can be understood that the method can cope with high-speed movement about 14.5 times as compared with the conventional optical flow method.

また、それ以上速度が速くなると、従来のオプティカルフローの手法と本発明の速度推定方式ともにy方向の比例関係がなくなっているため、正確な速度推定はできていないことが認められる。   Further, when the speed is further increased, it is recognized that accurate speed estimation cannot be performed since the conventional optical flow method and the speed estimation method of the present invention have no proportional relationship in the y direction.

点の数が3486個以外の場合についても、上記表1よりすべての場合において、本発明の速度推定方式では、従来のオプティカルフローの手法に比べて、11〜20倍、高速移動に対応できていることが理解できる   Even in cases where the number of points is other than 3486, in all cases from Table 1 above, the speed estimation method of the present invention can cope with high-speed movement 11 to 20 times as compared with the conventional optical flow method. Can understand

次に、各フレームにおいてオプティカルフローを推定する点の数の変化による精度を比較する。図10〜図13から分かるように、点の数が少なくなるにつれオプティカルフローの検出値にばらつきが生じていることが認められる。背景のパターンによっては、例えば同一色が連続している場所など推定誤差が出やすい場所がある。本発明の速度推定方式では、1フレーム内の推定しているすべての点におけるフローベクトルを足し合わせたものをそのフレームでのオプティカルフローとして扱っているため、点の数が少ないほど推定誤差が顕著になっていると考えている。また、フローベクトルを出す点の数を増やすことによりフレームレートの変化もほぼないことから、オプティカルフローを推定する点の数はなるべく多い方がよいと考えている。   Next, the accuracy due to the change in the number of points at which the optical flow is estimated in each frame is compared. As can be seen from FIGS. 10 to 13, it is recognized that the detection value of the optical flow varies as the number of points decreases. Depending on the background pattern, there are places where estimation errors are likely to occur, such as places where the same color is continuous. In the speed estimation method of the present invention, the sum of the flow vectors at all estimated points in one frame is treated as an optical flow in that frame, so the estimation error becomes more conspicuous as the number of points is smaller. I believe that Further, since there is almost no change in the frame rate by increasing the number of points for generating flow vectors, it is considered that the number of points for estimating the optical flow should be as large as possible.

次に、照度90LUXのときの結果を図15〜図18に示す。照度1050LUXの場合と同様に、従来のオプティカルフローの手法と本発明の速度推定方式についての限界速度を下記表2にまとめる。照度90LUXの場合も従来のオプティカルフローの手法と本発明の速度推定方式ともに、限界速度に至るまでは正確な速度推定が行われていることが確認できる。さらに、表2から分かるように、本発明の速度推定方式は従来のオプティカルフローの手法に比べて、14〜20倍高速移動に対応できることが理解できる。   Next, the results when the illuminance is 90 LUX are shown in FIGS. As in the case of the illuminance of 1050 LUX, the limit speeds for the conventional optical flow technique and the speed estimation method of the present invention are summarized in Table 2 below. In the case of the illuminance of 90 LUX, it can be confirmed that both the conventional optical flow method and the speed estimation method of the present invention have performed accurate speed estimation until reaching the limit speed. Further, as can be seen from Table 2, it can be understood that the speed estimation method of the present invention can cope with a movement that is 14 to 20 times faster than the conventional optical flow technique.

また、オプティカルフローを推定する点の数による精度の変化も照度1050LUXの場合と同様に、点の数が多いほど検出値にばらつきが少ないことも認められる。   It is also recognized that the variation in accuracy due to the number of points for estimating the optical flow is smaller in the detection value as the number of points is larger, as in the case of illuminance 1050LUX.

次に、照度の違いによる精度の変化について調べた。照度1050LUXの場合(図10〜図13)と照度90LUXの場合(図15〜図18)を比較すると、それぞれ同じような関係のグラフが得られているため、照度による精度の変化はないと考えられる。また、照度の違いによるフレームレートの大きな変化も見られなかった。   Next, the change in accuracy due to the difference in illuminance was examined. When comparing the case of illuminance 1050LUX (FIGS. 10 to 13) and the case of illuminance 90LUX (FIGS. 15 to 18), graphs having similar relationships are obtained, and therefore there is no change in accuracy due to illuminance. It is done. In addition, there was no significant change in the frame rate due to the difference in illumination.

以上より、数字上では本発明の速度推定方式による速度推定では、従来のオプティカルフローの手法の10倍以上高速に対応できることが確認できた。ここで、従来のオプティカルフローの手法と本発明の速度推定方式の限界速度に達するまでの実際の画像の様子、限界速度時の様子をそれぞれ図19(a)〜(d)に示す。図に対して下向きの方向が、本来オプティカルフローが出るべき方向であり、中心に出ている太線が各フレームでのオプティカルフローである。濃い色の太線が従来手法、薄い太線が提案手法のオプティカルフローを示している。   From the above, it has been confirmed numerically that speed estimation by the speed estimation method of the present invention can cope with a speed 10 times or more faster than the conventional optical flow technique. Here, FIGS. 19A to 19D show the state of an actual image until reaching the limit speed of the conventional optical flow method and the speed estimation method of the present invention, and the state at the limit speed, respectively. The downward direction with respect to the figure is the direction in which the optical flow should come out originally, and the thick line at the center is the optical flow in each frame. The thick thick line shows the optical flow of the conventional method, and the thin thick line shows the optical flow of the proposed method.

図19(a)では、従来のオプティカルフローの手法と本発明の速度推定方式ともに正確なオプティカルフローが出ている。しかし、図19(b)では従来のオプティカルフローの手法のオプティカルフローの出る方向が間違っており、この時点で従来手法は正確な速度推定が行えていないことになる。ただし、図19(c)のような速さでも本発明の速度推定方式では正確な速度推定が行えている。図19(d)のような速度まで速くなると本発明の速度推定方式でも速度推定は不可能である。
このように図19(a)〜(d)の画像をも見ても、本発明の速度推定方式は、従来のオプティカルフローの手法より相当高速移動に対応できていることが分かる。上述したように実験結果において、照度による精度の変化がないことも分かり、本発明の速度推定方式の有用性が確認できたことになる。
In FIG. 19A, an accurate optical flow is obtained for both the conventional optical flow method and the speed estimation method of the present invention. However, in FIG. 19B, the direction of the optical flow in the conventional optical flow method is wrong, and at this point, the conventional method cannot accurately estimate the speed. However, the speed estimation method of the present invention can perform accurate speed estimation even at a speed as shown in FIG. When the speed is increased to a speed as shown in FIG. 19D, speed estimation is impossible even with the speed estimation method of the present invention.
As can be seen from the images in FIGS. 19A to 19D, the speed estimation method of the present invention can cope with a considerably high speed movement as compared with the conventional optical flow technique. As described above, it can be seen from the experimental results that there is no change in accuracy due to illuminance, and the usefulness of the speed estimation method of the present invention has been confirmed.

本発明の速度推定方法および速度推定プログラムは、移動ロボットの速度推定,無線制御ヘリコプタなどの移動物体の速度推定などの用途において利用できる。
また、対象物体の大きさ、カメラとの距離が既知であるとすると、カメラ画像がぶれる程高速で移動する物体であったとしても速度が推定でき、スポーツでの選手やボール(野球,サッカー,テニスなど)の移動速度測定や自動速度違反取締装置にも利用できる。
さらに、カメラをマウス代わりに用いるアプリケーションとして、カメラを動かした方向へマウスポインタが動くシステムを構築することにより、空中でもマウスを利用できるという操作インタフェースが実現できる。
The speed estimation method and speed estimation program of the present invention can be used in applications such as speed estimation of a mobile robot and speed estimation of a moving object such as a radio controlled helicopter.
Also, if the size of the target object and the distance to the camera are known, the speed can be estimated even if the object moves fast enough to blur the camera image, and sports players and balls (baseball, soccer, (Tennis, etc.) can also be used for moving speed measurement and automatic speed violation control equipment.
Furthermore, by constructing a system in which the mouse pointer moves in the direction in which the camera is moved as an application that uses the camera instead of the mouse, an operation interface that allows the mouse to be used even in the air can be realized.

移動物体の速度を推定するコンピュータの概略構成図Schematic configuration diagram of a computer that estimates the speed of a moving object カメラスキャン方式の説明図Illustration of camera scan method 本発明の速度推定方法の処理フロー図Process flow diagram of speed estimation method of the present invention 本発明の速度推定方法の説明図Explanatory drawing of the speed estimation method of the present invention オプティカルフローの画像バターンの説明図Illustration of optical flow image pattern 評価実験装置の模式図Schematic diagram of evaluation experiment equipment 評価実験で用いた画像処理の標準画像と背景パターンの説明図Illustration of standard image and background pattern for image processing used in evaluation experiment 背景を添付した筒を動かす方向を示す図Figure showing the direction of moving the cylinder with attached background 評価実験データの取り方の説明図Illustration of how to obtain evaluation experiment data 照度が1050LUXのときの測定グラフ(点の数3486個の場合)Measurement graph when illuminance is 1050LUX (when the number of points is 3486) 照度が1050LUXのときの測定グラフ(点の数231個の場合)Measurement graph when illuminance is 1050LUX (when the number of points is 231) 照度が1050LUXのときの測定グラフ(点の数45個の場合)Measurement graph when the illuminance is 1050 LUX (when the number of points is 45) 照度が1050LUXのときの測定グラフ(点の数18個の場合)Measurement graph when the illuminance is 1050 LUX (when the number of points is 18) 照度が1050LUX(点の数3486個の場合)のときのy方向のみの相関を示すグラフA graph showing the correlation only in the y direction when the illuminance is 1050 LUX (when the number of points is 3486) 照度が90LUXのときの測定グラフ(点の数3486個の場合)Measurement graph when the illuminance is 90LUX (when the number of points is 3486) 照度が90LUXのときの測定グラフ(点の数231個の場合)Measurement graph when the illuminance is 90LUX (when the number of points is 231) 照度が90LUXのときの測定グラフ(点の数45個の場合)Measurement graph when the illuminance is 90LUX (when the number of points is 45) 照度が90LUXのときの測定グラフ(点の数18個の場合)Measurement graph when illuminance is 90LUX (when the number of points is 18) 従来のオプティカルフローの手法と本発明の速度推定方式の限界速度に達するまでの実際の画像および限界速度時の画像The actual image until reaching the limit speed of the conventional optical flow method and the speed estimation method of the present invention, and the image at the limit speed

符号の説明Explanation of symbols

1 速度推定コンピュータ
2 中央演算処理装置(CPU)
3 ROM
4 RAM
5 キーボード
6 マウス
7 ディスプレイ
8 カメラ
9 ハードディスク(HD)
1 Speed estimation computer 2 Central processing unit (CPU)
3 ROM
4 RAM
5 Keyboard 6 Mouse 7 Display 8 Camera 9 Hard disk (HD)

Claims (9)

インターレース方式のカメラ手段が移動可能なものであって該カメラ手段により撮像して撮像画像を取得するステップと、該撮像画像の1フレームにおける偶数走査線画像と奇数走査線画像のオプティカルフローを推定するステップと、1フレームの偶数走査線画像と奇数走査線画像のスキャンのタイムラグおよび推定したオプティカルフローベクトルの画像パターンを用いて移動物体の速度と挙動を推定するステップと、を備えたことを特徴とする速度推定方法。   Interlace-type camera means is movable, the step of obtaining a captured image by imaging with the camera means, and the optical flow of the even-numbered scan line image and the odd-numbered scan line image in one frame of the captured image are estimated. And a step of estimating the speed and behavior of a moving object using a scan time lag of an even scan line image and an odd scan line image of one frame and an image pattern of an estimated optical flow vector. Speed estimation method. 移動する被写体をインターレース方式のカメラ手段により撮像して撮像画像を取得するステップと、該撮像画像の1フレームにおける偶数走査線画像と奇数走査線画像のオプティカルフローを推定するステップと、1フレームの偶数走査線画像と奇数走査線画像のスキャンのタイムラグおよび推定したオプティカルフローベクトルの画像パターンを用いて移動物体の速度と挙動を推定するステップと、を備えたことを特徴とする速度推定方法。   A step of capturing a moving subject with an interlace camera means to acquire a captured image, a step of estimating an optical flow of an even-numbered scan line image and an odd-numbered scan line image in one frame of the captured image, and an even number of one frame A speed estimation method comprising: a step of estimating a speed and behavior of a moving object using a scan time lag of an scan line image and an odd scan line image and an image pattern of an estimated optical flow vector. インターレース方式のカメラ手段が移動可能なものであって該カメラ手段により撮像して撮像画像を取得するステップと、該撮像画像の1フレームにおける偶数走査線画像と奇数走査線画像のオプティカルフローを推定するステップと、推定したフローベクトルを画像データとして処理し前記撮像画像と同サイズにリサイズするステップと、前記撮像画像とリサイズした前記フローベクトルの画像を重畳させるステップと、1フレームの偶数走査線画像と奇数走査線画像のスキャンのタイムラグおよび前記フローベクトルの画像パターンを用いて移動物体の速度と挙動を推定するステップと、を備えたことを特徴とする速度推定方法。   Interlace-type camera means is movable, the step of obtaining a captured image by imaging with the camera means, and the optical flow of the even-numbered scan line image and the odd-numbered scan line image in one frame of the captured image are estimated. A step of processing the estimated flow vector as image data and resizing to the same size as the captured image, a step of superimposing the captured image and the resized image of the flow vector, and an even scan line image of one frame, Estimating the speed and behavior of a moving object using a scan time lag of an odd scan line image and an image pattern of the flow vector. 移動する被写体をインターレース方式のカメラ手段により撮像して撮像画像を取得するステップと、該撮像画像の1フレームにおける偶数走査線画像と奇数走査線画像のオプティカルフローを推定するステップと、推定したフローベクトルを画像データとして処理し前記撮像画像と同サイズにリサイズするステップと、前記撮像画像とリサイズした前記フローベクトルの画像を重畳させるステップと、1フレームの偶数走査線画像と奇数走査線画像のスキャンのタイムラグおよび前記フローベクトルの画像パターンを用いて移動物体の速度と挙動を推定するステップと、を備えたことを特徴とする速度推定方法。   A step of capturing a moving subject with an interlaced camera means to acquire a captured image, a step of estimating an optical flow of an even-numbered scan line image and an odd-numbered scan line image in one frame of the captured image, and an estimated flow vector Are processed as image data and resized to the same size as the captured image, a step of superimposing the captured image and the resized image of the flow vector, and a scan of an even scan line image and an odd scan line image of one frame. Estimating the speed and behavior of a moving object using a time lag and an image pattern of the flow vector. 前記オプティカルフローを推定するステップにおいて、偶数走査線画像と奇数走査線画像における濃淡分布パターンの移動は局所的であるとして、所定の局所範囲を探索して濃淡パターンのマッチングを行い、フローベクトルを推定することを特徴とする請求項1乃至4のいずれかに記載の速度推定方法。   In the step of estimating the optical flow, it is assumed that the movement of the light and shade distribution pattern in the even-numbered scan line image and the odd-numbered scan line image is local, and the flow vector is estimated by searching for a predetermined local range and matching the light and shade pattern. The speed estimation method according to claim 1, wherein the speed estimation method is performed. 前記カメラ手段により撮像して撮像画像を取得するステップにおいて、カメラ手段によりキャプチャされた画像がカラー画像の場合に、該カラー画像をグレースケール画像に変換処理することを特徴とする請求項1乃至4のいずれかに記載の速度推定方法。   5. In the step of obtaining an image captured by the camera means, when the image captured by the camera means is a color image, the color image is converted into a gray scale image. The speed estimation method according to any one of the above. 前記推定したフローベクトルを画像データとして処理し前記撮像画像と同サイズにリサイズするステップにおいて、最近隣内挿法を用いてリサンプリング処理を行い、推定したフローベクトルの画像をリサイズすることを特徴とする請求項3又は4に記載の速度推定方法。   In the step of processing the estimated flow vector as image data and resizing to the same size as the captured image, resampling processing is performed using nearest neighbor interpolation, and the estimated flow vector image is resized. The speed estimation method according to claim 3 or 4. 請求項1乃至7のいずれかに記載の速度推定方法の各ステップをコンピュータに実行させるための速度推定プログラム。   The speed estimation program for making a computer perform each step of the speed estimation method in any one of Claims 1 thru | or 7. 請求項8に記載の速度推定プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the speed estimation program according to claim 8 is recorded.
JP2007052799A 2007-03-02 2007-03-02 Speed estimation method and speed estimation program Pending JP2008217330A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007052799A JP2008217330A (en) 2007-03-02 2007-03-02 Speed estimation method and speed estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007052799A JP2008217330A (en) 2007-03-02 2007-03-02 Speed estimation method and speed estimation program

Publications (1)

Publication Number Publication Date
JP2008217330A true JP2008217330A (en) 2008-09-18

Family

ID=39837311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007052799A Pending JP2008217330A (en) 2007-03-02 2007-03-02 Speed estimation method and speed estimation program

Country Status (1)

Country Link
JP (1) JP2008217330A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016217844A (en) * 2015-05-19 2016-12-22 株式会社小野測器 Rotation velocity measurement device
JP2019509475A (en) * 2016-02-02 2019-04-04 クゥアルコム・インコーポレイテッドQualcomm Incorporated Visual inertia odometry and alignment of reference frames for satellite positioning systems
WO2020261838A1 (en) * 2019-06-25 2020-12-30 ソニー株式会社 Image processing device, image processing method, and program
JP2021012155A (en) * 2019-07-09 2021-02-04 株式会社小野測器 State measurement device and state measurement method
CN112383671A (en) * 2020-11-03 2021-02-19 安徽淘云科技有限公司 Scanning method, scanning device, scanning pen and storage medium

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016217844A (en) * 2015-05-19 2016-12-22 株式会社小野測器 Rotation velocity measurement device
JP2019509475A (en) * 2016-02-02 2019-04-04 クゥアルコム・インコーポレイテッドQualcomm Incorporated Visual inertia odometry and alignment of reference frames for satellite positioning systems
WO2020261838A1 (en) * 2019-06-25 2020-12-30 ソニー株式会社 Image processing device, image processing method, and program
CN114026436A (en) * 2019-06-25 2022-02-08 索尼集团公司 Image processing apparatus, image processing method, and program
JP2021012155A (en) * 2019-07-09 2021-02-04 株式会社小野測器 State measurement device and state measurement method
JP7213158B2 (en) 2019-07-09 2023-01-26 株式会社小野測器 State measuring device and state measuring method
CN112383671A (en) * 2020-11-03 2021-02-19 安徽淘云科技有限公司 Scanning method, scanning device, scanning pen and storage medium
CN112383671B (en) * 2020-11-03 2022-10-04 安徽淘云科技股份有限公司 Scanning method, scanning device, scanning pen and storage medium

Similar Documents

Publication Publication Date Title
JP5284048B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US7554575B2 (en) Fast imaging system calibration
JP3944647B2 (en) Object measuring apparatus, object measuring method, and program
JP5454570B2 (en) Tracking target determination device, tracking target determination method, and tracking target determination program
JP5810296B2 (en) Image display device and image display method
JP4809291B2 (en) Measuring device and program
CN111263142B (en) Method, device, equipment and medium for testing optical anti-shake of camera module
US10970807B2 (en) Information processing apparatus and storage medium
JP2012028949A (en) Image processing device and control method of the same
JP5909147B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
TWI459325B (en) Digital image processing device and processing method thereof
JP2015194901A (en) Track device and tracking system
JP2008217330A (en) Speed estimation method and speed estimation program
JP2013218432A (en) Image processing device, image processing method, program for image processing, and recording medium
JP5173549B2 (en) Image processing apparatus and imaging apparatus
JP2016217944A (en) Measurement device and measurement method
JP4198536B2 (en) Object photographing apparatus, object photographing method and object photographing program
JP2011097217A (en) Motion correction device and method therefor
JP6178646B2 (en) Imaging apparatus and image shake correction processing method
JPWO2017208699A1 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, PROGRAM, AND IMAGING SYSTEM
JP6579727B1 (en) Moving object detection device, moving object detection method, and moving object detection program
JP2008058221A (en) Velocity of high-speed moving body, estimation method of position, estimation program, and estimation system
JP2018092507A (en) Image processing apparatus, image processing method, and program
JP2005309782A (en) Image processor
JP2019176261A (en) Image processor