JP2005099953A - Image processor, object tracing system therewith, image processing method and image processing program - Google Patents
Image processor, object tracing system therewith, image processing method and image processing program Download PDFInfo
- Publication number
- JP2005099953A JP2005099953A JP2003330635A JP2003330635A JP2005099953A JP 2005099953 A JP2005099953 A JP 2005099953A JP 2003330635 A JP2003330635 A JP 2003330635A JP 2003330635 A JP2003330635 A JP 2003330635A JP 2005099953 A JP2005099953 A JP 2005099953A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- tracking
- still image
- image processing
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、各々が異なる時刻のデータである静止画データ列によって構成される動画データ中から、オブジェクトを追跡する処理を行う画像処理装置、それを備えるオブジェクト追跡システム、画像処理方法、及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus that performs processing for tracking an object from moving image data composed of still image data sequences that are data at different times, an object tracking system including the same, an image processing method, and image processing Regarding the program.
画像処理によって画像データから例えば顔等のオブジェクトを検出するためには、複雑な計算を必要とするため、検出に長時間を要するという問題点がある。ただし、動画像においては、フレーム間の相関が非常に高いという性質があるため、オブジェクトの検出処理を行うときに、その検出対象となるフレームより前の時間における検出済みのオブジェクトの「大きさ」、「位置」、「角度」、「形状」、「明るさ」、「色」、及びそれらの「軌跡」などの特性を利用することにより、検出時間の短縮を図ることができる。動画データ中のオブジェクト検出処理において、前の時間におけるフレームにて検出されたオブジェクトの特性を利用して時間軸順方向にオブジェクトの探索を行う手法は広く利用されている。 In order to detect an object such as a face from image data by image processing, a complicated calculation is required, and there is a problem that it takes a long time for detection. However, moving images have the property that the correlation between frames is very high, so when performing object detection processing, the “size” of the detected object at a time prior to the detection target frame. By utilizing characteristics such as “position”, “angle”, “shape”, “brightness”, “color”, and their “trajectory”, the detection time can be shortened. In object detection processing in moving image data, a method of searching for an object in the forward direction of the time axis using the characteristics of the object detected in the frame at the previous time is widely used.
また、その他の背景技術として、画像データから人間の顔を検出する手法の一例が非特許文献1に開示され、ビデオ画像から顔を検出して口の動きを検知することにより、発話区間を推定して音声認識結果の向上を図った技術が非特許文献2に開示されている。
In addition, as another background art, an example of a technique for detecting a human face from image data is disclosed in Non-Patent
しかしながら、前述した時間軸順方向にオブジェクトの探索を行う手法においては、最初にオブジェクトを検出できた時点より後の時間におけるオブジェクトの特性しか得ることができない。さらに、最初の検出時点より後の時間におけるオブジェクトの特性だけでは、将来のオブジェクトの予測精度も低下する。このように、時間軸順方向にオブジェクトの探索を行う手法では、より正確なオブジェクトの追跡及びより正確な将来のオブジェクトの予測について、まだ改善の余地がある。 However, in the above-described method for searching for an object in the forward direction of the time axis, only the characteristics of the object at a time after the time when the object can be detected first can be obtained. Furthermore, the prediction accuracy of the future object is lowered only by the characteristics of the object at the time after the first detection time. As described above, in the method of searching for an object in the forward direction of the time axis, there is still room for improvement with respect to more accurate object tracking and more accurate prediction of future objects.
本発明は、動画データ中からオブジェクトを追跡する処理をより正確に行うことができる画像処理装置、それを備えるオブジェクト追跡システム、画像処理方法及び画像処理プログラムを提供することを目的とする。 An object of the present invention is to provide an image processing apparatus that can more accurately perform processing for tracking an object from moving image data, an object tracking system including the same, an image processing method, and an image processing program.
本発明に係る画像処理装置は、各々が異なる時刻のデータである静止画データ列によって構成される動画データ中から、オブジェクトを追跡する処理を行う画像処理装置であって、静止画データ中からオブジェクトを探索する探索手段と、該探索手段により1つ以上のオブジェクトを検出できた場合に、他の静止画データ中における該1つ以上のオブジェクトを追跡する追跡手段と、を備え、前記追跡手段は、追跡対象の静止画データより後の時刻における1以上の静止画データ中から既に検出されたオブジェクトの特性に基づいて、該追跡対象の静止画データ中からオブジェクトを追跡することにより、静止画データ列の時間軸を遡る方向にオブジェクトを追跡することを要旨とする。 An image processing apparatus according to the present invention is an image processing apparatus that performs processing for tracking an object from moving image data composed of still image data sequences each of which is data at different times. Search means for searching for, and when one or more objects can be detected by the search means, tracking means for tracking the one or more objects in other still image data, and the tracking means By tracking an object from the tracked still image data based on the characteristics of the object already detected from one or more still image data at a time later than the tracked still image data, the still image data The gist is to trace the object in the direction going back the time axis of the column.
本発明に係る画像処理装置において、前記追跡対象の静止画データより後の時刻における1以上の静止画データは、該追跡対象の静止画データの直後の時刻における静止画データを含むものとすることもできる。本発明に係る画像処理装置において、前記オブジェクトの特性は、該オブジェクトの位置、大きさ、角度、形状、明るさ、色、及びそれらの軌跡の少なくとも1つを含むものとすることもできる。 In the image processing apparatus according to the present invention, the one or more still image data at a time later than the tracking target still image data may include still image data at a time immediately after the tracking target still image data. . In the image processing apparatus according to the present invention, the characteristics of the object may include at least one of the position, size, angle, shape, brightness, color, and locus of the object.
本発明に係る画像処理装置において、前記追跡手段は、追跡対象の静止画データより前の時刻における1以上の静止画データ中から既に検出されたオブジェクトの位置及び大きさを含む特性に基づいて、該追跡対象の静止画データ中からオブジェクトを追跡することにより、静止画データ列の時間軸に沿った方向にオブジェクトを追跡するものとすることもできる。このように、静止画データ列の時間軸を遡る方向にオブジェクトを追跡する手段と時間軸に沿って順方向にオブジェクトを追跡する手段とを併用することができる。また、検出されたオブジェクトの画像と、検出しようとする画像を用い、オプティカルフロー法に代表される動き検出アルゴリズムを用いてオブジェクトを追跡することも可能である。本発明に係る画像処理装置において、前記追跡対象の静止画データより前の時刻における1以上の静止画データは、該追跡対象の静止画データの直前の時刻における静止画データを含むものとすることもできる。 In the image processing apparatus according to the present invention, the tracking unit is based on characteristics including the position and size of an object already detected from one or more still image data at a time before the still image data to be tracked. By tracking an object from the still image data to be tracked, the object can be tracked in the direction along the time axis of the still image data string. In this way, it is possible to use both means for tracking an object in the direction going back the time axis of the still image data sequence and means for tracking the object in the forward direction along the time axis. It is also possible to track an object using a motion detection algorithm typified by an optical flow method using an image of the detected object and an image to be detected. In the image processing apparatus according to the present invention, the one or more still image data at a time prior to the tracking target still image data may include still image data at a time immediately before the tracking target still image data. .
本発明に係る画像処理装置において、前記オブジェクトは顔であることが好適である。本発明に係る画像処理装置において、該画像処理装置は、リアルタイム動画データ中から、オブジェクトをリアルタイムで追跡する処理を行う装置であることが好適である。顔画像の検出をリアルタイムで行うには複雑な計算を必要とするため、本発明を適用することが特に有効である。 In the image processing apparatus according to the present invention, it is preferable that the object is a face. In the image processing apparatus according to the present invention, the image processing apparatus is preferably an apparatus that performs processing for tracking an object in real time from real-time moving image data. It is particularly effective to apply the present invention because complex calculation is required to detect a face image in real time.
本発明に係る画像処理装置を備えるオブジェクト追跡システムは、オブジェクトを含むリアルタイム動画データを得るために、該オブジェクトを撮像する画像処理用撮像装置と、前記追跡手段にて既に検出された静止画データ中のオブジェクトの特性に基づいて、該オブジェクトの将来特性を推定する特性推定手段と、オブジェクトを追尾可能な追尾装置と、前記特性推定手段により推定されたオブジェクトの将来特性に基づいて制御指令値を演算して前記追尾装置へ出力することで、該追尾装置が該オブジェクトを追尾するように制御を行う制御指令演算手段と、を備えるものとすることもできる。この本発明に係るオブジェクト追跡システムにおいて、前記追尾装置は、オブジェクトを追尾して撮像可能な追尾用撮像装置であり、前記制御指令演算手段は、該追尾用撮像装置の撮像方向及びズームの少なくとも一方を制御するための制御指令値を演算することが好適である。 An object tracking system including an image processing device according to the present invention includes an image processing imaging device that images an object to obtain real-time moving image data including the object, and still image data already detected by the tracking unit. Based on the characteristics of the object, a characteristic estimation means for estimating the future characteristic of the object, a tracking device capable of tracking the object, and a control command value based on the future characteristic of the object estimated by the characteristic estimation means Then, by outputting to the tracking device, it is possible to provide control command calculation means for performing control so that the tracking device tracks the object. In the object tracking system according to the present invention, the tracking device is a tracking imaging device that can track and image an object, and the control command calculation means includes at least one of an imaging direction and a zoom of the tracking imaging device. It is preferable to calculate a control command value for controlling the.
本発明に係る画像処理方法は、各々が異なる時刻のデータである静止画データ列によって構成される動画データ中から、オブジェクトを追跡する処理を行う画像処理方法であって、静止画データ中からオブジェクトを探索する探索ステップと、該探索ステップにより1つ以上のオブジェクトを検出できた場合に、他の静止画データ中における該1つ以上のオブジェクトを追跡する追跡ステップと、を含み、前記追跡ステップは、追跡対象の静止画データより後の時刻における1以上の静止画データ中から既に検出されたオブジェクトの特性に基づいて、該追跡対象の静止画データ中からオブジェクトを追跡することを繰り返すことにより、静止画データ列の時間軸を遡る方向にオブジェクトを追跡することを要旨とする。 An image processing method according to the present invention is an image processing method for performing processing for tracking an object from moving image data composed of still image data sequences, each of which is data at different times. And a tracking step for tracking the one or more objects in other still image data when the search step detects one or more objects, the tracking step comprising: , By repeatedly tracking the object from the tracking target still image data based on the characteristics of the object already detected from the one or more still image data at a time later than the tracking target still image data, The gist is to trace an object in a direction going back the time axis of the still image data string.
本発明に係る画像処理プログラムは、各々が異なる時刻のデータである静止画データ列によって構成される動画データ中から、オブジェクトを追跡する処理をコンピュータに実行させる画像処理プログラムであって、静止画データ中からオブジェクトを探索する探索処理と、該探索処理により1つ以上のオブジェクトを検出できた場合に、他の静止画データ中における該1つ以上のオブジェクトを追跡する追跡処理と、をコンピュータに実行させ、前記追跡処理は、追跡対象の静止画データより後の時刻における1以上の静止画データ中から既に検出されたオブジェクトの特性に基づいて、該追跡対象の静止画データ中からオブジェクトを追跡する処理を行うことにより、静止画データ列の時間軸を遡る方向にオブジェクトを追跡する処理を行うことを要旨とする。 An image processing program according to the present invention is an image processing program for causing a computer to execute processing for tracking an object from moving image data composed of still image data sequences each of which is data at different times. The computer executes search processing for searching for an object from within, and tracking processing for tracking the one or more objects in other still image data when one or more objects can be detected by the search processing The tracking process tracks an object from the still image data to be tracked based on the characteristics of the object already detected from one or more still image data at a time later than the still image data to be tracked. Processing to track objects in the direction going back the time axis of the still image data string by processing The gist of the Ukoto.
以上説明したように、本発明によれば、静止画データ列の時間軸を遡る方向にオブジェクトを追跡することにより、動画データ中からオブジェクトを追跡する処理をより正確に行うことができる。 As described above, according to the present invention, it is possible to more accurately perform processing for tracking an object from moving image data by tracking the object in a direction going back the time axis of the still image data sequence.
以下、本発明の実施の形態(以下実施形態という)を、図面に従って説明する。 Hereinafter, embodiments of the present invention (hereinafter referred to as embodiments) will be described with reference to the drawings.
図1は、本発明の実施形態に係る画像処理装置を備えるオブジェクト追跡システムの構成の概略を示すブロック図である。本実施形態に係るオブジェクト追跡システムは、画像処理を用いて人間の顔を追跡するシステムであり、その構成は大きく分けてカメラ10、画像処理装置12及び制御装置14に分けられる。
FIG. 1 is a block diagram showing an outline of the configuration of an object tracking system including an image processing apparatus according to an embodiment of the present invention. The object tracking system according to the present embodiment is a system that tracks a human face using image processing, and its configuration is roughly divided into a
画像処理用撮像装置としてのカメラ10は、本実施形態のオブジェクトである人間の顔を撮像する。カメラ10により撮像された動画像信号は、画像処理装置12へ入力される。また、カメラ10はその撮像方向及びズームを変化させることができ、後述するように、カメラ10の撮像方向及びズームを制御装置14により制御することができる。
A
画像処理装置12は、カメラ10により撮像された動画像から人間の顔をリアルタイムで追跡する処理を行う。そして、画像処理装置12は、画像前処理部28、画像保管部29、探索部16及び追跡部18を有している。
The
画像前処理部28には、カメラ10からの動画像信号が入力される。カメラ10からの動画像信号は、画像前処理部28にてA/D変換及び量子化等の処理が行われ、各々が異なる時刻のデータである静止画データ列によって構成されるリアルタイム動画データに変換される。ここで、静止画データ列の各々は一時的に画像保管部29に保管される。また、画像保管部29に保管された静止画データ列の各々は探索部16または追跡部18へ入力され、人間の顔をリアルタイムで追跡する処理が行われる。画像保管部29に保管される静止画データ列の一例を図2に示す。
A moving image signal from the
探索部16は、画像前処理部28により得られる最新の静止画データにおいて、所定フレーム間隔おきの静止画データ中から人間の顔を探索する。ここでの探索部16は、例えば静止画データ中の全範囲を探索範囲として人間の顔を探索する。あるいは、背景差分やフレーム間差分による各座標の差分値に基づいて顔の探索範囲を設定することにより、顔の探索範囲を限定し探索時間を短縮することもできる。
The
追跡部18は、探索部16により1以上の人間の顔を検出できた場合に、画像保管部29に保管された他の静止画データ中から、その人間の顔の探索を続けることにより、その人間の顔を追跡する。そして、追跡部18は、順探索範囲設定部20、順探索部22、逆探索範囲設定部24、及び逆探索部26を有している。
When the
順探索範囲設定部20は、追跡対象の静止画データより前の時刻における1以上の静止画データ中から既に検出された人間の顔の特性に基づいて、追跡対象の静止画データにおける探索範囲を設定する。これによって、すでに人間の顔を検出できている検出済静止画データより時間軸に沿った方向すなわち時間軸順方向の静止画データにおける探索範囲が設定される。ここで、追跡対象の静止画データより前の時刻における1以上の静止画データは、追跡対象の静止画データの直前の時刻における静止画データを含む。そして、順探索部22は、順探索範囲設定部20により設定された探索範囲内で人間の顔の探索を行うことで、追跡対象の静止画データ中から人間の顔を追跡する。なお、ここでの顔の特性は、顔の位置、大きさ、角度、形状、明るさ、色、及びそれらの軌跡の少なくとも1つを含む。
The forward search
一方、逆探索範囲設定部24は、追跡対象の静止画データより後の時刻における1以上の静止画データ中から既に検出された人間の顔の特性に基づいて、追跡対象の静止画データにおける探索範囲を設定する。これによって、すでに人間の顔を検出できている検出済静止画データより時間軸を遡った方向すなわち時間軸逆方向の静止画データにおける探索範囲が設定される。ここで、追跡対象の静止画データより後の時刻における1以上の静止画データは、追跡対象の静止画データの直後の時刻における静止画データを含む。そして、逆探索部26は、逆探索範囲設定部24により設定された探索範囲内で人間の顔の探索を行うことで、追跡対象の静止画データ中から人間の顔を追跡する。
On the other hand, the reverse search
このように、本実施形態においては、追跡部18により人間の顔を追跡するときに、図2に示すように、検出済静止画データより時間軸に沿った方向(時間軸順方向)の静止画データ中から顔34−1,34−2を追跡する処理を行うだけでなく、検出済静止画データより時間軸を遡った方向(時間軸逆方向)の静止画データ中から顔34−1,34−2を追跡する処理も行う。
As described above, in this embodiment, when the
制御装置14は、画像処理装置12により得られた顔の特性の追跡結果に基づいてカメラ10の撮像方向及びズームの少なくとも一方の制御を行う。そして、制御装置14は、特性推定部30及び制御指令演算部32を有している。
The control device 14 controls at least one of the imaging direction of the
特性推定部30は、探索部16及び追跡部18により既に検出できている静止画データ中の人間の顔の特性に基づいて、その人間の顔の将来特性を推定する。ここでの顔の将来特性は、顔の将来の位置及び大きさの少なくとも一方を含む。そして、制御指令演算部32は、特性推定部30により推定された人間の顔の将来特性に基づいて、カメラ10の撮像方向及びズームの少なくとも一方を制御するための制御指令値を演算してカメラ10へ出力する。これによって、カメラ10の撮像方向及びズームの少なくとも一方が人間の顔を追尾するように制御される。ここでのカメラ10は、人間の顔を追尾して撮像するための追尾用撮像装置としての役割も兼ねている。
The
なお、画像処理装置12及び制御装置14については、例えばCPU、ROM、RAM、ハードディスク及び通信I/F等がバス接続されたコンピュータによって実現することができる。そして、後述する探索部16及び追跡部18による処理及び特性推定部30及び制御指令演算部32による処理については、コンピュータにより実行されるプログラムによってソフトウェア的に実現することができる。
Note that the
次に、本実施形態のシステムにおける処理を図3〜6に示すフローチャートを用いて説明する。ここで、図3は探索部16による処理を説明するフローチャートを示す。そして、図4は追跡部18による時間軸を遡った方向に顔を追跡する処理を説明するフローチャートを示し、図5は追跡部18による時間軸に沿った方向に顔を追跡する処理を説明するフローチャートを示す。また、図6は制御装置14による処理を説明するフローチャートを示す。なお、以下の説明では、動画データ中から複数種類の顔を追跡することを想定して説明を行う。
Next, processing in the system of the present embodiment will be described using the flowcharts shown in FIGS. Here, FIG. 3 shows a flowchart for explaining processing by the
図3のフローチャートのステップ(以下Sとする)1においては、画像前処理部28により得られた最新の静止画データ中から、探索部16による顔の探索を行うか否かが判定される。ここで、画像前処理部28にて最新の静止画データは所定時間おきに得られている。本実施形態の画像処理装置12では、所定フレーム間隔おきに探索部16による顔の探索を行うように、探索部16による探索条件が設定されている。S1の判定結果がNOの場合は、前回探索を行った静止画データの取得から所定フレーム数の静止画データの取得が終了するまでS1の判定が繰り返される。一方、S1の判定結果がYESの場合はS2に進む。
In step (hereinafter referred to as S) 1 in the flowchart of FIG. 3, it is determined whether or not to search for a face by the
S2においては、探索部16にて静止画データ中から人間の顔の探索が行われる。ここで、画像データ中からの人間の顔の検出については、例えば非特許文献1に開示されている皮膚の色を検出する手法を用いることにより検出することができる。また、顔の探索範囲については、例えば静止画データ中の全範囲を探索する。ただし、全範囲の探索には長時間を要し、典型的にはフレーム間隔周期よりも長時間となる。そこで、前述したように、背景差分やフレーム間差分を用いることで探索範囲を絞ることも可能である。探索部16による顔の探索が終了したら、S3に進む。
In S2, the
S3においては、探索部16により新たに顔が検出されたか否かが判定される。S3の判定結果がYESの場合、すなわち新たな顔が検出された場合は、S4に進む。一方、S3の判定結果がNOの場合、すなわち顔が検出されなかった場合、あるいはすでに探索部16により検出済みで追跡部18による追跡が行われている顔が再度検出された場合は、S1に戻り、S1以下の処理が繰り返される。
In S3, it is determined whether or not a new face is detected by the
S4においては、S3で新たに検出した顔を追跡する処理が追跡部18にて開始される。具体的には、図4,5のフローチャートに示す処理が開始される。そして、S1に戻り、S1以下の処理が繰り返される。ここで、探索部16により顔が検出され追跡部18により顔の追跡が行われる場合でも探索部16による顔の探索を繰り返す理由は、図2に示すように、1つの顔34−1の追跡処理を行っているときに他の種類の顔34−2が新たに現れる場合も考えられるためである。このように、所定フレーム間隔おきに探索部16による顔の探索を繰り返すことにより、複数種類の顔を検出することができる。さらに、追跡部18による顔の追跡に一旦失敗しても、探索部16によりその顔を再検出することができるので、追跡部18によるその顔の再追跡が可能となる。
In S4, the
次に、図4,5に示す処理について説明する。本実施形態では、図4の時間軸を遡った方向に顔を追跡する処理と、図5の時間軸に沿った方向に顔を追跡する処理と、が並行して行われる場合について説明する。ただし、これらの処理が必ずしも並行して行われる必要はなく、例えば図4の時間軸を遡った方向に顔を追跡する処理の方を先に行ってから図5の時間軸に沿った方向に顔を追跡する処理を行うことも可能である。そして、探索部16により複数種類の顔が検出されている場合は、各顔ごとに図4,5の処理が行われる。
Next, the process shown in FIGS. 4 and 5 will be described. In the present embodiment, a case will be described in which the process of tracking a face in a direction retroactive to the time axis in FIG. 4 and the process of tracking a face in a direction along the time axis in FIG. 5 are performed in parallel. However, these processes do not necessarily have to be performed in parallel. For example, the process of tracking the face in the direction retroactive to the time axis in FIG. 4 is performed first and then in the direction along the time axis in FIG. It is also possible to perform processing for tracking a face. When a plurality of types of faces are detected by the
図4のフローチャートのS101においては、検出済静止画データ中の顔の特性に基づいて、検出済静止画データより時間軸を遡った方向の静止画データ中における探索範囲が逆探索範囲設定部24にて設定される。そして、S102に進む。以下、探索範囲の設定の具体例について説明する。
In S101 of the flowchart of FIG. 4, based on the characteristics of the face in the detected still image data, the search range in the still image data in the direction going back the time axis from the detected still image data is the reverse search
図7に示すように、例えば検出済静止画データが探索部16により検出済みのフレームfだけである場合、フレームfより1フレーム分時間軸を遡ったフレームf−1の探索範囲については、フレームfでの両目中央位置、及びフレーム間隔周期における両目中央位置の変動予測量(縦方向、横方向及び奥行き)により設定することができる。
As shown in FIG. 7, for example, when the detected still image data is only the frame f that has been detected by the
次に、図8に示すように、例えば検出済静止画データが探索部16により検出済みのフレームf、及び逆探索部26により検出済みのフレームf−1である場合を考える。この場合、フレームf−1より1フレーム分時間軸を遡ったフレームf−2の探索範囲については、フレームf,f−1での両目中央位置から回帰計算されるフレームf−2での両目中央位置、及びフレーム間隔周期における両目中央位置の変動予測量により設定することができる。
Next, as shown in FIG. 8, for example, consider a case where the detected still image data is a frame f detected by the
次に、図9に示すように、例えば検出済静止画データが探索部16により検出済みのフレームf、及び逆探索部26により検出済みのフレームf−1,f−2である場合を考える。この場合、フレームf−2より1フレーム分時間軸を遡ったフレームf−3の探索範囲については、フレームf,f−1,f−2での両目中央位置から回帰計算されるフレームf−3での両目中央位置、及びフレーム間隔周期における両目中央位置の変動予測量により設定することができる。
Next, as shown in FIG. 9, for example, consider a case where the detected still image data is a frame f detected by the
ここで、フレーム間隔周期における位置変動予測量については、例えば実験的に設定することができる。一例として、フレーム間隔周期における両目中央位置の横方向変位の確率分布を実験的に求めた結果を図10に示す。図10に示すように、2フレームから求められる確率分布の方が1フレームから求められる確率分布よりばらつきは小さい。同様の実験により、検出済みのフレーム数の増大に応じてフレーム間隔周期における位置変動予測量を小さく設定することができるので、検出済みのフレーム数の増大に応じて探索範囲を狭くすることができ、探索時間を短縮することができる。なお、上記の説明では、探索範囲の設定に両目中央位置を用いているが、顔の他の位置を用いても探索範囲の設定は可能である。 Here, the position fluctuation prediction amount in the frame interval cycle can be set experimentally, for example. As an example, FIG. 10 shows the result of experimentally determining the probability distribution of the lateral displacement at the center position of both eyes in the frame interval period. As shown in FIG. 10, the probability distribution obtained from two frames has a smaller variation than the probability distribution obtained from one frame. The same experiment can be used to set the position fluctuation prediction amount in the frame interval period to be small according to the increase in the number of detected frames, so that the search range can be narrowed according to the increase in the number of detected frames. The search time can be shortened. In the above description, the center position of both eyes is used for setting the search range, but the search range can also be set using other positions of the face.
S102においては、逆探索範囲設定部24により設定された探索範囲内で顔の探索が逆探索部26にて行われる。顔の検出については、前述したように、例えば非特許文献1に開示の手法を用いることで検出可能である。ここでの逆探索部26による顔の探索については、探索範囲が限定されているため、顔の探索時間を大幅に短縮することができる。典型的にはフレーム間隔周期より極めて短い時間で探索処理を完了させることができる。逆探索部26による顔の探索が終了したら、S103に進む。
In S102, the
S103においては、逆探索部26により追跡対象の顔を検出できたか否かが判定される。S103の判定結果がYESの場合はS101に戻り、時間軸を1フレーム分遡った静止画データについて、S101,S102の処理を繰り返す。一方、S103の判定結果がNOの場合は、カメラ10の撮像範囲から追跡対象の顔が外れたものと判定し、その顔の時間軸を遡る方向の追跡を終了する。なお、S103の判定では、複数フレーム連続して顔を検出できなかった場合に、追跡対象の顔がカメラ10の撮像範囲から外れたものと判定するようにしてもよい。
In S103, it is determined whether or not the face to be tracked can be detected by the
一方、図5のフローチャートのS201においては、検出済静止画データ中の顔の特性に基づいて、検出済静止画データより時間軸に沿った方向の静止画データ中における探索範囲が順探索範囲設定部20にて設定される。そして、S202に進む。ここでの探索範囲については、時間軸を遡る場合と同様の手法で設定することができる。また、順探索範囲設定部20による探索範囲の設定の際には、逆探索部26による顔の探索も並行して行われることで時間軸を遡って顔が検出されているため、探索範囲の設定に用いられる検出済みの顔の特性は、逆探索部26により検出された顔の特性を含んでいる。例えば図9の例においては、フレームf+1における探索範囲の設定に、逆探索部26により検出されたフレームf−2,f−1における顔の特性が用いられる。このように、逆探索部26により検出された顔の特性も利用して探索範囲を設定することにより、探索範囲をより狭くすることができるので、順探索部22による探索時間をより短縮させることができる。
On the other hand, in S201 of the flowchart of FIG. 5, the search range in the still image data in the direction along the time axis is set to the forward search range setting based on the characteristics of the face in the detected still image data. Set in
S202においては、順探索範囲設定部20により設定された探索範囲内で顔の探索が順探索部22にて行われる。顔の検出については、前述したように、例えば非特許文献1に開示の手法を用いることで検出可能である。ここでの順探索部22による顔の探索については、探索範囲が限定されているため、顔の探索時間を大幅に短縮することができる。典型的にはフレーム間隔周期より極めて短い時間で探索処理を完了させることができる。順探索部22による顔の探索が終了したら、S203に進む。
In S <b> 202, the face search is performed by the
S203においては、順探索部22により追跡対象の顔を検出できたか否かが判定される。S203の判定結果がYESの場合はS201に戻り、時間軸に1フレーム分沿った静止画データについて、S201,S202の処理を繰り返す。一方、S203の判定結果がNOの場合は、カメラ10の撮像範囲から追跡対象の顔が外れたものと判定し、その顔の時間軸に沿った方向の追跡を終了する。なお、S203の判定では、複数フレーム連続して顔を検出できなかった場合に、追跡対象の顔がカメラ10の撮像範囲から外れたものと判定するようにしてもよい。
In S203, the
次に、カメラ10の制御について説明する。図6のフローチャートのS301においては、カメラ10の制御を行うか否かが判定される。探索部16及び追跡部18により顔の将来特性を推定できるだけの顔の追跡結果がまだ得られていない場合は、S301の判定結果はNOとなり、顔の将来特性を推定できるだけの追跡結果が得られるまでS301の判定が繰り返される。一方、探索部16及び追跡部18により顔の将来特性を推定できるだけの追跡結果が得られている場合は、S301の判定結果はYESとなり、S302に進む。
Next, control of the
S302においては、所定時間経過後の顔の将来特性が特性推定部30にて推定される。ここでは、例えば複数の検出済静止画データにおける両目中央位置の各々から求められる回帰式を利用することで、所定時間経過後の顔の将来特性を推定することができる。このとき、検出済静止画データにおける両目中央位置には逆探索部26により検出された両目中央位置が含まれており、逆探索部26により検出された両目中央位置も利用して顔の将来特性を推定できるので、顔の将来特性を精度よく推定することができる。そして、S303に進む。
In S302, the
S303においては、カメラ10の撮像方向を制御するための制御指令値が制御指令演算部32にて演算される。ここでは、特性推定部30により推定された将来の顔をカメラ10の撮像範囲が含むように、制御指令値が演算される。また、複数種類の顔の追跡結果が得られてその複数種類の顔の将来特性が推定されているときは、その複数種類の将来の顔をカメラ10の撮像範囲が含むように、制御指令値が演算される。制御指令値の演算については、例えば制御指令値とカメラ10の撮像方向に関する特性マップを記憶しておき、その特性マップを用いて演算すればよい。そして、S304に進む。
In S <b> 303, a control command value for controlling the imaging direction of the
S304においては、制御指令演算部32にて演算された制御指令値がカメラ10へ出力され、カメラ10の撮像方向の制御が行われる。そして、S301に戻り、S301以下の処理が繰り返される。なお、カメラ10の制御については、撮像方向制御の代わりに、ズームを制御するための制御指令値を演算して出力してもかまわない。さらに、撮像方向及びズームの両方を制御するための制御指令値を演算して出力してもかまわない。
In S304, the control command value calculated by the control
以上説明したように、本実施形態によれば、動画データ中から顔を追跡する処理を行うときに、時間軸を遡る方向に顔を追跡することにより、より過去における顔の特性を得ることができる。さらに、その過去における顔の特性を顔の将来特性の予測に反映させることができる。例えば、非特許文献2のように動画データ中の顔の追跡結果を利用して話し始めの瞬間を予測しようとする場合を考えると、唇の動き始めと実際の話し始めとは時間差があるため、より過去における唇の動きを動画データ中から把握できることが望ましい。そこで、時間軸を遡る方向に顔を追跡してより過去における唇の動きを把握することで、話し始めをより早期に予測することができる。このように、本実施形態においては、時間軸を遡る方向に顔を追跡してより過去における顔の追跡結果を得ることにより、動画データ中から顔をより正確に追跡することができる。さらに、将来の顔の特性をより正確に予測することができる。
As described above, according to the present embodiment, when performing the process of tracking a face from moving image data, it is possible to obtain a more characteristic of the face in the past by tracking the face in a direction going back in the time axis. it can. Furthermore, the face characteristics in the past can be reflected in the prediction of the future face characteristics. For example, in the case of trying to predict the start of speaking using the face tracking result in the moving image data as in
そして、逆探索部26により得られた時間軸を遡った方向の顔の追跡結果については、時間軸に沿った方向の顔の追跡に利用することができる。具体的には、時間軸を遡って追跡された顔の特性を含む検出済静止画データ中の顔の特性に基づいて、順探索範囲設定部20が探索範囲を設定することにより、探索範囲をより限定することができ、順探索部22による顔の探索時間を短縮させることができる。
Then, the face tracking result in the direction going back the time axis obtained by the
また、時間軸を遡った追跡結果を含む顔の特性に基づいて顔の将来特性を推定し、その推定された将来の顔をカメラ10の撮像範囲が含むようにカメラ10の撮像方向及びズームの少なくとも一方を制御することにより、その顔をカメラ10により正確に追尾して撮像することができる。
Further, the future characteristics of the face are estimated based on the characteristics of the face including the tracking result traced back in time, and the imaging direction and zoom of the
本実施形態では、顔の検出の画像処理に用いられる画像処理用撮像装置と、顔を追尾して撮像する追尾用撮像装置と、をカメラ10により共用化しているが、画像処理用撮像装置と追尾用撮像装置とで別々のカメラを用いることも可能である。さらに、本発明の追尾装置はカメラに限られるものではない。例えば、顔の将来特性に基づいて指向性マイクの指向特性を制御することにより、指向性マイクの指向特性を人間の顔に追尾させることもできる。
In the present embodiment, the image processing imaging device used for face detection image processing and the tracking imaging device that tracks and captures a face are shared by the
そして、本実施形態では、追跡するオブジェクトが人間の顔である場合を説明したが、本発明は他のオブジェクトを追跡する場合でも適用が可能である。 In the present embodiment, the case where the object to be tracked is a human face has been described, but the present invention can also be applied to the case of tracking other objects.
また、本実施形態では、画像処理装置がリアルタイム動画データ中からオブジェクトをリアルタイムで追跡する処理を行う場合について説明したが、本発明の画像処理装置については、予め記憶されている動画データ中からオブジェクトを追跡する後処理を行う場合でも適用が可能である。 Further, in the present embodiment, the case where the image processing apparatus performs processing for tracking an object in real time from real-time moving image data has been described. However, the image processing apparatus of the present invention is configured so that an object from moving image data stored in advance is stored. It can be applied even in the case of performing post-processing for tracking.
以上、本発明の実施の形態について説明したが、本発明はこうした実施の形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において、種々なる形態で実施し得ることは勿論である。 As mentioned above, although embodiment of this invention was described, this invention is not limited to such embodiment at all, Of course, in the range which does not deviate from the summary of this invention, it can implement with a various form. It is.
10 カメラ、12 画像処理装置、14 制御装置、16 探索部、18 追跡部、20 順探索範囲設定部、22 順探索部、24 逆探索範囲設定部、26 逆探索部、28 画像前処理部、29 画像保管部、30 特性推定部、32 制御指令演算部。 10 cameras, 12 image processing devices, 14 control devices, 16 search units, 18 tracking units, 20 forward search range setting units, 22 forward search units, 24 reverse search range setting units, 26 reverse search units, 28 image preprocessing units, 29 Image storage unit, 30 characteristic estimation unit, 32 control command calculation unit.
Claims (11)
静止画データ中からオブジェクトを探索する探索手段と、
該探索手段により1つ以上のオブジェクトを検出できた場合に、他の静止画データ中における該1つ以上のオブジェクトを追跡する追跡手段と、
を備え、
前記追跡手段は、追跡対象の静止画データより後の時刻における1以上の静止画データ中から既に検出されたオブジェクトの特性に基づいて、該追跡対象の静止画データ中からオブジェクトを追跡することにより、静止画データ列の時間軸を遡る方向にオブジェクトを追跡することを特徴とする画像処理装置。 An image processing apparatus that performs processing for tracking an object from moving image data composed of still image data sequences that are data at different times,
Search means for searching for an object from still image data;
Tracking means for tracking the one or more objects in other still image data when one or more objects can be detected by the search means;
With
The tracking means tracks an object from the still image data to be tracked based on the characteristics of the object already detected from one or more still image data at a time later than the still image data to be tracked. An image processing apparatus that tracks an object in a direction that goes back along the time axis of a still image data sequence.
前記追跡対象の静止画データより後の時刻における1以上の静止画データは、該追跡対象の静止画データの直後の時刻における静止画データを含むことを特徴とする画像処理装置。 The image processing apparatus according to claim 1,
One or more still image data at a time later than the tracking target still image data includes still image data at a time immediately after the tracking target still image data.
前記オブジェクトの特性は、該オブジェクトの位置、大きさ、角度、形状、明るさ、色、及びそれらの軌跡の少なくとも1つを含むことを特徴とする画像処理装置。 The image processing apparatus according to claim 1, wherein:
The image processing apparatus, wherein the characteristics of the object include at least one of a position, a size, an angle, a shape, brightness, a color, and a locus of the object.
前記追跡手段は、追跡対象の静止画データより前の時刻における1以上の静止画データ中から既に検出されたオブジェクトの位置及び大きさを含む特性に基づいて、該追跡対象の静止画データ中からオブジェクトを追跡することにより、静止画データ列の時間軸に沿った方向にオブジェクトを追跡することを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 3,
The tracking means is configured to select from the still image data to be tracked based on the characteristics including the position and size of the object already detected from one or more still image data at a time before the still image data to be tracked. An image processing apparatus that tracks an object in a direction along a time axis of a still image data sequence by tracking the object.
前記追跡対象の静止画データより前の時刻における1以上の静止画データは、該追跡対象の静止画データの直前の時刻における静止画データを含むことを特徴とする画像処理装置。 The image processing apparatus according to claim 4,
The image processing apparatus according to claim 1, wherein the one or more still image data at a time prior to the tracking target still image data includes still image data at a time immediately before the tracking target still image data.
前記オブジェクトは顔であることを特徴とする画像処理装置。 An image processing apparatus according to any one of claims 1 to 5,
An image processing apparatus, wherein the object is a face.
該画像処理装置は、リアルタイム動画データ中から、オブジェクトをリアルタイムで追跡する処理を行う装置であることを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 6,
The image processing apparatus is an apparatus that performs processing for tracking an object in real time from real-time moving image data.
オブジェクトを含むリアルタイム動画データを得るために、該オブジェクトを撮像する画像処理用撮像装置と、
前記追跡手段にて既に検出された静止画データ中のオブジェクトの特性に基づいて、該オブジェクトの将来特性を推定する特性推定手段と、
オブジェクトを追尾可能な追尾装置と、
前記特性推定手段により推定されたオブジェクトの将来特性に基づいて制御指令値を演算して前記追尾装置へ出力することで、該追尾装置が該オブジェクトを追尾するように制御を行う制御指令演算手段と、
を備えることを特徴とするオブジェクト追跡システム。 An object tracking system comprising the image processing device according to claim 7,
In order to obtain real-time moving image data including an object, an image processing imaging device that images the object;
A characteristic estimation unit that estimates a future characteristic of the object based on the characteristic of the object in the still image data already detected by the tracking unit;
A tracking device capable of tracking objects;
Control command calculating means for controlling the tracking device to track the object by calculating a control command value based on the future characteristics of the object estimated by the characteristic estimating means and outputting the control command value to the tracking device; ,
An object tracking system comprising:
前記追尾装置は、オブジェクトを追尾して撮像可能な追尾用撮像装置であり、
前記制御指令演算手段は、該追尾用撮像装置の撮像方向及びズームの少なくとも一方を制御するための制御指令値を演算することを特徴とするオブジェクト追跡システム。 The object tracking system according to claim 8, comprising:
The tracking device is a tracking imaging device capable of tracking and imaging an object,
The object tracking system, wherein the control command calculation means calculates a control command value for controlling at least one of an imaging direction and zoom of the tracking imaging device.
静止画データ中からオブジェクトを探索する探索ステップと、
該探索ステップにより1つ以上のオブジェクトを検出できた場合に、他の静止画データ中における該1つ以上のオブジェクトを追跡する追跡ステップと、
を含み、
前記追跡ステップは、追跡対象の静止画データより後の時刻における1以上の静止画データ中から既に検出されたオブジェクトの特性に基づいて、該追跡対象の静止画データ中からオブジェクトを追跡することを繰り返すことにより、静止画データ列の時間軸を遡る方向にオブジェクトを追跡することを特徴とする画像処理方法。 An image processing method for performing processing for tracking an object from moving image data composed of still image data sequences each of which is data at different times,
A search step for searching for an object from still image data;
A tracking step of tracking the one or more objects in other still image data if the searching step detects one or more objects;
Including
The tracking step includes tracking an object from the still image data to be tracked based on the characteristics of the object already detected from one or more still image data at a time later than the still image data to be tracked. An image processing method characterized in that an object is traced in a direction going back on a time axis of a still image data sequence by repeating.
静止画データ中からオブジェクトを探索する探索処理と、
該探索処理により1つ以上のオブジェクトを検出できた場合に、他の静止画データ中における該1つ以上のオブジェクトを追跡する追跡処理と、
をコンピュータに実行させ、
前記追跡処理は、追跡対象の静止画データより後の時刻における1以上の静止画データ中から既に検出されたオブジェクトの特性に基づいて、該追跡対象の静止画データ中からオブジェクトを追跡する処理を行うことにより、静止画データ列の時間軸を遡る方向にオブジェクトを追跡する処理を行うことを特徴とする画像処理プログラム。
An image processing program for causing a computer to execute processing for tracking an object from moving image data composed of still image data sequences each of which is data at different times,
Search processing for searching for objects from still image data,
A tracking process for tracking the one or more objects in other still image data when one or more objects can be detected by the search process;
To the computer,
The tracking process is a process of tracking an object from the still image data to be tracked based on the characteristics of the object already detected from one or more still image data at a time later than the still image data to be tracked. An image processing program that performs processing for tracking an object in a direction that goes back in the time axis of a still image data sequence.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003330635A JP2005099953A (en) | 2003-09-22 | 2003-09-22 | Image processor, object tracing system therewith, image processing method and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003330635A JP2005099953A (en) | 2003-09-22 | 2003-09-22 | Image processor, object tracing system therewith, image processing method and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005099953A true JP2005099953A (en) | 2005-04-14 |
Family
ID=34459532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003330635A Pending JP2005099953A (en) | 2003-09-22 | 2003-09-22 | Image processor, object tracing system therewith, image processing method and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005099953A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007072520A (en) * | 2005-09-02 | 2007-03-22 | Sony Corp | Video processor |
JP2008077536A (en) * | 2006-09-25 | 2008-04-03 | Sony Corp | Image processing apparatus and method, and program |
JP2009505247A (en) * | 2005-08-17 | 2009-02-05 | シーリアル、テクノロジーズ、ゲーエムベーハー | Methods and circuit arrangements for tracking and real-time detection of multiple observer eyes |
JP2009064123A (en) * | 2007-09-05 | 2009-03-26 | Casio Comput Co Ltd | Image processor, imaging device, image processing method and program |
JP2009122786A (en) * | 2007-11-13 | 2009-06-04 | Mazda Motor Corp | Vehicle driving support apparatus |
JP2009294983A (en) * | 2008-06-06 | 2009-12-17 | Sony Corp | Tracking point detection device and method, program, and recording medium |
WO2010064405A1 (en) * | 2008-12-05 | 2010-06-10 | パナソニック株式会社 | Face detection device |
JP2011233133A (en) * | 2010-04-09 | 2011-11-17 | Miyake Inc | Shoplifting preventing system |
JP2019017491A (en) * | 2017-07-12 | 2019-02-07 | 国立大学法人静岡大学 | Image feature tracking method, visual line tracking method, and fixation point tracking method |
CN112396631A (en) * | 2019-08-16 | 2021-02-23 | 纬创资通股份有限公司 | Object tracking method and computer system thereof |
CN113785298A (en) * | 2019-05-03 | 2021-12-10 | 丰田汽车欧洲股份有限公司 | Image acquisition device for tracking an object |
-
2003
- 2003-09-22 JP JP2003330635A patent/JP2005099953A/en active Pending
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009505247A (en) * | 2005-08-17 | 2009-02-05 | シーリアル、テクノロジーズ、ゲーエムベーハー | Methods and circuit arrangements for tracking and real-time detection of multiple observer eyes |
KR101278430B1 (en) * | 2005-08-17 | 2013-06-24 | 씨리얼 테크놀로지스 게엠베하 | Method and circuit arrangement for recognising and tracking eyes of several observers in real time |
JP2007072520A (en) * | 2005-09-02 | 2007-03-22 | Sony Corp | Video processor |
US8103062B2 (en) | 2005-09-02 | 2012-01-24 | Sony Corporation | Video processing apparatus |
JP2008077536A (en) * | 2006-09-25 | 2008-04-03 | Sony Corp | Image processing apparatus and method, and program |
JP4697106B2 (en) * | 2006-09-25 | 2011-06-08 | ソニー株式会社 | Image processing apparatus and method, and program |
JP2009064123A (en) * | 2007-09-05 | 2009-03-26 | Casio Comput Co Ltd | Image processor, imaging device, image processing method and program |
JP2009122786A (en) * | 2007-11-13 | 2009-06-04 | Mazda Motor Corp | Vehicle driving support apparatus |
JP2009294983A (en) * | 2008-06-06 | 2009-12-17 | Sony Corp | Tracking point detection device and method, program, and recording medium |
JP4507129B2 (en) * | 2008-06-06 | 2010-07-21 | ソニー株式会社 | Tracking point detection apparatus and method, program, and recording medium |
WO2010064405A1 (en) * | 2008-12-05 | 2010-06-10 | パナソニック株式会社 | Face detection device |
CN102150181A (en) * | 2008-12-05 | 2011-08-10 | 松下电器产业株式会社 | Face detection device |
US8223218B2 (en) | 2008-12-05 | 2012-07-17 | Panasonic Corporation | Face detection apparatus |
JP5523343B2 (en) * | 2008-12-05 | 2014-06-18 | パナソニック株式会社 | Face detection device |
JP2011233133A (en) * | 2010-04-09 | 2011-11-17 | Miyake Inc | Shoplifting preventing system |
JP2019017491A (en) * | 2017-07-12 | 2019-02-07 | 国立大学法人静岡大学 | Image feature tracking method, visual line tracking method, and fixation point tracking method |
JP7116978B2 (en) | 2017-07-12 | 2022-08-12 | 国立大学法人静岡大学 | Image Feature Tracking Method, Eye Tracking Method, and Gaze Tracking Method |
CN113785298A (en) * | 2019-05-03 | 2021-12-10 | 丰田汽车欧洲股份有限公司 | Image acquisition device for tracking an object |
CN112396631A (en) * | 2019-08-16 | 2021-02-23 | 纬创资通股份有限公司 | Object tracking method and computer system thereof |
CN112396631B (en) * | 2019-08-16 | 2023-08-25 | 纬创资通股份有限公司 | Object tracking method and computer system thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6030617B2 (en) | Image processing apparatus and image processing method | |
US10559062B2 (en) | Method for automatic facial impression transformation, recording medium and device for performing the method | |
JP5520463B2 (en) | Image processing apparatus, object tracking apparatus, and image processing method | |
EP1952355B1 (en) | Robust online face tracking | |
JP5213486B2 (en) | Object tracking device and object tracking method | |
WO2019023921A1 (en) | Gesture recognition method, apparatus, and device | |
EP3716159A1 (en) | Multi-modal emotion recognition device, method and storage medium using artificial intelligence | |
US8004528B2 (en) | Method, systems and computer product for deriving three-dimensional information progressively from a streaming video sequence | |
JP2015520470A (en) | Face recognition self-learning using depth-based tracking for database creation and update | |
EP3477593B1 (en) | Hand detection and tracking method and device | |
JP2009087090A (en) | Object tracking device and object tracing method | |
US20130156278A1 (en) | Optical flow accelerator for motion recognition and method thereof | |
WO2016058303A1 (en) | Application control method and apparatus and electronic device | |
JP2005099953A (en) | Image processor, object tracing system therewith, image processing method and image processing program | |
JP5247569B2 (en) | Person tracking device, person tracking method and program | |
JP6075888B2 (en) | Image processing method, robot control method | |
WO2023026134A1 (en) | Preserving geometry details in a sequence of tracked meshes | |
JP2012203439A (en) | Information processing device, information processing method, recording medium, and program | |
CN111583305B (en) | Neural network training and motion trajectory determination method, device, equipment and medium | |
JP2010152557A (en) | Image processor and image processing method | |
KR102126370B1 (en) | Apparatus and method for analyzing motion | |
JP2000322581A (en) | Moving object detecting method | |
JP2016081252A (en) | Image processor and image processing method | |
JP6602089B2 (en) | Image processing apparatus and control method thereof | |
CN107045724B (en) | Markov judgment method for object moving direction under low resolution |