JPWO2012127618A1 - 動体検出装置、動体検出方法、動体検出プログラム、動体追跡装置、動体追跡方法及び動体追跡プログラム - Google Patents

動体検出装置、動体検出方法、動体検出プログラム、動体追跡装置、動体追跡方法及び動体追跡プログラム Download PDF

Info

Publication number
JPWO2012127618A1
JPWO2012127618A1 JP2011522330A JP2011522330A JPWO2012127618A1 JP WO2012127618 A1 JPWO2012127618 A1 JP WO2012127618A1 JP 2011522330 A JP2011522330 A JP 2011522330A JP 2011522330 A JP2011522330 A JP 2011522330A JP WO2012127618 A1 JPWO2012127618 A1 JP WO2012127618A1
Authority
JP
Japan
Prior art keywords
color
moving object
tracking
evaluation score
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011522330A
Other languages
English (en)
Other versions
JP4855556B1 (ja
Inventor
省吾 澤井
省吾 澤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Morpho Inc
Original Assignee
Morpho Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Morpho Inc filed Critical Morpho Inc
Application granted granted Critical
Publication of JP4855556B1 publication Critical patent/JP4855556B1/ja
Publication of JPWO2012127618A1 publication Critical patent/JPWO2012127618A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

画像を用いて動体を検出する動体検出装置1であって、画像フレーム間の画素の動き度を取得する動き度取得部11と、前記画像フレームに含まれる画素の色を取得する色取得部13と、前記色取得部により取得された色ごとに、前記動き度に基づいて色の動き度合いを示す評価スコアを算出する評価スコア算出部14と、色ごとの前記評価スコアに基づいて前記動体を検出する動体検出部15と、を備えて構成される。

Description

本発明は、動体検出装置、動体検出方法及び動体検出プログラム、並びに、動体追跡装置、動体追跡方法及び動体追跡プログラムに関するものである。
従来、画像を用いて動体を検出する装置、又は画像を用いて動体を追跡する装置が知られている(例えば、特許文献1,2参照)。特許文献1記載の装置は、画像フレームを複数の小ブロックに分割し、小ブロックごとの動きベクトルの積算値の最小値を背景動きベクトルと定義し、元の画像フレームから減算することで背景を分離し、動体を検出するものである。特許文献2記載の装置は、動体の色を種類ごとに予め設定し、画像の対象エリア内において動体の色の含有率及び分散を求め、含有率及び分散が所定条件を満たす場合には設定した色に対応する種類の動体が存在すると判定する。また、特許文献2記載の装置は、背景の色の分布を予め推定し、背景の色との差から異色画像群を検出し、この異色画像群を用いて移動体の場所特定を行う。
特開2003−319387号公報 特開2007−213264号公報
しかしながら、特許文献1記載の装置にあっては、背景が乱雑に動く場合には背景の動きと動体の動きとを区別することが困難となる。このため、動体の検出が不安定となるおそれがある。また、特許文献2記載の装置にあっては、動体の色を予め特定し、背景の色の分布を予め推定する必要があるため、照明変化や服装変化等の環境変化が発生すると、動体を検出することができないおそれがある。
そこで、本発明はこのような技術課題を解決するためになされたものであって、事前に動体又は背景に関する情報を設定することなく安定して動体を検出することができる動体検出装置、動体検出方法及び動体検出プログラム並びに動体追跡装置、動体追跡方法及び動体追跡プログラムを提供することを目的とする。
すなわち、本発明に係る動体検出装置は、画像を用いて動体を検出する動体検出装置であって、画像フレーム間の画素の動き度を取得する動き度取得部と、前記画像フレームに含まれる画素の色を取得する色取得部と、前記色取得部により取得された色ごとに、前記動き度に基づいて色の動き度合いを示す評価スコアを算出する評価スコア算出部と、色ごとの前記評価スコアに基づいて前記動体を検出する動体検出部と、を備えて構成される。
本発明に係る動体検出装置では、動き度取得部により、画像フレーム間の画素の動き度が取得され、色取得部により、画像フレームに含まれる画素の色が取得され、評価スコア算出部により、動き度に基づいて色の動き度合いを示す評価スコアが色ごとに算出され、動体検出部により、色ごとの評価スコアに基づいて動体が検出される。このように、色の動き度合いを評価することによって動体が検出される。このため、事前に動体又は背景に関する情報を設定することなく動体を検出することができる。また、動きベクトルを用いて動体と背景とを分離することなく動体を検出することが可能となるので、安定して動体を検出することができる。
ここで、前記評価スコア算出部は、色ごとに、前記画像フレーム内の画素数及び当該画素の動き度を累積し、前記画像フレーム内の累積画素数及び累積動き度に基づいて当該色の前記評価スコアを算出してもよい。このように構成することで、色ごとの評価スコアの精度を向上させることができる。
また、前記評価スコア算出部は、色ごとに画素の位置情報を累積し、前記動体検出部は、色ごとの前記累積画素数及び累積位置情報に基づいて、前記動体の位置を特定してもよい。このように構成することで、動体の位置の精度を向上させることができる。
また、本発明に係る動体検出方法は、画像を用いて動体を検出する動体検出方法であって、第1画像フレームと前記第1画像フレームより後に入力する第2画像フレームとの間の画素の動き度、及び、前記第2画像フレームに含まれる画素の色を取得する取得ステップと、前記取得ステップにより取得された色ごとに、前記動き度に基づいて色の動き度合いを示す評価スコアを算出する評価スコア算出ステップと、色ごとの前記評価スコアに基づいて前記第2画像フレーム内に描画された前記動体を検出する動体検出ステップと、を備えることを特徴して構成される。
本発明に係る動体検出方法によれば、上述した本発明の動体検出装置と同様の効果を奏する。
また、本発明に係る動体検出プログラムは、コンピュータを、画像を用いて動体を検出するように機能させる動体検出プログラムであって、画像フレーム間の画素の動き度を取得する動き度取得部、前記画像フレームに含まれる画素の色を取得する色取得部、前記色取得部により取得された色ごとに、前記動き度に基づいて色の動き度合いを示す評価スコアを算出する評価スコア算出部、及び、色ごとの前記評価スコアに基づいて前記動体を検出する動体検出部として機能させることを特徴として構成される。
本発明に係る動体検出プログラムによれば、上述した本発明の動体検出装置と同様の効果を奏する。
また、本発明に係る動体追跡装置は、画像を用いて動体を追跡する動体追跡装置であって、画像フレーム間の画素の動き度を取得する動き度取得部と、前記画像フレームに含まれる画素の色を取得する色取得部と、前記色取得部により取得された色ごとに、前記動き度に基づいて色の動き度合いを示す評価スコアを算出する評価スコア算出部と、画素の色及び色ごとの評価スコアに基づいて、前記評価スコアを画素値とした第1尤度画像を生成して前記動体を検出する動体検出部と、検出された前記動体を追跡する動体追跡部と、を備えて構成される。
本発明に係る動体追跡装置では、動き度取得部により、画像フレーム間の画素の動き度が取得され、色取得部により、画像フレームに含まれる画素の色が取得され、評価スコア算出部により、動き度に基づいて色の動き度合いを示す評価スコアが色ごとに算出され、動体検出部により、画素の色及び色ごとの評価スコアに基づいて、評価スコアを画素値とした第1尤度画像が生成されて動体が検出され、動体追跡部により、検出された前記動体が追跡される。このように、色の動き度合いを評価することによって動体が検出される。そして、検出された動体の色に基づいて動体が追跡される。このため、事前に動体又は背景に関する情報を設定することなく動体を追跡することができる。また、動きベクトルを用いて動体と背景とを分離することなく動体を追跡することが可能となるので、安定して動体を追跡することができる。
ここで、前記動き度取得部は、前記画像フレームを所定のブロックに分割し、ブロック単位の動きに基づいて前記画像フレーム全体の動きを算出し、前記画像フレームに含まれる画素の動きから前記画像フレーム全体の動きを差し引いて動き度を算出する。このように構成することで、全体の動きとの差分から、局所的な動きを取得することができる。
また、前記動体追跡部は、前記動体検出部により検出された前記動体の色に基づいて前記動体を追跡してもよい。このように構成することで、検出された動体の色を基準に追跡することができる。
また、前記動体追跡部は、前記評価スコアに基づいて前記動体の代表色を特定し、特定された代表色に基づいて前記動体を追跡してもよい。この場合、前記動体追跡部は、前記動体の代表色との色の類似度に基づいて色ごとに尤度を算出し、画素の尤度を画素値とする第2尤度画像を作成して前記動体を追跡してもよい。このように第2尤度画像を用いることで、動体の代表色と同一又は類似する色と他の色とをより精度よく区別することができる。
また、前記評価スコア算出部は、色ごとに、動き度が所定値以上である画素数を累積した前景画素数、及び、動き度が所定値以上でない画素数を累積した背景画素数を算出し、前記動体追跡部は、前記前景画素数が前記背景画素数より小さい色については尤度を小さくしてもよい。このように構成することで、動体の色に近い色で動きの少ない背景等を動体として追跡することを回避することができる。
また、前記動体追跡部は、前回の動体の位置を基準とした画素の相対位置ベクトルと画素の動きベクトルとの内積が負となる場合には当該画素における尤度を小さくしてもよい。このように構成することで、動体の色に近い色で動きの異なる背景等を動体として追跡することを回避することができる。
また、前記動体追跡部は、前記第2尤度画像より小さい領域を追跡矩形とし、前記第2尤度画像の前記追跡矩形内における画素値の分布の重心が、前記追跡矩形の中心となるように移動させることで前記動体を追跡してもよい。このように構成することで、簡易な構成で動体を適切に追跡することができる。
また、前記動体追跡部は、前回入力された前記画像フレームの前記第2尤度画像及び前記追跡矩形に基づいて作成された背景尤度画像と、前記画像フレームの前記第2尤度画像との差分画像を用いて前記動体を追跡してもよい。このように構成することで、動体の色に近い色の背景等を動体として追跡することを回避することができる。
また、本発明に係る動体追跡方法は、画像を用いて動体を追跡する動体追跡方法であって、画像フレーム間の画素の動き度、及び、前記画像フレームに含まれる画素の色を取得する取得ステップと、前記取得ステップにより取得された色ごとに、前記動き度に基づいて色の動き度合いを示す評価スコアを算出する評価スコア算出ステップと、画素の色及び色ごとの評価スコアに基づいて、前記評価スコアを画素値とした第1尤度画像を生成して前記動体を検出する動体検出ステップと、検出された前記動体を追跡する動体追跡ステップと、を備えて構成される。
本発明に係る動体追跡方法によれば、上述した本発明の動体追跡装置と同様の効果を奏する。
また、本発明に係る動体追跡プログラムは、コンピュータを、画像を用いて動体を追跡するように機能させる動体追跡プログラムであって、画像フレーム間の画素の動き度を取得する動き度取得部、前記画像フレームに含まれる画素の色を取得する色取得部、前記色取得部により取得された色ごとに、前記動き度に基づいて色の動き度合いを示す評価スコアを算出する評価スコア算出部、画素の色及び色ごとの評価スコアに基づいて、前記評価スコアを画素値とした第1尤度画像を生成して前記動体を検出する動体検出部、検出された前記動体を追跡する動体追跡部、として機能させることを特徴として構成される。
本発明に係る動体追跡プログラムによれば、上述した本発明の動体追跡装置と同様の効果を奏する。
本発明によれば、事前に動体又は背景に関する情報を設定することなく安定して動体を検出することができる。
第1実施形態に係る動体検出装置を搭載した機器の機能ブロック図である。 図1に示す機器のハードウェア構成図である。 図1に示す動体検出装置の全体動作を説明するフローチャートである。 図1に示す動体検出装置の検出領域設定動作を説明するフローチャートである。 検出領域の一例を説明する概要図である。 図1に示す動体検出装置の手検出動作を説明するフローチャートである。 図1に示す動体検出装置の手検出動作を説明するフローチャートである。 検出領域のピクセルにおける色IDに対する度数を示すヒストグラムの一例である。(A)は累積出現数、(B)は累積位置情報(x座標)、(C)は累積位置情報(y座標)、(D)は累積動き量(x方向)、(E)は累積動き量(y方向)である。 (A)は、今回の画像フレームにおける色IDに対する評価スコアを示すヒストグラムの一例である。(B)は、色IDに対する累積評価スコアを示すヒストグラムである。 評価スコアを説明する概要図である。 第2実施形態に係る動体検出装置を搭載した機器の機能ブロック図である。 図11に示す動体検出装置の動体検出動作を説明するフローチャートである。 動き度取得処理を説明する概要図である。 第1尤度画像を説明する概要図である。 動体検出領域を説明する概要図である。 第3実施形態に係る動体追跡装置を搭載した機器の機能ブロック図である。 図16に示す動体追跡装置の全体動作を説明するフローチャートである。 図16に示す動体追跡装置の初期化動作を説明するフローチャートである。 色ID対する度数を示す追跡用の尤度ヒストグラムの一例である。(A)は色類似の尤度、(B)は検出時の評価スコア、(C)は前景度及び背景度、(D)は最終的な尤度を示す。 図16に示す動体追跡装置の尤度計算動作を説明するフローチャートである。 動体追跡中における、オプティカルフローを用いた尤度計算を説明する概要図である。 第2尤度画像の一例である。 図16に示す動体追跡装置の追跡動作を説明するフローチャートである。 追跡動作を説明する概要図である。 図16に示す動体追跡装置の背景尤度算出動作を説明するフローチャートである。 背景尤度算出動作を説明する概要図である。(A)は前回画像フレームの第2尤度画像、(B)は背景尤度画像、(C)は今回画像フレームの第2尤度画像、(D)は背景を考慮した尤度画像である。
以下、添付図面を参照して本発明の実施形態について説明する。なお、各図において同一又は相当部分には同一の符号を付し、重複する説明を省略する。
(第1実施形態)
本実施形態に係る動体検出装置は、画像を用いて動体を検出する装置である。本実施形態に係る動体検出装置は、例えば、手の動きを認識するジェスチャー認識装置又は侵入者を検出する監視カメラ等、動くものを検出する装置に好適に採用されるものである。なお、以下では、説明理解の容易性を考慮し、本発明に係る動体検出装置の一例として、動く手を検出する手検出装置を説明する。
図1は、本実施形態に係る手検出装置(動体検出装置)1を備える装置2の機能ブロック図である。図1に示す装置2は、例えばデジタルカメラ、携帯端末、ゲーム端末又はテレビ等の家庭用電化製品であり、図2に示すハードウェア構成を有する。図2は、装置2のハードウェア構成図である。図2に示すように、装置2は、物理的には、CPU(Central Processing Unit)100、ROM(Read Only Memory)101及びRAM(Random Access Memory)102等の主記憶装置、カメラ又はキーボード等の入力デバイス103、ディスプレイ等の出力デバイス104、ハードディスク等の補助記憶装置105などを含む通常のコンピュータシステムとして構成される。後述する装置2及び手検出装置1の各機能は、CPU100、ROM101、RAM102等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU100の制御の元で入力デバイス103及び出力デバイス104を動作させるとともに、主記憶装置や補助記憶装置105におけるデータの読み出し及び書き込みを行うことで実現される。なお、上記の説明は装置2のハードウェア構成として説明したが、手検出装置1がCPU100、ROM101及びRAM102等の主記憶装置、入力デバイス103、出力デバイス104、補助記憶装置105などを含む通常のコンピュータシステムとして構成されてもよい。また、装置2は、通信モジュール等を備えてもよい。
図1に示すように、装置2は、カメラ20、手検出装置1、顔検出部21及び表示部22を備えている。カメラ20は、画像又は動画を撮像する機能を有している。カメラ20として、例えば撮像素子等が用いられる。カメラ20は、撮像した複数の画像又は動画を画像フレームとして手検出装置1へ出力する機能を有している。
手検出装置1は、画像入力部10、動き度取得部11、検出領域設定部12、色取得部13、評価スコア算出部14及び手検出部(動体検出部)15を備えている。
画像入力部10は、カメラ20に接続されている。画像入力部10は、例えばカメラ20により撮像された複数の画像又は動画を画像フレームとして入力する機能を有している。画像入力部10は、入力された画像フレームを装置2に備わる記憶領域に保存する機能を有している。
動き度取得部11は、画像入力部10により入力され保存された画像フレームを参照可能に構成されている。そして、動き度取得部11は、画像フレーム間における画素(ピクセル)の動き度を画素ごとに取得する機能を有している。例えば、動き度取得部11は、オプティカルフロー等の従来技術を用いて画素ごとに動き量を取得し、動き度とする。あるいは、動き度取得部11は、フレーム間の画素の差分を取得し、動き度としてもよい。動き度取得部11は、画素の動き度を評価スコア算出部14へ出力する機能を有している。
顔検出部21は、画像入力部10により入力され保存された画像フレームを参照可能に構成されている。そして、顔検出部21は、人の顔位置を検出する機能を有している。顔検出部21は、例えば、Haar−Like特徴を用いた識別器やパターンマッチング等を利用して顔の位置情報を検出する。顔検出部21は、顔の位置情報を検出領域設定部12へ出力する機能を有している。
検出領域設定部12は、画像入力部10により入力され保存された画像フレームを参照可能に構成されている。そして、検出領域設定部12は、顔検出部21の検出結果を用いて、手を検出する対象領域である検出領域を設定する機能を有している。すなわち、検出領域設定部12は、顔の位置情報を利用して検出領域を設定する。例えば、検出領域設定部12は、顔の左右に隣接する所定の大きさの領域を手の検出領域として設定する機能を有している。そして、検出領域設定部12は、設定された検出領域を色取得部13へ出力する機能を有している。
色取得部13は、画像フレームに含まれる画素の色を取得する機能を有している。例えば、色取得部13は、検出領域設定部12により設定された検出領域に含まれる画素の色を画素それぞれの位置情報(座標)と対応づけて取得する機能を有している。なお、色取得部13は、後述する処理を考慮して、取得した画素値を一意の色IDに変換する機能を有している。例えば、色取得部13は、画素値がYUV色空間で表現されており、Y、U及びVの成分値がそれぞれ0〜255(8ビット)の範囲である場合において、取得した画素値に対応する一次元の色IDを出力する。ここで、色取得部13は、必要に応じて画素値と色IDとの対応関係を適宜変更してもよい。例えば、YUV成分(それぞれ8ビット)の下位4ビットを削除して変換を行い、0〜4095の12ビットにする。そして、色取得部13は、画素それぞれの色IDを評価スコア算出部14へ出力する機能を有している。
評価スコア算出部14は、色取得部13により取得された色IDごとに、動き度に基づいて評価スコアを算出する機能を有している。ここで、評価スコアとは、動体(ここでは手)の色であるか否かを評価するための指標である。例えば、評価スコア算出部14は、動き度取得部11により取得された画素の動き度を当該画素のスコアとする。そして、評価スコア算出部14は、スコア及び色取得部13により取得された画素の色IDに基づいて、色IDごとにスコア及び表示頻度(画素数)を累積する。そして、評価スコア算出部14は、累積スコア及び累積画素数に基づいて評価スコアを算出する。例えば、累積スコアを累積画素数で除算することにより、当該色IDでの評価スコアが算出される。すなわち、評価スコアとは、色の動き度合いを示すものであるともいえる。さらに、評価スコア算出部14は、手の位置を取得するために、色IDごとに画素の位置情報(例えばx座標及びy座標)を累積する機能を有している。そして、評価スコア算出部14は、算出された色IDごとの評価スコア及び累積位置情報を手検出部15へ出力する機能を有している。
手検出部15は、評価スコア算出部14により出力された色IDごとの評価スコアに基づいて、動く手を検出する機能を有している。上述のとおり、評価スコアは色の動き度合いを示すものであるので、手検出部15は、画像の中で評価スコアが他の部分に比べて高い部分が物体であると検出する。そして、手検出部15は、特定された色IDについて、評価スコア算出部14により出力された累積位置情報及び累積画素数に基づいて、手の位置を特定する。例えば、手検出部15は、累積位置情報を累積画素数で除算することにより手の中心位置を推定する。そして、手検出部15は、検出された手に関する情報を表示部22へ出力して表示させる機能を有している。
また、手検出部15は、例えば、色IDごとの評価スコアに基づいて手の色を特定する機能を有していてもよい。手検出部15は、例えば、評価スコアが大きいほど代表色である可能性が高いとして代表色を選定する。例えば、評価スコアが最大となる色IDを手の色(代表色)であると特定する。なお、評価スコアの最大値を含む範囲の色IDを複数選択して手の色として特定してもよい。
表示部22は、例えば、現在の画像フレームを表示する際に、手検出部15により検出された手を強調するように表示する機能を有している。表示部22として例えば液晶ディスプレイ等が用いられる。
次に、本実施形態に係る手検出装置1の動作について説明する。図3は、本実施形態に係る手検出装置1の動作を示すフローチャートである。図3に示す制御処理は、例えば装置2の撮像機能をONしたタイミングで実行され、所定の周期で繰り返し実行される。なお、説明理解の容易性を考慮して、図3の実行前に手検出装置1は第1画像フレームを入力して記録しているものとして説明する。また、検出される物体は手であるとして説明する。
図3に示すように、最初に画像入力部10が画像フレーム(第2画像フレーム)を入力する(S10)。S10の処理が終了すると、動き度取得処理へ移行する(S12)。S12の処理では、動き度取得部11が、オプティカルフロー等に基づいてS10の処理で取得した画像フレームの画素の動き度を取得する。S12の処理が終了すると、顔検出処理へ移行する(S14)。
S14では、顔検出部21が画像フレーム内に描画された顔の位置情報を検出する。ここで、顔検出部21は、複数の顔を検出してもよい。S14の処理が終了すると、検出領域設定処理へ移行する(S16)。
S16の処理では、検出領域設定部12が画像フレーム内に検出領域を設定する。検出領域設定部12は、検出領域に関する情報を検出領域リストに記録する。この処理の詳細は後述する。S16の処理が終了すると、検出領域選択処理へ移行する(S18)。
S18の処理では、色取得部13が、S16の処理で記録された検出領域リストを参照し、1つの検出領域を選択する処理である。S18の処理が終了すると、手検出処理へ移行する(S20)。
S20の処理では、色取得部13、評価スコア算出部14及び手検出部15が、S18の処理で選択された検出領域内の手を検出する処理である。この処理については後述する。S20の処理が終了すると、終了判定処理へ移行する(S22)。
S22の処理では、色取得部13が、検出領域リストに記録された検出領域全てに対して手検出処理を実行したか否かを判定する。S22の処理において、検出領域全てに対して手検出処理を実行していないと判定した場合には、S18の処理へ再度移行する。S18の処理では、色取得部13が検出領域リストを参照して新たな検出領域を再度選択する。このように、検出領域リストに記載された全ての検出領域で手検出処理を実行するまで、S18〜S22の処理を繰り返し実行する。一方、S22の処理において、検出領域全てに対して手検出処理を実行したと判定した場合には、表示処理へ移行する(S24)。
S24の処理では、表示部22が手の部分を矩形等で囲うようにして強調した画像フレームを表示する。なお、S20の処理で手を検出できていない場合には、表示部22は、通常の画像フレームを表示する。S24の処理が終了すると、図3に示す制御処理を終了する。
次に、図3中の各処理について詳細を説明する。最初に、図4を用いて検出領域設定処理(S16)の詳細を説明する。図4は、本実施形態に係る手検出装置1の検出領域設定動作を示すフローチャートである。なお、説明理解の容易性を考慮して、図5を参照しつつ検出領域設定動作を説明する。図5は検出領域の一例を説明する概要図である。
図4に示すように、最初に、検出領域設定部12が、S14の処理で検出された顔の中から一つの顔を選択する(S30)。例えば、図5に示すようにS14の処理において画像フレームF内に複数の顔K,Kが検出されているものとする。この場合、検出領域設定部12は、例えば顔Kを選択する。S30の処理が終了すると、顔判定処理へ移行する(S32)。
S32の処理では、検出領域設定部12が、S30の処理で選択された顔Kが初めて選択された顔であるか否かを判定する。S32の処理において、S30の処理で選択された顔Kが初めて選択された顔であると判定した場合には、検出領域リスト追加処理へ移行する(S34)。
S34の処理では、検出領域設定部12が、S30の処理で選択された顔位置に基づいて検出領域を設定する。例えば、図5に示すように、検出領域設定部12は、顔Kの左右に隣接する所定の大きさの矩形領域を検出領域R,Rとして設定する。検出領域R,Rの位置は、顔Kの位置と大きさから相対的に決定される。検出領域設定部12は、設定された検出領域R,Rを検出領域リストに追加する。S34の処理が終了すると終了判定処理へ移行する(S36)。
一方、S32の処理において、S30の処理で選択された顔Kが初めて選択された顔でないと判定した場合には、既に過去において検出領域を設定しているため、検出領域リストへ追加することなく終了判定処理へ移行する(S36)。
S36の処理では、検出領域設定部12が、S14の処理で検出された全ての顔について検出領域の設定を実行したか否かを判定する。S36の処理において、全ての顔について検出領域の設定を実行していないと判定した場合には、S30の処理へ再度移行する。S30の処理では、検出領域設定部12が新たな顔Kを再度選択する。そして、検出領域設定部12が、S32の処理で顔判定を実行し、S32の処理で検出領域R,Rを設定する。このように、S14の処理で検出された全ての顔について検出領域の設定処理を実行するまで、S30〜S36の処理が繰り返し実行される。一方、S36の処理において、検出領域全てに対して検出領域の設定処理を実行したと判定した場合には、検出領域の選択処理へ移行する(S38)。以下のS38〜S44の処理では、検出領域リストの見直しが行われる。
S38の処理では、検出領域設定部12が、検出領域リストを参照し、検出領域を一つ選択する。S38の処理が終了すると、対応判定処理へ移行する(S40)。
S40の処理では、検出領域設定部12が、S38の処理で選択した検出領域に対応する顔が存在するか否かを判定する。S40の処理において、検出領域に対応する顔が存在しないと判定した場合には、削除処理へ移行する(S42)。
S42の処理では、検出領域設定部12が、S38の処理で選択した検出領域を検出領域リストから削除する。S42の処理が終了すると、終了判定処理へ移行する(S44)。
一方、S40の処理において、検出領域に対応する顔が存在すると判定した場合には、当該検出領域については検出領域リストから削除することなく終了判定処理へ移行する(S44)。
S44の処理では、検出領域設定部12が、全ての検出領域について見直し処理が終了したか否かを判定する。S44の処理において、全ての検出領域について見直し処理が終了していないと判定した場合には、S38の処理へ再度移行する。これにより、S38の処理では、検出領域設定部12が新たな検出領域を再度選択する。そして、検出領域設定部12が、S38の処理で対応判定処理を実行する。このように、検出領域リストの全ての検出領域について見直し処理を実行するまで、S38〜S44の処理が繰り返し実行される。一方、S44の処理において、全ての検出領域について見直し処理が終了したと判定した場合には、図4に示す制御処理を終了する。
以上で図4に示す制御処理を終了する。図4に示す制御処理を実行することにより、検出された顔の両側に検出領域が設定されるとともに、画像フレームに描画されなくなった顔に対応する検出領域を検出領域リストから削除することができる。
次に、図3中の手検出処理(S20)について詳細を説明する。図6,7は、本実施形態に係る手検出装置1の手検出動作を示すフローチャートである。なお、説明理解の容易性を考慮して、図8〜10を参照しつつ検出領域設定動作を説明する。図8は、検出領域のピクセルにおける色IDに対する度数を示すヒストグラムの一例であり、(A)は累積出現数、(B)は累積位置情報(x座標)、(C)は累積位置情報(y座標)、(D)は累積動き量(累積動き度、x方向)、(E)は累積動き量(累積動き度、y方向)である。図9の(A)は、今回の画像フレームにおける色IDに対する重みを示すヒストグラムの一例である。図9の(B)は、色IDに対する累積評価スコアを示すヒストグラムの一例である。図8,9において、各ヒストグラムの横軸は同一スケールであり、各ヒストグラムにおける色IDは共通である。図10は、色ID及び評価スコアの概念を説明する概要図である。
図6に示すように、最初に、評価スコア算出部14が検出領域内の1つの画素を選択する(S60)。例えば、検出領域内の左上の画素を選択する。S60の処理が終了すると、動き度取得処理へ移行する(S62)。
S62の処理では、動き度取得部11が、S60の処理で選択された画素の動き度を取得する。動き度取得部11は、例えば図3のS12の処理で取得したオプティカルフローに基づいて画素単位の動き量(dx,dy)を取得する。S62の処理が終了すると、階級特定処理へ移行する(S64)。
S64の処理では、色取得部13が、S60の処理で選択された画素の色(例えばYUV値)を一意の色IDへ変換する。後述するように、評価スコア算出部14は、図8の(A)〜(E)に示すように、色IDを横軸(階級)とするヒストグラムを用意して演算する。このため、色IDへ変換することで、当該色IDが属するヒストグラムの階級が特定される。S64の処理が終了すると、ヒストグラム更新処理へ移行する(S66)。
S66の処理では、評価スコア算出部14が、S64の処理で特定されたヒストグラムの階級に、当該画素の情報を累積する。評価スコア算出部14は、例えば図8の(A)に示す出現数のヒストグラムにおいて、S64の処理で特定された階級に1を加算し、累積出現数Xを更新する。また、評価スコア算出部14は、例えば図8の(B),(C)に示す位置情報(x,y)のヒストグラムにおいて、S64の処理で特定された階級に当該画素の位置情報(x,y)を加算し、累積位置情報I,Iを更新する。また、評価スコア算出部14は、例えば図8の(D),(E)に示す動き量(dx,dy)のヒストグラムにおいて、S64の処理で特定された階級に当該画素の動き量(dx,dy)を加算し、累積動き量D,Dを更新する。なお、特定された色IDのヒストグラムのみならず、隣接する色IDのヒストグラムにも結果を累積することで情報を平滑化してもよい。S66の処理が終了すると、終了判定処理へ移行する(S68)。
S68の処理では、評価スコア算出部14が、検出領域内の全ての画素を選択したか否かを判定する。S68の処理において、検出領域内の全ての画素を選択していないと判定した場合には、S60の処理へ再度移行する。S60の処理では、評価スコア算出部14が検出領域内の他の画素を1つ選択する。例えば、検出領域内の左上の画素から右へ1つシフトした位置の画素を選択する。このように、検出領域内の全ての画素を選択するまで、S60〜S68の処理を繰り返し実行する。一方、S68の処理において、検出領域内の全ての画素を選択したと判定した場合には、階級選択処理へ移行する(S70)。
S70の処理では、評価スコア算出部14が、現在の画像フレームに対応するヒストグラムから一つの階級を選択する。例えば、図8に示すヒストグラムの階級の中から一つの階級を選択する。S70の処理が終了すると、重み決定処理へ移行する(S72)。
S72の処理では、評価スコア算出部14が、S70の処理で選択された階級の重みを算出する。例えば、評価スコア算出部14は、S66の処理で算出された累積動き量D,Dの絶対値平均値を算出し、S70の処理で選択された階級の評価スコア(重み)とする。すなわち、ある色IDにおける重みwを以下の式1で算出する。
なお、式1を用いて算出された重みwのヒストグラムを図9の(A)に示す。S72の処理が終了すると、累積用ヒストグラム更新処理へ移行する(S74)。
S74の処理では、評価スコア算出部14が、S72の処理で算出された重みwに基づいて累積用のヒストグラムを更新する。ここで、累積用のヒストグラムは色IDに対応する評価スコアを示すグラフであり、前回までの計算値が格納されているものとする(初期値は全て0)。例えば、評価スコア算出部14は、重みwと累積用のヒストグラムとの移動平均を算出することにより累積用のヒストグラムを更新する。例えば、ある色IDにおける累積用のヒストグラムの評価スコアをHとし、時定数をtとすると、評価スコア算出部14は以下の式2を用いて算出する。
なお、式2を用いて更新した累積用のヒストグラムを図9の(B)に示す。S74の処理が終了すると、中心位置特定処理へ移行する(S76)。
S76の処理では、評価スコア算出部14が、色の中心位置を推定する。評価スコア算出部1が、S66の処理で算出された累積位置情報I,Iに基づいて、当該色の中心位置(C,C)を推定する。例えば、以下の式3を用いて算出する。
S76の処理が終了すると、終了判定処理へ移行する(S78)。
S78の処理では、評価スコア算出部14が、全ての階級について選択して処理を実行したか否か判定する。S78の処理において、全ての階級について選択して処理を実行していないと判定した場合には、S70の処理へ再度移行する。評価スコア算出部14は、S70の処理で他の階級を一つ選択し、S72の処理で重みを特定し、S74の処理で移動平均を用いて更新し、S76の処理で中心位置を特定する。このように、全ての階級について選択して処理を実行していないと判断した場合には、全ての階級が選択されるまでS70〜S78の処理が繰り返し実行される。このため、上記処理を繰り返すことで、図9の(A)に示す重みwが図9の(B)に示す評価スコアに反映される。一方、S78の処理において、全ての階級について処理を実行したと判定した場合には、代表色特定処理へ移行する(図7のS80)。
S80の処理では、手検出部15が、評価スコアに基づいて手を特定する。評価スコアは動いている色ほど高い値となる。手検出部15は、画像の中で評価スコアが他の部分に比べて高い部分が物体であると検出する。例えば、手検出部15は、評価スコアを輝度値とする画像を生成して高輝度部分を物体であるとして検出する。S80の処理が終了すると、色確認処理へ移行する(S82)。
S82の処理では、手検出部15が動体の代表色を特定し、特定した手の代表色が前回の画像フレームでの代表色と異なる色であるか否かを判定する。手検出部15は、例えば、図9の(B)に示す評価スコアの値が最も高い色IDを手の代表色として特定する。例えば、図10に示すように検出領域Rにおいて色ID=3450が最もスコアが高い場合には、当該色IDを現在の手の代表色であるとして認識する。S82の処理において、S80の処理で特定した手の代表色が前回の画像フレームでの代表色と異なる色でないと判定した場合には、軌跡リスト更新処理へ移行する(S86)。
S86の処理では、手検出部15が、手の軌跡リストを更新する。例えば、手検出部15は、S80の処理で取得した代表色について、S76の処理で算出した中心位置(C,C)を取得し、手の軌跡リストを更新する。S86の処理が終了すると、図6,7に示す制御処理を終了する。
一方、S82の処理において、S80の処理で特定した手の代表色が前回の画像フレームでの代表色と異なる色であると判定した場合には、軌跡リスト初期化処理へ移行する(S84)。S84の処理では、手検出部15が、軌跡リストを初期化する。S84の処理が終了すると、軌跡リスト更新処理へ移行する(S86)。
以上で図6,7に示す制御処理を終了する。図6,7に示す制御処理を実行することにより、検出領域内で他の部分よりも評価スコアの高い部分が動体であると検出される。そして、検出領域内で最も動く色が手の代表色であるとして検出され、代表色の中心位置が手の位置であるとして検出される。そして、色が大きく変化しない限り同一の手であるとして軌跡リストが生成される。このように、画素の色に着目して動く手を検出することができる。なお、S62の処理が取得ステップに該当し、S70〜S78の処理が評価スコア算出ステップに該当し、S80の処理単独又はS80及びS86の処理を合わせた処理が動体検出ステップに該当する。
次に、装置(コンピュータ)2を上記手検出装置1として機能させるための手検出プログラム(動体検出プログラム)を説明する。
手検出プログラムは、メインモジュール、入力モジュール及び演算処理モジュールを備えている。メインモジュールは、画像処理を統括的に制御する部分である。入力モジュールは、入力画像を取得するように装置2を動作させる。演算処理モジュールは、動き度取得モジュール、検出領域設定モジュール、色取得モジュール、評価スコア算出モジュール及び動体検出モジュールを備えている。メインモジュール、入力モジュール及び演算処理モジュールを実行させることにより実現される機能は、上述した手検出装置1の画像入力部10、動き度取得部11、検出領域設定部12、色取得部13、評価スコア算出部14及び手検出部15の機能とそれぞれ同様である。
手検出プログラムは、例えば、ROM等の記憶媒体または半導体メモリによって提供される。また、手検出プログラムは、データ信号としてネットワークを介して提供されてもよい。
以上、本実施形態に係る手検出装置1では、動き度取得部11により、画像フレーム間の画素の動き度が取得され、色取得部13により、画像フレームに含まれる画素の色が取得され、評価スコア算出部14により、動き度に基づいて色の動き度合いを示す評価スコアが色ごとに算出され、手検出部15により、色ごとの評価スコアに基づいて、動体である手が検出される。このように、色の動き度合いを評価することによって、動作する手が検出される。このため、事前に手又は背景に関する情報を設定することなく手を検出することができる。すなわち、背景色もしくは手の色として特定色を予め設定する必要がないので、色分布に柔軟に対応することが可能であるとともに、照明が変更されたり、場所が変更されたり、服装が変更された場合であっても、常に手の代表色を検出することができる。例えば手袋をしている手を検出することも可能である。このため、環境変化に対し手の検出を強く安定して行うことが可能となる。また、手以外に同様の色彩を持った静止物体が同じフレームに存在するとしても、同様の色彩以外で手に使用されている色を代表色とすることができるので動作する手を的確に検出することができる。また、従来の装置のように、事前に手の色を設定して手を検出する場合には、背景と手との差の色がある程度大きい必要がある。これに対して、本実施形態に係る手検出装置1では、ヒストグラムの区間(階級)が異なれば背景と手との差の色が小さい場合であっても原理上検出することが可能である。また、手と背景とを分離することなく、色情報で動作する手を検出することが可能となるので、背景分離のために閾値を設定する等の処理を不要とすることができる。また、色情報及び動き度合いによって手を検出するため、検出精度が動きの連続性や正確性に依存しない。従って、素早い動作の手も適切に検出することが可能となる。
また、本実施形態に係る手検出装置1では、評価スコア算出部14により、色IDごとに、検出領域内の画素数及び当該画素の動き度が累積され、検出領域内の累積画素数及び累積動き度に基づいて当該色IDの評価スコアが算出される。このように動き度の累積値を平均化することにより、色ごとに精度の高い評価スコアを算出することができる。
また、本実施形態に係る手検出装置1では、評価スコア算出部14により、色IDごとに画素の位置情報が累積され、手検出部15により、色IDごとの累積画素数及び累積位置情報に基づいて手の位置が特定される。このように位置情報の累積値を平均化することにより、手の位置を精度よく特定することができる。
さらに、本実施形態に係る手検出方法(動体検出方法)及び手検出プログラムによれば、上述した手検出装置1と同様の効果を奏する。
(第2実施形態)
第2実施形態に係る手検出装置(動体検出装置)3は、動体である手を検出する装置であって、第1実施形態に係る手検出装置1の一部を構成要素として含むものである。従って、手検出装置1との相違点を中心に説明し、第1実施形態と重複する説明は省略する。また、本実施形態に係る動体検出装置3は、第1実施形態と同様に動体の種類に限定されるものではない。ここでは、説明理解の容易性を考慮して、動体検出装置が、移動する動物(ウサギ)を検出する場合を例にして説明する。
図11は、第2実施形態に係る動体検出装置3を備える装置2の機能ブロック図である。図11に示す装置2は、第1実施形態で説明した内容と同様である。
図11に示すように、装置2は、カメラ20、動体検出装置3及び表示部22を備えている。カメラ20及び表示部22は、第1実施形態で説明した内容と同様である。動体検出装置3は、画像入力部10、動き度取得部11、色取得部13、評価スコア算出部14及び動体検出部(手検出部)15を備えている。画像入力部10、色取得部13及び評価スコア算出部14の機能は、第1実施形態に係る手検出装置1と同様である。動き度取得部11及び動体検出部15の一部機能は、第1実施形態に係る手検出装置1の動き度取得部11及び手検出部15と一部相違する。
動き度取得部11は、カメラ20全体の動きをキャンセルして、局所的な動きのみを抽出する機能を有している。動き度取得部11は、例えば、ブロック単位での動き検出を行いつつ、ブロック単位での動き検出の結果から全体の画像の動きを求める。そして、動き度取得部11は、ブロック単位での動き検出の結果から全体画像の動きを差し引くことで、局所的な動きを算出する。
動体検出部15は、各画素における色IDと評価スコア算出部14により出力された評価スコアとに基づいて、画像フレームに含まれる画素それぞれの色に対応した評価スコアを当該画素値とした尤度画像(第1尤度画像)を生成する機能を有している。また、動体検出部15は、生成された尤度画像に基づいて動体を検出する機能を有している。
次に、本実施形態に係る手検出装置3の動作について説明する。図12は、本実施形態に係る手検出装置3の動作を説明するフローチャートである。図12に示す制御処理は、例えば装置2の撮像機能をONしたタイミングで実行され、所定の周期で繰り返し実行される。なお、説明理解の容易性を考慮して、図12の実行前に手検出装置1は第1画像フレームを入力して記録しているものとして説明する。また、検出される物体は手であるとして説明する。
図12に示すように、最初に画像入力部10が画像フレーム(第2画像フレーム)を入力する(S200)。S200の処理が終了すると、動き度取得処理へ移行する(S202)。
S202の処理では、動き度取得部11が、第1画像フレーム及び第2画像フレームに基づいて画像フレームの画素の動き度を取得する。動き度取得部11は、カメラ20全体の動きをキャンセルして、局所的な動きのみを抽出する。上記の処理を具体的に説明すると以下の通りとなる。まず、動き度取得部11は、入力された画像フレームと前回入力された画像フレームとを、各特徴点にてブロック単位(例えば20×15分割、160×120画素領域)でマッチングする。動き度取得部11は、ブロックマッチングを行い、ブロック単位の動きを取得する。動き度取得部11は、ブロック単位の動きに基づいて、画像フレーム全体の動きを取得する。そして、動き度取得部11は、ブロック単位の動きから画像フレーム全体の動きを差し引いて、ノイズ等の外乱要素のないブロック単位の動き(局所的な動き)から動き度を取得する。例えば、図13の(a)は、ブロック単位の動きを示し、図13の(b)は、画像全体の動きを差し引いて局所的な動きを示している。S202の処理が終了すると、画像変換処理へ移行する(S204)
S204では、色取得部13が、画像フレームに含まれる画素の色を位置情報(座標)と対応づけて取得し、一意の色IDに変換する。例えば、色取得部13は、第1実施形態と同様に、YUVの値(24bit)を12bitに圧縮した色IDを算出する。S204の処理が終了すると、初期処理へ移行する(S206)。
S206では、評価スコア算出部14が画像フレームに含まれる色IDごとに評価スコアを算出するための初期処理を実行する。評価スコア算出部14は、最終的な結果を記録するための結果ヒストグラムと、累計演算するための2つの累計用ヒストグラムとを用意する。それぞれのヒストグラムの階級(横軸)は色IDである。評価スコア算出部14は、用意された3つのヒストグラムの全ての階級の値に0を代入して初期化する。また、尤度画像における動体を示す領域が全体に占める割合を一定に保つために用いるカウンターであるXoffsetを0とする。また、動体検出領域の中心位置RC,RC、幅RS、高さRSの初期値として、画像の中心位置、画像の幅及び高さを代入する。S206の処理が終了すると、累計処理へ移行する(S208)。
S208では、評価スコア算出部14が、色IDごとの画素数及び重みを累積する。評価スコア算出部14は、フレームごとに色IDを階級とする累計用ヒストグラムを2つ計算する。評価スコア算出部14は、色IDごとの頻度(同一色IDの画素数の累計)を第1の累計用ヒストグラムを用いて度数としてカウントする。また、評価スコア算出部14は、色IDごとの重みを第2の累計用ヒストグラムを用いて度数としてカウントする。ここで、重みwは、画素の動き度を反映したものであり、全体画像の動きを除いた画素自体の動き度wと、画像フレームにおける物理的な位置関係(画像フレームの中心位置(C,C)、画像フレームの幅S、高さS等に基づく位置)を基準とした動き度wとに基づいて算出される。評価スコア算出部14は、ある座標(x,y)の画素における動き度を示す重みw(x,y)を以下の式4で算出する。
評価スコア算出部14は、算出された画素の重みw(x,y)と画素の色IDとに基づいて、第2の累計用ヒストグラムを用いて色IDごとに重みw(x,y)を累積する。この処理は、画素フレームに含まれる全ての画素について実行する。S208の処理が終了すると、結果ヒストグラム更新処理へ移行する(S210)。
S210では、評価スコア算出部14が、第1の累積用ヒストグラム及び第2の累計用ヒストグラムを用いて、結果ヒストグラムを更新する。第1の累積用ヒストグラムをhist、第2の累計用ヒストグラムをwhistとすると、評価スコア算出部14は、以下の式5を用いて結果ヒストグラムahistを更新する。
ここで、idは色ID(階級の識別番号)であり整数が用いられる。また、hist[id]、whist[id]及びahist[id]は、あるidにおけるそれぞれのヒストグラムの度数である。また、τは時定数であり、ここでは一例としてτ=1/64が採用される。S210の処理が終了すると、尤度画像生成処理へ移行する(S212)。
S212では、動体検出部15が、S210の処理で取得された結果ヒストグラムahistを用いて、尤度画像を生成する。最初に、動体検出部15は、尤度画像において動体であると検出された領域(動体検出領域)が画像全体に対して占める割合を一定とするために、閾値計算を行う。まず、動体検出部15は、結果ヒストグラムの度数が大きい順に階級をソートする。次に、1位から所定の順位sまでの結果ヒストグラムの度数をオフセットXoffsetとして累積する。動体検出部15は、以下の式6を用いて最終的なオフセットSXoffsetを算出する。
τは時定数であり、ここでは一例としてτ=0.6が採用される。次に、手検出部は、以下の式7を用いて各ピクセルの画素値を算出する。
すなわち、式7を用いることで、動き度が反映された重みと表示頻度とに基づいて評価されたスコア(評価スコア)を画素値として尤度画像を生成することができる。また、オフセットSXoffsetを差し引くことで、後述する被写体位置の収束が容易となる。図14の(a)は、オフセットSXoffsetを差し引く前の尤度画像であり、図14の(b)は、オフセットSXoffsetを差し引いた後の尤度画像である。図14の(b)の方が、図14の(a)に比べて白黒の明瞭がはっきりと表示される。S212の処理が終了すると、動体位置特定処理へ移行する(S214)。
S214では、動体検出部15が、S212の処理で生成された尤度画像を用いて動体の位置を特定する。動体検出部15は、以下の動作を複数回繰り返すことにより動体を示す矩形(動体検出領域)の大きさ及び位置を更新しながら特定する。まず、動体検出部15は、画像全体に対して以下の式8を用いて重みpwを算出する。
ここで、(x,y)はピクセルの位置、zは位置(x,y)のピクセルの尤度、RC,RCは動体検出領域の中心位置、RSは動体検出領域の幅、RSは動体検出領域の高さである。
次に、動体検出部15は、求めた重みpwを用いて、尤度画像の所定ピクセルにおける重み付き0次モーメントm00、重み付き1次モーメントm10,m01、重み付き2次モーメントm20,m02を算出して全てのピクセルについて累積する。動体検出部15は、以下の式9を用いて演算する。
そして、動体検出部15は、求めたモーメントを用いて動体検出領域の中心位置RC,RC、幅RS、高さRSを更新する。動体検出部15は、以下の式10を用いて演算する。
動体検出部15は、上記処理を複数回繰り返すことにより動体位置を特定する。S214の処理が終了すると、表示処理へ移行する(S216)。
S216の処理では、表示部22が、S214で算出された動体検出領域を矩形等で表現し画像フレームに重畳させて表示する。表示例を図15に示す。図15では、白で示す矩形領域が複数回表示されてその都度大きさが縮小されて動体付近に収束する画像を示している。なお、収束するにつれて暗い色から順に明るい色にして表示している。なお、S202の処理で動体を検出できていない場合には、表示部22は、通常の画像フレームを表示する。S216の処理が終了すると、図12に示す制御処理を終了する。
以上で図12に示す制御処理を終了する。図12に示す制御処理を実行することにより、画像フレーム内で他の部分よりも評価スコアの高い部分が動体であると検出される。なお、S202の処理が取得ステップに該当し、S204〜S210の処理が評価スコア算出ステップに該当し、S212及びS214の処理が動体検出ステップに該当する。
次に、装置(コンピュータ)2を上記動体検出装置3として機能させるための動体検出プログラムを説明する。
動体検出プログラムは、メインモジュール、入力モジュール及び演算処理モジュールを備えている。メインモジュールは、画像処理を統括的に制御する部分である。入力モジュールは、入力画像を取得するように装置2を動作させる。演算処理モジュールは、動き度取得モジュール、色取得モジュール、評価スコア算出モジュール及び動体検出モジュールを備えている。メインモジュール、入力モジュール及び演算処理モジュールを実行させることにより実現される機能は、上述した手検出装置1の画像入力部10、動き度取得部11、色取得部13、評価スコア算出部14及び手検出部15の機能とそれぞれ同様である。
動体検出プログラムは、例えば、ROM等の記憶媒体または半導体メモリによって提供される。また、動体検出プログラムは、データ信号としてネットワークを介して提供されてもよい。
以上、本実施形態に係る動体検出装置3では、動き度取得部11により、画像フレーム間の画素の動き度が取得され、色取得部13により、画像フレームに含まれる画素の色が取得され、評価スコア算出部14により、動き度に基づいて色の動き度合いを示す評価スコアが色ごとに算出され、手検出部15により、色ごとの評価スコアに基づいて動体が検出される。このように、色の動き度合いを評価することによって、動体が検出される。このため、事前に動体又は背景に関する情報を設定することなく動体を検出することができる。すなわち、背景色もしくは動体の色として特定色を予め設定する必要がないので、色分布に柔軟に対応することが可能であるとともに、照明が変更されたり、場所が変更されたり、服装が変更された場合であっても、動体を検出することができる。このため、環境変化に対し動体の検出を強く安定して行うことが可能となる。また、従来の装置のように、事前に動体の色を設定して手を検出する場合には、背景と動体との差の色がある程度大きい必要がある。これに対して、本実施形態に係る動体検出装置3では、ヒストグラムの区間(階級)が異なれば背景と動体との差の色が小さい場合であっても原理上検出することが可能である。また、動体と背景とを分離することなく、色情報で動作する動体を検出することが可能となるので、背景分離のために閾値を設定する等の処理を不要とすることができる。また、色情報及び動き度合いによって動体を検出するため、検出精度が動きの連続性や正確性に依存しない。従って、素早い動作の動体も適切に検出することが可能となる。さらに、対象物がフレームから外れたとしても、注目する色情報を一定時間記憶しておけば、再度対象物がフレームに入ってきたときにその動きを追跡することができる。
また、本実施形態に係る手検出装置3では、ブロック単位の動きに基づいて画像フレーム全体の動きが算出され、画像フレームに含まれる画素の動きから画像フレーム全体の動きが差し引かれ、各画素における動き度が算出される。このように構成することで、全体の動きとの差分から、局所的な動きを取得することができる。
さらに、本実施形態に係る動体検出方法及び動体検出プログラムによれば、上述した手検出装置3と同様の効果を奏する。
(第3実施形態)
第3実施形態に係る手追跡装置(動体追跡装置)3は、動体である手を追跡する装置であって、第1実施形態に係る手検出装置1又は第2実施形態に係る動体検出装置3を構成要素として含むものである。従って、手検出装置1及び動体検出装置3との相違点を中心に説明し、第1実施形態及び第2実施形態と重複する説明は省略する。また、本実施形態に係る手追跡装置4は、第1実施形態と同様に動体の種類に限定されるものではない。ここでは、説明理解の容易性を考慮して、動体追跡装置が、動作する手を追跡する場合を例にして説明する。
図16は、第3実施形態に係る手追跡装置4を備える装置2の機能ブロック図である。図16に示す装置2は、第1実施形態で説明した内容と同様である。
図16に示すように、装置2は、カメラ20、手追跡装置4、顔検出部21及び表示部22を備えている。カメラ20、顔検出部21及び表示部22は、第1実施形態で説明した内容と同様である。手追跡装置4は、画像入力部10、動き度取得部11、検出領域設定部12、色取得部13、評価スコア算出部14、手検出部15、尤度算出部(動体追跡部)16及び手追跡部(動体追跡部)17を備えている。すなわち、手追跡装置4は、第1実施形態に係る手検出装置1に尤度算出部16及び手追跡部17を追加して構成されるものである。なお、評価スコア算出部14の一部機能は、第1実施形態に係る手検出装置1の評価スコア算出部14と一部相違する。
評価スコア算出部14は、色IDごとに動いている画素数及び動いていない画素数をカウントする機能を有している。例えば、評価スコア算出部14は、動き度が所定値以上である画素を動いている画素とし、動き度が所定値以上でない画素を動いていない画素とする。評価スコア算出部14は、例えば、動いている画素数を前景度、動いていない画素数を背景度としてカウントする。なお、評価スコア算出部14は、図6のS66の処理時においてカウントを実行する。
尤度算出部16は、手検出部15により特定された手の色との色の類似度に基づいて色IDごとに尤度を算出する機能を有している。尤度は、追跡対象色らしさを示す度合いである。類似度は、例えば対象画素の色IDが手の色IDに近づくほど大きく算出される。このため、尤度算出部16は、類似度が大きい色ほど尤度を大きく算出する。また、評価スコアが大きい色ほど動きのある色である。このため、尤度算出部16は、評価スコアが大きい色ほど尤度を大きく算出する。そして、尤度算出部16は、評価スコア算出部14の出力結果を参照し、前景画素数が背景画素数より小さい色については、背景画素である可能性が高いため、尤度を小さくする機能を有している。あるいは、尤度算出部16は、前景画素数が背景画素数より小さい色については尤度を0にしてもよい。尤度算出部16は、色IDごとの尤度を手追跡部17へ出力する機能を有している。
手追跡部17は、尤度算出部16により出力された色IDごとの尤度及び画像フレームに基づいて、画素の尤度を画素値とする尤度画像(第2尤度画像)を作成して手を追跡する機能を有している。また、手追跡部17は、前回の手の位置を基準とした画素の相対位置ベクトルと画素の動きベクトルとの内積が負となる場合には、手である可能性が極めて低いため、当該画素における尤度を小さくする機能を有している。あるいは、手追跡部17は、当該画素における尤度を0にしてもよい。さらに、手追跡部17は、尤度画像より小さい領域を追跡矩形とし、尤度画像の追跡矩形内における画素値の分布の重心が、追跡矩形の中心となるように移動させることで手を追跡する機能を有している。さらに手追跡部17は、前回入力された画像フレームの尤度画像及び追跡矩形に基づいて背景尤度画像を作成し、画像フレームの尤度画像と背景尤度画像との差分画像を用いて手を追跡する機能を有している。背景尤度画像は、背景である可能性を示す画像である。また、手追跡部17は、背景尤度画像を生成するために、ワーク用の背景尤度更新用画像を生成する機能を有している。
手追跡装置4のその他の構成は、第1実施形態に係る手検出装置1と同様に構成される。
次に、本実施形態に係る手追跡装置4の動作について説明する。図17は、本実施形態に係る手追跡装置4の動作を示すフローチャートである。図17に示す制御処理は、例えば手検出装置1の動作が終了したタイミングで実行され、所定の周期で繰り返し実行される。すなわち、処理開始時において、動体の色IDが特定されているものとする。
図17に示すように、最初に尤度算出部16が追跡初期化処理を実行する(S90)。尤度算出部16は、色IDごとに尤度を計算する。この処理については後述する。S90の処理が終了すると、画像フレーム入力処理へ移行する(S92)。
S92の処理では、画像入力部10が新たな画像フレームを入力する。S92の処理が終了すると、対象画素選択処理へ移行する(S94)。
S94の処理では、尤度算出部16が、S92の処理で入力された画像フレーム内から尤度を計算する対象となる画素を選択する。S94の処理が終了すると、画素単位の尤度計算処理へ移行する(S96)。
S96の処理では、尤度算出部16が、S94の処理で選択された画素について、尤度を算出する。この処理の詳細については後述する。S96の処理が終了すると、全画素終了判定処理へ移行する(S98)。
S98の処理では、尤度算出部16が、S92の処理で入力された画像フレーム内の全画素の尤度を算出したか否かを判定する。S98の処理において、全ての画素について尤度を算出していないと判定した場合には、S94の処理へ再度移行する。尤度算出部16は、S94の処理で新たな画素を再度選択し、S96の処理で画素単位の尤度を算出する。このように、画像フレーム内の全ての画素の尤度が算出されるまで、S94〜S98の処理を繰り返し実行する。一方、S98の処理において、画像フレーム内の全画素の尤度を算出したと判定した場合には、追跡処理へ移行する(S100)。
S100の処理では、手追跡部17が、S98の処理で算出された画素の尤度に基づいて尤度画像を生成し、尤度画像に基づいて動く手を検出する。この処理については後述する。S100の処理が終了すると、背景尤度算出処理へ移行する(S102)
S102の処理では、手追跡部17が、S100の処理で算出された尤度画像に基づいて背景らしさを示す背景尤度を算出する。この処理については後述する。S102の処理が終了すると、軌跡記録処理へ移行する(S104)。
S104の処理では、手追跡部17が、S100の処理での追跡結果を軌跡として記録する処理である。S104の処理が終了すると、表示処理へ移行する(S106)。
S106の処理では、表示部22が手の軌跡を画像フレームに重畳させて表示する。S106の処理が終了すると終了判定処理へ移行する(S108)。
S108の処理では、手追跡部17が画像フレームの入力を終了したか否かを判定する。S108の処理において、新たな画像フレームの入力があると判定した場合には、S92の処理へ移行する。これにより、画像フレームの入力が終了するまで、S92〜S108の処理を繰り返し実行する。一方、S108の処理において、新たな画像フレームの入力がないと判定した場合には、図17に示す制御処理を終了する。
以上で、図17に示す制御処理を終了する。図17に示すように、本実施形態に係る手追跡装置4は、第1実施形態に係る手検出装置1によって検出された手の色を基準として、入力画像フレームに描画された手を追跡する。なお、S96の処理が尤度算出ステップに該当し、S100の処理が動体追跡ステップに該当する。
次に、図17中の各処理について詳細を説明する。最初に、図18を用いて追跡初期化処理(S90)の詳細を説明する。図18は、本実施形態に係る手追跡装置4の追跡初期化動作を示すフローチャートである。なお、説明理解の容易性を考慮して、図19を参照しつつ追跡初期化動作を説明する。図19は色IDに対する度数を示す追跡用の尤度ヒストグラムの一例であり、(A)は色類似の尤度、(B)は検出時の評価スコア、(C)は前景度及び背景度、(D)は最終的な尤度を示す。
図18に示すように、最初に、尤度算出部16が、背景尤度画像を0で初期化する(S110)。背景尤度画像は、後述する追跡処理で用いられる画像である。S110の処理が終了すると、階級選択処理へ移行する(S112)。
S112の処理では、尤度算出部16が色IDのヒストグラムから一つの階級を選択する。この処理の詳細を、図19を用いて説明する。図19では、第1実施形態の手検出装置1が用いたヒストグラムと同様に、横軸が色IDのヒストグラムである。なお、ここでは一例として、色IDを10個(すなわち10個の階級)としている。尤度算出部16は、10個の色IDから一つの色IDを選択する。S112の処理が終了すると、背景可能性判定処理へ移行する(S114)。
S114の処理では、尤度算出部16が、評価スコア算出部14によってカウントされた前景度及び背景度を参照し、S112の処理で選択された色IDの前景度が背景度よりも大きいか否かを判定する。例えば、手検出時において、評価スコア算出部14が図19の(C)に示すように前景度及び背景度をカウントしているものとする。この場合、尤度算出部16は、例えば、選択された色IDが図19に示す色ID4000の場合には、前景度が背景度よりも大きいと判定する。S114の処理において、前景度が背景度よりも大きいと判定した場合には、当該色IDは背景である可能性が低いので、類似度算出処理へ移行する(S116)。
S116の処理では、尤度算出部16が、S112の処理で選択された色IDが、手の色(代表色)と視覚的にどの程度似ているかを類似度として算出する。例えば、図19に示すように手の色が色ID3534であり、当該色が追跡対象色であるとする。この場合、図19の(A)に示すように、尤度算出部16は、追跡対象色の色IDをピークとし、追跡対象色の色IDから離れるほど小さくなるように類似度を算出する。図19の(A)では、便宜上全ての色IDの類似度を表示しているが、S116の処理では、S112の処理で選択された色IDの類似度のみが算出される。S116の処理が終了すると、評価スコア取得処理へ移行する(S118)。
S118の処理では、尤度算出部16が、手の色の検出時における評価スコアを取得する。例えば、尤度算出部16は、評価スコア算出部14により出力された評価スコアを参照する。これにより、例えば、図19の(B)に示すように、手検出時の評価スコアを取得することができる。なお、図19の(B)では、便宜上全ての色IDの評価スコアを表示しているが、S118の処理では、S112の処理で選択された色IDの評価スコアのみが取得される。S118の処理が終了すると、最終尤度設定処理へ移行する(S120)。
S120の処理では、尤度算出部16が、S116の処理で算出した類似度、及びS118の処理で取得した評価スコアに基づいて、当該色IDの最終的な尤度を決定する。例えば、尤度算出部16は、類似度と評価スコアとの加重平均値を当該色IDの最終的な尤度とする。これにより、例えば、図19の(D)に示すように、最終的な尤度を取得することができる。なお、図19の(D)では、便宜上全ての色IDの最終的な尤度を表示しているが、S120の処理では、S112の処理で選択された色IDの評価スコアのみが取得される。S120の処理が終了すると、最終階級確認処理へ移行する(S122)。
一方、S114の場合には、尤度算出部16は、例えば選択された色IDが図19に示す色ID3434の場合には、前景度が背景度よりも大きくないと判定する。この場合、当該色IDは背景である可能性が高い。よって、背景処理へ移行する(S124)。S124の処理では、尤度算出部16が、当該色IDのヒストグラムについては尤度を0に設定する。例えば、図19の(D)に示すように、色ID3434の最終的な尤度を0とする。S124の処理が終了すると、最終階級確認処理へ移行する(S122)。
S122の処理では、尤度算出部16が、全ての階級について尤度の算出を行ったか否かを判定する。S122の処理において、全ての階級の計算が終了していないと判定した場合には、S112の処理へ移行する。これにより、全ての階級について尤度の演算が終了するまで、S112〜S124の処理を繰り返し実行する。一方、S122の処理において、全ての階級の計算が終了したと判定した場合には、図18に示す制御処理を終了する。
以上で図18に示す制御処理を終了する。図18に示す制御処理を実行することにより、追跡用のヒストグラム(例えば図19の(D))が生成される。
次に、図17中の画素単位の尤度計算処理(S96)について詳細を説明する。図20は、本実施形態に係る手追跡装置4の尤度計算動作を示すフローチャートである。なお、説明理解の容易性を考慮して、図21,17を参照しつつ尤度計算動作を説明する。図21は、動体追跡中における、オプティカルフローを用いた尤度計算を説明する概要図である。図22は、尤度画像の一例である。
図20に示すように、手追跡部17は、入力画像フレームにおける対象画素の情報を取得する(S130)。手追跡部17は、対象画素の座標(x,y)、対象画素の動き量(dx,dy)、対象画素の動きベクトル(オプティカルフロー)、前回の手の中心位置(C,C)及び色IDを取得する。さらに、手追跡部17は、対象画素の高さ方向の位置を評価する。ジェスチャーをする手は手首又は腕より上側にある可能性が高いため、y座標を用いて手である尤度を重み付けすることができる。例えば、入力画像フレームのy方向の高さをIとし、評価値をywとすると、手追跡部17は、以下の式11を用いて対象画素の高さ方向の位置を評価する。
評価値ywは、y座標が小さい方が高くなる。S130の処理が終了すると、相対位置ベクトル算出処理へ移行する(S132)。
S132の処理では、手追跡部17が、前回の手の中心位置から対象画素の位置までの相対位置ベクトルを算出する。手追跡部17は、S130の処理で取得した中心位置(C,C)と、対象画素の座標(x,y)とに基づいて相対位置ベクトルを算出する。S132の処理が終了すると、内積判定処理へ移行する(S134)。
S134の処理では、手追跡部17が、S132の処理で算出された相対位置ベクトルとS130の処理で取得した動きベクトル(オプティカルフロー)との内積を算出する。この処理について図21を用いて詳細を説明する。図21では、前回の手の中心位置(C,C)、対象画素の座標(x,y)を示している。そして、図中の矢印はオプティカルフローである。領域E,E,Eでは、オプティカルフローが検出され、領域Eにはオプティカルフローが検出されていないものとする。基本的にオプティカルフローが検出された領域は動きを検出しているので尤度を加算する。また、前回の手の中心位置(C,C)を基準とした対象画素の相対位置ベクトルの方向がオプティカルフローの方向と逆方向となる場合には、当該画素は動作する手を表示している可能性が低い。例えば、図中に示すように、対象画素の座標(x,y)が領域Eに存在する場合、前回の手の中心位置(C,C)を基準とした対象画素の相対位置ベクトルの方向はオプティカルフローの方向と矛盾していない。また、領域Eに存在する別の画素の場合も同様である。さらに、領域Eに存在する別の画素の場合も、オプティカルフローが検出されていないが動作する手を表示している可能性はあるといえる。しかしながら、領域Eに存在する別の画素の場合には、相対位置ベクトルの方向がオプティカルフローの方向と逆方向となっている。この場合、当該画素は動作する手を表示している可能性が低い。すなわち、相対位置ベクトルとオプティカルフローとの内積を用いて動作する手であるか否かを判定できる。S134の処理の処理において、内積が負であると判定した場合には、尤度変更処理へ移行する(S150)。
S150の処理では、手追跡部17が当該画素の尤度を0に設定する。S150の処理が終了すると、背景尤度更新処理へ移行する(S142)。
一方、S134の処理の処理において、内積が負でないと判定した場合には、尤度算出処理へ移行する(S136)。S136の処理では、手追跡部17が、図18に示す制御処理を実行することにより作成された追跡用の尤度ヒストグラムを用いて、対象画素の尤度を算出する。例えば、図19の(D)に示すヒストグラムを参照して、対象画素の色IDに基づいて尤度を特定する。S136の処理が終了すると、重み計算処理へ移行する(S138)。
S138の処理では、手追跡部17が、動きの重みを計算する。手追跡部17は、S130の処理で取得された動き量(dx,dy)を用いて、動きの重みmwを例えば以下の式12を用いて算出する。
S138の処理が終了すると、尤度決定処理へ移行する(S140)。
S140の処理では、手追跡部17が、S136で算出された尤度、S130の処理で算出された評価値yw、及びS138の処理で算出された動きの重みmwを用いて、最終的な尤度を決定する。S136で算出された尤度をwとすると、手追跡部17は、例えば以下の式13を用いて最終的な尤度Pを決定する。
S140の処理が終了すると、背景尤度更新処理へ移行する(S142)。
S142の処理では、手追跡部17が、背景尤度の更新用の画像にS140又はS150の処理で決定された尤度を代入する。背景尤度の更新用の画像とは、今回の画像フレームにおける背景尤度の画像を、前回の背景尤度の画像から得るために必要な画像である。背景尤度画像の詳細は後述する。手追跡部17は、例えば尤度を画素値として背景尤度の更新用の画像に代入する。S142の処理が終了すると、背景尤度取得処理へ移行する(S144)。
S144の処理では、手追跡部17が、対象画素に対応する前回の画像フレームの背景尤度を取得する処理である。例えば、後述する背景尤度画像を用いて取得することができる。S144の処理が終了すると、背景尤度減算処理へ移行する(S146)。
S146の処理では、手追跡部17が、S140の処理で決定された尤度PからS144の処理で取得された背景尤度を減算する。S146の処理が終了すると、尤度画像作成処理へ移行する(S148)。
S148の処理では、手追跡部17が、追跡用の尤度画像にS146の処理で算出された尤度を代入する。S148の処理が終了すると、図20に示す制御処理を終了する。
以上で図20に示す制御処理を終了する。図20に示す制御処理を全ての画素において実行することにより、尤度を画素値とする尤度画像を作成することができる。尤度画像の一例を図22に示す。図22では、白い部分が動いている領域(尤度の高い領域)であり、黒い部分が静止している領域(尤度の低い領域)である。
次に、図17中の追跡処理(S100)について詳細を説明する。図23は、本実施形態に係る手追跡装置4の追跡動作を示すフローチャートである。なお、説明理解の容易性を考慮して、図24を参照しつつ追跡動作を説明する。図24は、追跡動作を説明する概要図である。
図23に示すように、手追跡部17は、前回の画像フレームにおける追跡対象領域の情報(位置情報等)を初期値として取得する(S160)。追跡対象領域は、画像フレーム及び尤度画像よりも小さい領域であって、図22に示す尤度の高い領域を包含するような大きさに設定されている。S160の処理が終了すると、初期値設定処理へ移行する(S162)。
S162の処理では、手追跡部17が、中心座標を演算するためのパラメータ(mx,my)を(0,0)に初期化する。また、累積尤度mを0に初期化する。S162の処理が終了すると、画素選択処理へ移行する(S164)。
S164の処理では、手追跡部17が、図20に示す制御処理で作成された尤度画像において、追跡対象領域に対応する全ての画素から処理対象の画素を1つ選択する。S164の処理が終了すると、尤度取得処理へ移行する(S166)。
S166の処理では、手追跡部17が、S164の処理で選択された画素の尤度wを図20に示す制御処理で作成された尤度画像から取得する。S166の処理が終了すると、位置情報取得処理へ移行する(S168)。
S168の処理では、手追跡部17が、S164の処理で選択された画素の位置情報(座標情報(x,y))を取得する。S168の処理が終了すると、累積処理へ移行する(S170)。
S170の処理では、手追跡部17が、S166の処理で取得された尤度w及びS168の処理で取得された位置情報(x,y)に基づいて、累積位置情報(mx,my)及び累積尤度mを更新する。手追跡部17は、例えば、尤度wを累積尤度mに加算する。このとき、手追跡部17は、画素の位置情報と追跡矩形の中心座標との距離に応じて尤度に重み付けを行い、重み付けをした尤度を累積尤度mに加算してもよい。例えば、追跡矩形の中心座標を1とするガウス分布を用意し、中心座標との距離に応じたガウス分布の値を尤度に乗算してもよい。また、位置情報(x,y)に尤度wを乗算した値(w・x,w・y)を累積位置情報(mx,my)に加算する。S170の処理が終了すると、終了判定処理へ移行する(S172)。
S172の処理では、手追跡部17が、追跡対象領域に含まれる全ピクセルについて処理が終了したか否かを判定する。S172の処理において、全ピクセルについて処理が終了していないと判定した場合には、S164の処理へ再度移行する。これにより、追跡対象領域に含まれる全ピクセルについて処理が終了するまで、S164〜S172の処理が繰り返し実行される。一方、S172の処理において、全ピクセルについて処理が終了したと判定した場合には、重心算出処理へ移行する(S174)。
S174の処理では、手追跡部17が、累積位置情報(mx,my)及び累積尤度mに基づいて画素値の分布の重心(すなわち動体である手の中心位置(C,C))を推定する。例えば、手追跡部17は以下の式14を用いて中心位置(C,C)を推定する。
S174の処理が終了すると、追跡対象領域の中心変更処理へ移行する(S176)。
S176の処理では、手追跡部17が、追跡対象領域の中心をS174の処理で算出した(C,C)に設定する。S174の処理が終了すると、変更判定処理へ移行する(S178)。
S178の処理では、手追跡部17が、追跡対象領域の中心が前回の中心と同じであるか否かを判定する。S178の処理において、追跡対象領域の中心が前回の中心と同じでないと判定した場合には、S162の処理へ再度移行する。これにより、追跡矩形内の画素値の重心が矩形中心に収束するまでS162〜S178の処理を繰り返し実行する。この繰り返し処理を実行することにより、例えば、図24に示す追跡矩形Z(中心C)を、追跡矩形Z(中心C)、追跡矩形Z(中心C)及び追跡矩形Z(中心C)と矢印で示すように左上へシフトさせて動体である手の位置を追跡することができる。一方、S178の処理において、追跡対象領域の中心が前回の中心と同じであると判定した場合には、図23に示す制御処理を終了する。
以上で図23に示す制御処理を終了する。図23に示す制御処理を実行することにより、尤度画像及び追跡矩形を用いて動体である手を追跡することができる。
次に、図17中の背景尤度の算出処理(S102)について詳細を説明する。図25は、本実施形態に係る手追跡装置4の背景尤度の算出動作を示すフローチャートである。なお、説明理解の容易性を考慮して、図26を参照しつつ背景尤度の算出動作を説明する。図26は、背景尤度の算出動作を説明する概要図である。
図25に示すように、手追跡部17は、前回の画像フレームにおける追跡対象領域の情報(位置情報等)を初期値として取得する(S180)。この処理は図23のS160の処理と同様である。S180の処理が終了すると、領域拡張処理へ移行する(S182)。
S182の処理では、手追跡部17が、S180の処理で取得された追跡対象領域を拡張する。例えば、手追跡部17は、S180の処理で取得された追跡対象領域の中心位置を変更せずに大きさのみを2倍にする。S182の処理が終了すると、画素選択処理へ移行する(S184)。
S184の処理では、手追跡部17が、背景尤度画像の全ての画素から処理対象となる画素を1つ選択する。S184の処理が終了すると、位置判定処理へ移行する(S186)。
S186の処理では、手追跡部17が、S184の処理で選択された画素の位置がS182の処理で拡張された追跡対象領域内であるか否かを判定する。S186の処理において、選択された画素が追跡対象領域内でないと判定された場合には、画素値取得処理へ移行する(S188)。
S188の処理では、手追跡部17が、図20のS142の処理で作成した背景尤度更新用画像を参照し、S184の処理で選択された画素位置に対応する画素値を背景尤度更新用画像から取得する。S188の処理が終了すると、画素値設定処理へ移行する(S190)。
S190の処理では、手追跡部17が、S184の処理で選択された画素の画素値とS188の処理で取得された画素値に基づいて背景尤度画像の画素値を設定する。S184の処理で選択された画素の画素値をG、S188の処理で取得された画素値Gとすると、手追跡部17は、加重平均を求めることで最終的な画素値Gを設定する。具体的には、以下の式15を用いて算出する。
S190の処理が終了すると、終了判定処理へ移行する(S192)。
一方、S186の処理において、選択された画素が追跡対象領域内であると判定された場合には、終了判定処理へ移行する(S192)。
S192の処理では、手追跡部17が、背景尤度画像内の全ての画素について処理を終了したか否かを判定する。S192の処理において、全ての画素について処理を終了していないと判定した場合には、S184の処理へ再度移行する。これにより、背景尤度画像の全ての画素について処理が完了するまで、S184〜S192の処理を繰り返し実行する。これにより、背景尤度画像が生成される。例えば、図26の(A)に示すように、前回の画像フレームの尤度画像において追跡矩形Zが設定されているとする。S184〜S192の処理を繰り返し実行することで、図26の(B)に示す背景尤度画像が生成される。図26の(B)に示すように、背景尤度画像には、追跡矩形Zの位置に対応し、かつ、追跡矩形Zの2倍の大きさとなる領域が黒領域Y(すなわち背景である可能性が低い領域)として設定される。一方、S192の処理において、全ての画素について処理を終了したと判定した場合には、図25に示す制御処理を終了する。
以上で図25に示す制御処理を終了する。図25に示す制御処理を実行することにより、背景尤度画像が生成される。これにより、図20のS146の処理で説明した通り、背景尤度画像を用いて動体の検出を一層適切に行うことができる。今回の画像フレームの尤度画像を図26の(C)とし、背景尤度画像を図26の(B)とすると、図20のS146の処理によって、図26の(D)に示す背景を考慮した尤度画像(差分画像)を生成することが可能となる。差分画像を用いることで、動体である手に類似する色が背景として存在する場合であっても、背景の色を追跡することなく的確に手を追跡することができる。
次に、装置(コンピュータ)2を上記手追跡装置4として機能させるための手追跡プログラム(動体追跡プログラム)を説明する。
手追跡プログラムは、メインモジュール、入力モジュール及び演算処理モジュールを備えている。メインモジュールは、画像処理を統括的に制御する部分である。入力モジュールは、入力画像を取得するように装置2を動作させる。演算処理モジュールは、動き度取得モジュール、検出領域設定モジュール、色取得モジュール、評価スコア算出モジュール、動体検出モジュール、尤度算出モジュール及び動体追跡モジュールを備えている。メインモジュール、入力モジュール及び演算処理モジュールを実行させることにより実現される機能は、上述した手追跡装置4の画像入力部10、動き度取得部11、検出領域設定部12、色取得部13、評価スコア算出部14、手検出部15、尤度算出部16及び手追跡部17の機能とそれぞれ同様である。
手追跡プログラムは、例えば、ROM等の記憶媒体または半導体メモリによって提供される。また、手追跡プログラムは、データ信号としてネットワークを介して提供されてもよい。
以上、第3実施形態に係る手追跡装置4によれば、動き度取得部11により、画像フレーム間の画素の動き度が取得され、色取得部13により、画像フレームに含まれる画素の色が取得され、評価スコア算出部14により、動き度に基づいて色の動き度合いを示す評価スコアが色ごとに算出され、手検出部15により、色ごとの評価スコアに基づいて手の色が特定され、尤度算出部16により、特定された手の色との色の類似度に基づいて色ごとに尤度が算出され、手追跡部17により、色ごとの尤度及び画像フレームに基づいて画素の尤度を画素値とする尤度画像が作成されて手が追跡される。このように、色の動き度合いを評価することによって手が検出される。そして、検出された手の色に基づいて手が追跡される。このため、第1実施形態と同様に、事前に手又は背景に関する情報を設定することなく手を検出し、追跡することができる。すなわち、背景色もしくは手の色として特定色を予め設定する必要がないので、色分布に柔軟に対応することが可能であるとともに、照明が変更されたり、場所が変更されたり、服装が変更された場合であっても、常に手の代表色を検出することができる。例えば手袋をしている手を検出して追跡することも可能である。このため、環境変化に対し手の検出を強く安定して行うことが可能となる。また、手以外に同様の色彩を持った静止物体が同じフレームに存在するとしても、同様の色彩以外で手に使用されている色を代表色とすることができるので動作する手を的確に検出することができる。また、従来の装置のように、事前に手の色を設定して手を検出する場合には、背景と手との差の色がある程度大きい必要がある。これに対して、本実施形態に係る手検出装置1では、ヒストグラムの区間(階級)が異なれば背景と手との差の色が小さい場合であっても原理上検出して追跡することが可能である。また、手と背景とを分離することなく、色情報で動作する手を検出して追跡することが可能となるので、背景分離のために閾値を設定する等の処理を不要とすることができる。また、色情報及び動き度合いによって手を検出して追跡するため、検出精度が動きの連続性や正確性に依存しない。従って、素早い動作の手も適切に検出し追跡することが可能となる。
また、第3実施形態に係る手追跡装置4によれば、第1実施形態に係る手検出装置1により検出された動体の色又は第2実施形態に係る物体検出装置3により検出された領域内の色に基づいて動体を追跡することができる。
また、第3実施形態に係る手追跡装置4によれば、評価スコア算出部14により、色ごとに、動き度が所定値以上である画素数を累積した前景画素数、及び、動き度が所定値以上でない画素数を累積した背景画素数が算出され、尤度算出部16により、前景画素数が背景画素数より小さい色については尤度が小さくされる。このため、手の色に近い色で動きの少ない背景等を手として追跡することを回避することができる。
また、第3実施形態に係る手追跡装置4によれば、前回の手の位置を基準とした画素の相対位置ベクトルと画素の動きベクトルとの内積が負となる場合には、手追跡部17により当該画素における尤度が小さくされる。このため、手の色に近い色で動きの異なる背景等を手として追跡することを回避することができる。
また、第3実施形態に係る手追跡装置4によれば、手追跡部17により、尤度画像の追跡矩形内における画素値の分布の重心が、追跡矩形の中心となるように追跡矩形を移動させることで手が追跡される。このため、簡易な構成で手を適切に追跡することができる。
また、第3実施形態に係る手追跡装置4によれば、手追跡部17により、前回入力された画像フレームの尤度画像及び追跡矩形に基づいて背景尤度画像が作成され、画像フレームの尤度画像と背景尤度画像との差分画像を用いて手が追跡される。このため、手の色に近い色の背景等を手として追跡することを回避することができる。
さらに、本実施形態に係る手追跡方法(動体追跡方法)及び手追跡プログラムによれば、上述した手追跡装置4と同様の効果を奏する。
なお、上述した実施形態は本発明に係る動体検出装置及び動体追跡装置、それらの方法及びプログラムの一例を示すものであり、実施形態に係る装置、方法及びプログラムに限られるものではなく、変形し、又は他のものに適用したものであってもよい。
例えば、上述した実施形態では、カメラ20から画像入力部10が画像を入力する例を説明したが、別の機器からネットワークを介して送信された画像であってもよい。
また、上述した各実施形態では、手検出装置1が検出領域設定部12を備える例を説明したが、検出領域設定部12は必要に応じて備えればよい。
1…動体検出装置、3…手追跡装置、10…画像入力部、11…動き度取得部、12…検出領域設定部、13…色取得部、14…評価スコア算出部、15…手検出部(動体検出部)、16…尤度算出部(動体追跡部)、17…手追跡部(動体追跡部)。

Claims (16)

  1. 画像を用いて動体を検出する動体検出装置であって、
    画像フレーム間の画素の動き度を取得する動き度取得部と、
    前記画像フレームに含まれる画素の色を取得する色取得部と、
    前記色取得部により取得された色ごとに、前記動き度に基づいて色の動き度合いを示す評価スコアを算出する評価スコア算出部と、
    色ごとの前記評価スコアに基づいて前記動体を検出する動体検出部と、
    を備えることを特徴する動体検出装置。
  2. 前記評価スコア算出部は、色ごとに、前記画像フレーム内の画素数及び当該画素の動き度を累積し、前記画像フレーム内の累積画素数及び累積動き度に基づいて当該色の前記評価スコアを算出する請求項1に記載の動体検出装置。
  3. 前記評価スコア算出部は、色ごとに画素の位置情報を累積し、
    前記動体検出部は、色ごとの前記累積画素数及び累積位置情報に基づいて、前記動体の位置を特定する請求項2に記載の動体検出装置。
  4. 画像を用いて動体を検出する動体検出方法であって、
    第1画像フレームと前記第1画像フレームより後に入力する第2画像フレームとの間の画素の動き度、及び、前記第2画像フレームに含まれる画素の色を取得する取得ステップと、
    前記取得ステップにより取得された色ごとに、前記動き度に基づいて色の動き度合いを示す評価スコアを算出する評価スコア算出ステップと、
    色ごとの前記評価スコアに基づいて前記第2画像フレーム内に描画された前記動体を検出する動体検出ステップと、
    を備えることを特徴する動体検出方法。
  5. コンピュータを、画像を用いて動体を検出するように機能させる動体検出プログラムであって、
    画像フレーム間の画素の動き度を取得する動き度取得部、
    前記画像フレームに含まれる画素の色を取得する色取得部、
    前記色取得部により取得された色ごとに、前記動き度に基づいて色の動き度合いを示す評価スコアを算出する評価スコア算出部、及び、
    色ごとの前記評価スコアに基づいて前記動体を検出する動体検出部として機能させることを特徴とする動体検出プログラム。
  6. 画像を用いて動体を追跡する動体追跡装置であって、
    画像フレーム間の画素の動き度を取得する動き度取得部と、
    前記画像フレームに含まれる画素の色を取得する色取得部と、
    前記色取得部により取得された色ごとに、前記動き度に基づいて色の動き度合いを示す評価スコアを算出する評価スコア算出部と、
    画素の色及び色ごとの評価スコアに基づいて、前記評価スコアを画素値とした第1尤度画像を生成して前記動体を検出する動体検出部と、
    検出された前記動体を追跡する動体追跡部と、
    を備えることを特徴とする動体追跡装置。
  7. 前記動き度取得部は、前記画像フレームを所定のブロックに分割し、ブロック単位の動きに基づいて前記画像フレーム全体の動きを算出し、前記画像フレームに含まれる画素の動きから前記画像フレーム全体の動きを差し引いて動き度を算出する請求項6に記載の動体追跡装置。
  8. 前記動体追跡部は、前記動体検出部により検出された前記動体の色に基づいて前記動体を追跡する請求項6又は7に記載の動体追跡装置。
  9. 前記動体追跡部は、前記評価スコアに基づいて前記動体の代表色を特定し、特定された代表色に基づいて前記動体を追跡する請求項8に記載の動体追跡装置。
  10. 前記動体追跡部は、前記動体の代表色との色の類似度に基づいて色ごとに尤度を算出し、画素の尤度を画素値とする第2尤度画像を作成して前記動体を追跡する請求項9に記載の動体追跡装置。
  11. 前記評価スコア算出部は、色ごとに、動き度が所定値以上である画素数を累積した前景画素数、及び、動き度が所定値以上でない画素数を累積した背景画素数を算出し、
    前記動体追跡部は、前記前景画素数が前記背景画素数より小さい色については尤度を小さくする請求項10に記載の動体追跡装置。
  12. 前記動体追跡部は、前回の動体の位置を基準とした画素の相対位置ベクトルと画素の動きベクトルとの内積が負となる場合には当該画素における尤度を小さくする請求項10又は11に記載の動体追跡装置。
  13. 前記動体追跡部は、前記第2尤度画像より小さい領域を追跡矩形とし、前記第2尤度画像の前記追跡矩形内における画素値の分布の重心が、前記追跡矩形の中心となるように移動させることで前記動体を追跡する請求項10〜12の何れか一項に記載の動体追跡装置。
  14. 前記動体追跡部は、前回入力された前記画像フレームの前記第2尤度画像及び前記追跡矩形に基づいて作成された背景尤度画像と、前記画像フレームの前記第2尤度画像との差分画像を用いて前記動体を追跡する請求項10〜13の何れか一項に記載の動体追跡装置。
  15. 画像を用いて動体を追跡する動体追跡方法であって、
    画像フレーム間の画素の動き度、及び、前記画像フレームに含まれる画素の色を取得する取得ステップと、
    前記取得ステップにより取得された色ごとに、前記動き度に基づいて色の動き度合いを示す評価スコアを算出する評価スコア算出ステップと、
    画素の色及び色ごとの評価スコアに基づいて、前記評価スコアを画素値とした第1尤度画像を生成して前記動体を検出する動体検出ステップと、
    検出された前記動体を追跡する動体追跡ステップと、
    を備えることを特徴とする動体追跡方法。
  16. コンピュータを、画像を用いて動体を追跡するように機能させる動体追跡プログラムであって、
    画像フレーム間の画素の動き度を取得する動き度取得部、
    前記画像フレームに含まれる画素の色を取得する色取得部、
    前記色取得部により取得された色ごとに、前記動き度に基づいて色の動き度合いを示す評価スコアを算出する評価スコア算出部、
    画素の色及び色ごとの評価スコアに基づいて、前記評価スコアを画素値とした第1尤度画像を生成して前記動体を検出する動体検出部、
    検出された前記動体を追跡する動体追跡部、
    として機能させることを特徴とする動体追跡プログラム。
JP2011522330A 2011-03-22 2011-03-22 動体検出装置、動体検出方法、動体検出プログラム、動体追跡装置、動体追跡方法及び動体追跡プログラム Expired - Fee Related JP4855556B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/056806 WO2012127618A1 (ja) 2011-03-22 2011-03-22 動体検出装置、動体検出方法、動体検出プログラム、動体追跡装置、動体追跡方法及び動体追跡プログラム

Publications (2)

Publication Number Publication Date
JP4855556B1 JP4855556B1 (ja) 2012-01-18
JPWO2012127618A1 true JPWO2012127618A1 (ja) 2014-07-24

Family

ID=45604503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011522330A Expired - Fee Related JP4855556B1 (ja) 2011-03-22 2011-03-22 動体検出装置、動体検出方法、動体検出プログラム、動体追跡装置、動体追跡方法及び動体追跡プログラム

Country Status (5)

Country Link
US (1) US8989448B2 (ja)
EP (1) EP2544149A4 (ja)
JP (1) JP4855556B1 (ja)
CN (1) CN103003842B (ja)
WO (1) WO2012127618A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103053169B (zh) * 2011-06-08 2016-03-16 松下电器产业株式会社 图像处理装置及图像处理方法
JP5547139B2 (ja) * 2011-07-29 2014-07-09 株式会社東芝 認識装置、方法及びプログラム
JP2013131990A (ja) * 2011-12-22 2013-07-04 Ricoh Co Ltd 情報処理装置及びプログラム
WO2013128839A1 (ja) * 2012-03-02 2013-09-06 日本電気株式会社 画像認識システム、画像認識方法およびコンピュータ・プログラム
CN103974058A (zh) * 2013-01-24 2014-08-06 鸿富锦精密工业(深圳)有限公司 影像噪声分析系统及方法
US9177245B2 (en) 2013-02-08 2015-11-03 Qualcomm Technologies Inc. Spiking network apparatus and method with bimodal spike-timing dependent plasticity
JP6127958B2 (ja) * 2013-12-19 2017-05-17 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
US9939253B2 (en) 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US10194163B2 (en) 2014-05-22 2019-01-29 Brain Corporation Apparatus and methods for real time estimation of differential motion in live video
US9713982B2 (en) 2014-05-22 2017-07-25 Brain Corporation Apparatus and methods for robotic operation using video imagery
JP6323184B2 (ja) * 2014-06-04 2018-05-16 ソニー株式会社 画像処理装置、画像処理方法、並びにプログラム
US9848112B2 (en) 2014-07-01 2017-12-19 Brain Corporation Optical detection apparatus and methods
US10057593B2 (en) 2014-07-08 2018-08-21 Brain Corporation Apparatus and methods for distance estimation using stereo imagery
CN104167116B (zh) * 2014-07-15 2016-05-25 阔地教育科技有限公司 一种多运动对象画面切换控制方法及系统
US10055850B2 (en) * 2014-09-19 2018-08-21 Brain Corporation Salient features tracking apparatus and methods using visual initialization
KR102329862B1 (ko) * 2015-02-10 2021-11-23 삼성전자주식회사 영상의 컬러 변환 방법 및 전자 장치
US10197664B2 (en) 2015-07-20 2019-02-05 Brain Corporation Apparatus and methods for detection of objects using broadband signals
TWI621101B (zh) * 2015-10-23 2018-04-11 Morpho, Inc. 圖像處理裝置、電子設備、圖像處理方法以及電腦程式產品
US10019883B2 (en) * 2016-01-21 2018-07-10 Htc Corporation Method for monitoring breathing activity, electronic device, and computer-readable storage medium using the same
JP6735594B2 (ja) 2016-04-15 2020-08-05 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム
CN106204640A (zh) * 2016-06-29 2016-12-07 长沙慧联智能科技有限公司 一种运动目标检测系统及方法
CN106525113A (zh) * 2016-11-02 2017-03-22 百奥森(江苏)食品安全科技有限公司 一种牧草饲料检测方法
TWI672628B (zh) 2016-12-08 2019-09-21 日商摩如富股份有限公司 影像處理裝置、方法以及電腦可讀取的記錄媒體
KR101882181B1 (ko) * 2017-01-31 2018-07-27 백석대학교산학협력단 동심원 방향의 동공 영역 레이블링을 이용한 그레이디언트 기반 눈 검출 방법
KR101862661B1 (ko) 2017-01-31 2018-05-31 백석대학교산학협력단 비동공 영역 레이블링을 이용한 그레이디언트 기반 눈 검출 방법
CN110366741A (zh) * 2017-03-06 2019-10-22 三菱电机株式会社 物体跟踪装置和物体跟踪方法
JP6412998B1 (ja) * 2017-09-29 2018-10-24 株式会社Qoncept 動体追跡装置、動体追跡方法、動体追跡プログラム
US20220036110A1 (en) * 2018-12-13 2022-02-03 Prophesee Method of tracking objects in a scene
CN109727275B (zh) * 2018-12-29 2022-04-12 北京沃东天骏信息技术有限公司 目标检测方法、装置、系统和计算机可读存储介质
JP6579727B1 (ja) 2019-02-04 2019-09-25 株式会社Qoncept 動体検出装置、動体検出方法、動体検出プログラム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9308952D0 (en) * 1993-04-30 1993-06-16 Philips Electronics Uk Ltd Tracking objects in video sequences
JP2870415B2 (ja) 1994-08-22 1999-03-17 日本電気株式会社 領域分割方法および装置
JPH0991453A (ja) 1995-09-21 1997-04-04 Sanyo Electric Co Ltd 画像処理方法およびその装置
US6124864A (en) * 1997-04-07 2000-09-26 Synapix, Inc. Adaptive modeling and segmentation of visual image streams
US6400831B2 (en) * 1998-04-02 2002-06-04 Microsoft Corporation Semantic video object segmentation and tracking
US6493041B1 (en) * 1998-06-30 2002-12-10 Sun Microsystems, Inc. Method and apparatus for the detection of motion in video
US6480615B1 (en) * 1999-06-15 2002-11-12 University Of Washington Motion estimation within a sequence of data frames using optical flow with adaptive gradients
US7356082B1 (en) * 1999-11-29 2008-04-08 Sony Corporation Video/audio signal processing method and video-audio signal processing apparatus
DE60144490D1 (de) * 2000-12-15 2011-06-01 Sony Corp Bildprozessor, bildsignalerzeugungsverfahren, informationsaufzeichnungsmedium und bildverarbeitungsprogramm
US7098957B2 (en) 2000-12-20 2006-08-29 Samsung Electronics Co., Ltd. Method and apparatus for detecting repetitive motion in an interlaced video sequence apparatus for processing interlaced video signals
US6965645B2 (en) * 2001-09-25 2005-11-15 Microsoft Corporation Content-based characterization of video frame sequences
US7130446B2 (en) * 2001-12-03 2006-10-31 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
US6888891B2 (en) * 2002-01-09 2005-05-03 Octa Technology, Inc. Wavelet domain half-pixel motion compensation
JP3929819B2 (ja) 2002-04-25 2007-06-13 三菱電機株式会社 監視装置及び方法並びにプログラム
JP4392584B2 (ja) * 2003-06-27 2010-01-06 ソニー株式会社 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
US7536043B2 (en) * 2003-08-18 2009-05-19 Siemens Medical Solutions Usa, Inc. Flow representation method and system for medical imaging
US7653265B2 (en) * 2004-01-16 2010-01-26 Nvidia Corporation Video image processing with utility processing stage
US8624980B2 (en) 2004-08-10 2014-01-07 Thomson Licensing Apparatus and method for indicating the detected degree of motion in video
JP4432714B2 (ja) 2004-10-07 2010-03-17 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4623368B2 (ja) 2005-03-16 2011-02-02 ソニー株式会社 移動物体検出装置、移動物体検出方法及びプログラム
US7548659B2 (en) * 2005-05-13 2009-06-16 Microsoft Corporation Video enhancement
WO2007033286A2 (en) * 2005-09-13 2007-03-22 Verificon Corporation System and method for object tracking and activity analysis
US7596280B2 (en) * 2005-09-29 2009-09-29 Apple Inc. Video acquisition with integrated GPU processing
JP2007213264A (ja) 2006-02-08 2007-08-23 Craftmax:Kk 移動体位置検出装置、移動体位置検出方法、移動体位置検出プログラムおよび情報記録媒体
JP4623111B2 (ja) 2008-03-13 2011-02-02 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP2009239515A (ja) 2008-03-26 2009-10-15 Olympus Corp 画像処理装置、画像処理方法、及び画像処理プログラム
JP4985569B2 (ja) 2008-07-08 2012-07-25 株式会社Jvcケンウッド 撮像装置および撮像方法
JP5279654B2 (ja) 2009-08-06 2013-09-04 キヤノン株式会社 画像追尾装置、画像追尾方法、及びコンピュータプログラム

Also Published As

Publication number Publication date
EP2544149A4 (en) 2014-11-19
CN103003842B (zh) 2015-08-19
US8989448B2 (en) 2015-03-24
WO2012127618A1 (ja) 2012-09-27
EP2544149A1 (en) 2013-01-09
US20120243733A1 (en) 2012-09-27
CN103003842A (zh) 2013-03-27
JP4855556B1 (ja) 2012-01-18

Similar Documents

Publication Publication Date Title
JP4855556B1 (ja) 動体検出装置、動体検出方法、動体検出プログラム、動体追跡装置、動体追跡方法及び動体追跡プログラム
US20240168563A1 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
Camplani et al. Depth-color fusion strategy for 3-D scene modeling with Kinect
JP4533836B2 (ja) 変動領域検出装置及びその方法
US10079974B2 (en) Image processing apparatus, method, and medium for extracting feature amount of image
US11049256B2 (en) Image processing apparatus, image processing method, and storage medium
CN108140291A (zh) 烟雾检测装置、方法以及图像处理设备
CN104508680A (zh) 改善之视讯追踪
JP2008288684A (ja) 人物検出装置及びプログラム
JP2008035301A (ja) 移動体追跡装置
JP2014021602A (ja) 画像処理装置及び画像処理方法
JP2003141546A (ja) 画像処理方法
JP5470529B2 (ja) 動き検出装置、動き検出方法及び動き検出プログラム
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
JP2010079651A (ja) 動作認識装置、方法及びプログラム
KR101829386B1 (ko) 표적 검출 장치 및 방법
JP4042602B2 (ja) 画像処理装置
JP4449483B2 (ja) 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム
JP6539720B1 (ja) 画像処理装置
JP6717769B2 (ja) 情報処理装置及びプログラム
Sivabalakrishnan et al. Performance analysis of fuzzy logic-based background subtraction in dynamic environments
JP6266461B2 (ja) 対象検出装置
JP4268953B2 (ja) 動き検出装置およびそのプログラム
US20240095934A1 (en) Image processing apparatus, training apparatus, image processing method, training method, and non-transitory computer-readable medium

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111026

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4855556

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees