JP2008130015A - 被写体識別プログラム、および被写体識別装置 - Google Patents
被写体識別プログラム、および被写体識別装置 Download PDFInfo
- Publication number
- JP2008130015A JP2008130015A JP2006317208A JP2006317208A JP2008130015A JP 2008130015 A JP2008130015 A JP 2008130015A JP 2006317208 A JP2006317208 A JP 2006317208A JP 2006317208 A JP2006317208 A JP 2006317208A JP 2008130015 A JP2008130015 A JP 2008130015A
- Authority
- JP
- Japan
- Prior art keywords
- image
- binary image
- subject
- input
- envelope
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】画像内に含まれる移動している被写体を識別すること。
【解決手段】被写体認識部103aは、時系列で入力される入力画像間で差分量を算出し、差分量が所定の閾値を超えている画素を2値化して2値画像を生成し、2値画像内の白画素を対象として、各白画素の2値画像内における座標値を特徴量としたクラスタリングを行って、白画素を所定数のクラスタに併合する。そして、併合後の各クラスタのそれぞれを囲んだ包絡枠を、入力画像内に含まれる個々の被写体として識別する。被写体追跡部103bは、被写体認識部103aで識別した個々の被写体をフレーム間で追跡する。
【選択図】図1
【解決手段】被写体認識部103aは、時系列で入力される入力画像間で差分量を算出し、差分量が所定の閾値を超えている画素を2値化して2値画像を生成し、2値画像内の白画素を対象として、各白画素の2値画像内における座標値を特徴量としたクラスタリングを行って、白画素を所定数のクラスタに併合する。そして、併合後の各クラスタのそれぞれを囲んだ包絡枠を、入力画像内に含まれる個々の被写体として識別する。被写体追跡部103bは、被写体認識部103aで識別した個々の被写体をフレーム間で追跡する。
【選択図】図1
Description
本発明は、複数のフレーム間で被写体の追跡を行うための被写体識別プログラム、および被写体識別装置に関する。
次のような物体追跡方法が知られている。この方法は、カメラから入力される画像と基準背景画像との差分を計算して差分画像を得て、差分画像を2値化した2値画像を得ている。そして、2値画像内からラベリング等の方法で輝度値が所定値以上となるひとかたまりの領域を抽出し、抽出した領域を物体として検出する。検出した物体の時間経過に伴う変化を複数の状態に分類することによって、物体の移動軌跡を推定してフレーム間で物体を追跡するものである(例えば、特許文献1)。
しかしながら、従来の物体追跡方法では、ラベリング等の方法を用いて2値画像内から物体を検出する場合には、2値画像内で輝度値が所定値以上となる画素間の距離を加味せずに領域を抽出する。そのため、物体の識別性能が高くないという問題があった。
本発明は、時系列で入力される複数の入力画像間で差分量を算出し、差分量が所定の閾値を超えている画素を2値化して2値画像を生成し、2値画像内の白画素を対象として、各白画素の2値画像内における座標値を特徴量としたクラスタリングを行って、白画素を所定数のクラスタに併合し、併合後の各クラスタのそれぞれを囲んだ包絡枠を、入力画像内に含まれる個々の被写体として識別することを特徴とする。
本発明では、各包絡枠を、各包絡枠間の距離に応じて併合し、併合後の各包絡枠を個々の被写体として識別するようにしてもよい。
また、生成した2値画像内に含まれる白画素が所定数以上である場合には、閾値を上げて、再度、2値画像を生成するようにしてもよい。
さらに、時系列で入力される入力画像間で、識別した個々の被写体を追跡することが好ましい。
本発明では、各包絡枠を、各包絡枠間の距離に応じて併合し、併合後の各包絡枠を個々の被写体として識別するようにしてもよい。
また、生成した2値画像内に含まれる白画素が所定数以上である場合には、閾値を上げて、再度、2値画像を生成するようにしてもよい。
さらに、時系列で入力される入力画像間で、識別した個々の被写体を追跡することが好ましい。
本発明によれば、高い識別性能で被写体を識別することができる。
図1は、本実施の形態における被写体識別装置の一実施の形態の構成を示すブロック図である。被写体識別装置100としては、例えばパーソナルコンピュータ(パソコン)が用いられる。被写体識別装置100は、操作部材101と、画像入力用I/F(画像入力用インターフェース)102と、制御装置103と、HDD(ハードディスクドライブ)104と、モニタ105とを備えている。
操作部材101は、例えばキーボードやマウスなどの使用者によって操作される種々の入力装置を含んでいる。
画像入力用I/F102は、外部の画像入力デバイス、例えばカメラなどを接続するための接続インターフェースである。本実施の形態では、画像入力用I/F102を介して外部の画像入力デバイスから複数フレームの画像が時系列で入力される。画像入力用I/F102に接続されているカメラは広角レンズを備えており、人物の進入を監視する必要がある部屋の室内に設置されている。よって、画像入力用I/F102を介して入力される画像は、例えば図2に示すような室内の広範囲を撮影した画像となる。画像入力用I/F102は、入力された画像を制御装置103へ出力する。なお、画像入力用I/F102としては、例えばUSBインターフェースや無線LANインターフェースが用いられる。
HDD104には、画像入力用I/F102を介して取り込んだ画像データや、後述するように制御装置103で実行されるプログラムなど種々のデータが記憶される。モニタ105は、例えば液晶ディスプレイなどが用いられる。
制御装置103は、CPU、メモリ、およびその他周辺回路で構成され、被写体認識部103aと、被写体追跡部103bとを機能的に有している。被写体認識部103aは、画像入力用I/F102を介して入力される画像内に含まれる移動している被写体を認識する。具体的には次のように処理する。まず、被写体認識部103aは、入力された画像データ(入力画像)と、HDD104に記憶されている1フレーム前の画像データとの差分量を算出し、算出した差分量が所定の閾値、例えば100を超えている画素を2値化した2値画像を生成する。このように生成した2値画像内では、フレーム間で移動している被写体のみが白画素として現れる。
例えば、被写体認識部103aは、図2に示した入力画像と、1フレーム前の画像とに基づいて、図3に示すような2値画像を生成する。図2では、矩形2aで囲まれる人物(被写体)のみが移動していた場合には、図3ではこの移動している人物のみが白画素として現れる。なお、図3においては、点線枠3aは、2値画像内の白画素を包絡した矩形(包絡枠)であり、例えば、テンプレートマッチングを使ったトラッキングシステムなどでは、この包絡枠内の画像をテンプレートとして使用して被写体を追跡する。図2のように、画像内に1人の人物しか存在していない場合には、図3に示すように、包絡枠で1人の人物を捉えることができるが、画像内に複数の人物が含まれている場合には、複数の人物が包絡枠内に含まれてしまう可能性がある。
例えば、図4に示すように、矩形4a内に存在する複数の人物(4人)が移動している場合には、2値画像に含まれる白画素は図5に示すようになり、この範囲が包絡枠で囲まれることになる。この場合には、画像内に含まれる4人全員が1つの包絡枠で囲まれてしまい、個々の人物を特定することができない。このため、2値画像に含まれる白画素を人物ごとに分離して、例えば図6に示すように各人物をそれぞれ含む4つの包絡枠6a〜6dを特定する必要がある。
そのために、被写体認識部103aは、クラスタリング手法を用いて画像内に含まれる各被写体を特定する。図7(a)は、n次元特徴空間でのクラスタリングの概念図である。本実施の形態では、n=2としたとき、すなわち2次元特徴空間でのクラスタリングを行う。具体的には、図7(b)に示すように、画像内における白画素の座標値(X,Y)をクラスタリングの特徴量とした2次元特徴空間でのクラスタリングを行う。クラスタリングの手法としては、階層的クラスタリングを用いる。
階層的クラスタリングとは、まず、2値画像内に存在する1つの白画素を1つのクラスタとする。すなわち、最初の段階では、2値画像内に存在する白画素の数=クラスタ数となる。そして、図7(b)に示した2次元特徴空間上で、距離が近いクラスタ同士を順番に併合していく。その後、クラスタ数が、あらかじめ設定した所定のクラスタ数mになった時点でクラスタの併合を終了して、クラスタリングを終了する。これによって、2値画像内からm個のクラスタを抽出することができる。すなわち、2次元特徴空間上での距離が近い白画素同士の集合をm個抽出することができる。
被写体認識部103aは、2値画像上で抽出した白画素の集合を、それぞれ包絡枠で囲むことによって、2値画像内の白画素を複数の領域に分離することができる。そして、2値画像上に設定した各包絡枠を画像内における位置を保持したまま入力画像上に設定することによって、入力画像上に、移動している人物を含む複数(m個)の包絡枠を設定し、この入力画像上における包絡枠を、入力画像内に含まれる移動している被写体として識別する。換言すれば、入力画像上に設定した包絡枠内に、移動している人物が存在しているものと特定する。
図8は、mを4としてクラスタリングを行った結果、入力画像上に設定される包絡枠の具体例を示す図である。この図8において、包絡枠8aは、クラスタリングを行わなかった場合に設定される包絡枠を示している。すなわち、クラスタリングを行う前は、2値画像内の白画素を全て含む矩形が包絡枠8aとして設定される。そして、被写体認識部103aによって、mを4としてクラスタリングが行われることによって、距離が近い白画素が順次併合されていき、最終的に、4つのクラスタに併合される。その結果、2値画像上に各クラスタに対応する4つの包絡枠が設定され、入力画像上には、図8に示すように、4つの包絡枠8b〜8eが設定される。
なお、図8に示す例では、移動している人物は5人いるにも関わらず、m=4としたために、包絡枠は4つしか設定されず、包絡枠8c内には2人の人物が含まれている。この例では、m=5とすれば、包絡枠8c内に含まれる人物は2つの包絡枠に分離されることになる。このように、画像内に含まれる移動している人物の数によって、最適なmの値は変化するが、あらかじめ移動している人物の人数を特定することができない場合には、mに最適な値を設定することは困難である。
例えば、図9a(a)に示すように、入力画像内に移動している人物が1人しかいない場合に、m=3としてクラスタリングを行った場合には、図9(b)に示すように2値画像内で距離が近い白画素が3つのクラスタに併合され、3つの包絡枠9a〜9cが設定されることになる。その結果、本来であれば、入力画像上で1人の人物を包絡する包絡枠9dが設定されるべきところ、1人の人物に対して3つの包絡枠9a〜9cが設定されることになる。
本実施の形態では、このように最適なmの値を設定することが困難なことに起因して発生する問題点を解消するために、被写体認識部103aは、クラスタリングによって分離した包絡枠を、各包絡枠間の距離に基づいて併合する処理を行う。具体的には、入力画像(または2値画像)上に設定した各包絡枠の重心位置を算出し、2つの包絡枠間の重心位置の距離が所定距離未満である場合に、その2つの包絡枠を併合して1つの包絡枠とする。
例えば、図10に示すように、重心がA、縦方向の長さがH1、横方向の長さがW1である包絡枠10aと、重心がB、縦方向の長さがH2、横方向の長さがW2である包絡枠10bとがある場合について説明する。この場合には、被写体認識部103aは、重心Aと重心Bの横方向(x軸方向)の距離dx、縦方向(y軸方向)の距離dyをそれぞれ算出する。そして、dx、W1、およびW2の関係が次式(1)を満たし、かつdy、H1、およびH2の関係が次式(2)を満たす場合に、2つの包絡枠10aおよび10bを併合する。
dx<(W1+W2)×α ・・・(1)
dy<(H1+H2)×α ・・・(2)
なお、式(1)および(2)において、αは0.6〜0.8とする。
dy<(H1+H2)×α ・・・(2)
なお、式(1)および(2)において、αは0.6〜0.8とする。
被写体認識部103aは、この包絡枠の併合処理を、入力画像内に設定されたすべての包絡枠の組み合わせに対して実行し、距離が近い包絡枠同士を併合していく。このとき、1度併合した後の包絡枠も併合処理の対象としていくことで、1人の人物に対して複数の包絡枠が設定されてしまった場合でも、それらを併合して1人の人物に対して1つの包絡枠を設定することができる。
なお、一般的に、1人の人物は画像内で縦方向に存在していることが多いため、横方向に存在している距離が近い包絡枠同士よりも、縦方向に存在している距離が近い包絡枠同士を優先して併合するようにしてもよい。これは、例えば式(1)におけるαの値よりも式(2)におけるαの値を小さく設定することで対応できる。
被写体認識部103aは、以上の処理によって、入力画像上で動いている人物の1人ごとに包絡枠を設定して、入力画像内における動いている人物を特定することができる。被写体追跡部103bは、被写体認識部103aで特定した個々の人物をフレーム間で追跡することによって、画像内に含まれる人物の動きを追跡することができる。
図11は、本実施の形態における被写体識別装置100の処理を示すフローチャートである。図11に示す処理は、画像入力用I/F102を介して画像の入力が開始されると起動するプログラムとして、制御装置103によって実行される。
ステップS10において、被写体認識部103aは、入力された画像データ(入力画像)と、HDD104に記憶されている1フレーム前の画像データとの差分量を算出し、算出した差分量が所定の閾値を超えている画素を2値化した2値画像を生成する。その後、ステップS20へ進み、被写体認識部103aは、2値画像上に白画素を包絡した包絡枠を設定して、ステップS30へ進む。
ステップS30では、被写体認識部103aは、上述したように、設定した包絡枠内の白画素を対象として、2次元特徴空間でのクラスタリングを行って、距離が近い白画素の集合をm個抽出する。その後、ステップS40へ進み、被写体認識部103aは、2値画像上で抽出した白画素の集合を、それぞれ包絡枠で囲むことによって、2値画像内の白画素を複数の領域に分離し、2値画像上に設定した各包絡枠を画像内における位置を保持したまま入力画像上に設定する。その後、ステップS50へ進む。
ステップS50では、被写体認識部103aは、図10で上述したように、式(1)および(2)を用いて、1つの包絡枠内に1人の人物が含まれるように、入力画像上に設定した包絡枠を併合して、ステップS60へ進む。ステップS60では、被写体追跡部103bは、被写体認識部103aで特定した個々の人物をフレーム間で追跡することによって、画像内に含まれる人物の動きを追跡し、ステップS70へ進む。
ステップS70では、画像入力用I/F102を介した画像の入力が終了したか否かを判断する。画像の入力が終了していないと判断した場合には、ステップS10へ戻って処理を継続する。これに対して、画像の入力が終了したと判断した場合には、処理を終了する。
以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)フレーム間の画像の差分量を算出し、算出した差分量が所定の閾値を超えている画素を2値化して2値画像を生成した。そして、2値画像内の白画素を、各画素の画像内における座標値を特徴量としたクラスタリング処理を行って所定数のクラスタに併合し、併合後の各クラスタに対応する包絡枠を個々の被写体として識別するようにした。これによって、画像内における座標値が近い画素、すなわち画像内における距離が近い画素を優先して併合したクラスタに基づいて被写体を識別することができ、被写体の識別性能を向上することができる。
(1)フレーム間の画像の差分量を算出し、算出した差分量が所定の閾値を超えている画素を2値化して2値画像を生成した。そして、2値画像内の白画素を、各画素の画像内における座標値を特徴量としたクラスタリング処理を行って所定数のクラスタに併合し、併合後の各クラスタに対応する包絡枠を個々の被写体として識別するようにした。これによって、画像内における座標値が近い画素、すなわち画像内における距離が近い画素を優先して併合したクラスタに基づいて被写体を識別することができ、被写体の識別性能を向上することができる。
(2)クラスタリングによって分離した包絡枠を、各包絡枠間の距離に基づいて併合し、併合後の包絡枠を個々の被写体として識別するようにした。これによって、画像内に含まれる移動している人物の人数をあらかじめ特定することができない場合でも、各被写体を正確に識別することができる。
(3)時系列で入力される入力画像間で、識別した個々の被写体を追跡するようにした。これによって、フレーム間の画像の動きを捉えることができ、本発明による被写体識別装置100をセキュリティ装置などの他の装置に活用することができる。
―変形例―
なお、上述した実施の形態の被写体識別装置は、以下のように変形することもできる。
(1)上述した実施の形態では、被写体認識部103aは、入力された画像データ(入力画像)と、HDD104に記憶されている1フレーム前の画像データとの差分量を算出し、算出した差分量が所定の閾値を超えている画素を2値化した2値画像を生成する例について説明した。このとき、生成した2値画像内に含まれる白画素の数に応じて、2値化を行う画素を判定するための閾値を再設定し、再設定後の閾値を用いて2値画像を生成するようにしてもよい。
なお、上述した実施の形態の被写体識別装置は、以下のように変形することもできる。
(1)上述した実施の形態では、被写体認識部103aは、入力された画像データ(入力画像)と、HDD104に記憶されている1フレーム前の画像データとの差分量を算出し、算出した差分量が所定の閾値を超えている画素を2値化した2値画像を生成する例について説明した。このとき、生成した2値画像内に含まれる白画素の数に応じて、2値化を行う画素を判定するための閾値を再設定し、再設定後の閾値を用いて2値画像を生成するようにしてもよい。
すなわち、所定の閾値を用いて2値化して得た2値画像内に含まれる白画素が多い場合には、多くの白画素を対象としてクラスタリングを行う必要が生じ、処理に時間がかかる可能性がある。このため、2値画像内に多くの白画素が含まれる場合には、閾値を上げて再度2値画像を生成することによって、2値画像内に含まれる白画素を減らしてクラスタリング処理を高速化することができる。この変形例では、例えば、入力画像の大きさが640画素×480画素である場合には、所定の閾値を用いて2値化して得た2値画像内に500画素以上の白画素が含まれる場合には、閾値を上げる必要があると判断する。
具体的には、上述した実施の形態のように、所定の閾値を100として2値化した場合に、2値画像内に500画素以上の白画素が含まれている場合には、次式(3)によって新たな閾値を算出する。なお、次式(3)では、ttは2値画像内に含まれる白画素数を表し、floorは、小数点以下を切り捨てて整数を返す関数である。
閾値=100+floor(tt/10) ・・・(3)
閾値=100+floor(tt/10) ・・・(3)
この式(3)によって、例えば2値画像内に白画素が500画素含まれている場合には、新たな閾値は150に設定されることになり、最初の閾値100よりも閾値を上げて再度2値画像を生成することができる。なお、閾値をあまりにも上げ過ぎると入力画像内に写っている人物のうち、白画素として抽出できなる人物が出てくる可能性がある。このため、式(3)によって算出される閾値に上限を設定するようにしてもよい。例えば、閾値の上限を200に設定して、式(3)によって算出された閾値が200を超える場合には、閾値を200に置き換えるようにしてもよい。
(2)上述した実施の形態では、被写体認識部103aは、クラスタリングを行って抽出したクラスタに対応する包絡枠を個々の被写体として識別する例について説明したが、これに限定されず、抽出したクラスタ自体を個々の被写体として識別してもよい。この場合、被写体認識部103aは、クラスタリングを行って抽出した各クラスタを、図10に示した方法で各クラスタ間の距離に応じて再併合することによって、再併合後の各クラスタを個々の被写体として識別する。
(3)上述した実施の形態では、被写体認識部103aは、被写体認識部103aで特定した個々の人物をフレーム間で追跡することによって、画像内に含まれる人物の動きを追跡する例について説明した。しかしながら、被写体識別装置100を施設内への侵入者を検出するセキュリティ装置に適用することもできる。この場合には、被写体追跡部103bは、画像内に含まれる人物を時系列で追跡し、人物がカメラの設置位置から所定距離以内に接近したら、その人物を拡大して撮影し、HDD104に記録するようにしてもよい。
すなわち、被写体追跡部103bは、入力画像内に設定した包絡枠が一定の大きさ以上になった場合に、その包絡枠が捉えている人物はカメラに接近したと判断する。そして、その包絡枠の重心が画像の中心になるようにカメラの向きを変更し、さらに包絡枠が画像内一杯に収まるようにズームすることで、包絡枠内の人物を拡大して撮影する。これによって、カメラから所定距離以内に接近した人物を不審者とみなして、その侵入者の画像を自動的に撮像することができる。また、人物の画像を拡大して撮影すると同時に、モニタ105上にその拡大写真を表示したり、警告メッセージを出すようにしてもよい。さらにカメラにスピーカを搭載し、不審者の侵入を検出した場合には、スピーカから警報を出力してもよい。
なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。
100 被写体識別装置、101 操作部材、102 画像入力用I/F、103 制御装置、103a 被写体認識部、103b 被写体追跡部、104 HDD、105 モニタ
Claims (5)
- コンピュータに、
時系列で入力される複数の入力画像間の差分量を算出する差分量算出手順と、
前記差分量が所定の閾値を超えている画素を2値化して2値画像を生成する2値画像生成手順と、
前記2値画像内の白画素を対象として、各白画素の前記2値画像内における座標値を特徴量としたクラスタリングを行って、前記白画素を所定数のクラスタに併合するクラスタリング実行手順と、
併合後の各クラスタのそれぞれを囲んだ包絡枠を、入力画像内に含まれる個々の被写体として識別する識別手順とを実行させることを特徴とする被写体識別プログラム。 - 請求項1に記載の被写体識別プログラムにおいて、
前記識別手順は、前記各包絡枠を、各包絡枠間の距離に応じて併合し、併合後の各包絡枠を前記個々の被写体として識別することを特徴とする被写体識別プログラム。 - 請求項1または2に記載の被写体識別プログラムにおいて、
前記2値画像生成手順は、生成した2値画像内に含まれる白画素が所定数以上である場合には、前記閾値を上げて、再度、前記2値画像を生成することを特徴とする被写体識別プログラム。 - 請求項1〜3のいずれか一項に記載の被写体識別プログラムにおいて、
コンピュータに、
時系列で入力される入力画像間で、前記識別手順で識別した個々の被写体を追跡する被写体追跡手順をさらに実行させることを特徴とする被写体識別プログラム。 - 請求項1〜4のいずれか一項に記載の被写体識別プログラムを実行する実行手段を備えることを特徴とする被写体識別装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006317208A JP2008130015A (ja) | 2006-11-24 | 2006-11-24 | 被写体識別プログラム、および被写体識別装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006317208A JP2008130015A (ja) | 2006-11-24 | 2006-11-24 | 被写体識別プログラム、および被写体識別装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008130015A true JP2008130015A (ja) | 2008-06-05 |
Family
ID=39555735
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006317208A Pending JP2008130015A (ja) | 2006-11-24 | 2006-11-24 | 被写体識別プログラム、および被写体識別装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008130015A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017143375A (ja) * | 2016-02-09 | 2017-08-17 | カシオ計算機株式会社 | すれ違い特定装置、特定方法及びプログラム |
CN108401186A (zh) * | 2018-04-28 | 2018-08-14 | 东莞市华睿电子科技有限公司 | 一种基于人脸识别的智能电视显示控制方法 |
KR20200005930A (ko) * | 2018-07-09 | 2020-01-17 | 에스케이텔레콤 주식회사 | 객체 추적 서버, 객체 추적 시스템 및 객체 추적 방법을 수행하는 컴퓨터 판독 가능 기록매체에 저장된 프로그램 |
WO2021229866A1 (ja) * | 2020-05-14 | 2021-11-18 | 日立Astemo株式会社 | 画像処理装置 |
-
2006
- 2006-11-24 JP JP2006317208A patent/JP2008130015A/ja active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017143375A (ja) * | 2016-02-09 | 2017-08-17 | カシオ計算機株式会社 | すれ違い特定装置、特定方法及びプログラム |
CN108401186A (zh) * | 2018-04-28 | 2018-08-14 | 东莞市华睿电子科技有限公司 | 一种基于人脸识别的智能电视显示控制方法 |
CN108401186B (zh) * | 2018-04-28 | 2020-06-23 | 浙江云澎科技有限公司 | 一种基于人脸识别的智能电视显示控制方法 |
KR20200005930A (ko) * | 2018-07-09 | 2020-01-17 | 에스케이텔레콤 주식회사 | 객체 추적 서버, 객체 추적 시스템 및 객체 추적 방법을 수행하는 컴퓨터 판독 가능 기록매체에 저장된 프로그램 |
KR102085699B1 (ko) * | 2018-07-09 | 2020-03-06 | 에스케이텔레콤 주식회사 | 객체 추적 서버, 객체 추적 시스템 및 객체 추적 방법을 수행하는 컴퓨터 판독 가능 기록매체에 저장된 프로그램 |
WO2021229866A1 (ja) * | 2020-05-14 | 2021-11-18 | 日立Astemo株式会社 | 画像処理装置 |
JP7379268B2 (ja) | 2020-05-14 | 2023-11-14 | 日立Astemo株式会社 | 画像処理装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8570371B2 (en) | Object tracking apparatus, object tracking method, and control program | |
US10867182B2 (en) | Object recognition method and object recognition system thereof | |
EP2339536B1 (en) | Image processing system, image processing apparatus, image processing method, and program | |
JP2007265367A (ja) | 視線検出方法および装置ならびにプログラム | |
JP2011141622A (ja) | 検出装置およびその方法 | |
JP5087037B2 (ja) | 画像処理装置、方法及びプログラム | |
JP2000105829A (ja) | 顔パーツ検出方法及びその装置 | |
JP6007523B2 (ja) | 生成装置、生成プログラムおよび生成方法 | |
JP5290227B2 (ja) | 対象物検知装置及びその学習装置 | |
CN110619656B (zh) | 基于双目摄像头的人脸检测跟踪方法、装置及电子设备 | |
JP2007034525A (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
JP2010117981A (ja) | 顔検出装置 | |
JP2008130015A (ja) | 被写体識別プログラム、および被写体識別装置 | |
JP2008035301A (ja) | 移動体追跡装置 | |
KR101360063B1 (ko) | 제스처 인식 방법 및 시스템 | |
CN107958202B (zh) | 人体检测设备、人体检测设备的控制方法和存储介质 | |
JP2013080266A (ja) | 入力装置 | |
WO2014033885A1 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP6847690B2 (ja) | ベッド識別装置 | |
JPWO2020095644A1 (ja) | 変状検出装置、変状検出方法、及びプログラム | |
US9159118B2 (en) | Image processing apparatus, image processing system, and non-transitory computer-readable medium | |
JP4449483B2 (ja) | 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム | |
JP2009129388A (ja) | 物体認識装置、物体認識方法、物体認識プログラム、および該プログラムを格納するコンピュータ可読媒体 | |
JP6847708B2 (ja) | ベッド位置特定装置 | |
EP2528019A1 (en) | Apparatus and method for detecting objects in moving images |