JP2002150297A - 動画像学習方法およびこのプログラムを記録した記録媒体 - Google Patents

動画像学習方法およびこのプログラムを記録した記録媒体

Info

Publication number
JP2002150297A
JP2002150297A JP2000338629A JP2000338629A JP2002150297A JP 2002150297 A JP2002150297 A JP 2002150297A JP 2000338629 A JP2000338629 A JP 2000338629A JP 2000338629 A JP2000338629 A JP 2000338629A JP 2002150297 A JP2002150297 A JP 2002150297A
Authority
JP
Japan
Prior art keywords
moving image
distance
edge
face
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000338629A
Other languages
English (en)
Other versions
JP3639520B2 (ja
Inventor
Raichev Biser
ライチェフ ビセル
Hiroshi Murase
洋 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2000338629A priority Critical patent/JP3639520B2/ja
Publication of JP2002150297A publication Critical patent/JP2002150297A/ja
Application granted granted Critical
Publication of JP3639520B2 publication Critical patent/JP3639520B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 長時間環境映像データに含まれる多様な変動
を人間の介在なしに教師なしで追加学習する方法を提案
する。 【解決手段】 ユニット1は、映像データから顔領域を
抽出し、顔画像を時空間的に切り出し顔画像配列を作成
する。ユニット2は、全ての組み合わせの顔画像配列間
で顔画像配列の中に含まれる画像間の距離をもとに顔画
像配列間の距離を計算し、顔画像配列間の距離を用いて
初期サブクラスタを形成し、consistent/i
nconsistentエッジを用いて全てのサブクラ
スタを結合し、結合された各カテゴリー毎の動画像辞書
を作成しておく。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、人物顔動画像など
の動画認織のための学習技術にかかわり、特に実環境条
件の下で、カテゴリ(人の名前)に対する事前情報が与
えられていない長時間にわたる連続映像データを用いて
自己組織化的に画像を学習する方法に関するものであ
る。
【0002】
【従来の技術】顔画像認識を例に説明する。顔画像認識
は、学習段階で作成された顔画像モデルと、未知の入力
顔画像とのパターン照合(距離値または類似度の計算)
により、実現される。
【0003】従来の顔認識法における学習では、制限さ
れた環境条件で撮影され、かつ人手によって人名などの
カテゴリを付けられた少数の顔画像から学習を進めると
いう方法がとられていた。
【0004】しかし、このアプローチでは、人手による
データの準備作業が必要であるので、多量の顔データを
学習に利用することが困難である。
【0005】このアプローチを用いて実環境で顔認識を
行う場合には、限られた数の顔画像しか学習に利用でき
ないために、実環境で発生する様々な変動(例えば、照
明条件の変動、カメラ(視点)に対する顔の角度と距離
の変動、顔表情や眼鏡、ヘアスタイルなどによる顔の形
の変動)に単純に対処するだけの十分の学習データを蓄
積することは困難である。
【0006】従来は、それに対処するために場当たり的
に、前処理を工夫したり、特徴の工夫がなされていた
が、十分な精度は得られていない。つまり、従来の顔認
識は、複雑な変化に富んだ実環境に対応するための柔軟
性が備わっていなかった。
【0007】一方、人間が行う顔認識の場合では、学習
システムがいつでも動作していて、新しいデータが入力
されると、システムの内部状態を更新し、いつでも新し
いカテゴリを事前情報なしに追加できる。
【0008】
【発明が解決しようとする課題】前記のように、顔画像
モデルと、未知の入力顔画像とのパターン照合による認
識方法では、人手によるデータの準備作業が必要とし、
多量の顔データを学習に利用することが困難であった。
また、十分な学習データを蓄積すること及び十分な精度
を得るのが困難であった。
【0009】本発明では、人間によって事前に用意され
た情報を用いることなく、実環境でコンピューターが自
律的に長時間の連続データを自分のタスクの目的に応じ
て自己組織化的に学習し、学習途中で新しいカテゴリを
自然に追加できる方法を提案するものである。つまり、
本発明の目的は、長時間環境映像データに含まれる多様
な変動を人間の介在なしに教師なしで追加学習する方法
を提案することである。
【0010】また、本発明の目的は、すべての過程(デ
ータ収集、格納、顔領域抽出、学習、認識)が自動的に
行われ、人手による作業は必要としない学習方法を提案
することである。
【0011】
【課題を解決するための手段】本発明は、上記の目的を
達成するために、長時間環境映像データを用いて、その
中に現れる移動物体を自動的に抽出すると共に、複数の
抽出された移動物体をその情報を利用して自動的に関連
付けることにより、人為的にカテゴリを与えることなく
自動的に移動物体のカテゴリ分けを行うようにしたもの
である。また、カテゴリ分けの際に、対象情報がどのカ
テゴリに含まれるかを映像データに対して補足的に人手
で一部だけカテゴリ付けできるようにするものであり、
以下の学習方法および記録媒体を特徴とする。
【0012】(学習方法の発明)連続的に撮影した環境
映像データから、映像内で移動する対象物体を教師なし
で自動的に学習する動画像学習方法において、事前に対
象物体のカテゴリ情報が与えられていないデータを撮影
する段階と、前記対象物体の動画像を時空間的に切り出
し動画像配列を作成する段階と、全ての組み合わせの前
記動画像配列間で動画像配列の中に含まれる画像間の距
離をもとに動画像配列間の距離を計算する段階と、前記
動画像配列間の距離を用いて初期サブクラスタを形成す
る段階と、consistent/inconsist
entエッジを用いて全てのサブクラスタを結合する段
階と、前記結合された各カテゴリー毎の動画像辞書を作
成する段階と、から構成されることを特徴とする。
【0013】また、前記切り出した動画像の一部に関し
てカテゴリ分けの事前情報を与える段階を備えたことを
特徴とする。
【0014】また、前記consistent/inc
onsistentエッジを用いて全てのサグクラスタ
を結合する段階で、カテゴリ情報を与える段階と、与え
られたカテゴリ情報を基に前記consistent/
inconsistentエッジを変更する段階とを備
えたことを特徴とする。
【0015】(記録媒体の発明)連続的に撮影した環境
映像データから、映像内で移動する対象物体を教師なし
で自動的に学習する動画像学習方法を、コンピュータに
実行させるためのプログラムを、該コンピュータが読み
取り可能な記録媒体に記録した記録媒体であって、事前
に対象物体のカテゴリ情報が与えられていないデータを
撮影する過程と、前記対象物体の動画像を時空間的に切
り出し動画像配列を作成する過程と、全ての組み合わせ
の前記動画像配列間で動画像配列の中に含まれる画像間
の距離をもとに動画像配列間の距離を計算する過程と、
前記動画像配列間の距離を用いて初期サブクラスタを形
成する過程と、consistent/inconsi
stentエッジを用いて全てのサブクラスタを結合す
る過程と、前記結合された各カテゴリー毎の動画像辞書
を作成する過程とをプログラムで記録したことを特徴と
する。
【0016】
【発明の実施の形態】図1は、本発明の実施形態を示す
ブロック構成図である。本実施形態では3つのユニッ
ト、顔領域抽出装置(ユニット1)、学習装置(ユニッ
ト2)、認識装置(ユニット3)から構成される。
【0017】顔領域抽出装置1は、長時間連続の環境映
像データに出現する人物の顔領域を自動的に抽出し、そ
の大きさを正規化し、画像に人物が出現してから消失す
るまでの一連の顔画像系列(これを動画像配列と呼ぶ)
を作成し、ファイルに格納し、後段の学習/認識装置
2、3に入力情報を提供する。
【0018】学習装置2は、後述の学習アルゴリズムを
用いて、事前のカテゴリ情報を含まない多数の動画像配
列をカテゴリごとに組織化する。その結果に従って、シ
ステムの内部状態も適切に更新される。ここで、内部状
態とは、動画像配列間のどれとどれが同じカテゴリーに
属するかを示す表現のことを言う。
【0019】認識装置3は、システムの最新の動画像辞
書(登録された動画像配列)と認識すべき入力データ
(入力動画像から顔領域抽出装置により切り出された動
画像配列)との照合に基づいて顔認識を行い、認識結果
を出力する。
【0020】はじめに、学習や認識のための準備段階と
しての顔領域抽出装置の一例について、図2のフローチ
ャートを用いて説明する。
【0021】ステップ201では、固定したカメラから
連続的に環境映像データが入力されるが、隣り合った2
枚の画像を引算し、閾値をとってバイナリ差分画像を作
成する。
【0022】ステップ202では、作成された差分画像
から、観察されている環境は変化があったかどうかを判
断する。人物の登場に相当する変化がない場合、変化が
あるまでステップ201とステップ202を繰り返す
が、変化があった場合にはステップ203へ進む。
【0023】ステップ203では、前ステップで作った
バイナリ差分画像からサブサンプリングを繰り返しなが
ら多解像度画像ピラミッドを作成する。サブサンプリン
グは、元の画像の各2×2ピクセル領域を(領域内の
「1」の数に基づいて)「1」または「0」値のピクセ
ルに置き換える。なお、多解像度画像を用いることによ
って、顔領域の座標をもっと安定で正確に計算すること
ができる。すなわち、低い解像度の画像がノイズの影響
を受けにくいので比較的安定に顔領域を決めることがで
きるが、正確ではない。逆に、高い解像度の画像から顔
領域を正確に決めることができるがノイズの影響を受け
やすい。以下で説明する顔領域抽出アルゴリズムは各解
像度の画像でパラレルに行われ、それぞれの計算結果か
後で述べるように、ステップ207で統合される。
【0024】次のステップ204では、照明条件の変
動、衣服のテキスチャーなどの原因によるノイズの影響
で人物領域内にできている「0」値の「穴」を埋めるた
めに全画像に、次のようなフィルターを掛ける。
【0025】画像全体に3×3ピクセルの窓を1ピクセ
ルステップで移動させながら、窓の中に少なくとも2つ
の異なった行と2つの異なった列には同時に値「1」の
ピクセルが存在すれば、窓の中心にあるピクセルを
「1」に置き換える。この操作を左右、右左、上下、下
上方向で何回か(あるいは変化がなくなるまで)行う。
【0026】次のステップ205では、前段階で作成さ
れた画像の重心とxヒストグラム(画像の各列に含まれ
る「1」の数を表す関数)を計算して、重心からxヒス
トグラムの全エネルギーの例えば90%が含まれる領域
を人物領域として切り出す。つまり、人物の面積が、背
景に動く他の物体、陰、ノイズなどの面積よりずっと大
きいと仮定している。
【0027】ステップ206では、ステップ205で抽
出された人物領域上に、改めてxヒストグラムとyヒス
トグラムを計算し、それらの内容の解析を行うことによ
って顔座標を決定する。
【0028】ステップ207では、各解像度で計算され
た顔領域の座標の中央値(median)が求められ、
最終的な顔領域の座標を得る。
【0029】ステップ208では、上記のように抽出さ
れた顔画像を一定のサイズに正規化する。実際の入力デ
ータから得られた最終的な動画像の一例を図4に示す。
【0030】その後、ステップ210では、カメラから
次の画像が読み取り、背景画像とのバイナリ差分画像を
作成する。
【0031】ステップ211では、ステップ210で作
成した差分画像から人物がカメラの視野からいなくなっ
たかどうかを検出する。この検出により、人物がまだい
る場合にはステップ203に戻り、収得した画像を処理
する。
【0032】ステップ212では、人物がカメラの視野
からいなくなった場合、その時点までの一連の顔画像の
系列を動画像配列として、動画像ファイルに記憶(格
納)する。
【0033】次に、本発明の重要な要素である学習装置
2の動作を、図3のフローチャートを用いて以下に説明
する。
【0034】先ず、最初のステップ301では、前段階
で(movieファイルとして)得られた動画像配列
(顔画像が連なったもので、1つの連続した動画像に対
応)をコンピューターのメモリに読み込む。前記のとお
り、それぞれの動画像配列に関するカテゴリ情報は事前
に与えられていない。例えば、X個の異なった人物に対
するN個の動画像配列(N≧X)が与えられるが、どの
配列がどの人物に対応するかという情報は予め与えられ
ない。
【0035】ステップ302では、蓄積された2つの動
画像配列間の距離を計算するために、一方の動画像配列
のi番目の顔画像と、もう一方の動画像配列に含まれる
j番目の顔画像との間で距離値が計算され、行列Dij
納める。そのとき、2枚の顔画像間の距離の計算の仕方
としては、さまざまのものが考えられるが、ここではそ
の1例として動画像をピクセル毎に引き算し、絶対値を
とり、結果がある閾値より大きければ「1」と見なし、
小さければ「0」とする。このように得られたバイナリ
画像の中に含まれる「1」の総数を両顔画像の間の距離
値として定義される。
【0036】ステップ303では、行列Dijを用いて各
動画像配列と他の全ての配列との間の最短距離を選んで
最短距離行列Mに納める。例えば、行列Mの中のMij
配列iと配列jとの間の最短距離を意味している。両動
画像配列には多数の顔画像が入っているが、その中の一
番近い顔の対を代表として選び、それらの間の距離がM
ijとなる。
【0037】ステップ304では、行列Mの値に基づい
て多数の初期サブクラスターグラフを形成する。各配列
が一点のノードとして表示され、各ノードをそれに一番
近いノードだけと(エッジで)結合され、このようにし
て出来上がった各々のグラフを初期サブクラスターグラ
フと名付ける。二つのノードをつなぐエッジを2種類定
義し、片方はconsistentエッジと呼んで同じ
カテゴリのノード(動画像配列)をつなぐのに用いて、
もう一方はinconsistentエッジと呼んで異
なるカテゴリのノードをつなぐのに用いる。但し、ステ
ップ304で形成される初期サブクラスターグラフの中
のエッジは全てcosistentエッジである。
【0038】次のステップ305では、初期サブクラス
ターをノードの数によってソートし、小さいサブクラス
ター(含まれるノードの数が少ない)から開始して、他
のサブクラスターの内一番近いサブクラスターとエッジ
でつなげられる。そのときののエッジの種類は後述する
ルールによって決められる。二つのサブクラスターが結
合されると同時に併合され、新しいサブクラスターが生
成される。この過程は再帰的に、全てのサブクラスター
が一つだけの大きいクラスターに併合されるまで繰り返
される。二つのサブクラスターを最短距離エッジ(例え
ばノードAとノードBの間のエッジ)でつなぐときに、
エッジの種類は次のようなルール(consisten
cy基準)で決定される。ノードAとノードBとの間の
長さLのエッジがcosistentであるために同時
に満たすべき二つの条件を次に示す。
【0039】条件1「ノードAとconsistent
エッジで直接につながっているノードの内、ノードAか
ら最も遠いノード(FN)との間の距離L1がCxLよ
り小さいこと。ただし、ここでCは定数である。」 条件2「ノードBとconsistentエッジで直接
につながっているノードの内、ノードBから最も遠いノ
ード(FN)との間の距離L2がCxLより小さいこ
と。ただし、ここでCは定数である。」 図5は、ノードA、ノードBとそれぞれのFNノードの
関係を示した一例である。条件1と条件2を同時に満た
さないノードはinconsistentエッジによっ
て結合される。
【0040】最後のステップ306では、上記の過程に
よって形成されたグラフをトラバースしながらcosi
stentエッジでつながっているノードによって表示
されている動画像配列を同じ顔カテゴリとして出力す
る。ここで、incosistentエッジの役割は、
異なったカテゴリに属するサブクラスターを分離するこ
とである。図6は、実際の入力データを使用したとき、
上記の過程で形成されたグラフの一例を示したものであ
る。図6では、各ノードが一つの動画像配列に相当し、
文字は配列に映されている実際の人物名の頭文字であ
り、番号は配列番号である。実線で表示されているエッ
ジがconsistentエッジであり、点線はinc
onsistentエッジを表し、数字はエッジの長さ
(2つのノードの間の最短距離)を表している。
【0041】このグラフはシステムの現在の内部状態を
表し、認識過程ではその内部状態を一時的に固定したま
まで入力に相当するノードをステップ305で説明した
cosistency基準に基づいて、consist
ent/inconsistentエッジで内部状態グ
ラフと結合し、そのエッジがcosistentエッジ
の場合、入力のカテゴリがエッジの他方にあるノードと
同じカテゴリであると見なす。一方、incosist
entエッジの場合、新しい(まだ登録されていない)
カテゴリに属することとなる。
【0042】追加学習は下記のアルゴリズムによって行
われる。但し、システムの現在の内部状態がN個のノー
ドから構成されたグラフによって表現されると仮定し、
以下では、図7に示す内部状態で入力されるN+1個目
のノードに対して追加学習を行うこととする。
【0043】ステップ1:新しく入力されたノードに対
して、行列Mで新しい(N+1)個目の列を計算し追加
する。
【0044】ステップ2:新しいノードの最も近いノー
ドkを見つけて、前述のconsistency基準に
基づいていて両ノードをcosistent/inco
nsistentエッジでつなぐ。inconsist
entエッジの場合、ステップ4に進む。
【0045】ステップ3:ノードkと同じクラスターに
属する全てのノードlに対して、ノードlと新しいノー
ドとの間の距離D1、そしてノードlとそれから最も近
いノードnとの間の距離D2を計算する。もし、D1<
D2であれば、ノードlと新しいノードをconsis
tentエッジでつなぐ。その後、ノードlと直接co
sistentエッジでつながっているすべてのノード
mに対して(ノードnも含めて)、lとmとの間の距離
D(l,m)とmと新しいノードとの間の距離D(N+
1,m)を計算し、D(l,m)<D(N+1,m)で
あれば、mとlとの間のエッジを削除し、mと新しいノ
ードとの間に新しいエッジ(もしそんなエッジがまだ存
在しなければ)を入れる。
【0046】ステップ4:新しいノードが属するクラス
ターCk(図8参照)と、inconsistentエ
ッジEikによってつながっているクラスターCi(そう
いうクラスターが存在すれば)のすべてのノードPi
対して、新しいノードとの間の距離D(Pi,N+1)
を計算し、D(Pi,N+1)<Eikであれば、Eik
削除し、Piと新しいノードとの間に新しいエッジEik
を挿入する(そのエッジの種類をcosistency
基準に基づいて決める)。その後、inconsist
entエッジEijでつながっているクラスターCiとCj
が存在したら(但し、CiがCkとつながってもいいが、
jはCkとはつながっていない場合に限る)、クラスタ
ーCjに属するすべてのノードPjに対して、新しいノー
ドとの間の距離D(Pj,N+1)を計算し、D(Pi
N+1)<Eijが満たされば、Eijを削除し、Pjと新
しいノードの間に新しいエッジEjkを入れる(そのエッ
ジの種類をconsistency基準に基づいて決め
る)。しかし、CiがCkにつながっていなければ、この
操作をCiまたはCjが他のクラスターから切断されない
場合に限って行う。
【0047】上述の追加学習法は、最初の段階である程
度データが集まってから学習を行い、その後、追加学習
を行う仕組みになっているが、最初から逐次的に学習を
行うこと(所謂オンライン学習)も考えられる。オンラ
インバージョンの場合、最初は2つのノードだけが与え
られ、それらがいくら離れていてもconsisten
tエッジでつなぎ、その後、新しく入力されるノードが
上記の追加学習法に基づいてグラフに挿入される。ある
程度データが集まってから定期的に全てのノードに対し
てconsistencyチェックを行い、consi
stency基準を満たさないノードの間のエッジをi
nconsistentエッジに置き換える。
【0048】提案する学習法の特徴としては、追加学習
の場合システムの内部状態を最初から再学習する必要が
なく、新しい部分だけに関連ある結合が更新・追加さ
れ、関連のない部分がそのままに残る。これによって、
生物などが行うような自然な追加学習が実現できるだけ
ではなく、莫大な計算量の節約も可能である。特に、実
環境では、システムの内部状態が長時間のデータに基づ
いて形成されるので、本方法の利用が有利である。
【0049】なお、上記の実施形態における学習装置2
は、例えば図6の状態で新たな対象情報が入力されたと
きに、そのカテゴリ分けには全てのノードとの比較を行
うことで対象情報のグラフでの位置を自動計算によって
決定する場合を示すが、入力される対象情報があらかじ
めどのカテゴリに含まれるかの情報を人手で一部与える
ことにより、学習をより正確にすることができる。例え
ば、与えられた対象情報がFで表されているカテゴリで
ある場合には、自動的なカテゴリ分けをすることなく、
直接に図6におけるF1〜F6のノードとの間の距離を
計算し、正確なグラフ位置を決定することができる。
【0050】また、consistent/incon
sistentエッジを用いてサブクラスタを結合する
において、自動学習によるカテゴリ情報または人手で与
えるカテゴリ情報を基にconsistent/inc
onsistentエッジを変更するステップを追加す
ることにより、生成されたカテゴリを示すグラフが間違
って繋がれた場合にその修正が可能となる。
【0051】また、以上までの説明では顔画像を対象と
する場合を示すが、本発明はそれ以外の対象物体につい
ても同様な処理が可能である。
【0052】また、図2及び図3に示した方法又は図1
に示した装置の一部又は全部をコンピュータプログラム
で記載してそれを実行できるようにし、それをコンピュ
ータが読み取り可能な記録媒体、例えば、フロッピーデ
ィスク(登録商標)や、MO、ROM、メモリカード、
CD、DVD、リムーバブルディスクなどに記録して提
供し、配布することが可能である。
【0053】
【発明の効果】以上説明したように、本発明によれば以
下の効果が得られる。
【0054】(1)実環境条件下で、人間によって事前
に用意された情報を用いずに、コンピューターが自律的
に長時間の連続データを自分のタスクの目的に応じて自
己組織化的に学習し、認識することが可能になる。
【0055】(2)入力データから連続的に抽出される
動画像の顔画像1枚1枚をテンプレートとして使用する
ことによって、照明条件、サイズや視点角度の変動の影
響が受けにくくなるので、学習/認識過程の効率を向上
させることができる。
【0056】(3)学習途中で新しいカテゴリのデータ
が与えられた場合、システムを最初から再学習する必要
がなく、柔軟性のある自然な追加学習や認識が可能にな
る。
【0057】(4)本発明の学習方法を利用することに
より、クラス内のサンプルデータが連続的に分布し、ク
ラス間の距離がクラス内の距離より大きい場合でも認識
が可能である。
【0058】(5)データ収集、格納、顔領域抽出、学
習、認識の全ての過程が自動的に行われるため、人手に
よる作業を大幅に節約できる。
【0059】(6)本発明の学習法の特徴としては、各
顔カテゴリのサンプル数が極端に異なっても問題にはな
らない。つまり、本発明方法はサンプルの分布の形には
依存しないという利点がある。
【0060】(7)本発明の学習方法を用いて物体認識
で使用されるさまざまな特徴の評価を行うことができ
る。
【図面の簡単な説明】
【図1】本発明の構成例を示すフロック図。
【図2】本発明の顔領域抽出法を説明するためのフロー
チャート。
【図3】本発明の学習方法を説明するためのフローチャ
ート。
【図4】カメラから入力される画像配列から抽出された
顔画像配列の例
【図5】cosistency基準を説明するための補
助図。
【図6】本発明の学習法によって形成されたシステムの
内部状態の一例。
【図7】本発明における追加学習法(ステップ1〜3)
を説明するための補助図。
【図8】本発明における追加学習法(ステップ4)を説
明するための補助図。
【符号の説明】
1…顔領域抽出装置(ユニット1) 2…学習装置(ユニット2) 3…認識装置(ユニット3)

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 連続的に撮影した環境映像データから、
    映像内で移動する対象物体を教師なしで自動的に学習す
    る動画像学習方法において、 事前に対象物体のカテゴリ情報が与えられていないデー
    タを撮影する段階と、 前記対象物体の動画像を時空間的に切り出し動画像配列
    を作成する段階と、 全ての組み合わせの前記動画像配列間で動画像配列の中
    に含まれる画像間の距離をもとに動画像配列間の距離を
    計算する段階と、 前記動画像配列間の距離を用いて初期サブクラスタを形
    成する段階と、 consistent/inconsistentエッ
    ジを用いて全てのサブクラスタを結合する段階と、 前記結合された各カテゴリー毎の動画像辞書を作成する
    段階と、から構成されることを特徴とする動画像学習方
    法。
  2. 【請求項2】 前記切り出した動画像の一部に関してカ
    テゴリ分けの事前情報を与える段階を備えたことを特徴
    とする請求項1記載の動画像学習方法。
  3. 【請求項3】 前記consistent/incon
    sistentエッジを用いて全てのサグクラスタを結
    合する段階で、カテゴリ情報を与える段階と、与えられ
    たカテゴリ情報を基に前記consistent/in
    consistentエッジを変更する段階とを備えた
    ことを特徴とする請求項1または2記載の動画像学習方
    法。
  4. 【請求項4】 連続的に撮影した環境映像データから、
    映像内で移動する対象物体を教師なしで自動的に学習す
    る動画像学習方法を、コンピュータに実行させるための
    プログラムを、該コンピュータが読み取り可能な記録媒
    体に記録した記録媒体であって、 事前に対象物体のカテゴリ情報が与えられていないデー
    タを撮影する過程と、前記対象物体の動画像を時空間的
    に切り出し動画像配列を作成する過程と、全ての組み合
    わせの前記動画像配列間で動画像配列の中に含まれる画
    像間の距離をもとに動画像配列間の距離を計算する過程
    と、前記動画像配列間の距離を用いて初期サブクラスタ
    を形成する過程と、consistent/incon
    sistentエッジを用いて全てのサブクラスタを結
    合する過程と、前記結合された各カテゴリー毎の動画像
    辞書を作成する過程と、をプログラムで記録したことを
    特徴とする記録媒体。
JP2000338629A 2000-11-07 2000-11-07 動画像学習方法およびこのプログラムを記録した記録媒体 Expired - Fee Related JP3639520B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000338629A JP3639520B2 (ja) 2000-11-07 2000-11-07 動画像学習方法およびこのプログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000338629A JP3639520B2 (ja) 2000-11-07 2000-11-07 動画像学習方法およびこのプログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2002150297A true JP2002150297A (ja) 2002-05-24
JP3639520B2 JP3639520B2 (ja) 2005-04-20

Family

ID=18813810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000338629A Expired - Fee Related JP3639520B2 (ja) 2000-11-07 2000-11-07 動画像学習方法およびこのプログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP3639520B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006068223A1 (ja) * 2004-12-24 2006-06-29 National University Corporation Yokohama National University 画像処理装置
JP2011096072A (ja) * 2009-10-30 2011-05-12 Mitsubishi Electric Corp 物体検出装置及び物体検出プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006068223A1 (ja) * 2004-12-24 2006-06-29 National University Corporation Yokohama National University 画像処理装置
JP2011096072A (ja) * 2009-10-30 2011-05-12 Mitsubishi Electric Corp 物体検出装置及び物体検出プログラム

Also Published As

Publication number Publication date
JP3639520B2 (ja) 2005-04-20

Similar Documents

Publication Publication Date Title
CN108830855B (zh) 一种基于多尺度低层特征融合的全卷积网络语义分割方法
CN108764065B (zh) 一种行人重识别特征融合辅助学习的方法
WO2020224424A1 (zh) 图像处理方法、装置、计算机可读存储介质和计算机设备
CN111814661B (zh) 基于残差-循环神经网络的人体行为识别方法
CN113065558A (zh) 一种结合注意力机制的轻量级小目标检测方法
CN111539370A (zh) 一种基于多注意力联合学习的图像行人重识别方法和系统
US20210264144A1 (en) Human pose analysis system and method
CN112446302B (zh) 一种人体姿态检测方法、系统、电子设备和存储介质
US10929978B2 (en) Image processing apparatus, training apparatus, image processing method, training method, and storage medium
CN103810473B (zh) 一种基于隐马尔科夫模型的人体对象的目标识别方法
JP2012160178A (ja) オブジェクト認識デバイス、オブジェクト認識を実施する方法および動的アピアランスモデルを実施する方法
US20100111375A1 (en) Method for Determining Atributes of Faces in Images
JP2021503139A (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN112861917A (zh) 基于图像属性学习的弱监督目标检测方法
CN111666976A (zh) 基于属性信息的特征融合方法、装置和存储介质
CN110826534A (zh) 一种基于局部主成分分析的人脸关键点检测方法及系统
CN114519863A (zh) 人体重识别方法、人体重识别装置、计算机设备及介质
CN112883827B (zh) 图像中指定目标的识别方法、装置、电子设备和存储介质
Hasan et al. Tiny head pose classification by bodily cues
CN110633631B (zh) 一种基于部件幂集和多尺度特征的行人重识别方法
Prabhakar et al. Cdnet++: Improved change detection with deep neural network feature correlation
CN113887468B (zh) 一种三阶段网络框架的单视角人-物交互的识别方法
Abayomi-Alli et al. Facial image quality assessment using an ensemble of pre-trained deep learning models (EFQnet)
CN113743251B (zh) 一种基于弱监督场景的目标搜索方法及装置
JP4232388B2 (ja) 映像検索装置及びそれに用いる映像検索方法並びにそのプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050114

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080121

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090121

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090121

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100121

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110121

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110121

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120121

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130121

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees