JP2002150297A - 動画像学習方法およびこのプログラムを記録した記録媒体 - Google Patents
動画像学習方法およびこのプログラムを記録した記録媒体Info
- Publication number
- JP2002150297A JP2002150297A JP2000338629A JP2000338629A JP2002150297A JP 2002150297 A JP2002150297 A JP 2002150297A JP 2000338629 A JP2000338629 A JP 2000338629A JP 2000338629 A JP2000338629 A JP 2000338629A JP 2002150297 A JP2002150297 A JP 2002150297A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- distance
- edge
- face
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
を人間の介在なしに教師なしで追加学習する方法を提案
する。 【解決手段】 ユニット1は、映像データから顔領域を
抽出し、顔画像を時空間的に切り出し顔画像配列を作成
する。ユニット2は、全ての組み合わせの顔画像配列間
で顔画像配列の中に含まれる画像間の距離をもとに顔画
像配列間の距離を計算し、顔画像配列間の距離を用いて
初期サブクラスタを形成し、consistent/i
nconsistentエッジを用いて全てのサブクラ
スタを結合し、結合された各カテゴリー毎の動画像辞書
を作成しておく。
Description
の動画認織のための学習技術にかかわり、特に実環境条
件の下で、カテゴリ(人の名前)に対する事前情報が与
えられていない長時間にわたる連続映像データを用いて
自己組織化的に画像を学習する方法に関するものであ
る。
は、学習段階で作成された顔画像モデルと、未知の入力
顔画像とのパターン照合(距離値または類似度の計算)
により、実現される。
れた環境条件で撮影され、かつ人手によって人名などの
カテゴリを付けられた少数の顔画像から学習を進めると
いう方法がとられていた。
データの準備作業が必要であるので、多量の顔データを
学習に利用することが困難である。
行う場合には、限られた数の顔画像しか学習に利用でき
ないために、実環境で発生する様々な変動(例えば、照
明条件の変動、カメラ(視点)に対する顔の角度と距離
の変動、顔表情や眼鏡、ヘアスタイルなどによる顔の形
の変動)に単純に対処するだけの十分の学習データを蓄
積することは困難である。
に、前処理を工夫したり、特徴の工夫がなされていた
が、十分な精度は得られていない。つまり、従来の顔認
識は、複雑な変化に富んだ実環境に対応するための柔軟
性が備わっていなかった。
システムがいつでも動作していて、新しいデータが入力
されると、システムの内部状態を更新し、いつでも新し
いカテゴリを事前情報なしに追加できる。
モデルと、未知の入力顔画像とのパターン照合による認
識方法では、人手によるデータの準備作業が必要とし、
多量の顔データを学習に利用することが困難であった。
また、十分な学習データを蓄積すること及び十分な精度
を得るのが困難であった。
た情報を用いることなく、実環境でコンピューターが自
律的に長時間の連続データを自分のタスクの目的に応じ
て自己組織化的に学習し、学習途中で新しいカテゴリを
自然に追加できる方法を提案するものである。つまり、
本発明の目的は、長時間環境映像データに含まれる多様
な変動を人間の介在なしに教師なしで追加学習する方法
を提案することである。
ータ収集、格納、顔領域抽出、学習、認識)が自動的に
行われ、人手による作業は必要としない学習方法を提案
することである。
達成するために、長時間環境映像データを用いて、その
中に現れる移動物体を自動的に抽出すると共に、複数の
抽出された移動物体をその情報を利用して自動的に関連
付けることにより、人為的にカテゴリを与えることなく
自動的に移動物体のカテゴリ分けを行うようにしたもの
である。また、カテゴリ分けの際に、対象情報がどのカ
テゴリに含まれるかを映像データに対して補足的に人手
で一部だけカテゴリ付けできるようにするものであり、
以下の学習方法および記録媒体を特徴とする。
映像データから、映像内で移動する対象物体を教師なし
で自動的に学習する動画像学習方法において、事前に対
象物体のカテゴリ情報が与えられていないデータを撮影
する段階と、前記対象物体の動画像を時空間的に切り出
し動画像配列を作成する段階と、全ての組み合わせの前
記動画像配列間で動画像配列の中に含まれる画像間の距
離をもとに動画像配列間の距離を計算する段階と、前記
動画像配列間の距離を用いて初期サブクラスタを形成す
る段階と、consistent/inconsist
entエッジを用いて全てのサブクラスタを結合する段
階と、前記結合された各カテゴリー毎の動画像辞書を作
成する段階と、から構成されることを特徴とする。
てカテゴリ分けの事前情報を与える段階を備えたことを
特徴とする。
onsistentエッジを用いて全てのサグクラスタ
を結合する段階で、カテゴリ情報を与える段階と、与え
られたカテゴリ情報を基に前記consistent/
inconsistentエッジを変更する段階とを備
えたことを特徴とする。
映像データから、映像内で移動する対象物体を教師なし
で自動的に学習する動画像学習方法を、コンピュータに
実行させるためのプログラムを、該コンピュータが読み
取り可能な記録媒体に記録した記録媒体であって、事前
に対象物体のカテゴリ情報が与えられていないデータを
撮影する過程と、前記対象物体の動画像を時空間的に切
り出し動画像配列を作成する過程と、全ての組み合わせ
の前記動画像配列間で動画像配列の中に含まれる画像間
の距離をもとに動画像配列間の距離を計算する過程と、
前記動画像配列間の距離を用いて初期サブクラスタを形
成する過程と、consistent/inconsi
stentエッジを用いて全てのサブクラスタを結合す
る過程と、前記結合された各カテゴリー毎の動画像辞書
を作成する過程とをプログラムで記録したことを特徴と
する。
ブロック構成図である。本実施形態では3つのユニッ
ト、顔領域抽出装置(ユニット1)、学習装置(ユニッ
ト2)、認識装置(ユニット3)から構成される。
像データに出現する人物の顔領域を自動的に抽出し、そ
の大きさを正規化し、画像に人物が出現してから消失す
るまでの一連の顔画像系列(これを動画像配列と呼ぶ)
を作成し、ファイルに格納し、後段の学習/認識装置
2、3に入力情報を提供する。
用いて、事前のカテゴリ情報を含まない多数の動画像配
列をカテゴリごとに組織化する。その結果に従って、シ
ステムの内部状態も適切に更新される。ここで、内部状
態とは、動画像配列間のどれとどれが同じカテゴリーに
属するかを示す表現のことを言う。
書(登録された動画像配列)と認識すべき入力データ
(入力動画像から顔領域抽出装置により切り出された動
画像配列)との照合に基づいて顔認識を行い、認識結果
を出力する。
しての顔領域抽出装置の一例について、図2のフローチ
ャートを用いて説明する。
連続的に環境映像データが入力されるが、隣り合った2
枚の画像を引算し、閾値をとってバイナリ差分画像を作
成する。
から、観察されている環境は変化があったかどうかを判
断する。人物の登場に相当する変化がない場合、変化が
あるまでステップ201とステップ202を繰り返す
が、変化があった場合にはステップ203へ進む。
バイナリ差分画像からサブサンプリングを繰り返しなが
ら多解像度画像ピラミッドを作成する。サブサンプリン
グは、元の画像の各2×2ピクセル領域を(領域内の
「1」の数に基づいて)「1」または「0」値のピクセ
ルに置き換える。なお、多解像度画像を用いることによ
って、顔領域の座標をもっと安定で正確に計算すること
ができる。すなわち、低い解像度の画像がノイズの影響
を受けにくいので比較的安定に顔領域を決めることがで
きるが、正確ではない。逆に、高い解像度の画像から顔
領域を正確に決めることができるがノイズの影響を受け
やすい。以下で説明する顔領域抽出アルゴリズムは各解
像度の画像でパラレルに行われ、それぞれの計算結果か
後で述べるように、ステップ207で統合される。
動、衣服のテキスチャーなどの原因によるノイズの影響
で人物領域内にできている「0」値の「穴」を埋めるた
めに全画像に、次のようなフィルターを掛ける。
ルステップで移動させながら、窓の中に少なくとも2つ
の異なった行と2つの異なった列には同時に値「1」の
ピクセルが存在すれば、窓の中心にあるピクセルを
「1」に置き換える。この操作を左右、右左、上下、下
上方向で何回か(あるいは変化がなくなるまで)行う。
れた画像の重心とxヒストグラム(画像の各列に含まれ
る「1」の数を表す関数)を計算して、重心からxヒス
トグラムの全エネルギーの例えば90%が含まれる領域
を人物領域として切り出す。つまり、人物の面積が、背
景に動く他の物体、陰、ノイズなどの面積よりずっと大
きいと仮定している。
出された人物領域上に、改めてxヒストグラムとyヒス
トグラムを計算し、それらの内容の解析を行うことによ
って顔座標を決定する。
た顔領域の座標の中央値(median)が求められ、
最終的な顔領域の座標を得る。
れた顔画像を一定のサイズに正規化する。実際の入力デ
ータから得られた最終的な動画像の一例を図4に示す。
次の画像が読み取り、背景画像とのバイナリ差分画像を
作成する。
成した差分画像から人物がカメラの視野からいなくなっ
たかどうかを検出する。この検出により、人物がまだい
る場合にはステップ203に戻り、収得した画像を処理
する。
からいなくなった場合、その時点までの一連の顔画像の
系列を動画像配列として、動画像ファイルに記憶(格
納)する。
2の動作を、図3のフローチャートを用いて以下に説明
する。
で(movieファイルとして)得られた動画像配列
(顔画像が連なったもので、1つの連続した動画像に対
応)をコンピューターのメモリに読み込む。前記のとお
り、それぞれの動画像配列に関するカテゴリ情報は事前
に与えられていない。例えば、X個の異なった人物に対
するN個の動画像配列(N≧X)が与えられるが、どの
配列がどの人物に対応するかという情報は予め与えられ
ない。
画像配列間の距離を計算するために、一方の動画像配列
のi番目の顔画像と、もう一方の動画像配列に含まれる
j番目の顔画像との間で距離値が計算され、行列Dijに
納める。そのとき、2枚の顔画像間の距離の計算の仕方
としては、さまざまのものが考えられるが、ここではそ
の1例として動画像をピクセル毎に引き算し、絶対値を
とり、結果がある閾値より大きければ「1」と見なし、
小さければ「0」とする。このように得られたバイナリ
画像の中に含まれる「1」の総数を両顔画像の間の距離
値として定義される。
動画像配列と他の全ての配列との間の最短距離を選んで
最短距離行列Mに納める。例えば、行列Mの中のMijは
配列iと配列jとの間の最短距離を意味している。両動
画像配列には多数の顔画像が入っているが、その中の一
番近い顔の対を代表として選び、それらの間の距離がM
ijとなる。
て多数の初期サブクラスターグラフを形成する。各配列
が一点のノードとして表示され、各ノードをそれに一番
近いノードだけと(エッジで)結合され、このようにし
て出来上がった各々のグラフを初期サブクラスターグラ
フと名付ける。二つのノードをつなぐエッジを2種類定
義し、片方はconsistentエッジと呼んで同じ
カテゴリのノード(動画像配列)をつなぐのに用いて、
もう一方はinconsistentエッジと呼んで異
なるカテゴリのノードをつなぐのに用いる。但し、ステ
ップ304で形成される初期サブクラスターグラフの中
のエッジは全てcosistentエッジである。
ターをノードの数によってソートし、小さいサブクラス
ター(含まれるノードの数が少ない)から開始して、他
のサブクラスターの内一番近いサブクラスターとエッジ
でつなげられる。そのときののエッジの種類は後述する
ルールによって決められる。二つのサブクラスターが結
合されると同時に併合され、新しいサブクラスターが生
成される。この過程は再帰的に、全てのサブクラスター
が一つだけの大きいクラスターに併合されるまで繰り返
される。二つのサブクラスターを最短距離エッジ(例え
ばノードAとノードBの間のエッジ)でつなぐときに、
エッジの種類は次のようなルール(consisten
cy基準)で決定される。ノードAとノードBとの間の
長さLのエッジがcosistentであるために同時
に満たすべき二つの条件を次に示す。
エッジで直接につながっているノードの内、ノードAか
ら最も遠いノード(FN)との間の距離L1がCxLよ
り小さいこと。ただし、ここでCは定数である。」 条件2「ノードBとconsistentエッジで直接
につながっているノードの内、ノードBから最も遠いノ
ード(FN)との間の距離L2がCxLより小さいこ
と。ただし、ここでCは定数である。」 図5は、ノードA、ノードBとそれぞれのFNノードの
関係を示した一例である。条件1と条件2を同時に満た
さないノードはinconsistentエッジによっ
て結合される。
よって形成されたグラフをトラバースしながらcosi
stentエッジでつながっているノードによって表示
されている動画像配列を同じ顔カテゴリとして出力す
る。ここで、incosistentエッジの役割は、
異なったカテゴリに属するサブクラスターを分離するこ
とである。図6は、実際の入力データを使用したとき、
上記の過程で形成されたグラフの一例を示したものであ
る。図6では、各ノードが一つの動画像配列に相当し、
文字は配列に映されている実際の人物名の頭文字であ
り、番号は配列番号である。実線で表示されているエッ
ジがconsistentエッジであり、点線はinc
onsistentエッジを表し、数字はエッジの長さ
(2つのノードの間の最短距離)を表している。
表し、認識過程ではその内部状態を一時的に固定したま
まで入力に相当するノードをステップ305で説明した
cosistency基準に基づいて、consist
ent/inconsistentエッジで内部状態グ
ラフと結合し、そのエッジがcosistentエッジ
の場合、入力のカテゴリがエッジの他方にあるノードと
同じカテゴリであると見なす。一方、incosist
entエッジの場合、新しい(まだ登録されていない)
カテゴリに属することとなる。
われる。但し、システムの現在の内部状態がN個のノー
ドから構成されたグラフによって表現されると仮定し、
以下では、図7に示す内部状態で入力されるN+1個目
のノードに対して追加学習を行うこととする。
して、行列Mで新しい(N+1)個目の列を計算し追加
する。
ドkを見つけて、前述のconsistency基準に
基づいていて両ノードをcosistent/inco
nsistentエッジでつなぐ。inconsist
entエッジの場合、ステップ4に進む。
属する全てのノードlに対して、ノードlと新しいノー
ドとの間の距離D1、そしてノードlとそれから最も近
いノードnとの間の距離D2を計算する。もし、D1<
D2であれば、ノードlと新しいノードをconsis
tentエッジでつなぐ。その後、ノードlと直接co
sistentエッジでつながっているすべてのノード
mに対して(ノードnも含めて)、lとmとの間の距離
D(l,m)とmと新しいノードとの間の距離D(N+
1,m)を計算し、D(l,m)<D(N+1,m)で
あれば、mとlとの間のエッジを削除し、mと新しいノ
ードとの間に新しいエッジ(もしそんなエッジがまだ存
在しなければ)を入れる。
ターCk(図8参照)と、inconsistentエ
ッジEikによってつながっているクラスターCi(そう
いうクラスターが存在すれば)のすべてのノードPiに
対して、新しいノードとの間の距離D(Pi,N+1)
を計算し、D(Pi,N+1)<Eikであれば、Eikを
削除し、Piと新しいノードとの間に新しいエッジEik
を挿入する(そのエッジの種類をcosistency
基準に基づいて決める)。その後、inconsist
entエッジEijでつながっているクラスターCiとCj
が存在したら(但し、CiがCkとつながってもいいが、
CjはCkとはつながっていない場合に限る)、クラスタ
ーCjに属するすべてのノードPjに対して、新しいノー
ドとの間の距離D(Pj,N+1)を計算し、D(Pi,
N+1)<Eijが満たされば、Eijを削除し、Pjと新
しいノードの間に新しいエッジEjkを入れる(そのエッ
ジの種類をconsistency基準に基づいて決め
る)。しかし、CiがCkにつながっていなければ、この
操作をCiまたはCjが他のクラスターから切断されない
場合に限って行う。
度データが集まってから学習を行い、その後、追加学習
を行う仕組みになっているが、最初から逐次的に学習を
行うこと(所謂オンライン学習)も考えられる。オンラ
インバージョンの場合、最初は2つのノードだけが与え
られ、それらがいくら離れていてもconsisten
tエッジでつなぎ、その後、新しく入力されるノードが
上記の追加学習法に基づいてグラフに挿入される。ある
程度データが集まってから定期的に全てのノードに対し
てconsistencyチェックを行い、consi
stency基準を満たさないノードの間のエッジをi
nconsistentエッジに置き換える。
の場合システムの内部状態を最初から再学習する必要が
なく、新しい部分だけに関連ある結合が更新・追加さ
れ、関連のない部分がそのままに残る。これによって、
生物などが行うような自然な追加学習が実現できるだけ
ではなく、莫大な計算量の節約も可能である。特に、実
環境では、システムの内部状態が長時間のデータに基づ
いて形成されるので、本方法の利用が有利である。
は、例えば図6の状態で新たな対象情報が入力されたと
きに、そのカテゴリ分けには全てのノードとの比較を行
うことで対象情報のグラフでの位置を自動計算によって
決定する場合を示すが、入力される対象情報があらかじ
めどのカテゴリに含まれるかの情報を人手で一部与える
ことにより、学習をより正確にすることができる。例え
ば、与えられた対象情報がFで表されているカテゴリで
ある場合には、自動的なカテゴリ分けをすることなく、
直接に図6におけるF1〜F6のノードとの間の距離を
計算し、正確なグラフ位置を決定することができる。
sistentエッジを用いてサブクラスタを結合する
において、自動学習によるカテゴリ情報または人手で与
えるカテゴリ情報を基にconsistent/inc
onsistentエッジを変更するステップを追加す
ることにより、生成されたカテゴリを示すグラフが間違
って繋がれた場合にその修正が可能となる。
する場合を示すが、本発明はそれ以外の対象物体につい
ても同様な処理が可能である。
に示した装置の一部又は全部をコンピュータプログラム
で記載してそれを実行できるようにし、それをコンピュ
ータが読み取り可能な記録媒体、例えば、フロッピーデ
ィスク(登録商標)や、MO、ROM、メモリカード、
CD、DVD、リムーバブルディスクなどに記録して提
供し、配布することが可能である。
下の効果が得られる。
に用意された情報を用いずに、コンピューターが自律的
に長時間の連続データを自分のタスクの目的に応じて自
己組織化的に学習し、認識することが可能になる。
動画像の顔画像1枚1枚をテンプレートとして使用する
ことによって、照明条件、サイズや視点角度の変動の影
響が受けにくくなるので、学習/認識過程の効率を向上
させることができる。
が与えられた場合、システムを最初から再学習する必要
がなく、柔軟性のある自然な追加学習や認識が可能にな
る。
より、クラス内のサンプルデータが連続的に分布し、ク
ラス間の距離がクラス内の距離より大きい場合でも認識
が可能である。
習、認識の全ての過程が自動的に行われるため、人手に
よる作業を大幅に節約できる。
顔カテゴリのサンプル数が極端に異なっても問題にはな
らない。つまり、本発明方法はサンプルの分布の形には
依存しないという利点がある。
で使用されるさまざまな特徴の評価を行うことができ
る。
チャート。
ート。
顔画像配列の例
助図。
内部状態の一例。
を説明するための補助図。
明するための補助図。
Claims (4)
- 【請求項1】 連続的に撮影した環境映像データから、
映像内で移動する対象物体を教師なしで自動的に学習す
る動画像学習方法において、 事前に対象物体のカテゴリ情報が与えられていないデー
タを撮影する段階と、 前記対象物体の動画像を時空間的に切り出し動画像配列
を作成する段階と、 全ての組み合わせの前記動画像配列間で動画像配列の中
に含まれる画像間の距離をもとに動画像配列間の距離を
計算する段階と、 前記動画像配列間の距離を用いて初期サブクラスタを形
成する段階と、 consistent/inconsistentエッ
ジを用いて全てのサブクラスタを結合する段階と、 前記結合された各カテゴリー毎の動画像辞書を作成する
段階と、から構成されることを特徴とする動画像学習方
法。 - 【請求項2】 前記切り出した動画像の一部に関してカ
テゴリ分けの事前情報を与える段階を備えたことを特徴
とする請求項1記載の動画像学習方法。 - 【請求項3】 前記consistent/incon
sistentエッジを用いて全てのサグクラスタを結
合する段階で、カテゴリ情報を与える段階と、与えられ
たカテゴリ情報を基に前記consistent/in
consistentエッジを変更する段階とを備えた
ことを特徴とする請求項1または2記載の動画像学習方
法。 - 【請求項4】 連続的に撮影した環境映像データから、
映像内で移動する対象物体を教師なしで自動的に学習す
る動画像学習方法を、コンピュータに実行させるための
プログラムを、該コンピュータが読み取り可能な記録媒
体に記録した記録媒体であって、 事前に対象物体のカテゴリ情報が与えられていないデー
タを撮影する過程と、前記対象物体の動画像を時空間的
に切り出し動画像配列を作成する過程と、全ての組み合
わせの前記動画像配列間で動画像配列の中に含まれる画
像間の距離をもとに動画像配列間の距離を計算する過程
と、前記動画像配列間の距離を用いて初期サブクラスタ
を形成する過程と、consistent/incon
sistentエッジを用いて全てのサブクラスタを結
合する過程と、前記結合された各カテゴリー毎の動画像
辞書を作成する過程と、をプログラムで記録したことを
特徴とする記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000338629A JP3639520B2 (ja) | 2000-11-07 | 2000-11-07 | 動画像学習方法およびこのプログラムを記録した記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000338629A JP3639520B2 (ja) | 2000-11-07 | 2000-11-07 | 動画像学習方法およびこのプログラムを記録した記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002150297A true JP2002150297A (ja) | 2002-05-24 |
JP3639520B2 JP3639520B2 (ja) | 2005-04-20 |
Family
ID=18813810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000338629A Expired - Fee Related JP3639520B2 (ja) | 2000-11-07 | 2000-11-07 | 動画像学習方法およびこのプログラムを記録した記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3639520B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006068223A1 (ja) * | 2004-12-24 | 2006-06-29 | National University Corporation Yokohama National University | 画像処理装置 |
JP2011096072A (ja) * | 2009-10-30 | 2011-05-12 | Mitsubishi Electric Corp | 物体検出装置及び物体検出プログラム |
-
2000
- 2000-11-07 JP JP2000338629A patent/JP3639520B2/ja not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006068223A1 (ja) * | 2004-12-24 | 2006-06-29 | National University Corporation Yokohama National University | 画像処理装置 |
JP2011096072A (ja) * | 2009-10-30 | 2011-05-12 | Mitsubishi Electric Corp | 物体検出装置及び物体検出プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP3639520B2 (ja) | 2005-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108830855B (zh) | 一种基于多尺度低层特征融合的全卷积网络语义分割方法 | |
CN108764065B (zh) | 一种行人重识别特征融合辅助学习的方法 | |
WO2020224424A1 (zh) | 图像处理方法、装置、计算机可读存储介质和计算机设备 | |
CN111814661B (zh) | 基于残差-循环神经网络的人体行为识别方法 | |
CN113065558A (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN111539370A (zh) | 一种基于多注意力联合学习的图像行人重识别方法和系统 | |
US20210264144A1 (en) | Human pose analysis system and method | |
CN112446302B (zh) | 一种人体姿态检测方法、系统、电子设备和存储介质 | |
US10929978B2 (en) | Image processing apparatus, training apparatus, image processing method, training method, and storage medium | |
CN103810473B (zh) | 一种基于隐马尔科夫模型的人体对象的目标识别方法 | |
JP2012160178A (ja) | オブジェクト認識デバイス、オブジェクト認識を実施する方法および動的アピアランスモデルを実施する方法 | |
US20100111375A1 (en) | Method for Determining Atributes of Faces in Images | |
JP2021503139A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
CN112861917A (zh) | 基于图像属性学习的弱监督目标检测方法 | |
CN111666976A (zh) | 基于属性信息的特征融合方法、装置和存储介质 | |
CN110826534A (zh) | 一种基于局部主成分分析的人脸关键点检测方法及系统 | |
CN114519863A (zh) | 人体重识别方法、人体重识别装置、计算机设备及介质 | |
CN112883827B (zh) | 图像中指定目标的识别方法、装置、电子设备和存储介质 | |
Hasan et al. | Tiny head pose classification by bodily cues | |
CN110633631B (zh) | 一种基于部件幂集和多尺度特征的行人重识别方法 | |
Prabhakar et al. | Cdnet++: Improved change detection with deep neural network feature correlation | |
CN113887468B (zh) | 一种三阶段网络框架的单视角人-物交互的识别方法 | |
Abayomi-Alli et al. | Facial image quality assessment using an ensemble of pre-trained deep learning models (EFQnet) | |
CN113743251B (zh) | 一种基于弱监督场景的目标搜索方法及装置 | |
JP4232388B2 (ja) | 映像検索装置及びそれに用いる映像検索方法並びにそのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20041217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050114 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080121 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090121 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090121 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100121 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110121 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110121 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120121 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130121 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |