JP2003271958A - 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置 - Google Patents

画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置

Info

Publication number
JP2003271958A
JP2003271958A JP2002073386A JP2002073386A JP2003271958A JP 2003271958 A JP2003271958 A JP 2003271958A JP 2002073386 A JP2002073386 A JP 2002073386A JP 2002073386 A JP2002073386 A JP 2002073386A JP 2003271958 A JP2003271958 A JP 2003271958A
Authority
JP
Japan
Prior art keywords
face
image
registered
face image
covariance matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002073386A
Other languages
English (en)
Inventor
Atsushi Okubo
厚志 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002073386A priority Critical patent/JP2003271958A/ja
Publication of JP2003271958A publication Critical patent/JP2003271958A/ja
Withdrawn legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 高精度で且つ少ない情報量でもリアルタイム
で正確に顔を認識できる画像処理方法、その装置、その
プログラム、その記録媒体及び画像処理装置搭載型ロボ
ット装置を提供する。 【解決手段】 顔認識装置1001は、画像入力部10
02と、画像から顔画像を検出する顔検出部1003
と、顔画像から顔特徴情報を検出する顔特徴検出部10
04と、顔画像情報及び顔特徴情報からなる個人顔デー
タの分布をガウス分布近似することにより顔認識する顔
認識部1005と、顔認識部1005の結果を出力する
認識結果部1006とから構成される。この顔認識装置
1001は、個人顔データ分布の共分散行列が全ての個
人顔に共通であると仮定して予め求めた共通共分散行
列、同一個人の複数の顔画像から平均して求めた登録済
平均顔画像ベクトル、及び学習した顔画像の枚数情報を
有し、顔認識部1005は、これらの情報から確率密度
分布を算出して顔を認識する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、顔等の画像をリア
ルタイムに認識する画像処理方法、その装置、そのプロ
グラム、その記録媒体及び画像処理装置搭載型ロボット
装置に関する。
【0002】
【従来の技術】電気的又は磁気的な作用を用いて人間
(生物)の動作に似た運動を行う機械装置を「ロボッ
ト」という。我が国においてロボットが普及し始めたの
は、1960年代末からであるが、その多くは、工場に
おける生産作業の自動化・無人化等を目的としたマニピ
ュレータや搬送ロボット等の産業用ロボット(Industri
al Robot)であった。
【0003】最近では、人間のパートナーとして生活を
支援する、すなわち住環境その他の日常生活上の様々な
場面における人的活動を支援する実用ロボットの開発が
進められている。このような実用ロボットは、産業用ロ
ボットとは異なり、人間の生活環境の様々な局面におい
て、個々に個性の相違した人間、又は様々な環境への適
応方法を自ら学習する能力を備えている。例えば、犬、
猫のように4足歩行の動物の身体メカニズムやその動作
を模した「ペット型」ロボット、或いは、2足直立歩行
を行う人間等の身体メカニズムや動作をモデルにしてデ
ザインされた「人間型」又は「人間形」ロボット(Huma
noid Robot)等のロボット装置は、既に実用化されつつ
ある。
【0004】これらのロボット装置は、産業用ロボット
と比較して、エンターテインメント性を重視した様々な
動作を行うことができるため、エンターテインメントロ
ボットと呼称される場合もある。また、そのようなロボ
ット装置には、外部からの情報や内部の状態に応じて自
律的に動作するものがある。
【0005】ところで、ロボット装置が人間及び物等を
認識するために、ロボット装置の例えば頭部ユニットに
は、画像処理装置が搭載される。画像処理装置の1つと
しては、例えば個人の顔を認識する顔認識装置がある。
この顔認識装置における顔認識方法においては、個人顔
を学習する際に多くの顔画像を入力して固有値計算及び
特徴認識等の複雑な計算処理を行うため、リアルタイム
処理が困難である。従って、通常、顔認識はオフライン
処理で行われている。また、登録する顔画像をそのまま
保存しておき、相関法等を使用した簡単なマッチング処
理のみで認識を行うことによりリアルタイムに顔の学習
をする方法もあるが、顔の表情変化及び照明条件の変化
等に対応できず、認識率が極めて低い。
【0006】従来、上述のような相関法等を使用した顔
認識方法に比して、リアルタイムであっても顔認識率を
高めた顔認識方法がBaback Moghaddam等により、Beyond
Eigenfaces :Probabilistic Matching for Face Recog
nition(M.I.T Media Laboratory Perceptual Computing
Section Technical Report No.433), ProbabilisticVi
sual Learning for Object Representation(IEEE Trans
actions on PatternAnalysis and Machine Intelligenc
e, Vol. 19, No. 7, JULY 1997)に提案されている(以
下、従来例という)。
【0007】この従来例に記載の顔認識方法において
は、同一人物の2枚の顔の差分画像の第1のクラス及び
別人物の2枚の顔の差分画像の第2のクラスの2つのク
ラスを求め、この2つのクラスの分布は個人によらず一
定であると仮定する。そして、予め大量画像を使用して
2つの差分顔クラスを学習することにより、新しい顔
は、画像を1枚のみ保存するだけで登録することがで
き、従ってリアルタイムで顔登録処理を可能とするもの
である。
【0008】
【発明が解決しようとする課題】しかしながら、従来例
においては、相関法等と比較すると認識率が高いもの
の、登録時の顔(登録顔)が不鮮明であったり、表情及
び照明環境が標準的でなかったりした場合には、認識率
が悪化するという問題点がある。
【0009】本発明は、このような従来の実情に鑑みて
提案されたものであり、少ない情報量でも高精度にリア
ルタイムで正確に顔を認識できる画像処理方法、その装
置、そのプログラム、その記録媒体及び画像処理装置搭
載型ロボット装置を提供することを目的とする。
【0010】
【課題を解決するための手段】上述した目的を達成する
ために、本発明に係る画像処理方法は、入力された画像
から顔画像を検出し、この顔画像から顔特徴情報を検出
し、この顔画像及び顔特徴情報からなる個人顔データの
分布をガウス分布近似することにより顔認識する画像入
力方法において、複数の個人顔から予め学習した学習デ
ータベースに格納された、個人顔データ分布の共分散行
列が全ての個人顔に共通であると仮定して予め求めた共
通共分散行列及び各個人の複数の顔画像ベクトルを平均
して予め求めた登録済平均顔画像ベクトルから確率密度
分布を求めて顔認識する顔認識工程を有することを特徴
とする。
【0011】本発明においては、共通共分散行列Σを使
用して確率密度分布を求めて顔認識する顔認識手段を有
するため、学習データベースのデータ量及び顔認識の際
の計算量を飛躍的減少させることができ、リアルタイム
で顔認識することができると共に、相関法に比して顔認
識率が極めて高いと共に、登録時の顔が不鮮明であった
り、照度及び照明関係が標準的でなかったりしても、学
習データベースの登録済平均顔画像ベクトルは同一個人
の複数の顔画像から平均して求められるため、極めて高
い認識率を維持することができる。
【0012】本発明に係る画像処理装置は、画像入力手
段と、この画像入力手段から供給された画像から顔画像
を検出する顔画像検出手段と、この顔画像から顔特徴情
報を検出する顔特徴検出手段とを有し、上記顔画像及び
顔特徴情報からなる個人顔データの分布をガウス分布近
似することにより顔認識する画像処理装置において、複
数の個人顔から予め学習した学習データベースを保有
し、上記学習データベースは、個人顔データ分布の共分
散行列が全ての個人顔に共通であると仮定して予め求め
た共通共分散行列と、各個人の複数の顔画像ベクトルを
平均して予め求めた登録済平均顔画像ベクトルとを有
し、上記共通共分散行列及び上記登録済平均顔画像ベク
トルから確率密度分布を求めて顔認識する顔認識手段を
有することを特徴とする。
【0013】本発明に係る画像処理装置は、複数のパタ
ーンから1つのパターンを認識する画像処理装置におい
て、画像入力手段と、この画像入力手段から供給された
入力画像から特徴部分を検出する特徴検出手段と、上記
入力画像及び上記特徴部分から上記パターンの画像デー
タの分布をガウス分布近似することによりパターン認識
する認識手段と、複数のパターンから予め上記パターン
の特徴を学習し、上記パターンの画像データ分布の共分
散行列が全てのパターンに共通であると仮定して求めた
共通共分散行列と同一種類の複数のパターン画像ベクト
ルを平均して求めた登録済平均パターン画像ベクトルと
を保有する学習データベースとを具備し、上記認識手段
は、上記共通共分散行列及び上記登録済平均パターン画
像ベクトルから確率密度分布を求めてパターン認識する
ものであることを特徴とする。
【0014】本発明に係るロボット装置は、供給された
入力情報に基づいて動作を行う自律型のロボット装置で
あって、画像入力手段と、この画像入力手段から供給さ
れた画像から顔画像を検出する顔画像検出手段と、この
顔画像から顔特徴情報を検出する顔特徴検出手段と、複
数の個人顔から予め学習し、個人顔データ分布の共分散
行列が全ての個人顔に共通であると仮定して予め求めた
共通共分散行列と各個人の複数の顔画像ベクトルを平均
して予め求めた登録済平均顔画像ベクトルとを保有する
学習データベースと、上記共通共分散行列及び上記登録
済平均顔画像ベクトルから確率密度分布を求めて顔認識
する顔認識手段とを有することを特徴とする。
【0015】本発明においては、共通共分散行列を使用
してリアルタイムで顔認識することができる画像処理装
置が搭載されているため、ロボット装置はリアルタイム
に個人の顔を認識することが可能となり、更に認識率が
高く相関法に比して顔の表情変化及び照明等の条件変化
等に対応できるため、エンターテイメント性等、ロボッ
ト装置の使用用途を更に広くすることができる。
【0016】
【発明の実施の形態】以下、本発明を適用した具体的な
実施の形態について、図面を参照しながら詳細に説明す
る。この実施の形態は、例えば脚式移動ロボット等に搭
載され、個人の顔を認識する顔認識装置に本発明の画像
処理装置を適用したものである。
【0017】図1は、本実施の形態の顔認識装置を示す
ブロック図である。図1に示すように、顔認識装置10
01は、画像入力部1002と、画像入力部1002か
らの画像が入力され、この画像から顔画像を検出する顔
検出部1003と、顔検出部1003からの顔画像情報
が入力され、顔画像情報から顔特徴情報を検出する顔特
徴検出部1004と、顔画像情報及び顔特徴情報が入力
され、これらの個人顔データの分布をガウス分布近似す
ることにより顔認識する顔認識部1005と、顔認識部
1005の結果を出力する認識結果部1006とから構
成される。また、この顔認識装置1は、複数の個人顔か
ら予め学習した学習データベース(図示せず)を有し、
顔検出部1003、顔特徴検出1004及び顔認識部1
005は、学習データベースのデータを必要に応じて取
り出して処理を行うものである。
【0018】学習データベースは、個人顔データ分布の
共分散行列が全ての個人顔に共通であると仮定して予め
求めた共通共分散行列Σ、同一個人の複数の顔画像ベク
トルを平均した平均顔画像ベクトル(登録済平均顔画像
ベクトル)及び学習した顔画像の枚数情報等を有し、顔
認識部1005は、この共通共分散行列Σ及び登録済顔
画像ベクトルを使用して確率密度分布を求め、顔を認識
するものである。
【0019】以下、本実施の形態の顔認識装置の原理に
ついて説明する。顔検出部1003において抽出される
顔画像の大きさをn×mピクセルとしたとき、この2次
元データ列をラスタ方向等の決められた順番で一列に並
べ換えることにより、N=n×m次元の顔画像ベクトル
xを定義することができる。この場合、一枚の顔画像は
N次元の空間上の1点と考えられ、一般的に各個人の顔
は、図2に示すように、互いに交わることがない分布を
形成する。図2は、個人A〜Dの個人顔データの分布を
模式的に示している。
【0020】N次元として定義された空間において、各
個人顔の顔データ分布を推定することは、一般的に、空
間は高次元であり、顔データ分布は極めて複雑な形状を
有しているため顔認識の際の問題点となる。
【0021】即ち、このように高次元で複雑な形状をし
た顔データ分布を数学的に取り扱うことは困難である。
従って、顔データの分布を単純化する方法として、後述
するように、顔認識部1005の顔画像アライメント部
により、画像変換処理を行う。
【0022】例えば図3(a)に示すような顔画像11
01から、図3(b)に示すように、各顔画像に含まれ
る顔の特徴位置(眼、鼻及び口等の位置)1102を検
出し、図3(c)に示すように、アフィン変換等のモー
フィング処理による特徴位置のアライメントを行い、各
特徴位置が全て同じ位置となるように画像変換処理を行
う。こうして顔データ分布の形状を単純化すれば、顔デ
ータの分布はガウス分布に近づくことは公知である。
【0023】顔データ分布がガウス分布近似できると、
数学的に取り扱うことが比較的容易になる。具体的には
各個人のデータ分布の統計量(個人iの顔画像ベクトル
の平均である平均顔画像ベクトル及び共分散行列Σ
)を求めれば、下記数式(2)により、ある顔画像ベ
クトルxが個人iである確率密度分布P(x|Ω)を
求めることができる。
【0024】
【数4】
【0025】N次元空間においてn個のデータが分布し
ているときの共分散行列Σは、下記数式(3)で表され
る。
【0026】
【数5】
【0027】しかし、共分散行列Σを高精度で求める
ためには、顔クラスΩに属する多量の顔画像ベクトル
が必要となる。例えば、30×30ピクセルの顔画像空
間、即ち、900次元の空間における共分散行列Σを推
定するためには、一般に数千枚の顔画像が必要とされ
る。顔認識装置において、このように大量の顔画像が必
要になると、新たに登録しようとした際、登録終了まで
に極めて長い時間を要することになり実用的ではない。
更に、既に登録された個人顔の情報が古くなった際等に
同一人物の現在の顔情報を追加学習させる場合において
も、新規登録と同様に長い時間を要すると共に、このよ
うな追加学習させる機能を一般的に実現するためには学
習に使用した顔画像を顔認識装置に全て保存しておく必
要があり、装置に多量のデータ記憶源が必要となる。
【0028】これに対し、PCA(Principal Componen
t Analysis:主成分分析)法を使用して、次元圧縮する
方法も公知であるが、この方法を使用しても、新規登録
の際には、一般的には100枚以上の顔画像が必要とな
る。また、上述した場合と同様に、追加学習を行うため
には、学習した顔画像を全て記憶しておくことが必要と
なる。
【0029】そこで、以上のような問題点を解決するた
めに、本願発明者等は、共分散行列Σが全ての個人顔に
共通であると仮定した。即ち、本願発明者等は、全ての
任意の個人iについて、Σ=Σと仮定した下記数式
(1)を使用して確率密度分布を求めれば、確率密度分
布を求める際のデータ記憶量が飛躍的に低減することが
できることを見出した。
【0030】
【数6】
【0031】上記数式(1)に示す確率密度分布におい
て、例えば顔認識するために画像入力部2から入力され
た画像から得られた顔画像ベクトルをxtmpとすれ
ば、上記数式(1)の顔画像ベクトルxに顔画像ベクト
ルxtmpを代入することにより、顔画像ベクトルx
tmpが登録済顔クラスΩに属する確率が算出され
る。全ての登録済顔クラスΩについて、顔画像ベクト
ルxtmpが属する確率を算出して最も確率が高い登録
済顔クラスを求めれば、顔画像ベクトルxtmpが属す
る登録済顔クラスが推定される。
【0032】これにより、事前に様々な人物の顔画像を
大量に学習して全ての顔に共通な共分散行列(共通共分
散行列)Σを求めておけば、この顔認識装置に新たに個
人登録する際には、新規平均顔画像ベクトルを求める計
算だけでよく、必要な新規顔画像の枚数も10枚程度と
なり、データ量が大幅に削減されるため、リアルタイム
で新規顔登録及び既存登録顔の追加学習が可能となる。
上述した顔認識部5は、後述する確率推定部を有し、学
習データベースの登録データを使用して、上記数式
(1)から確率密度分布を算出して、顔画像ベクトルx
を有する顔を認識する。
【0033】ここで、学習データベースに記憶すべきデ
ータは、全ての顔に共通な共分散行列Σ、各登録済み個
人顔の各登録済平均顔画像ベクトル、及び学習した顔の
各個人における枚数情報nのみとなる。このため、新
たに顔を登録する場合、データとしては新たに登録する
顔の平均顔画像ベクトル(新規平均顔画像ベクトル)
と、学習した顔の枚数(枚数情報)とが1つ増えるのみ
であり、データ記憶源をほとんど消費することがない。
【0034】また、既存顔(登録済顔)の追加学習を行
うには下記数式(4)及び数式(5)を使用して、登録
済平均顔画像ベクトルを更新すればよく、追加学習の際
のデータ記憶量は変化しない。
【0035】
【数7】
【0036】
【数8】
【0037】このような追加学習による学習データベー
スの更新作業は、例えば顔認識部に更新手段を設けて行
われる。
【0038】一方、前述したように、従来例において
は、同一人物の2枚の顔画像の差分クラス(intraperso
nal class)Ωと、別人物の2枚の顔画像の差分顔ク
ラス(extrapersonal class)Ωとを予め大量の画像
を用いて学習することにより、顔の登録時には、画像を
そのまま保存するだけのリアルタイム顔登録処理が可能
となる。この従来例においては、ある入力された顔画像
ベクトルxがΩに属する、即ち、顔画像ベクトルxが
個人Iである確率密度分布は下記数式(6)で表され
る。
【0039】
【数9】
【0040】ここで、本願発明者等は、上記数式(6)
において、登録顔画像ベクトルxの代わりに、登録済
個人iの登録平均顔画像ベクトルを代入し、同一人物の
2枚の顔画像ベクトルの差分顔画像ベクトルΔの代わり
に、同一人物の1枚の顔画像ベクトルとその人物の平均
顔画像ベクトルとの差分顔画像ベクトルΔavgを代入
することにより、更に精度が高い確率密度分布が求まる
ことを知見した。即ち、同一人物の2枚の顔画像ベクト
ルの差分顔クラスの代わりに、同一人物の1枚の顔画像
ベクトルとその人物の平均顔画像ベクトルとの差分顔ク
ラスΩIavgを求める。この場合、ある入力された顔
画像ベクトルxがΩIavgに属する確率密度分布は下
記数式(7)及び数式(8)で示される。
【0041】
【数10】
【0042】
【数11】
【0043】即ち、上記数式(1)を使用する本実施の
形態の顔認識方法は、上記数式(8)はガウス分布の共
分散行列Σが全ての個人顔に共通であると仮定した数式
(1)と等価であり、同一人物の1枚の顔画像ベクトル
xとその人物の平均顔画像ベクトルとの差分顔クラスΩ
Iavgを学習することにより、リアルタイムに顔の新
規学習及び追加学習を可能にする方法となる。
【0044】ここで、本実施の形態においては、平均顔
画像ベクトルを使用し、この平均顔画像ベクトルと1枚
の顔画像ベクトルxとの差分顔クラスΩIavgを学習
しているため、単に2枚の顔画像ベクトルから差分顔ク
ラスを求める従来例よりも、顔認識率が遙かに高い。即
ち、複数枚の顔画像から平均顔画像ベクトルを求めるた
め、登録時の顔が不鮮明であったり、表情及び照明環境
が標準的でない顔(顔画像)においても確実に認識する
ことができる。
【0045】以下、本実施の形態の顔認識装置1につい
て具体的に説明する。上述した図1に示す画像入力部1
002は、例えば、CCDカメラ等の撮像装置を有し、
この撮像装置にて獲得された画像をデジタル変換し、顔
検出部1003へ入力する。顔認識装置1001がロボ
ット装置に搭載される場合は、例えばロボット装置の頭
部ユニットに搭載されるCCDカメラ等の撮像手段によ
り画像を入手することができる。顔検出部1003で
は、デジタル変換された画像内に含まれる顔画像の領域
を抽出し、抽出された顔画像領域を顔特徴検出部100
4に入力する。顔特徴検出部1004は、顔画像領域に
含まれる眼、鼻、及び口等の顔特徴位置を検出し、この
顔特徴位置を、顔検出部1003で検出された顔画像と
共に顔認識部1005へ供給する。顔認識部1005
は、上述したアルゴリズムに基づいて入力画像内の顔が
学習データベース中の顔と同一人物のものである確率密
度を計算する。認識結果部1006は、顔認識部100
5の計算結果を認識結果として出力する。
【0046】図4は、顔検出部1003を示すブロック
図である。図4に示すように、顔検出部1003は、画
像切り出し部1032と顔判断部1033とを有する。
先ず、画像入力部1002より画像切り出し部1032
に画像1031が入力される。画像切り出し部1032
は、入力画像1031の全部又は一部の領域をラスタ走
査し、入力画像1031から顔が含まれていると想定さ
れる様々な大きさの画像を切り出し、切り出した切出画
像データを顔判断部1033に入力する。顔判断部10
33は、顔学習データベース1007に接続されてお
り、この顔学習データベース1007の顔学習データを
使用し、切り取られた画像が顔であるか否かの判断を行
う。切り取られた画像が顔であると判断された場合は、
その顔画像又は顔領域情報(以下、顔画像1034とい
う。)を顔特徴検出部1004へ出力する。顔判断部1
033の判断方法としては、相関法に基づくテンプレー
トマッチング法、PCA、及びSVM(Support Vector
Machine)法等を使用した方法等がある。
【0047】図5は、顔特徴検出部4を示すブロック図
である。図5に示すように、顔特徴検出部1004は、
画像切り出し部1042と、顔特徴判断部1043とを
有する。顔検出部1003から顔画像1034が入力さ
れると、顔特徴検出部1004の画像切り出し部104
2は、顔検出部1003の画像切り出し部1032と同
様に、入力された顔画像1034の全部又は一部の領域
をラスタ走査し、眼、鼻及び耳等の顔特徴が含まれると
想定される様々な大きさの画像を切り出し、切り出した
画像を顔特徴判断部1043に入力する。顔特徴判断部
1043は、学習データベース1007に接続されてお
り、この学習データベース1007の顔学習データを使
用して、切り出した画像が顔特徴であるか否かを判断す
る。切り出した画像が顔特徴であると判断した場合は、
その顔特徴位置等の顔特徴情報1044を検査結果とし
て出力する。この顔特徴判断部1043の判断方法にお
いても、顔検出部1003の顔判断部1033と同様な
方法、即ち相関法に基づくテンプレートマッチング法、
PCA法、及びSVM法等を使用することができる。
【0048】図6は、顔認識部1005を示すブロック
図である。図6に示すように、顔認識部1005は、顔
検出部1003からの顔画像1034及び顔特徴検出部
1004からの顔特徴情報1044の各データ1051
が入力される顔画像アライメント部1052と、コント
ラスト正規化部1053と、確率推定部1054と、顔
認識部1055とを有する。
【0049】画像アライメント部1052には、顔検出
部1003及び顔特徴検出部1004から夫々顔画像1
034及び顔特徴情報1044が入力される。画像アラ
イメント部1052は、上述したように、顔特徴位置
が、予め決められた所定の基準位置にとなるようにアフ
ィン変換等のモーフィング処理を行う。モーフィング処
理されたデータは、コントラスト正規化部1053に入
力される。コントラスト正規化部1053は、モーフィ
ング処理後の顔画像の照明条件等を一定にするため、コ
ントラストを調整する。コントラスト調整が行われた顔
画像(顔画像ベクトル)は確率推定部1054に入力さ
れる。
【0050】確率推定部1054は、学習データベース
7に接続されており、学習データベース7の登録済み顔
と、コントラスト調整が行われた顔画像とのマッチング
を行い、同一人物である確率を推定する。即ち、この確
率推定部1054は、入力された顔画像ベクトル並びに
学習データベース1007に登録されている共通共分散
行列Σ及び平均登録顔ベクトル等のデータと、上記数式
(1)とを使用して、入力顔画像ベクトルが登録済個人
iである確率を求める。この推定結果は、認識結果部1
006に出力される。認識結果部1006は、登録され
た人物の中から入力顔と同一である可能性が最も高い人
物を出力する。この際、同一である可能性が最も高い人
物は、上述した確率が最も高い人物とすることもできる
が、確率推定部54の推定結果の時系列情報等を分析し
て、同一である可能性が最も高い人物を出力するように
すると、更に認識精度が向上する。
【0051】本実施の形態においては、共分散行列を全
ての個人顔に共通であるとした共通共分散行列を使用し
てガウス分布近似することにより、データ量を飛躍的に
低減することができ、これにより、リアルタイムの顔認
識を可能にすることができる。また、従来例において、
個人顔の顔の登録データが1枚の顔画像であるのに対
し、複数枚の顔画像の平均顔を登録データとしているた
め、従来例においては登録時の顔が不鮮明であったり、
表情及び照明環境が標準的でない場合には認識率が低下
したりしたが、本実施の形態においては、登録データと
して平均顔画像ベクトルを用いることにより、顔認識の
精度を飛躍的に高めることができる。特に、ロボット装
置にこの画像処理装置を適用した場合において、ロボッ
トが自律的に顔を認識する際、照明及び角度等、標準的
な顔画像を取り込むことができるとは限らないため、本
実施の形態のような高精度に顔認識が可能な装置を適用
する必要がある。
【0052】また、本実施の形態においては、本発明の
画像処理装置を顔認識装置として説明したが、本発明の
画像処理装置は、顔認識装置に限るものではなく、相互
の変化の度合いが小さいもの(パターン)であれば、共
分散行列を全てのパターンに共通として、上述と同様な
方法にて適用可能である。
【0053】次に、上述した実施の形態における画像処
理装置(顔認識装置)を搭載した2足歩行タイプのロボ
ット装置について詳細に説明する。この人間型のロボッ
ト装置は、住環境その他の日常生活上の様々な場面にお
ける人的活動を支援する実用ロボットであり、内部状態
(怒り、悲しみ、喜び、楽しみ等)に応じて行動できる
ほか、人間が行う基本的な動作を表出できるエンターテ
インメントロボットである。
【0054】図7に示すように、ロボット装置1は、体
幹部ユニット2の所定の位置に頭部ユニット3が連結さ
れると共に、左右2つの腕部ユニット4R/Lと、左右
2つの脚部ユニット5R/Lが連結されて構成されてい
る(但し、R及びLの各々は、右及び左の各々を示す接
尾辞である。以下において同じ。)。
【0055】このロボット装置1が具備する関節自由度
構成を図8に模式的に示す。頭部ユニット3を支持する
首関節は、首関節ヨー軸101と、首関節ピッチ軸10
2と、首関節ロール軸103という3自由度を有してい
る。
【0056】また、上肢を構成する各々の腕部ユニット
4R/Lは、肩関節ピッチ軸107と、肩関節ロール軸
108と、上腕ヨー軸109と、肘関節ピッチ軸110
と、前腕ヨー軸111と、手首関節ピッチ軸112と、
手首関節ロール軸113と、手部114とで構成され
る。手部114は、実際には、複数本の指を含む多関節
・多自由度構造体である。ただし、手部114の動作
は、ロボット装置1の姿勢制御や歩行制御に対する寄与
や影響が少ないので、本明細書ではゼロ自由度と仮定す
る。したがって、各腕部は7自由度を有するとする。
【0057】また、体幹部ユニット2は、体幹ピッチ軸
104と、体幹ロール軸105と、体幹ヨー軸106と
いう3自由度を有する。
【0058】また、下肢を構成する各々の脚部ユニット
5R/Lは、股関節ヨー軸115と、股関節ピッチ軸1
16と、股関節ロール軸117と、膝関節ピッチ軸11
8と、足首関節ピッチ軸119と、足首関節ロール軸1
20と、足部121とで構成される。本明細書中では、
股関節ピッチ軸116と股関節ロール軸117の交点
は、ロボット装置1の股関節位置を定義する。人体の足
部121は、実際には多関節・多自由度の足底を含んだ
構造体であるが、ロボット装置1の足底は、ゼロ自由度
とする。したがって、各脚部は、6自由度で構成され
る。
【0059】以上を総括すれば、ロボット装置1全体と
しては、合計で3+7×2+3+6×2=32自由度を
有することになる。ただし、エンターテインメント向け
のロボット装置1が必ずしも32自由度に限定されるわ
けではない。設計・制作上の制約条件や要求仕様等に応
じて、自由度すなわち関節数を適宜増減することができ
ることはいうまでもない。
【0060】上述したようなロボット装置1がもつ各自
由度は、実際にはアクチュエータを用いて実装される。
外観上で余分な膨らみを排してヒトの自然体形状に近似
させること、2足歩行という不安定構造体に対して姿勢
制御を行うことなどの要請から、アクチュエータは小型
且つ軽量であることが好ましい。
【0061】図9には、ロボット装置1の制御システム
構成を模式的に示している。同図に示すように、ロボッ
ト装置1は、ヒトの四肢を表現した体幹部ユニット2,
頭部ユニット3,腕部ユニット4R/L,脚部ユニット
5R/Lと、各ユニット間の協調動作を実現するための
適応制御を行う制御ユニット10とで構成される。
【0062】ロボット装置1全体の動作は、制御ユニッ
ト10によって統括的に制御される。制御ユニット10
は、CPU(Central Processing Unit)や、DRA
M、フラッシュROM等の主要回路コンポーネント(図
示しない)で構成される主制御部11と、電源回路やロ
ボット装置1の各構成要素とのデータやコマンドの授受
を行うインターフェイス(何れも図示しない)などを含
んだ周辺回路12とで構成される。
【0063】本発明を実現するうえで、この制御ユニッ
ト10の設置場所は、特に限定されない。図9では体幹
部ユニット2に搭載されているが、頭部ユニット3に搭
載してもよい。あるいは、ロボット装置1外に制御ユニ
ット10を配備して、ロボット装置1の機体とは有線又
は無線で交信するようにしてもよい。
【0064】図8に示したロボット装置1内の各関節自
由度は、それぞれに対応するアクチュエータによって実
現される。すなわち、頭部ユニット3には、首関節ヨー
軸101、首関節ピッチ軸102、首関節ロール軸10
3の各々を表現する首関節ヨー軸アクチュエータA
首関節ピッチ軸アクチュエータA、首関節ロール軸ア
クチュエータAが配設されている。
【0065】また、頭部ユニット3には、外部の状況を
撮像するためのCCD(Charge Coupled Device)カメ
ラが設けられているほか、前方に位置する物体までの距
離を測定するための距離センサ、外部音を集音するため
のマイク、音声を出力するためのスピーカ、使用者から
の「撫でる」や「叩く」といった物理的な働きかけによ
り受けた圧力を検出するためのタッチセンサ等が配設さ
れている。
【0066】また、体幹部ユニット2には、体幹ピッチ
軸104、体幹ロール軸105、体幹ヨー軸106の各
々を表現する体幹ピッチ軸アクチュエータA、体幹ロ
ール軸アクチュエータA、体幹ヨー軸アクチュエータ
が配設されている。また、体幹部ユニット2には、
このロボット装置1の起動電源となるバッテリを備えて
いる。このバッテリは、充放電可能な電池によって構成
されている。
【0067】また、腕部ユニット4R/Lは、上腕ユニ
ット4R/Lと、肘関節ユニット4R/Lと、前腕
ユニット4R/Lに細分化されるが、肩関節ピッチ軸
107、肩関節ロール軸108、上腕ヨー軸109、肘
関節ピッチ軸110、前腕ヨー軸111、手首関節ピッ
チ軸112、手首関節ロール軸113の各々表現する肩
関節ピッチ軸アクチュエータA、肩関節ロール軸アク
チュエータA、上腕ヨー軸アクチュエータA10、肘
関節ピッチ軸アクチュエータA11、肘関節ロール軸ア
クチュエータA12、手首関節ピッチ軸アクチュエータ
13、手首関節ロール軸アクチュエータA14が配備
されている。
【0068】また、脚部ユニット5R/Lは、大腿部ユ
ニット5R/Lと、膝ユニット5 R/Lと、脛部ユ
ニット5R/Lに細分化されるが、股関節ヨー軸11
5、股関節ピッチ軸116、股関節ロール軸117、膝
関節ピッチ軸118、足首関節ピッチ軸119、足首関
節ロール軸120の各々を表現する股関節ヨー軸アクチ
ュエータA16、股関節ピッチ軸アクチュエータ
17、股関節ロール軸アクチュエータA18、膝関節
ピッチ軸アクチュエータA19、足首関節ピッチ軸アク
チュエータA20、足首関節ロール軸アクチュエータA
21が配備されている。各関節に用いられるアクチュエ
ータA,A・・・は、より好ましくは、ギア直結型で
旦つサーボ制御系をワンチップ化してモータ・ユニット
内に搭載したタイプの小型ACサーボ・アクチュエータ
で構成することができる。
【0069】体幹部ユニット2、頭部ユニット3、各腕
部ユニット4R/L、各脚部ユニット5R/Lなどの各
機構ユニット毎に、アクチュエータ駆動制御部の副制御
部20,21,22R/L,23R/Lが配備されてい
る。さらに、各脚部ユニット5R/Lの足底が着床した
か否かを検出する接地確認センサ30R/Lを装着する
とともに、体幹部ユニット2内には、姿勢を計測する姿
勢センサ31を装備している。
【0070】接地確認センサ30R/Lは、例えば足底
に設置された近接センサ又はマイクロ・スイッチなどで
構成される。また、姿勢センサ31は、例えば、加速度
センサとジャイロ・センサの組み合わせによって構成さ
れる。
【0071】接地確認センサ30R/Lの出力によっ
て、歩行・走行などの動作期間中において、左右の各脚
部が現在立脚又は遊脚何れの状態であるかを判別するこ
とができる。また、姿勢センサ31の出力により、体幹
部分の傾きや姿勢を検出することができる。
【0072】主制御部11は、各センサ30R/L,3
1の出力に応答して制御目標をダイナミックに補正する
ことができる。より具体的には、副制御部20,21,
22R/L,23R/Lの各々に対して適応的な制御を
行い、ロボット装置1の上肢、体幹、及び下肢が協調し
て駆動する全身運動パターンを実現できる。
【0073】ロボット装置1の機体上での全身運動は、
足部運動、ZMP(Zero Moment Point)軌道、体幹運
動、上肢運動、腰部高さなどを設定するとともに、これ
らの設定内容にしたがった動作を指示するコマンドを各
副制御部20,21,22R/L,23R/Lに転送す
る。そして、各々の副制御部20,21,・・・等で
は、主制御部11からの受信コマンドを解釈して、各ア
クチュエータA,A・・・等に対して駆動制御信号
を出力する。ここでいう「ZMP」とは、歩行中の床反
力によるモーメントがゼロとなる床面上の点のことであ
り、また、「ZMP軌道」とは、例えばロボット装置1
の歩行動作期間中にZMPが動く軌跡を意味する。な
お、ZMPの概念並びにZMPを歩行ロボットの安定度
判別規範に適用する点については、Miomir Vukobratovi
c著“LEGGED LOCOMOTION ROBOTS”(加藤一郎外著『歩
行ロボットと人工の足』(日刊工業新聞社))に記載さ
れている。
【0074】以上のように、ロボット装置1は、各々の
副制御部20,21,・・・等が、主制御部11からの
受信コマンドを解釈して、各アクチュエータA,A
・・・に対して駆動制御信号を出力し、各ユニットの駆
動を制御している。これにより、ロボット装置1は、目
標の姿勢に安定して遷移し、安定した姿勢で歩行でき
る。
【0075】また、ロボット装置1における制御ユニッ
ト10では、上述したような姿勢制御のほかに、加速度
センサ、タッチセンサ、接地確認センサ等の各種セン
サ、及びCCDカメラからの画像情報、マイクからの音
声情報等を統括して処理している。制御ユニット10で
は、図示しないが加速度センサ、ジャイロ・センサ、タ
ッチセンサ、距離センサ、マイク、スピーカなどの各種
センサ、各アクチュエータ、CCDカメラ及びバッテリ
が各々対応するハブを介して主制御部11と接続されて
いる。
【0076】主制御部11は、上述の各センサから供給
されるセンサデータや画像データ及び音声データを順次
取り込み、これらをそれぞれ内部インターフェイスを介
してDRAM内の所定位置に順次格納する。また、主制
御部11は、バッテリから供給されるバッテリ残量を表
すバッテリ残量データを順次取り込み、これをDRAM
内の所定位置に格納する。DRAMに格納された各セン
サデータ、画像データ、音声データ及びバッテリ残量デ
ータは、主制御部11がこのロボット装置1の動作制御
を行う際に利用される。
【0077】主制御部11は、ロボット装置1の電源が
投入された初期時、制御プログラムを読み出し、これを
DRAMに格納する。また、主制御部11は、上述のよ
うに主制御部11よりDRAMに順次格納される各セン
サデータ、画像データ、音声データ及びバッテリ残量デ
ータに基づいて自己及び周囲の状況や、使用者からの指
示及び働きかけの有無などを判断する。
【0078】さらに、主制御部11は、この判断結果及
びDRAMに格納した制御プログラムに基づいて自己の
状況に応じて行動を決定するとともに、当該決定結果に
基づいて必要なアクチュエータを駆動させることにより
ロボット装置1に、いわゆる「身振り」、「手振り」と
いった行動をとらせる。
【0079】このようにしてロボット装置1は、制御プ
ログラムに基づいて自己及び周囲の状況を判断し、使用
者からの指示及び働きかけに応じて自律的に行動でき
る。
【0080】ところで、このロボット装置1は、内部状
態に応じて自律的に行動することができる。そこで、ロ
ボット装置1における制御プログラムのソフトウェア構
成例について、図10乃至図15を用いて説明する。
【0081】図10において、デバイス・ドライバ・レ
イヤ40は、制御プログラムの最下位層に位置し、複数
のデバイス・ドライバからなるデバイス・ドライバ・セ
ット41から構成されている。この場合、各デバイス・
ドライバは、CCDカメラやタイマ等の通常のコンピュ
ータで用いられるハードウェアに直接アクセスすること
を許されたオブジェクトであり、対応するハードウェア
からの割り込みを受けて処理を行う。
【0082】また、ロボティック・サーバ・オブジェク
ト42は、デバイス・ドライバ・レイヤ40の最下位層
に位置し、例えば上述の各種センサやアクチュエータ2
〜28等のハードウェアにアクセスするためのイ
ンターフェイスを提供するソフトウェア群でなるバーチ
ャル・ロボット43と、電源の切換えなどを管理するソ
フトウェア群でなるパワーマネージャ44と、他の種々
のデバイス・ドライバを管理するソフトウェア群でなる
デバイス・ドライバ・マネージャ45と、ロボット装置
1の機構を管理するソフトウェア群でなるデザインド・
ロボット46とから構成されている。
【0083】マネージャ・オブジェクト47は、オブジ
ェクト・マネージャ48及びサービス・マネージャ49
から構成されている。オブジェクト・マネージャ48
は、ロボティック・サーバ・オブジェクト42、ミドル
・ウェア・レイヤ50、及びアプリケーション・レイヤ
51に含まれる各ソフトウェア群の起動や終了を管理す
るソフトウェア群であり、サービス・マネージャ49
は、メモリカードに格納されたコネクションファイルに
記述されている各オブジェクト間の接続情報に基づいて
各オブジェクトの接続を管理するソフトウェア群であ
る。
【0084】ミドル・ウェア・レイヤ50は、ロボティ
ック・サーバ・オブジェクト42の上位層に位置し、画
像処理や音声処理などのこのロボット装置1の基本的な
機能を提供するソフトウェア群から構成されている。ま
た、アプリケーション・レイヤ51は、ミドル・ウェア
・レイヤ50の上位層に位置し、当該ミドル・ウェア・
レイヤ50を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてロボット装置1の行動を決定す
るためのソフトウェア群から構成されている。
【0085】なお、ミドル・ウェア・レイヤ50及びア
プリケーション・レイヤ51の具体なソフトウェア構成
をそれぞれ図11に示す。
【0086】ミドル・ウェア・レイヤ50は、図11に
示すように、騒音検出用、温度検出用、明るさ検出用、
音階認識用、距離検出用、姿勢検出用、タッチセンサ
用、動き検出用及び色認識用の各信号処理モジュール6
0〜68並びに入力セマンティクスコンバータモジュー
ル69などを有する認識系70と、出力セマンティクス
コンバータモジュール78並びに姿勢管理用、トラッキ
ング用、モーション再生用、歩行用、転倒復帰用、LE
D点灯用及び音再生用の各信号処理モジュール71〜7
7などを有する出力系79とから構成されている。
【0087】認識系70の各信号処理モジュール60〜
68は、ロボティック・サーバ・オブジェクト42のバ
ーチャル・ロボット43によりDRAMから読み出され
る各センサデータや画像データ及び音声データのうちの
対応するデータを取り込み、当該データに基づいて所定
の処理を施して、処理結果を入力セマンティクスコンバ
ータモジュール69に与える。ここで、例えば、バーチ
ャル・ロボット43は、所定の通信規約によって、信号
の授受或いは変換をする部分として構成されている。
【0088】入力セマンティクスコンバータモジュール
69は、これら各信号処理モジュール60〜68から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」などの自己及び周囲の状況や、使用者か
らの指令及び働きかけを認識し、認識結果をアプリケー
ション・レイヤ41に出力する。
【0089】アプリケーション・レイヤ51は、図12
に示すように、行動モデルライブラリ80、行動切換モ
ジュール81、学習モジュール82、感情モデル83及
び本能モデル84の5つのモジュールから構成されてい
る。
【0090】行動モデルライブラリ80には、図13に
示すように、「バッテリ残量が少なくなった場合」、
「転倒復帰する」、「障害物を回避する場合」、「感情
を表現する場合」、「ボールを検出した場合」などの予
め選択されたいくつかの条件項目にそれぞれ対応させ
て、それぞれ独立した行動モデルが設けられている。
【0091】そして、これら行動モデルは、それぞれ入
力セマンティクスコンバータモジュール69から認識結
果が与えられたときや、最後の認識結果が与えられてか
ら一定時間が経過したときなどに、必要に応じて後述の
ように感情モデル83に保持されている対応する情動の
パラメータ値や、本能モデル84に保持されている対応
する欲求のパラメータ値を参照しながら続く行動をそれ
ぞれ決定し、決定結果を行動切換モジュール81に出力
する。
【0092】なお、この実施の形態の場合、各行動モデ
ルは、次の行動を決定する手法として、図14に示すよ
うな1つのノード(状態)NODE〜NODEから
他のどのノードNODE〜NODEに遷移するかを
各ノードNODE〜NODEに間を接続するアーク
ARC〜ARCn1に対してそれぞれ設定された遷移
確率P〜Pに基づいて確率的に決定する有限確率オ
ートマトンと呼ばれるアルゴリズムを用いる。
【0093】具体的に、各行動モデルは、それぞれ自己
の行動モデルを形成するノードNODE〜NODE
にそれぞれ対応させて、これらノードNODE〜NO
DE 毎に図15に示すような状態遷移表90を有して
いる。
【0094】この状態遷移表90では、そのノードNO
DE〜NODEにおいて遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の列に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データ範囲」の列における対応する行に記
述されている。
【0095】したがって、図15の状態遷移表90で表
されるノードNODE100では、「ボールを検出(B
ALL)」という認識結果が与えられた場合に、当該認
識結果とともに与えられるそのボールの「大きさ(SIZ
E)」が「0から1000」の範囲であることや、「障害物を
検出(OBSTACLE)」という認識結果が与えられた場合
に、当該認識結果とともに与えられるその障害物までの
「距離(DISTANCE)」が「0から100」の範囲であること
が他のノードに遷移するための条件となっている。
【0096】また、このノードNODE100では、認
識結果の入力がない場合においても、行動モデルが周期
的に参照する感情モデル83及び本能モデル84にそれ
ぞれ保持された各情動及び各欲求のパラメータ値のう
ち、感情モデル83に保持された「喜び(Joy)」、
「驚き(Surprise)」又は「悲しみ(Sadness)」の何
れかのパラメータ値が「50から100」の範囲であるとき
には他のノードに遷移することができるようになってい
る。
【0097】また、状態遷移表90では、「他のノード
ヘの遷移確率」の欄における「遷移先ノード」の行にそ
のノードNODE〜NODEから遷移できるノード
名が列記されているとともに、「入力イベント名」、
「データ名」及び「データの範囲」の列に記述された全
ての条件が揃ったときに遷移できる他の各ノードNOD
〜NODEへの遷移確率が「他のノードヘの遷移
確率」の欄内の対応する箇所にそれぞれ記述され、その
ノードNODE〜NODEに遷移する際に出力すべ
き行動が「他のノードヘの遷移確率」の欄における「出
力行動」の行に記述されている。なお、「他のノードヘ
の遷移確率」の欄における各行の確率の和は100
[%]となっている。
【0098】したがって、図15の状態遷移表90で表
されるノードNODE100では、例えば「ボールを検
出(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結果が
与えられた場合には、「30[%]」の確率で「ノードN
ODE120(node 120)」に遷移でき、そのとき「A
CTION1」の行動が出力されることとなる。
【0099】各行動モデルは、それぞれこのような状態
遷移表90として記述されたノードNODE〜 NO
DEが幾つも繋がるようにして構成されており、入力
セマンティクスコンバータモジュール69から認識結果
が与えられたときなどに、対応するノードNODE
NODEの状態遷移表を利用して確率的に次の行動を
決定し、決定結果を行動切換モジュール81に出力する
ようになされている。
【0100】図12に示す行動切換モジュール81は、
行動モデルライブラリ80の各行動モデルからそれぞれ
出力される行動のうち、予め定められた優先順位の高い
行動モデルから出力された行動を選択し、当該行動を実
行すべき旨のコマンド(以下、行動コマンドという。)
をミドル・ウェア・レイヤ50の出力セマンティクスコ
ンバータモジュール78に送出する。なお、この実施の
形態においては、図13において下側に表記された行動
モデルほど優先順位が高く設定されている。
【0101】また、行動切換モジュール81は、行動完
了後に出力セマンティクスコンバータモジュール78か
ら与えられる行動完了情報に基づいて、その行動が完了
したことを学習モジュール82、感情モデル83及び本
能モデル84に通知する。
【0102】一方、学習モジュール82は、入力セマン
ティクスコンバータモジュール69から与えられる認識
結果のうち、「叩かれた」や「撫でられた」など、使用
者からの働きかけとして受けた教示の認識結果を入力す
る。
【0103】そして、学習モジュール82は、この認識
結果及び行動切換えモジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(誉められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデルの対応する
遷移確率を変更する。
【0104】他方、感情モデル83は、「喜び(Jo
y)」、「悲しみ(Sadness)」、「怒り(Anger)」、
「驚き(Surprise)」、「嫌悪(Disgust)」及び「恐
れ(Fear)」の合計6つの情動について、各情動毎にそ
の情動の強さを表すパラメータを保持している。そし
て、感情モデル83は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
69から与えられる「叩かれた」及び「撫でられた」な
どの特定の認識結果や、経過時間及び行動切換モジュー
ル81からの通知などに基づいて周期的に更新する。
【0105】具体的には、感情モデル83は、入力セマ
ンティクスコンバータモジュール69から与えられる認
識結果と、そのときのロボット装置1の行動と、前回更
新してからの経過時間となどに基づいて所定の演算式に
より算出されるそのときのその情動の変動量を△E
[t]、現在のその情動のパラメータ値をE[t]、そ
の情動の感度を表す係数をkとして、下記数式(9)
によって次の周期におけるその情動のパラメータ値E
[t+1]を算出し、これを現在のその情動のパラメー
タ値E[t]と置き換えるようにしてその情動のパラメ
ータ値を更新する。また、感情モデル83は、これと同
様にして全ての情動のパラメータ値を更新する。
【0106】
【数12】
【0107】なお、各認識結果や出力セマンティクスコ
ンバータモジュール78からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。
【0108】ここで、出力セマンティクスコンバータモ
ジュール78からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、感情モデル83は、このような情報によっ
ても感情を変化させる。これは、例えば、「叫ぶ」とい
った行動により怒りの感情レベルが下がるといったよう
なことである。なお、出力セマンティクスコンバータモ
ジュール78からの通知は、上述した学習モジュール8
2にも入力されており、学習モジュール82は、その通
知に基づいて行動モデルの対応する遷移確率を変更す
る。
【0109】なお、行動結果のフィードバックは、行動
切換モジュール81の出力(感情が付加された行動)に
よりなされるものであってもよい。
【0110】一方、本能モデル84は、「運動欲(exer
cise)」、「愛情欲(affection)」、「食欲(appetit
e)」及び「好奇心(curiosity)」の互いに独立した4
つの欲求について、これら欲求毎にその欲求の強さを表
すパラメータを保持している。そして、本能モデル84
は、これらの欲求のパラメータ値を、それぞれ入力セマ
ンティクスコンバータモジュール69から与えられる認
識結果や、経過時間及び行動切換モジュール81からの
通知などに基づいて周期的に更新する。
【0111】具体的には、本能モデル84は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール78からの通知などに基づいて所定の演算式により
算出されるそのときのその欲求の変動量をΔI[k]、
現在のその欲求のパラメータ値をI[k]、その欲求の
感度を表す係数kとして、所定周期で下記数式(1
0)を用いて次の周期におけるその欲求のパラメータ値
I[k+1]を算出し、この演算結果を現在のその欲求
のパラメータ値I[k]と置き換えるようにしてその欲
求のパラメータ値を更新する。また、本能モデル84
は、これと同様にして「食欲」を除く各欲求のパラメー
タ値を更新する。
【0112】
【数13】
【0113】なお、認識結果及び出力セマンティクスコ
ンバータモジュール78からの通知などが各欲求のパラ
メータ値の変動量△I[k]にどの程度の影響を与える
かは予め決められており、例えば出力セマンティクスコ
ンバータモジュール78からの通知は、「疲れ」のパラ
メータ値の変動量△I[k]に大きな影響を与えるよう
になっている。
【0114】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から10
0までの範囲で変動するように規制されており、また係
数k 、kの値も各情動及び各欲求毎に個別に設定さ
れている。
【0115】一方、ミドル・ウェア・レイヤ50の出力
セマンティクスコンバータモジュール78は、図11に
示すように、上述のようにしてアプリケーション・レイ
ヤ51の行動切換モジュール81から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系79の対応する信号処理モジュール71〜77に与え
る。
【0116】そしてこれら信号処理モジュール71〜7
7は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動をするために対応するアクチュエー
タに与えるべきサーボ指令値や、スピーカから出力する
音の音声データ及び又はLEDに与える駆動データを生
成し、これらのデータをロボティック・サーバ・オブジ
ェクト42のバーチャル・ロボット43及び信号処理回
路を順次介して対応するアクチュエータ又はスピーカ又
はLEDに順次送出する。
【0117】このようにしてロボット装置1は、上述し
た制御プログラムに基づいて、自己(内部)及び周囲
(外部)の状況や、使用者からの指示及び働きかけに応
じた自律的な行動ができる。
【0118】このような制御プログラムは、ロボット装
置が読取可能な形式で記録された記録媒体を介して提供
される。制御プログラムを記録する記録媒体としては、
磁気読取方式の記録媒体(例えば、磁気テープ、フレキ
シブルディスク、磁気カード)、光学読取方式の記録媒
体(例えば、CD−ROM、MO、CD−R、DVD)
等が考えられる。記録媒体には、半導体メモリ(いわゆ
るメモリカード(矩形型、正方形型など形状は問わな
い。)、ICカード)等の記憶媒体も含まれる。また、
制御プログラムは、いわゆるインターネット等を介して
提供されてもよい。
【0119】これらの制御プログラムは、専用の読込ド
ライバ装置、又はパーソナルコンピュータ等を介して再
生され、有線又は無線接続によってロボット装置1に伝
送されて読み込まれる。また、ロボット装置1は、半導
体メモリ、又はICカード等の小型化された記憶媒体の
ドライブ装置を備える場合、これら記憶媒体から制御プ
ログラムを直接読み込むこともできる。
【0120】
【発明の効果】以上詳細に説明したように本発明に係る
画像処理方法は、入力された画像から顔画像を検出し、
この顔画像から顔特徴情報を検出し、この顔画像及び顔
特徴情報からなる個人顔データの分布をガウス分布近似
することにより顔認識するプログラムにおいて、複数の
個人顔から予め学習した学習データベースに格納された
個人顔データ分布の共分散行列が全ての個人顔に共通で
あると仮定して予め求めた共通共分散行列及び各個人の
複数の顔画像ベクトルを平均して予め求めた登録済平均
顔画像ベクトルから確率密度分布を求めて顔認識する顔
認識工程を有するので、共通共分散行列Σを使用するこ
とにより、学習データベースのデータ量及び顔認識の際
の計算量を飛躍的減少させることができ、これにより、
リアルタイムで顔認識することができる。
【0121】また、本発明に係るロボット装置は、供給
された入力情報に基づいて動作を行う自律型のロボット
装置であって、画像入力手段と、この画像入力手段から
供給された画像から顔画像を検出する顔画像検出手段
と、この顔画像から顔特徴情報を検出する顔特徴検出手
段と、複数の個人顔から予め学習し、個人顔データ分布
の共分散行列が全ての個人顔に共通であると仮定して予
め求めた共通共分散行列と各個人の複数の顔画像ベクト
ルを平均して予め求めた登録済平均顔画像ベクトルとを
保有する学習データベースと、上記共通共分散行列及び
上記登録済平均顔画像ベクトルから確率密度分布を求め
て顔認識する顔認識手段とを有するので、共通共分散行
列Σを使用してリアルタイムで顔認識することができる
画像処理装置が搭載されているため、ロボット装置が、
例えば照明及び角度等、標準的な顔画像を取り込むこと
ができない場合等においても、自律的にかつリアルタイ
ムに個人の顔を認識することが可能となる。
【図面の簡単な説明】
【図1】本発明の実施の形態の顔認識装置を示すブロッ
ク図である。
【図2】各個人顔の顔画像分布を模式的に示すグラフ図
である。
【図3】アライメント処理を示す模式図である。
【図4】本発明の実施の形態における顔認識装置の顔検
出部を示すブロック図である。
【図5】同装置の顔特徴検出部を示すブロック図であ
る。
【図6】同装置の顔認識部を示すブロック図である。
【図7】本発明の実施の形態におけるロボット装置の外
観構成を示す斜視図である。
【図8】同ロボット装置の自由度構成モデルを模式的に
示す図である。
【図9】同ロボット装置の回路構成を示すブロック図で
ある。
【図10】同ロボット装置のソフトウェア構成を示すブ
ロック図である。
【図11】同ロボット装置のソフトウェア構成における
ミドル・ウェア・レイヤの構成を示すブロック図であ
る。
【図12】同ロボット装置のソフトウェア構成における
アプリケーション・レイヤの構成を示すブロック図であ
る。
【図13】アプリケーション・レイヤの行動モデルライ
ブラリの構成を示すブロック図である。
【図14】同ロボット装置の行動決定のための情報とな
る有限確率オートマトンを説明する図である。
【図15】有限確率オートマトンの各ノードに用意され
た状態遷移表を示す図である。
【符号の説明】
1001 顔認識装置、1002 画像入力部、100
3 顔検出部、1004 顔特徴検出部、1005 顔
認識部、1006 認識結果部、1007 顔学習デー
タベース、1031 画像、1032 画像切り出し
部、1033 顔判断部、1034 顔画像、1042
画像切り出し部、1043 顔特徴判断部、1044
特徴位置、1051 データ、1052 顔画像アラ
イメント部、1053 コントラスト正規化部、105
4 確率推定部、1055 顔認識部
フロントページの続き Fターム(参考) 3C007 AS36 CS08 KS07 KS08 KT01 KT11 MT15 WA03 WA13 5B057 AA05 CA08 CA16 CB08 CB16 CH01 CH08 DA12 DB09 DC33 DC40 5L096 BA05 BA18 EA11 FA32 FA33 GA30 JA11 KA13

Claims (26)

    【特許請求の範囲】
  1. 【請求項1】 入力された画像から顔画像を検出し、こ
    の顔画像から顔特徴情報を検出し、この顔画像及び顔特
    徴情報からなる個人顔データの分布をガウス分布近似す
    ることにより顔認識する画像入力方法において、 複数の個人顔から予め学習した学習データベースに格納
    された、個人顔データ分布の共分散行列が全ての個人顔
    に共通であると仮定して予め求めた共通共分散行列及び
    各個人の複数の顔画像ベクトルを平均して予め求めた登
    録済平均顔画像ベクトルから確率密度分布を求めて顔認
    識する顔認識工程を有することを特徴とする画像入力方
    法。
  2. 【請求項2】 上記学習データベースは、上記共通共分
    散行列、上記登録済平均顔画像ベクトル、及び学習した
    顔画像の枚数情報を有することを特徴とする請求項1記
    載の画像処理方法。
  3. 【請求項3】 上記顔画像及び上記顔特徴情報を正規化
    する正規化工程を有することを特徴とする請求項1記載
    の画像処理方法。
  4. 【請求項4】 上記顔認識工程は、上記顔画像と上記顔
    特徴情報とが入力され顔特徴をアライメントしてアライ
    メント画像を生成する顔画像アライメント工程と、上記
    アライメント画像のコントラストを正規化して正規化画
    像を生成するコントラスト正規化工程と、上記正規化画
    像と上記共通共分散行列及び登録済平均顔画像ベクトル
    とから確率密度分布を求める確率推定工程とを有するこ
    とを特徴とする請求項2記載の画像処理方法。
  5. 【請求項5】 上記顔認識工程は、既に登録済みの顔で
    あって追加学習する登録済顔の新規顔画像と登録済平均
    顔画像ベクトルとから更新登録済平均顔画像ベクトルを
    算出し、上記学習した顔画像の枚数情報に上記新規顔画
    像の枚数を加算した更新枚数情報を算出して、上記学習
    データベースの上記登録済顔画像ベクトル及び枚数情報
    を夫々更新登録済平均顔画像ベクトル及び更新枚数情報
    に書き換える更新処理工程を有することを特徴とする請
    求項4記載の画像処理方法。
  6. 【請求項6】 上記顔画像ベクトルが登録済個人である
    確率密度分布は、下記数式(1)で示されることを特徴
    とする請求項4記載の画像処理方法。 【数1】
  7. 【請求項7】 上記入力画像は、時系列の画像データを
    入力し、上記顔認識工程は、上記時系列の画像データを
    使用して顔認識する認識工程を有することを特徴とする
    請求項4記載の画像処理方法。
  8. 【請求項8】 画像入力手段と、この画像入力手段から
    供給された画像から顔画像を検出する顔画像検出手段
    と、この顔画像から顔特徴情報を検出する顔特徴検出手
    段とを有し、上記顔画像及び顔特徴情報からなる個人顔
    データの分布をガウス分布近似することにより顔認識す
    る画像処理装置において、 複数の個人顔から予め学習した学習データベースを保有
    し、 上記学習データベースは、個人顔データ分布の共分散行
    列が全ての個人顔に共通であると仮定して予め求めた共
    通共分散行列と、各個人の複数の顔画像ベクトルを平均
    して予め求めた登録済平均顔画像ベクトルとを有し、 上記共通共分散行列及び上記登録済平均顔画像ベクトル
    から確率密度分布を求めて顔認識する顔認識手段を有す
    ることを特徴とする画像処理装置。
  9. 【請求項9】 上記学習データベースは、上記共通共分
    散行列、上記登録済平均顔画像ベクトル、及び学習した
    顔画像の枚数情報を有することを特徴とする請求項8記
    載の画像処理装置。
  10. 【請求項10】 上記顔画像及び上記顔特徴情報を正規
    化する正規化手段を有することを特徴とする請求項8記
    載の画像処理装置。
  11. 【請求項11】 上記顔認識手段は、上記顔検出手段に
    より検出された顔画像と上記顔特徴検出手段により検出
    された顔特徴情報とが入力され顔特徴をアライメントし
    てアライメント画像を生成する顔画像アライメント部
    と、上記アライメント画像のコントラストを正規化して
    正規化画像を生成するコントラスト正規化部と、上記正
    規化画像と上記共通共分散行列及び登録済平均顔画像ベ
    クトルとから確率密度分布を求める確率推定部とを有す
    ることを特徴とする請求項9記載の画像処理装置。
  12. 【請求項12】 上記顔認識手段は、既に登録済みの顔
    であって追加学習する登録済顔の新規顔画像と登録済平
    均顔画像ベクトルとから更新登録済平均顔画像ベクトル
    を算出し、上記学習した顔画像の枚数情報に上記新規顔
    画像の枚数を加算した更新枚数情報を算出して、上記学
    習データベースの上記登録済顔画像ベクトル及び枚数情
    報を夫々更新登録済平均顔画像ベクトル及び更新枚数情
    報に書き換える更新処理手段を有することを特徴とする
    請求項11記載の画像処理装置。
  13. 【請求項13】 上記顔画像ベクトルが登録済個人であ
    る確率密度分布は、下記数式(1)で示されることを特
    徴とする請求項11記載の画像処理装置。 【数2】
  14. 【請求項14】 上記入力画像は、時系列の画像データ
    を入力し、上記顔認識手段は、上記時系列の画像データ
    を使用して顔認識する顔認識部を有することを特徴とす
    る請求項11記載の画像処理装置。
  15. 【請求項15】 複数のパターンから1つのパターンを
    認識する画像処理装置において、 画像入力手段と、 この画像入力手段から供給された入力画像から特徴部分
    を検出する特徴検出手段と、 上記入力画像及び上記特徴部分から上記パターンの画像
    データの分布をガウス分布近似することによりパターン
    認識する認識手段と、 複数のパターンから予め上記パターンの特徴を学習し、
    上記パターンの画像データ分布の共分散行列が全てのパ
    ターンに共通であると仮定して求めた共通共分散行列と
    同一種類の複数のパターン画像ベクトルを平均して求め
    た登録済平均パターン画像ベクトルとを保有する学習デ
    ータベースとを具備し、 上記認識手段は、上記共通共分散行列及び上記登録済平
    均パターン画像ベクトルから確率密度分布を求めてパタ
    ーン認識するものであることを特徴とする画像処理装
    置。
  16. 【請求項16】 上記学習データベースは、上記共通共
    分散行列、上記登録済平均パターン画像ベクトル、及び
    学習したパターン画像の枚数情報を有することを特徴と
    する請求項15記載の画像処理装置。
  17. 【請求項17】 上記入力画像及び上記特徴部分を正規
    化する正規化手段を有することを特徴とする請求項15
    記載の画像処理装置。
  18. 【請求項18】 供給された入力情報に基づいて動作を
    行う自律型のロボット装置であって、 画像入力手段と、 この画像入力手段から供給された画像から顔画像を検出
    する顔画像検出手段と、 この顔画像から顔特徴情報を検出する顔特徴検出手段
    と、 複数の個人顔から予め学習し、個人顔データ分布の共分
    散行列が全ての個人顔に共通であると仮定して予め求め
    た共通共分散行列と各個人の複数の顔画像ベクトルを平
    均して予め求めた登録済平均顔画像ベクトルとを保有す
    る学習データベースと、 上記共通共分散行列及び上記登録済平均顔画像ベクトル
    から確率密度分布を求めて顔認識する顔認識手段とを有
    することを特徴とするロボット装置。
  19. 【請求項19】 上記学習データベースは、上記共通共
    分散行列、上記登録済平均顔画像ベクトル、及び学習し
    た顔画像の枚数情報を有することを特徴とする請求項1
    8記載のロボット装置。
  20. 【請求項20】 上記顔認識手段は、上記顔画像及び上
    記顔特徴情報を正規化する正規化手段を有することを特
    徴とする請求項18記載のロボット装置。
  21. 【請求項21】 上記顔認識手段は、上記顔画像検出手
    段により検出された顔画像と上記顔特徴検出手段により
    検出された顔特徴情報とが入力され顔特徴をアライメン
    トしてアライメント画像を生成する顔画像アライメント
    部と、上記アライメント画像のコントラストを正規化し
    て正規化画像を生成するコントラスト正規化部と、上記
    正規化画像と上記共通共分散行列及び登録済平均顔画像
    ベクトルとから確率密度分布を求める確率推定部とを有
    することを特徴とする請求項19記載のロボット装置。
  22. 【請求項22】 上記顔認識手段は、既に登録済みの顔
    であって追加学習する登録済顔の新規顔画像と登録済平
    均顔画像ベクトルとから更新登録済平均顔画像ベクトル
    を算出し、上記学習した顔画像の枚数情報に上記新規顔
    画像の枚数を加算した更新枚数情報を算出して、上記学
    習データベースの上記登録済顔画像ベクトル及び枚数情
    報を夫々更新登録済平均顔画像ベクトル及び更新枚数情
    報に書き換える更新処理手段を有することを特徴とする
    請求項21記載のロボット装置。
  23. 【請求項23】 上記顔画像ベクトルが登録済個人であ
    る確率密度分布は、下記数式(1)で示されることを特
    徴とする請求項21記載のロボット装置。 【数3】
  24. 【請求項24】 上記入力画像は、時系列の画像データ
    を入力し、上記顔認識手段は、上記時系列の画像データ
    を使用して顔認識する顔認識部を有することを特徴とす
    る請求項21記載のロボット装置。
  25. 【請求項25】 入力された画像から顔画像を検出し、
    この顔画像から顔特徴情報を検出し、この顔画像及び顔
    特徴情報からなる個人顔データの分布をガウス分布近似
    することにより顔認識する動作をコンピュータに実行さ
    せるためのプログラムにおいて、 複数の個人顔から予め学習した学習データベースに格納
    された、個人顔データ分布の共分散行列が全ての個人顔
    に共通であると仮定して予め求めた共通共分散行列及び
    各個人の複数の顔画像ベクトルを平均して予め求めた登
    録済平均顔画像ベクトルから確率密度分布を求めて顔認
    識する顔認識工程を有することを特徴とするプログラ
    ム。
  26. 【請求項26】 入力された画像から顔画像を検出し、
    この顔画像から顔特徴情報を検出し、この顔画像及び顔
    特徴情報からなる個人顔データの分布をガウス分布近似
    することにより顔認識する動作をコンピュータに実行さ
    せるためのプログラムを記録したコンピュータ読み取り
    可能な記録媒体において、 複数の個人顔から予め学習した学習データベースに格納
    された、個人顔データ分布の共分散行列が全ての個人顔
    に共通であると仮定して予め求めた共通共分散行列及び
    各個人の複数の顔画像ベクトルを平均して予め求めた登
    録済平均顔画像ベクトルから確率密度分布を求めて顔認
    識する顔認識工程を有することを特徴とするプログラム
    が記録された記録媒体。
JP2002073386A 2002-03-15 2002-03-15 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置 Withdrawn JP2003271958A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002073386A JP2003271958A (ja) 2002-03-15 2002-03-15 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002073386A JP2003271958A (ja) 2002-03-15 2002-03-15 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置

Publications (1)

Publication Number Publication Date
JP2003271958A true JP2003271958A (ja) 2003-09-26

Family

ID=29203063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002073386A Withdrawn JP2003271958A (ja) 2002-03-15 2002-03-15 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置

Country Status (1)

Country Link
JP (1) JP2003271958A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005008593A1 (ja) 2003-07-18 2005-01-27 Canon Kabushiki Kaisha 画像処理装置、撮像装置、画像処理方法
KR100647322B1 (ko) 2005-03-02 2006-11-23 삼성전자주식회사 객체의 모양모델 생성장치 및 방법과 이를 이용한 객체의특징점 자동탐색장치 및 방법
WO2006126546A1 (ja) 2005-05-25 2006-11-30 Vodafone K.K. オブジェクト出力方法及び情報処理装置
GB2457797A (en) * 2008-02-28 2009-09-02 Honeywell Int Inc Associating face images using covariance matrices of extracted features
US7986808B2 (en) 2004-09-30 2011-07-26 Canon Kabushiki Kaisha Image-capturing device, image-processing device, method for controlling image-capturing device, and program for causing computer to execute the method
US8194934B2 (en) 2006-11-08 2012-06-05 Sony Corporation Apparatus for and method of using reliability information to produce and update image recognition data
KR101297736B1 (ko) * 2013-05-07 2013-08-23 주식회사 파이브지티 얼굴 인식 방법 및 시스템
JP2017200718A (ja) * 2016-05-05 2017-11-09 トヨタ自動車株式会社 認識的アフォーダンスに基づくロボットから人間への物体ハンドオーバの適合
CN111325059A (zh) * 2018-12-14 2020-06-23 技嘉科技股份有限公司 脸部识别方法、装置及计算机可读取媒体
WO2024047716A1 (ja) * 2022-08-29 2024-03-07 富士通株式会社 機械学習プログラム、機械学習方法および情報処理装置

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8942436B2 (en) 2003-07-18 2015-01-27 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
EP3358501A1 (en) 2003-07-18 2018-08-08 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
WO2005008593A1 (ja) 2003-07-18 2005-01-27 Canon Kabushiki Kaisha 画像処理装置、撮像装置、画像処理方法
EP2955662A1 (en) 2003-07-18 2015-12-16 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
US8515136B2 (en) 2003-07-18 2013-08-20 Canon Kabushiki Kaisha Image processing device, image device, image processing method
US7986808B2 (en) 2004-09-30 2011-07-26 Canon Kabushiki Kaisha Image-capturing device, image-processing device, method for controlling image-capturing device, and program for causing computer to execute the method
KR100647322B1 (ko) 2005-03-02 2006-11-23 삼성전자주식회사 객체의 모양모델 생성장치 및 방법과 이를 이용한 객체의특징점 자동탐색장치 및 방법
WO2006126546A1 (ja) 2005-05-25 2006-11-30 Vodafone K.K. オブジェクト出力方法及び情報処理装置
US8290299B2 (en) 2005-05-25 2012-10-16 Vodafone Group Plc Object outputting method and information processing apparatus
US8194934B2 (en) 2006-11-08 2012-06-05 Sony Corporation Apparatus for and method of using reliability information to produce and update image recognition data
GB2457797B (en) * 2008-02-28 2010-08-11 Honeywell Int Inc Covariance based face association
US8442278B2 (en) 2008-02-28 2013-05-14 Honeywell International Inc. Covariance based face association
GB2457797A (en) * 2008-02-28 2009-09-02 Honeywell Int Inc Associating face images using covariance matrices of extracted features
KR101297736B1 (ko) * 2013-05-07 2013-08-23 주식회사 파이브지티 얼굴 인식 방법 및 시스템
JP2017200718A (ja) * 2016-05-05 2017-11-09 トヨタ自動車株式会社 認識的アフォーダンスに基づくロボットから人間への物体ハンドオーバの適合
CN111325059A (zh) * 2018-12-14 2020-06-23 技嘉科技股份有限公司 脸部识别方法、装置及计算机可读取媒体
WO2024047716A1 (ja) * 2022-08-29 2024-03-07 富士通株式会社 機械学習プログラム、機械学習方法および情報処理装置

Similar Documents

Publication Publication Date Title
JP4609584B2 (ja) ロボット装置、顔認識方法及び顔認識装置
JP4590717B2 (ja) 顔識別装置及び顔識別方法
JP3714268B2 (ja) ロボット装置
JP3855812B2 (ja) 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置
JP3945279B2 (ja) 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
US7532743B2 (en) Object detector, object detecting method and robot
JP4032793B2 (ja) 充電システム及び充電制御方法、ロボット装置、及び充電制御プログラム及び記録媒体
KR100898435B1 (ko) 로봇 장치 및 그 제어 방법
JP4239635B2 (ja) ロボット装置、その動作制御方法、及びプログラム
JP2004133637A (ja) 顔検出装置、顔検出方法及びプログラム、並びにロボット装置
JP2004298977A (ja) 行動制御装置、行動制御方法及び行動制御プログラム、並びに移動型ロボット装置
JPWO2002099545A1 (ja) マン・マシン・インターフェースユニットの制御方法、並びにロボット装置及びその行動制御方法
JP2003266345A (ja) 経路計画装置、経路計画方法及び経路計画プログラム並びに移動型ロボット装置
JP2002239963A (ja) ロボット装置、ロボット装置の動作制御方法、プログラム及び記録媒体
JP2004110802A (ja) 環境同定装置、環境同定方法、プログラム及び記録媒体、並びにロボット装置
JP2003266349A (ja) 位置認識方法、その装置、そのプログラム、その記録媒体及び位置認識装置搭載型ロボット装置
JP2005238422A (ja) ロボット装置、並びにその状態遷移モデル構築方法及び行動制御方法
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
JP2004302644A (ja) 顔識別装置、顔識別方法、記録媒体、及びロボット装置
JP2004298975A (ja) ロボット装置、障害物探索方法
JP2005111654A (ja) ロボット装置及びロボット装置の歩行制御方法
JP2004302645A (ja) 顔登録装置、顔登録方法、記録媒体、及びロボット装置
JP2004130427A (ja) ロボット装置及びロボット装置の動作制御方法
JP2003266348A (ja) ロボット装置及びその制御方法
JP4193098B2 (ja) トラッキング装置、トラッキング装置のトラッキング方法及びロボット装置

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050607