JP2002221992A - 人物特定システム - Google Patents

人物特定システム

Info

Publication number
JP2002221992A
JP2002221992A JP2001020303A JP2001020303A JP2002221992A JP 2002221992 A JP2002221992 A JP 2002221992A JP 2001020303 A JP2001020303 A JP 2001020303A JP 2001020303 A JP2001020303 A JP 2001020303A JP 2002221992 A JP2002221992 A JP 2002221992A
Authority
JP
Japan
Prior art keywords
person
unit
face image
question
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001020303A
Other languages
English (en)
Other versions
JP4622106B2 (ja
Inventor
Kiyohito Kubota
清仁 窪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2001020303A priority Critical patent/JP4622106B2/ja
Publication of JP2002221992A publication Critical patent/JP2002221992A/ja
Application granted granted Critical
Publication of JP4622106B2 publication Critical patent/JP4622106B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 【課題】 本システムと人物との間で行われる通常の対
話や操作の履歴情報に基づいて、人物を特定することを
可能とする人物特定システムを提供する。 【解決手段】 対話制御手段108は各人物単位で、本
システムからの発話が行われた場合の発話時刻や人物か
らの返答語句を対話テーブル110Aに記録する。質問
テーブル110Dは対話テーブル110Aに保持される
発話時刻や返答語句を問い合わせる質問が定義されてい
る。対話制御手段108は、質問テーブル110Dに保
持される質問を音声合成手段105を用いて音声出力部
へ出力し、質問に対する人物からの回答を音声認識手段
104を用いて変換し、この変換結果と対話テーブル1
10Aに保持される発話時刻や返答語句と比較して対話
テーブル110Aに登録されている各人物ごとに得点化
を行う。各人物の中で、得点合計が最も高い人物を特定
する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声認識機能やセ
ンサ機構を備える装置に関し、特に人物を特定する人物
特定システムに関する。
【0002】
【従来の技術】従来の人物特定システムでは、次のよう
な方式が提案されている。 (A)画像認識を用いた方法 (B)指紋認識や声紋認識などの個人固有情報の認識技
術を用いた方法 (C)パスワードを用いた方法
【0003】図11には、画像認識を用いた人物特定シ
ステムの概念図を示す。図11に示すように、従来の画
像認識を用いた人物特定システムでは、CCDカメラな
どにより画像入力部から得られた画像から顔画像取得手
段10を用いて顔部分を抽出する。一般的に、抽出結果
は顔の特徴点情報である。まず事前に、対象となる複数
の人物に対して顔画像取得手段10による顔抽出結果か
ら構成される顔画像データベース14を作成しておく。
以降、人物を検知すると、顔画像取得手段10が顔抽出
結果13をメモリ上に保持し、顔画像認識手段11が顔
抽出結果13と顔画像データベース14とを比較し、類
似点を抽出する。人物特定手段12は、得られた前記類
似点を得点化し、顔画像データベース14に登録されて
いる人物の中で最も得点の高い人物を特定する。
【0004】
【発明が解決しようとする課題】しかしながら、上記従
来例に示される人物特定システムにおいては、以下に示
すように問題点があった。第1に、上述する(A)や
(B)の方式においては、CCDカメラなどの専用部品
が必要となるため、部品コストが嵩むという問題があっ
た。
【0005】第2に、(C)の方式においては、なりす
ましを防ぐために頻繁にパスワードを変更しなければい
けないという問題があった。
【0006】第3に、昨今のペット型ロボットのように
楽しむ装置においては、従来方式による人物特定システ
ムはユーザが本質的になじまないという問題があった。
その理由として、従来の方式はセキュリティを目的とし
ており、人物を特定しないと次の処理や操作へ進むこと
ができないことが挙げられる。上記のような商品におい
ては、一般に人物が不定の状態でも十分操作可能であ
り、人物が特定されるとその人物固有のふるまいをする
ような構成になっている。このため、人物不定状態から
人物特定状態のスムーズな遷移が必要とされるが、従来
方式ではそういう遷移を行うことができないという問題
があった。
【0007】本発明は、上記問題に鑑みて成されたもの
であり、低コストで人物を特定することのできる人物特
定システムを提供することを目的とする。
【0008】また、本発明は、人物特定の特別な試験な
どを行わずに、通常の対話や操作を行いながら、人物を
特定することのできる人物特定システムを提供すること
を目的とする。
【0009】
【課題を解決するための手段】前記課題を解決するため
に、請求項1記載の発明は、音声入力部からの音声信号
を認識する音声認識手段と、文字列を音声信号に変換し
て音声出力部に出力する音声合成手段と、本システムか
らの発話語句と人物からの返答語句を保持した対話テー
ブルと、該対話テーブル内の返答語句を問い合わせる質
問を保持した質問テーブルと、から構成される記憶部を
制御する記憶手段と、音声合成手段を用いて対話テーブ
ル内の発話語句を音声出力部へ出力し、人物からの返答
を音声認識手段を用いて認識し、その認識結果を対話テ
ーブル内の返答語句へ格納する対話制御手段と、質問テ
ーブルに保持される質問を音声合成手段を用いて音声出
力部へ出力し、質問に対する人物からの回答を音声認識
手段を用いて認識し、その認識結果と対話テーブルに保
持される返答語句とを比較して得点化を行い、その得点
の合計値が最も高い人物を特定する第1の人物特定手段
と、を有することを特徴とする。
【0010】請求項2記載の発明は、音声入力部からの
音声信号を認識する音声認識手段と、文字列を音声信号
に変換して音声出力部に出力する音声合成手段と、人物
の操作回数を保持する操作テーブルと、人物の操作回数
を問い合わせる質問テーブルと、から構成される記憶部
を制御する記憶手段と、センサ機構を用いて人物による
操作を検知し、操作テーブル内の操作回数を更新するセ
ンサ情報取得手段と、質問テーブル記載の質問を音声合
成手段を用いて音声出力部へ出力し、質問に対する人物
からの回答を音声認識手段を用いて認識し、その認識結
果と操作テーブルに保持される操作回数とを比較して得
点化を行い、その得点の合計値が最も高い人物を特定す
る第1の人物特定手段と、を有することを特徴とする。
【0011】請求項3記載の発明は、音声入力部からの
音声信号を認識する音声認識手段と、文字列を音声信号
に変換して音声出力部に出力する音声合成手段と、本シ
ステムからの発話語句と人物からの返答語句を保持した
対話テーブルと、対話テーブル内の返答語句を問い合わ
せる質問を保持した第1の質問テーブルと、人物の操作
回数を保持する操作テーブルと、人物の操作回数を問い
合わせる第2の質問テーブルと、から構成される記憶部
を制御する記憶手段と、音声合成手段を用いて対話テー
ブル内の発話語句を音声出力部へ出力し、人物からの返
答を音声認識手段を用いて認識し、その認識結果を対話
テーブル内の返答語句へ格納する対話制御手段と、第1
の質問テーブル記載の質問を音声合成手段を用いて音声
出力部へ出力し、質問に対する人物からの回答を音声認
識手段を用いて認識し、その認識結果と対話テーブル記
載の返答語句とを比較して得点化を行い、その得点の合
計値が最も高い人物を特定する第1の人物特定手段と、
センサ機構を用いて人物による操作を検知し、操作テー
ブル内の操作回数を更新するセンサ情報取得手段と、第
2の質問テーブル記載の質問を音声合成手段を用いて音
声出力部へ出力し、質問に対する人物からの回答を音声
認識手段を用いて認識し、その認識結果と操作テーブル
に保持される操作回数とを比較して得点化を行い、その
得点の合計値が最も高い人物を特定する第2の人物特定
手段と、を有することを特徴とする。
【0012】請求項4記載の発明は、請求項1記載の発
明において、現在の日付や時刻を取得する時計手段と、
時計手段を用いて本システムからの発話が行われた場合
の日付や時刻を取得し、その結果を保持した対話時期テ
ーブルと該対話時期テーブル記載の対話時期を問い合わ
せる質問を定義した第2の質問テーブルとを記憶部に保
持し、第2の質問テーブルに保持される質問を音声合成
手段を用いて音声出力部へ出力し、質問に対する人物か
らの回答を音声認識手段を用いて認識し、その認識結果
と対話時期テーブルに保持される対話時期とを比較して
得点化を行い、その得点の合計値が最も高い人物を特定
する第2の人物特定手段と、を有することを特徴とす
る。
【0013】請求項5記載の発明は、請求項2記載の発
明において、現在の日付や時刻を取得する時計手段と、
時計手段を用いて人物の操作が行われた場合の日付や時
刻を取得し、その結果を保持した操作時期テーブルと該
操作時期テーブルに保持される操作時期を問い合わせる
質問を定義した第2の質問テーブルを記憶部に保持し、
第2の質問テーブルに保持される質問を音声合成手段を
用いて音声出力部へ出力し、質問に対する人物からの回
答を音声認識手段を用いて認識し、その認識結果と操作
時期テーブル記載の操作時期とを比較して得点化を行
い、その得点の合計値が最も高い人物を特定する第2の
人物特定手段と、を有することを特徴とする。
【0014】請求項6記載の発明は、請求項3記載の発
明において、現在の日付や時刻を取得する時計手段と、
時計手段を用いて本システムからの発話が行われた場合
の日付や時刻を取得し、その結果を保持した対話時期テ
ーブルと該対話時期テーブルに保持される対話時期を問
い合わせる質問を定義した第3の質問テーブルを記憶部
に保持し、第3の質問テーブル記載の質問を音声合成手
段を用いて音声出力部へ出力し、質問に対する人物から
の回答を音声認識手段を用いて認識し、その認識結果と
対話時期テーブル記載の対話時期とを比較して得点化を
行い、その得点の合計値が最も高い人物を特定する第3
の人物特定手段と、を有することを特徴とする。
【0015】請求項7記載の発明は、請求項3記載の発
明において、現在の日付や時刻を取得する時計手段と、
時計手段を用いて人物による操作が行われた場合の日付
や時刻を取得し、その結果を保持した操作時期テーブル
と該操作時期テーブルに保持される操作時期を問い合わ
せる質問を定義した第3の質問テーブルを記憶部に保持
し、第3の質問テーブルに保持される質問を音声合成手
段を用いて音声出力部へ出力し、質問に対する人物から
の回答を音声認識手段を用いて認識し、その認識結果と
操作時期テーブル記載の操作時期とを比較して得点化を
行い、その得点の合計値が最も高い人物を特定する第3
の人物特定手段と、を有することを特徴とする。
【0016】請求項8記載の発明は、請求項6記載の発
明において、時計手段を用いて人物による操作が行われ
た場合の日付や時刻を取得し、その結果を保持した操作
時期テーブルと該操作時期テーブルに保持される操作時
期を問い合わせる質問を定義した第4の質問テーブルと
を記憶部に保持し、第4の質問テーブルに保持される質
問を音声合成手段を用いて音声出力部へ出力し、質問に
対する人物からの回答を音声認識手段を用いて認識し、
その認識結果と操作時期テーブルに保持される操作時期
とを比較して得点化を行い、その得点の合計値が最も高
い人物を特定する第4の人物特定手段と、を有すること
を特徴とする。
【0017】請求項9記載の発明は、請求項1記載の発
明において、画像入力部から得られた信号から顔画像を
取得する顔画像取得手段と、顔画像取得手段を用いて得
られた顔画像をデータベース化した顔データベースを保
持する記憶手段と、顔画像取得手段を用いて取得した顔
画像と顔データベースを比較して顔データの類似度を判
定する顔画像認識手段と、顔画像認識手段を用いて得ら
れた類似度を得点化し、顔データベースに登録されてい
る人物の中で最も得点の高い人物を特定する第2の人物
特定手段と、を有することを特徴とする。
【0018】請求項10記載の発明は、請求項2記載の
発明において、画像入力部から得られた信号から顔画像
を取得する顔画像取得手段と、顔画像取得手段を用いて
得られた顔画像をデータベース化した顔データベースを
保持する記憶手段と、顔画像取得手段を用いて取得した
顔データと顔データベースを比較して顔データの類似度
を判定する顔画像認識手段と、顔画像認識手段を用いて
得られた類似度を得点化し、顔データベースに登録され
ている人物の中で最も得点の高い人物を特定する第2の
人物特定手段と、を有することを特徴とする。
【0019】請求項11記載の発明は、請求項3記載の
発明において、画像入力部から得られた信号から顔画像
を取得する顔画像取得手段と、顔画像取得手段を用いて
得られた顔画像をデータベース化した顔データベースを
保持する記憶手段と、顔画像取得手段を用いて取得した
顔データと顔データベースを比較して顔データの類似度
を判定する顔画像認識手段と、顔画像認識手段を用いて
得られた類似度を得点化し、顔データベースに登録され
ている人物の中で最も得点の高い人物を特定する第3の
人物特定手段と、を有することを特徴とする。
【0020】請求項12記載の発明は、請求項4記載の
発明において、画像入力部から得られた信号から顔画像
を取得する顔画像取得手段と、顔画像取得手段を用いて
得られた顔画像をデータベース化した顔データベースを
保持する記憶手段と、顔画像取得取得手段を用いて取得
した顔画像と顔データベースを比較して顔データの類似
度を判定する顔画像認識手段と、顔画像認識手段を用い
て得られた類似度を得点化し、顔データベースに登録さ
れている人物の中で最も得点の高い人物を特定する第3
の人物特定手段と、を有することを特徴とする。
【0021】請求項13記載の発明は、請求項5記載の
発明において、画像入力部から得られた信号から顔画像
を取得する顔画像取得手段と、顔画像取得手段を用いて
得られたデータをデータベース化した顔データベースを
保持する記憶手段と、顔画像取得取得手段を用いて取得
した顔データと顔データベースを比較して顔データの類
似度を判定する顔画像認識手段と、顔画像認識手段を用
いて得られた類似度を得点化し、顔データベースに登録
されている人物の中で最も得点の高い人物を特定する第
3の人物特定手段と、を有することを特徴とする。
【0022】請求項14記載の発明は、請求項6記載の
発明において、画像入力部から得られた信号から顔画像
を取得する顔画像取得手段と、顔画像取得手段を用いて
得られた顔画像をデータベース化した顔データベースを
保持する記憶手段と、顔画像取得手段を用いて取得した
顔データと顔データベースを比較して顔データの類似度
を判定する顔画像認識手段と、顔画像認識手段を用いて
得られた類似度を得点化し、顔データベースに登録され
ている人物の中で最も得点の高い人物を特定する第4の
人物特定手段と、を有することを特徴とする。
【0023】請求項15記載の発明は、請求項7記載の
発明において、画像入力部から得られた信号から顔画像
を取得する顔画像取得手段と、顔画像取得手段を用いて
得られた顔画像をデータベース化した顔データベースを
保持する記憶手段と、顔画像取得取得手段を用いて取得
した顔画像と顔データベースを比較して顔データの類似
度を判定する顔画像認識手段と、顔画像認識手段を用い
て得られた類似度を得点化し、顔データベースに登録さ
れている人物の中で最も得点の高い人物を特定する第4
の人物特定手段と、を有することを特徴とする。
【0024】請求項16記載の発明は、請求項8記載の
発明において、画像入力部から得られた信号から顔画像
を取得する顔画像取得手段と、顔画像取得手段を用いて
得られた顔画像をデータベース化した顔データベースを
保持する記憶手段と、顔画像取得取得手段を用いて取得
した顔画像と顔データベースを比較して顔データの類似
度を判定する顔画像認識手段と、顔画像認識手段を用い
て得られた類似度を得点化し、顔データベースに登録さ
れている人物の中で最も得点の高い人物を特定する第5
の人物特定手段と、を有することを特徴とする。
【0025】請求項17記載の発明は、請求項3記載の
発明において、第1の人物特定手段による得点と第2の
人物特定手段による得点の両方を用いて計算を行い、そ
の計算結果に基づいて人物を特定する第3の人物特定手
段を有することを特徴とする。
【0026】請求項18記載の発明は、請求項4記載の
発明において、第1の人物特定手段による得点と第2の
人物特定手段による得点の両方を用いて計算を行い、そ
の計算結果に基づいて人物を特定する第3の人物特定手
段を有することを特徴とする。
【0027】請求項19記載の発明は、請求項5記載の
発明において、第1の人物特定手段による得点と第2の
人物特定手段による得点の両方を用いて計算を行い、そ
の計算結果に基づいて人物を特定する第3の人物特定手
段を有することを特徴とする。
【0028】請求項20記載の発明は、請求項6記載の
発明において、第1の人物特定手段による得点と第2の
人物特定手段による得点と第3の人物特定手段による得
点を用いて計算を行い、その計算結果に基づいて人物を
特定する第4の人物特定手段を有することを特徴とす
る。
【0029】請求項21記載の発明は、請求項7記載の
発明において、第1の人物特定手段による得点と第2の
人物特定手段による得点と第3の人物特定手段による得
点を用いて計算を行い、その計算結果に基づいて人物を
特定する第4の人物特定手段を有することを特徴とす
る。
【0030】請求項22記載の発明は、請求項8記載の
発明において、第1の人物特定手段による得点と第2の
人物特定手段による得点と第3の人物特定手段による得
点と第4の人物特定手段による得点を用いて計算を行
い、その計算結果に基づいて人物を特定する第5の人物
特定手段を有することを特徴とする。
【0031】請求項23記載の発明は、請求項9記載の
発明において、第1の人物特定手段による得点と第2の
人物特定手段による得点を用いて計算を行い、その計算
結果に基づいて人物を特定する第3の人物特定手段を有
することを特徴とする。
【0032】請求項24記載の発明は、請求項10記載
の発明において、第1の人物特定手段による得点と第2
の人物特定手段による得点を用いて計算を行い、その計
算結果に基づいて人物を特定する第3の人物特定手段を
有することを特徴とする。
【0033】請求項25記載の発明は、請求項11記載
の発明において、第1の人物特定手段による得点と第2
の人物特定手段による得点と第3の人物特定手段による
得点を用いて計算を行い、その計算結果に基づいて人物
を特定する第4の人物特定手段を有することを特徴とす
る。
【0034】請求項26記載の発明は、請求項12記載
の発明において、第1の人物特定手段による得点と第2
の人物特定手段による得点と第3の人物特定手段による
得点を用いて計算を行い、その計算結果に基づいて人物
を特定する第4の人物特定手段を有することを特徴とす
る。
【0035】請求項27記載の発明は、請求項13記載
の発明において、第1の人物特定手段による得点と第2
の人物特定手段による得点と第3の人物特定手段による
得点を用いて計算を行い、その計算結果に基づいて人物
を特定する第4の人物特定手段を有することを特徴とす
る。
【0036】請求項28記載の発明は、請求項14記載
の発明において、第1の人物特定手段による得点と第2
の人物特定手段による得点と第3の人物特定手段による
得点と第4の人物特定手段による得点を用いて計算を行
い、その計算結果に基づいて人物を特定する第5の人物
特定手段を有することを特徴とする。
【0037】請求項29記載の発明は、請求項15記載
の発明において、第1の人物特定手段による得点と第2
の人物特定手段による得点と第3の人物特定手段による
得点と第4の人物特定手段による得点を用いて計算を行
い、その計算結果に基づいて人物を特定する第5の人物
特定手段を有することを特徴とする。
【0038】請求項30記載の発明は、請求項16記載
の発明において、第1の人物特定手段による得点と第2
の人物特定手段による得点と第3の人物特定手段による
得点と第4の人物特定手段による得点と第5の人物特定
手段による得点を用いて計算を行い、その計算結果に基
づいて人物を特定する第6の人物特定手段を有すること
を特徴とする。
【0039】
【発明の実施の形態】次に、添付図面を参照しながら本
発明の実施形態である人物特定システムを詳細に説明す
る。図1から図10に、本発明の係る人物特定システム
の実施の形態を示す。
【0040】〈第1の実施形態〉図1は、本発明の第1
の実施形態である人物特定システムの概略構成を示すブ
ロック図である。図1において、本発明の第1の実施形
態である人物特定システムは、現在の日付や時刻を取得
する時計手段102と、マイクなどの音声入力部からの
音声を認識する音声認識手段104と、文字列を合成音
声に変換してスピーカなどの音声出力部へ出力する音声
合成手段105と、記憶部110を制御する記憶手段1
03と、人物との対話を行う対話制御手段108と、人
物との対話結果から人物を特定する質問を生成する質問
生成手段106と、生成された質問と人物との対話結果
から人物を特定する人物特定手段107と、を有して構
成される。なお、図1におけるセンサ情報取得手段10
1及び記憶部110内の操作テーブル110Bについて
は、本発明の第2の実施形態で説明する。
【0041】記憶部110は、人物との対話内容と対話
結果とを保持する対話テーブル110Aと、音声認識を
行うための音声認識辞書110Cと、対話テーブル11
0Aと1:1に対応した質問を定義した質問テーブル1
10Dと、人物を特定する質問である人物QAテーブル
110Eと、を有して構成される。
【0042】記憶部110を構成する上記各部は、以下
のように動作する。まず、対話テーブル110Aには、
本システムが発話を行う条件である「時刻(トリガー時
刻)」「ユーザ発話語句(トリガー音声)」「発話語句
(システム音声)」などが定義されている。対話制御手
段108は、時計手段102や音声認識手段104を用
いて上記条件が満たされていることを検知した場合に、
同テーブルに定義されている発話語句を本システムが発
話する。対話制御手段108は、本発話の時刻及び本発
話に対して人物が返答した音声を音声認識手段104と
記憶手段103とを用いて対話テーブル110Aへ記入
する。この処理を、本システムを利用する全ての人物に
対して行う。
【0043】次に、本システムを利用する場合、質問生
成手段106は、人物単位の対話履歴を保持した対話テ
ーブル110Aと質問テーブル110Dとを用いて、人
物を特定する質問である人物QAテーブル110Eを生
成する。人物QAテーブル110Eは、人物単位の対話
履歴(対話テーブル110Aのサブセット)とその対話
結果を問い合わせる質問かとら構成されている。人物特
定手段107は、人物QAテーブル110Eを用いて過
去の対話履歴に関する質問を人物と行い、登録人物単位
で質問結果(回答)に関する得点を計算する。この得点
の最も高い人物を特定する。
【0044】次に、図1及び図2、図3のフローチャー
トを参照して本発明の実施形態である人物特定システム
全体の動作例を詳細に説明する。図2は、ユーザが初め
て本システムを用いる場合に、対話制御手段108が人
物との対話を行い、その履歴情報を対話テーブル110
Aに登録する手順を示したものである。そこで、まず対
話テーブル110Aの構成について図4を用いて説明
し、その後で図2の動作例を説明する。
【0045】図4は、対話テーブル110Aの実施例を
示す詳細図である。図4に示したように、対話テーブル
110Aは、対話のトリガー時刻402と、トリガー音
声403と、発話語句404と、人物Aから人物Cまで
の対話結果(405〜407)と、から構成されてい
る。対話の種類を示す識別番号401は便宜的に設けた
ものである。トリガー時刻402及びトリガー音声40
3は、本システムからの発話を行う条件を示している。
すなわち、 (1)時計手段102が対話テーブル110A内のトリ
ガー時刻402を検知した時 (2)ユーザが発話を行い、音声認識手段104による
認識語句がトリガー音声403の語句と一致した時 のいずれかの条件が満たされる場合に、発話語句404
に定義された語句を本システムから発話する。
【0046】図4の人物欄405〜407は、上記条件
が満たされて本システムからの発話が行われた場合に、
その時の時刻と同発話に対する人物からの返答結果(音
声認識された結果の語句)が各人物単位で記入されたも
のである。図4において「×」は、ユーザが返答したが
音声認識手段104が認識できなかったことを示し、
「−」は何も返答がなかったことを示す。
【0047】例えば、405Aは、本システムがAM
9:00に「おはよう〜さん」と発話したことに対し
て、人物Aが「おはよう」と返答してことを示す。ま
た、407Aは、本システムがAM11:00に「おは
よう〜さん」と発話したことに対して人物Cからは何も
返答がなかったことを示す。なお、返答結果として認識
不能状態や返答なしの状態を導入したのは、ペット型ロ
ボットに代表されるように楽しむことが主目的の装置に
おいては、明確な返答は不要なケースが多いからであ
る。
【0048】図2において、初めて操作する人は音声認
識手段104などを用いて本人であることを登録する
(ステップa1)。これにより対話テーブル110Aの
人物欄が生成される。次に、対話制御手段108は、対
話テーブル110Aの当該人物欄に未記入の行もしくは
対話結果が「−」と記載されている行(対話)を抽出す
る(ステップa2)。抽出された対話に対して、トリガ
ー時刻402と時計手段102の現在時刻を比較し、対
話トリガーとなる対話開始時刻になったかどうかを調べ
る(ステップa3)。一致しない場合には、人間からの
発話を調べ、発話があった場合にはトリガー音声403
の語句と一致するかどうかを調べる(ステップa4)。
ステップa3,ステップa4のいずかの条件が満たされ
るまで繰り返し処理を行う。
【0049】ステップa3、ステップa4のいずれかの
条件が満たされる場合には、対話テーブル110Aで該
当する条件を満たす対話(行)を1つ選択し、当該対話
の発話語句404を音声合成手段105を用いて発話す
る(ステップa5)。本システムが発話を行うと、人物
欄のところに発話時刻を書き込む(ステップa6)。そ
の後、ユーザからの返答を待ち、音声認識手段104が
その語句を認識できた場合には返答語句を、認識不能の
場合には「×」を該人物欄に記入する。ユーザからの返
答がなかった場合には「−」を該人物欄に書き込む(ス
テップa7)。ステップa2〜ステップa7の処理を終
了指示(電源OFFなど)があるまで繰り返す(ステッ
プa8)。
【0050】以上の処理により、ある特定人物に対して
の対話テーブル110Aの作成が完了する。この処理を
想定されるユーザの数だけ実行すれば、図4に示したよ
うな対話テーブル110Aが生成される。
【0051】さて、2回目以降に本システムを用いる場
合、人物特定手段107は、更新された対話テーブル1
10Aを用いて人物を自動的に特定する。以下、図3の
フローチャートを用いて人物特定手段107の手順を説
明する。
【0052】まず、音声合成手段105を用いて、人物
を特定する質問を行うことを「これから質問するよ」と
いうようにユーザに通知する(ステップb1)。次に質
問生成手段106を起動し、対話テーブル110Aから
登録人物の対話結果(時刻や返答結果)の差が大きいも
のを数個抽出(選択)する(ステップb2)。一般的に
は返答結果として「×」や「−」が少ない対話を抽出す
るとよい。質問生成手段106は、抽出された対話に対
応する質問を質問テーブル110Dを参照して取得する
と同時に、対話テーブル110Aを参照して各人物の対
話結果を抽出し、人物QAテーブル110Eを生成する
(ステップb3)。
【0053】図5は、質問テーブル11ODの実施例を
示す詳細図である。図5に示すように、質問テーブル1
10Dは、各対話に1:1に対応した質問を保持してい
る。例えば、対話テーブル110AのT1(図4参照)
には、質問テーブル110DのQ1が対応するように構
成されている。なお、質問テーブル110Dの形式とし
ては、 形式A:対話の時刻を問うもの(502) 形式B:対話の返答(内容)を問うもの(503) の2種類を用意している。どちらの形式が効果的かは質
問生成手段106が対話テーブル110Aを参照して、
自動的に判断して選択する。一般的には、音声認識によ
る返答がきちんと行われた対話の場合には形式B、そう
でない場合には形式Aをとる。
【0054】図6は、人物QAテーブル110Eの実施
例を示す詳細図である。図6に示すように、人物QAテ
ーブル110Eは、質問テーブル110Dに対する質問
の番号601と、対話テーブル110Aから転記された
各人物の対話履歴602〜604と、質問に対しての人
物の返答605と、から構成されている。図6は、図4
の対話テーブル110AにおいてT1、T4、T6の対
話が選択され、図5の質問テーブル110Dにおいて、
Q1A、Q4B、Q6Bの質問が選ばれたことを示す。
したがって、対話履歴602〜604の各人物欄の内容
は、図4のT1における時刻(形式A)、T4における
返答語句(形式B)、T6における返答語句(形式B)
が記載されたものとなる。
【0055】さて、人物特定手段107は、生成された
人物QAテーブル110Eから1つの行(質問)を選択
し、音声合成手段105を用いて発話する(ステップb
4)。図6の例では、Q1Aに定義されている「起きた
時間は? 」と問いかけることになる。次に人物からの返
答を得たら、音声認識手段104を用いて認識語句に置
き換え、その結果を返答欄605に記入する(ステップ
b5)。図6の返答605は、最初の質問であるQ1A
の質問に対してユーザが「AM9:00」と返答したこ
とを示している。ステップb4、b5の処理を人物QA
テーブル110Eに登録されている個数(行数)分だけ
実行する(ステップb6)。
【0056】全ての質問とユーザからの返答が完了する
と、返答結果を各人物と想定した場合の得点を計算し、
合計得点の最も高い人物を特定する(ステップb7)。
得点の計算は以下の方法によって行う。 R1:時刻を問う質問=1時間以内100点、2時間以
内50点、その他0点。 R2:内容を問う質問=正解100点、不正解(認識不
能を含む)10点。
【0057】不正解を一律に0点にしなかったのは、
(同一)人間でも正確に記憶できていない場合があるか
らである。図6において括弧内の数値は上記ルールに基
づいた得点を示している。図6の場合での合計得点は、
人物Aが100点、人物Bが210点、人物Cが150
点であり、本システムを操作したのは人物Bと想定され
る。この最高得点がある基準得点以上であれば人物Bと
して特定し、基準得点未満であれば人物不定として判断
する(ステップb8)。なお、人物を特定した後は、図
2のへ行き、ステップa2以下の処理を繰り返すこと
になる。
【0058】以上、本発明の第1の実施形態では、説明
を簡略化するために2回目の動作の最初に人物を特定す
る質問を行うものであるが、本質問は人物不定のまま対
話を行っている最中に行っても良い。例えば、ステップ
b1〜b3までは事前に処理しておき、ステップb4〜
b5は、図2のステップa7〜ステップa8の間に挿入
する方法も考えられる。この場合は、対話テーブル11
0A内に人物不定という欄を生成しておき、人物不定状
態の対話履歴は人物不定の欄に記入しておく。人物が特
定された時点で、人物不定欄のデータを特定された人物
欄へ転送するような形式をとる。この方法をとれば、ユ
ーザ対話の中に自然に質問が組み込まれたものとなり、
ユーザの違和感が減少される。
【0059】また、対話テーブル110Aは、初回登録
した対話履歴のみを用いているが、2回以上使用した履
歴を用いるように構成することも可能である。例えば、
図2のステップa6,a7において対話を行った日時と
ユーザからの返答結果を対話テーブル110Aに追加す
るように記入しておく。質問テーブル110Dは、「1
週間での各対話回数は? 」「前回、遊んだのはいつ? 」
などを定義しておく。このような構成をとれば、本シス
テムを複数回使用した履歴に基づく質問や人物特定を行
うことが可能となる。
【0060】〈第2の実施形態〉次に、本発明の第2の
実施形態について図面を参照して詳細に説明する。本発
明の第1の実施形態ではユーザによる対話履歴に基づい
て人物を特定したのに対し、第2の実施形態ではユーザ
による操作履歴に基づいて人物を特定する。したがっ
て、図1において、本発明の第2の実施形態である人物
特定システムは、センサ情報取得手段101と操作テー
ブル110Bとを用いる。一方、対話制御手段108及
び対話テーブル110Aは不要となるが、あってもよ
い。
【0061】図1において、ユーザが「なでる」「叩
く」「持ち上げる」等の各操作を行うと、センサ情報取
得手段101がその操作を検知し、操作テーブル110
Bに操作を行った時刻を書き込む。
【0062】図7は、操作テーブル110Bの実施例を
示す詳細図である。図7において、操作テーブル110
Bは、操作種類を示す識別番号701、操作の種類70
2、各人物における操作の時刻と延べ回数703〜70
5から構成される。
【0063】図8は、本発明の第2の実施形態である人
物特定システムの動作例を示すフローチャートであり、
初めて本システムを操作した場合の手順を示している。
まず、これから本システムを使用する人物を特定する
(ステップa100)。次に、「なでる」「叩く」「持
ち上げる」の各操作が行われたかをセンサ情報取得手段
101が検知した場合には、操作テーブル110Bにそ
の時刻を記入し、操作回数を更新し(ステップa10
1、102)、本処理終了の指示があるまで継続する
(ステップa103)。上記処理を想定される人物の数
だけ行う。
【0064】2回目に本システムを使用して人物を特定
する方法は、本発明の第1の実施形態とほぼ同様であ
る。すなわち、質問生成手段106は、生成された操作
テーブル110Bと質問テーブル110Dとを参照して
人物QAテーブル110Eを生成する。人物特定手段1
07は、生成された人物QAテーブル110Eを用いて
人物に質問を行い、その返答結果から各人物単位での得
点計算を行い、合計得点の最も高い人物を特定する。本
発明の第2の実施形態における質問テーブル110Dの
実施例を図9に、人物QAテーブル110Eの実施例を
図10に示す。
【0065】図9の質問テーブル110Dは、質問番号
901と、時刻を問う質問(形式A)902と、回数を
問う質問(形式B)903と、から構成されている。図
10の人物QAテーブル110Eは、本発明の第1の実
施形態と同様に、操作テーブル110Bと質問テーブル
110Dとから生成・転記したものである。図9、図1
0から分かるように、本発明の第1の実施形態と異なる
のは、質問内容として対話の語句の代わりに操作の回数
を用いている点である。
【0066】なお、本発明の第2の実施形態では次のよ
うな得点ルールを採用している。 R3:回数の質問では正解が100点、±1回は50
点。これら以外は0点。 R4:時刻の質問では1時間以内が100点。2時間以
内が50点。これ以外は0点。
【0067】〈第3の実施形態〉また、本発明の第3の
実施形態としては、上述する第1の実施形態と第2の実
施形態とを組み合わせる方法が考えられる。すなわち、
対話履歴に基づく得点と操作履歴による得点との両方を
用い、両得点の合計値などの演算結果によって人物を特
定する方法である。
【0068】〈第4の実施形態〉さらに、本発明の第4
の実施形態としては、公知の画像認識技術と組み合わせ
る方法が考えられる。図11に示したように、従来技術
では画像認識結果によって得点化を行い、顔画像データ
ベースに登録されている人物の中で最も得点の高い人物
を特定している。すなわち、上記各実施形態で述べた対
話履歴による得点、操作履歴による得点、画像認識結果
による得点の3種類の得点を用い、これらの合計値な
ど、ある演算結果によって人物を特定する方法が考えら
れる。
【0069】また、上述する各実施形態に示される処理
は、人物特定システムの各部によって実行されるもので
あり、当該各部の動作制御は、プログラムに基づいて実
行されるものである。
【0070】なお、上述される各実施形態は、本発明の
好適な実施形態であり、本発明の主旨を逸脱しない範囲
内において種々変形して実施することが可能である。
【0071】
【発明の効果】以上の説明より明らかなように、本発明
によれば、本来対話や操作を行う装置において、その履
歴情報のみを使用して人物を特定するため、特殊な部品
を必要をしないので、コストを低減することができる。
【0072】また、本発明によれば、ある個人の対話結
果や操作結果で自動的にパスワードが更新されるメカニ
ズムとみなすこともできる。このため、仮に他人が一度
「なりすまし」に成功しても、次回使用時にはパスワー
ドが更新されていることになり、他人が継続して「なり
すまし」を成功させることが極めて困難となるので、他
人による「なりすまし」を継続的に防ぐことができる。
【0073】さらに、従来方式では、まず画像認識や指
紋認識をユーザに行わせ、合致した人物だけが次の処理
に進むなど、セキュリティを目的としているもがほとん
どあったが、本発明によれば、対話や操作の途中に人物
を特定する質問をちりばめることが可能であり、その結
果ペット型ロボットのように楽しむということが主目的
の装置において、通常操作や対話を行いながら人物を特
定することができるため、ユーザは違和感なく対話や操
作を行うことができる。
【図面の簡単な説明】
【図1】本発明の第1及び第2の実施形態の構成を示す
ブロック図である。
【図2】本発明の第1の実施形態の動作例を示す第1の
フローチャートである。
【図3】本発明の第1の実施形態の動作例を示す第2の
フローチャートである。
【図4】本発明の第1の実施形態における対話テーブル
の詳細図である。
【図5】本発明の第1の実施形態における質問テーブル
の詳細図である。
【図6】本発明の第1の実施形態における人物QAテー
ブルの詳細図である。
【図7】本発明の第2の実施形態における操作テーブル
の詳細図である。
【図8】本発明の第2の実施形態の動作例を示すフロー
チャートである。
【図9】本発明の第2の実施形態における質問テーブル
の詳細図である。
【図10】本発明の第2の実施形態における人物QAテ
ーブルの詳細図である。
【図11】従来の人物特定システムの概略構成を示すブ
ロック図である。
【符号の説明】
101 センサ情報取得手段 102 時計手段 103 記憶手段 104 音声認識手段 105 音声合成手段 106 質問生成手段 107 人物特定手段 108 対話制御手段 110 記憶部 110A 対話テーブル 110B 操作テーブル 110C 音声認識辞書 110D 質問テーブル 110E 人物QAテーブル
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 3/00 571U

Claims (30)

    【特許請求の範囲】
  1. 【請求項1】 音声入力部からの音声信号を認識する音
    声認識手段と、 文字列を音声信号に変換して音声出力部に出力する音声
    合成手段と、 本システムからの発話語句と人物からの返答語句を保持
    した対話テーブルと、該対話テーブル内の返答語句を問
    い合わせる質問を保持した質問テーブルと、から構成さ
    れる記憶部を制御する記憶手段と、 前記音声合成手段を用いて前記対話テーブル内の発話語
    句を前記音声出力部へ出力し、人物からの返答を前記音
    声認識手段を用いて認識し、その認識結果を前記対話テ
    ーブル内の返答語句へ格納する対話制御手段と、 前記質問テーブルに保持される質問を前記音声合成手段
    を用いて前記音声出力部へ出力し、前記質問に対する人
    物からの回答を前記音声認識手段を用いて認識し、その
    認識結果と前記対話テーブルに保持される返答語句とを
    比較して得点化を行い、その得点の合計値が最も高い人
    物を特定する第1の人物特定手段と、 を有することを特徴とする人物特定システム。
  2. 【請求項2】 音声入力部からの音声信号を認識する音
    声認識手段と、 文字列を音声信号に変換して音声出力部に出力する音声
    合成手段と、 人物の操作回数を保持する操作テーブルと、人物の操作
    回数を問い合わせる質問テーブルと、から構成される記
    憶部を制御する記憶手段と、 センサ機構を用いて人物による操作を検知し、前記操作
    テーブル内の操作回数を更新するセンサ情報取得手段
    と、 前記質問テーブル記載の質問を音声合成手段を用いて前
    記音声出力部へ出力し、前記質問に対する人物からの回
    答を前記音声認識手段を用いて認識し、その認識結果と
    前記操作テーブルに保持される操作回数とを比較して得
    点化を行い、その得点の合計値が最も高い人物を特定す
    る第1の人物特定手段と、 を有することを特徴とする人物特定システム。
  3. 【請求項3】 音声入力部からの音声信号を認識する音
    声認識手段と、 文字列を音声信号に変換して音声出力部に出力する音声
    合成手段と、 本システムからの発話語句と人物からの返答語句を保持
    した対話テーブルと、前記対話テーブル内の返答語句を
    問い合わせる質問を保持した第1の質問テーブルと、人
    物の操作回数を保持する操作テーブルと、人物の操作回
    数を問い合わせる第2の質問テーブルと、から構成され
    る記憶部を制御する記憶手段と、 前記音声合成手段を用いて前記対話テーブル内の発話語
    句を前記音声出力部へ出力し、人物からの返答を前記音
    声認識手段を用いて認識し、その認識結果を前記対話テ
    ーブル内の返答語句へ格納する対話制御手段と、 前記第1の質問テーブル記載の質問を前記音声合成手段
    を用いて前記音声出力部へ出力し、前記質問に対する人
    物からの回答を音声認識手段を用いて認識し、その認識
    結果と前記対話テーブル記載の返答語句とを比較して得
    点化を行い、その得点の合計値が最も高い人物を特定す
    る第1の人物特定手段と、 センサ機構を用いて人物による操作を検知し、前記操作
    テーブル内の操作回数を更新するセンサ情報取得手段
    と、 前記第2の質問テーブル記載の質問を前記音声合成手段
    を用いて前記音声出力部へ出力し、前記質問に対する人
    物からの回答を音声認識手段を用いて認識し、その認識
    結果と前記操作テーブルに保持される操作回数とを比較
    して得点化を行い、その得点の合計値が最も高い人物を
    特定する第2の人物特定手段と、 を有することを特徴とする人物特定システム。
  4. 【請求項4】 現在の日付や時刻を取得する時計手段
    と、 前記時計手段を用いて本システムからの発話が行われた
    場合の日付や時刻を取得し、その結果を保持した対話時
    期テーブルと該対話時期テーブル記載の対話時期を問い
    合わせる質問を定義した第2の質問テーブルとを記憶部
    に保持し、 前記第2の質問テーブルに保持される質問を前記音声合
    成手段を用いて前記音声出力部へ出力し、前記質問に対
    する人物からの回答を前記音声認識手段を用いて認識
    し、その認識結果と前記対話時期テーブルに保持される
    対話時期とを比較して得点化を行い、その得点の合計値
    が最も高い人物を特定する第2の人物特定手段と、 を有することを特徴とする請求項1記載の人物特定シス
    テム。
  5. 【請求項5】 現在の日付や時刻を取得する時計手段
    と、 前記時計手段を用いて人物の操作が行われた場合の日付
    や時刻を取得し、その結果を保持した操作時期テーブル
    と該操作時期テーブルに保持される操作時期を問い合わ
    せる質問を定義した第2の質問テーブルを記憶部に保持
    し、 前記第2の質問テーブルに保持される質問を前記音声合
    成手段を用いて前記音声出力部へ出力し、前記質問に対
    する人物からの回答を前記音声認識手段を用いて認識
    し、その認識結果と前記操作時期テーブル記載の操作時
    期とを比較して得点化を行い、その得点の合計値が最も
    高い人物を特定する第2の人物特定手段と、 を有することを特徴とする請求項2記載の人物特定シス
    テム。
  6. 【請求項6】 現在の日付や時刻を取得する時計手段
    と、 前記時計手段を用いて本システムからの発話が行われた
    場合の日付や時刻を取得し、その結果を保持した対話時
    期テーブルと該対話時期テーブルに保持される対話時期
    を問い合わせる質問を定義した第3の質問テーブルを記
    憶部に保持し、 前記第3の質問テーブル記載の質問を前記音声合成手段
    を用いて前記音声出力部へ出力し、前記質問に対する人
    物からの回答を前記音声認識手段を用いて認識し、その
    認識結果と前記対話時期テーブル記載の対話時期とを比
    較して得点化を行い、その得点の合計値が最も高い人物
    を特定する第3の人物特定手段と、 を有することを特徴とする請求項3記載の人物特定シス
    テム。
  7. 【請求項7】 現在の日付や時刻を取得する時計手段
    と、 前記時計手段を用いて人物による操作が行われた場合の
    日付や時刻を取得し、その結果を保持した操作時期テー
    ブルと該操作時期テーブルに保持される操作時期を問い
    合わせる質問を定義した第3の質問テーブルを記憶部に
    保持し、 前記第3の質問テーブルに保持される質問を前記音声合
    成手段を用いて前記音声出力部へ出力し、前記質問に対
    する人物からの回答を前記音声認識手段を用いて認識
    し、その認識結果と前記操作時期テーブル記載の操作時
    期とを比較して得点化を行い、その得点の合計値が最も
    高い人物を特定する第3の人物特定手段と、 を有することを特徴とする請求項3記載の人物特定シス
    テム。
  8. 【請求項8】 前記時計手段を用いて人物による操作が
    行われた場合の日付や時刻を取得し、その結果を保持し
    た操作時期テーブルと該操作時期テーブルに保持される
    操作時期を問い合わせる質問を定義した第4の質問テー
    ブルとを記憶部に保持し、 前記第4の質問テーブルに保持される質問を前記音声合
    成手段を用いて音声出力部へ出力し、前記質問に対する
    人物からの回答を前記音声認識手段を用いて認識し、そ
    の認識結果と前記操作時期テーブルに保持される操作時
    期とを比較して得点化を行い、その得点の合計値が最も
    高い人物を特定する第4の人物特定手段と、 を有することを特徴とする請求項6記載の人物特定シス
    テム。
  9. 【請求項9】 画像入力部から得られた信号から顔画像
    を取得する顔画像取得手段と、 前記顔画像取得手段を用いて得られた顔画像をデータベ
    ース化した顔データベースを保持する記憶手段と、 前記顔画像取得手段を用いて取得した顔画像と前記顔デ
    ータベースを比較して顔データの類似度を判定する顔画
    像認識手段と、 前記顔画像認識手段を用いて得られた類似度を得点化
    し、前記顔データベースに登録されている人物の中で最
    も得点の高い人物を特定する第2の人物特定手段と、 を有することを特徴とする請求項1記載の人物特定シス
    テム。
  10. 【請求項10】 画像入力部から得られた信号から顔画
    像を取得する顔画像取得手段と、 前記顔画像取得手段を用いて得られた顔画像をデータベ
    ース化した顔データベースを保持する記憶手段と、 前記顔画像取得手段を用いて取得した顔データと前記顔
    データベースを比較して顔データの類似度を判定する顔
    画像認識手段と、 前記顔画像認識手段を用いて得られた類似度を得点化
    し、前記顔データベースに登録されている人物の中で最
    も得点の高い人物を特定する第2の人物特定手段と、 を有することを特徴とする請求項2記載の人物特定シス
    テム。
  11. 【請求項11】 画像入力部から得られた信号から顔画
    像を取得する顔画像取得手段と、 前記顔画像取得手段を用いて得られた顔画像をデータベ
    ース化した顔データベースを保持する記憶手段と、 前記顔画像取得手段を用いて取得した顔データと前記顔
    データベースを比較して顔データの類似度を判定する顔
    画像認識手段と、 前記顔画像認識手段を用いて得られた類似度を得点化
    し、前記顔データベースに登録されている人物の中で最
    も得点の高い人物を特定する第3の人物特定手段と、 を有することを特徴とする請求項3記載の人物特定シス
    テム。
  12. 【請求項12】 画像入力部から得られた信号から顔画
    像を取得する顔画像取得手段と、 前記顔画像取得手段を用いて得られた顔画像をデータベ
    ース化した顔データベースを保持する記憶手段と、 前記顔画像取得取得手段を用いて取得した顔画像と前記
    顔データベースを比較して顔データの類似度を判定する
    顔画像認識手段と、 前記顔画像認識手段を用いて得られた類似度を得点化
    し、前記顔データベースに登録されている人物の中で最
    も得点の高い人物を特定する第3の人物特定手段と、 を有することを特徴とする請求項4記載の人物特定シス
    テム。
  13. 【請求項13】 画像入力部から得られた信号から顔画
    像を取得する顔画像取得手段と、 前記顔画像取得手段を用いて得られたデータをデータベ
    ース化した顔データベースを保持する記憶手段と、 前記顔画像取得取得手段を用いて取得した顔データと前
    記顔データベースを比較して顔データの類似度を判定す
    る顔画像認識手段と、 前記顔画像認識手段を用いて得られた類似度を得点化
    し、前記顔データベースに登録されている人物の中で最
    も得点の高い人物を特定する第3の人物特定手段と、 を有することを特徴とする請求項5記載の人物特定シス
    テム。
  14. 【請求項14】 画像入力部から得られた信号から顔画
    像を取得する顔画像取得手段と、 前記顔画像取得手段を用いて得られた顔画像をデータベ
    ース化した顔データベースを保持する記憶手段と、 前記顔画像取得手段を用いて取得した顔データと前記顔
    データベースを比較して顔データの類似度を判定する顔
    画像認識手段と、 前記顔画像認識手段を用いて得られた類似度を得点化
    し、前記顔データベースに登録されている人物の中で最
    も得点の高い人物を特定する第4の人物特定手段と、 を有することを特徴とする請求項6記載の人物特定シス
    テム。
  15. 【請求項15】 画像入力部から得られた信号から顔画
    像を取得する顔画像取得手段と、 前記顔画像取得手段を用いて得られた顔画像をデータベ
    ース化した顔データベースを保持する記憶手段と、 前記顔画像取得取得手段を用いて取得した顔画像と前記
    顔データベースを比較して顔データの類似度を判定する
    顔画像認識手段と、 前記顔画像認識手段を用いて得られた類似度を得点化
    し、前記顔データベースに登録されている人物の中で最
    も得点の高い人物を特定する第4の人物特定手段と、 を有することを特徴とする請求項7記載の人物特定シス
    テム。
  16. 【請求項16】 画像入力部から得られた信号から顔画
    像を取得する顔画像取得手段と、 前記顔画像取得手段を用いて得られた顔画像をデータベ
    ース化した顔データベースを保持する記憶手段と、 前記顔画像取得取得手段を用いて取得した顔画像と前記
    顔データベースを比較して顔データの類似度を判定する
    顔画像認識手段と、 前記顔画像認識手段を用いて得られた類似度を得点化
    し、前記顔データベースに登録されている人物の中で最
    も得点の高い人物を特定する第5の人物特定手段と、 を有することを特徴とする請求項8記載の人物特定シス
    テム。
  17. 【請求項17】 前記第1の人物特定手段による得点と
    前記第2の人物特定手段による得点の両方を用いて計算
    を行い、その計算結果に基づいて人物を特定する第3の
    人物特定手段を有することを特徴とする請求項3記載の
    人物特定システム。
  18. 【請求項18】 前記第1の人物特定手段による得点と
    前記第2の人物特定手段による得点の両方を用いて計算
    を行い、その計算結果に基づいて人物を特定する第3の
    人物特定手段を有することを特徴とする請求項4記載の
    人物特定システム。
  19. 【請求項19】 前記第1の人物特定手段による得点と
    前記第2の人物特定手段による得点の両方を用いて計算
    を行い、その計算結果に基づいて人物を特定する第3の
    人物特定手段を有することを特徴とする請求項5記載の
    人物特定システム。
  20. 【請求項20】 前記第1の人物特定手段による得点と
    前記第2の人物特定手段による得点と前記第3の人物特
    定手段による得点を用いて計算を行い、その計算結果に
    基づいて人物を特定する第4の人物特定手段を有するこ
    とを特徴とする請求項6記載の人物特定システム。
  21. 【請求項21】 前記第1の人物特定手段による得点と
    前記第2の人物特定手段による得点と前記第3の人物特
    定手段による得点を用いて計算を行い、その計算結果に
    基づいて人物を特定する第4の人物特定手段を有するこ
    とを特徴とする請求項7記載の人物特定システム。
  22. 【請求項22】 前記第1の人物特定手段による得点と
    前記第2の人物特定手段による得点と前記第3の人物特
    定手段による得点と前記第4の人物特定手段による得点
    を用いて計算を行い、その計算結果に基づいて人物を特
    定する第5の人物特定手段を有することを特徴とする請
    求項8記載の人物特定システム。
  23. 【請求項23】 前記第1の人物特定手段による得点と
    前記第2の人物特定手段による得点を用いて計算を行
    い、その計算結果に基づいて人物を特定する第3の人物
    特定手段を有することを特徴とする請求項9記載の人物
    特定システム。
  24. 【請求項24】 前記第1の人物特定手段による得点と
    前記第2の人物特定手段による得点を用いて計算を行
    い、その計算結果に基づいて人物を特定する第3の人物
    特定手段を有することを特徴とする請求項10記載の人
    物特定システム。
  25. 【請求項25】 前記第1の人物特定手段による得点と
    前記第2の人物特定手段による得点と前記第3の人物特
    定手段による得点を用いて計算を行い、その計算結果に
    基づいて人物を特定する第4の人物特定手段を有するこ
    とを特徴とする請求項11記載の人物特定システム。
  26. 【請求項26】 前記第1の人物特定手段による得点と
    前記第2の人物特定手段による得点と前記第3の人物特
    定手段による得点を用いて計算を行い、その計算結果に
    基づいて人物を特定する第4の人物特定手段を有するこ
    とを特徴とする請求項12記載の人物特定システム。
  27. 【請求項27】 前記第1の人物特定手段による得点と
    前記第2の人物特定手段による得点と前記第3の人物特
    定手段による得点を用いて計算を行い、その計算結果に
    基づいて人物を特定する第4の人物特定手段を有するこ
    とを特徴とする請求項13記載の人物特定システム。
  28. 【請求項28】 前記第1の人物特定手段による得点と
    前記第2の人物特定手段による得点と前記第3の人物特
    定手段による得点と前記第4の人物特定手段による得点
    を用いて計算を行い、その計算結果に基づいて人物を特
    定する第5の人物特定手段を有することを特徴とする請
    求項14記載の人物特定システム。
  29. 【請求項29】 前記第1の人物特定手段による得点と
    前記第2の人物特定手段による得点と前記第3の人物特
    定手段による得点と前記第4の人物特定手段による得点
    を用いて計算を行い、その計算結果に基づいて人物を特
    定する第5の人物特定手段を有することを特徴とする請
    求項15記載の人物特定システム。
  30. 【請求項30】 前記第1の人物特定手段による得点と
    前記第2の人物特定手段による得点と前記第3の人物特
    定手段による得点と前記第4の人物特定手段による得点
    と前記第5の人物特定手段による得点を用いて計算を行
    い、その計算結果に基づいて人物を特定する第6の人物
    特定手段を有することを特徴とする請求項16記載の人
    物特定システム。
JP2001020303A 2001-01-29 2001-01-29 人物特定システム Expired - Lifetime JP4622106B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001020303A JP4622106B2 (ja) 2001-01-29 2001-01-29 人物特定システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001020303A JP4622106B2 (ja) 2001-01-29 2001-01-29 人物特定システム

Publications (2)

Publication Number Publication Date
JP2002221992A true JP2002221992A (ja) 2002-08-09
JP4622106B2 JP4622106B2 (ja) 2011-02-02

Family

ID=18886029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001020303A Expired - Lifetime JP4622106B2 (ja) 2001-01-29 2001-01-29 人物特定システム

Country Status (1)

Country Link
JP (1) JP4622106B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015510606A (ja) * 2011-12-29 2015-04-09 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 健康監視システムにおける話者検証

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2019208182B2 (en) 2018-07-25 2021-04-08 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0877352A (ja) * 1994-08-31 1996-03-22 Sanyo Electric Co Ltd 人物識別装置
JPH09127975A (ja) * 1995-10-30 1997-05-16 Ricoh Co Ltd 話者認識システムおよび情報管理方法
JPH09160589A (ja) * 1995-12-06 1997-06-20 Matsushita Electric Ind Co Ltd 利用者照合装置
JPH1173196A (ja) * 1997-07-18 1999-03-16 Lucent Technol Inc 話者の申し出識別を認証する方法
JP2000259601A (ja) * 1999-03-05 2000-09-22 Masami Kato 会話装置および方法
JP2000259828A (ja) * 1999-03-04 2000-09-22 Matsushita Electric Ind Co Ltd 個人認証装置及び方法
JP2001005488A (ja) * 1999-06-18 2001-01-12 Mitsubishi Electric Corp 音声対話システム
JP2002169591A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、及び情報記憶媒体

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0877352A (ja) * 1994-08-31 1996-03-22 Sanyo Electric Co Ltd 人物識別装置
JPH09127975A (ja) * 1995-10-30 1997-05-16 Ricoh Co Ltd 話者認識システムおよび情報管理方法
JPH09160589A (ja) * 1995-12-06 1997-06-20 Matsushita Electric Ind Co Ltd 利用者照合装置
JPH1173196A (ja) * 1997-07-18 1999-03-16 Lucent Technol Inc 話者の申し出識別を認証する方法
JP2000259828A (ja) * 1999-03-04 2000-09-22 Matsushita Electric Ind Co Ltd 個人認証装置及び方法
JP2000259601A (ja) * 1999-03-05 2000-09-22 Masami Kato 会話装置および方法
JP2001005488A (ja) * 1999-06-18 2001-01-12 Mitsubishi Electric Corp 音声対話システム
JP2002169591A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、及び情報記憶媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015510606A (ja) * 2011-12-29 2015-04-09 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 健康監視システムにおける話者検証

Also Published As

Publication number Publication date
JP4622106B2 (ja) 2011-02-02

Similar Documents

Publication Publication Date Title
JP3284832B2 (ja) 音声認識対話処理方法および音声認識対話装置
US7447632B2 (en) Voice authentication system
US10438586B2 (en) Voice dialog device and voice dialog method
JP2004101901A (ja) 音声対話装置及び音声対話プログラム
JP4408490B2 (ja) データベース照会を実行する方法及びその装置
WO2018230345A1 (ja) 対話ロボットおよび対話システム、並びに対話プログラム
US20170270923A1 (en) Voice processing device and voice processing method
US11416593B2 (en) Electronic device, control method for electronic device, and control program for electronic device
JP2002221992A (ja) 人物特定システム
JPH06110835A (ja) 音声対話システムおよびその対話進行制御方法
WO2023274028A1 (zh) 声纹锁控制方法、装置、电子设备
JPH11231895A (ja) 音声認識方法及びその装置
JP3633254B2 (ja) 音声認識システムおよびそのプログラムを記録した記録媒体
JP2001265385A (ja) 話者認識装置
JP2003076390A (ja) 話者認証システム及び方法
JP2820093B2 (ja) 単音節認識装置
KR100622019B1 (ko) 음성 인터페이스 시스템 및 방법
JP2005128130A (ja) 音声認識装置、音声認識方法及びプログラム
JPH06161488A (ja) 音声認識装置
KR100669244B1 (ko) 음성인식 시스템에서의 svm 기반 멀티플 반모델을사용한 발화검증 장치 및 방법
JP2000305590A (ja) 音声認識方法
CN110610695B (zh) 一种基于孤立词的语音识别方法及应用有该方法的吸油烟机
US8688452B2 (en) Automatic generation of distractors for special-purpose speech recognition grammars
JP2000242295A (ja) 音声認識装置および音声対話装置
JP2864511B2 (ja) 話者識別方式と装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101018

R150 Certificate of patent or registration of utility model

Ref document number: 4622106

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131112

Year of fee payment: 3

EXPY Cancellation because of completion of term