JP4622106B2 - 人物特定システム - Google Patents
人物特定システム Download PDFInfo
- Publication number
- JP4622106B2 JP4622106B2 JP2001020303A JP2001020303A JP4622106B2 JP 4622106 B2 JP4622106 B2 JP 4622106B2 JP 2001020303 A JP2001020303 A JP 2001020303A JP 2001020303 A JP2001020303 A JP 2001020303A JP 4622106 B2 JP4622106 B2 JP 4622106B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- question
- dialogue
- voice
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Description
【発明の属する技術分野】
本発明は、音声認識機能やセンサ機構を備える装置に関し、特に人物を特定する人物特定システムに関する。
【0002】
【従来の技術】
従来の人物特定システムでは、次のような方式が提案されている。
(A)画像認識を用いた方法
(B)指紋認識や声紋認識などの個人固有情報の認識技術を用いた方法
(C)パスワードを用いた方法
【0003】
図11には、画像認識を用いた人物特定システムの概念図を示す。
図11に示すように、従来の画像認識を用いた人物特定システムでは、CCDカメラなどにより画像入力部から得られた画像から顔画像取得手段10を用いて顔部分を抽出する。一般的に、抽出結果は顔の特徴点情報である。まず事前に、対象となる複数の人物に対して顔画像取得手段10による顔抽出結果から構成される顔画像データベース14を作成しておく。以降、人物を検知すると、顔画像取得手段10が顔抽出結果13をメモリ上に保持し、顔画像認識手段11が顔抽出結果13と顔画像データベース14とを比較し、類似点を抽出する。人物特定手段12は、得られた前記類似点を得点化し、顔画像データベース14に登録されている人物の中で最も得点の高い人物を特定する。
【0004】
【発明が解決しようとする課題】
しかしながら、上記従来例に示される人物特定システムにおいては、以下に示すように問題点があった。
第1に、上述する(A)や(B)の方式においては、CCDカメラなどの専用部品が必要となるため、部品コストが嵩むという問題があった。
【0005】
第2に、(C)の方式においては、なりすましを防ぐために頻繁にパスワードを変更しなければいけないという問題があった。
【0006】
第3に、昨今のペット型ロボットのように楽しむ装置においては、従来方式による人物特定システムはユーザが本質的になじまないという問題があった。その理由として、従来の方式はセキュリティを目的としており、人物を特定しないと次の処理や操作へ進むことができないことが挙げられる。上記のような商品においては、一般に人物が不定の状態でも十分操作可能であり、人物が特定されるとその人物固有のふるまいをするような構成になっている。このため、人物不定状態から人物特定状態のスムーズな遷移が必要とされるが、従来方式ではそういう遷移を行うことができないという問題があった。
【0007】
本発明は、上記問題に鑑みて成されたものであり、低コストで人物を特定することのできる人物特定システムを提供することを目的とする。
【0008】
また、本発明は、人物特定の特別な試験などを行わずに、通常の対話や操作を行いながら、人物を特定することのできる人物特定システムを提供することを目的とする。
【0009】
【課題を解決するための手段】
前記課題を解決するために、本発明の人物特定システムは、音声を入力する音声入力部と、音声を出力する音声出力部と、前記音声入力部からの音声信号を認識する音声認識手段と、文字列を音声信号に変換して前記音声出力部に出力する音声合成手段と、人物の操作回数を保持する操作テーブルと、人物の操作回数を問い合わせる第1の質問テーブルと、を有する記憶部を制御する記憶手段と、センサ機構を用いて人物による操作を検知し、前記操作テーブル内の操作回数を更新するセンサ情報取得手段と、前記第1の質問テーブル記載の質問を音声合成手段を用いて前記音声出力部へ出力し、前記質問に対する人物からの回答を前記音声認識手段を用いて認識し、その認識結果と前記操作テーブルに保持される操作回数とを比較して得点化を行い、その得点の合計値である操作履歴による得点に基づいて人物を特定する人物特定手段と、を有することを特徴とする。
【0039】
【発明の実施の形態】
次に、添付図面を参照しながら本発明の実施形態である人物特定システムを詳細に説明する。図1から図10に、本発明の係る人物特定システムの実施の形態を示す。
【0040】
〈第1の実施形態〉
図1は、本発明の第1の実施形態である人物特定システムの概略構成を示すブロック図である。図1において、本発明の第1の実施形態である人物特定システムは、現在の日付や時刻を取得する時計手段102と、マイクなどの音声入力部からの音声を認識する音声認識手段104と、文字列を合成音声に変換してスピーカなどの音声出力部へ出力する音声合成手段105と、記憶部110を制御する記憶手段103と、人物との対話を行う対話制御手段108と、人物との対話結果から人物を特定する質問を生成する質問生成手段106と、生成された質問と人物との対話結果から人物を特定する人物特定手段107と、を有して構成される。なお、図1におけるセンサ情報取得手段101及び記憶部110内の操作テーブル110Bについては、本発明の第2の実施形態で説明する。
【0041】
記憶部110は、人物との対話内容と対話結果とを保持する対話テーブル110Aと、音声認識を行うための音声認識辞書110Cと、対話テーブル110Aと1:1に対応した質問を定義した質問テーブル110Dと、人物を特定する質問である人物QAテーブル110Eと、を有して構成される。
【0042】
記憶部110を構成する上記各部は、以下のように動作する。
まず、対話テーブル110Aには、本システムが発話を行う条件である「時刻(トリガー時刻)」「ユーザ発話語句(トリガー音声)」「発話語句(システム音声)」などが定義されている。対話制御手段108は、時計手段102や音声認識手段104を用いて上記条件が満たされていることを検知した場合に、同テーブルに定義されている発話語句を本システムが発話する。対話制御手段108は、本発話の時刻及び本発話に対して人物が返答した音声を音声認識手段104と記憶手段103とを用いて対話テーブル110Aへ記入する。この処理を、本システムを利用する全ての人物に対して行う。
【0043】
次に、本システムを利用する場合、質問生成手段106は、人物単位の対話履歴を保持した対話テーブル110Aと質問テーブル110Dとを用いて、人物を特定する質問である人物QAテーブル110Eを生成する。人物QAテーブル110Eは、人物単位の対話履歴(対話テーブル110Aのサブセット)とその対話結果を問い合わせる質問かとら構成されている。人物特定手段107は、人物QAテーブル110Eを用いて過去の対話履歴に関する質問を人物と行い、登録人物単位で質問結果(回答)に関する得点を計算する。この得点の最も高い人物を特定する。
【0044】
次に、図1及び図2、図3のフローチャートを参照して本発明の実施形態である人物特定システム全体の動作例を詳細に説明する。図2は、ユーザが初めて本システムを用いる場合に、対話制御手段108が人物との対話を行い、その履歴情報を対話テーブル110Aに登録する手順を示したものである。そこで、まず対話テーブル110Aの構成について図4を用いて説明し、その後で図2の動作例を説明する。
【0045】
図4は、対話テーブル110Aの実施例を示す詳細図である。
図4に示したように、対話テーブル110Aは、対話のトリガー時刻402と、トリガー音声403と、発話語句404と、人物Aから人物Cまでの対話結果(405〜407)と、から構成されている。対話の種類を示す識別番号401は便宜的に設けたものである。トリガー時刻402及びトリガー音声403は、本システムからの発話を行う条件を示している。すなわち、
(1)時計手段102が対話テーブル110A内のトリガー時刻402を検知した時
(2)ユーザが発話を行い、音声認識手段104による認識語句がトリガー音声403の語句と一致した時
のいずれかの条件が満たされる場合に、発話語句404に定義された語句を本システムから発話する。
【0046】
図4の人物欄405〜407は、上記条件が満たされて本システムからの発話が行われた場合に、その時の時刻と同発話に対する人物からの返答結果(音声認識された結果の語句)が各人物単位で記入されたものである。図4において「×」は、ユーザが返答したが音声認識手段104が認識できなかったことを示し、「−」は何も返答がなかったことを示す。
【0047】
例えば、405Aは、本システムがAM9:00に「おはよう〜さん」と発話したことに対して、人物Aが「おはよう」と返答してことを示す。また、407Aは、本システムがAM11:00に「おはよう〜さん」と発話したことに対して人物Cからは何も返答がなかったことを示す。なお、返答結果として認識不能状態や返答なしの状態を導入したのは、ペット型ロボットに代表されるように楽しむことが主目的の装置においては、明確な返答は不要なケースが多いからである。
【0048】
図2において、初めて操作する人は音声認識手段104などを用いて本人であることを登録する(ステップa1)。これにより対話テーブル110Aの人物欄が生成される。次に、対話制御手段108は、対話テーブル110Aの当該人物欄に未記入の行もしくは対話結果が「−」と記載されている行(対話)を抽出する(ステップa2)。抽出された対話に対して、トリガー時刻402と時計手段102の現在時刻を比較し、対話トリガーとなる対話開始時刻になったかどうかを調べる(ステップa3)。一致しない場合には、人間からの発話を調べ、発話があった場合にはトリガー音声403の語句と一致するかどうかを調べる(ステップa4)。ステップa3,ステップa4のいずかの条件が満たされるまで繰り返し処理を行う。
【0049】
ステップa3、ステップa4のいずれかの条件が満たされる場合には、対話テーブル110Aで該当する条件を満たす対話(行)を1つ選択し、当該対話の発話語句404を音声合成手段105を用いて発話する(ステップa5)。本システムが発話を行うと、人物欄のところに発話時刻を書き込む(ステップa6)。その後、ユーザからの返答を待ち、音声認識手段104がその語句を認識できた場合には返答語句を、認識不能の場合には「×」を該人物欄に記入する。ユーザからの返答がなかった場合には「−」を該人物欄に書き込む(ステップa7)。ステップa2〜ステップa7の処理を終了指示(電源OFFなど)があるまで繰り返す(ステップa8)。
【0050】
以上の処理により、ある特定人物に対しての対話テーブル110Aの作成が完了する。この処理を想定されるユーザの数だけ実行すれば、図4に示したような対話テーブル110Aが生成される。
【0051】
さて、2回目以降に本システムを用いる場合、人物特定手段107は、更新された対話テーブル110Aを用いて人物を自動的に特定する。以下、図3のフローチャートを用いて人物特定手段107の手順を説明する。
【0052】
まず、音声合成手段105を用いて、人物を特定する質問を行うことを「これから質問するよ」というようにユーザに通知する(ステップb1)。次に質問生成手段106を起動し、対話テーブル110Aから登録人物の対話結果(時刻や返答結果)の差が大きいものを数個抽出(選択)する(ステップb2)。一般的には返答結果として「×」や「−」が少ない対話を抽出するとよい。質問生成手段106は、抽出された対話に対応する質問を質問テーブル110Dを参照して取得すると同時に、対話テーブル110Aを参照して各人物の対話結果を抽出し、人物QAテーブル110Eを生成する(ステップb3)。
【0053】
図5は、質問テーブル11ODの実施例を示す詳細図である。
図5に示すように、質問テーブル110Dは、各対話に1:1に対応した質問を保持している。例えば、対話テーブル110AのT1(図4参照)には、質問テーブル110DのQ1が対応するように構成されている。なお、質問テーブル110Dの形式としては、
形式A:対話の時刻を問うもの(502)
形式B:対話の返答(内容)を問うもの(503)
の2種類を用意している。どちらの形式が効果的かは質問生成手段106が対話テーブル110Aを参照して、自動的に判断して選択する。一般的には、音声認識による返答がきちんと行われた対話の場合には形式B、そうでない場合には形式Aをとる。
【0054】
図6は、人物QAテーブル110Eの実施例を示す詳細図である。
図6に示すように、人物QAテーブル110Eは、質問テーブル110Dに対する質問の番号601と、対話テーブル110Aから転記された各人物の対話履歴602〜604と、質問に対しての人物の返答605と、から構成されている。図6は、図4の対話テーブル110AにおいてT1、T4、T6の対話が選択され、図5の質問テーブル110Dにおいて、Q1A、Q4B、Q6Bの質問が選ばれたことを示す。したがって、対話履歴602〜604の各人物欄の内容は、図4のT1における時刻(形式A)、T4における返答語句(形式B)、T6における返答語句(形式B)が記載されたものとなる。
【0055】
さて、人物特定手段107は、生成された人物QAテーブル110Eから1つの行(質問)を選択し、音声合成手段105を用いて発話する(ステップb4)。図6の例では、Q1Aに定義されている「起きた時間は? 」と問いかけることになる。次に人物からの返答を得たら、音声認識手段104を用いて認識語句に置き換え、その結果を返答欄605に記入する(ステップb5)。図6の返答605は、最初の質問であるQ1Aの質問に対してユーザが「AM9:00」と返答したことを示している。ステップb4、b5の処理を人物QAテーブル110Eに登録されている個数(行数)分だけ実行する(ステップb6)。
【0056】
全ての質問とユーザからの返答が完了すると、返答結果を各人物と想定した場合の得点を計算し、合計得点の最も高い人物を特定する(ステップb7)。得点の計算は以下の方法によって行う。
R1:時刻を問う質問=1時間以内100点、2時間以内50点、その他0点。
R2:内容を問う質問=正解100点、不正解(認識不能を含む)10点。
【0057】
不正解を一律に0点にしなかったのは、(同一)人間でも正確に記憶できていない場合があるからである。図6において括弧内の数値は上記ルールに基づいた得点を示している。図6の場合での合計得点は、人物Aが100点、人物Bが210点、人物Cが150点であり、本システムを操作したのは人物Bと想定される。この最高得点がある基準得点以上であれば人物Bとして特定し、基準得点未満であれば人物不定として判断する(ステップb8)。なお、人物を特定した後は、図2の▲1▼へ行き、ステップa2以下の処理を繰り返すことになる。
【0058】
以上、本発明の第1の実施形態では、説明を簡略化するために2回目の動作の最初に人物を特定する質問を行うものであるが、本質問は人物不定のまま対話を行っている最中に行っても良い。例えば、ステップb1〜b3までは事前に処理しておき、ステップb4〜b5は、図2のステップa7〜ステップa8の間に挿入する方法も考えられる。この場合は、対話テーブル110A内に人物不定という欄を生成しておき、人物不定状態の対話履歴は人物不定の欄に記入しておく。人物が特定された時点で、人物不定欄のデータを特定された人物欄へ転送するような形式をとる。この方法をとれば、ユーザ対話の中に自然に質問が組み込まれたものとなり、ユーザの違和感が減少される。
【0059】
また、対話テーブル110Aは、初回登録した対話履歴のみを用いているが、2回以上使用した履歴を用いるように構成することも可能である。例えば、図2のステップa6,a7において対話を行った日時とユーザからの返答結果を対話テーブル110Aに追加するように記入しておく。質問テーブル110Dは、「1週間での各対話回数は? 」「前回、遊んだのはいつ? 」などを定義しておく。このような構成をとれば、本システムを複数回使用した履歴に基づく質問や人物特定を行うことが可能となる。
【0060】
〈第2の実施形態〉
次に、本発明の第2の実施形態について図面を参照して詳細に説明する。
本発明の第1の実施形態ではユーザによる対話履歴に基づいて人物を特定したのに対し、第2の実施形態ではユーザによる操作履歴に基づいて人物を特定する。したがって、図1において、本発明の第2の実施形態である人物特定システムは、センサ情報取得手段101と操作テーブル110Bとを用いる。一方、対話制御手段108及び対話テーブル110Aは不要となるが、あってもよい。
【0061】
図1において、ユーザが「なでる」「叩く」「持ち上げる」等の各操作を行うと、センサ情報取得手段101がその操作を検知し、操作テーブル110Bに操作を行った時刻を書き込む。
【0062】
図7は、操作テーブル110Bの実施例を示す詳細図である。
図7において、操作テーブル110Bは、操作種類を示す識別番号701、操作の種類702、各人物における操作の時刻と延べ回数703〜705から構成される。
【0063】
図8は、本発明の第2の実施形態である人物特定システムの動作例を示すフローチャートであり、初めて本システムを操作した場合の手順を示している。まず、これから本システムを使用する人物を特定する(ステップa100)。次に、「なでる」「叩く」「持ち上げる」の各操作が行われたかをセンサ情報取得手段101が検知した場合には、操作テーブル110Bにその時刻を記入し、操作回数を更新し(ステップa101、102)、本処理終了の指示があるまで継続する(ステップa103)。上記処理を想定される人物の数だけ行う。
【0064】
2回目に本システムを使用して人物を特定する方法は、本発明の第1の実施形態とほぼ同様である。すなわち、質問生成手段106は、生成された操作テーブル110Bと質問テーブル110Dとを参照して人物QAテーブル110Eを生成する。人物特定手段107は、生成された人物QAテーブル110Eを用いて人物に質問を行い、その返答結果から各人物単位での得点計算を行い、合計得点の最も高い人物を特定する。本発明の第2の実施形態における質問テーブル110Dの実施例を図9に、人物QAテーブル110Eの実施例を図10に示す。
【0065】
図9の質問テーブル110Dは、質問番号901と、時刻を問う質問(形式A)902と、回数を問う質問(形式B)903と、から構成されている。図10の人物QAテーブル110Eは、本発明の第1の実施形態と同様に、操作テーブル110Bと質問テーブル110Dとから生成・転記したものである。図9、図10から分かるように、本発明の第1の実施形態と異なるのは、質問内容として対話の語句の代わりに操作の回数を用いている点である。
【0066】
なお、本発明の第2の実施形態では次のような得点ルールを採用している。
R3:回数の質問では正解が100点、±1回は50点。これら以外は0点。
R4:時刻の質問では1時間以内が100点。2時間以内が50点。これ以外は0点。
【0067】
〈第3の実施形態〉
また、本発明の第3の実施形態としては、上述する第1の実施形態と第2の実施形態とを組み合わせる方法が考えられる。すなわち、対話履歴に基づく得点と操作履歴による得点との両方を用い、両得点の合計値などの演算結果によって人物を特定する方法である。
【0068】
〈第4の実施形態〉
さらに、本発明の第4の実施形態としては、公知の画像認識技術と組み合わせる方法が考えられる。図11に示したように、従来技術では画像認識結果によって得点化を行い、顔画像データベースに登録されている人物の中で最も得点の高い人物を特定している。すなわち、上記各実施形態で述べた対話履歴による得点、操作履歴による得点、画像認識結果による得点の3種類の得点を用い、これらの合計値など、ある演算結果によって人物を特定する方法が考えられる。
【0069】
また、上述する各実施形態に示される処理は、人物特定システムの各部によって実行されるものであり、当該各部の動作制御は、プログラムに基づいて実行されるものである。
【0070】
なお、上述される各実施形態は、本発明の好適な実施形態であり、本発明の主旨を逸脱しない範囲内において種々変形して実施することが可能である。
【0071】
【発明の効果】
以上の説明より明らかなように、本発明によれば、本来対話や操作を行う装置において、その履歴情報のみを使用して人物を特定するため、特殊な部品を必要をしないので、コストを低減することができる。
【0072】
また、本発明によれば、ある個人の対話結果や操作結果で自動的にパスワードが更新されるメカニズムとみなすこともできる。このため、仮に他人が一度「なりすまし」に成功しても、次回使用時にはパスワードが更新されていることになり、他人が継続して「なりすまし」を成功させることが極めて困難となるので、他人による「なりすまし」を継続的に防ぐことができる。
【0073】
さらに、従来方式では、まず画像認識や指紋認識をユーザに行わせ、合致した人物だけが次の処理に進むなど、セキュリティを目的としているもがほとんどあったが、本発明によれば、対話や操作の途中に人物を特定する質問をちりばめることが可能であり、その結果ペット型ロボットのように楽しむということが主目的の装置において、通常操作や対話を行いながら人物を特定することができるため、ユーザは違和感なく対話や操作を行うことができる。
【図面の簡単な説明】
【図1】本発明の第1及び第2の実施形態の構成を示すブロック図である。
【図2】本発明の第1の実施形態の動作例を示す第1のフローチャートである。
【図3】本発明の第1の実施形態の動作例を示す第2のフローチャートである。
【図4】本発明の第1の実施形態における対話テーブルの詳細図である。
【図5】本発明の第1の実施形態における質問テーブルの詳細図である。
【図6】本発明の第1の実施形態における人物QAテーブルの詳細図である。
【図7】本発明の第2の実施形態における操作テーブルの詳細図である。
【図8】本発明の第2の実施形態の動作例を示すフローチャートである。
【図9】本発明の第2の実施形態における質問テーブルの詳細図である。
【図10】本発明の第2の実施形態における人物QAテーブルの詳細図である。
【図11】従来の人物特定システムの概略構成を示すブロック図である。
【符号の説明】
101 センサ情報取得手段
102 時計手段
103 記憶手段
104 音声認識手段
105 音声合成手段
106 質問生成手段
107 人物特定手段
108 対話制御手段
110 記憶部
110A 対話テーブル
110B 操作テーブル
110C 音声認識辞書
110D 質問テーブル
110E 人物QAテーブル
Claims (5)
- 音声を入力する音声入力部と、
音声を出力する音声出力部と、
前記音声入力部からの音声信号を認識する音声認識手段と、
文字列を音声信号に変換して前記音声出力部に出力する音声合成手段と、
人物の操作回数を保持する操作テーブルと、人物の操作回数を問い合わせる第1の質問テーブルと、を有する記憶部を制御する記憶手段と、
センサ機構を用いて人物による操作を検知し、前記操作テーブル内の操作回数を更新するセンサ情報取得手段と、
前記第1の質問テーブル記載の質問を音声合成手段を用いて前記音声出力部へ出力し、前記質問に対する人物からの回答を前記音声認識手段を用いて認識し、その認識結果と前記操作テーブルに保持される操作回数とを比較して得点化を行い、その得点の合計値である操作履歴による得点に基づいて人物を特定する人物特定手段と、
を有することを特徴とする人物特定システム。 - さらに、対話制御手段を有し、
前記記憶部は、本システムからの発話語句と人物からの返答語句を保持した対話テーブルと、前記対話テーブル内の返答語句を問い合わせる質問を保持した第2の質問テーブルを有し、
前記対話制御手段は、前記音声合成手段を用いて前記対話テーブル内の発話語句を前記音声出力部へ出力し、人物からの返答を前記音声認識手段を用いて認識し、その認識結果を前記対話テーブル内の返答語句へ格納し、
前記人物特定手段は、前記第2の質問テーブル内の発話語句を前記音声出力部へ出力し、人物からの返答を前記音声認識手段を用いて認識し、その認識結果と前記対話テーブル記載に返答語句と比較して得点化を行い、その得点の合計値である対話履歴による得点にも基づいて人物を特定する
ことを特徴とする請求項1記載の人物特定システム。 - さらに、現在の日付や時刻を取得する時計手段を有し、
前記人物特定手段は、前記時計手段を用いて本システムからの発話が行われた場合の日付や時刻を取得し、その結果を保持した対話時期テーブルと該対話時期テーブルに保持される対話時期を問い合わせる質問を定義した第3の質問テーブルを記憶部に保持し、前記第3の質問テーブル記載の質問を前記音声合成手段を用いて前記音声出力部へ出力し、前記質問に対する人物からの回答を前記音声認識手段を用いて認識し、その認識結果と前記対話時期テーブル記載の対話時期とを比較して得点化を行い、その得点の合計値である対話時期による得点にも基づいて人物を特定する
ことを特徴とする請求項2記載の人物特定システム。 - 前記人物特定手段は、前記時計手段を用いて人物の操作が行われた場合の日付や時刻を取得し、その結果を保持した操作時期テーブルと該操作時期テーブルに保持される操作時期を問い合わせる質問を定義した第4の質問テーブルを記憶部に保持し、前記第4の質問テーブルに保持される質問を前記音声合成手段を用いて前記音声出力部へ出力し、前記質問に対する人物からの回答を前記音声認識手段を用いて認識し、その認識結果と前記操作時期テーブル記載の操作時期とを比較して得点化を行い、その得点の合計値である操作時期による得点にも基づいて人物を特定する
ことを特徴とする請求項3記載の人物特定システム。 - さらに、本システムを操作する人物の画像を入力する画像入力部と、
前記画像入力部から得られた信号から顔画像を取得する顔画像取得手段と、を有し、
前記記憶手段は、前記顔画像取得手段を用いて得られた顔画像をデータベース化した顔データベースを保持し、
さらに、前記顔画像取得手段を用いて取得した顔データと前記顔データベースを比較して顔データの類似度を判定する顔画像認識手段を有し、
前記人物特定手段は、前記顔画像認識手段を用いて得られた類似度を得点化し、前記顔データベースに登録されている人物の中から前記得点化した類似度の高い人物を選ぶことにも基づいて人物を特定する
ことを特徴とする請求項1から4のいずれか1項記載の人物特定システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001020303A JP4622106B2 (ja) | 2001-01-29 | 2001-01-29 | 人物特定システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001020303A JP4622106B2 (ja) | 2001-01-29 | 2001-01-29 | 人物特定システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002221992A JP2002221992A (ja) | 2002-08-09 |
JP4622106B2 true JP4622106B2 (ja) | 2011-02-02 |
Family
ID=18886029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001020303A Expired - Lifetime JP4622106B2 (ja) | 2001-01-29 | 2001-01-29 | 人物特定システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4622106B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10878657B2 (en) | 2018-07-25 | 2020-12-29 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
US11521460B2 (en) | 2018-07-25 | 2022-12-06 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8818810B2 (en) * | 2011-12-29 | 2014-08-26 | Robert Bosch Gmbh | Speaker verification in a health monitoring system |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0877352A (ja) * | 1994-08-31 | 1996-03-22 | Sanyo Electric Co Ltd | 人物識別装置 |
JPH09127975A (ja) * | 1995-10-30 | 1997-05-16 | Ricoh Co Ltd | 話者認識システムおよび情報管理方法 |
JPH09160589A (ja) * | 1995-12-06 | 1997-06-20 | Matsushita Electric Ind Co Ltd | 利用者照合装置 |
JPH1173196A (ja) * | 1997-07-18 | 1999-03-16 | Lucent Technol Inc | 話者の申し出識別を認証する方法 |
JP2000259601A (ja) * | 1999-03-05 | 2000-09-22 | Masami Kato | 会話装置および方法 |
JP2000259828A (ja) * | 1999-03-04 | 2000-09-22 | Matsushita Electric Ind Co Ltd | 個人認証装置及び方法 |
JP2001005488A (ja) * | 1999-06-18 | 2001-01-12 | Mitsubishi Electric Corp | 音声対話システム |
JP2002169591A (ja) * | 2000-12-01 | 2002-06-14 | Namco Ltd | 模擬会話システム、及び情報記憶媒体 |
-
2001
- 2001-01-29 JP JP2001020303A patent/JP4622106B2/ja not_active Expired - Lifetime
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0877352A (ja) * | 1994-08-31 | 1996-03-22 | Sanyo Electric Co Ltd | 人物識別装置 |
JPH09127975A (ja) * | 1995-10-30 | 1997-05-16 | Ricoh Co Ltd | 話者認識システムおよび情報管理方法 |
JPH09160589A (ja) * | 1995-12-06 | 1997-06-20 | Matsushita Electric Ind Co Ltd | 利用者照合装置 |
JPH1173196A (ja) * | 1997-07-18 | 1999-03-16 | Lucent Technol Inc | 話者の申し出識別を認証する方法 |
JP2000259828A (ja) * | 1999-03-04 | 2000-09-22 | Matsushita Electric Ind Co Ltd | 個人認証装置及び方法 |
JP2000259601A (ja) * | 1999-03-05 | 2000-09-22 | Masami Kato | 会話装置および方法 |
JP2001005488A (ja) * | 1999-06-18 | 2001-01-12 | Mitsubishi Electric Corp | 音声対話システム |
JP2002169591A (ja) * | 2000-12-01 | 2002-06-14 | Namco Ltd | 模擬会話システム、及び情報記憶媒体 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10878657B2 (en) | 2018-07-25 | 2020-12-29 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
US11455864B2 (en) | 2018-07-25 | 2022-09-27 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
US11521460B2 (en) | 2018-07-25 | 2022-12-06 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
US12087130B2 (en) | 2018-07-25 | 2024-09-10 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
US12106630B2 (en) | 2018-07-25 | 2024-10-01 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
Also Published As
Publication number | Publication date |
---|---|
JP2002221992A (ja) | 2002-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5794204A (en) | Interactive speech recognition combining speaker-independent and speaker-specific word recognition, and having a response-creation capability | |
JP4867804B2 (ja) | 音声認識装置及び会議システム | |
JP3284832B2 (ja) | 音声認識対話処理方法および音声認識対話装置 | |
US5946658A (en) | Cartridge-based, interactive speech recognition method with a response creation capability | |
US6192337B1 (en) | Apparatus and methods for rejecting confusible words during training associated with a speech recognition system | |
WO2005013263A1 (ja) | 音声認証システム | |
JPH1173195A (ja) | 話者の申し出識別を認証する方法 | |
WO2006093092A1 (ja) | 会話システムおよび会話ソフトウェア | |
JP4622106B2 (ja) | 人物特定システム | |
US20190286799A1 (en) | Electronic device, control method for electronic device, and control program for electronic device | |
JP3849841B2 (ja) | 話者認識装置 | |
JPH11231895A (ja) | 音声認識方法及びその装置 | |
JPH1173196A (ja) | 話者の申し出識別を認証する方法 | |
JP4296290B2 (ja) | 音声認識装置、音声認識方法及びプログラム | |
JPH0643895A (ja) | 音声認識装置 | |
JP4094255B2 (ja) | コマンド入力機能つきディクテーション装置 | |
JPH06161488A (ja) | 音声認識装置 | |
JPH11184492A (ja) | 話者認識装置及びその方法 | |
JP2001282098A (ja) | 外国語学習装置、外国語学習方法および媒体 | |
US8688452B2 (en) | Automatic generation of distractors for special-purpose speech recognition grammars | |
JP2000305590A (ja) | 音声認識方法 | |
KR20010071650A (ko) | 스무고개게임 방법 및 장치 | |
JPH05265482A (ja) | 情報処理装置 | |
JP2002196789A (ja) | 音声対話装置 | |
JP2004309654A (ja) | 音声認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101005 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101018 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4622106 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131112 Year of fee payment: 3 |
|
EXPY | Cancellation because of completion of term |