JP2007094104A - Information processing apparatus, method, and program - Google Patents

Information processing apparatus, method, and program Download PDF

Info

Publication number
JP2007094104A
JP2007094104A JP2005284521A JP2005284521A JP2007094104A JP 2007094104 A JP2007094104 A JP 2007094104A JP 2005284521 A JP2005284521 A JP 2005284521A JP 2005284521 A JP2005284521 A JP 2005284521A JP 2007094104 A JP2007094104 A JP 2007094104A
Authority
JP
Japan
Prior art keywords
voice
input
movement
speech
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005284521A
Other languages
Japanese (ja)
Other versions
JP4992218B2 (en
JP2007094104A5 (en
Inventor
Profio Ugo Di
プロフィオ ウゴ ティ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005284521A priority Critical patent/JP4992218B2/en
Publication of JP2007094104A publication Critical patent/JP2007094104A/en
Publication of JP2007094104A5 publication Critical patent/JP2007094104A5/ja
Application granted granted Critical
Publication of JP4992218B2 publication Critical patent/JP4992218B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To excellently recognize a speech that a user utters. <P>SOLUTION: In S31, an utterance decision part 14 stands by until a speech is input from a speech processing part 11 and when the speech is input, an advance to S32 is made to decide whether the detection result of a movement pattern of a specified part from a user's picture is supplied. When it is decided that the detection result is supplied, an advance to S33 is made to decide whether the supplied movement pattern is a pattern of movement during the utterance. When it is decided that the supplied movement pattern is the pattern of movement during the utterance in S33, an advance to S34 is made to report the utterance to a speech recognition part. When receiving the report, the speech recognition part starts recognizing the supplied speech. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、情報処理装置および方法、並びにプログラムに関し、特に、ユーザが発した音声を適切に認識することができるようにした情報処理装置および方法、並びにプログラムに関する。   The present invention relates to an information processing apparatus, method, and program, and more particularly, to an information processing apparatus, method, and program that can appropriately recognize a voice uttered by a user.

近年、ロボットやホームエレクトロニクスの分野において、ユーザの音声を認識して所定の処理を実行させる技術が盛んに研究されている。   In recent years, in the field of robots and home electronics, techniques for recognizing a user's voice and executing predetermined processing have been actively studied.

ところで集音された音声を単純に認識すると(非特許文献1および非特許文献2参照)、その音声に、ユーザが発した音声の他、例えばユーザの近くにあるテレビジョン受像機から出力された音声などが含まれている場合、ユーザの音声を正確に認識することができなかった。   By the way, when the collected voice is simply recognized (see Non-Patent Document 1 and Non-Patent Document 2), in addition to the voice uttered by the user, for example, it is output from a television receiver near the user. When voice or the like is included, the user's voice cannot be accurately recognized.

そこで、例えばユーザの口の部分の映像から、ユーザの口の動きを検出し、その検出結果に基づいて、ユーザの音声を認識する方法が考えられている(非特許文献1乃至非特許文献6、特許文献1、および特許文献2参照)。   Thus, for example, a method is conceivable in which the movement of the user's mouth is detected from the video of the user's mouth and the user's voice is recognized based on the detection result (Non-Patent Documents 1 to 6). , Patent Document 1 and Patent Document 2).

L. Rabiner and B. H. Juang, Fundamentals of Speech Recognition, New Jersey, Prentice Hall, Signal Processing Series (1993)L. Rabiner and B. H. Juang, Fundamentals of Speech Recognition, New Jersey, Prentice Hall, Signal Processing Series (1993) Towards improving speech detection robustness for speech recognition in adverse conditions, Speech Communication, Volume 40, Issue 3, May 2003, Pages 261-276, Lamia Karray and Arnaud MartinTowards improving speech detection robustness for speech recognition in adverse conditions, Speech Communication, Volume 40, Issue 3, May 2003, Pages 261-276, Lamia Karray and Arnaud Martin P. de Cuetos, C. Neti, A.W. Senior. Audio-visual intent-to-speak detection for human-computer interaction, ICASSP June 5-9 2000, pp. 1325-1328, Istanbul, Turkey.P. de Cuetos, C. Neti, A.W.Senior.Audio-visual intent-to-speak detection for human-computer interaction, ICASSP June 5-9 2000, pp. 1325-1328, Istanbul, Turkey. G. Iyengar, C. Neti. A vision-based microphone switch for speech intent detection, July 2001, Vancouver, Canada.G. Iyengar, C. Neti.A vision-based microphone switch for speech intent detection, July 2001, Vancouver, Canada. Large-Vocabulary Audio-Visual Speech Recognition: A Summary of the John Hopkins Summer 2000 Workshop. C. Neti, G. Potaminos, J. Luettin, I. Matthews, H. Glotin and D. Vergyri. Workshop on Multimedia Signal Processing (MMSP), Cannes, 2001.Large-Vocabulary Audio-Visual Speech Recognition: A Summary of the John Hopkins Summer 2000 Workshop. C. Neti, G. Potaminos, J. Luettin, I. Matthews, H. Glotin and D. Vergyri. ), Cannes, 2001. Audio-Visual Speech Recognition. C. Neti, G. Potamianos, J. Luettin, I. Matthews, H. Glotin, D. Vergyri, J. Sison, A. Mashari and J. Zhou. Technical Report, Workshop 2000, CLSP, Johns Hopkins University, July-August 2000.Audio-Visual Speech Recognition. C. Neti, G. Potamianos, J. Luettin, I. Matthews, H. Glotin, D. Vergyri, J. Sison, A. Mashari and J. Zhou. Technical Report, Workshop 2000, CLSP, Johns Hopkins University, July-August 2000. US20040243416 A1 G10L 20041202 Speech recognitionUS20040243416 A1 G10L 20041202 Speech recognition US20030048930 A1 G06K 20030313 KABUSHIKI KAISHA TOSHIBA Image recognition apparatus and methodUS20030048930 A1 G06K 20030313 KABUSHIKI KAISHA TOSHIBA Image recognition apparatus and method

このように、音声認識においてユーザの映像を利用する方法が提案されているが、この方法では、入力した音声にユーザの音声が含まれていることが前提とされており、入力した音声にユーザの音声が含まれるか否かを判定する際に、ユーザの映像を利用する方法は存在しない。   As described above, a method of using a user's video in voice recognition has been proposed. However, in this method, it is assumed that the user's voice is included in the input voice, and the user's voice is included in the input voice. There is no method for using the user's video when determining whether or not the audio is included.

またユーザの動きを利用する従来の方法では、通常、口の動きまたは目の動きがそれぞれ別々に利用されており、口および目の動きを総合して利用したり、口または目の動きの他、顔(頭部分)の動き、手の動き、または体全体の動きを利用する方法は、存在しない。   In addition, in the conventional method using the user's movement, usually the movement of the mouth or the movement of the eyes is used separately. There is no way to use the movement of the face (head), the movement of the hand, or the movement of the whole body.

本発明はこのような状況に鑑みてなされたものであり、ユーザの動きを総合的に利用して音声認識を実行することで、音声認識を正確に実行できるようにするものである。   The present invention has been made in view of such a situation, and enables voice recognition to be performed accurately by executing voice recognition comprehensively using user movements.

本発明の一側面は、音声を入力する音声入力手段と、映像を入力する映像入力手段と、前記映像入力手段により入力された映像から、話者の体の複数部分の動きを検出する検出手段と、前記検出手段により検出された前記動きが、発話時の動きであるか否かを判定する判定手段と、前記判定手段による判定結果に基づいて、前記音声入力手段により入力された前記音声を認識する音声認識手段とを備える情報処理装置である。   One aspect of the present invention is a voice input means for inputting voice, a video input means for inputting video, and a detection means for detecting movements of a plurality of parts of a speaker's body from the video input by the video input means. And determining means for determining whether or not the movement detected by the detecting means is a movement at the time of speech, and based on the determination result by the determining means, the voice input by the voice input means An information processing apparatus comprising voice recognition means for recognizing.

本発明の一側面は、音声を入力する音声入力ステップと、映像を入力する映像入力ステップと、前記映像入力ステップの処理で入力された映像から、話者の体の複数部分の動きを検出する検出ステップと、前記検出ステップの処理で検出された前記動きが、発話時の動きであるか否かを判定する判定ステップと、前記判定ステップでの処理での判定結果に基づいて、前記音声入力ステップの処理で入力された前記音声を認識する音声認識ステップとを含む情報処理方法またはプログラムである。   One aspect of the present invention is to detect a motion of a plurality of parts of a speaker's body from a voice input step for inputting voice, a video input step for inputting video, and a video input in the processing of the video input step. Based on a detection step, a determination step for determining whether or not the movement detected in the process of the detection step is a movement at the time of speech, and the voice input based on a determination result in the process in the determination step A speech recognition step for recognizing the speech input in the step processing.

本発明の一側面においては、音声が入力され、映像が入力され、入力された映像から、話者の体の複数部分の動きが検出され、検出された前記動きが、発話時の動きであるか否かが判定され、その判定結果に基づいて、入力された前記音声が認識される。   In one aspect of the present invention, audio is input, video is input, motion of a plurality of parts of the speaker's body is detected from the input video, and the detected motion is motion during speech. Whether or not the input voice is recognized based on the determination result.

以上のように、本発明の一側面によれば、音声認識を正確に行うことが可能となる。   As described above, according to one aspect of the present invention, it is possible to accurately perform voice recognition.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書または図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書または図面に記載されていることを確認するためのものである。したがって、明細書または図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment that is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の一側面は、音声を入力する音声入力手段(例えば、図1の音声処理部11)と、映像を入力する映像入力手段(例えば、図1の画像処理部12)と、前記映像入力手段により入力された映像から、話者の体の複数部分の動きを検出する検出手段(例えば、図1の動きパターン検出部13)と、前記検出手段により検出された前記動きが、発話時の動きであるか否かを判定する判定手段(例えば、図1の発話判定部14)と、前記判定手段による判定結果に基づいて、前記音声入力手段により入力された前記音声を認識する音声認識手段(例えば、図1の音声認識部15)とを備える情報処理装置である。   One aspect of the present invention is an audio input unit (for example, the audio processing unit 11 in FIG. 1) for inputting audio, a video input unit (for example, the image processing unit 12 in FIG. 1) for inputting video, and the video input. Detecting means for detecting movements of a plurality of parts of the speaker's body from the video input by the means (for example, the motion pattern detecting unit 13 in FIG. 1), and the movement detected by the detecting means A determination unit (for example, the utterance determination unit 14 in FIG. 1) that determines whether or not it is a motion, and a voice recognition unit that recognizes the voice input by the voice input unit based on a determination result by the determination unit (For example, the voice recognition unit 15 in FIG. 1).

本発明の一側面は、音声を入力する音声入力ステップ(例えば、図4のステップS31)と、映像を入力する映像入力ステップ(例えば、図4のステップS32)と、前記映像入力ステップの処理で入力された映像から、話者の体の複数部分の動きを検出する検出ステップ(例えば、図4のステップS32)と、前記検出ステップの処理で検出された前記動きが、発話時の動きであるか否かを判定する判定ステップ(例えば、図4のステップS33)と、前記判定ステップでの処理での判定結果に基づいて、前記音声入力ステップの処理で入力された前記音声を認識する音声認識ステップ(例えば、図4のステップS34)とを含む情報処理方法またはプログラムである。   One aspect of the present invention is an audio input step for inputting audio (for example, step S31 in FIG. 4), a video input step for inputting video (for example, step S32 in FIG. 4), and processing of the video input step. A detection step (for example, step S32 in FIG. 4) for detecting movements of a plurality of parts of the speaker's body from the input video, and the movement detected in the processing of the detection step is a movement during speech. Voice recognition for recognizing the voice input in the voice input step based on a judgment step (for example, step S33 in FIG. 4) for judging whether or not and a judgment result in the judgment step An information processing method or program including steps (for example, step S34 in FIG. 4).

図1は、本発明を適用した音声認識装置3の利用例およびその構成例を示している。   FIG. 1 shows a usage example and a configuration example of a speech recognition apparatus 3 to which the present invention is applied.

マイクロフォン1は、集音した音声信号を音声認識装置3に供給する。   The microphone 1 supplies the collected voice signal to the voice recognition device 3.

ビデオカメラ2は、撮影の結果得られた画像信号を音声認識装置3に供給する。   The video camera 2 supplies an image signal obtained as a result of shooting to the voice recognition device 3.

マイクロフォン1およびビデオカメラ2は、例えば、ユーザがその設置位置がわかるように、部屋の壁等に埋め込まれており、ユーザが、マイクロフォン1およびビデオカメラ2に向かって話しかけることができるようになされている。   The microphone 1 and the video camera 2 are embedded in, for example, a wall of a room so that the user can know the installation position, and the user can talk to the microphone 1 and the video camera 2. Yes.

音声認識装置3は、ビデオカメラ2により撮影された映像を利用して、マイクロフォン1により取り込まれた音声から、ユーザが発した音声を認識し、その認識結果を処理装置4に供給する。   The voice recognition device 3 recognizes the voice uttered by the user from the voice captured by the microphone 1 using the video imaged by the video camera 2 and supplies the recognition result to the processing device 4.

処理装置4は、音声認識装置3からのユーザ音声の認識結果に応じて所定の処理を行う。例えば、処理装置4は、家電制御装置であり、ユーザの音声認識結果に応じて所定の家電機器(例えば、テレビジョン受像機や照明)の電源をオンオフするなどの制御を行う。   The processing device 4 performs predetermined processing according to the recognition result of the user voice from the voice recognition device 3. For example, the processing device 4 is a home appliance control device, and performs control such as turning on / off a predetermined home appliance (for example, a television receiver or lighting) in accordance with a user's voice recognition result.

次に音声認識装置3の構成について説明する。   Next, the configuration of the voice recognition device 3 will be described.

音声認識装置3の音声処理部11は、マイクロフォン1から供給された音声信号に対して所定の音声処理を施し、その結果得られた音声データを発話判定部14および音声認識部15に供給する。   The voice processing unit 11 of the voice recognition device 3 performs predetermined voice processing on the voice signal supplied from the microphone 1, and supplies the voice data obtained as a result to the utterance determination unit 14 and the voice recognition unit 15.

画像処理部12は、ビデオカメラ2から供給された画像信号に対して所定の画像処理を施し、その結果得られた画像データを動きパターン検出部13に供給する。   The image processing unit 12 performs predetermined image processing on the image signal supplied from the video camera 2, and supplies the image data obtained as a result to the motion pattern detection unit 13.

動きパターン検出部13は、顔動きパターン検出部21−1乃至手動きパターン検出部21−4から構成されている。   The movement pattern detection unit 13 includes a face movement pattern detection unit 21-1 to a hand movement pattern detection unit 21-4.

顔動きパターン検出部21−1は、画像処理部12から供給された画像データから、ユーザの顔の部分を検出するとともに、例えば頭部分の動きパターンを検出し、その検出結果を、発話判定部14に供給する。   The face movement pattern detection unit 21-1 detects the face part of the user from the image data supplied from the image processing unit 12, for example, detects a head part movement pattern, and the detection result is used as an utterance determination unit. 14.

目動きパターン検出部21−2は、画像処理部12から供給された画像データから、ユーザの目の部分を検出するとともに、その動きのパターンを検出し、その検出結果を、発話判定部14に供給する。   The eye movement pattern detection unit 21-2 detects the user's eye part from the image data supplied from the image processing unit 12, detects the movement pattern, and sends the detection result to the utterance determination unit 14. Supply.

口動きパターン検出部21−3は、画像処理部12から供給された画像データから、ユーザの口の部分を検出するとともに、その動きのパターンを検出し、その検出結果を、発話判定部14に供給する。   The mouth movement pattern detection unit 21-3 detects the mouth portion of the user from the image data supplied from the image processing unit 12, detects the movement pattern, and sends the detection result to the utterance determination unit 14. Supply.

手動きパターン検出部21−4は、画像処理部12から供給された画像データから、ユーザの手の部分を検出するとともに、その動きのパターンを検出し、その検出結果を、発話判定部14に供給する。   The hand movement pattern detection unit 21-4 detects the user's hand part from the image data supplied from the image processing unit 12, detects the movement pattern, and sends the detection result to the utterance determination unit 14. Supply.

発話判定部14は、音声処理部11からの音声信号の有無、動きパターン検出部13からの動きパターンの検出結果に基づいて、音声処理部11からの音声信号は、ユーザが発した音声であるか(発話があったか)否かを判定し、その判定結果を、音声認識部15に供給する。   The speech determination unit 14 is based on the presence / absence of the audio signal from the audio processing unit 11 and the detection result of the motion pattern from the motion pattern detection unit 13, and the audio signal from the audio processing unit 11 is the audio uttered by the user. (Whether there was an utterance) or not, and the determination result is supplied to the voice recognition unit 15.

音声認識部15は、発話判定部14からの発話判定結果に基づいて音声処理部11から供給された音声に対して、隠れマルコフモデル(Hidden Markov Models)(文献1参照)等を利用した音声認識処理を行い、その処理結果を、処理装置4に供給する。
文献1:L. Rabiner and B. H. Juang, Fundamentals of Speech Recognition, New Jersey, Prentice Hall, Signal Processing Series (1993)
The voice recognition unit 15 uses a hidden Markov model (see Literature 1) or the like for the voice supplied from the voice processing unit 11 based on the utterance determination result from the utterance determination unit 14. Processing is performed, and the processing result is supplied to the processing device 4.
Reference 1: L. Rabiner and BH Juang, Fundamentals of Speech Recognition, New Jersey, Prentice Hall, Signal Processing Series (1993)

人間が言葉を発するとき、話者(ユーザ)の口の他、通常、目、頭、手が動く。例えばうなずく場合、頭は、前後に動き、話の内容を否定するとき、左右に動く。目および手も、同様に、所定のパターンを伴って動く。   When a person speaks, the eyes, head, and hands usually move in addition to the mouth of the speaker (user). For example, when nodding, the head moves back and forth, and moves left and right when denying the content of the story. The eyes and hands move with a predetermined pattern as well.

すなわち本発明では、話者(ユーザ)の映像から口、目、頭、手などの複数の部分の動きを検出し、その検出結果を総合的に利用して、音声認識することで、音声認識が正確に行われるようにするものである。   That is, in the present invention, voice recognition is performed by detecting movements of a plurality of parts such as a mouth, eyes, heads, hands, etc. from a video of a speaker (user) and comprehensively using the detection results. Is to be done accurately.

次に、音声認識装置3の顔動きパターン検出部21−1の動作を、図2のフローチャートを参照して説明する。   Next, the operation of the face motion pattern detection unit 21-1 of the voice recognition device 3 will be described with reference to the flowchart of FIG.

ステップS11において、顔動きパターン検出部21−1は、画像処理部12から、1フレーム分の画像データを入力する。   In step S11, the face motion pattern detection unit 21-1 inputs image data for one frame from the image processing unit 12.

ステップS12において、顔動きパターン検出部21−1は、入力した画像データから、肌色領域を検出し、その検出結果に基づいて、トラッキングの対象(例えば、額部分)を決定する。   In step S12, the face motion pattern detection unit 21-1 detects a skin color region from the input image data, and determines a tracking target (for example, a forehead portion) based on the detection result.

ステップS13において、顔動きパターン検出部21−1は、次のフレームの画像データを、画像処理部12から入力する。   In step S <b> 13, the face motion pattern detection unit 21-1 inputs image data of the next frame from the image processing unit 12.

ステップS14において、顔動きパターン検出部21−1は、ステップS13で入力したフレームの画像データを利用して、トラッキングの対象のオプティカルフローを検出する。   In step S14, the face motion pattern detection unit 21-1 detects the optical flow to be tracked using the image data of the frame input in step S13.

ステップS15において、顔動きパターン検出部21−1は、ステップS14で検出したオプティカルフローに基づいて、トラッキングの対象(額部分)の動きパターンを認識する。   In step S15, the face motion pattern detection unit 21-1 recognizes the motion pattern of the tracking target (forehead portion) based on the optical flow detected in step S14.

ステップS16において、顔動きパターン検出部21−1は、ステップS15で認識した動きパターンが、予め想定した顔の動きの範囲内であるか否かを判定し、その範囲内ではないと判定した場合、いまトラッキングの対象としている領域が顔部分の画像でないとして、ステップS17に進む。   In step S16, the face motion pattern detection unit 21-1 determines whether or not the motion pattern recognized in step S15 is within the range of face motion assumed in advance, and determines that it is not within the range Now, assuming that the region currently being tracked is not a face image, the process proceeds to step S17.

ステップS17において、顔動きパターン検出部21−1は、トラッキング対象に対して肌色抽出処理を行い、ステップS18において、その結果として例えば一定領域の肌色領域が認識され、トラッキング対象が顔部分であり動きパターンの追跡を続行すべきか否かを判定する。   In step S17, the face motion pattern detection unit 21-1 performs skin color extraction processing on the tracking target. In step S18, for example, a skin color region of a certain region is recognized as a result, and the tracking target is a face portion and moves. It is determined whether or not the pattern tracking should be continued.

ステップS18で、顔部分ではないと判定された場合、ステップS11に戻り、それ以降の処理が行われ、はじめからトラッキング対象が検出される。   If it is determined in step S18 that it is not a face portion, the process returns to step S11, and the subsequent processing is performed to detect the tracking target from the beginning.

ステップS16で、認識された動きパターンが予想範囲内であると判定された場合、またはステップS18で、動きパターンの追跡を続行すべきであると判定された場合、ステップS19に進み、顔動きパターン検出部21−1は、検出したトラッキング対象の動きを記憶し、そのパターンをトラッキングする。   If it is determined in step S16 that the recognized motion pattern is within the expected range, or if it is determined in step S18 that tracking of the motion pattern should be continued, the process proceeds to step S19, and the face motion pattern The detection unit 21-1 stores the detected movement of the tracking target and tracks the pattern.

ステップS20において、顔動きパターン検出部21−1は、トラッキング対象の動作パターンを決定するのに必要なデータが集まったか否かを判定し、まだ集まっていないと判定した場合、ステップS13に戻り、それ以降の処理を同様に実行する。   In step S20, the face motion pattern detection unit 21-1 determines whether data necessary for determining the motion pattern to be tracked has been collected. If it is determined that the data has not yet been collected, the process returns to step S13. The subsequent processing is executed in the same manner.

ステップS20で、トラッキング対象の動作パターンを決定するのに必要なデータが集まったと判定された場合、ステップS21に進み、顔動きパターン検出部21−1は、集まったデータに基づいて、例えば隠れマルコフモデルやベイジアンネットワークを利用して、顔(例えば、頭の部分)の動きパターンを決定し、発話判定部14に供給する。   If it is determined in step S20 that the data necessary for determining the motion pattern to be tracked has been collected, the process proceeds to step S21, and the face motion pattern detection unit 21-1 performs, for example, a hidden Markov based on the collected data. Using a model or a Bayesian network, a motion pattern of a face (for example, a head portion) is determined and supplied to the utterance determination unit 14.

その後処理は終了する。上述した処理は、例えば画像処理部12から画像データが供給される毎など、所定のタイミングで繰り返し実行される。   Thereafter, the process ends. The above-described processing is repeatedly executed at a predetermined timing, for example, every time image data is supplied from the image processing unit 12.

なお目動きパターン検出部21−2乃至手動きパターン検出部21−4の動作は、顔動きパターン検出部21−1の動作と基本的に同じであるので、その説明は省略する。   Note that the operations of the eye movement pattern detection unit 21-2 to the hand movement pattern detection unit 21-4 are basically the same as the operation of the face movement pattern detection unit 21-1, and thus description thereof is omitted.

また動きパターン検出部13の検出処理は、上述した処理の他、例えば図3に示すように、画像データからのトラッキング対象を特定する処理(ステップS12の処理に相当する処理)、トラッキング対象の特徴を抽出する処理(ステップS14,S15の処理に相当する処理)、および抽出した特徴を分類する処理(ステップS21の処理に相当する処理)を有する他の方法で行うこともできる。   In addition to the processing described above, the detection processing of the motion pattern detection unit 13 includes, for example, processing for specifying a tracking target from image data (processing corresponding to the processing in step S12), and characteristics of the tracking target, as shown in FIG. Can be performed by other methods including a process for extracting the process (a process corresponding to the process of steps S14 and S15) and a process for classifying the extracted feature (a process corresponding to the process of step S21).

文献2および文献3には、トラッキング対象を特定するappearance modelsについての記載があり、文献4には、optical flow with skin color detectionについての記載がある。   Documents 2 and 3 describe the appearance models that specify the tracking target, and Document 4 describes the optical flow with skin color detection.

文献2:Large-Vocabulary Audio-Visual Speech Recognition: A Summary of the John Hopkins Summer 2000 Workshop. C. Neti, G. Potaminos, J. Luettin, I. Matthews, H. Glotin and D. Vergyri. Workshop on Multimedia Signal Processing (MMSP), Cannes, 2001.
文献3:Allan D. Jepson, David J. Fleet, and Thomas F El-Maraghi. Robust online appearance models for visual tracking. In Proceedings IEEE Conference on Computer Vision and Pattern Recognition, pages 415{422, Kauai, Hawaii, 2001.
文献4:Hoey, J.: Decision Theoretic Learning of Human Facial Displays and Gestures., PhD thesis, University of British Columbia (2004).
Reference 2: Large-Vocabulary Audio-Visual Speech Recognition: A Summary of the John Hopkins Summer 2000 Workshop. C. Neti, G. Potaminos, J. Luettin, I. Matthews, H. Glotin and D. Vergyri. Workshop on Multimedia Signal Processing (MMSP), Cannes, 2001.
Reference 3: Allan D. Jepson, David J. Fleet, and Thomas F El-Maraghi. Robust online appearance models for visual tracking. In Proceedings IEEE Conference on Computer Vision and Pattern Recognition, pages 415 {422, Kauai, Hawaii, 2001.
Reference 4: Hoey, J .: Decision Theoretic Learning of Human Facial Displays and Gestures., PhD thesis, University of British Columbia (2004).

次に発話判定部14の動作を、図4のフローチャートを参照して説明する。   Next, operation | movement of the speech determination part 14 is demonstrated with reference to the flowchart of FIG.

ステップS31において、発話判定部14は、音声処理部11から音声が入力されるまで待機し、音声が入力されたとき、ステップS32に進む。   In step S31, the speech determination unit 14 stands by until a voice is input from the voice processing unit 11. When a voice is input, the utterance determination unit 14 proceeds to step S32.

ステップS32において、発話判定部14は、そのとき動きパターン検出部13から動きパターンの検出結果が供給されたか否かを判定し、供給されたと判定した場合、ステップS33に進む。   In step S32, the speech determination unit 14 determines whether or not a motion pattern detection result is supplied from the motion pattern detection unit 13 at that time. If it is determined that the motion pattern detection result is supplied, the process proceeds to step S33.

ステップS33において、発話判定部14は、隠れマルコフモデルやベイジアンネットワーク等を利用して(文献5および文献6参照)、動きパターン検出部13から供給された動きパターンが、発話時の動きのパターンであるか(発話動作があったか)否かを判定する。   In step S33, the speech determination unit 14 uses a hidden Markov model, a Bayesian network, or the like (see References 5 and 6), and the motion pattern supplied from the motion pattern detection unit 13 is a motion pattern at the time of speech. It is determined whether or not there is an utterance operation.

文献5:Bourlard, H. and Dupont, S., 鄭 new ASR approach based on independent processing and recombination of partial frequency bands, Proc. ICSLP, vol. 1, pp. 426429, 1996.
文献6:Dynamic Bayesian Networks for Audio-Visual, Speech Recognition, Ara V. Nefian et al. EURASIP Journal on Applied Signal Processing 2002:11, 115, 2002
Reference 5: Bourlard, H. and Dupont, S., 鄭 new ASR approach based on independent processing and recombination of partial frequency bands, Proc. ICSLP, vol. 1, pp. 426429, 1996.
Reference 6: Dynamic Bayesian Networks for Audio-Visual, Speech Recognition, Ara V. Nefian et al. EURASIP Journal on Applied Signal Processing 2002: 11, 115, 2002

ステップS33で、発話時の動きのパターンである(発話動作があった)と判定された場合、ステップS34に進み、発話判定部14は、発話があった旨を、音声認識部15に通知する。音声認識部15は、発話判定部14からその通知を受けると、音声処理部11から供給される音声の音声認識を開始する。   If it is determined in step S33 that the pattern is a movement pattern at the time of utterance (there is an utterance operation), the process proceeds to step S34, and the utterance determination unit 14 notifies the voice recognition unit 15 that an utterance has occurred. . When the voice recognition unit 15 receives the notification from the utterance determination unit 14, the voice recognition unit 15 starts voice recognition of the voice supplied from the voice processing unit 11.

ステップS32で、動きパターンの検出結果が入力されなかったと判定された場合、ステップS33で、発話動作なしと判定された場合、またはステップS34で、発話判定結果が音声認識部15に通知された場合、ステップS31に戻り、それ以降の処理が同様に行われる。   If it is determined in step S32 that no motion pattern detection result has been input, if it is determined in step S33 that there is no utterance operation, or if the utterance determination result is notified to the voice recognition unit 15 in step S34. Returning to step S31, the subsequent processing is performed in the same manner.

次に上述した発話判定部14における動作を、図5を参照して具体的に説明する。   Next, the operation in the utterance determination unit 14 described above will be specifically described with reference to FIG.

図5の最上段の欄には、動きパターン検出部13に供給される画像の例が示されている。   In the uppermost column of FIG. 5, an example of an image supplied to the motion pattern detection unit 13 is shown.

画像Aは、ユーザが立って、身振り手振りで話しているとき(顔、目、口、手が動いているとき)の体全体の撮像画像(動画)であり、この画像Aが画像処理部12から供給されると、顔動きパターン検出部21−1乃至手動きパターン検出部21−4は、それぞれ所定の部分の動きパターンを検出し、その検出結果を発話判定部14に供給する。   The image A is a captured image (moving image) of the entire body when the user is standing and talking with gestures (when the face, eyes, mouth, and hands are moving), and this image A is the image processing unit 12. , The face motion pattern detection unit 21-1 to the hand motion pattern detection unit 21-4 each detect a motion pattern of a predetermined portion and supply the detection result to the utterance determination unit 14.

なお図5中、各画像の欄の下に設けられた、「動き有り」の欄に対応する「顔」、「目」、「口」、「手」の項目に示される○印は、その部分の動きパターンが検出されたことを示し、×印は、その部分の動きパターンが検出されなかったことを示す。   In FIG. 5, the ○ marks shown in the “Face”, “Eye”, “Mouth”, and “Hand” items corresponding to the “Movement” column provided below each image column are It indicates that a motion pattern of a part has been detected, and a cross indicates that a motion pattern of that part has not been detected.

画像Aが動きパターン検出部13に供給されるとき、いまの場合、ユーザが発した大きな音声が発話判定部14に供給される。   When the image A is supplied to the motion pattern detection unit 13, in this case, a loud voice uttered by the user is supplied to the utterance determination unit 14.

すなわち発話判定部14には、ユーザの音声と画像Aに対する動きパターンの検出結果が入力されるので(ステップS31,S32)、発話判定部14は、ステップS33に進み、その動きパターンが発話時の動作であるか否かを判定する。   That is, since the user's voice and the motion pattern detection result for the image A are input to the utterance determination unit 14 (steps S31 and S32), the utterance determination unit 14 proceeds to step S33, and the motion pattern is the utterance time. It is determined whether it is an operation.

この場合、発話判定部14は、顔動きパターン検出部21−1乃至手動きパターン検出部21−4から供給された動きパターンから、それぞれ、頭、目、口、および手の動きが、発話時の動きであると判定し(ステップS33)、発話があった旨を音声認識部15に通知する(ステップS34)。   In this case, the utterance determination unit 14 determines that the movements of the head, eyes, mouth, and hand from the movement patterns supplied from the face movement pattern detection unit 21-1 to the hand movement pattern detection unit 21-4 are as follows. (Step S33), and notifies the voice recognition unit 15 that there is an utterance (step S34).

なお図5中、各画像の欄の下に設けられた、「発話時の動き」の欄に対応する「顔」、「目」、「口」、「手」の項目に示される○印は、その部分の動きが発話時の動きであることを示し、×印は、その部分の動きが発話時の動きではないことを示す。   In FIG. 5, the ○ marks shown in the “Face”, “Eye”, “Mouth”, and “Hand” items corresponding to the “Movement during utterance” column provided below each image column are , Indicates that the movement of the part is a movement at the time of utterance, and a cross indicates that the movement of the part is not a movement at the time of utterance.

画像Bは、ユーザが手で口の部分を覆って静かに話しているとき(目は動いているが、顔と手は動いておらず、口が外からは見えないとき)の顔部分の撮像画像(動画)であり、この画像Bが画像処理部12から供給されると、目動きパターン検出部21−2は、目の動きパターンを検出して、その検出結果を発話判定部14に供給し、顔動きパターン検出部21−1、口動きパターン検出部21−3、および手動きパターン検出部21−4は、動きパターンを検出しないので、検出結果を発話判定部14に供給しない。   Image B shows the face part when the user covers his mouth with his hand and speaks quietly (when his eyes are moving but his face and hands are not moving and his mouth is not visible) When this image B is supplied from the image processing unit 12, the eye movement pattern detection unit 21-2 detects the eye movement pattern and sends the detection result to the utterance determination unit 14. The face movement pattern detection unit 21-1, the mouth movement pattern detection unit 21-3, and the hand movement pattern detection unit 21-4 do not detect the movement pattern, and thus do not supply the detection result to the utterance determination unit 14.

画像Bが動きパターン検出部13に供給されるとき、いまの場合、ユーザが発した小さな音声が発話判定部14に供給される。   When the image B is supplied to the motion pattern detection unit 13, in this case, a small voice uttered by the user is supplied to the utterance determination unit 14.

すなわち発話判定部14には、ユーザの音声と画像Bに対する目動きパターンの検出結果が入力されるので(ステップS31,S32)、発話判定部14は、ステップS33に進み、目の動きパターンが発話時の動作であるか否かを判定する。   That is, since the user's voice and the detection result of the eye movement pattern with respect to the image B are input to the utterance determination unit 14 (steps S31 and S32), the utterance determination unit 14 proceeds to step S33, and the eye movement pattern is the utterance. It is determined whether or not it is an operation at the time.

この場合、発話判定部14は、目動きパターン検出部21−2から供給された動きパターンから、目の動きが発話時の動きであると判定し(ステップS33)、発話があった旨を音声認識部15に通知する(ステップS34)。   In this case, the utterance determination unit 14 determines that the movement of the eye is the movement at the time of utterance from the movement pattern supplied from the eye movement pattern detection unit 21-2 (step S33), and indicates that there is an utterance. The recognition unit 15 is notified (step S34).

画像Cは、ユーザが座って寝ているとき(顔、目、口、手も動いていないとき)の体全体の撮像画像(動画)であり、この画像Cが画像処理部12から供給されると、顔動きパターン検出部21−1乃至手動きパターン検出部21−4のいずれも、動きパターンを検出しないので、検出結果を発話判定部14に供給しない。   The image C is a captured image (moving image) of the whole body when the user is sitting and sleeping (when the face, eyes, mouth, and hands are not moving), and the image C is supplied from the image processing unit 12. None of the face motion pattern detection unit 21-1 to the hand motion pattern detection unit 21-4 detects a motion pattern, and therefore does not supply the detection result to the utterance determination unit 14.

画像Cが動きパターン検出部13に供給されるとき、音声は発話判定部14に供給されない。   When the image C is supplied to the motion pattern detection unit 13, no sound is supplied to the utterance determination unit 14.

すなわち結局発話判定部14には、音声が入力されないので(ステップS31)、発話判定部14は、発話があった旨を音声認識部15に通知しない(ステップS34)。   That is, since no voice is input to the utterance determination unit 14 after all (step S31), the utterance determination unit 14 does not notify the voice recognition unit 15 that an utterance has occurred (step S34).

画像Dは、ユーザが無言でテレビジョン受像機の前に座ってテレビゲームをやっているとき(顔と口は動いておらず、目と手が動いているとき)の撮像画像(動画)であり、この画像Dが画像処理部12から供給されると、目動きパターン検出部21−2および手動きパターン検出部21−4は、目および手の動きパターンを検出して、その検出結果を発話判定部14に供給する。顔動きパターン検出部21−1および口動きパターン検出部21−3は、動きパターンを検出しないので、検出結果を発話判定部14に供給しない。   Image D is a captured image (moving image) when the user is silently sitting in front of the television receiver and playing a video game (when the face and mouth are not moving and the eyes and hands are moving). Yes, when this image D is supplied from the image processing unit 12, the eye movement pattern detection unit 21-2 and the hand movement pattern detection unit 21-4 detect the movement patterns of the eyes and hands, and the detection results are obtained. This is supplied to the speech determination unit 14. Since the face movement pattern detection unit 21-1 and the mouth movement pattern detection unit 21-3 do not detect a movement pattern, the detection result is not supplied to the utterance determination unit 14.

画像Dが動きパターン検出部13に供給されるとき、テレビジョン受像機から出力されたテレビゲームの音声が発話判定部14に供給される。   When the image D is supplied to the motion pattern detection unit 13, the video game sound output from the television receiver is supplied to the utterance determination unit 14.

すなわち発話判定部14には、テレビゲームの音声と画像Dに対する目動きパターン検出部21−2および手動きパターン検出部21−4からの動きパターンの検出結果が入力されるので(ステップS31,S32)、発話判定部14は、ステップS33に進み、その動きパターンが発話時の動作であるか否かを判定する。   That is, the speech pattern determination unit 14 receives the motion pattern detection results from the eye movement pattern detection unit 21-2 and the hand movement pattern detection unit 21-4 for the video game sound and the image D (steps S31 and S32). The utterance determination unit 14 proceeds to step S33, and determines whether or not the movement pattern is an operation at the time of utterance.

この場合、発話判定部14は、目動きパターン検出部21−2および手動きパターン検出部21−4から供給された動きパターンから、目の動きおよび手の動きが発話時の動きではないと判定し(ステップS33)、発話があった旨を音声認識部15に通知しない(ステップS34)。   In this case, the utterance determination unit 14 determines that the eye movement and the hand movement are not movements during utterance from the movement patterns supplied from the eye movement pattern detection unit 21-2 and the hand movement pattern detection unit 21-4. (Step S33), the voice recognition unit 15 is not notified that there is an utterance (Step S34).

画像Eは、ラジオ放送の音声を出力しているラジオの撮像画像(ユーザの映像を含まない画像)(動画)であり、この画像Eが画像処理部12から供給されたとき、顔動きパターン検出部21−1乃至手動きパターン検出部21−4は、動きパターンを検出しないので、検出結果を発話判定部14に供給しない。   The image E is a radio-captured image (image that does not include the user's video) (moving image) that outputs radio broadcast audio. When this image E is supplied from the image processing unit 12, the face motion pattern detection is performed. Since the unit 21-1 to the hand movement pattern detection unit 21-4 do not detect the movement pattern, the detection result is not supplied to the utterance determination unit 14.

画像Eが動きパターン検出部13に供給されるとき、ラジオの音声が発話判定部14に供給される。   When the image E is supplied to the motion pattern detection unit 13, radio sound is supplied to the speech determination unit 14.

すなわち発話判定部14には、ラジオの音声が入力されるが(ステップS31)、動きパターンは入力されないので(ステップS32)、発話判定部14は、発話があった旨を音声認識部15に通知しない(ステップS34)。   That is, radio speech is input to the speech determination unit 14 (step S31), but no motion pattern is input (step S32), so the speech determination unit 14 notifies the speech recognition unit 15 that a speech has occurred. No (step S34).

以上のように、音声の入力とともに、映像からユーザの発話動作を検出して音声認識を行うようにしたので、音声認識を正確に行うことができる。例えば、図5の画像Dおよび画像Eによる例のように、音声の入力があっても、ユーザの発話動作が検出されない場合、音声認識が行われないので、テレビジョン受像機またはラジオから出力される音声が、ユーザの音声として認識されることはない。   As described above, since voice recognition is performed by detecting a user's utterance operation from video together with voice input, voice recognition can be performed accurately. For example, as in the example of the image D and the image E in FIG. 5, even if there is a voice input, if the user's speech operation is not detected, the voice recognition is not performed, so that the voice is output from the television receiver or the radio. Is not recognized as the user's voice.

またユーザの発話動作を検出するに際に、ユーザの体の複数の部分の動きを利用して発話動作を検出するようにしたので、音声認識をさらに正確に行うことができる。例えば画像Bの例の場合のように、口の部分の動きが検出されなくても、目の動きから発話動作を検出することができるので、口の動きが検出されなくても、ユーザの音声として音声認識を行うようにすることができる。   Moreover, when detecting the user's speech movement, the speech movement is detected using the movements of a plurality of parts of the user's body, so that voice recognition can be performed more accurately. For example, as in the case of the image B, the speech movement can be detected from the movement of the eyes even if the movement of the mouth is not detected, so the user's voice can be detected even if the movement of the mouth is not detected. Voice recognition can be performed.

なお、図1の例においては、図6Aに示すように、音声入力と所定の部分の動作パターンに基づいて、発話動作を判定したが、図6Bに示すように、各部の動作パターンを検出する前段階としてその部分が検出されたとき、その検出結果をさらに利用して発話動作を判定することができる。   In the example of FIG. 1, as shown in FIG. 6A, the speech operation is determined based on the voice input and the operation pattern of the predetermined part, but the operation pattern of each unit is detected as shown in FIG. 6B. When that part is detected as a previous step, the speech action can be determined by further using the detection result.

これにより例えば、口が検出されたときは、その動作パターンに関わらず、発話動作があったものとして、発話動作検出を簡単なものにすることもできる。   Thereby, for example, when the mouth is detected, it is possible to simplify the detection of the utterance operation as if there was an utterance operation regardless of the operation pattern.

また図6Aおよび図6Bの例では、対象部分の検出結果、およびその動きパターンの検出結果は、発話動作検出のみに利用されたが、図6Cに示すように、音声処理に利用することもできる。   In the example of FIGS. 6A and 6B, the detection result of the target portion and the detection result of the motion pattern are used only for the speech motion detection. However, as shown in FIG. 6C, it can also be used for voice processing. .

これによりユーザの音声をより正確に抽出することができるようになる。   As a result, the user's voice can be extracted more accurately.

また以上においては、ユーザの映像は、発話動作の判定にのみ利用されていたが、音声認識部15において、例えば口の部分の動きを利用して音声認識をすることもできる。   In the above description, the video of the user is used only for the determination of the speech movement. However, the voice recognition unit 15 can also perform voice recognition using, for example, the movement of the mouth.

これにより音声にユーザの音声以外の音声が含まれていても、正確に音声認識を行うことができる。   Thereby, even if a voice other than the user's voice is included in the voice, the voice can be recognized accurately.

また以上において、検出するユーザの体の部分を、顔、目、口、および手としたが、体全体、耳、腕、足等、他の部分を検出し、その検出結果を利用することもできる。   In the above, the user's body part to be detected is the face, eyes, mouth, and hand, but other parts such as the whole body, ears, arms, legs, etc. may be detected and the detection result may be used. it can.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

図7は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。CPU(Central Processing Unit)201は、ROM(Read Only Memory)202、または記憶部208に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)203には、CPU201が実行するプログラムやデータなどが適宜記憶される。これらのCPU201、ROM202、およびRAM203は、バス204により相互に接続されている。   FIG. 7 is a block diagram showing an example of the configuration of a personal computer that executes the above-described series of processing by a program. A CPU (Central Processing Unit) 201 executes various processes according to a program stored in a ROM (Read Only Memory) 202 or a storage unit 208. A RAM (Random Access Memory) 203 appropriately stores programs executed by the CPU 201 and data. The CPU 201, ROM 202, and RAM 203 are connected to each other via a bus 204.

CPU201にはまた、バス204を介して入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウス、マイクロフォンなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207が接続されている。CPU201は、入力部206から入力される指令に対応して各種の処理を実行する。そして、CPU201は、処理の結果を出力部207に出力する。   An input / output interface 205 is also connected to the CPU 201 via the bus 204. Connected to the input / output interface 205 are an input unit 206 made up of a keyboard, mouse, microphone, and the like, and an output unit 207 made up of a display, a speaker, and the like. The CPU 201 executes various processes in response to commands input from the input unit 206. Then, the CPU 201 outputs the processing result to the output unit 207.

入出力インタフェース205に接続されている記憶部208は、例えばハードディスクからなり、CPU201が実行するプログラムや各種のデータを記憶する。通信部209は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。   A storage unit 208 connected to the input / output interface 205 includes, for example, a hard disk, and stores programs executed by the CPU 201 and various data. The communication unit 209 communicates with an external device via a network such as the Internet or a local area network.

また、通信部209を介してプログラムを取得し、記憶部208に記憶してもよい。   Further, a program may be acquired via the communication unit 209 and stored in the storage unit 208.

入出力インタフェース205に接続されているドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア211が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部208に転送され、記憶される。   The drive 210 connected to the input / output interface 205 drives a removable medium 211 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives the programs and data recorded therein. Get etc. The acquired program and data are transferred to and stored in the storage unit 208 as necessary.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図7に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア211、または、プログラムが一時的もしくは永続的に格納されるROM202や、記憶部208を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部209を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 7, a program recording medium for storing a program that is installed in a computer and is ready to be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory), DVD (Digital Versatile Disc), a magneto-optical disk, a removable medium 211 that is a package medium composed of a semiconductor memory, or the like. It is comprised by the hard disk etc. which comprise. The program is stored in the program recording medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 209 that is an interface such as a router or a modem as necessary. Done.

なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the order described, but is not necessarily performed in time series. Or the process performed separately is also included.

本発明を適用した音声認識装置3の構成例を示すブロック図である。It is a block diagram which shows the structural example of the speech recognition apparatus 3 to which this invention is applied. 図1の動きパターン検出部13の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the motion pattern detection part 13 of FIG. 図1の動きパターン検出部13の動作を説明する他の図である。It is another figure explaining operation | movement of the motion pattern detection part 13 of FIG. 図1の発話判定部14の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the speech determination part 14 of FIG. 図1の発話判定部14の動作を説明する他の図である。It is another figure explaining operation | movement of the speech determination part 14 of FIG. 音声認識装置3の他の動作を説明する図である。It is a figure explaining other operation | movement of the speech recognition apparatus. パーソナルコンピュータの構成例を示すブロック図である。And FIG. 16 is a block diagram illustrating a configuration example of a personal computer.

符号の説明Explanation of symbols

1 マイクロフォン, 2 ビデオカメラ, 3 音声認識装置, 4 処理装置, 11 音声処理部, 12 画像処理部, 13 動きパターン検出部, 14 発話判定部, 15 音声認識部


DESCRIPTION OF SYMBOLS 1 Microphone, 2 Video camera, 3 Voice recognition apparatus, 4 Processing apparatus, 11 Voice processing part, 12 Image processing part, 13 Motion pattern detection part, 14 Speech determination part, 15 Voice recognition part


Claims (3)

音声を入力する音声入力手段と、
映像を入力する映像入力手段と、
前記映像入力手段により入力された映像から、話者の体の複数部分の動きを検出する検出手段と、
前記検出手段により検出された前記動きが、発話時の動きであるか否かを判定する判定手段と、
前記判定手段による判定結果に基づいて、前記音声入力手段により入力された前記音声を認識する音声認識手段と
を備える情報処理装置。
Voice input means for inputting voice;
Video input means for inputting video;
Detecting means for detecting movement of a plurality of parts of a speaker's body from the video input by the video input means;
Determination means for determining whether or not the movement detected by the detection means is a movement during speech;
An information processing apparatus comprising: a voice recognition unit that recognizes the voice input by the voice input unit based on a determination result by the determination unit.
音声を入力する音声入力ステップと、
映像を入力する映像入力ステップと、
前記映像入力ステップの処理で入力された映像から、話者の体の複数部分の動きを検出する検出ステップと、
前記検出ステップの処理で検出された前記動きが、発話時の動きであるか否かを判定する判定ステップと、
前記判定ステップでの処理での判定結果に基づいて、前記音声入力ステップの処理で入力された前記音声を認識する音声認識ステップと
を含む情報処理方法。
A voice input step for inputting voice;
A video input step for inputting video;
A detection step of detecting movements of a plurality of parts of a speaker's body from the video input in the video input step;
A determination step for determining whether or not the movement detected in the process of the detection step is a movement during speech;
A speech recognition step of recognizing the speech input in the speech input step based on a determination result in the determination step.
音声を入力する音声入力ステップと、
映像を入力する映像入力ステップと、
前記映像入力ステップの処理で入力された映像から、話者の体の複数部分の動きを検出する検出ステップと、
前記検出ステップの処理で検出された前記動きが、発話時の動きであるか否かを判定する判定ステップと、
前記判定ステップでの処理での判定結果に基づいて、前記音声入力ステップの処理で入力された前記音声を認識する音声認識ステップと
を含む処理をコンピュータに実行させるプログラム。
A voice input step for inputting voice;
A video input step for inputting video;
A detection step of detecting movements of a plurality of parts of a speaker's body from the video input in the video input step;
A determination step for determining whether or not the movement detected in the process of the detection step is a movement during speech;
A program that causes a computer to execute a process including a voice recognition step of recognizing the voice input in the voice input step based on a determination result in the process in the determination step.
JP2005284521A 2005-09-29 2005-09-29 Information processing apparatus and method, and program Expired - Fee Related JP4992218B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005284521A JP4992218B2 (en) 2005-09-29 2005-09-29 Information processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005284521A JP4992218B2 (en) 2005-09-29 2005-09-29 Information processing apparatus and method, and program

Publications (3)

Publication Number Publication Date
JP2007094104A true JP2007094104A (en) 2007-04-12
JP2007094104A5 JP2007094104A5 (en) 2008-11-13
JP4992218B2 JP4992218B2 (en) 2012-08-08

Family

ID=37979893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005284521A Expired - Fee Related JP4992218B2 (en) 2005-09-29 2005-09-29 Information processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP4992218B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157905A (en) * 2007-12-07 2009-07-16 Sony Corp Information processor, information processing method, and computer program
JP2012508530A (en) * 2008-11-10 2012-04-05 グーグル・インコーポレーテッド Multi-sensory voice detection
JP2012242609A (en) * 2011-05-19 2012-12-10 Mitsubishi Heavy Ind Ltd Voice recognition device, robot, and voice recognition method
JP2013142843A (en) * 2012-01-12 2013-07-22 Fuji Xerox Co Ltd Operation analyzer, voice acquisition device, and operation analysis system
WO2014048348A1 (en) * 2012-09-29 2014-04-03 深圳市国华识别科技开发有限公司 Multimedia device voice control system and method, and computer storage medium
JP2015514254A (en) * 2012-04-27 2015-05-18 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. Audio input from user
WO2016151956A1 (en) * 2015-03-23 2016-09-29 ソニー株式会社 Information processing system and information processing method
JP2018060374A (en) * 2016-10-05 2018-04-12 富士ゼロックス株式会社 Information processing device, evaluation system and program
WO2019150708A1 (en) * 2018-02-01 2019-08-08 ソニー株式会社 Information processing device, information processing system, information processing method, and program
JP2020155944A (en) * 2019-03-20 2020-09-24 株式会社リコー Speaker detection system, speaker detection method, and program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017188801A1 (en) * 2016-04-29 2017-11-02 주식회사 브이터치 Optimum control method based on multi-mode command of operation-voice, and electronic device to which same is applied
KR102392087B1 (en) 2017-07-10 2022-04-29 삼성전자주식회사 Remotely controller and method for receiving a user's voice thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07306692A (en) * 1994-05-13 1995-11-21 Matsushita Electric Ind Co Ltd Speech recognizer and sound inputting device
JP2003303093A (en) * 1992-11-02 2003-10-24 Matsushita Electric Ind Co Ltd Speech input system
JP2004112518A (en) * 2002-09-19 2004-04-08 Takenaka Komuten Co Ltd Information providing apparatus
JP2005004535A (en) * 2003-06-12 2005-01-06 Mitsubishi Electric Corp Mobile communication terminal and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003303093A (en) * 1992-11-02 2003-10-24 Matsushita Electric Ind Co Ltd Speech input system
JPH07306692A (en) * 1994-05-13 1995-11-21 Matsushita Electric Ind Co Ltd Speech recognizer and sound inputting device
JP2004112518A (en) * 2002-09-19 2004-04-08 Takenaka Komuten Co Ltd Information providing apparatus
JP2005004535A (en) * 2003-06-12 2005-01-06 Mitsubishi Electric Corp Mobile communication terminal and image processing method

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157905A (en) * 2007-12-07 2009-07-16 Sony Corp Information processor, information processing method, and computer program
US9570094B2 (en) 2008-11-10 2017-02-14 Google Inc. Multisensory speech detection
US10720176B2 (en) 2008-11-10 2020-07-21 Google Llc Multisensory speech detection
US8862474B2 (en) 2008-11-10 2014-10-14 Google Inc. Multisensory speech detection
US9009053B2 (en) 2008-11-10 2015-04-14 Google Inc. Multisensory speech detection
US10714120B2 (en) 2008-11-10 2020-07-14 Google Llc Multisensory speech detection
US10026419B2 (en) 2008-11-10 2018-07-17 Google Llc Multisensory speech detection
KR101829865B1 (en) * 2008-11-10 2018-02-20 구글 엘엘씨 Multisensory speech detection
JP2012508530A (en) * 2008-11-10 2012-04-05 グーグル・インコーポレーテッド Multi-sensory voice detection
KR101734450B1 (en) * 2008-11-10 2017-05-11 구글 인코포레이티드 Multisensory speech detection
US10020009B1 (en) 2008-11-10 2018-07-10 Google Llc Multisensory speech detection
JP2012242609A (en) * 2011-05-19 2012-12-10 Mitsubishi Heavy Ind Ltd Voice recognition device, robot, and voice recognition method
JP2013142843A (en) * 2012-01-12 2013-07-22 Fuji Xerox Co Ltd Operation analyzer, voice acquisition device, and operation analysis system
US9626150B2 (en) 2012-04-27 2017-04-18 Hewlett-Packard Development Company, L.P. Audio input from user
JP2015514254A (en) * 2012-04-27 2015-05-18 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. Audio input from user
US9955210B2 (en) 2012-09-29 2018-04-24 Shenzhen Prtek Co. Ltd. Multimedia device voice control system and method, and computer storage medium
WO2014048348A1 (en) * 2012-09-29 2014-04-03 深圳市国华识别科技开发有限公司 Multimedia device voice control system and method, and computer storage medium
JPWO2016151956A1 (en) * 2015-03-23 2018-01-11 ソニー株式会社 Information processing system and information processing method
WO2016151956A1 (en) * 2015-03-23 2016-09-29 ソニー株式会社 Information processing system and information processing method
JP2018060374A (en) * 2016-10-05 2018-04-12 富士ゼロックス株式会社 Information processing device, evaluation system and program
WO2019150708A1 (en) * 2018-02-01 2019-08-08 ソニー株式会社 Information processing device, information processing system, information processing method, and program
JP2020155944A (en) * 2019-03-20 2020-09-24 株式会社リコー Speaker detection system, speaker detection method, and program
JP7259447B2 (en) 2019-03-20 2023-04-18 株式会社リコー Speaker detection system, speaker detection method and program

Also Published As

Publication number Publication date
JP4992218B2 (en) 2012-08-08

Similar Documents

Publication Publication Date Title
JP4992218B2 (en) Information processing apparatus and method, and program
US10930303B2 (en) System and method for enhancing speech activity detection using facial feature detection
US20220375472A1 (en) Method and system of audio false keyphrase rejection using speaker recognition
US10109277B2 (en) Methods and apparatus for speech recognition using visual information
JP4795919B2 (en) Voice interval detection method
US7472063B2 (en) Audio-visual feature fusion and support vector machine useful for continuous speech recognition
JP5772069B2 (en) Information processing apparatus, information processing method, and program
JP2014153663A (en) Voice recognition device, voice recognition method and program
WO2021022094A1 (en) Per-epoch data augmentation for training acoustic models
JP2012014394A (en) User instruction acquisition device, user instruction acquisition program and television receiver
US20120130716A1 (en) Speech recognition method for robot
JP2012003326A (en) Information processing device, information processing method, and program
JP6562790B2 (en) Dialogue device and dialogue program
US11790900B2 (en) System and method for audio-visual multi-speaker speech separation with location-based selection
JP2006500858A (en) Enhanced commercial detection via synthesized video and audio signatures
JP5700963B2 (en) Information processing apparatus and control method thereof
Iwano et al. Audio-visual speech recognition using lip information extracted from side-face images
Potamianos et al. Joint audio-visual speech processing for recognition and enhancement
Huang et al. Audio-visual speech recognition using an infrared headset
JP3838159B2 (en) Speech recognition dialogue apparatus and program
US9576587B2 (en) Example-based cross-modal denoising
Thermos et al. Audio-visual speech activity detection in a two-speaker scenario incorporating depth information from a profile or frontal view
Lucey et al. Continuous pose-invariant lipreading
Takeuchi et al. Voice activity detection based on fusion of audio and visual information
WO2019181218A1 (en) Information processing device, information processing system, information processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080926

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110802

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120309

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120410

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120423

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees