JP2007094104A - Information processing apparatus, method, and program - Google Patents
Information processing apparatus, method, and program Download PDFInfo
- Publication number
- JP2007094104A JP2007094104A JP2005284521A JP2005284521A JP2007094104A JP 2007094104 A JP2007094104 A JP 2007094104A JP 2005284521 A JP2005284521 A JP 2005284521A JP 2005284521 A JP2005284521 A JP 2005284521A JP 2007094104 A JP2007094104 A JP 2007094104A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- input
- movement
- speech
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、情報処理装置および方法、並びにプログラムに関し、特に、ユーザが発した音声を適切に認識することができるようにした情報処理装置および方法、並びにプログラムに関する。 The present invention relates to an information processing apparatus, method, and program, and more particularly, to an information processing apparatus, method, and program that can appropriately recognize a voice uttered by a user.
近年、ロボットやホームエレクトロニクスの分野において、ユーザの音声を認識して所定の処理を実行させる技術が盛んに研究されている。 In recent years, in the field of robots and home electronics, techniques for recognizing a user's voice and executing predetermined processing have been actively studied.
ところで集音された音声を単純に認識すると(非特許文献1および非特許文献2参照)、その音声に、ユーザが発した音声の他、例えばユーザの近くにあるテレビジョン受像機から出力された音声などが含まれている場合、ユーザの音声を正確に認識することができなかった。
By the way, when the collected voice is simply recognized (see Non-Patent
そこで、例えばユーザの口の部分の映像から、ユーザの口の動きを検出し、その検出結果に基づいて、ユーザの音声を認識する方法が考えられている(非特許文献1乃至非特許文献6、特許文献1、および特許文献2参照)。
Thus, for example, a method is conceivable in which the movement of the user's mouth is detected from the video of the user's mouth and the user's voice is recognized based on the detection result (Non-Patent
このように、音声認識においてユーザの映像を利用する方法が提案されているが、この方法では、入力した音声にユーザの音声が含まれていることが前提とされており、入力した音声にユーザの音声が含まれるか否かを判定する際に、ユーザの映像を利用する方法は存在しない。 As described above, a method of using a user's video in voice recognition has been proposed. However, in this method, it is assumed that the user's voice is included in the input voice, and the user's voice is included in the input voice. There is no method for using the user's video when determining whether or not the audio is included.
またユーザの動きを利用する従来の方法では、通常、口の動きまたは目の動きがそれぞれ別々に利用されており、口および目の動きを総合して利用したり、口または目の動きの他、顔(頭部分)の動き、手の動き、または体全体の動きを利用する方法は、存在しない。 In addition, in the conventional method using the user's movement, usually the movement of the mouth or the movement of the eyes is used separately. There is no way to use the movement of the face (head), the movement of the hand, or the movement of the whole body.
本発明はこのような状況に鑑みてなされたものであり、ユーザの動きを総合的に利用して音声認識を実行することで、音声認識を正確に実行できるようにするものである。 The present invention has been made in view of such a situation, and enables voice recognition to be performed accurately by executing voice recognition comprehensively using user movements.
本発明の一側面は、音声を入力する音声入力手段と、映像を入力する映像入力手段と、前記映像入力手段により入力された映像から、話者の体の複数部分の動きを検出する検出手段と、前記検出手段により検出された前記動きが、発話時の動きであるか否かを判定する判定手段と、前記判定手段による判定結果に基づいて、前記音声入力手段により入力された前記音声を認識する音声認識手段とを備える情報処理装置である。 One aspect of the present invention is a voice input means for inputting voice, a video input means for inputting video, and a detection means for detecting movements of a plurality of parts of a speaker's body from the video input by the video input means. And determining means for determining whether or not the movement detected by the detecting means is a movement at the time of speech, and based on the determination result by the determining means, the voice input by the voice input means An information processing apparatus comprising voice recognition means for recognizing.
本発明の一側面は、音声を入力する音声入力ステップと、映像を入力する映像入力ステップと、前記映像入力ステップの処理で入力された映像から、話者の体の複数部分の動きを検出する検出ステップと、前記検出ステップの処理で検出された前記動きが、発話時の動きであるか否かを判定する判定ステップと、前記判定ステップでの処理での判定結果に基づいて、前記音声入力ステップの処理で入力された前記音声を認識する音声認識ステップとを含む情報処理方法またはプログラムである。 One aspect of the present invention is to detect a motion of a plurality of parts of a speaker's body from a voice input step for inputting voice, a video input step for inputting video, and a video input in the processing of the video input step. Based on a detection step, a determination step for determining whether or not the movement detected in the process of the detection step is a movement at the time of speech, and the voice input based on a determination result in the process in the determination step A speech recognition step for recognizing the speech input in the step processing.
本発明の一側面においては、音声が入力され、映像が入力され、入力された映像から、話者の体の複数部分の動きが検出され、検出された前記動きが、発話時の動きであるか否かが判定され、その判定結果に基づいて、入力された前記音声が認識される。 In one aspect of the present invention, audio is input, video is input, motion of a plurality of parts of the speaker's body is detected from the input video, and the detected motion is motion during speech. Whether or not the input voice is recognized based on the determination result.
以上のように、本発明の一側面によれば、音声認識を正確に行うことが可能となる。 As described above, according to one aspect of the present invention, it is possible to accurately perform voice recognition.
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書または図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書または図面に記載されていることを確認するためのものである。したがって、明細書または図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment that is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.
本発明の一側面は、音声を入力する音声入力手段(例えば、図1の音声処理部11)と、映像を入力する映像入力手段(例えば、図1の画像処理部12)と、前記映像入力手段により入力された映像から、話者の体の複数部分の動きを検出する検出手段(例えば、図1の動きパターン検出部13)と、前記検出手段により検出された前記動きが、発話時の動きであるか否かを判定する判定手段(例えば、図1の発話判定部14)と、前記判定手段による判定結果に基づいて、前記音声入力手段により入力された前記音声を認識する音声認識手段(例えば、図1の音声認識部15)とを備える情報処理装置である。
One aspect of the present invention is an audio input unit (for example, the
本発明の一側面は、音声を入力する音声入力ステップ(例えば、図4のステップS31)と、映像を入力する映像入力ステップ(例えば、図4のステップS32)と、前記映像入力ステップの処理で入力された映像から、話者の体の複数部分の動きを検出する検出ステップ(例えば、図4のステップS32)と、前記検出ステップの処理で検出された前記動きが、発話時の動きであるか否かを判定する判定ステップ(例えば、図4のステップS33)と、前記判定ステップでの処理での判定結果に基づいて、前記音声入力ステップの処理で入力された前記音声を認識する音声認識ステップ(例えば、図4のステップS34)とを含む情報処理方法またはプログラムである。 One aspect of the present invention is an audio input step for inputting audio (for example, step S31 in FIG. 4), a video input step for inputting video (for example, step S32 in FIG. 4), and processing of the video input step. A detection step (for example, step S32 in FIG. 4) for detecting movements of a plurality of parts of the speaker's body from the input video, and the movement detected in the processing of the detection step is a movement during speech. Voice recognition for recognizing the voice input in the voice input step based on a judgment step (for example, step S33 in FIG. 4) for judging whether or not and a judgment result in the judgment step An information processing method or program including steps (for example, step S34 in FIG. 4).
図1は、本発明を適用した音声認識装置3の利用例およびその構成例を示している。 FIG. 1 shows a usage example and a configuration example of a speech recognition apparatus 3 to which the present invention is applied.
マイクロフォン1は、集音した音声信号を音声認識装置3に供給する。
The
ビデオカメラ2は、撮影の結果得られた画像信号を音声認識装置3に供給する。
The
マイクロフォン1およびビデオカメラ2は、例えば、ユーザがその設置位置がわかるように、部屋の壁等に埋め込まれており、ユーザが、マイクロフォン1およびビデオカメラ2に向かって話しかけることができるようになされている。
The
音声認識装置3は、ビデオカメラ2により撮影された映像を利用して、マイクロフォン1により取り込まれた音声から、ユーザが発した音声を認識し、その認識結果を処理装置4に供給する。
The voice recognition device 3 recognizes the voice uttered by the user from the voice captured by the
処理装置4は、音声認識装置3からのユーザ音声の認識結果に応じて所定の処理を行う。例えば、処理装置4は、家電制御装置であり、ユーザの音声認識結果に応じて所定の家電機器(例えば、テレビジョン受像機や照明)の電源をオンオフするなどの制御を行う。
The
次に音声認識装置3の構成について説明する。 Next, the configuration of the voice recognition device 3 will be described.
音声認識装置3の音声処理部11は、マイクロフォン1から供給された音声信号に対して所定の音声処理を施し、その結果得られた音声データを発話判定部14および音声認識部15に供給する。
The
画像処理部12は、ビデオカメラ2から供給された画像信号に対して所定の画像処理を施し、その結果得られた画像データを動きパターン検出部13に供給する。
The
動きパターン検出部13は、顔動きパターン検出部21−1乃至手動きパターン検出部21−4から構成されている。
The movement
顔動きパターン検出部21−1は、画像処理部12から供給された画像データから、ユーザの顔の部分を検出するとともに、例えば頭部分の動きパターンを検出し、その検出結果を、発話判定部14に供給する。
The face movement pattern detection unit 21-1 detects the face part of the user from the image data supplied from the
目動きパターン検出部21−2は、画像処理部12から供給された画像データから、ユーザの目の部分を検出するとともに、その動きのパターンを検出し、その検出結果を、発話判定部14に供給する。
The eye movement pattern detection unit 21-2 detects the user's eye part from the image data supplied from the
口動きパターン検出部21−3は、画像処理部12から供給された画像データから、ユーザの口の部分を検出するとともに、その動きのパターンを検出し、その検出結果を、発話判定部14に供給する。
The mouth movement pattern detection unit 21-3 detects the mouth portion of the user from the image data supplied from the
手動きパターン検出部21−4は、画像処理部12から供給された画像データから、ユーザの手の部分を検出するとともに、その動きのパターンを検出し、その検出結果を、発話判定部14に供給する。
The hand movement pattern detection unit 21-4 detects the user's hand part from the image data supplied from the
発話判定部14は、音声処理部11からの音声信号の有無、動きパターン検出部13からの動きパターンの検出結果に基づいて、音声処理部11からの音声信号は、ユーザが発した音声であるか(発話があったか)否かを判定し、その判定結果を、音声認識部15に供給する。
The
音声認識部15は、発話判定部14からの発話判定結果に基づいて音声処理部11から供給された音声に対して、隠れマルコフモデル(Hidden Markov Models)(文献1参照)等を利用した音声認識処理を行い、その処理結果を、処理装置4に供給する。
文献1:L. Rabiner and B. H. Juang, Fundamentals of Speech Recognition, New Jersey, Prentice Hall, Signal Processing Series (1993)
The
Reference 1: L. Rabiner and BH Juang, Fundamentals of Speech Recognition, New Jersey, Prentice Hall, Signal Processing Series (1993)
人間が言葉を発するとき、話者(ユーザ)の口の他、通常、目、頭、手が動く。例えばうなずく場合、頭は、前後に動き、話の内容を否定するとき、左右に動く。目および手も、同様に、所定のパターンを伴って動く。 When a person speaks, the eyes, head, and hands usually move in addition to the mouth of the speaker (user). For example, when nodding, the head moves back and forth, and moves left and right when denying the content of the story. The eyes and hands move with a predetermined pattern as well.
すなわち本発明では、話者(ユーザ)の映像から口、目、頭、手などの複数の部分の動きを検出し、その検出結果を総合的に利用して、音声認識することで、音声認識が正確に行われるようにするものである。 That is, in the present invention, voice recognition is performed by detecting movements of a plurality of parts such as a mouth, eyes, heads, hands, etc. from a video of a speaker (user) and comprehensively using the detection results. Is to be done accurately.
次に、音声認識装置3の顔動きパターン検出部21−1の動作を、図2のフローチャートを参照して説明する。 Next, the operation of the face motion pattern detection unit 21-1 of the voice recognition device 3 will be described with reference to the flowchart of FIG.
ステップS11において、顔動きパターン検出部21−1は、画像処理部12から、1フレーム分の画像データを入力する。
In step S11, the face motion pattern detection unit 21-1 inputs image data for one frame from the
ステップS12において、顔動きパターン検出部21−1は、入力した画像データから、肌色領域を検出し、その検出結果に基づいて、トラッキングの対象(例えば、額部分)を決定する。 In step S12, the face motion pattern detection unit 21-1 detects a skin color region from the input image data, and determines a tracking target (for example, a forehead portion) based on the detection result.
ステップS13において、顔動きパターン検出部21−1は、次のフレームの画像データを、画像処理部12から入力する。
In step S <b> 13, the face motion pattern detection unit 21-1 inputs image data of the next frame from the
ステップS14において、顔動きパターン検出部21−1は、ステップS13で入力したフレームの画像データを利用して、トラッキングの対象のオプティカルフローを検出する。 In step S14, the face motion pattern detection unit 21-1 detects the optical flow to be tracked using the image data of the frame input in step S13.
ステップS15において、顔動きパターン検出部21−1は、ステップS14で検出したオプティカルフローに基づいて、トラッキングの対象(額部分)の動きパターンを認識する。 In step S15, the face motion pattern detection unit 21-1 recognizes the motion pattern of the tracking target (forehead portion) based on the optical flow detected in step S14.
ステップS16において、顔動きパターン検出部21−1は、ステップS15で認識した動きパターンが、予め想定した顔の動きの範囲内であるか否かを判定し、その範囲内ではないと判定した場合、いまトラッキングの対象としている領域が顔部分の画像でないとして、ステップS17に進む。 In step S16, the face motion pattern detection unit 21-1 determines whether or not the motion pattern recognized in step S15 is within the range of face motion assumed in advance, and determines that it is not within the range Now, assuming that the region currently being tracked is not a face image, the process proceeds to step S17.
ステップS17において、顔動きパターン検出部21−1は、トラッキング対象に対して肌色抽出処理を行い、ステップS18において、その結果として例えば一定領域の肌色領域が認識され、トラッキング対象が顔部分であり動きパターンの追跡を続行すべきか否かを判定する。 In step S17, the face motion pattern detection unit 21-1 performs skin color extraction processing on the tracking target. In step S18, for example, a skin color region of a certain region is recognized as a result, and the tracking target is a face portion and moves. It is determined whether or not the pattern tracking should be continued.
ステップS18で、顔部分ではないと判定された場合、ステップS11に戻り、それ以降の処理が行われ、はじめからトラッキング対象が検出される。 If it is determined in step S18 that it is not a face portion, the process returns to step S11, and the subsequent processing is performed to detect the tracking target from the beginning.
ステップS16で、認識された動きパターンが予想範囲内であると判定された場合、またはステップS18で、動きパターンの追跡を続行すべきであると判定された場合、ステップS19に進み、顔動きパターン検出部21−1は、検出したトラッキング対象の動きを記憶し、そのパターンをトラッキングする。 If it is determined in step S16 that the recognized motion pattern is within the expected range, or if it is determined in step S18 that tracking of the motion pattern should be continued, the process proceeds to step S19, and the face motion pattern The detection unit 21-1 stores the detected movement of the tracking target and tracks the pattern.
ステップS20において、顔動きパターン検出部21−1は、トラッキング対象の動作パターンを決定するのに必要なデータが集まったか否かを判定し、まだ集まっていないと判定した場合、ステップS13に戻り、それ以降の処理を同様に実行する。 In step S20, the face motion pattern detection unit 21-1 determines whether data necessary for determining the motion pattern to be tracked has been collected. If it is determined that the data has not yet been collected, the process returns to step S13. The subsequent processing is executed in the same manner.
ステップS20で、トラッキング対象の動作パターンを決定するのに必要なデータが集まったと判定された場合、ステップS21に進み、顔動きパターン検出部21−1は、集まったデータに基づいて、例えば隠れマルコフモデルやベイジアンネットワークを利用して、顔(例えば、頭の部分)の動きパターンを決定し、発話判定部14に供給する。
If it is determined in step S20 that the data necessary for determining the motion pattern to be tracked has been collected, the process proceeds to step S21, and the face motion pattern detection unit 21-1 performs, for example, a hidden Markov based on the collected data. Using a model or a Bayesian network, a motion pattern of a face (for example, a head portion) is determined and supplied to the
その後処理は終了する。上述した処理は、例えば画像処理部12から画像データが供給される毎など、所定のタイミングで繰り返し実行される。
Thereafter, the process ends. The above-described processing is repeatedly executed at a predetermined timing, for example, every time image data is supplied from the
なお目動きパターン検出部21−2乃至手動きパターン検出部21−4の動作は、顔動きパターン検出部21−1の動作と基本的に同じであるので、その説明は省略する。 Note that the operations of the eye movement pattern detection unit 21-2 to the hand movement pattern detection unit 21-4 are basically the same as the operation of the face movement pattern detection unit 21-1, and thus description thereof is omitted.
また動きパターン検出部13の検出処理は、上述した処理の他、例えば図3に示すように、画像データからのトラッキング対象を特定する処理(ステップS12の処理に相当する処理)、トラッキング対象の特徴を抽出する処理(ステップS14,S15の処理に相当する処理)、および抽出した特徴を分類する処理(ステップS21の処理に相当する処理)を有する他の方法で行うこともできる。
In addition to the processing described above, the detection processing of the motion
文献2および文献3には、トラッキング対象を特定するappearance modelsについての記載があり、文献4には、optical flow with skin color detectionについての記載がある。
文献2:Large-Vocabulary Audio-Visual Speech Recognition: A Summary of the John Hopkins Summer 2000 Workshop. C. Neti, G. Potaminos, J. Luettin, I. Matthews, H. Glotin and D. Vergyri. Workshop on Multimedia Signal Processing (MMSP), Cannes, 2001.
文献3:Allan D. Jepson, David J. Fleet, and Thomas F El-Maraghi. Robust online appearance models for visual tracking. In Proceedings IEEE Conference on Computer Vision and Pattern Recognition, pages 415{422, Kauai, Hawaii, 2001.
文献4:Hoey, J.: Decision Theoretic Learning of Human Facial Displays and Gestures., PhD thesis, University of British Columbia (2004).
Reference 2: Large-Vocabulary Audio-Visual Speech Recognition: A Summary of the John Hopkins Summer 2000 Workshop. C. Neti, G. Potaminos, J. Luettin, I. Matthews, H. Glotin and D. Vergyri. Workshop on Multimedia Signal Processing (MMSP), Cannes, 2001.
Reference 3: Allan D. Jepson, David J. Fleet, and Thomas F El-Maraghi. Robust online appearance models for visual tracking. In Proceedings IEEE Conference on Computer Vision and Pattern Recognition, pages 415 {422, Kauai, Hawaii, 2001.
Reference 4: Hoey, J .: Decision Theoretic Learning of Human Facial Displays and Gestures., PhD thesis, University of British Columbia (2004).
次に発話判定部14の動作を、図4のフローチャートを参照して説明する。
Next, operation | movement of the
ステップS31において、発話判定部14は、音声処理部11から音声が入力されるまで待機し、音声が入力されたとき、ステップS32に進む。
In step S31, the
ステップS32において、発話判定部14は、そのとき動きパターン検出部13から動きパターンの検出結果が供給されたか否かを判定し、供給されたと判定した場合、ステップS33に進む。
In step S32, the
ステップS33において、発話判定部14は、隠れマルコフモデルやベイジアンネットワーク等を利用して(文献5および文献6参照)、動きパターン検出部13から供給された動きパターンが、発話時の動きのパターンであるか(発話動作があったか)否かを判定する。
In step S33, the
文献5:Bourlard, H. and Dupont, S., 鄭 new ASR approach based on independent processing and recombination of partial frequency bands, Proc. ICSLP, vol. 1, pp. 426429, 1996.
文献6:Dynamic Bayesian Networks for Audio-Visual, Speech Recognition, Ara V. Nefian et al. EURASIP Journal on Applied Signal Processing 2002:11, 115, 2002
Reference 5: Bourlard, H. and Dupont, S., 鄭 new ASR approach based on independent processing and recombination of partial frequency bands, Proc. ICSLP, vol. 1, pp. 426429, 1996.
Reference 6: Dynamic Bayesian Networks for Audio-Visual, Speech Recognition, Ara V. Nefian et al. EURASIP Journal on Applied Signal Processing 2002: 11, 115, 2002
ステップS33で、発話時の動きのパターンである(発話動作があった)と判定された場合、ステップS34に進み、発話判定部14は、発話があった旨を、音声認識部15に通知する。音声認識部15は、発話判定部14からその通知を受けると、音声処理部11から供給される音声の音声認識を開始する。
If it is determined in step S33 that the pattern is a movement pattern at the time of utterance (there is an utterance operation), the process proceeds to step S34, and the
ステップS32で、動きパターンの検出結果が入力されなかったと判定された場合、ステップS33で、発話動作なしと判定された場合、またはステップS34で、発話判定結果が音声認識部15に通知された場合、ステップS31に戻り、それ以降の処理が同様に行われる。
If it is determined in step S32 that no motion pattern detection result has been input, if it is determined in step S33 that there is no utterance operation, or if the utterance determination result is notified to the
次に上述した発話判定部14における動作を、図5を参照して具体的に説明する。
Next, the operation in the
図5の最上段の欄には、動きパターン検出部13に供給される画像の例が示されている。
In the uppermost column of FIG. 5, an example of an image supplied to the motion
画像Aは、ユーザが立って、身振り手振りで話しているとき(顔、目、口、手が動いているとき)の体全体の撮像画像(動画)であり、この画像Aが画像処理部12から供給されると、顔動きパターン検出部21−1乃至手動きパターン検出部21−4は、それぞれ所定の部分の動きパターンを検出し、その検出結果を発話判定部14に供給する。
The image A is a captured image (moving image) of the entire body when the user is standing and talking with gestures (when the face, eyes, mouth, and hands are moving), and this image A is the
なお図5中、各画像の欄の下に設けられた、「動き有り」の欄に対応する「顔」、「目」、「口」、「手」の項目に示される○印は、その部分の動きパターンが検出されたことを示し、×印は、その部分の動きパターンが検出されなかったことを示す。 In FIG. 5, the ○ marks shown in the “Face”, “Eye”, “Mouth”, and “Hand” items corresponding to the “Movement” column provided below each image column are It indicates that a motion pattern of a part has been detected, and a cross indicates that a motion pattern of that part has not been detected.
画像Aが動きパターン検出部13に供給されるとき、いまの場合、ユーザが発した大きな音声が発話判定部14に供給される。
When the image A is supplied to the motion
すなわち発話判定部14には、ユーザの音声と画像Aに対する動きパターンの検出結果が入力されるので(ステップS31,S32)、発話判定部14は、ステップS33に進み、その動きパターンが発話時の動作であるか否かを判定する。
That is, since the user's voice and the motion pattern detection result for the image A are input to the utterance determination unit 14 (steps S31 and S32), the
この場合、発話判定部14は、顔動きパターン検出部21−1乃至手動きパターン検出部21−4から供給された動きパターンから、それぞれ、頭、目、口、および手の動きが、発話時の動きであると判定し(ステップS33)、発話があった旨を音声認識部15に通知する(ステップS34)。
In this case, the
なお図5中、各画像の欄の下に設けられた、「発話時の動き」の欄に対応する「顔」、「目」、「口」、「手」の項目に示される○印は、その部分の動きが発話時の動きであることを示し、×印は、その部分の動きが発話時の動きではないことを示す。 In FIG. 5, the ○ marks shown in the “Face”, “Eye”, “Mouth”, and “Hand” items corresponding to the “Movement during utterance” column provided below each image column are , Indicates that the movement of the part is a movement at the time of utterance, and a cross indicates that the movement of the part is not a movement at the time of utterance.
画像Bは、ユーザが手で口の部分を覆って静かに話しているとき(目は動いているが、顔と手は動いておらず、口が外からは見えないとき)の顔部分の撮像画像(動画)であり、この画像Bが画像処理部12から供給されると、目動きパターン検出部21−2は、目の動きパターンを検出して、その検出結果を発話判定部14に供給し、顔動きパターン検出部21−1、口動きパターン検出部21−3、および手動きパターン検出部21−4は、動きパターンを検出しないので、検出結果を発話判定部14に供給しない。
Image B shows the face part when the user covers his mouth with his hand and speaks quietly (when his eyes are moving but his face and hands are not moving and his mouth is not visible) When this image B is supplied from the
画像Bが動きパターン検出部13に供給されるとき、いまの場合、ユーザが発した小さな音声が発話判定部14に供給される。
When the image B is supplied to the motion
すなわち発話判定部14には、ユーザの音声と画像Bに対する目動きパターンの検出結果が入力されるので(ステップS31,S32)、発話判定部14は、ステップS33に進み、目の動きパターンが発話時の動作であるか否かを判定する。
That is, since the user's voice and the detection result of the eye movement pattern with respect to the image B are input to the utterance determination unit 14 (steps S31 and S32), the
この場合、発話判定部14は、目動きパターン検出部21−2から供給された動きパターンから、目の動きが発話時の動きであると判定し(ステップS33)、発話があった旨を音声認識部15に通知する(ステップS34)。
In this case, the
画像Cは、ユーザが座って寝ているとき(顔、目、口、手も動いていないとき)の体全体の撮像画像(動画)であり、この画像Cが画像処理部12から供給されると、顔動きパターン検出部21−1乃至手動きパターン検出部21−4のいずれも、動きパターンを検出しないので、検出結果を発話判定部14に供給しない。
The image C is a captured image (moving image) of the whole body when the user is sitting and sleeping (when the face, eyes, mouth, and hands are not moving), and the image C is supplied from the
画像Cが動きパターン検出部13に供給されるとき、音声は発話判定部14に供給されない。
When the image C is supplied to the motion
すなわち結局発話判定部14には、音声が入力されないので(ステップS31)、発話判定部14は、発話があった旨を音声認識部15に通知しない(ステップS34)。
That is, since no voice is input to the
画像Dは、ユーザが無言でテレビジョン受像機の前に座ってテレビゲームをやっているとき(顔と口は動いておらず、目と手が動いているとき)の撮像画像(動画)であり、この画像Dが画像処理部12から供給されると、目動きパターン検出部21−2および手動きパターン検出部21−4は、目および手の動きパターンを検出して、その検出結果を発話判定部14に供給する。顔動きパターン検出部21−1および口動きパターン検出部21−3は、動きパターンを検出しないので、検出結果を発話判定部14に供給しない。
Image D is a captured image (moving image) when the user is silently sitting in front of the television receiver and playing a video game (when the face and mouth are not moving and the eyes and hands are moving). Yes, when this image D is supplied from the
画像Dが動きパターン検出部13に供給されるとき、テレビジョン受像機から出力されたテレビゲームの音声が発話判定部14に供給される。
When the image D is supplied to the motion
すなわち発話判定部14には、テレビゲームの音声と画像Dに対する目動きパターン検出部21−2および手動きパターン検出部21−4からの動きパターンの検出結果が入力されるので(ステップS31,S32)、発話判定部14は、ステップS33に進み、その動きパターンが発話時の動作であるか否かを判定する。
That is, the speech
この場合、発話判定部14は、目動きパターン検出部21−2および手動きパターン検出部21−4から供給された動きパターンから、目の動きおよび手の動きが発話時の動きではないと判定し(ステップS33)、発話があった旨を音声認識部15に通知しない(ステップS34)。
In this case, the
画像Eは、ラジオ放送の音声を出力しているラジオの撮像画像(ユーザの映像を含まない画像)(動画)であり、この画像Eが画像処理部12から供給されたとき、顔動きパターン検出部21−1乃至手動きパターン検出部21−4は、動きパターンを検出しないので、検出結果を発話判定部14に供給しない。
The image E is a radio-captured image (image that does not include the user's video) (moving image) that outputs radio broadcast audio. When this image E is supplied from the
画像Eが動きパターン検出部13に供給されるとき、ラジオの音声が発話判定部14に供給される。
When the image E is supplied to the motion
すなわち発話判定部14には、ラジオの音声が入力されるが(ステップS31)、動きパターンは入力されないので(ステップS32)、発話判定部14は、発話があった旨を音声認識部15に通知しない(ステップS34)。
That is, radio speech is input to the speech determination unit 14 (step S31), but no motion pattern is input (step S32), so the
以上のように、音声の入力とともに、映像からユーザの発話動作を検出して音声認識を行うようにしたので、音声認識を正確に行うことができる。例えば、図5の画像Dおよび画像Eによる例のように、音声の入力があっても、ユーザの発話動作が検出されない場合、音声認識が行われないので、テレビジョン受像機またはラジオから出力される音声が、ユーザの音声として認識されることはない。 As described above, since voice recognition is performed by detecting a user's utterance operation from video together with voice input, voice recognition can be performed accurately. For example, as in the example of the image D and the image E in FIG. 5, even if there is a voice input, if the user's speech operation is not detected, the voice recognition is not performed, so that the voice is output from the television receiver or the radio. Is not recognized as the user's voice.
またユーザの発話動作を検出するに際に、ユーザの体の複数の部分の動きを利用して発話動作を検出するようにしたので、音声認識をさらに正確に行うことができる。例えば画像Bの例の場合のように、口の部分の動きが検出されなくても、目の動きから発話動作を検出することができるので、口の動きが検出されなくても、ユーザの音声として音声認識を行うようにすることができる。 Moreover, when detecting the user's speech movement, the speech movement is detected using the movements of a plurality of parts of the user's body, so that voice recognition can be performed more accurately. For example, as in the case of the image B, the speech movement can be detected from the movement of the eyes even if the movement of the mouth is not detected, so the user's voice can be detected even if the movement of the mouth is not detected. Voice recognition can be performed.
なお、図1の例においては、図6Aに示すように、音声入力と所定の部分の動作パターンに基づいて、発話動作を判定したが、図6Bに示すように、各部の動作パターンを検出する前段階としてその部分が検出されたとき、その検出結果をさらに利用して発話動作を判定することができる。 In the example of FIG. 1, as shown in FIG. 6A, the speech operation is determined based on the voice input and the operation pattern of the predetermined part, but the operation pattern of each unit is detected as shown in FIG. 6B. When that part is detected as a previous step, the speech action can be determined by further using the detection result.
これにより例えば、口が検出されたときは、その動作パターンに関わらず、発話動作があったものとして、発話動作検出を簡単なものにすることもできる。 Thereby, for example, when the mouth is detected, it is possible to simplify the detection of the utterance operation as if there was an utterance operation regardless of the operation pattern.
また図6Aおよび図6Bの例では、対象部分の検出結果、およびその動きパターンの検出結果は、発話動作検出のみに利用されたが、図6Cに示すように、音声処理に利用することもできる。 In the example of FIGS. 6A and 6B, the detection result of the target portion and the detection result of the motion pattern are used only for the speech motion detection. However, as shown in FIG. 6C, it can also be used for voice processing. .
これによりユーザの音声をより正確に抽出することができるようになる。 As a result, the user's voice can be extracted more accurately.
また以上においては、ユーザの映像は、発話動作の判定にのみ利用されていたが、音声認識部15において、例えば口の部分の動きを利用して音声認識をすることもできる。
In the above description, the video of the user is used only for the determination of the speech movement. However, the
これにより音声にユーザの音声以外の音声が含まれていても、正確に音声認識を行うことができる。 Thereby, even if a voice other than the user's voice is included in the voice, the voice can be recognized accurately.
また以上において、検出するユーザの体の部分を、顔、目、口、および手としたが、体全体、耳、腕、足等、他の部分を検出し、その検出結果を利用することもできる。 In the above, the user's body part to be detected is the face, eyes, mouth, and hand, but other parts such as the whole body, ears, arms, legs, etc. may be detected and the detection result may be used. it can.
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
図7は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。CPU(Central Processing Unit)201は、ROM(Read Only Memory)202、または記憶部208に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)203には、CPU201が実行するプログラムやデータなどが適宜記憶される。これらのCPU201、ROM202、およびRAM203は、バス204により相互に接続されている。
FIG. 7 is a block diagram showing an example of the configuration of a personal computer that executes the above-described series of processing by a program. A CPU (Central Processing Unit) 201 executes various processes according to a program stored in a ROM (Read Only Memory) 202 or a
CPU201にはまた、バス204を介して入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウス、マイクロフォンなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207が接続されている。CPU201は、入力部206から入力される指令に対応して各種の処理を実行する。そして、CPU201は、処理の結果を出力部207に出力する。
An input /
入出力インタフェース205に接続されている記憶部208は、例えばハードディスクからなり、CPU201が実行するプログラムや各種のデータを記憶する。通信部209は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
A
また、通信部209を介してプログラムを取得し、記憶部208に記憶してもよい。
Further, a program may be acquired via the
入出力インタフェース205に接続されているドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア211が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部208に転送され、記憶される。
The
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図7に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア211、または、プログラムが一時的もしくは永続的に格納されるROM202や、記憶部208を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部209を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
As shown in FIG. 7, a program recording medium for storing a program that is installed in a computer and is ready to be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory), DVD (Digital Versatile Disc), a magneto-optical disk, a
なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the order described, but is not necessarily performed in time series. Or the process performed separately is also included.
1 マイクロフォン, 2 ビデオカメラ, 3 音声認識装置, 4 処理装置, 11 音声処理部, 12 画像処理部, 13 動きパターン検出部, 14 発話判定部, 15 音声認識部
DESCRIPTION OF
Claims (3)
映像を入力する映像入力手段と、
前記映像入力手段により入力された映像から、話者の体の複数部分の動きを検出する検出手段と、
前記検出手段により検出された前記動きが、発話時の動きであるか否かを判定する判定手段と、
前記判定手段による判定結果に基づいて、前記音声入力手段により入力された前記音声を認識する音声認識手段と
を備える情報処理装置。 Voice input means for inputting voice;
Video input means for inputting video;
Detecting means for detecting movement of a plurality of parts of a speaker's body from the video input by the video input means;
Determination means for determining whether or not the movement detected by the detection means is a movement during speech;
An information processing apparatus comprising: a voice recognition unit that recognizes the voice input by the voice input unit based on a determination result by the determination unit.
映像を入力する映像入力ステップと、
前記映像入力ステップの処理で入力された映像から、話者の体の複数部分の動きを検出する検出ステップと、
前記検出ステップの処理で検出された前記動きが、発話時の動きであるか否かを判定する判定ステップと、
前記判定ステップでの処理での判定結果に基づいて、前記音声入力ステップの処理で入力された前記音声を認識する音声認識ステップと
を含む情報処理方法。 A voice input step for inputting voice;
A video input step for inputting video;
A detection step of detecting movements of a plurality of parts of a speaker's body from the video input in the video input step;
A determination step for determining whether or not the movement detected in the process of the detection step is a movement during speech;
A speech recognition step of recognizing the speech input in the speech input step based on a determination result in the determination step.
映像を入力する映像入力ステップと、
前記映像入力ステップの処理で入力された映像から、話者の体の複数部分の動きを検出する検出ステップと、
前記検出ステップの処理で検出された前記動きが、発話時の動きであるか否かを判定する判定ステップと、
前記判定ステップでの処理での判定結果に基づいて、前記音声入力ステップの処理で入力された前記音声を認識する音声認識ステップと
を含む処理をコンピュータに実行させるプログラム。
A voice input step for inputting voice;
A video input step for inputting video;
A detection step of detecting movements of a plurality of parts of a speaker's body from the video input in the video input step;
A determination step for determining whether or not the movement detected in the process of the detection step is a movement during speech;
A program that causes a computer to execute a process including a voice recognition step of recognizing the voice input in the voice input step based on a determination result in the process in the determination step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005284521A JP4992218B2 (en) | 2005-09-29 | 2005-09-29 | Information processing apparatus and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005284521A JP4992218B2 (en) | 2005-09-29 | 2005-09-29 | Information processing apparatus and method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2007094104A true JP2007094104A (en) | 2007-04-12 |
JP2007094104A5 JP2007094104A5 (en) | 2008-11-13 |
JP4992218B2 JP4992218B2 (en) | 2012-08-08 |
Family
ID=37979893
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005284521A Expired - Fee Related JP4992218B2 (en) | 2005-09-29 | 2005-09-29 | Information processing apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4992218B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009157905A (en) * | 2007-12-07 | 2009-07-16 | Sony Corp | Information processor, information processing method, and computer program |
JP2012508530A (en) * | 2008-11-10 | 2012-04-05 | グーグル・インコーポレーテッド | Multi-sensory voice detection |
JP2012242609A (en) * | 2011-05-19 | 2012-12-10 | Mitsubishi Heavy Ind Ltd | Voice recognition device, robot, and voice recognition method |
JP2013142843A (en) * | 2012-01-12 | 2013-07-22 | Fuji Xerox Co Ltd | Operation analyzer, voice acquisition device, and operation analysis system |
WO2014048348A1 (en) * | 2012-09-29 | 2014-04-03 | 深圳市国华识别科技开发有限公司 | Multimedia device voice control system and method, and computer storage medium |
JP2015514254A (en) * | 2012-04-27 | 2015-05-18 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. | Audio input from user |
WO2016151956A1 (en) * | 2015-03-23 | 2016-09-29 | ソニー株式会社 | Information processing system and information processing method |
JP2018060374A (en) * | 2016-10-05 | 2018-04-12 | 富士ゼロックス株式会社 | Information processing device, evaluation system and program |
WO2019150708A1 (en) * | 2018-02-01 | 2019-08-08 | ソニー株式会社 | Information processing device, information processing system, information processing method, and program |
JP2020155944A (en) * | 2019-03-20 | 2020-09-24 | 株式会社リコー | Speaker detection system, speaker detection method, and program |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017188801A1 (en) * | 2016-04-29 | 2017-11-02 | 주식회사 브이터치 | Optimum control method based on multi-mode command of operation-voice, and electronic device to which same is applied |
KR102392087B1 (en) | 2017-07-10 | 2022-04-29 | 삼성전자주식회사 | Remotely controller and method for receiving a user's voice thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07306692A (en) * | 1994-05-13 | 1995-11-21 | Matsushita Electric Ind Co Ltd | Speech recognizer and sound inputting device |
JP2003303093A (en) * | 1992-11-02 | 2003-10-24 | Matsushita Electric Ind Co Ltd | Speech input system |
JP2004112518A (en) * | 2002-09-19 | 2004-04-08 | Takenaka Komuten Co Ltd | Information providing apparatus |
JP2005004535A (en) * | 2003-06-12 | 2005-01-06 | Mitsubishi Electric Corp | Mobile communication terminal and image processing method |
-
2005
- 2005-09-29 JP JP2005284521A patent/JP4992218B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003303093A (en) * | 1992-11-02 | 2003-10-24 | Matsushita Electric Ind Co Ltd | Speech input system |
JPH07306692A (en) * | 1994-05-13 | 1995-11-21 | Matsushita Electric Ind Co Ltd | Speech recognizer and sound inputting device |
JP2004112518A (en) * | 2002-09-19 | 2004-04-08 | Takenaka Komuten Co Ltd | Information providing apparatus |
JP2005004535A (en) * | 2003-06-12 | 2005-01-06 | Mitsubishi Electric Corp | Mobile communication terminal and image processing method |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009157905A (en) * | 2007-12-07 | 2009-07-16 | Sony Corp | Information processor, information processing method, and computer program |
US9570094B2 (en) | 2008-11-10 | 2017-02-14 | Google Inc. | Multisensory speech detection |
US10720176B2 (en) | 2008-11-10 | 2020-07-21 | Google Llc | Multisensory speech detection |
US8862474B2 (en) | 2008-11-10 | 2014-10-14 | Google Inc. | Multisensory speech detection |
US9009053B2 (en) | 2008-11-10 | 2015-04-14 | Google Inc. | Multisensory speech detection |
US10714120B2 (en) | 2008-11-10 | 2020-07-14 | Google Llc | Multisensory speech detection |
US10026419B2 (en) | 2008-11-10 | 2018-07-17 | Google Llc | Multisensory speech detection |
KR101829865B1 (en) * | 2008-11-10 | 2018-02-20 | 구글 엘엘씨 | Multisensory speech detection |
JP2012508530A (en) * | 2008-11-10 | 2012-04-05 | グーグル・インコーポレーテッド | Multi-sensory voice detection |
KR101734450B1 (en) * | 2008-11-10 | 2017-05-11 | 구글 인코포레이티드 | Multisensory speech detection |
US10020009B1 (en) | 2008-11-10 | 2018-07-10 | Google Llc | Multisensory speech detection |
JP2012242609A (en) * | 2011-05-19 | 2012-12-10 | Mitsubishi Heavy Ind Ltd | Voice recognition device, robot, and voice recognition method |
JP2013142843A (en) * | 2012-01-12 | 2013-07-22 | Fuji Xerox Co Ltd | Operation analyzer, voice acquisition device, and operation analysis system |
US9626150B2 (en) | 2012-04-27 | 2017-04-18 | Hewlett-Packard Development Company, L.P. | Audio input from user |
JP2015514254A (en) * | 2012-04-27 | 2015-05-18 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. | Audio input from user |
US9955210B2 (en) | 2012-09-29 | 2018-04-24 | Shenzhen Prtek Co. Ltd. | Multimedia device voice control system and method, and computer storage medium |
WO2014048348A1 (en) * | 2012-09-29 | 2014-04-03 | 深圳市国华识别科技开发有限公司 | Multimedia device voice control system and method, and computer storage medium |
JPWO2016151956A1 (en) * | 2015-03-23 | 2018-01-11 | ソニー株式会社 | Information processing system and information processing method |
WO2016151956A1 (en) * | 2015-03-23 | 2016-09-29 | ソニー株式会社 | Information processing system and information processing method |
JP2018060374A (en) * | 2016-10-05 | 2018-04-12 | 富士ゼロックス株式会社 | Information processing device, evaluation system and program |
WO2019150708A1 (en) * | 2018-02-01 | 2019-08-08 | ソニー株式会社 | Information processing device, information processing system, information processing method, and program |
JP2020155944A (en) * | 2019-03-20 | 2020-09-24 | 株式会社リコー | Speaker detection system, speaker detection method, and program |
JP7259447B2 (en) | 2019-03-20 | 2023-04-18 | 株式会社リコー | Speaker detection system, speaker detection method and program |
Also Published As
Publication number | Publication date |
---|---|
JP4992218B2 (en) | 2012-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4992218B2 (en) | Information processing apparatus and method, and program | |
US10930303B2 (en) | System and method for enhancing speech activity detection using facial feature detection | |
US20220375472A1 (en) | Method and system of audio false keyphrase rejection using speaker recognition | |
US10109277B2 (en) | Methods and apparatus for speech recognition using visual information | |
JP4795919B2 (en) | Voice interval detection method | |
US7472063B2 (en) | Audio-visual feature fusion and support vector machine useful for continuous speech recognition | |
JP5772069B2 (en) | Information processing apparatus, information processing method, and program | |
JP2014153663A (en) | Voice recognition device, voice recognition method and program | |
WO2021022094A1 (en) | Per-epoch data augmentation for training acoustic models | |
JP2012014394A (en) | User instruction acquisition device, user instruction acquisition program and television receiver | |
US20120130716A1 (en) | Speech recognition method for robot | |
JP2012003326A (en) | Information processing device, information processing method, and program | |
JP6562790B2 (en) | Dialogue device and dialogue program | |
US11790900B2 (en) | System and method for audio-visual multi-speaker speech separation with location-based selection | |
JP2006500858A (en) | Enhanced commercial detection via synthesized video and audio signatures | |
JP5700963B2 (en) | Information processing apparatus and control method thereof | |
Iwano et al. | Audio-visual speech recognition using lip information extracted from side-face images | |
Potamianos et al. | Joint audio-visual speech processing for recognition and enhancement | |
Huang et al. | Audio-visual speech recognition using an infrared headset | |
JP3838159B2 (en) | Speech recognition dialogue apparatus and program | |
US9576587B2 (en) | Example-based cross-modal denoising | |
Thermos et al. | Audio-visual speech activity detection in a two-speaker scenario incorporating depth information from a profile or frontal view | |
Lucey et al. | Continuous pose-invariant lipreading | |
Takeuchi et al. | Voice activity detection based on fusion of audio and visual information | |
WO2019181218A1 (en) | Information processing device, information processing system, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080926 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110802 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120309 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20120319 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120410 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120423 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150518 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150518 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |