JP2007079624A - Utterance detection device, method and program - Google Patents

Utterance detection device, method and program Download PDF

Info

Publication number
JP2007079624A
JP2007079624A JP2005262751A JP2005262751A JP2007079624A JP 2007079624 A JP2007079624 A JP 2007079624A JP 2005262751 A JP2005262751 A JP 2005262751A JP 2005262751 A JP2005262751 A JP 2005262751A JP 2007079624 A JP2007079624 A JP 2007079624A
Authority
JP
Japan
Prior art keywords
lip
pattern
shape
image
image frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005262751A
Other languages
Japanese (ja)
Other versions
JP4650888B2 (en
Inventor
Takashi Naito
貴志 内藤
Yoshihisa Matsumoto
吉央 松本
Tsukasa Ogasawara
司 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nara Institute of Science and Technology NUC
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Nara Institute of Science and Technology NUC
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nara Institute of Science and Technology NUC, Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Nara Institute of Science and Technology NUC
Priority to JP2005262751A priority Critical patent/JP4650888B2/en
Publication of JP2007079624A publication Critical patent/JP2007079624A/en
Application granted granted Critical
Publication of JP4650888B2 publication Critical patent/JP4650888B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately detect a speaker's utterances, without being affected by sudden factors, such as noise. <P>SOLUTION: A lip pattern is segmented from a speaker's image (Step 108), and correlation values are calculated between lip pattern f(t) and a lip-inclusive pattern F(t-i) (i = 1, 2, ..., N) (Step 109). A maximum correlation value s_max(t, t-i) is calculated between f(t) and F(t-i), and such correlation values s_max with i from 1 to N are summed as a lip variation E(t) (Step 110). A lip variation E(t) that is not less than the threshold (Step 111: YES) identifies utterance duration (Step 112), and a lip variation E(t) less than the threshold (Step 111: NO) identifies non-utterance duration (Step 113). <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、発話検出装置、方法及びプログラムに係り、特に話者の口唇の画像から発話を検出する発話検出装置、方法及びプログラムに関する。   The present invention relates to an utterance detection device, method, and program, and more particularly, to an utterance detection device, method, and program for detecting an utterance from an image of a speaker's lips.

一般環境における音声認識システムは、周囲の騒音などに影響され、話者が話をしていなくてもその騒音をもとに音声認識を行い、結果的に誤認識をしてしまう。誤認識を低減する有効な方法の1つとして、話者の発話区間を検出し、その間のみで音声認識を行う手法が考えられる。   A speech recognition system in a general environment is affected by ambient noise and the like, and performs speech recognition based on the noise even when the speaker is not speaking, resulting in erroneous recognition. As an effective method for reducing misrecognition, a method of detecting a speaker's utterance section and performing speech recognition only in the meantime can be considered.

そこで、音声認識率を向上させるために、話者の唇の動きから発話区間を検出することが研究されている。特許文献1には、唇の輪郭の垂直方向の距離と基準値との差、あるいは唇の輪郭の曲率値から口の開閉を検出し、複数の対象者の中から話者を特定することが記載されている。また、非特許文献1には、現在の口唇パターンと、Nフレーム前の口唇パターンと、の差から発話状態を判定することが記載されている。
特開2000−338987号公報 村井、中村、「口周囲画像による雑音に剛健な会話検出」、音声言語情報処理37−10、2001
Therefore, in order to improve the speech recognition rate, it has been studied to detect an utterance interval from the movement of the speaker's lips. According to Patent Document 1, opening / closing of a mouth is detected from a difference between a vertical distance of a lip contour and a reference value, or a curvature value of a lip contour, and a speaker is specified from a plurality of subjects. Are listed. Non-Patent Document 1 describes that the utterance state is determined from the difference between the current lip pattern and the lip pattern N frames before.
JP 2000-338987 A Murai, Nakamura, “Detecting Conversation Consistent with Noise from Mouth Images”, Spoken Language Information Processing 37-10, 2001

一般に話者が会話をする場合は、話者の頭部の位置はある範囲で変動し、その結果画像上での話者の見え方も変動してしまう。そのため、口唇画像から発話区間を頑健に検出することが困難である。   In general, when a speaker has a conversation, the position of the speaker's head varies within a certain range, and as a result, the appearance of the speaker on the image also varies. Therefore, it is difficult to robustly detect the utterance section from the lip image.

特許文献1の場合、発話中に口唇の輪郭が変わるため、基準値自体が変動してしまい、精度よく発話状態を検出することができない問題がある。特許文献2の場合、現在の口唇パターンとNフレーム前の口唇パターンとの差のみに注目して発話状態を判定しているので、ノイズなどの突発的変動要因の影響を受け易い問題がある。   In the case of Patent Document 1, since the outline of the lips changes during utterance, the reference value itself fluctuates, and there is a problem that the utterance state cannot be detected with high accuracy. In the case of Patent Document 2, since the utterance state is determined by paying attention only to the difference between the current lip pattern and the lip pattern N frames before, there is a problem that it is susceptible to sudden fluctuation factors such as noise.

本発明は、上述した課題を解決するために提案されたものであり、ノイズなどの突発的な要因に影響されることなく、高精度に話者の発話を検出する発話検出装置、方法及びプログラムを提供することを目的とする。   The present invention has been proposed to solve the above-described problem, and an utterance detection apparatus, method, and program for detecting a speaker's utterance with high accuracy without being affected by sudden factors such as noise. The purpose is to provide.

本発明に係る発話検出装置は、少なくとも話者の口唇を撮像する撮像手段と、前記撮像手段により連続的に撮像された画像フレーム中において、前記口唇の形状を特定可能な口唇特徴領域を特定する口唇特徴領域特定手段と、前記撮像手段により連続的に撮像された画像フレーム中において、前記口唇特徴領域によって形状を特定された口唇を包含する口唇包含領域を特定する口唇包含領域特定手段と、前記撮像手段により連続的に撮像された画像フレーム中の、特定の画像フレームにおける前記口唇特徴領域によって特定される口唇形状と、前記特定の画像フレームの直前に撮像された1または連続複数の画像フレーム中の前記口唇包含領域に含まれる口唇形状とを比較し、これらの相関値を算出する相関値算出手段と、前記相関値算出手段の算出結果に基づいて前記口唇の変動量を算出する変動量算出手段と、前記変動量算出手段により算出された変動量に基づいて発話区間であるか否かを検出する発話区間検出手段と、を備えている。   An utterance detection apparatus according to the present invention specifies at least an imaging unit that images a lip of a speaker and a lip feature region that can specify a shape of the lip in an image frame continuously captured by the imaging unit. Lip feature area specifying means; and lip inclusion area specifying means for specifying a lip inclusion area including a lip whose shape is specified by the lip feature area in image frames continuously captured by the imaging means; Among the image frames continuously captured by the imaging means, the lip shape specified by the lip feature region in a specific image frame, and one or a plurality of continuous image frames captured immediately before the specific image frame The correlation value calculating means for comparing the lip shape included in the lip inclusion region of the lip and calculating the correlation value thereof, and the correlation value calculating means A fluctuation amount calculating means for calculating the amount of fluctuation of the lips based on the calculation result, and an utterance interval detecting means for detecting whether or not the utterance interval is based on the fluctuation amount calculated by the fluctuation amount calculating means; It has.

本発明に係る話者検出方法は、少なくとも話者の口唇を撮像し、前記連続的に撮像された画像フレーム中において、前記口唇の形状を特定可能な口唇特徴領域を特定し、前記連続的に撮像された画像フレーム中において、前記口唇特徴領域によって形状を特定された口唇を包含する口唇包含領域を特定し、前記連続的に撮像された画像フレーム中の、特定の画像フレームにおける前記口唇特徴領域によって特定される口唇形状と、前記特定の画像フレームの直前に撮像された1または連続複数の画像フレーム中の前記口唇包含領域に含まれる口唇形状とを比較し、これらの相関値を算出し、前記相関値算出結果に基づいて前記口唇の変動量を算出し、前記算出された変動量に基づいて発話区間であるか否かを検出する。   The speaker detection method according to the present invention captures at least a speaker's lips, specifies a lip feature region in which the shape of the lips can be specified in the continuously captured image frames, and continuously In the captured image frame, the lip inclusion region including the lip whose shape is specified by the lip feature region is specified, and the lip feature region in the specific image frame in the continuously captured image frames And the lip shape included in the lip inclusion region in one or a plurality of continuous image frames captured immediately before the specific image frame, and calculating a correlation value thereof, A variation amount of the lips is calculated based on the correlation value calculation result, and it is detected whether or not it is an utterance section based on the calculated variation amount.

本発明に係る話者検出プログラムは、コンピュータに、少なくとも話者の口唇を撮像させ、前記連続的に撮像された画像フレーム中において、前記口唇の形状を特定可能な口唇特徴領域を特定させ、前記連続的に撮像された画像フレーム中において、前記口唇特徴領域によって形状を特定された口唇を包含する口唇包含領域を特定させ、前記連続的に撮像された画像フレーム中の、特定の画像フレームにおける前記口唇特徴領域によって特定される口唇形状と、前記特定の画像フレームの直前に撮像された1または連続複数の画像フレーム中の前記口唇包含領域に含まれる口唇形状とを比較し、これらの相関値を算出させ、前記相関値算出結果に基づいて前記口唇の変動量を算出させ、前記算出された変動量に基づいて発話区間であるか否かを検出させる。   The speaker detection program according to the present invention causes a computer to image at least a speaker's lips, and to specify a lip feature region capable of specifying the shape of the lips in the continuously captured image frames, In a continuously captured image frame, a lip inclusion region including a lip whose shape is specified by the lip feature region is specified, and the specific image frame in the continuously captured image frame The lip shape specified by the lip feature region is compared with the lip shape included in the lip inclusion region in one or a plurality of consecutive image frames captured immediately before the specific image frame, and the correlation value thereof is calculated. Whether or not the lip variation amount is calculated based on the correlation value calculation result, and whether or not the utterance section is based on the calculated variation amount To detect.

撮像手段は、話者の口唇を撮像できるように設置されている。口唇特徴領域特定手段は、連続的に撮像された画像フレーム中において、前記口唇の形状を特定可能な口唇特徴領域を特定する。口唇包含領域特定手段は、連続的に撮像された画像フレーム中において、前記口唇特徴領域によって形状を特定された口唇を包含する口唇包含領域を特定する。   The imaging means is installed so that the lips of the speaker can be imaged. The lip feature region specifying unit specifies a lip feature region that can specify the shape of the lips in continuously captured image frames. The lip inclusion region specifying unit specifies a lip inclusion region including the lip whose shape is specified by the lip feature region in continuously captured image frames.

相関値算出手段は、連続的に撮像された画像フレーム中の、特定の画像フレームにおける前記口唇特徴領域によって特定される口唇形状と、前記特定の画像フレームの直前に撮像された1または連続複数の画像フレーム中の前記口唇包含領域に含まれる口唇形状とを比較し、これらの相関値を算出する。なお、「特定の画像フレームの直前に撮像された1または連続複数の画像フレーム」は、前記特定の画像フレームから連続するすべての画像フレームである必要はなく、任意の画像フレームであってもよい。   The correlation value calculation means includes a lip shape specified by the lip feature region in a specific image frame in continuously captured image frames, and one or a plurality of continuous images captured immediately before the specific image frame. The lip shape included in the lip inclusion region in the image frame is compared, and the correlation value thereof is calculated. Note that “one or a plurality of consecutive image frames captured immediately before a specific image frame” does not have to be all image frames continuous from the specific image frame, and may be an arbitrary image frame. .

変動量算出手段は、相関値算出手段の算出結果に基づいて前記口唇の変動量を算出する。話者が発話していないときは、特定の画像フレームにおける前記口唇特徴領域によって特定される口唇形状と、その特定の画像フレームの直前に撮像された1または連続複数の画像フレーム中の口唇包含領域に含まれる口唇形状と、の変動量はほとんどなく、話者が発話しているときは、その変動量は大きな値になる。よって、口唇の変動量は、それらの変動量から求められる。   The fluctuation amount calculation means calculates the fluctuation amount of the lips based on the calculation result of the correlation value calculation means. When the speaker is not speaking, the lip shape specified by the lip feature region in a specific image frame, and the lip inclusion region in one or a plurality of continuous image frames captured immediately before the specific image frame There is almost no amount of variation between the lip shape and the amount of variation when the speaker is speaking. Therefore, the amount of lip variation can be obtained from the amount of variation.

そこで、発話区間検出手段は、算出された変動量に基づいて発話区間であるか否かを検出できる。   Therefore, the speech segment detection means can detect whether or not the speech segment is based on the calculated fluctuation amount.

なお、前記発明は、前記撮像手段により連続的に撮像された画像フレームから、前記話者の口唇の特徴を表しかつ前記口唇の形状を追跡して特定するための濃度パターンを切り出す切出し手段を更に備えてもよい。このとき、前記口唇特徴領域特定手段は、前記口唇特徴領域として、前記撮像手段により連続的に撮像された画像フレームであって前記切出し手段により切り出された濃度パターンを包含する矩形領域を特定すればよい。このとき、濃度パターンは、少なくとも話者の口角、上唇、下唇のいずれかの濃淡値であるとよい。   Note that the invention further includes a cutting-out unit that cuts out a density pattern that represents the characteristics of the speaker's lips and tracks and identifies the shape of the lips from the image frames continuously captured by the imaging unit. You may prepare. At this time, if the lip feature region specifying unit specifies a rectangular region including the density pattern cut out by the cutting unit, which is an image frame continuously picked up by the imaging unit, as the lip feature region. Good. At this time, the density pattern may be at least a gray value of one of the mouth corner, upper lip, and lower lip of the speaker.

本発明に係る発話検出装置、方法及びプログラムは、連続的に撮像された画像フレーム中の、特定の画像フレームにおける前記口唇特徴領域によって特定される口唇形状と、前記特定の画像フレームの直前に撮像された1または連続複数の画像フレーム中の前記口唇包含領域に含まれる口唇形状とを比較し、これらの相関値を算出し、算出された変動量に基づいて発話区間であるか否かを検出することにより、ノイズ等の突発的な要因の影響を受けることなく、高精度に発話区間を検出することができる。   The utterance detection device, method, and program according to the present invention capture a lip shape specified by the lip feature region in a specific image frame in an image frame continuously captured, and immediately before the specific image frame. The lip shape included in the lip inclusion region in one or a plurality of consecutive image frames is compared, the correlation value thereof is calculated, and whether or not it is an utterance section is detected based on the calculated variation amount By doing so, it is possible to detect an utterance section with high accuracy without being affected by sudden factors such as noise.

以下、本発明の好ましい実施の形態について図面を参照しながら詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施の形態に係る音声認識システムの構成を示す図である。音声認識システムは、毎秒例えば30フレームで話者を撮像するCCDイメージセンサ1と、CCDイメージセンサ1で撮像された画像をアナログ/ディジタル変換するA/Dコンバータ2と、A/Dコンバータ2からの画像データに基づいて画像処理を行って話者の発話を検出する画像処理装置10と、話者の音声が入力されるマイク21と、マイク21からの音声をアナログ/ディジタル変換するA/Dコンバータ22と、画像処理装置10で検出された発話と、音声データとに基づいて音声認識を行う音声認識装置30と、を備えている。   FIG. 1 is a diagram showing a configuration of a speech recognition system according to an embodiment of the present invention. The speech recognition system includes a CCD image sensor 1 that captures a speaker at 30 frames per second, an A / D converter 2 that performs analog / digital conversion on an image captured by the CCD image sensor 1, and an A / D converter 2. An image processing apparatus 10 that detects an utterance of a speaker by performing image processing based on image data, a microphone 21 to which the voice of the speaker is input, and an A / D converter that performs analog / digital conversion of the voice from the microphone 21 22 and a speech recognition device 30 that performs speech recognition based on speech detected by the image processing device 10 and speech data.

CCDイメージセンサ1は、話者の顔あるいは話者の口周辺の画像を撮像できるように設置されている。マイク4は、話者の声が入力される位置に設置されている。   The CCD image sensor 1 is installed so that an image of the speaker's face or the periphery of the speaker's mouth can be taken. The microphone 4 is installed at a position where a speaker's voice is input.

画像処理装置10は、画像処理を行うCPU11と、ワークエリアであるRAM12と、CPU11の制御プログラムが記憶されているROM13と、を備えている。ROM13には、発話区間検出ルーチンのプログラムや、その他のプログラムが記憶されている。   The image processing apparatus 10 includes a CPU 11 that performs image processing, a RAM 12 that is a work area, and a ROM 13 that stores a control program for the CPU 11. The ROM 13 stores an utterance section detection routine program and other programs.

図2は、画像処理装置10の発話区間検出ルーチンを示すフローチャートである。画像処理装置10は、話者の発話区間を検出すべく、次のようなステップ101移行の処理を実行する。   FIG. 2 is a flowchart showing a speech segment detection routine of the image processing apparatus 10. The image processing apparatus 10 executes the following process of step 101 in order to detect a speaker's speech section.

ステップ101では、画像処理装置10のCPU11は、CCDイメージセンサ2から話者の画像が入力されると、ステップ102に移行する。   In step 101, when a speaker image is input from the CCD image sensor 2, the CPU 11 of the image processing apparatus 10 proceeds to step 102.

ステップ102では、CPU11は、話者の口唇特徴パターンが登録(RAM12に記憶)されているか否かを判定する。   In step 102, the CPU 11 determines whether or not the speaker's lip feature pattern is registered (stored in the RAM 12).

図3(a)及び(B)は、口唇特徴パターンの一例を示す図である。口唇特徴パターンとは、画像中での口唇の形状を追跡して特定するための濃度パターンである。濃度パターンとは、画像の画素毎の輝度レベルをパターン化したものでる。口唇特徴パターンは、図3(a)に示すように口の両端(口角)2箇所の濃度パターンや、同図(b)に示すように上唇及び下唇の2箇所の濃度パターンでもよい。なお、口唇特徴パターンは、上記のように2箇所に限らず、図3(a)及び(b)を組み合わせたものでもよいし、3箇所以上の濃度パターンであってもよい。   3A and 3B are diagrams illustrating an example of the lip feature pattern. The lip feature pattern is a density pattern for tracking and specifying the shape of the lips in the image. A density pattern is a pattern of luminance levels for each pixel of an image. The lip feature pattern may be a density pattern at two positions (mouth corners) of the mouth as shown in FIG. 3A, or a density pattern at two positions of the upper lip and lower lip as shown in FIG. 3B. The lip feature pattern is not limited to two places as described above, but may be a combination of FIGS. 3A and 3B, or may be a density pattern of three or more places.

口唇特徴パターンが既に登録されているときは、現在撮像されている画像について口唇特徴パターンの追跡を行うべく、ステップ106に移行する。一方、口唇特徴パターンが登録されていないときは、口唇特徴パターンを登録すべく、ステップ103に移行する。なお、口唇特徴パターンは、RAM12に限らず、図示しない不揮発性RAM、磁気ディスクなどの記憶媒体に記憶されていてもよい。   If the lip feature pattern has already been registered, the process proceeds to step 106 in order to track the lip feature pattern for the currently captured image. On the other hand, when the lip feature pattern is not registered, the process proceeds to step 103 to register the lip feature pattern. The lip feature pattern is not limited to the RAM 12 and may be stored in a storage medium such as a non-volatile RAM or a magnetic disk (not shown).

ステップ103では、CPU11は、A/Dコンバータ2から供給される画像に基づいて、口唇の特徴的なパターン(口唇特徴パターン)を検出して、ステップ104に移行する。口唇特徴パターンの検出では、種々の画像処理の手法を用いることが可能である。   In step 103, the CPU 11 detects a characteristic pattern of the lips (lip characteristic pattern) based on the image supplied from the A / D converter 2, and proceeds to step 104. In the detection of the lip feature pattern, various image processing methods can be used.

例えば図3(a)に示す口角の口唇特徴パターンに反応するニューラルネットワークを用意しておいき、入力された画像に対して上記ニューラルネットワークを適用することによって、図3(a)の口唇特徴パターンを容易に検出することができる。あるいは、画像のエッジヒストグラム分布から口角を特定し、口唇特徴パターンを登録してもよい。   For example, by preparing a neural network that responds to the lip feature pattern of the horn corner shown in FIG. 3A, and applying the neural network to the input image, the lip feature pattern of FIG. Can be easily detected. Alternatively, the mouth corner may be specified from the edge histogram distribution of the image, and the lip feature pattern may be registered.

ステップ104では、CPU11は、口唇特徴パターンを検出できたか否かを判定し、検出できたときはステップ105に移行し、検出できなかったときはステップ101に戻る。   In step 104, the CPU 11 determines whether or not the lip feature pattern has been detected. If it has been detected, the process proceeds to step 105. If not, the process returns to step 101.

ステップ105では、CPU11は、口唇特徴パターンをRAM12に登録して、ステップ106に移行する。   In step 105, the CPU 11 registers the lip feature pattern in the RAM 12 and proceeds to step 106.

ステップ106では、CPU11は、前フレーム画像における口唇特徴パターンの位置に基づいて現フレーム画像から口唇特徴パターンを追跡して、ステップ107に移行する。   In step 106, the CPU 11 tracks the lip feature pattern from the current frame image based on the position of the lip feature pattern in the previous frame image, and proceeds to step 107.

図4は、口唇特徴パターンの探索範囲を示す図である。最初に、CPU11は、前フレーム画像の口唇特徴パターンの位置に基づいて、矩形点線で示す探索範囲を設定する。そして、この探索範囲内で予め登録された口唇特徴パターンに最も類似したパターンを有する領域を検出する。ここでは、例えば画像処理手法の1つである正規化相関処理手法などが利用可能である。   FIG. 4 is a diagram illustrating a search range of the lip feature pattern. First, the CPU 11 sets a search range indicated by a rectangular dotted line based on the position of the lip feature pattern of the previous frame image. Then, an area having a pattern most similar to the lip feature pattern registered in advance within the search range is detected. Here, for example, a normalized correlation processing method which is one of image processing methods can be used.

ステップ107では、CPU11は、口唇特徴パターンの追跡に成功したかを判定し、成功したときはステップ108に移行し、成功しなかったときは再びステップ101に戻る。なお、話者が頭部を激しく動かすなどして口唇特徴パターンの追跡に失敗する場合がある。失敗したか否かは、正規化相関処理によって得られる相関値を調べることによって判定可能である。   In step 107, the CPU 11 determines whether or not the tracking of the lip feature pattern is successful. If successful, the CPU 11 proceeds to step 108, and if not successful, returns to step 101 again. Note that tracking of the lip feature pattern may fail due to the speaker moving his head violently. Whether or not it has failed can be determined by examining the correlation value obtained by the normalized correlation processing.

ステップ108では、CPU11は、追跡に成功した画像から口唇パターンを切り出して、ステップ109に移行する。口唇パターンとは、濃淡値の画像パターンである口唇特徴パターンと異なり、口唇を囲む矩形状のパターンである。つまり、口唇パターンは、口唇の形状を特定できる口唇特徴の矩形領域である。   In step 108, the CPU 11 cuts out the lip pattern from the image that has been successfully tracked, and proceeds to step 109. The lip pattern is a rectangular pattern that surrounds the lips, unlike the lip feature pattern that is an image pattern with gray values. That is, the lip pattern is a rectangular region of lip features that can specify the shape of the lips.

図5は、口唇パターンの切り出しを説明する図である。ここでは、追跡している2つの口唇特徴パターン(本実施形態では2つの口角の濃度パターン)の中心座標を(x1,y1)、(x2,y2)(ただし、x2>x1)する。このとき、CPU11は、幅(x2−x1)・r1、高さ(x2−x1)・r2、中心座標((x1+x2)/2,(y1+y2)/2)の矩形領域を口唇パターンf(t)として求めればよい。r1及びr2は、口唇パターンf(t)の切り出しのために予め設定された係数である。   FIG. 5 is a diagram for explaining lip pattern extraction. Here, the center coordinates of the two lip feature patterns being tracked (in this embodiment, the density patterns of the two mouth corners) are (x1, y1) and (x2, y2) (where x2> x1). At this time, the CPU 11 converts the rectangular area having the width (x2−x1) · r1, the height (x2−x1) · r2, and the center coordinates ((x1 + x2) / 2, (y1 + y2) / 2) into the lip pattern f (t). As long as you ask. r1 and r2 are coefficients set in advance for cutting out the lip pattern f (t).

なお、図3(b)に示す口唇特徴パターンを追跡する場合、例えばその口唇特徴パターンの中心座標を(x1,y1)、(x2,y2)とすると、幅W、高さH、中心座標((x1+x2)/2,(y1+y2)/2)の矩形領域を口唇パターンf(t)とすればよい。すなわち、追跡すべき口唇特徴パターンに応じてf(t)を設定すればよい。   When tracking the lip feature pattern shown in FIG. 3B, for example, if the center coordinates of the lip feature pattern are (x1, y1) and (x2, y2), the width W, the height H, and the center coordinates ( The rectangular area of (x1 + x2) / 2, (y1 + y2) / 2) may be used as the lip pattern f (t). That is, f (t) may be set according to the lip feature pattern to be tracked.

次に、CPU11は、画像から、口唇パターンf(t)を含むように口唇包含パターンF(t)を切り出す。つまり、口唇包含パターンF(t)は、口唇パターンf(t)によって形状を特定された口唇を包含する矩形領域である。   Next, the CPU 11 cuts out the lip inclusion pattern F (t) from the image so as to include the lip pattern f (t). That is, the lip inclusion pattern F (t) is a rectangular region that includes the lip whose shape is specified by the lip pattern f (t).

図6は、口唇包含パターンF(t)の切り出しを説明する図である。例えば、口唇パターンf(t)の中心位置を(x0,y0)、口唇パターンの幅、高さをそれぞれW0、H0とする。このとき、CPU11は、中心位置(x0,y0)、幅W0・r0、高さH0・r0の口唇包含パターンF(t)を求めればよい。r0は、口唇包含パターンF(t)の切り出しのための係数(>1)である。   FIG. 6 is a diagram for explaining the clipping of the lip inclusion pattern F (t). For example, the center position of the lip pattern f (t) is (x0, y0), and the width and height of the lip pattern are W0 and H0, respectively. At this time, the CPU 11 may obtain the lip inclusion pattern F (t) having the center position (x0, y0), the width W0 · r0, and the height H0 · r0. r0 is a coefficient (> 1) for cutting out the lip inclusion pattern F (t).

ステップ109では、CPU11は、切り出された口唇パターンf(t)と、現在から直前Nフレーム分の口唇包含パターンF(t−i)(i=1,2,・・・,N)と、の相関値を算出する。これにより、口唇パターンf(t)によって特定される口唇形状と、口唇包含パターンF(t−i)(i=1,2,・・・,N)によって特定される口唇形状と、が比較され、そして相関値が算出される。   In step 109, the CPU 11 compares the cut lip pattern f (t) and the lip inclusion pattern F (ti) (i = 1, 2,..., N) for the previous N frames from the present. A correlation value is calculated. Thereby, the lip shape specified by the lip pattern f (t) is compared with the lip shape specified by the lip inclusion pattern F (ti) (i = 1, 2,..., N). And a correlation value is calculated.

具体的には、CPU11は、口唇パターンf(t)を参照(テンプレート)画像、口唇包含パターンF(t−i)を探索画像として、画像相関処理を行い、相関値画像s(f(t),F(t−1))を算出する。ここで、口唇パターンf(t)の画像サイズW0・H0、口唇包含パターンF(t)の画像サイズをW1・H1(ただし、W1>W0、H1>H0)とすれば、相関値画像s(f(t),F(t−i))の画像サイズは(W1−W0)・(H1−H0)となる。なお、画像相関処理手法としては、正規化相関処理方法などの公知の技術を用いればよい。ただし、相関値sは0から1までの値をとり、相関が高いほど(類似しているほど)大きな値になるように正規化される。   Specifically, the CPU 11 performs image correlation processing using the lip pattern f (t) as a reference (template) image and the lip inclusion pattern F (ti) as a search image, and performs a correlation value image s (f (t)). , F (t−1)). Here, if the image size W0 · H0 of the lip pattern f (t) and the image size of the lip inclusion pattern F (t) are W1 · H1 (W1> W0, H1> H0), the correlation value image s ( The image size of f (t), F (t−i) is (W1−W0) · (H1−H0). Note that a known technique such as a normalized correlation processing method may be used as the image correlation processing method. However, the correlation value s takes a value from 0 to 1, and is normalized so that the higher the correlation (the more similar), the larger the value.

以下では、相関値画像s(f(t),F(t−i))の座標(x,y)における相関値をsi(x,y)と表す。ただし、x=0,1,・・・,(W1−W0−1)であり、y=0,1,・・・,(H1−H0−1)である。   Hereinafter, the correlation value at the coordinates (x, y) of the correlation value image s (f (t), F (t−i)) is represented as si (x, y). However, x = 0, 1,... (W1-W0-1) and y = 0, 1,..., (H1-H0-1).

つぎに、CPU11は、si(x,y)の最大値s_max(t,i)と、そのときの座標(sx(t,i),sy(t,i))をそれぞれ算出する。このとき、
s_max(t,t−i)=si(sx(t,i),sy(t,i))
である。
Next, the CPU 11 calculates the maximum value s_max (t, i) of si (x, y) and the coordinates (sx (t, i), sy (t, i)) at that time. At this time,
s_max (t, ti) = si (sx (t, i), sy (t, i))
It is.

図7(a)は参照画像と探索画像の一例を示す図、(b)は参照画像が探索画像中を走査している状態を示す図、(c)は参照画像と探索画像の最も相関の高い位置を表す図、(d)は相関値画像の一例を示す図である。ここでは、話者の口唇の画像の代わりに四角錐の画像が用いわれている。   7A is a diagram illustrating an example of a reference image and a search image, FIG. 7B is a diagram illustrating a state in which the reference image is scanned in the search image, and FIG. 7C is a diagram illustrating the most correlation between the reference image and the search image. The figure showing a high position and (d) are figures showing an example of a correlation value image. Here, a quadrangular pyramid image is used instead of the speaker's lip image.

CPU11は参照画像と探索画像の相関値を算出して相関値が最も高くなる位置を探すことによって、図7(b)に示すように参照画像が探索画像中で走査され、図7(c)に示すように参照画像と探索画像とのマッチング位置が探し出される。このとき、図7(d)に示すように、マッチング位置における相関値画像が、s_maxとして求められる。なお、画像相関処理で用いられる探索画像(口唇包含パターンF(t−i))は、次のようにNフレーム存在するのが好ましい。   The CPU 11 calculates the correlation value between the reference image and the search image and searches for the position where the correlation value is the highest, whereby the reference image is scanned in the search image as shown in FIG. 7B, and FIG. As shown in FIG. 5, the matching position between the reference image and the search image is found. At this time, as shown in FIG. 7D, the correlation value image at the matching position is obtained as s_max. Note that the search image (lip inclusion pattern F (t−i)) used in the image correlation process preferably has N frames as follows.

図8は、口唇パターンf(t)と口唇包含パターンF(t−i)(i=1、・・・、N)との画像相関処理を説明する図である。まず、f(t)とF(t−1)で画像相関処理が行われ、最も高い相関値s_max(t,1)が求められる。次に、f(t)とF(t−2)で画像相関処理が行われ、最も高い相関値s_max(t,2)が求められる。同様にして、f(t)とF(t−3)で画像相関処理が行われ、最も高い相関値s_max(t,3)が求められる。このようにして求められるN個の相関値s_maxは、次のステップS110で用いられる。   FIG. 8 is a diagram for explaining image correlation processing between the lip pattern f (t) and the lip inclusion pattern F (t−i) (i = 1,..., N). First, image correlation processing is performed with f (t) and F (t−1), and the highest correlation value s_max (t, 1) is obtained. Next, image correlation processing is performed using f (t) and F (t−2), and the highest correlation value s_max (t, 2) is obtained. Similarly, image correlation processing is performed using f (t) and F (t−3), and the highest correlation value s_max (t, 3) is obtained. The N correlation values s_max obtained in this way are used in the next step S110.

なお、口唇包含パターンF(t)とF(t−1)が全く同一の画像であれば、
s_max(t,t−i)=1
sx(t,i)=(W1−W0)/2
sy(t,i)=(H1−H0)/2
になる。
If the lip inclusion patterns F (t) and F (t−1) are the same image,
s_max (t, ti) = 1
sx (t, i) = (W1-W0) / 2
sy (t, i) = (H1-H0) / 2
become.

ステップ110では、CPU11は、現在から直前のNフレームまで遡って求められた{s_max(t,t−i),sx(t,i),sy(t,i);i=1,2,・・・,N}から、口唇変動量E(t)を式(1)より算出する。   In step 110, the CPU 11 obtains {s_max (t, ti), sx (t, i), sy (t, i); i = 1, 2,. .., N}, the lip variation E (t) is calculated from the equation (1).

図9は、(a)時刻t、(b)時刻t+1、(c)時刻t+2、(d)時刻t+3でそれぞれ得られた口唇特徴パターン、口唇パターンf、口唇包含パターンFを示す図である。図9では、現在のフレームから2フレーム分過去に遡っているが、遡るフレーム数は特に限定されるものではない。図9を用いて、上述した各ステップについて説明する。   FIG. 9 is a diagram showing the lip feature pattern, the lip pattern f, and the lip inclusion pattern F obtained at (a) time t, (b) time t + 1, (c) time t + 2, and (d) time t + 3, respectively. In FIG. 9, two frames are traced back from the current frame, but the number of frames that are traced back is not particularly limited. Each step mentioned above is demonstrated using FIG.

まず、図9(a)に示す時刻tにおける口唇包含パターンF(t)は次のように求められる。口唇パターンf(t)を検出するための口唇特徴パターンは、例えば左右の口角の矩形の矩形パターンのように、口唇特徴パターンに特徴的なパターンとして予め登録されている(ステップ102〜S105)。そして、口唇特徴パターンの位置から、矩形点線で表した口唇パターンf(t)が検出される(ステップ107、S108)。次に、口唇パターンf(t)を含む口唇包含パターンF(t)が設定される。ここで、F(t−2)、F(t−1)の画像は、それぞれ時刻t−2、t−1の時点で得られた口唇包含パターンを示している。そして、F(t−2)、F(t−1)のそれぞれに対して、相関処理により、時刻tでの口唇パターンf(t)と類似性の高い画像領域が探索される。   First, the lip inclusion pattern F (t) at time t shown in FIG. 9A is obtained as follows. The lip feature pattern for detecting the lip pattern f (t) is registered in advance as a characteristic pattern of the lip feature pattern, for example, a rectangular pattern with a left and right mouth corner (steps 102 to S105). Then, a lip pattern f (t) represented by a rectangular dotted line is detected from the position of the lip feature pattern (steps 107 and S108). Next, a lip inclusion pattern F (t) including the lip pattern f (t) is set. Here, the images of F (t−2) and F (t−1) indicate the lip inclusion patterns obtained at the times t−2 and t−1, respectively. Then, for each of F (t−2) and F (t−1), an image region having a high similarity to the lip pattern f (t) at time t is searched by correlation processing.

図10は、口唇パターンf(t)と最も類似度の高いパターンを探索することを説明するための図である。   FIG. 10 is a diagram for explaining a search for a pattern having the highest similarity with the lip pattern f (t).

同図に示すように、口唇パターンf(t)と口唇包含パターンF(t−1)との間での相関処理が行われて、実線矩形で表されるパターンが最も相関が高いものとする。このときの相関値(=0〜1:1に近いほど相関が高い)をs(t,t−1)と表す。その位置の口唇パターンf(t−1)に対するずれ量を(Δx(t,t−1),Δy(t,t−1))と表す。ずれ量は、図中の矩形左上座標値を(xp,yp)及び(xq,yq)とすると、|xp−xq|及び|yp−yq|となる。   As shown in the figure, correlation processing is performed between the lip pattern f (t) and the lip inclusion pattern F (t-1), and the pattern represented by the solid line rectangle has the highest correlation. . The correlation value at this time (correlation is higher as it is closer to 0 to 1: 1) is expressed as s (t, t−1). The amount of deviation of the position with respect to the lip pattern f (t−1) is represented as (Δx (t, t−1), Δy (t, t−1)). The shift amounts are | xp−xq | and | yp−yq |, where the upper left coordinate values of the rectangle in the drawing are (xp, yp) and (xq, yq).

話者が全く口唇を動かしていない場合、理想的にはF(t)とF(t−1)が全く同一画像パターンになるため、
s(t,t−1)=1.0、
(Δx(t,t−1),Δy(t,t−1))=(0,0)
となる。
If the speaker does not move the lips at all, ideally F (t) and F (t-1) are exactly the same image pattern,
s (t, t-1) = 1.0,
(Δx (t, t−1), Δy (t, t−1)) = (0, 0)
It becomes.

口唇変動量E(t)は、上述した式(1)によって定義される。この定義から、口が動いていない(発話していない)と考えられる場合は、口唇変動量E(t)は小さな値になる。時刻t−Nからtに亘って口が大きく動いている(発話している)と考えられる場合は、口唇変動量E(t)は大きな値になる。そこで、口唇変動量E(t)に基づいて、次のように、発話区間であるか否かが判定される。   Lip variation amount E (t) is defined by equation (1) described above. From this definition, when it is considered that the mouth is not moving (not speaking), the lip variation E (t) is a small value. When it is considered that the mouth is moving greatly (speaking) from time t-N to t, the lip variation E (t) becomes a large value. Therefore, based on the lip variation E (t), it is determined whether or not it is an utterance section as follows.

ステップ111では、CPU11は、式(1)で算出された口唇変動量E(t)と予め設定された閾値Ethとを比較して、E(t)>Ethであればステップ112に移行し、E(t)≦Ethであればステップ113に移行する。   In step 111, the CPU 11 compares the lip fluctuation amount E (t) calculated by the equation (1) with a preset threshold Eth, and if E (t)> Eth, the CPU 11 proceeds to step 112. If E (t) ≦ Eth, the routine proceeds to step 113.

ステップ112では、CPU11は、現在フレームは発話区間であると判定して、ステップ114に移行する。   In step 112, the CPU 11 determines that the current frame is an utterance section, and proceeds to step 114.

ステップ113では、CPU11は、現在フレームは発話区間ではないと判定して、ステップ114に移行する。   In step 113, the CPU 11 determines that the current frame is not an utterance section, and proceeds to step 114.

ステップ114では、CPU11は、発話区間の判定結果を音声認識装置30に送信して、処理を終了する。そして、再びステップ101移行の処理が実行される。これにより、音声認識装置30は、画像処理装置10の判定結果、つまり発話区間であるか否かを考慮しながら、A/Dコンバータ22から供給された音声データについて音声認識を行うことができるので、認識率を向上させることができる。   In step 114, CPU11 transmits the determination result of an utterance area to the speech recognition apparatus 30, and complete | finishes a process. Then, the process of step 101 is executed again. As a result, the voice recognition device 30 can perform voice recognition on the voice data supplied from the A / D converter 22 while considering the determination result of the image processing device 10, that is, whether or not it is a speech segment. , The recognition rate can be improved.

以上のように、本発明の実施の形態に係る音声認識システムは、登録された口唇特徴パターンから得られた口唇パターンf(t)と、Nフレーム前まで遡った口唇包含パターンF(t−i)と、の相関値から算出される口唇変動量に基づいて、発話区間であるか否かを検出する。このように、発話区間の検出にNフレーム前までの変化量を用いているので、上記音声認識システムは、話者の口唇が微小に変化した場合であっても、その影響を受けることなく、確実に発話区間を検出することができる。   As described above, the speech recognition system according to the embodiment of the present invention includes the lip pattern f (t) obtained from the registered lip feature pattern and the lip inclusion pattern F (t−i) traced back N frames. ) And the lip fluctuation amount calculated from the correlation value. As described above, since the amount of change up to N frames before is used for detecting the utterance period, the voice recognition system is not affected even when the speaker's lips change minutely. An utterance section can be detected reliably.

また、音声認識システムは、単純にパターン間の相関値を演算するのではなく、現在の口唇パターンf(t)と過去の口唇包含パターンF(t)との相関処理によって最も相関の高い位置を求めているので、口唇特徴パターンが変動して口唇パターンの切り出し誤差に影響が生じてしまうことを低減することができる。   Also, the speech recognition system does not simply calculate the correlation value between patterns, but determines the position with the highest correlation by the correlation process between the current lip pattern f (t) and the past lip inclusion pattern F (t). Therefore, it can be reduced that the lip feature pattern fluctuates and the lip pattern cut-out error is affected.

さらに、音声認識システムは、唇の色情報、輪郭情報、端点情報などを求めるための煩雑な画像処理手法を利用せず、濃度パターン及びその位置情報から矩形状の口唇パターンf(t)及び口唇包含パターンF(t)を算出するので、演算負荷を低減して高速に発話区間を検出できる。   Furthermore, the voice recognition system does not use a complicated image processing method for obtaining lip color information, contour information, end point information, and the like, and uses a rectangular pattern lip pattern f (t) and lip from the density pattern and its position information. Since the inclusion pattern F (t) is calculated, it is possible to detect an utterance section at high speed while reducing the calculation load.

そして、音声認識システムは、発話区間であるか否かの判定結果を考慮しながら、話者の音声データを用いて音声認識を行うので、識別率を向上させて、高精度に音声認識を行うことができる。   And since the speech recognition system performs speech recognition using the speech data of the speaker while taking into consideration the determination result of whether or not it is the speech section, the recognition rate is improved and speech recognition is performed with high accuracy. be able to.

なお、本発明は、上述した実施の形態に限定されるものではなく、特許請求の範囲に記載された範囲内で設計上の変更をされたものにも適用可能であるのは勿論である。   Note that the present invention is not limited to the above-described embodiment, and it is needless to say that the present invention can also be applied to a design modified within the scope of the claims.

例えば、画像処理装置10のCPU11は、式(1)の代わりに、次の式(2)、式(3)、式(4)のいずれかを用いてもよい。   For example, the CPU 11 of the image processing apparatus 10 may use any of the following expressions (2), (3), and (4) instead of the expression (1).

式(2)及び式(3)では、距離情報Δdを用いることなく、口唇変動量E(t)が演算される。また、式(3)、(4)ではフレームに応じた重み係数α(i)を用いる。さらには、次の式(5)を用いてもよい。
In the equations (2) and (3), the lip variation E (t) is calculated without using the distance information Δd. In equations (3) and (4), a weighting coefficient α (i) corresponding to the frame is used. Further, the following formula (5) may be used.

図11は、口唇パターンf(t)と口唇包含パターンF(t−i)の他の画像相関処理を説明する図である。同図及び式(5)に示すように、f(t)とF(t−1)、f(t−1)とF(t−2)、f(t−2)とF(t−3)の間で画像相関処理を行ってもよい。すなわち、口唇パターンf(t)とその直前1フレームの口唇包含パターンF(t−1))との間で最も高い相関値を演算し、最も高い相関値の和から口唇変動量E(t)を算出してもよい。   FIG. 11 is a diagram for explaining another image correlation process of the lip pattern f (t) and the lip inclusion pattern F (ti). As shown in the figure and formula (5), f (t) and F (t-1), f (t-1) and F (t-2), f (t-2) and F (t-3) The image correlation process may be performed between That is, the highest correlation value is calculated between the lip pattern f (t) and the lip inclusion pattern F (t-1) of the immediately preceding frame, and the lip variation E (t) is calculated from the sum of the highest correlation values. May be calculated.

また、CPU11は、口唇変動量E(t)の計算の際に用いるフレームをi=1,3,5,・・・,Nのようにして、フレームを間引いてもよい。これにより、処理時間を短縮して発話区間を検出することができる。   Further, the CPU 11 may thin out the frames by using i = 1, 3, 5,..., N as the frames used for calculating the lip variation E (t). Thereby, processing time can be shortened and an utterance area can be detected.

本発明の実施の形態に係る音声認識システムの構成を示す図である。It is a figure which shows the structure of the speech recognition system which concerns on embodiment of this invention. 画像処理装置10の発話区間検出ルーチンを示すフローチャートである。3 is a flowchart showing a speech section detection routine of the image processing apparatus 10; 口唇特徴パターンの一例を示す図である。It is a figure which shows an example of a lip feature pattern. 口唇特徴パターンの探索範囲を示す図である。It is a figure which shows the search range of a lip feature pattern. 口唇パターンの切り出しを説明する図である。It is a figure explaining extraction of a lip pattern. 口唇包含パターンF(t)の切り出しを説明する図である。It is a figure explaining extraction of the lip inclusion pattern F (t). (a)は参照画像と探索画像の一例を示す図、(b)は参照画像が探索画像中を走査している状態を示す図、(c)は参照画像と探索画像の最も相関の高い位置を表す図、(d)は相関値画像の一例を示す図である。(A) is a diagram showing an example of a reference image and a search image, (b) is a diagram showing a state in which the reference image is scanning the search image, and (c) is a position having the highest correlation between the reference image and the search image. (D) is a figure showing an example of a correlation value image. 口唇パターンf(t)と口唇包含パターンF(t−i)の画像相関処理を説明する図である。It is a figure explaining the image correlation process of the lip pattern f (t) and the lip inclusion pattern F (t-i). (a)時刻t、(b)時刻t+1、(c)時刻t+2、(d)時刻t+3でそれぞれ得られた口唇特徴パターン、口唇パターンf、口唇包含パターンFを示す図である。It is a figure which shows the lip feature pattern, the lip pattern f, and the lip inclusion pattern F obtained at (a) time t, (b) time t + 1, (c) time t + 2, and (d) time t + 3, respectively. 口唇パターンf(t)と最も類似度の高いパターンを探索することを説明するための図である。It is a figure for demonstrating searching for the pattern with the highest similarity with the lip pattern f (t). 口唇パターンf(t)と口唇包含パターンF(t−i)の他の相関処理を説明する図である。It is a figure explaining the other correlation processing of the lip pattern f (t) and the lip inclusion pattern F (t-i).

符号の説明Explanation of symbols

1 CCDイメージセンサ
2,22 A/Dコンバータ
10 画像処理装置
11 CPU
12 RAM
13 ROM
21 マイク
30 音声認識装置
1 CCD image sensor 2, 22 A / D converter 10 Image processing device 11 CPU
12 RAM
13 ROM
21 Microphone 30 Voice recognition device

Claims (9)

少なくとも話者の口唇を撮像する撮像手段と、
前記撮像手段により連続的に撮像された画像フレーム中において、前記口唇の形状を特定可能な口唇特徴領域を特定する口唇特徴領域特定手段と、
前記撮像手段により連続的に撮像された画像フレーム中において、前記口唇特徴領域によって形状を特定された口唇を包含する口唇包含領域を特定する口唇包含領域特定手段と、
前記撮像手段により連続的に撮像された画像フレーム中の、特定の画像フレームにおける前記口唇特徴領域によって特定される口唇形状と、前記特定の画像フレームの直前に撮像された1または連続複数の画像フレーム中の前記口唇包含領域に含まれる口唇形状とを比較し、これらの相関値を算出する相関値算出手段と、
前記相関値算出手段の算出結果に基づいて前記口唇の変動量を算出する変動量算出手段と、
前記変動量算出手段により算出された変動量に基づいて発話区間であるか否かを検出する発話区間検出手段と、
を備えたことを特徴とする発話検出装置。
Imaging means for imaging at least the speaker's lips;
Lip feature region specifying means for specifying a lip feature region capable of specifying the shape of the lips in the image frames continuously captured by the imaging unit;
Lip inclusion area specifying means for specifying a lip inclusion area including a lip whose shape is specified by the lip feature area in image frames continuously captured by the imaging means;
The lip shape specified by the lip feature region in a specific image frame in the image frames continuously captured by the imaging means, and one or a plurality of continuous image frames captured immediately before the specific image frame A correlation value calculating means for comparing the lip shape included in the lip inclusion region in the inside and calculating these correlation values;
A fluctuation amount calculating means for calculating a fluctuation amount of the lip based on a calculation result of the correlation value calculating means;
Utterance interval detection means for detecting whether or not the utterance interval is based on the fluctuation amount calculated by the fluctuation amount calculation means;
An utterance detection device comprising:
前記撮像手段により連続的に撮像された画像フレームから、前記話者の口唇の特徴を表しかつ前記口唇の形状を追跡して特定するための濃度パターンを切り出す切出し手段を更に備え、
前記口唇特徴領域特定手段は、前記口唇特徴領域として、前記撮像手段により連続的に撮像された画像フレームであって前記切出し手段により切り出された濃度パターンを包含する矩形領域を特定すること
を特徴とする請求項1に記載の発話検出装置。
The image processing apparatus further includes a cutting-out unit that cuts out a density pattern for representing the characteristics of the lip of the speaker and tracking and specifying the shape of the lip from image frames continuously captured by the imaging unit
The lip feature region specifying unit specifies a rectangular region including the density pattern cut out by the cutout unit, which is an image frame continuously picked up by the image pickup unit, as the lip feature region. The utterance detection device according to claim 1.
前記相関値算出手段は、前記特定の画像フレームにおける前記口唇特徴領域によって特定される口唇形状と、前記特定の画像フレームの直前に撮像された連続複数の画像フレームのうちの任意の画像フレームの前記口唇包含領域に含まれる口唇形状と、の最も高い相関値を各々算出する
請求項1または請求項2に記載の発話検出装置。
The correlation value calculating means includes the lip shape specified by the lip feature region in the specific image frame, and the arbitrary image frame of a plurality of consecutive image frames captured immediately before the specific image frame. The utterance detection device according to claim 1, wherein the highest correlation value with each lip shape included in the lip inclusion region is calculated.
前記濃度パターンは、少なくとも話者の口角、上唇、下唇のいずれかの濃淡値である
請求項2または請求項3に記載の発話検出装置。
The utterance detection device according to claim 2, wherein the density pattern is a gray value of at least one of a mouth angle of the speaker, an upper lip, and a lower lip.
少なくとも話者の口唇を撮像し、
前記連続的に撮像された画像フレーム中において、前記口唇の形状を特定可能な口唇特徴領域を特定し、
前記連続的に撮像された画像フレーム中において、前記口唇特徴領域によって形状を特定された口唇を包含する口唇包含領域を特定し、
前記連続的に撮像された画像フレーム中の、特定の画像フレームにおける前記口唇特徴領域によって特定される口唇形状と、前記特定の画像フレームの直前に撮像された1または連続複数の画像フレーム中の前記口唇包含領域に含まれる口唇形状とを比較し、これらの相関値を算出し、
前記相関値算出結果に基づいて前記口唇の変動量を算出し、
前記算出された変動量に基づいて発話区間であるか否かを検出すること
を特徴とする発話検出方法。
Image at least the speaker's lips,
In the continuously captured image frames, specify a lip feature region that can specify the shape of the lips,
In the continuously captured image frames, specify a lip inclusion region that includes a lip whose shape is specified by the lip feature region;
The lip shape specified by the lip feature region in a specific image frame in the continuously captured image frames, and the one or more consecutive image frames captured immediately before the specific image frame Compare the lip shape contained in the lip inclusion area, calculate these correlation values,
Calculate the amount of lip variation based on the correlation value calculation result,
An utterance detection method comprising: detecting whether or not an utterance section is based on the calculated fluctuation amount.
更に、前記連続的に撮像された画像フレームから、前記話者の口唇の特徴を表しかつ前記口唇の形状を追跡して特定するための濃度パターンを切り出し、
前記口唇特徴領域の特定では、前記口唇特徴領域として、前記連続的に撮像された画像フレームであって前記切り出された濃度パターンを包含する矩形領域を特定すること
を特徴とする請求項5に記載の発話検出方法。
Further, from the continuously captured image frames, a density pattern for representing the characteristics of the speaker's lips and tracking and specifying the shape of the lips is cut out,
6. The lip feature region is specified by specifying, as the lip feature region, a rectangular region that is the continuously captured image frame and includes the extracted density pattern. Utterance detection method.
前記相関値算出では、前記特定の画像フレームにおける前記口唇特徴領域によって特定される口唇形状と、前記特定の画像フレームの直前に撮像された連続複数の画像フレームのうちの任意の画像フレームの前記口唇包含領域に含まれる口唇形状と、の最も高い相関値を各々算出すること
を特徴とする請求項5または請求項6に記載の発話検出方法。
In the correlation value calculation, the lip shape specified by the lip feature region in the specific image frame and the lip of an arbitrary image frame among a plurality of continuous image frames captured immediately before the specific image frame. The utterance detection method according to claim 5, wherein the highest correlation value with each lip shape included in the inclusion region is calculated.
前記濃度パターンは、少なくとも話者の口角、上唇、下唇のいずれかの濃淡値である
請求項6または請求項7に記載の発話検出方法。
The utterance detection method according to claim 6, wherein the density pattern is a gray value of at least one of a speaker's mouth corner, upper lip, and lower lip.
コンピュータに、
少なくとも話者の口唇を撮像させ、
前記連続的に撮像された画像フレーム中において、前記口唇の形状を特定可能な口唇特徴領域を特定させ、
前記連続的に撮像された画像フレーム中において、前記口唇特徴領域によって形状を特定された口唇を包含する口唇包含領域を特定させ、
前記連続的に撮像された画像フレーム中の、特定の画像フレームにおける前記口唇特徴領域によって特定される口唇形状と、前記特定の画像フレームの直前に撮像された1または連続複数の画像フレーム中の前記口唇包含領域に含まれる口唇形状とを比較し、これらの相関値を算出させ、
前記相関値算出結果に基づいて前記口唇の変動量を算出させ、
前記算出された変動量に基づいて発話区間であるか否かを検出させること
を特徴とする発話検出プログラム。
On the computer,
At least image the lips of the speaker,
In the continuously captured image frames, the lip feature region that can specify the shape of the lips is specified,
In the continuously captured image frames, a lip inclusion region including a lip whose shape is specified by the lip feature region is specified,
The lip shape specified by the lip feature region in a specific image frame in the continuously captured image frames, and the one or more consecutive image frames captured immediately before the specific image frame Compare the lip shape included in the lip inclusion area, calculate these correlation values,
Based on the correlation value calculation result, to calculate the amount of lip variation,
An utterance detection program for detecting whether or not an utterance section is based on the calculated fluctuation amount.
JP2005262751A 2005-09-09 2005-09-09 Utterance detection apparatus, method and program Expired - Fee Related JP4650888B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005262751A JP4650888B2 (en) 2005-09-09 2005-09-09 Utterance detection apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005262751A JP4650888B2 (en) 2005-09-09 2005-09-09 Utterance detection apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2007079624A true JP2007079624A (en) 2007-03-29
JP4650888B2 JP4650888B2 (en) 2011-03-16

Family

ID=37939906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005262751A Expired - Fee Related JP4650888B2 (en) 2005-09-09 2005-09-09 Utterance detection apparatus, method and program

Country Status (1)

Country Link
JP (1) JP4650888B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013179985A1 (en) * 2012-05-30 2013-12-05 日本電気株式会社 Information processing system, information processing method, communication terminal, information processing device and control method and control program therefor
JP2017129860A (en) * 2016-01-20 2017-07-27 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Voice wakeup method and device
JP2018077791A (en) * 2016-11-11 2018-05-17 日本電信電話株式会社 Estimation method and estimation system
JP2019137167A (en) * 2018-02-08 2019-08-22 三菱電機株式会社 Voice output control device, and voice output control program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102392087B1 (en) 2017-07-10 2022-04-29 삼성전자주식회사 Remotely controller and method for receiving a user's voice thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11149296A (en) * 1997-09-10 1999-06-02 Oki Electric Ind Co Ltd Word recognition device
JP2002091466A (en) * 2000-09-12 2002-03-27 Pioneer Electronic Corp Speech recognition device
JP2005114576A (en) * 2003-10-08 2005-04-28 Hitachi Software Eng Co Ltd Amphipathic molecule-fixed bead, its manufacturing method, and bead-arraying method of capillary bead array

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11149296A (en) * 1997-09-10 1999-06-02 Oki Electric Ind Co Ltd Word recognition device
JP2002091466A (en) * 2000-09-12 2002-03-27 Pioneer Electronic Corp Speech recognition device
JP2005114576A (en) * 2003-10-08 2005-04-28 Hitachi Software Eng Co Ltd Amphipathic molecule-fixed bead, its manufacturing method, and bead-arraying method of capillary bead array

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013179985A1 (en) * 2012-05-30 2013-12-05 日本電気株式会社 Information processing system, information processing method, communication terminal, information processing device and control method and control program therefor
JP2013250683A (en) * 2012-05-30 2013-12-12 Nec Corp Information processing system, information processing method, communication terminal, information processor and its control method and control program
US9489951B2 (en) 2012-05-30 2016-11-08 Nec Corporation Information processing system, information processing method, communication terminal, information processing apparatus, and control method and control program thereof
JP2017129860A (en) * 2016-01-20 2017-07-27 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Voice wakeup method and device
US10482879B2 (en) 2016-01-20 2019-11-19 Baidu Online Network Technology (Beijing) Co., Ltd. Wake-on-voice method and device
JP2018077791A (en) * 2016-11-11 2018-05-17 日本電信電話株式会社 Estimation method and estimation system
JP2019137167A (en) * 2018-02-08 2019-08-22 三菱電機株式会社 Voice output control device, and voice output control program
JP7023131B2 (en) 2018-02-08 2022-02-21 三菱電機株式会社 Audio output control device and audio output control program

Also Published As

Publication number Publication date
JP4650888B2 (en) 2011-03-16

Similar Documents

Publication Publication Date Title
US7472063B2 (en) Audio-visual feature fusion and support vector machine useful for continuous speech recognition
JP4986433B2 (en) Apparatus and method for recognizing and tracking objects
US7340100B2 (en) Posture recognition apparatus and autonomous robot
JP4952625B2 (en) Perspective transformation distortion generating document image correcting apparatus and method
JP5323770B2 (en) User instruction acquisition device, user instruction acquisition program, and television receiver
JP4216668B2 (en) Face detection / tracking system and method for detecting and tracking multiple faces in real time by combining video visual information
JP4650888B2 (en) Utterance detection apparatus, method and program
US20030212552A1 (en) Face recognition procedure useful for audiovisual speech recognition
US10997979B2 (en) Voice recognition device and voice recognition method
JP4860289B2 (en) Robot equipment
JP2007094104A5 (en)
JP2011059186A (en) Speech section detecting device and speech recognition device, program and recording medium
JP7438684B2 (en) Image processing device, image processing method, and program
Liu et al. A visual voice activity detection method with adaboosting
JP2008015848A (en) Object area search method, object area search program and object area search device
JP3823760B2 (en) Robot equipment
JP2008009728A (en) Expression recognition method and expression recognition device
JP2012073971A (en) Moving image object detection device, method and program
JP2006268563A (en) Personal authentication apparatus, personal authentication processing method, program therefor and recording medium
KR20190009006A (en) Real time multi-object tracking device and method by using global motion
US20150039314A1 (en) Speech recognition method and apparatus based on sound mapping
JP2005208850A (en) Face image recognition device and face image recognition program
WO2023193803A1 (en) Volume control method and apparatus, storage medium, and electronic device
Yau et al. Visual speech recognition using motion features and hidden markov models
JP4801251B2 (en) Video / audio deviation correction method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101130

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101208

R150 Certificate of patent or registration of utility model

Ref document number: 4650888

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees