JPH0298000A - Method for identifying male and female voices - Google Patents

Method for identifying male and female voices

Info

Publication number
JPH0298000A
JPH0298000A JP63251416A JP25141688A JPH0298000A JP H0298000 A JPH0298000 A JP H0298000A JP 63251416 A JP63251416 A JP 63251416A JP 25141688 A JP25141688 A JP 25141688A JP H0298000 A JPH0298000 A JP H0298000A
Authority
JP
Japan
Prior art keywords
male
value
female
waveform
amplitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63251416A
Other languages
Japanese (ja)
Other versions
JP2557497B2 (en
Inventor
Masayuki Unno
海野 雅幸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sekisui Chemical Co Ltd
Original Assignee
Sekisui Chemical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sekisui Chemical Co Ltd filed Critical Sekisui Chemical Co Ltd
Priority to JP63251416A priority Critical patent/JP2557497B2/en
Publication of JPH0298000A publication Critical patent/JPH0298000A/en
Application granted granted Critical
Publication of JP2557497B2 publication Critical patent/JP2557497B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To easily identify male and female voices by calculating the referring axis crossing number of an input signal and a value related to the amplitude distribution of a waveform as a feature parameter and comparing the calculating result with the dictionary data of the male and female vocalized voices. CONSTITUTION:The dictionary data to make the referring axis crossing number between 20mS and the value related to the amplitude distribution of the waveform into the feature parameter for the male and female representative vocalized voices are stored into a storing part 16. For a signal gathered by a microphone 11, 4.2kHz or above is cut through an amplifier 12 by a low-pass filter 13, the signal is made into a digital signal with a sampling frequency 10kHz and a conversion bit number 16 bits by an A/D converter 14, and it is sent into a parameter calculating part 15. The referring axis crossing number and the value related to the amplitude distribution of the waveform are calculated as the feature parameter. Next, the feature parameter and the standard pattern of the dictionary data are compared by a deciding part 17, and the male and female voices are identified.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、男女声の識別方法に関する。[Detailed description of the invention] [Industrial application field] The present invention relates to a method for identifying male and female voices.

[従来の技術] 従来、男女声を識別する方法としては、特開昭61−2
7600号公報に記載される如くのピッチ周波数の男女
差を用いるもの、あるいは特開昭60−l[12298
号公報に移載される如くの第1および第2ホルマント周
波数の男女差を用いるもの等がある。
[Prior Art] Conventionally, as a method for identifying male and female voices,
7600, which uses the difference in pitch frequency between men and women, or JP-A-60-1 [12298]
There is a method using the difference between men and women in the first and second formant frequencies, as reprinted in the above publication.

[発明か解決しようとする課U] しかしながら、上記のいずれの方法も、複雑で演算時間
が長く、さらに男女声の周波数軸上ての重なりの部分か
大きいために識別能力が高いとは言えず一般用途への展
開に困難がある。
[Invention or problem to be solved U] However, none of the above methods can be said to have high discrimination ability because they are complicated and take a long calculation time, and the overlap between male and female voices on the frequency axis is large. There are difficulties in developing it for general use.

また、ホルマント周波数による識別方法にあっては、専
用のハードウェア(複数のバンドパスフィルタ)を用い
てホルマン1〜周波数を検出することにより演算時間を
短縮てきるが、ホルマントではない極をホルマントの極
として誤検出することがあり、高い識別能力を期待でき
ない。
In addition, in the identification method based on formant frequency, calculation time can be shortened by detecting the formant frequency using dedicated hardware (multiple band-pass filters), but the non-formant poles are It may be falsely detected as a pole, and high discrimination ability cannot be expected.

本発明は、男女声を識別するに際し、簡易な方法で高い
識別能ツノを達成することを目的とする。
An object of the present invention is to achieve high discrimination ability using a simple method when identifying male and female voices.

〔5Bを解決するだめの手段] 請求項1に記載の本発明は、入力信号の参照軸交差数と
波形の振幅分布に関する値とを特徴パラメータとして算
出し、この算出結果を、男女の有声音の辞書データと比
較し、入力信号が男女いずれの発声によるものかをFl
定するようにしたものである。
[Means for Solving Problem 5B] The present invention according to claim 1 calculates the number of reference axis crossings of the input signal and the value related to the amplitude distribution of the waveform as characteristic parameters, and uses this calculation result as a Fl
It was designed so that

請求項2に記載の本発明は、前記波形の振幅分布に関す
る値として、例えば次式て表わされる波高値Pを用いる
ようにしたものである。
According to a second aspect of the present invention, a wave height value P expressed by the following equation is used as a value related to the amplitude distribution of the waveform.

P = 20x Iog+o(Vp/Vr+w*)たた
し、 V p ニ一定時間間隔内の振幅の絶対値の最大
値 V 1BB +同一定時間間隔内の振幅の実効値 請求項3に記載の本発明は、前記波形の振幅分布に関す
る値として、例えば次式て表わされる波高値Pを用いる
ようにしたものである。
P = 20x Iog+o(Vp/Vr+w*), where V p is the maximum absolute value of the amplitude within a certain time interval V 1BB + the effective value of the amplitude within the same certain time interval. In this example, a wave height value P expressed by the following equation is used as a value related to the amplitude distribution of the waveform.

P = 20x log+o(Vp/Va)たたし、v
P;一定時間間隔内の振幅の絶対値の最大値 v4:同一定時間間隔内の振幅の 絶対値の平均値 請求項4に記載の本発明は、前記波形の振幅分布に関す
る値として振幅か一定時間間隔内に実効値を目安とする
しきい値を越える時間(超基準振幅時間と呼ぶ)を用い
るようにしたものである。
P = 20x log+o(Vp/Va), v
P: maximum value of the absolute value of the amplitude within a certain time interval v4: average value of the absolute value of the amplitude within the same certain time interval This method uses the time (referred to as super-standard amplitude time) during which the effective value exceeds a threshold value within a time interval.

[作用コ 請求項1に記載の本発明にあっては、男女声を以下の如
く識別する。なお、本発明にあっては、有声音(母音、
半母音、鼻音等の声帯の振動をともなう音てあり、人間
が発声する殆どすべての音声には有声音が含まれ“Cい
る)をもって音声とする。
[Operations] In the present invention as set forth in claim 1, male and female voices are identified as follows. In addition, in the present invention, voiced sounds (vowels,
There are sounds that involve vibration of the vocal cords, such as semi-vowels and nasal sounds, and almost all sounds produced by humans include voiced sounds and are considered to be speech.

(1)男声と女声について、それらの信号の一定時間間
隔内における参照軸交差数(零レベル等、予め定めた参
!IC(レベルを横切る回数)と波形の振幅分布に関す
る値とを特徴パラメータとする辞Mデータを用意する。
(1) For male and female voices, the number of reference axis crossings (such as zero level, etc.) within a certain time interval and the value related to the waveform amplitude distribution are defined as characteristic parameters. Prepare the word M data to be used.

なお、上記辞書データは、音響データを特徴パラメータ
化した数値データ、数値データを統計処理した平均値、
分散等の統計的データ、もしくは統計的データに基づい
て定まる境界方程式等の判別式データ等の各種態様にて
川、0てきる。
Note that the above dictionary data includes numerical data obtained by converting acoustic data into feature parameters, average values obtained by statistical processing of numerical data,
The value can be determined in various ways, such as statistical data such as dispersion, or discriminant data such as a boundary equation determined based on statistical data.

(2)入力信号を採取し、この入力信号の一定時間間隔
内における参照軸交差数と波形の振幅分布に関する値と
を特徴パラメータとして算出する。
(2) An input signal is sampled, and the number of reference axis crossings within a certain time interval of this input signal and the value related to the amplitude distribution of the waveform are calculated as characteristic parameters.

(3)上記(2)で算出した特徴パラメータと、上記(
11で定めた辞書データが規定する標準パターンとを、
パラメータ空間上で比較し、入力信号か男声か女声かを
パターン認識により判定する。
(3) The feature parameters calculated in (2) above and the above (
The standard pattern defined by the dictionary data defined in 11.
Comparisons are made in the parameter space, and pattern recognition is used to determine whether the input signal is a male or female voice.

すなわち、辞書データて規定されるカテゴリー「男声」
とカテゴリー「女声」とてパラメーター空間は2分され
、−f役的なパターン認識方法を用いて、人力音声の特
徴パラメータがどちらのカテゴリーに屈するかを判定す
ることによって男声が女声かを判定する。なお、辞書デ
ータは代表的な有声音についての十分な数の特徴パラメ
ータの組である。
In other words, the category "male voice" defined by dictionary data
and the category "female voice", the parameter space is divided into two, and by using a -f-like pattern recognition method, it is determined whether a male voice is a female voice by determining which category the characteristic parameters of the human voice fall into. . Note that the dictionary data is a set of a sufficient number of feature parameters for representative voiced sounds.

しかし゛C,請求項1に記載の本発明にあっては、特徴
パラメータとして参照軸交差数と波形の振幅分布に関す
る値の2つのパラメータを用いたから、カテゴリー「男
声」とカテゴリー「女声」とをパラメータ空間において
明瞭に分離できる。
However, in the present invention recited in claim 1, two parameters, the number of reference axis crossings and the value related to the amplitude distribution of the waveform, are used as feature parameters, so the category "male voice" and the category "female voice" are separated. Can be clearly separated in parameter space.

したかって、男声と女声とを高い識別率で簡易に識別で
きる。
Therefore, male voices and female voices can be easily identified with a high identification rate.

請求項2に記載の本発明によれば、波形の振幅分布に関
する値として、前述した如くの波高値を用いたから、波
形の先鋭度において男女間で顕著な差を呈するパラメー
タ値を用いることとなり、男女声の識別性が向上すると
いうメリットかある。
According to the present invention as set forth in claim 2, since the wave height value as described above is used as the value related to the amplitude distribution of the waveform, a parameter value that exhibits a remarkable difference between men and women in the sharpness of the waveform is used, This has the advantage of improving the discrimination between male and female voices.

請求項3に記載の本発明によれば、波形の振幅分布に関
する値として、前述した如くの波高値を用いたから、請
求項2に記載の本発明に比して演算量を少なくてき、か
つ波形の先鋭度において男女間て顕著な差を呈するパラ
メータ値を用いることとなり、男女声の識別性が向上す
るというメリットかある。なお、演算量か少ないという
ことは応答速度か速いことを特徴する 請求項4に記載の本発明によれば、波形の振幅分布に関
する値として、前述した如くの超基準振幅時間を用いた
から、請求項2または3に記載の本発明に比して演算量
をより少なくできるというメリッ1−かある。
According to the present invention as set forth in claim 3, since the above-mentioned wave height value is used as the value related to the amplitude distribution of the waveform, the amount of calculation is reduced compared to the present invention as set forth in claim 2, and the waveform This method uses parameter values that exhibit a noticeable difference between men and women in terms of sharpness, which has the advantage of improving the distinguishability of male and female voices. According to the present invention as set forth in claim 4, in which a small amount of calculation means a fast response speed, the super-standard amplitude time as described above is used as the value related to the amplitude distribution of the waveform. Compared to the present invention described in item 2 or 3, there is an advantage 1- that the amount of calculation can be further reduced.

[実施例] 第1図は本発明の実施に用いられる男女意識別装置の一
例を示すブロック図、第2図は本発明の特徴パラメータ
によって形成されるパラメータ空間を示す模式図である
[Embodiment] FIG. 1 is a block diagram showing an example of a gender discrimination device used for implementing the present invention, and FIG. 2 is a schematic diagram showing a parameter space formed by characteristic parameters of the present invention.

第1図において、11はマイク、12は増幅器、13は
ローパスフィルタ、14はA/Dコンバータ、15はパ
ラメータ計算部、16は辞書データ記憶部、17は判定
部、18は結果出力部である。この実施例にあっては、
男女声を以下の如く検出する。
In FIG. 1, 11 is a microphone, 12 is an amplifier, 13 is a low-pass filter, 14 is an A/D converter, 15 is a parameter calculation section, 16 is a dictionary data storage section, 17 is a judgment section, and 18 is a result output section. . In this example,
Male and female voices are detected as follows.

(1)男女の代表的な有声音[ア]について、それらの
信号の20m5間における参照軸交差数×1と、波形の
振幅分布に関する値×2とを特徴パラメータとする辞書
データを用意し、これを辞書データ記憶部16に記憶せ
しめる。
(1) For the representative voiced sound [a] of men and women, prepare dictionary data whose feature parameters are the number of reference axis crossings in 20 m5 of these signals x 1 and the value regarding the amplitude distribution of the waveform x 2, This is stored in the dictionary data storage section 16.

ここて、波形の振幅分布に関する値×2としては、下記
■、■、■のいずれかを用いることができる。
Here, as the value x 2 regarding the amplitude distribution of the waveform, any one of the following ■, ■, and ■ can be used.

■下式て表わされる波高値P。■The wave height value P expressed by the following formula.

P = 20x log+o(Vp/vt、sslたた
し、vpコニ−時間間隔内の振幅の絶対値の最大値 vr□ ;同一定時間間隔内の振幅の 実効値 ■下式て表わされる波高値P。
P = 20x log + o (Vp/vt, ssl plus vpcony - Maximum absolute value of amplitude within the time interval vr □ ; Effective value of amplitude within the same fixed time interval■ Peak value P expressed by the following formula .

p = 20 x log+o (Vp/v、またたし
、vPコニ−時間間隔内の振幅の絶対値の最大値 v6:同一定時間間隔内の振幅の 絶対値の平均値 ■振幅か一定時間間隔内に実効値を目安どするしきい値
を越える時間(超基檗振幅時間)。
p = 20 x log + o (Vp/v, also vPcony - Maximum absolute value of amplitude within a time interval v6: Average value of absolute value of amplitude within the same fixed time interval ■ Amplitude or within a fixed time interval The time required to exceed the threshold value for determining the effective value (super amplitude time).

上記■の波高値を用いる場合には、波形の先鋭度におい
て男女間て顕著な差を呈するパラメータ値を用いること
となり、男女声の識別性か向上するというメリットがあ
る。
When using the wave height value of (2) above, a parameter value that exhibits a significant difference between men and women in the sharpness of the waveform is used, which has the advantage of improving the discriminability of male and female voices.

ト記■の波高値を用いる場合には、上記■の波高値に比
して演算量を少なくでき、かつ波形の先鋭度において男
女間で顕著な差を呈するパラメータ値を用いることとな
り、男女声の識別性が向上するというメリットがある。
When using the wave height value in (■) above, the amount of calculation can be reduced compared to the wave height value in (■) above, and a parameter value that exhibits a noticeable difference between men and women in the sharpness of the waveform is used. This has the advantage of improving identifiability.

上記■の波高値を用いる場合には、上記■、■の波高値
に比して演算量をより少なくできるというメリットがあ
る。
When using the wave height value of (2) above, there is an advantage that the amount of calculation can be reduced compared to the wave height values (2) and (4) above.

(2)マイク11にて人力口F)を採取し、この人力信
号を、増幅器12て増幅し、ローパスフィルタ13を通
すことによっ°r4.2KIIz以上の成分はカットし
、A/Dコンバータ14によって標本化周波数10KI
Iz 、変換ビット数16bitのデジタル信号に変換
し、パラメータ計算部15に送り込む。
(2) Collect the human input signal F) with the microphone 11, amplify this human input signal with the amplifier 12, pass it through the low-pass filter 13 to cut off components of °r4.2KIIz or more, and send it to the A/D converter 14. The sampling frequency is 10KI by
Iz is converted into a digital signal with a conversion bit count of 16 bits and sent to the parameter calculation section 15.

パラメータ計算部15は、上記人力信号のZ O+n 
S l!flにおける参照軸交差数×1と、波形の振幅
分布に関する値×2とを特徴パラメータとして算出する
The parameter calculation unit 15 calculates Z O+n of the human input signal.
Sl! The number of reference axis crossings in fl×1 and the value regarding the amplitude distribution of the waveform×2 are calculated as feature parameters.

(3)上記(2)て算出した特徴パラメータと、上記(
11て定めた辞書データか規定する標準パターンとを、
判定部17において比較し、人力信号が男声か女声かを
判定し、この判定結果を結果出力部18から出力する。
(3) The feature parameters calculated in (2) above and the above (
11, the dictionary data or the standard pattern specified in
The determination unit 17 compares and determines whether the human input signal is a male voice or a female voice, and outputs the determination result from the result output unit 18.

ここて、前述の辞書データを用いたパターン認。Here, pattern recognition is performed using the aforementioned dictionary data.

識は、例えば第2図のパラメータ空間上て以下の如くな
される。
The identification is made, for example, on the parameter space shown in FIG. 2 as follows.

すなわち、第2図は零交差数(参照軸レベルを零レベル
に設定したもの)と波高値の2つの特徴パラメータをそ
れぞれXl軸と×2軸にとったものである。第2図にお
いて、μlx  I++ σ12はσ それぞれ男声の辞書パラメータの平均値、xtN成分の
標準偏差、×22成分の標準偏差を表わし、μ2、σ、
1、σ22はそれぞれ女声の辞書パラメータについての
同様の値を表わす。
That is, in FIG. 2, two characteristic parameters, the number of zero crossings (the reference axis level is set to zero level) and the peak value, are plotted on the Xl axis and the x2 axis, respectively. In Figure 2, μlx I++ σ12 represents the average value of the male voice dictionary parameters, the standard deviation of the xtN component, and the standard deviation of the ×22 component, and μ2, σ,
1 and σ22 represent similar values for female voice dictionary parameters, respectively.

破線Aはμとσで規定されるカテゴリー「男声」の概念
を表わし、破線Bは同カテゴリー「女声」の概念を表わ
す。
A broken line A represents the concept of the category "male voice" defined by μ and σ, and a broken line B represents the concept of the same category "female voice."

また、境界Cは特徴パラメータ空間をカテゴリー「ソ(
声」とカテゴリー「女声Jに2分する境界であり、男声
のMnデータの平均値μmを含む側がカテゴリー「男声
」となる。境界Cはカテゴリー「男声」とカテゴリー「
女声」に対する尤度か等しい点の集まりである。この実
施例の場合には、男声辞9データの標準偏差か、女声辞
書データの標準偏差より小さいのて、カテゴリー「男声
」が閉した空間になっている。計算部15に取り込まれ
た入力音声か□ら算出された特徴パラメータか特徴パラ
メータ空間上で上記の境界Cのμm側に属した時、入力
音声が男声であると判定する。
In addition, the boundary C defines the feature parameter space with the category “So(
This is the boundary dividing the category "female voice J" into the category "female voice J," and the side containing the average value μm of the Mn data of the male voice is the category "male voice." Boundary C is between the category “male voice” and the category “
It is a collection of points that have the same likelihood for "female voice". In the case of this embodiment, the category "male voice" is a closed space because the standard deviation of the male voice dictionary data is smaller than the standard deviation of the female voice dictionary data. When the feature parameter calculated from the input voice taken into the calculation unit 15 belongs to the μm side of the above boundary C on the feature parameter space, it is determined that the input voice is a male voice.

しかして、上記実施例にあっては、特徴パラメータとし
て参照軸交差数と波形の振幅分布に関する値の2つのパ
ラメータを用いたから、カテゴリー「男声」とカテゴリ
ー「女声」とをパラメータ空間において明瞭に分離でき
る。したがって、男声と女声とを高い識別率で簡易に識
別できる。
However, in the above embodiment, since two parameters, the number of reference axis crossings and the value related to the amplitude distribution of the waveform, are used as feature parameters, the category "male voice" and the category "female voice" can be clearly separated in the parameter space. can. Therefore, male voices and female voices can be easily identified with a high identification rate.

さらに、上記特徴パラメータは、特別なハードウェアを
用いることなく短い演算時間で算出でき、一般用途への
展開が容易である。
Furthermore, the above feature parameters can be calculated in a short calculation time without using special hardware, and can be easily applied to general applications.

なお、上記実施例においては、特徴パラメータ空間上で
標準パターンを規定する境界線として2つのカテゴリー
に対する尤度か等しくなる点の集まりを用いたが、本発
明の実施においては、もちろん他の一般的なパターン認
識の手法を用いることがてきる0例えば、カテゴリー「
男声」とカテゴリー「女声」に対する尤度が等しくなる
点の集まりの代わりに、Maharanobis距離や
Euclid距離か等しくなる点の集まり等を用いるこ
とができる。
In the above embodiment, a collection of points with equal likelihoods for two categories was used as the boundary line defining the standard pattern on the feature parameter space, but of course other general methods may be used in implementing the present invention. For example, if the category ``
Instead of a collection of points that have the same likelihood for the category "male voice" and the category "female voice," a collection of points that have the same Maharanobis distance or Euclid distance can be used.

[発明の効果] 以]二のように本発明によれば、男女声を識別するに際
し、短い演算時間かつ特別のハードウェアを用いないa
!2な方法て、高い識別能力を達成することかてきる。
[Effects of the Invention] As described in [2] above, according to the present invention, it is possible to identify male and female voices in a short calculation time and without using special hardware.
! There are two ways to achieve high discrimination ability.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の実施に用いられる男女声識別装:rt
の一例を示すブロック図、第2図は本発明の特徴パラメ
ータによって形成されるパラメータ空間を示す模式図で
ある。 11・・・マイク、 15・・・パラメータ計算部、 16・・・辞Mデータ記憶部、 17・・・↑−リ定部、 18・・・結果出力部。 第1図 第2図 特許出願人 積水化学工業株式会社 代表者  廣1)馨
Figure 1 shows a male and female voice identification device used to implement the present invention: rt
FIG. 2 is a block diagram showing an example of the above, and FIG. 2 is a schematic diagram showing a parameter space formed by the characteristic parameters of the present invention. DESCRIPTION OF SYMBOLS 11... Microphone, 15... Parameter calculation part, 16... M data storage part, 17... ↑-reference part, 18... Result output part. Figure 1 Figure 2 Patent applicant: Sekisui Chemical Co., Ltd. Representative Hiroshi 1) Kaoru

Claims (4)

【特許請求の範囲】[Claims] (1)入力信号の参照軸交差数と波形の振幅分布に関す
る値とを特徴パラメータとして算出し、この算出結果を
、男女の有声音の辞書データと比較し、入力信号が男女
いずれの発声によるものかを判定する男女声の識別方法
(1) Calculate the number of reference axis crossings of the input signal and the value related to the amplitude distribution of the waveform as characteristic parameters, and compare the calculation results with dictionary data of male and female voiced sounds to determine whether the input signal is uttered by either a male or a female voice. A method for identifying male and female voices.
(2)前記波形の振幅分布に関する値として一定時間間
隔内の振幅の絶対値の最大値に対する該一定時間間隔内
の振幅の実効値の比で表わされる波高値を用いる請求項
1記載の男女声の識別方法。
(2) The male and female voices according to claim 1, wherein the value regarding the amplitude distribution of the waveform is a peak value expressed as a ratio of the effective value of the amplitude within the certain time interval to the maximum value of the absolute value of the amplitude within the certain time interval. How to identify.
(3)前記波形の振幅分布に関する値として一定時間間
隔内の振幅の絶対値の最大値に対する該一定時間間隔内
の振幅の絶対値の平均値の比で表わされる波高値を用い
る請求項1記載の男女声の識別方法。
(3) The wave height value expressed as the ratio of the average value of the absolute value of the amplitude within the certain time interval to the maximum value of the absolute value of the amplitude within the certain time interval is used as the value related to the amplitude distribution of the waveform. How to identify male and female voices.
(4)前記波形の振幅分布に関する値として振幅が一定
時間間隔内に実効値を目安とするしきい値を越える時間
を用いる請求項1記載の男女声の識別方法
(4) The method for identifying male and female voices according to claim 1, wherein the value related to the amplitude distribution of the waveform is a time period during which the amplitude exceeds a threshold value based on an effective value within a certain time interval.
JP63251416A 1988-10-05 1988-10-05 How to identify male and female voices Expired - Lifetime JP2557497B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63251416A JP2557497B2 (en) 1988-10-05 1988-10-05 How to identify male and female voices

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63251416A JP2557497B2 (en) 1988-10-05 1988-10-05 How to identify male and female voices

Publications (2)

Publication Number Publication Date
JPH0298000A true JPH0298000A (en) 1990-04-10
JP2557497B2 JP2557497B2 (en) 1996-11-27

Family

ID=17222521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63251416A Expired - Lifetime JP2557497B2 (en) 1988-10-05 1988-10-05 How to identify male and female voices

Country Status (1)

Country Link
JP (1) JP2557497B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058191A (en) * 2001-08-10 2003-02-28 Dainippon Printing Co Ltd Frequency analyzing method and encoding method for acoustic signal

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5852696A (en) * 1981-09-25 1983-03-28 大日本印刷株式会社 Voice recognition unit
JPS6127600A (en) * 1984-07-17 1986-02-07 日本電気株式会社 Voice identification circuit
JPS6280960U (en) * 1985-11-12 1987-05-23

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5852696A (en) * 1981-09-25 1983-03-28 大日本印刷株式会社 Voice recognition unit
JPS6127600A (en) * 1984-07-17 1986-02-07 日本電気株式会社 Voice identification circuit
JPS6280960U (en) * 1985-11-12 1987-05-23

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058191A (en) * 2001-08-10 2003-02-28 Dainippon Printing Co Ltd Frequency analyzing method and encoding method for acoustic signal

Also Published As

Publication number Publication date
JP2557497B2 (en) 1996-11-27

Similar Documents

Publication Publication Date Title
JP6758890B2 (en) Voice discrimination device, voice discrimination method, computer program
KR101008022B1 (en) Voiced sound and unvoiced sound detection method and apparatus
JPS60200300A (en) Voice head/end detector
JPH0298000A (en) Method for identifying male and female voices
JPS60114900A (en) Voice/voiceless discrimination
Niederjohn et al. Computer recognition of the continuant phonemes in connected English speech
JPH04324499A (en) Speech recognition device
JP2968976B2 (en) Voice recognition device
JPH0285898A (en) Voice detecting system
JPH0285897A (en) Voice detecting system
JP2658104B2 (en) Voice recognition device
JPH0316038B2 (en)
JPS61260299A (en) Voice recognition equipment
JPH0285896A (en) Voice detecting system
JP2599974B2 (en) Voice detection method
JP2891259B2 (en) Voice section detection device
CN112863487A (en) Voice recognition method and device and electronic equipment
JPS58190999A (en) Voice recognition equipment
JPS6193499A (en) Voice pattern collation system
JPS6335995B2 (en)
JPS59124392A (en) Voice recognition system
JPS63235999A (en) Voice initial end detector
JPS59205680A (en) Pattern comparator
JPS6336679B2 (en)
JPS6069694A (en) Segmentation of head consonant