JP2023121327A - 騒音特定装置、騒音特定方法 - Google Patents

騒音特定装置、騒音特定方法 Download PDF

Info

Publication number
JP2023121327A
JP2023121327A JP2022024604A JP2022024604A JP2023121327A JP 2023121327 A JP2023121327 A JP 2023121327A JP 2022024604 A JP2022024604 A JP 2022024604A JP 2022024604 A JP2022024604 A JP 2022024604A JP 2023121327 A JP2023121327 A JP 2023121327A
Authority
JP
Japan
Prior art keywords
noise
unit
features
bark
analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022024604A
Other languages
English (en)
Inventor
昌幸 高田
Masayuki Takada
真巳 中村
Masami Nakamura
哲 宮田
Satoru Miyata
義仁 木下
Yoshihito Kinoshita
真哉 三原
Shinya Mihara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2022024604A priority Critical patent/JP2023121327A/ja
Publication of JP2023121327A publication Critical patent/JP2023121327A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

【課題】鳥類の鳴き声の周波数変化を検出して、鳴き声の変化に及ぼす騒音影響を調査可能な騒音特定装置および騒音特定方法を提供すること。【解決手段】本発明にかかる騒音特定装置10は、取得部101、解析部102、記憶部103、抽出部104、出力部105を備えている。解析部102は、音声データから動物の種別ごとの鳴き声、騒音を認識し、認識した鳴き声の特徴および認識した騒音の特徴として解析する。記憶部103は、動物の種別ごとに参照用の鳴き声の特徴を記憶する。抽出部104は、解析部102より得られた鳴き声の特徴と記憶部103の鳴き声の特徴を比較して差異を抽出する。出力部105は、抽出部104における抽出した鳴き声の特徴の差異が所定値以上である場合は、解析部102より得られた鳴き声の特徴に対して、収音された際の状況および解析部102により得られた騒音の特徴と、を関連付けて、出力する。【選択図】図1

Description

本発明は、騒音特定装置、騒音特定方法に関する。
鳥類の雄は、自らの鳴き声により雌にアピールする。田園部に比べて都市部の鳥類は、騒音により繁殖のための鳴き声を妨害されている。繁殖失敗を回避するため、鳥類に与える騒音の影響を調査することが求められる。
特許文献1には、親鳥の異常挙動より騒音の影響を判定している方法が記載されている。親鳥が巣に不在な期間、頭部の動き、頻繁な巣の出入りなどを確認することで異常挙動であるかを分析して、異常挙動を示した原因が工事による騒音の影響であるかを判定している。
特開2008-158745号公報
上述した特許文献1では、鳥類の行動から騒音の影響を調査している。本来、鳥類の雄は雌にアピールする際に、騒音にかき消されないように鳴き声を変化させている。そのため、直接、鳴き声の変化を測定すれば騒音の影響を調査できる。しかし、適切な音声解析技術がなかった。
本発明は、このような事情に鑑みなされたものであって、鳥類の鳴き声の周波数変化を検出して、鳴き声の変化に及ぼす騒音影響を調査可能な騒音特定装置および騒音特定方法を提供することを目的とする。
本発明にかかる騒音特定装置は、収音部によって収音された音声データを、収音された際の状況と共に取得する取得部と、前記取得部で取得した音声データから動物の種別ごとの鳴き声および騒音を認識し、前記認識した鳴き声の特徴および前記認識した騒音の特徴として解析する解析部と、動物の種別ごとに参照用の鳴き声の特徴を記憶する記憶部と、
前記解析部により得られた鳴き声の特徴と前記参照用の鳴き声の特徴を比較して差異を抽出する抽出部と、前記差異が所定値以上である場合は、前記解析部によって得られた鳴き声の特徴に対して、前記取得部が取得した前記収音された際の状況および前記解析部で得られた騒音の特徴と、を関連付けて、出力する出力部と、を備えることを特徴とするものである。
本発明にかかる騒音特定装置は、鳴き声の変化を検出して周囲の騒音と照合することで、鳴き声の変化に及ぼす騒音種別や騒音音量との相関を取り、騒音影響を調査することができる。
本発明にかかる騒音特定方法は、コンピュータが、収音部によって収音された音声データを、収音された際の状況と共に取得するステップと、取得した音声データから動物の種別ごとの鳴き声および騒音を認識し、前記認識した鳴き声の特徴および前記認識した騒音の特徴として解析するステップと、動物の種別ごとに参照用の鳴き声の特徴を記憶するステップと、解析によって得られた鳴き声の特徴と前記参照用の鳴き声の特徴を比較して差異を抽出するステップと、抽出した鳴き声の特徴の差異が所定値以上である場合は、解析によって得られた鳴き声の特徴に対して、取得した前記収音された際の状況および解析によって得られた騒音の特徴と、を関連付けて、出力するステップ、を実行することを特徴とするものである。
本発明にかかる騒音特定方法により、鳴き声の変化を検出して周囲の騒音と照合することで、鳴き声の変化に及ぼす騒音種別や騒音音量との相関を取り、騒音影響を調査することができる。
本発明により、鳥類の鳴き声の周波数変化を検出して、鳴き声の変化に及ぼす騒音影響を調査可能な騒音特定装置および騒音特定方法を提供することができる。
実施形態1に係る騒音特定装置を例示したブロック図である。 実施形態1に係る騒音特定方法を例示したフローチャートである。 実施形態2に係る騒音特定装置を例示したブロック図である。 実施形態2に係る騒音特定装置を例示したフローチャートである。 実施形態3に係る騒音特定装置を例示したブロック図である。
以下、図面を参照して本発明の実施の形態について説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。また、図面が煩雑にならないように、いくつかの符号は省略されている。
(実施形態1)
<騒音特定装置>
まず、実施形態1に係る騒音特定装置10を説明する。図1は、実施形態1に係る騒音特定装置10を例示したブロック図である。騒音特定装置10は、取得部101と解析部102、記憶部103および抽出部104、出力部105を備えている。
取得部101は、所定領域における異なる位置に設けられた複数の収音部によって収音された音声データを取得する。収音部は、所定領域に設置された単一のマイク素子を有するマイクロホンであってもよい。よって,複数のマイクロホンが複数の収音部となる。または、複数の収音部は、複数のマイク素子を有するマイクアレイでもよい。所定領域とは、例えば都市部・工場地帯・繁華街などにおける同種の騒音が発生する範囲を表す。所定領域は、特定の都市や地域であっても良く、特定の都市や地域内において同種の騒音が発生する範囲であってもよい。取得する音声データには、動物の鳴き声および環境音が含まれる。環境音は、周囲騒音などである。取得部101は、音声データを収音した所定領域やマイクの設置場所などに関する情報、季節や昼夜などの日時情報を、音声データと共に、収音された際の状況として取得する。
解析部102は、取得部101で取得した音声データから、動物の鳴き声および騒音を認識し、また認識した動物の鳴き声および騒音を用いて、鳴き声の特徴と騒音の特徴として解析する。取得部101で取得した音声データのうち、動物の鳴き声は、解析部102により、公知の音声認識技術を用いて、解析される。解析部102は、鳴き声を発した動物を、動物の種別ごとに認識し、音量、周波数、鳴き声の長さ、抑揚などの特徴を、認識した動物の種別ごとに分類して、鳴き声の特徴として解析する。このとき、動物の種別ごとに解析可能であることが好ましい。また、繁殖期であることによる鳴き声の変化を季節パラメータとして考慮することもできる。同様に、取得部101で取得した音声データのうち、周囲騒音などの環境音は、解析部102により、既存の音声認識技術を用いて、解析される。解析部102は、周囲騒音を騒音の種別ごとに認識し、音量、周波数、音の継続時間、などの特徴を、騒音の種別ごとに分類して、解析して騒音の特徴として解析する。このとき、人の発話、歌、叫び声や歓声なども騒音の種別に含まれてもよい。解析部102の解析によって得られた特徴を解析特徴(解析済み特徴)ともいう。
解析部102における音声解析は、公知技術となっている認識手法を用いて、動物の鳴き声および騒音を認識し、さらに鳴き声の特徴と騒音の特徴として解析する。例えば、ニューラルネットワークを用いた音声認識手法がある。例えば、鳥の鳴き声の音声波形データを、鶯である場合に1、そうでなければ0となる教師信号とセットにして学習用データとし、これを用いて学習済モデルを生成する。解析部102は、このように生成された学習済モデルを備えており、学習済モデルに取得した音声データを入力したときに、例えば0.8以上の値が出力されれば、鶯の鳴き声であると判定する。ホトトギス、フクロウなどの動物の種別ごと、工場の稼働音、都市騒音、人の発話などの騒音の種別ごとに、学習済モデルを生成可能である。また取得した音声データが鶯の鳴き声であると判定された場合、その音声波形データの音量、周波数、鳴き声の長さ、抑揚などを、同様に公知技術を用いて解析し、解析された鶯の鳴き声特徴として出力する。同様にホトトギスの鳴き声、工場の稼働音などの特徴として出力可能である。
記憶部103は、動物の種別ごとに一般的な鳴き声の特徴を記憶する。記憶部103は、騒音特定装置10に内蔵されていてもよく、通信可能なサーバ(図示してない)に置かれたデータベースでも構わない。また、記憶部103は、鳥類の一般的な鳴き声の周波数や自然豊かな環境における鳴き声の周波数範囲に関する情報を記憶したデータベースに限定されることなく、音量、鳴き声の長さ、抑揚、などの特徴に関する情報が記憶されていてもよい。記憶部103に記憶されている特徴を参照用特徴(参照特徴)ともいう。
抽出部104は、解析部102で得られた鳴き声の特徴(解析済み特徴)と記憶部103より引用する鳴き声の特徴(参照特徴)を比較して差異を抽出する。このとき、解析済み特徴と参照特徴における差異は、周波数、音量、鳴き声の長さ、抑揚における差異を表す。ここで、解析済み特徴と参照特徴における差異に関して、周波数の差異は生じているが、音量の差異は生じていない場合が考えられる。この場合、解析済み特徴と参照特徴における差異は、周波数の差異を表す。すなわち、抽出部104においては、周波数、音量、鳴き声の長さ、抑揚のいずれか1つでも差異が生じている場合は、差異があると判定して、その差異を抽出する。このとき、解析済み特徴と参照特徴における差異を総じて差異Aと称する。例えば、解析済み特徴と参照特徴に関して、周波数の差異と抑揚の差異は生じているが、鳴き声の長さの差異は生じていない場合、差異Aは周波数と抑揚を表す。
また、解析部102は音声データを解析することで、鳴き声を発した動物の種別を特定することができる。抽出部104は特定された動物の種別の参照特徴を引用する。例えば、鳴き声を発した動物の種別が鶯である場合、抽出部104は、鶯の参照特徴を読み出す。抽出部104は鶯の参照特徴と解析済み特徴と比較して、差異を求める。このように、抽出部104は、特定された動物の種別に応じた参照特徴を用いて、差異を求める。
出力部105は、抽出部104における抽出した鳴き声の特徴の差異Aが所定値以上である場合は、解析部102により得られた鳴き声の特徴に対して、取得部101における鳴き声を収音した状況および解析部102で得られた騒音の特徴と、を関連付けて、出力する。ここで、所定値A0は、周波数、音量、鳴き声の長さ、抑揚の所定値を総じて荒らしている。例えば、解析部102で得られた鳴き声の特徴と記憶部103より引用する鳴き声の特徴における差異に関して、周波数の差異と抑揚の差異は生じているが、音量の差異は生じていない場合、所定値A0は周波数と抑揚を表す。出力部105における出力は、モニターなどの視覚で認識できる端末を想定しているが、データベースや他機器でも構わない。
<騒音特定方法>
続いて、実施形態1に係る騒音特定方法を説明する。図2は、実施形態1に係る騒音特定方法を例示したフローチャートである。
まず、取得部101は、所定領域における異なる位置に設けられた複数の収音部により動物の鳴き声および周囲騒音などの環境音に関する音声データを取得する(ステップST1)。取得部101により取得した音声データは、解析部102により鳴き声の特徴と騒音の特徴として解析される(ステップST2)。続いて、抽出部104は、解析部102で得られた鳴き声の特徴と記憶部103より引用する鳴き声の特徴を比較して差異Aを抽出する(ステップST3)。出力部105は、抽出部104における抽出した鳴き声の特徴の差異Aが所定値A0以上であるかを判定する(ステップST4)。抽出部104における抽出した鳴き声の特徴の差異Aが所定値未満である場合(ステップST4NO)、所定領域における騒音は、動物の鳴き声に影響を及ばさないため、解析特徴と騒音を対応付けせずに、実施形態1に係る騒音特定方法を終了する。
一方で、抽出部104における抽出した鳴き声の特徴の差異Aが所定値以上である場合(ステップST4YES)、出力部105は、解析部102により得られた鳴き声の特徴に対して、取得部101における鳴き声を収音した状況および解析部102で得られた騒音の特徴と、を関連付けて、出力することを実行する(ステップST5)。
実施形態1に係る騒音特定装置を用いた騒音調査の一例を説明する。
取得部101が、K工場近辺の領域における収音部で音声を取得し、午後5時に、K工場の低い稼働音が生じていたとする。このとき、K工場近辺の領域における音声データを解析部102により解析した結果、ホトトギスの鳴き声であると判明した場合、抽出部104は、ホトトギスの鳴き声Nと記憶部103におけるデータベースと比較して音量や周波数の差異を抽出する。出力部105は、ホトトギスの鳴き声Nと記憶部103におけるデータベースの差異が生じている際には、ホトトギスの鳴き声Nに対して、「午後5時」、「K工場」、「工場の低い稼働音」の情報を関連付けてモニターあるいはデータベースに出力する。騒音の特徴には騒音の種別が含まれる。騒音種別は例えば、工場におけるモータなどの稼働音、車両の走行音、工事現場の工事音等の騒音源に関する情報を含んでいる。
取得部101が取得したK工場近辺の領域における音声に含まれるホトトギスの鳴き声と、記憶部103におけるデータベースとの差異が、定常的に生じている場合には、ホトトギスの鳴き声Nに対して、「K工場」の情報のみを関連付けてモニターあるいはデータベースに出力してもよい。
このように、実施形態1に係る騒音特定装置を用いることによって、鳴き声の変化を検出して周囲の騒音と照合することで、鳴き声の変化に及ぼす騒音種別や騒音音量との相関を取り、騒音影響を調査することができる。
(実施形態2)
実施形態2に係る騒音特定装置20を説明する。図3は、実施形態2に係る騒音特定装置20を例示したブロック図である。騒音特定装置20は、生息数取得部106、取得部101と解析部102、記憶部103および抽出部104、出力部105を備えている。騒音特定装置20における取得部101と解析部102、記憶部103および抽出部104は、実施形態1に係る騒音特定装置と同様であるため、説明を省略する。ここでは、生息数取得部106と出力部105について説明する。
生息数取得部106は、所定領域における動物の種別ごとの生息数を取得する。このとき、生息数取得部106は、既存のデータベース情報や、生息数に関する別調査の結果を図示しない通信部を介してインターネットなどから取得するか、記録媒体を介して取得する。
実施形態1に係る出力部105は、抽出部104における抽出した鳴き声の特徴の差異Aが所定値以上である場合は、解析部102により得られた鳴き声の特徴に対して、取得部101における鳴き声を収音した状況および解析部102で得られた騒音の特徴を関連付けて、出力するものであるのに対し、実施形態2に係る出力部105は、解析部102によって得られた鳴き声の特徴に対して、生息数取得部106により得られた生息数をさらに関連付けて、出力する。
実施形態2に係る騒音特定方法を説明する。図4は、実施形態2に係る騒音特定方法を例示したフローチャートである。
まず、生息数取得部106は、所定領域における所定領域における動物の種別ごとの生息数を取得する(ステップST01)。取得部101は、所定領域における異なる位置に設けられた複数の収音部により動物の鳴き声および周囲騒音などの環境音に関する音声データを取得する(ステップST02)。このとき、ステップST01とステップST02の順番は逆でも構わない。取得部101により取得した音声データは、解析部102により鳴き声の特徴と騒音の特徴として解析される(ステップST03)。続いて、抽出部104は、解析部102で得られた鳴き声の特徴と記憶部103より引用する鳴き声の特徴を比較して差異Aを抽出する(ステップST04)。出力部105は、抽出部104における抽出した鳴き声の特徴の差異Aが所定値A0以上であるかを判定する(ステップST05)。抽出部104における抽出した鳴き声の特徴の差異Aが所定値未満である場合(ステップST05NO)、所定領域における騒音は、動物の鳴き声に影響を及ばさないため、実施形態2に係る騒音特定方法を終了する。一方で、抽出部104における抽出した鳴き声の特徴の差異Aが所定値以上である場合(ステップST05YES)、出力部105は、解析部102により得られた鳴き声の特徴に対して、取得部101における鳴き声を収音した状況、生息数取得部106により取得した生息数情報および解析部102で得られた騒音の特徴を関連付けて、出力する(ステップST06)。
このように、実施形態2に係る騒音特定装置を用いて、生息数情報を合わせて取得することにより、鳴き声の変化に及ぼす騒音種別や騒音音量との相関に加えて生体数の変化を把握することができる。
(実施形態3)
実施形態3に係る騒音特定装置30を説明する。図5は、実施形態3に係る騒音特定装置30を例示したブロック図である。騒音特定装置30は、機械学習部300、生息数取得部106、取得部101、解析部102、記憶部103、抽出部104および出力部105を備えている。騒音特定装置30は、生息数取得部106を備えていなくてもよい。騒音特定装置30における生息数取得部106、取得部101、解析部102、記憶部103および抽出部104は、実施形態1および2に係る騒音特定装置と同様であるため、説明を省略する。ここでは、機械学習部300について説明する。
機械学習部300は、実施形態1および実施形態2における学習済モデルを生成する、ニューラルネットワークを備えた学習部である。機械学習部300は、鳥の鳴き声の音声波形データを、鶯である場合に1、そうでなければ0となる教師信号とセットにした学習用データを入力とし、鶯である確率を出力する、例えば誤差逆伝播学習法を用いた学習を行って、学習済モデルを生成する。
機械学習部300は、騒音の特徴または騒音の音声波形データを入力して、鳴き声の特徴の差異が所定値以上となる場合に1、そうでなければ0となる教師信号とセットにした学習用データを入力とし、鳴き声の特徴の差異が所定値以上となる確率を出力する学習を行って、学習済モデルを生成する。あるいは、機械学習部300は、生息数が所定値以上に減少するかどうか、を出力する学習済モデルを、同様にして生成する。ここで、鳴き声の特徴の差異や生息数が減少するかどうかの閾値となる所定値は事前に登録しておくこともできる。例えば、機械学習部300は、工場における高音の騒音があった場合には、「80%の確率で、ホトトギスは鳴き声が大きくなる」、「90%の確率で、ホトトギスの生息数が減少する」などと出力する。
このように、実施形態3に係る騒音特定装置を用いることによって、騒音が発生している際に、その騒音の種別により、動物の種別毎における鳴き声の変化と動物の種別毎における生息数の変化を正確に予想できる。
実施の形態1~3に係る騒音特定装置は、物理的に単一な装置に限られるものではない。つまり、騒音特定装置は、複数の装置に分散して配置されていてもよい。例えば,取得部101,解析部102、抽出部104等が物理的に単一のパーソナルコンピュータで構成され、出力部105がタブレット端末で構成されていてもよい。
また、上述した騒音特定装置10における処理の一部又は全部は、コンピュータプログラムとして実現可能である。このようなプログラムは、様々なタイプの非一時的なコンピュータ可読媒体を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
なお、本発明は上記実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
10、20、30 騒音特定装置
101 取得部
102 解析部
103 記憶部
104 抽出部
105 出力部
106 生息数取得部
300 機械学習部

Claims (4)

  1. 収音部によって収音された音声データを、収音された際の状況と共に取得する取得部と、
    前記取得部で取得した音声データから動物の種別ごとの鳴き声および騒音を認識し、前記認識した鳴き声の特徴および前記認識した騒音の特徴として解析する解析部と、
    動物の種別ごとに参照用の鳴き声の特徴を記憶する記憶部と、
    前記解析部により得られた鳴き声の特徴と前記参照用の鳴き声の特徴を比較して差異を抽出する抽出部と、
    前記差異が所定値以上である場合は、前記解析部によって得られた鳴き声の特徴に対して、前記取得部が取得した前記収音された際の状況および前記解析部で得られた騒音の特徴と、を関連付けて、出力する出力部と、を備える、
    騒音特定装置。
  2. 所定領域における動物の種別ごとの生息数を取得する生息数取得部をさらに備え、
    前記解析部によって得られた鳴き声の特徴に対して、前記生息数をさらに関連付けて、出力する
    請求項1に記載の騒音特定装置。
  3. 前記解析部で得られた騒音の特徴または前記認識した騒音を入力して、前記鳴き声の特徴の差異が所定値以上となるかどうか、あるいは、生息数が所定値以上に減少するかどうか、を出力することをニューラルネットワークにより学習する機械学習部をさらに備える
    請求項1または2に記載の騒音特定装置。
  4. コンピュータが、収音部によって収音された音声データを、収音された際の状況と共に取得するステップと、
    取得した音声データから動物の種別ごとの鳴き声および騒音を認識し、前記認識した鳴き声の特徴および前記認識した騒音の特徴として解析するステップと、
    動物の種別ごとに参照用の鳴き声の特徴を記憶するステップと、
    解析によって得られた鳴き声の特徴と前記参照用の鳴き声の特徴を比較して差異を抽出するステップと、
    抽出した鳴き声の特徴の差異が所定値以上である場合は、解析によって得られた鳴き声の特徴に対して、取得した前記収音された際の状況および解析によって得られた騒音の特徴と、を関連付けて、出力するステップ、を実行する
    騒音特定方法。
JP2022024604A 2022-02-21 2022-02-21 騒音特定装置、騒音特定方法 Pending JP2023121327A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022024604A JP2023121327A (ja) 2022-02-21 2022-02-21 騒音特定装置、騒音特定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022024604A JP2023121327A (ja) 2022-02-21 2022-02-21 騒音特定装置、騒音特定方法

Publications (1)

Publication Number Publication Date
JP2023121327A true JP2023121327A (ja) 2023-08-31

Family

ID=87798245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022024604A Pending JP2023121327A (ja) 2022-02-21 2022-02-21 騒音特定装置、騒音特定方法

Country Status (1)

Country Link
JP (1) JP2023121327A (ja)

Similar Documents

Publication Publication Date Title
Priyadarshani et al. Automated birdsong recognition in complex acoustic environments: a review
Heinicke et al. Assessing the performance of a semi‐automated acoustic monitoring system for primates
US10388279B2 (en) Voice interaction apparatus and voice interaction method
US10573307B2 (en) Voice interaction apparatus and voice interaction method
Clemins et al. Automatic classification and speaker identification of African elephant (Loxodonta africana) vocalizations
Andrei et al. Detecting Overlapped Speech on Short Timeframes Using Deep Learning.
EP1416471A1 (en) Device and method for judging dog s feeling from cry vocal c haracter analysis
JP2011081383A (ja) 動物−機械間音声相互作用システム
CN109817227B (zh) 一种养殖场的异常声音监测方法和系统
Brauer et al. A comparison of acoustic monitoring methods for common anurans of the northeastern United States
Milone et al. Computational method for segmentation and classification of ingestive sounds in sheep
Colonna et al. Feature evaluation for unsupervised bioacoustic signal segmentation of anuran calls
Chalmers et al. Modelling animal biodiversity using acoustic monitoring and deep learning
Vithakshana et al. IoT based animal classification system using convolutional neural network
CN110556098B (zh) 语音识别结果测试方法、装置、计算机设备和介质
Zwerts et al. Introducing a central African primate vocalisation dataset for automated species classification
CN115050372A (zh) 一种音频片段的聚类方法、装置、电子设备和介质
Goussha et al. HybridMouse: a hybrid convolutional-recurrent neural network-based model for identification of mouse ultrasonic vocalizations
Campos et al. Assemblage of Focal Species Recognizers—AFSR: A technique for decreasing false indications of presence from acoustic automatic identification in a multiple species context
Stattner et al. Acoustic scheme to count bird songs with wireless sensor networks
Balemarthy et al. Our practice of using machine learning to recognize species by voice
JP2023121327A (ja) 騒音特定装置、騒音特定方法
Weerasena et al. Continuous automatic bioacoustics monitoring of bird calls with local processing on node level
KR102113879B1 (ko) 참조 데이터베이스를 활용한 화자 음성 인식 방법 및 그 장치
Heise et al. Bumble bee traffic monitoring using acoustics