JP2010079182A - ウェアラブル音認識装置 - Google Patents

ウェアラブル音認識装置 Download PDF

Info

Publication number
JP2010079182A
JP2010079182A JP2008250268A JP2008250268A JP2010079182A JP 2010079182 A JP2010079182 A JP 2010079182A JP 2008250268 A JP2008250268 A JP 2008250268A JP 2008250268 A JP2008250268 A JP 2008250268A JP 2010079182 A JP2010079182 A JP 2010079182A
Authority
JP
Japan
Prior art keywords
sound source
sound
vibration
neuron
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008250268A
Other languages
English (en)
Other versions
JP5279010B2 (ja
Inventor
Akira Iwata
彰 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya Institute of Technology NUC
Original Assignee
Nagoya Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya Institute of Technology NUC filed Critical Nagoya Institute of Technology NUC
Priority to JP2008250268A priority Critical patent/JP5279010B2/ja
Publication of JP2010079182A publication Critical patent/JP2010079182A/ja
Application granted granted Critical
Publication of JP5279010B2 publication Critical patent/JP5279010B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】使用者の視野の邪魔になることなく、使用者に音源の種類と方向とを報知可能な音認識装置を提供する。
【解決手段】 左右のマイクロホン2L、2Rと、マイクロホン2L、2Rから入力された左右の入力音の時間差に基づいて音源の方向を識別し、その音源方向を示す方向情報を出力する音源定位部と、左右の入力音の少なくとも一方の周波数パターンに基づいて音源の種類を識別し、その音源種類を示す種類情報を出力する音源同定部と、使用者に接触する部位に設けられた振動部3L、3Rとを備え、振動部3L、3Rが、種類情報で示される音源種類に対する振動パターンで振動するように構成されるとともに、異なる音源方向に対しては振動部3L、3Rのうち少なくとも1つの異なるものが振動するウェアラブル音認識装置1。
【選択図】 図1

Description

本発明は、聴覚障害者等が身に着けることができて、聴覚障害者等に音の方向と種類とを知らせることが可能なウェアラブル音認識装置に関する。
音による周辺環境把握の基本機能は、音源方向を識別する音源定位と、音源種類を識別する音源認識(音源同定)である。聴覚障害者等に日常的に周囲音を知らせるには、聴覚障害者等が身に着けられる、すなわち、ウェアラブルな装置であることが望ましい。下記特許文献1には、周囲音を視覚的に認識し得る眼鏡型の聴覚障害者用ヘッドマウントディスプレイ装置が記載されている。
なお、出願人による関連する出願に、下記特許文献2〜4がある。また、下記特許文献5、非特許文献1、2には、ニューラルネットワークを用いた音源認識装置(音源同定装置)が記載され、下記非特許文献3〜5には、ニューラルネットワークを用いた音源定位装置が記載されている。さらに、関連する文献として下記非特許文献6〜9がある。
特開2007―334149号公報 特開2007−164027号公報 特開2008−77177号公報 特開2008−85472号公報 特許第3164100号公報 坂口晋也、「パルスニューロンモデルを用いた音源認識に関する研究」、名古屋工業大学平成9年度卒業論文、1998年3月 坂口晋也、黒柳奨、岩田彰、「環境把握のための音源識別システム」、電子情報通信学会NC研究会技術研究報告、社団法人電子情報通信学会、1999年12月、NC99−70、p.61−68 黒柳奨、岩田彰、「パルス伝達型聴覚神経回路モデルによる音源方向知覚−時間差・音圧差の抽出−」、電子情報通信学会技術研究報告、社団法人電子情報通信学会、1993年3月、NC92−149、p.163−170 黒柳奨、岩田彰、「パルスニューロンモデルのための教師あり学習則」、電子情報通信学会技術研究報告、社団法人電子情報通信学会、1998年3月、NC97−151、p.95−102 黒柳奨、平田浩一、岩田彰、「パルスニューラルネットワークのための競合学習手法」、電子情報通信学会NC研究会技術研究報告、社団法人電子情報通信学会、2002年3月、NC2001−210、p.113−120 中尾裕之、黒柳奨、岩田彰、「パルスニューラルネットワークによる音源の方向情報を用いた音像抽出モデル」、電子情報通信学会NC研究会技術研究報告、社団法人電子情報通信学会、2001年3月、NC2000−108、p.39−46 田中愛久、黒柳奨、岩田彰、「FPGAのためのニューラルネットワークのハードウェア化手法」、電子情報通信学会NC研究会技術研究報告、社団法人電子情報通信学会、2001年3月、NC2000−179、p.175−182 二俣宣義、黒柳奨、岩田彰、「FPGAのためのパルスニューロンモデルの実装方法」、電子情報通信学会NC研究会技術研究報告、社団法人電子情報通信学会、2002年3月、NC2001−211、p.121−128 黒柳奨、岩田彰、「聴覚情報処理システムのためのパルスニューロンモデルを用いた競合学習ニューラルネットワーク」、電子情報通信学会論文誌(D−II)、2004年7月、第J87−D−II巻、第7号、p.1496−1504
しかし、上記特許文献1の聴覚障害者用ヘッドマウントディスプレイ装置は、視野の一部に文字情報で音の認識結果を表示するものであるため、使用者の視野の邪魔になる虞があった。
この発明は、上述した問題を解決するものであり、使用者の視野の邪魔になることなく、使用者に音源の種類と方向とを知らせることができる音認識装置を提供することを目的とする。
本発明のウェアラブル音認識装置は、使用者に装着されるものであって、左右のマイクロホンと、前記左のマイクロホンから入力された左の入力音と前記右のマイクロホンから入力された右の入力音との時間差に基づいて、音源が複数の音源方向のうちのどの音源方向にあるかを識別し、当該音源方向を示す方向情報を出力する音源定位部と、前記左の入力音または前記右の入力音の少なくとも一方の周波数パターンに基づいて、音源が複数の音源種類のうちのどの音源種類であるかを識別し、当該音源種類を示す種類情報を出力する音源同定部と、使用者が装着したときにそれぞれ使用者に接触するような部位に設けられた複数の振動部と、を備え、前記各音源種類に対してそれぞれ異なる振動パターンが設定され、前記方向情報と前記種類情報とに基づいて、1つ以上の前記振動部が前記種類情報で示される音源種類に対する振動パターンで振動するように構成されるとともに、異なる音源方向に対しては少なくとも1つの異なる前記振動部が振動するように構成されたことを特徴とする。
これによれば、使用者が装着したときに使用者に接触するような部位に振動部が設けられて、音源の方向によって少なくとも1つの異なる振動部が振動するとともに、音源の種類によって異なる振動パターンで振動部が振動するので、どの振動部が振動するかによって音源の方向が分かり、振動パターンによって音源の種類が分かる。したがって、使用者の視野の邪魔になることなく、使用者に音源の種類と方向とを知らせることができる。
また、好ましくは、使用者が装着したときに前記各音源方向に対向するような部位に、それぞれ前記振動部が設けられ、前記方向情報と前記種類情報とに基づいて、前記方向情報で示される音源方向に対向する前記部位の前記振動部が、前記種類情報で示される音源種類に対する振動パターンで振動するように構成されたことを特徴とする。
これによれば、振動を感じた方向が音源の方向であるので、使用者は感覚的に音の方向を知ることができる。
本発明のウェアラブル音認識装置によれば、振動で音源の方向と種類とを知らせるので、使用者の視野の邪魔になることなく、使用者に音源の種類と方向とを知らせることができる。
以下、本発明の一実施形態について図面に基づいて説明する。
音認識装置1は、図1、2に示すように、左右のマイクロホン2L、2Rと、マイクロホン2L、2Rが接続された認識処理部4と、認識処理部4に接続された電源5と、認識処理部4にそれぞれ接続された左右の振動部3L、3Rとから構成されている。音認識装置1は、眼鏡Gと一体型であり、マイクロホン2Lは眼鏡Gの左の蔓の外側に取着され、マイクロホン2Rは眼鏡Gの右の蔓の外側に取着されている。また、振動部3Lは眼鏡Gの左の蔓の使用者の耳の上に接触する部位の内側に取着され、振動部3Rは眼鏡Gの右の蔓の使用者の耳の上に接触する部位の内側に取着されている。さらに、眼鏡Gの一方の蔓の後端部30に認識処理部4及び電源5が内蔵されている。認識処理部4は、カスタムLSIにより構成され、電源5はボタン電池により構成されている。
認識処理部4は、図2に示すように、マイクロホン2L、2Rにそれぞれ接続された左右の入力信号処理部6、7と、入力信号処理部6、7の両方に接続された音源定位部8と、入力信号処理部7に接続された音源同定部9と、音源定位部8及び音源同定部9に接続された振動選択部18とを備えている。なお、音源同定部9は、入力信号処理部6、7の少なくとも一方に接続されていればよい。振動選択部18は、振動部3L、3Rに接続されている。
音源定位部8は、時間差検出部10と左右方向検出部11とを備え、音源同定部9は、周波数パターン検出部12と音源種類検出部13とを備えている。時間差検出部10、左右方向検出部11、周波数パターン検出部12、及び、音源種類検出部13は、いずれも、複数のパルスニューロンモデル(以下、「PNモデル」と言う。)により構成されたニューラルネットワークから構成されている。PNモデルとは、入出力信号としてパルス列を用いるニューロンモデルをいい、各PNモデルはディジタル回路で構成される(非特許文献8の図4参照)。
図3に示すように、入力信号処理部6、7は、AD変換部14L、14Rと、人の聴覚系の蝸牛に相当する周波数分解部15L、15Rと、有毛細胞に相当する非線形変換部16L、16Rと、蝸牛神経に相当するパルス変換部17L、17Rとを備えている。AD変換部14L、14RはAD変換回路で、周波数分解部15L、15R、非線形変換部16L、16R、パルス変換部17L、17Rは、それぞれディジタル回路で構成される。
そして、AD変換部14L、14Rは、それぞれマイクロホン2L、2Rから入力された信号をAD変換する。周波数分解部15L、15Rは、バンドパスフィルタ(BPF)群により構成され、AD変換された信号を所定の周波数範囲について対数スケールで複数(N個)の周波数帯域(以下、「周波数チャンネル」あるいは単に「チャンネル」という。)の信号に分解する。非線形変換部16L、16Rは、周波数分解部15L、15Rから入力された各周波数帯域の信号に対して、それぞれ、非線形変換を行うことによりその正の成分だけを取り出すとともに、ローパスフィルタ(LPF)によりエンベロープ検出を行う。パルス変換部17L、17Rは、非線形変換部16L、16Rから入力された各周波数帯域の信号を、それぞれ、信号強度に比例したパルス頻度を持つパルス列に変換する。これらの処理により、入力信号処理部6、7は、左右の入力信号の各々を、周波数帯域毎に、信号強度すなわち音圧に応じたパルス頻度を持つパルス列に変換する。
時間差検出部10は、図4に示すようなPNモデルからなる時間差抽出モデルと、パルス列をシフトさせつつ時間差抽出モデルに入力するための時間遅れ素子19(図5参照)の列とから構成されている。時間差抽出モデルは、非特許文献3等に記載されているものと同様であるので詳説しないが、図4に示すように時間差抽出ニューロン(以下、「MSOニューロン」という。)20を複数(但し、奇数個)並べたMSOニューロン列を、周波数チャンネル毎に設けたものである。各MSOニューロン20は、左のパルス信号が入力される左入力端子21と、右のパルス信号が入力される右入力端子22と、出力端子23とを備え、全MSOニューロン20において、左右の入力に対する重みを共通の固定値とし、閾値を重みの2倍又は重みの2倍に内部電位の基準値を加えた値とすること等により、パルス信号が左右から略同時に入力されたときに出力端子23からパルス信号を出力するように構成される。なお、「略同時」とは、勿論、同時である場合を含む。
そして、時間差検出部10は、図5に示すように、時間遅れ素子19により、1クロック(単位時間)毎に、左のパルス列を右にシフトさせるとともに右のパルス列を左にシフトさせつつ、左右のパルス列を対応する周波数チャンネルのMSOニューロン列に入力する。すなわち、左のパルス信号はMSOニューロン列の一端(図5では左端)から他端(同右端)まで単位時間毎にシフトされつつ順次各MSOニューロン20に入力され、右のパルス信号はMSOニューロン列の他端(同右端)から一端(同左端)まで単位時間毎にシフトされつつ順次各MSOニューロン20に入力される。
例えば各MSOニューロン列内のMSOニューロン20を2J+1個とし、各MSOニューロン20に−JからJまでの番号を付すと、時刻tに、各MSOニューロン20は下記[数1]に従って内部電位IMSO ji(t)を演算し、この内部電位が所定の閾値を超えた場合にはyji(t)=1を出力し、超えない場合にはyji(t)=0を出力する。なお、jはMSOニューロン20の番号、iは周波数チャンネルの番号(i=1〜N)とする。下記[数1]において、pleft ji(t)は左の入力信号に対する局所膜電位、pright ji(t)は右の入力信号に対する局所膜電位であり、wは全ニューロン20で共通の結合重み、τは減衰時定数である。
Figure 2010079182
これにより、時間差抽出モデルは、左右からパルス信号が略同時に入ってきた場合にはMSOニューロン列における中央付近のニューロン20が発火し、パルス信号が右よりも左から早く入ってきた場合にはMSOニューロン列における右側のニューロン20が発火し、パルス信号が左よりも右から早く入ってきた場合にはMSOニューロン列における左側のニューロン20が発火するというように、左右の入力信号間の時間差によって変化する発火パターンを、音の時間差情報として出力する。
すなわち、上述したように各MSOニューロン列内の各MSOニューロン20に−JからJまでの番号を付し、周波数チャンネルの数をNとすると、時刻tに、時間差抽出モデルからは次のようなベクトルyMSO(t)が時間差情報として出力される。
MSO(t)=(y−J1(t),…,y01(t),…,yJ1(t),
−J2(t),…,y02(t),…,yJ2(t),
…,
−JN(t),…,y0N(t),…,yJN(t))
時間差検出部10は、例えば図6に示すように、ディジタル回路で構成可能である。この構成例は、非特許文献8の第5章にも記載されているので詳説しない。なお、不応期の実装は、不応期をカウントするカウンタを設け、発火から不応期の間は発火しないようにして、発火とともにカウンタをリセットすることにより実現可能である。
左右方向検出部11は、非特許文献9に記載された競合学習ニューラルネットワーク(以下、「CONP」という。)から構成されている。CONPは、入力ベクトルの量子化を行うパルスニューラルネットワークである。以下、CONPについて説明する。
CONPは、図7に示すように、競合学習ニューロン群50と制御ニューロン群60とから構成され、競合学習ニューロン群50は複数の競合学習ニューロン(以下、「CLニューロン」という。)51から構成され、制御ニューロン群はCLニューロン51が1つも発火しなかったときに発火する無発火検出ニューロン(以下、「NFDニューロン」という。)61とCLニューロン51が複数発火したときに発火する複数発火検出ニューロン(以下、「MFDニューロン」という。)62とから構成されている。
NFDニューロン61とMFDニューロン62は、それらの発火状況に応じて各CLニューロン51の閾値を一律に変化させる(実際には、各CLニューロン51の内部電位を一律に変化させる)ことで、CLニューロン群50内でCLニューロン51が1個だけ発火する状況を保持するためのPNモデルである。NFDニューロン61とMFDニューロン62は、CLニューロン群50内のCLニューロン51の数に応じた入力端子と、出力端子とを備え、各CLニューロン51から出力されたパルス信号を各入力端子で受け取って、NFDニューロン61は、全てのCLニューロン51からの信号が「0」の場合にのみ出力端子から「1」を出力し、MFDニューロン62は、複数のCLニューロン51から信号「1」を受け取った場合にのみ出力端子から「1」を出力する。
各CLニューロン51は、図8に示すように、入力パルスx(t),x(t),…,x(t),…,x(t)がそれぞれ入力される入力端子551、552、…、55i、…、55nと、NFDニューロン61、MFDニューロン62から出力されたパルス信号ynfd(t)、ymfd(t)がそれぞれ入力される入力端子56、57と、出力端子58とを備えている。各入力端子55i(i=1〜n)は2つに分岐して、一方は可変の結合重みwhiを有するシナプス部53iに、他方は固定の結合重み「1」を有するシナプス部54iに接続されている。なお、hは、CLニューロン群50内で各CLニューロン51に付された番号であり、h=1〜Mとする。
CONPの動作について、図9−1、9−2に基づいて説明する。CLニューロン群50内の各CLニューロン51には、単位時間毎に、n個の入力パルスからなる入力ベクトルx(t)=(x(t),x(t),…,x(t),…,x(t))(t:時刻)が入力される(S101)。すると、NFDニューロン61、MFDニューロン62は、それぞれ、保持しておいた時刻(t−1)における各CLニューロン51からの出力y(t−1)に基づいて、時刻tにおける出力値ynfd(t)、ymfd(t)を演算して、各CLニューロン51に出力する(S102、S103)。なお、NFDニューロン61、MFDニューロン62において、それぞれ、時刻(t−1)に各CLニューロン51からの出力y(t−1)を用いて出力値ynfd(t)、ymfd(t)を演算して保持しておき、時刻tになったらynfd(t)、ymfd(t)を各CLニューロン51に出力するようにしてもよい。
次に、各CLニューロン51は、それぞれ、内部電位I(t)(h=1〜M)を演算し(S104)(下記[数5]参照)、内部電位I(t)が閾値THを超え、かつ、前回の発火時から不応期を経過している場合にはy(t)=1を出力し、それ以外の場合にはy(t)=0を出力する(S105)。
そして、学習時には、「1」を出力したCLニューロン51について、シナプス部54iにおける局所膜電位pcwiを用いて結合重みwiを更新するとともに(S106)、そのCLニューロン51の周辺のCLニューロン51についても同様に結合重みを更新する(S107)。結合重みを更新するCLニューロン51の範囲(すなわち、学習範囲)の決定方法としては、例えば、最初は全部のCLニューロン51を学習範囲とし、線形的に範囲を縮小して、最後は勝者ニューロンだけを学習範囲とするような、次第に縮小する方法がある。そして、結合重みを更新したCLニューロン51について結合重みのノルム(参照ベクトルのノルム)を1に正規化する(S108)。すなわち、CONPにおいては、勝者ニューロンのみならずその周辺のニューロンも学習を行うことにより、自己組織化マップ(SOM)のアルゴリズムを実現している。
一方、学習時でない場合(認識時)は、結合重みの更新は行わない。そして、結合重みの更新のための係数αを定数γ(0≦γ)を乗じることにより更新し(S109)、次の入力ベクトルについてステップS101〜108の処理を行う。
ここで、CONPにおける内部電位I(t)の演算方法について説明する。まず、引数として、時刻t、減衰時定数τ、結合重みw、時刻tにおける入力信号x(t)の4つを持つ関数Fを導入し、下記[数2]のように定義する。なお、△t=1/Fs(Fs:サンプリング周波数)とする。
Figure 2010079182
すると、時刻tにおけるPNモデルの内部電位I(t)は、局所膜電位p(t)(i=1〜n)の総和として、下記[数3]のように記述できる。τはpi(t)の減衰時定数である。
Figure 2010079182
PNモデルの不応期をRP、時刻tにおける前回発火からの経過時間をET(t)とし、ET(0)>RPとすると、PNモデルの出力値y(t)は、以下のアルゴリズムにより計算される。なお、THは閾値である。
if I(t)≧TH and ET(t)>RP
then y(t)=1,ET(t)=0
else y(t)=0,ET(t)=ET(t−△t)+△t
パラメータτ、w、w、…、w、THは、各PNモデルにより可変の値であり、この組合せにより各PNモデルの動作は決定される。
ここで、時刻tにおけるNFDニューロン61、MFDニューロン62の出力をそれぞれynfd(t)、ymfd(t)、各CLニューロン51のNFDニューロン61、MFDニューロン62に対する結合重みをそれぞれwfd、−wfd(但し、wfd>0)とすると、時刻tにおける番号hのCLニューロン51の内部電位I(t)は前述の関数Fを用いて下記[数4]のように記述できる。CONPでは、pnfd(t)、pmfd(t)を閾値の動的変化量として扱う(但し、閾値THを変化させる代りに、閾値THと比較する内部電位I(t)をpnfd(t)、pmfd(t)により調整する)ことでCLニューロン51が1個だけ発火する状態を保持する。このため、減衰時定数τfdは時定数τに対して充分大きいものとする。
Figure 2010079182
ところで、入力パルス列によって発生する内部電位の総量が大きく変動する場合、この変動量を吸収するために閾値の変化が生じることになり、閾値の変化が入力ベクトルの方向変化に追従できない場合がある。そこで、CONPでは内部電位に対して、結合重みを1に固定したシナプス部54i(i=1〜n)における局所膜電位pcw(t)の総和を一定の比率βpcw(但し、0≦βpcw≦1)であらかじめ差引くことで、入力信号のノルム変動に対する内部電位の変化を抑制している。これにより上記[数4]のI(t)は下記[数5]のように修正され、各CLニューロン51は[数5]に従って内部電位I(t)を演算する。
Figure 2010079182
CONPは簡単なディジタル回路によりハードウェア化可能であり、その例を図10に示す。この例では、CONPは、それぞれCLニューロン51に相当するM個のCLニューロン部51Hと、NFDニューロン61に相当する1個のNFDニューロン部61Hと、MFDニューロン62に相当する1個のMFDニューロン部62Hとを備え、さらに、閾値変化量生成部63、64と内部電位抑制量生成部65とを1個ずつ備えている。
各CLニューロン部51Hは、CLニューロン51の入力端子551、…、55nに相当するn個の入力端子と、それらの入力端子から入力されたn個の入力パルスx(t),…,x(t)に対してそれぞれ重みを乗じるn個のAND回路71と、各AND回路71からの出力を内部電位に加算する加算器72と、内部電位を減衰して加算器72に出力する減衰生成部73と、加算器72から出力された内部電位と閾値とを比較する比較器74とを備え、比較器74は、内部電位が閾値を超え、かつ、前回の発火時から不応期を経過している場合にはy(t)=1、それ以外の場合にはy(t)=0を出力する。なお、比較器74には、後述するように、動的な閾値変化量としてpnfd(t)、pmfd(t)が、内部電位の抑制量としてSpcw(t)が入力され、比較器74は、これらの値で上記[数5]のように内部電位を調整してから閾値と比較する。
NFDニューロン部61Hは、M個のCLニューロン部51Hの出力端子にそれぞれ接続されたM個の入力端子と、それらの入力端子から入力されたM個の入力パルスy(t),y(t),…,y(t)に対してそれぞれ重みを乗じるM個のAND回路76と、各AND回路76からの出力を内部電位に加算する加算器77と、内部電位を減衰して加算器77に出力する減衰生成部78と、加算器77から出力された内部電位と閾値とを比較して、内部電位が閾値を超え、かつ、前回の発火時から不応期を経過している場合には1、それ以外の場合には0を出力する比較器79とを備え、M個の入力パルスが全て0のとき発火するように構成されている。
MFDニューロン部62Hは、NFDニューロン部61Hと同様の構成であるが、重みや閾値を変更することにより、M個の入力パルスのうち複数が1のとき発火するように構成されている。
閾値変化量生成部63、64は、それぞれ、各CLニューロン部51HにおけるNFDニューロン部61H、MFDニューロン部62Hからの出力に対する局所膜電位pnfd(t)、pmfd(t)を生成する部分であり、本来は各CLニューロン部51Hが共通に備える部分であるが、CLニューロン部51Hによって重みや減衰時定数は変わらないので、各CLニューロン部51Hから取り出して全体で1個としたものである。
閾値変化量生成部63は、NFDニューロン部61Hからの出力に対して重みwfdを乗じるAND回路81と、AND回路81からの出力を局所膜電位に加算する加算器82と、局所膜電位を減衰して加算器82に出力する減衰生成部83とを備え、閾値の動的変化量として、加算器82から局所膜電位pnfd(t)を各CLニューロン部51Hの比較器74に出力する。
閾値変化量生成部64は、閾値変化量生成部63と同様の構成を有し、各MFDニューロン部62Hからの出力を用いて局所膜電位pmfd(t)を生成して、閾値の動的変化量として、各CLニューロン部51Hの比較器74に出力する。
内部電位抑制量生成部65は、上述した入力信号のノルム変動に対する内部電位の変化の抑制量Spcw(t)を生成する部分であり、本来は、各CLニューロン部51Hにおいて、固定重み1のシナプス部54iにおける局所膜電位pcw(t)の総和に一定の比率βpcwを乗じて生成するものであるが、CLニューロン部51Hによって重みや減衰時定数は変わらないので、各CLニューロン部51Hから取り出して全体で1個としたものである。内部電位抑制量生成部65は、n個の入力パルスに対してそれぞれ固定の重みβpcwを乗じるAND回路86と、AND回路86からの出力を内部電位に加算する加算器87と、内部電位を減衰して加算器87に出力する減衰生成部88とを備え、内部電位を抑制量Spcw(t)として、加算器87から各CLニューロン部51Hの比較器74に出力する。
なお、図10に示すCONPのハードウェア構成例では、学習機構(各CLニューロン部51Hにおける重みの更新機構)は搭載されていない。これは、学習はソフトウェアによるシミュレーションで行って、重みを決定しておき、その重みをハードウェア上に設定すればよいからである。勿論、学習機構のハードウェア化も可能であるが、回路構成の容易化や回路サイズの縮小のためには、学習はソフトウェア上で行っておくことが望ましい。
左右方向検出部11は、上述した学習機構無しのハードウェア化されたCONPから構成され、図4に示すように、CLニューロン51を16個有している。16個のCLニューロン51は、番号1のものから番号16のものまで1列に並べられており、番号が近いものほど距離が近いとされている。各CLニューロン51には、時間差検出部10から出力された時間差情報(ベクトルyMSO(t))が入力される。左右方向検出部11は、上述したようにソフトウェア上でのシミュレーションにより重みが決定されている結果、入力ベクトルyMSO(t)をその類似関係を保持したまま量子化可能とされている。すなわち、左右方向検出部11は、互いに類似度の高い(方向の近い)ベクトルが入力されたときは互いに近いCLニューロン51が発火し、互いに類似度の低い(方向の遠い)ベクトルが入力されたときは互いに遠いCLニューロン51が発火する。したがって、左右方向検出部11からは、左右方向における音源方向(音源の方向)を示す方向情報が、どのCLニューロン51が発火するかで示されることとなる。ここでは、左右方向検出部11は、音源が左右2方向のうちのいずれの方向であるかを識別するものとし、番号1〜8のCLニューロンからの発火信号は左、番号9〜16のCLニューロンからの発火信号は右を示すものとする。
また、音源同定部9の周波数パターン検出部12及び音源種類検出部13も、それぞれ、上述した学習機構無しのハードウェア化されたCONPから構成されている。
周波数パターン検出部12は、入力信号処理部7から入力された入力信号に存在する周波数パターンを検出するものであり、入力信号に存在する周波数パターンをベクトル量子化して、CLニューロン51の発火パターンとして出力するように構成されている(非特許文献9の図5、図8参照)。
音源種類検出部13は、学習時(すなわち、ソフトウェアによるシミュレーション時)にはLVQ(Learning Vector Quantization)による教師有り学習を行うことにより、周波数パターン検出部12から入力された発火パターンをさらにベクトル量子化して、その発火パターンに対応する音源種類(音源の種類)を示すCLニューロン51が発火するように構成されている。なお、LVQについては周知であるのでここでは説明しない。したがって、音源種類検出部13からは、音源種類を示す種類情報が、どのCLニューロン51が発火するかで示されることとなる。
例えば、救急車の音には、それぞれ「ピー」「ポー」のように聞こえる2つの周波数パターンが存在するが、この2つの周波数パターンをそれぞれベクトル量子化するのが、周波数パターン検出部12であり、これらベクトル量子化された2つのパターンをまとめてベクトル量子化して「救急車」を示す発火信号を出力するのが、音源種類検出部13である。
本実施形態では、音源種類検出部13は、音源が、「(一般の)自動車」「救急車」「インターフォン」「電話」の4種類のうちのいずれであるかを識別するものとし、CLニューロン51は8個として、番号1、2のCLニューロンからの発火信号は「自動車」、番号3、4のCLニューロンからの発火信号は「救急車」、番号5、6のCLニューロンからの発火信号は「インターフォン」、番号7、8のCLニューロンからの発火信号は「電話」を示すものとする。
認識処理部4の振動選択部18は、上記4つの音源種類にそれぞれ対応する振動パターンを記憶している。なお、振動パターンは音源種類によって異なるものとされている。そして、振動選択部18は、音源定位部8から出力された方向情報と音源同定部9から出力された種類情報とに基づいて、方向情報で示される音源方向が左であれば振動部3Lに、右であれば振動部3Rに、種類情報で示される音源種類に対する振動パターンに従って振動制御信号を出力するように構成されている。
振動部3L、3Rは、それぞれ、振動モータを備え、振動選択部18から入力された振動制御信号に従って、振動モータで振動を発生するように構成されている。
以上のように構成された音認識装置1を、使用者が装着すると、振動部3L、3Rは、それぞれ使用者の左の耳の上、右の耳の上に接触することとなる。そして、マイクロホン2L、2Rが、それぞれ使用者の左側、右側の音を集音して、入力信号処理部6、7に入力する。入力信号処理部6、7は、左右の入力信号を、それぞれ、周波数チャンネル毎に音圧に応じたパルス頻度を持つパルス列に変換する。
音源定位部8の時間差検出部10は、入力信号処理部6、7から入力されたパルス列に基づいて、左右の入力信号の時間差を示す時間差情報を出力する。そして、左右方向検出部11は、時間差検出部10から入力された時間差情報に基づいて、音源方向が左右のいずれであるかを示す方向情報を出力する。
一方、音源同定部9の周波数パターン検出部12は、入力信号処理部6、7から入力されたパルス列に基づいて、入力信号に存在する周波数パターンをベクトル量子化して、CLニューロン51の発火パターンを出力する。そして、音源種類検出部13は、周波数パターン検出部12から入力された発火パターンをベクトル量子化して、その発火パターンに対応した音源種類を示す種類情報を出力する。
振動選択部18は、音源定位部8から出力された方向情報と音源同定部9から出力された種類情報とに基づいて、方向情報で示される音源方向が左であれば振動部3Lに、右であれば振動部3Rに、種類情報で示される音源種類に対応する振動パターンに従って振動制御信号を出力し、これにより、振動部3L、3Rは、音源種類に対応する振動パターンに従って振動する。
振動部3L、3Rは、音認識装置1の使用者に接触する部位に設けられているため、使用者は直ぐに振動を感知することができ、その振動パターンで音源種類を知ることができるとともに、左側に設けられた振動部3Lが振動していれば音源が左に、右側に設けられた振動部3Rが振動していれば音源が右にあることが分かり、感覚的に音源の方向を知ることができる。
以上述べたように、音認識装置1は、使用者が音認識装置1を装着したときに使用者に接触するような部位に振動部3L、3Rが設けられて、方向情報で示される音源方向に対向するような部位の振動部3L、3R(すなわち、左方向なら振動部3L、右方向なら振動部3R)が、音源種類によって異なる振動パターンで振動するので、使用者の視野の邪魔をせずに使用者に音源の方向と種類を知らせることが可能であるとともに、振動を感じた方向に音源があるので、使用者は感覚的に音の方向を知ることができる。
なお、1の音源方向に対して複数の振動部を振動させるようにしてもよい。例えば、音認識装置1において音源定位部8で左、右、前の3方向を識別するようにし、音源方向が左の場合には振動部3Lのみを、右の場合には振動部3Rのみを振動させるが、前の場合には振動部3L、3Rの両方を振動させることとしてもよい。すなわち、互いに異なる音源方向に対しては少なくとも1つの異なる振動部が振動するように構成すればよい。どの振動部が振動するかによって音源の方向が分かるからである。上記の3方向の例では、音源方向が左の場合と右の場合とでは振動する振動部が前者は振動部3L、後者は振動部3Rとすべて異なり、左の場合と前の場合とでは振動部3Lは共通するが振動部3Rが異なり、右の場合と前の場合とでは振動部3Rは共通するが振動部3Lが異なる。
また、音認識装置1では、使用者が装着したときに各音源方向(すなわち左方と右方)に対向する部位にそれぞれ振動部3L、3Rを設け、方向情報で示される音源方向が左であれば振動部3Lを、右であれば振動部3Rを振動させたが、必ずしも、各音源方向に対向するような部位に振動部を設けて、方向情報で示される音源方向に対向する部位の振動部を振動させる必要は無い。但し、使用者が装着したときに各音源方向に対向するような部位にそれぞれ振動部を設けて、方向情報で示される音源方向に対向する部位の振動部を振動させれば、振動を感じた方向が音源方向であるので、使用者は感覚的に音の方向を知ることができる。
また、音認識装置1が識別可能な各音源種類に対してどの振動パターンを対応付けるかを使用者が設定できるようにしたり、振動強度を使用者が調整できるようにしたりしてもよい。
また、音認識装置は、図11に示すように、既製の眼鏡に装着可能なアタッチメント型の音認識装置1Bとしてもよい。以下、音認識装置1と同じ構成要素には同じ符号を用いて説明すると、音認識装置1Bは、眼鏡の左右の蔓にそれぞれ嵌合可能な取付部31L、31Rを備え、取付部31L、31Rは互いに紐状部材32で接続されている。取付部31Lには、外側にマイクロホン2Lが、内側に振動部3Lが取着され、取付部31Rには、外側にマイクロホン2Rが、内側に振動部3Rが取着されている。また、取付部31L、31Rの一方には、認識処理部4及び電源5が内蔵されている。音認識装置1Bは、取付部31L、31Rを既製の眼鏡の左右の蔓に、図中2点鎖線で示すようにそれぞれ嵌合して用いる。すると、音認識装置1Bは、音認識装置1と同様に動作して、振動部3L、3Rが振動により使用者に音源の方向と種類を報知する。
また、音認識装置を眼鏡以外のウェアラブルな形態としてもよく、例えば、帽子に一体化された帽子型としてもよい。帽子型の場合には、例えば振動部を帽子の内側の前部、後部、左側部、右側部にそれぞれ取着するとともに、音源定位部8で前後左右の4方向を識別することとし、前方、後方、左方、右方からの音に対しては、それぞれ、前部、後部、左側部、右側部に取着された振動部が振動するように構成してもよい。
また、時間差検出部10として、特許文献2に記載された時間差検出器を用いてもよいし、左右方向検出部11、周波数パターン検出部12、音源種類検出部13として、特許文献3記載の競合学習ニューラルネットワーク(CONP−II)を用いてもよく、パルスニューラルネットワークではない装置を用いてもよい。すなわち、音源定位の方法、音源同定の方法は、上述した方法に限られない。
本発明の一実施形態に係る音認識装置の斜視図である。 同実施形態に係る音認識装置のブロック構成図である。 入力信号処理部の構成を示すブロック図である。 時間差検出部及び左右方向検出部の模式図である。 MSOニューロン列の構成を示す図である。 時間差検出部をディジタル回路で構成した例であり、(a)は1クロックの前半の動作を、(b)は後半の動作を説明するための図である。 CONPの模式図である。 CONPにおけるCLニューロンの模式図である。 CONPの動作を示すフローチャートである。 CONPの動作を示すフローチャートである。 CONPをディジタル回路で構成した例である。 本発明の他の実施形態に係る音認識装置である。
符号の説明
1、1B…音認識装置
2L、2R…マイクロホン
3L、3R…振動部
8…音源定位部
9…音源同定部

Claims (2)

  1. 使用者に装着されるウェアラブル音認識装置であって、
    左右のマイクロホンと、
    前記左のマイクロホンから入力された左の入力音と前記右のマイクロホンから入力された右の入力音との時間差に基づいて、音源が複数の音源方向のうちのどの音源方向にあるかを識別し、当該音源方向を示す方向情報を出力する音源定位部と、
    前記左の入力音または前記右の入力音の少なくとも一方の周波数パターンに基づいて、音源が複数の音源種類のうちのどの音源種類であるかを識別し、当該音源種類を示す種類情報を出力する音源同定部と、
    使用者が装着したときにそれぞれ使用者に接触するような部位に設けられた複数の振動部と、
    を備え、
    前記各音源種類に対してそれぞれ異なる振動パターンが設定され、
    前記方向情報と前記種類情報とに基づいて、1つ以上の前記振動部が前記種類情報で示される音源種類に対する振動パターンで振動するように構成されるとともに、異なる音源方向に対しては少なくとも1つの異なる前記振動部が振動するように構成されたことを特徴とするウェアラブル音認識装置。
  2. 使用者が装着したときに前記各音源方向に対向するような部位に、それぞれ前記振動部が設けられ、
    前記方向情報と前記種類情報とに基づいて、前記方向情報で示される音源方向に対向する前記部位の前記振動部が、前記種類情報で示される音源種類に対する振動パターンで振動するように構成されたことを特徴とする請求項1記載のウェアラブル音認識装置。
JP2008250268A 2008-09-29 2008-09-29 ウェアラブル音認識装置 Expired - Fee Related JP5279010B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008250268A JP5279010B2 (ja) 2008-09-29 2008-09-29 ウェアラブル音認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008250268A JP5279010B2 (ja) 2008-09-29 2008-09-29 ウェアラブル音認識装置

Publications (2)

Publication Number Publication Date
JP2010079182A true JP2010079182A (ja) 2010-04-08
JP5279010B2 JP5279010B2 (ja) 2013-09-04

Family

ID=42209656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008250268A Expired - Fee Related JP5279010B2 (ja) 2008-09-29 2008-09-29 ウェアラブル音認識装置

Country Status (1)

Country Link
JP (1) JP5279010B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8766765B2 (en) 2012-09-14 2014-07-01 Hassan Wael HAMADALLAH Device, method and computer program product to assist visually impaired people in sensing voice direction
KR20160066896A (ko) * 2014-12-03 2016-06-13 오성우 청각 장애인용 안경 스타일 웨어러블 단말기
CN106954140A (zh) * 2017-04-21 2017-07-14 北京奇虎科技有限公司 一种障碍物的提示方法、装置以及障碍物提示系统
JP2019520619A (ja) * 2016-06-27 2019-07-18 インテル コーポレイション 機械学習を用いたウェアラブル装置設定の最適化
CN111314839A (zh) * 2020-03-06 2020-06-19 湘潭大学 一种可辨别声源方向的挂件及其实现方法
WO2022010192A1 (ko) * 2020-07-09 2022-01-13 삼성전자 주식회사 웨어러블 디바이스 및 그 동작 방법
JP2022544138A (ja) * 2019-08-06 2022-10-17 フラウンホッファー-ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 選択的受聴を補助するためのシステムおよび方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0997396A (ja) * 1995-09-29 1997-04-08 Aqueous Res:Kk 車載用案内装置
JPH10282985A (ja) * 1997-04-07 1998-10-23 Omron Corp 聴覚支援装置
JP2002238099A (ja) * 2001-02-08 2002-08-23 Yamaha Corp 聴覚補助装置
JP2004205839A (ja) * 2002-12-25 2004-07-22 Fuji Iryoki:Kk 補聴器具
JP2004240855A (ja) * 2003-02-07 2004-08-26 Nippon Telegr & Teleph Corp <Ntt> 音響情報提示装置
JP2007108254A (ja) * 2005-10-11 2007-04-26 Towa Kogyo:Kk 補聴器付眼鏡およびその調整方法
JP2007334149A (ja) * 2006-06-16 2007-12-27 Akira Hata 聴覚障害者用ヘッドマウントディスプレイ装置
JP2008227806A (ja) * 2007-03-12 2008-09-25 Yamaha Corp 骨伝導スピーカ装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0997396A (ja) * 1995-09-29 1997-04-08 Aqueous Res:Kk 車載用案内装置
JPH10282985A (ja) * 1997-04-07 1998-10-23 Omron Corp 聴覚支援装置
JP2002238099A (ja) * 2001-02-08 2002-08-23 Yamaha Corp 聴覚補助装置
JP2004205839A (ja) * 2002-12-25 2004-07-22 Fuji Iryoki:Kk 補聴器具
JP2004240855A (ja) * 2003-02-07 2004-08-26 Nippon Telegr & Teleph Corp <Ntt> 音響情報提示装置
JP2007108254A (ja) * 2005-10-11 2007-04-26 Towa Kogyo:Kk 補聴器付眼鏡およびその調整方法
JP2007334149A (ja) * 2006-06-16 2007-12-27 Akira Hata 聴覚障害者用ヘッドマウントディスプレイ装置
JP2008227806A (ja) * 2007-03-12 2008-09-25 Yamaha Corp 骨伝導スピーカ装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8766765B2 (en) 2012-09-14 2014-07-01 Hassan Wael HAMADALLAH Device, method and computer program product to assist visually impaired people in sensing voice direction
KR20160066896A (ko) * 2014-12-03 2016-06-13 오성우 청각 장애인용 안경 스타일 웨어러블 단말기
KR101653768B1 (ko) * 2014-12-03 2016-09-07 오성우 청각 장애인용 안경 스타일 웨어러블 단말기
JP2019520619A (ja) * 2016-06-27 2019-07-18 インテル コーポレイション 機械学習を用いたウェアラブル装置設定の最適化
CN106954140A (zh) * 2017-04-21 2017-07-14 北京奇虎科技有限公司 一种障碍物的提示方法、装置以及障碍物提示系统
JP2022544138A (ja) * 2019-08-06 2022-10-17 フラウンホッファー-ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 選択的受聴を補助するためのシステムおよび方法
CN111314839A (zh) * 2020-03-06 2020-06-19 湘潭大学 一种可辨别声源方向的挂件及其实现方法
WO2022010192A1 (ko) * 2020-07-09 2022-01-13 삼성전자 주식회사 웨어러블 디바이스 및 그 동작 방법

Also Published As

Publication number Publication date
JP5279010B2 (ja) 2013-09-04

Similar Documents

Publication Publication Date Title
JP5279010B2 (ja) ウェアラブル音認識装置
US10097921B2 (en) Methods circuits devices systems and associated computer executable code for acquiring acoustic signals
US9253571B2 (en) Hearing apparatus for binaural supply and method for providing a binaural supply
US9906872B2 (en) Hearing-aid noise reduction circuitry with neural feedback to improve speech comprehension
CN108058663A (zh) 车辆声音处理系统
EP3311591B1 (en) Method of operating a hearing aid system and a hearing aid system
US20220232331A1 (en) Hearing device comprising a recurrent neural network and a method of processing an audio signal
US11843926B2 (en) Audio system using individualized sound profiles
JP2012247738A (ja) 能動型消音装置
WO2022260707A1 (en) System and method for aiding hearing
CN114009063A (zh) 具有骨传导传感器的听力设备
JP4958172B2 (ja) 音源定位装置
KR20220066911A (ko) 오디오 콘텐트를 제공할 때 촉각 콘텐트의 레벨을 조정하는 방법 및 시스템
US20220355063A1 (en) Hearing assistance devices with motion sickness prevention and mitigation features
US11290837B1 (en) Audio system using persistent sound source selection for audio enhancement
CN112911477A (zh) 包括个人化波束形成器的听力系统
KR20220043164A (ko) 센서 어레이의 음향 센서들의 서브세트 선택 방법 및 이를 위한 시스템
KR20220050215A (ko) 개별화된 공간 오디오 생성을 위한 빔포밍을 통한 귓바퀴 정보 추론
Bhowmik et al. Hear, now, and in the future: Transforming hearing aids into multipurpose devices
US20190306618A1 (en) Methods circuits devices systems and associated computer executable code for acquiring acoustic signals
Paul et al. Digital implementation of hyperbolic calculation unit for electronic cochlea on FPGA
US11889268B2 (en) Method for operating a hearing aid system having a hearing instrument, hearing aid system and hearing instrument
KR20230041755A (ko) 외이의 변위에 기초한 가상 마이크 교정
CN116233674A (zh) 声音方向性增强方法、系统、装置、耳机设备及介质
CN115914963A (zh) 用于运行具有听力设备的听力系统的方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130516

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5279010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees