JP2007111335A - 口腔センサ及び音素判定装置 - Google Patents
口腔センサ及び音素判定装置 Download PDFInfo
- Publication number
- JP2007111335A JP2007111335A JP2005307210A JP2005307210A JP2007111335A JP 2007111335 A JP2007111335 A JP 2007111335A JP 2005307210 A JP2005307210 A JP 2005307210A JP 2005307210 A JP2005307210 A JP 2005307210A JP 2007111335 A JP2007111335 A JP 2007111335A
- Authority
- JP
- Japan
- Prior art keywords
- light
- phoneme
- unit
- light receiving
- tongue
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
【課題】より精度良く音素を判定することができるとともに、口腔形状を視認して音素を特定する技能を持たない一般ユーザが用いても音素を判定することができる口腔センサ及び音素判定装置を提供する。
【解決手段】装用者の口蓋および舌上の一方に装着された発光部32と、他方に装着された受光部31とを備え、発光部32及び受光部31のうち舌上に装着されるものが複数個あるセンサ部と、受光部31の受光強度パターンを検出する受光強度検出手段と、を備えた口腔センサ100である。
【選択図】図1
【解決手段】装用者の口蓋および舌上の一方に装着された発光部32と、他方に装着された受光部31とを備え、発光部32及び受光部31のうち舌上に装着されるものが複数個あるセンサ部と、受光部31の受光強度パターンを検出する受光強度検出手段と、を備えた口腔センサ100である。
【選択図】図1
Description
この発明は、ユーザが発音しなくても、ユーザの口腔の状態を検出してこの検出結果に基づいて音素を判定する口腔センサ及び音素判定装置に関する。
声帯等の発音器官に障害がある人(発話障害者)は発話することができない。しかしながら、発話障害者は発話することができなくても、発話するための形状に口腔を(例えば舌を)かたち作ることができる場合がある。このような発話障害者との意思疎通を図るために、発話障害者の口腔形状に対応する音素を判定する装置や方法が提案されている。
例えば、特許文献1には、口唇の動画を外部から撮影して、撮影画像に基づいて口唇の形状や口唇の動きを推定し、この判定した口唇の形状や口唇の動きに基づいて音素を判定する装置が開示されている。
また、研究機関では、超音波プローブを発話障害者の顎下に当てて超音波画像として舌形状表示することで、専門家が患者の舌形状に対応する音素を推測する方法が提案されている。
特開平11−219421号公報
上述した従来の装置は、外部から撮影した口唇の形状や口唇の動きから音素を認識するものであるため、舌形状や舌動作を音素の判定材料とすることができなかった。このため、舌形状や舌動作で違いが顕著である子音の判定を行うことが困難であり、正確に音素の判定をすることができない場合があった。
また、上述した従来の方法では、舌形状を音素の判定材料とすることはできるが、超音波画像を目視して音素を判定しなくてはならないため、舌形状を見て音素を判定することができる程の専門知識を持つ者でなければ採用することができない方法であった。このため、一般のユーザが使用できるような方法ではなかった。
上記課題を解決するために、本発明は、より精度良く音素を判定することができるとともに、口腔形状を視認して音素を特定する技能を持たない一般ユーザが用いても音素を判定することができる口腔センサ及び音素判定装置を提供することを目的としている。
上記課題を解決するために本発明では以下の手段を採用している。
(1)本発明は、装用者の口蓋および舌上の一方に装着された発光部と、他方に装着された受光部とを備え、前記発光部及び前記受光部のうち舌上に装着されるものが複数個あるセンサ部と、前記受光部の受光強度パターンを検出する受光強度検出手段と、を備えた口腔センサである。
上記構成によれば、発光部で発光された光は遮光されていなければ受光部によって受光される。ここで、受光部はユーザの口腔上部又は舌上に配置されるためのものである。また、発光部は、ユーザの口腔上部及び舌上のうち受光部が配置されていない方に配置されるためのものである。
このため、受光部には、口腔上部と舌上にある光出力部及び光入力部間の距離に応じた強度で光が入力される。また、舌等によって遮光されていれば受光部には光が入力されない。ここで、発光部及び受光部のうち舌上に配置される方が複数配置されるため、受光強度はユーザの舌形状によって様々なパターンになる。
この受光強度を示す明るさ情報が情報生成部によって生成される。この受光強度は、上述したようにユーザの舌形状によって様々なパターンになるため、明るさ情報もまたユーザの舌形状によって様々なパターンになる。このため、明るさ情報を分析することで、ユーザの口腔形状や、この口腔形状に対応する音素を判定することも可能となる。
(2)本発明は、上記口腔センサにおいて、前記発光部は、口腔外に設けられた発光素子と、この発光素子からの光を舌上又は口蓋に伝達するための光ファイバを備え、前記受光部は、口腔外に設けられた受光素子と、この受光素子に舌上又は口蓋で入力された光を伝達するための光ファイバを備える。
この構成によれば、口腔内に配置する部材は金属製の部材ではなく光ファイバの先端部になる。このため、口腔内にガルバニー電流が発生され、これによって歯痛が発生されることが効果的に防止される。
(3)本発明は、上記口腔センサにおいて、 前記発光部及び前記受光部のうち舌上に配置されるためのものは、ユーザの舌上に配置するための薄手のシート部材上に所定間隔を空けてそれぞれ配置されている、ことを特徴とする。
この構成によれば、シート部材を舌上に配置するだけで、口腔形状や音素を判定するために好適な所定間隔を空けて発光部又は受光部を舌上に配置することができる。また、薄手のシート部材を介して舌上に発光部又は受光部を取り付けるため、舌との密着性高く取り付けることができ、これによって、明るさ情報はより正確にユーザの舌形状を反映するものとなる。
(4)本発明は、上記口腔センサから前記明るさ情報を入力する入力部と、明るさ情報に基づいて、ユーザの口腔形状に対応する音素を判定する判定部と、を備えた音素判定装置である。この構成によれば、ユーザの舌形状によって様々なパターンである発光強度を示す明るさ情報が入力部によって入力される。そして、判定部によって、この明るさ情報に基づいてユーザの口腔形状(舌形状等)に対応する音素が判定されるため、子音等もより正確に判定することが可能となる。これによって、口唇外部からの撮影画像に基づいて音素が判定される従来技術に比較して、精度良く音素を判定することが可能となる。また、超音波画像を視認して音素を特定する従来方法に比較して、口腔形状を視認して音素を特定する技能を持たない一般ユーザであっても口腔形状や、この口腔形状に対応する音素を判定することが可能となる。
(5)本発明は、上記音素判定装置において、前記判定部は、前記明るさ情報に基づいて、前記光出力部及び前記受光部のうち舌上に配置された方の位置を所定時間間隔毎に検出する位置検出部と、前記位置検出部による複数回分の検出位置に基づいて、音素を判定する音素判定部とを備えた、ことを特徴とする。この構成によれば、位置検出部によって、光出力部及び受光部のうち舌上に配置された方の位置が所定時間間隔毎に検出される。この位置検出部による複数回分の検出位置は、舌形状及びこの舌形状の時間的変化を示す。音素判定部によって、このような複数回分の検出位置によって音素が判定されるため、更に精度良く音素を判定することが可能となる。
本発明にかかる口腔センサによれば、ユーザの舌形状によって様々なパターンになる明るさ情報が生成される。このため、明るさ情報を分析することで、ユーザの口腔形状や、この口腔形状に対応する音素をより精度良く判定することができる。
また、本発明にかかる音素判定装置によれば、上記明るさ情報に基づいて、ユーザの口腔形状(舌形状等)に対応する音素が判定されるため、子音等もより正確に判定することができる。これによって、口唇外部からの撮影画像に基づいて音素が判定される従来技術に比較して、精度良く音素を判定することができる。また、超音波画像を視認して音素を特定する従来方法に比較して、口腔形状を視認して音素を特定する技能を持たない一般ユーザであっても口腔形状や、この口腔形状に対応する音素を判定することができる。
図1〜図7を参照して本発明の一実施形態である音声判定システムを説明する。音声判定システムは、口腔センサ100(図1を参照)と音素判定装置200とを備える。本音声判定システムでは、口腔センサ100からの情報に基づいて、音素判定装置200が、本音素判定システムのユーザの口腔形状に対応する音素を判定し、判定した音素を音声として出力する。
(口腔センサ100の外観構成)
以下に図1〜図3を用いて口腔センサ100の外観構成を説明する。図1は、口腔センサ100の外観構成を示す斜視図である。なお、以下の実施形態において、ユーザの正面側をY側、ユーザの後方側を−Y側、ユーザの右側をX側、ユーザの左側を−X側と記載する。
以下に図1〜図3を用いて口腔センサ100の外観構成を説明する。図1は、口腔センサ100の外観構成を示す斜視図である。なお、以下の実施形態において、ユーザの正面側をY側、ユーザの後方側を−Y側、ユーザの右側をX側、ユーザの左側を−X側と記載する。
口腔センサ100は、装置本体1に接続線2を介して光ファイバ群3を接続してなる。
光ファイバ群3はその先端がユーザの口腔内に導入される。光ファイバ群3のうち、2つの光ファイバ31(31A、31B)はその先端が口腔上面に配置される。また、残り4つの光ファイバ32(32A〜32D)はその先端が舌上に配置される。以下、光ファイバ31の先端は受光点r(本願発明の受光部に対応)と、光ファイバ32の先端は発光点t(本願発明の発光部に対応)と記載する。発光点t及び受光点rは球面状に加工されており、発光点tからは周囲に均一に光が出力され、受光点rは周囲からの光を均一に入力するように調整されている。なお、発光点t及び受光点rは球面状に限定されないが、光の入出力特性が無指向性になる形状に加工されていることが好ましい。
発光点tと受光点rの口腔内への取り付けを説明する。受光点rは、U字状の支持枠4における所定の位置に取り付けられている。支持枠4は、プラスチック等の樹脂で形成されており、可撓性の部材である。支持枠4の両側の棒状部分をユーザが指等を用いて内側に撓め、この状態で上側の歯列の内側に配置した後に指等を離すと、支持枠4は歯列の内側で規制されて固定される。このように、支持枠4が上側の歯列の内側に取り付けられることで、受光点rは口腔上面に取り付けられる。
そして、発光点tは、シート部材5上に所定間隔を空けて配置される。シート部材5は、例えば食品用ラップフィルム等のような、5〜15μm程度の薄手に形成された樹脂フィルム部材である。シート部材5は、舌上に密着するように載置される。このこのように、シート部材5を介して発光点tを舌上に取り付けるため、舌上に密着させて配置することができ、発光点tの座標と舌の座標とを一致させることができる。また、舌の動きを妨げずに舌上に発光点tを取り付けることができる。
上述のように、本実施形態では、口腔内には、光ファイバ群3及び樹脂製の支持枠4及びシート部材5を入れるだけでよいため、金属製の部材を入れなくても発光点t及び受光点rを口腔内に取り付けることができる。口腔内に金属製の部材を入れると、歯に別の金属製の詰物がある場合等にガルバニー電流が生じ、歯の神経の疼痛を引き起こす場合があるが、本実施形態では、このようなガルバニー電流の発生を防止することができる。
なお、受光点rや発光点tの支持枠4やシート部材5への取り付け位置については、詳しくは後述する。
光ファイバ31、32は、例えば耳掛けタイプのフレーム部6によって、口腔外側の口唇付近で支持されている。すなわち、フレーム部6の口唇付近には、筒状部材61と筒状部材62が取り付けられ、この筒状部材61、62に光ファイバ31、32が挿入されており、これによって、光ファイバ31、32の口腔内への挿入量が可変になるように、光ファイバ31、32を支持することができる。
光ファイバ31、32の他端部は、接続線2の一端に接続されている。光ファイバ31に接続される接続線2を接続線2A、光ファイバ32に接続される接続線2を接続線2Bと記載する。
図2は、(a)は接続線2Aと光ファイバ31との取り付け部分の構成を示す斜視図であり、(b)は接続線2Bと光ファイバ32との取り付け部分の構成を示す斜視図である。(a)で示すように接続線2Aの先端には、例えばフォトダイオード等からなる受光部8A(本願発明の受光部、受光素子に対応)が取り付けられている。この受光部8Aの先端と光ファイバ31の端部とが接した状態で筒状のキャップ9に外嵌され、これによって、受光部8Aと光ファイバ31が接続される。光ファイバ31から受光部8Aに光が入力されると、受光部8Aによって受光強度に応じた信号が接続線2Aを介して装置本体1に入力される。
(b)で示すように、接続線2Bの先端には、例えば発光ダイオード等からなる発光部8B(本願発明の発光部、発光素子に対応)が取り付けられている。この発光部8Bの先端と光ファイバ32の端部とが接した状態で筒状のキャップ9に外嵌され、これによって、発光部8Bと光ファイバ32が接続される。発光部8Bは接続線2Bを介して装置本体1から電力が供給されることにより発光する。この光は光ファイバ32を通って口腔内に導入され、発光点tから口腔内に出力される。
そして、発光点tから出力された光は受光点rに入力されて、光ファイバ31を介して受光部8Aに入力される。ここで、受光部8Aへの受光強度は、発光点tから受光点rまでの距離が近い程強くなる。また、舌の受光点rを配置した部分を口腔上面に押し付けている場合等には、口腔上面で遮光されて受光部8Aに光が入力されない。
なお、光ファイバ群3、受光部8A、発光部8B及び接続線2で本願発明のセンサ部を構成する。
装置本体1には、受光部8Aから受光強度に応じた信号が入力され、これを用いて各発光点tから各受光点rに入力された光の各発光強度を示す明るさ情報を生成する。装置本体1は、生成した明るさ情報を通信線7を介して音素判定装置200に入力する。装置本体1の内部構成については、詳しくは後述する。
図3(a)は、口腔内に取り付けられた状態の支持枠4と受光点r及びその周辺の構成をより詳細に示す図である。支持枠4には、そのX側に沿って光ファイバ31Aの一部が固着され、その−X側に沿って光ファイバ31Bの一部が固着されている。そして、光ファイバ31A、31Bは先端部が屈曲するように形成されており、その屈曲部が支持枠4の端部から内側に向かうように取り付けられている。
この内側に向かった屈曲部は支持枠4の中央付近で更にY側に屈曲されて形成されている。この屈曲された光ファイバ31Aの先端部は前歯付近まで延びるように形成され、光ファイバ31Bの先端部は最奥の奥歯付近に位置するように形成されている。これによって、光ファイバ31Bの受光点r(r0)が両サイドの奥歯間の略中央に位置するとともに、光ファイバ31Aの受光点r(r1)が両サイドの糸切り歯間の略中央に位置するようになっている。
ユーザが発話するように口腔を形作る場合に、舌は受光点r0と受光点r1との間の領域で動作する。このため受光点r0と受光点r1に入力された光の明るさ情報を用いることで、音素判定装置200では精度良く発光点tの位置を測定することができ、これによって、音素の判定精度を向上させることができる。
なお、同図(b)で示すように、受光点r1の−X側に隣接して受光点r(r2)が位置するような光ファイバ31Cが更に配設されるとともに、X側に隣接して受光点r(r3)が位置するような光ファイバ31Dが更に配設されてもよい。この受光点r2、r3によって、「n」や「t」の音素を音素判定装置200で精度良く判定することが可能となる。すなわち、「n」と「t」は、口腔形状及びこの口腔形状の変化が似ており、両方とも舌が受光点r1の位置に接触することになる。
このため、「n」の場合も「t」の場合も、受光点rが遮光されて光が入力されず、受光点r0、r1が配置されるだけでは「n」と「t」との近いを判別することは困難である。しかしながら、「n」と「t」とは、口腔上面に舌が接触する幅が異なる。具体的には、「n」より「t」の方が幅広く舌が接触する。このため、受光点r2、r3を加えることで、受光点r2、r3とも舌で遮光されていれば「t」、遮光されていなければ「n」と判別することが可能となる。
また、受光点r(r4)が歯の下に配置されるような光ファイバ31Eが配置されてもよい。これによって、上側及び下側の歯同士の接触を判別することが可能となるため、「s」を精度良く判別することができる。また、受光点r(r5)が上唇の下に位置するような光ファイバ31Fが更に配設されてもよい。これによって、上下の口唇の接触を判別することが可能となるため、精度良く「m」を判別することができる。
同図(c)は、図1で示すシート部材5と発光点t及びその周辺の構成を示す図である。シート部材5は縦長形状であり、このシート部材5には所定の間隔を空けて4つの発光点t(t0〜t3)が縦方向に並列に取り付けられている。舌の先端の動きや形状に音素の特徴が出ることから、シート部材5は、最も手前にある発光点t3が舌の先端近傍に位置するように載置されることが好ましい。
(装置本体1の内部構成)
図4は、装置本体1の内部構成及び音素判定装置200の構成を示すブロック図である。
図4は、装置本体1の内部構成及び音素判定装置200の構成を示すブロック図である。
まず、装置本体1の内部構成を説明する。装置本体1は、発光制御部11、受光強度入力部12、信号送受信部13及びマイコン14を備える。発光制御部11は、接続端子15(15A〜15D)に接続された接続線2B(図2を参照)を介して発光部8Bに電力を供給する。この電力の供給はマイコン14(CPU143)から入力した指示信号に従って行われる。これによって、発光制御部11は発光部8Bの発光を制御する。
受光強度入力部12は、接続端子16(16A、16B)に接続された接続線2A(図2を参照)を介して受光部8Aから発光強度に応じた信号を入力する。受光強度入力部12は、この発光強度を示すデジタル信号を生成してマイコン14(CPU143)に入力する。
信号送受信部13は、接続端子17に接続された通信線7(図1を参照)を介して音素判定装置200との間で通信を行う通信インタフェース回路である。信号送受信部13は、音素判定装置200から明るさの検出開始の制御信号を入力したときにはマイコン14(CPU143)にこの制御信号を出力する。
マイコン14は、本願発明の受光強度検出手段に対応し、ROM141、RAM142及びCPU143等を備える。
ROM141は、本装置本体1を動作させるためのプログラム及びこのプログラムの実行に必要なデータが記憶されている。例えば、このプログラムには、本装置本体1に後述のダイナミック点灯処理を実行させるためのプログラムや、明るさ情報生成処理を実行させるためのプログラムがある。
RAM142は、CPU143の作業領域として機能する。CPU143は、ROM141に記憶されたプログラムを実行することで、後述のダイナミック点灯処理を実行する。このダイナミック点灯処理は、発光制御部11を用いて4つの発光部8Bを順番に点灯させるように制御する処理である。なお、4つの発光部8Bについて異なる発光色で発光するものを用いる場合には、CPU143は、ダイナミック点灯処理ではなく、4つの発光部8Bを同時に点灯させるように制御する処理を実行してもよい。
また、CPU143は、ROM141に記憶されたプログラムを実行することで、明るさ情報生成処理を実行する。明るさ情報生成処理では、CPU143は、受光強度入力部12から入力された信号を用いて明るさ情報を生成する。明るさ情報とは、発光点t0〜t3のそれぞれから受光点r0に入力されて受光部8Aで受光した光の強度と、発光点t0〜t3のそれぞれから受光点r1に入力されて受光部8Aで受光した光の強度を示す情報である。
ここで、ユーザが口唇を開いていた場合には、発光点tからの光に加えて口腔外からの外光が受光点rに入力される。発光点tからの成分のみの発光強度を取得するために、CPU143は、入力した信号の示す発光強度のうち外光の成分に由来する部分を推測し、この外光成分を除いた発光強度を算出して(光変調法)、算出した発光強度を明るさ情報とする。
光変調法とは、発光素子と受光素子からなる計測系において、発光する光の強度に自然光では通常存在しないような時間変化(例えば10KHzのOn/Off)を付し、受光部に続く後処理過程において、その時間変調成分のみ取り出す(先の例では10kHzのバンドパスフィルタ)ことで、自然光の影響を回避し計測精度を高める手法として広く知られるもので、これを用いて口腔外からの外光の影響を避けるように構成してもよい。
CPU143は、信号送受信部13から検出開始の制御信号を入力したときに、上述したダイナミック点灯処理及び明るさ情報生成処理をマルチタスクで実行する。また、CPU143は、明るさ情報生成処理によって生成した明るさ情報を信号送受信部13を用いて音素判定装置200に送信する。
(音素判定装置200の構成)
次に、同図(図4)を用いて音素判定装置200の構成を説明する。音素判定装置200は、汎用機である。音素判定装置200は、CPU21に、ROM22、ハードディスク23、RAM24、信号送受信部25、音源26及びスピーカ27がバス28に接続されて構成される。
次に、同図(図4)を用いて音素判定装置200の構成を説明する。音素判定装置200は、汎用機である。音素判定装置200は、CPU21に、ROM22、ハードディスク23、RAM24、信号送受信部25、音源26及びスピーカ27がバス28に接続されて構成される。
ROM22は、本音素判定装置200を起動させるための起動用プログラムが記憶されている。ハードディスク23は、本音素判定装置200を動作させるためのプログラムやこのプログラムの実行に必要なデータが記憶されている。このプログラムには、例えば、本音素判定装置200に後述の音素の判定処理(距離算出処理、座標推定処理、音素判定処理)及び発音処理を実行させるプログラムがある。これらの処理については、詳しくは後述する。
ハードディスク23には、データベース記憶部231が設けられており、このデータベース記憶部231には、発光点t0〜t3の座標(舌等の口腔形状)やこの座標の変化(口腔の動き)と音素とを対応付けた音素判定データベースDBが記憶されている。RAM24は、CPU21の作業領域として機能し、ハードディスク23等から読み出されたプログラムやデータが一時的に記憶される。
信号送受信部25は、装置本体1(信号送受信部13)との間で通信を行う通信インタフェースである。信号送受信部25は、信号送受信部13から明るさ情報を入力した場合に、入力した明るさ情報をCPU21(後述の距離算出部212A)に入力する。また、図略の操作部でユーザから音素の判定の開始指示を受け付けた場合に、CPU21が上述した検出開始の制御信号を信号送受信部25に入力するが、信号送受信部25は入力した検出開始の制御信号を信号送受信部13に送信する。
音源26は、例えばPCM音源ボード等であり、CPU21(後述の発音制御部213)から指示に基づいて、ハードディスク23に記憶されたPCMデータを用いて音声データ(例えばWAV形式)を生成する。生成された音声データはスピーカ27に入力されて、スピーカ27で音声に変換されて出力される。
CPU21は、ハードディスク23に記憶されたプログラムを実行することで、センサ制御部211、判定部212及び発音制御部213として機能する。センサ制御部211は、信号送受信部25を用いて制御信号を装置本体1に送信することで、装置本体1の動作を制御する。この制御信号には、例えば上述した検出開始の制御信号がある。
判定部212は、装置本体1から入力した明るさ情報を用いて音素を判定する音素の判定処理を実行する機能部である。判定部212は、距離算出部212A、位置検出部212B及び音素判定部212Cを機能的に含む。距離算出部212Aは、明るさ情報が信号送受信部25から入力される。距離算出部212Aは、距離算出処理を実行することで、明るさ情報を用いて各発光点t0〜t3から受光点r0、r1までの距離(以下、距離情報と記載)を算出する。距離算出処理については、図6のフローチャートを用いて後述する。
位置検出部212Bは、座標推定処理を実行することで、距離算出部212Aで算出した距離情報に基づいて、発光点t0〜t3の位置座標すなわち口腔の形状を推定する。座標推定処理については、図6のフローチャートを用いて後述する。
音素判定部212Cは、音素推定処理を実行することで、位置検出部212Bの推定した位置座標を音素判定データベースDBと比較することで、口腔形状に合致した音素を判定する。音素判定部212Cは、判定した音素を発音制御部213に通知する。音素推定処理については、詳しくは図6及び図7のフローチャートを用いて後述する。
発音制御部213は、通知された音素を発音するように音源26を制御する。音源26ではこの音素の音声データが生成されてスピーカ27に入力される。これによって、スピーカ27から音素の音声が出力される。このため、発音することができないユーザであっても口腔形状及び動作をその音素を発音する形状及び動作にすることで、会話の相手方に意思を伝えることができる。
図5(a)は、ダイナミック点灯処理を示すフローチャートであり、(b)は明るさ情報を示す図である。(a)を参照して、まず、CPU143は、発光点tiのみを点灯させるように発光制御部11に指示する。最初はiは0に設定され、発光点t0が発光するように制御される(S1)。
次に、CPU143は、受光点rjの明るさ情報を生成する(S2)。jは、最初は0に設定されている。具体的には、CPU143は、ステップS1の実行後から所定時間が経過するまでに受光強度入力部12から入力された信号を用いて、明るさ情報を生成してRAM142に記憶する。
この後、CPU143は、jが1以上であるかを判断して(S3)、jが1より小さい(すなわち0)であると判断した場合には(S3でNO)、jの値に1を足して(S4)、ステップS2に戻す。一方、CPU143は、jが1以上であると判断した場合には(S3でYES)、iが4以上であるかを判断して(S5)する。iが4より小さい(0〜3)と判断した場合には(S5でNO)、CPU143は、iの値に1を足すとともにjを0に設定して(S6)、ステップS1に戻す。
一方、CPU143は、iが4以上であると判断した場合には(S5でYES)、RAM142には、同図(b)で示すように各発光点t0〜t3から受光点r0、受光点r1それぞれに入力された光の各明るさ情報(明るさ情報a〜h)が記憶されている。この場合には、CPU143は本処理を終了させる。なお、各明るさ情報a〜hは上述したように音素判定装置200に送信される。
図6は、音素の判定処理を示すフローチャートである。図7(a)は、音素推定処理(その1)を示すフローチャートであり、(b)は音素推定処理(その2)を示すフローチャートである。音素の判定処理は、距離算出部212Aに明るさ情報が入力された場合に実行される。まず、距離算出部212Aは入力された明るさ情報を用いて距離算出処理を実行する(S11)。
距離算出処理では、明るさは距離の自乗に反比例することから、発光点tから受光点rまでの距離dを下記式(1)を用いて算出する。
d=1/√b・・・式(1)
上記bは、明るさ情報の示す明るさを表す。
上記bは、明るさ情報の示す明るさを表す。
上記式(1)によって、距離算出部212Aは、各発光点t0〜t3から各受光点r0、r1それぞれまでの各距離dを求める。
なお、上述したように、発光点t及び受光点rは球面状に加工されており、発光点tからは周囲に均一に光が出力され、受光点rは周囲からの光を均一に入力するように調整されている。このように調整されていても、発光点t及び受光点rが指向性を持つ場合があり、この場合には上記式(1)を用いても正確に距離dを算出することができない場合がある。このような場合には、実測によって予め明るさbに対応する距離をサンプルとしてハードディスク23に記憶させておき、距離算出部212Aがこのサンプルに最小自乗法で当てはめて距離dを算出するようにしてもよい。
なお、図3(b)の変形例のように、受光点r2〜r5が配設されている場合がある。受光点r2〜r5は、受光点r0、r1のように発光点tの位置座標を検知することを目的としたものではなく、遮光されたかどうかだけを検知することを目的とする。距離算出部212Aは受光点r2〜r5についての明るさ情報から受光点r2〜r5が遮光されたかどうかを判定し、この判定結果を音素判定部212Cに通知する。
次に、位置検出部212Bが座標推定処理を実行する(S12)。この座標推定処理では、上述したように発光点t0〜t3の位置座標が算出される。すなわち、発光点tから受光点r0までの距離が距離d0であり、発光点tから受光点r1までの距離が距離d1である場合に、位置検出部212Bは受光点r0から距離d0の位置にあり、受光点r1から距離d1の位置にある位置座標を算出し、この算出した位置座標を発光点tの位置座標とする。
ここで、ステップS11で算出した距離d(上記例では距離d0とd1)が実際の距離との間に誤差がある場合に、上記算出方法で位置座標を算出しても、この誤差によって正確な位置座標を取得することができない。そこで、位置検出部212Bは、例えば変分法による誤差評価関数を用いて、上記算出した位置座標の誤差を評価し、最も誤差の小さい位置座標を発光点tの位置座標としてもよい。
具体的には、ステップS11で算出した距離d0と距離d1とを用いて、受光点r0から受光点r1の間の距離(距離d3)を算出する。ここで、受光点r0から受光点r1の間の距離は、測定することで実際の距離(距離L)を取得することができる。距離d3と距離Lの一致度が高い程、距離d0及ぶ距離d1は実際の距離からの誤差が小さい。そこで、位置検出部212Bは、(距離d3−距離L)2を誤差評価関数として、この誤差が最小となる位置座標を算出し、この算出した位置座標を発光点tの位置座標とする。
なお、算出の方法としては、例えば山登り法として知られる計算法(CGM法(共役匂配法)、ニュートン法)を用いることができる。さらに、発光点t、受光点rには極力無指向性となるよう加工が施されているが、ある程度の指向性は残存する場合が多い。そこで、指向性を反映する補正計算を行い、さらに座標精度を上げるようにしてもよい。
次に、音素判定部212Cが音素推定処理を実行する(S13)。図7(a)を参照して、まず、音素判定部212Cは、位置検出部212Bからの位置座標の入力タイミング毎に、口腔に動きがあったと判定するまで、口腔に動きがあったかを繰り返し判定する(S131)。具体的には、音素判定部212Cは、今回入力されたフレーム(位置座標)を前回入力されたフレームと比較し、今回入力した位置座標が前回の位置座標から所定距離以上に変化している場合には口腔に動きがあったと判定する。なお、前回入力されたフレームだけではなく、過去所定回数分のフレームと今回入力されたフレームが比較される構成であってもよい。
口腔に動きがあったと判定した場合に(S131でYES)、音素判定部212Cは、口腔の動きの終了を検出する。この口腔の動きの終了の検出は、入力したフレームと過去の所定回数分のフレームとを用いて行われる。具体的には、音素判定部212Cは、連続して所定回数分、前回の位置座標からの変化が所定距離より小さい場合には口腔の動きが終了したと検出する。音素判定部212Cは、口腔の動きが開始したと判定したときから口腔の動きの終了を検出したときまでのフレームを入力したフレーム群から切り出す(S132)。この後、音素判定部212Cは、本処理を終了する。
図7(b)を参照して、音素判定部212Cは、ステップS132でフレーム群を切り出した場合に、音素判定データベースDBに登録された音素群の中から1の候補を選択する(S133)。音素判定部212Cは、選択した候補に対応する発光点t0〜t3の座標(舌等の口腔形状)やこの座標の変化(口腔の動き)を音素判定データベースDBから読み出して、切り出したフレーム群との一致度合いを算出する(S134)。
なお、図3(b)の変形例のように、受光点r2〜r5が配設されている場合には、音素判定部212Cは、受光点r2〜r5が遮光されたかどうかの判定結果が距離算出部212Aから通知される。受光点r2〜r5が配設されている場合には、この受光点r2〜r5の遮光の有無についても発光点t0〜t3の座標やこの座標の変化とともに、音素と対応付けて音素判定データベースDBに登録されている。そして、この遮光の有無をも考慮して、上記一致度合いが算出される。
例えば、「t」と「n」とでは、発光点t0〜t3の座標(舌等の口腔形状)やこの座標の変化(口腔の動き)の一致度合いはあまり変わらず、いずれの音素であるかを判別することが困難であるが、受光点r2、r3が遮光されている場合には、「n」の可能性が高い。このような場合には、音素「t」の場合には受光点r2、r3が遮光されていないと、音素「n」の場合には受光点r2、r3が遮光されていると音素判定データベースDBに登録しておく。そして、受光点r2、r3が遮光されていないと通知された場合には、音素「n」より音素「t」への一致度合いが高く算出される。逆に、受光点r2、r3が遮光されていると通知された場合には、音素「t」より音素「n」への一致度合いが高く算出される。これによって、より精度良く音素の推定を行うことができる。
音素判定部212Cは、算出した一致度合い(評価結果)とRAM24に記憶されている過去最大の一致度合いを示す評価結果(過去最大評価結果)とを比較して、評価結果が良いか(より一致度合いが高いか)どうかを判断する(S135)。なお、RAM24には、過去最大評価結果とともに、この過去最大評価結果に対応する音素の候補(過去最大候補)が記憶されている。
算出した評価結果の方が記憶されている評価結果より良い場合には(S135でYES)、音素判定部212Cは今回算出した評価結果及びこれに対応する音素でRAM24に記憶されている過去最大評価結果及び過去最大候補を更新する(S136)。この後、音素判定部212Cは後述のステップS137を実行する。
一方、算出した評価結果の方が記憶されている評価結果より悪い場合には(S135でNO)、音素判定部212Cは、音素判定データベースDBに記憶されている全音素の候補についてステップS134を実行して一致度合いを算出したかどうかを判断する(S137)。音素判定データベースDBに記憶されている全音素の候補について一致度合いを算出していないと判断した場合には(S137でNO)、音素判定部212Cは、本処理をステップS133に戻して、未だ選択されていない1の候補を選択する。
音素判定データベースDBに記憶されている全音素の候補について一致度合いを算出したと判断した場合には(S137でYES)、音素判定部212CはRAM24に記憶されている過去最大候補で発音処理を実行させるように、発音制御部213に指示する(S138)。この後、音素判定部212Cは、音素判定処理(その2)を終了させる。
なお、音素推定処理(その1)と音素推定処理(その2)とはマルチタスクで実行される。また、ステップS132で、フレーム群を切り出した場合に前回に切り出したフレーム群について音素推定処理(その2)が実行されている場合には、音素判定部212Cは前回のフレーム群についての処理を実行した後に今回切り出したフレーム群についての音素推定処理(その2)を実行する。
上述したように、本実施形態では、口腔センサ100によって、各発光点tから出力されて受光点rに入力された光の強度を示す明るさ情報が取得される。この明るさ情報は、各発光点tから受光点rまでの距離dが反映されている。音素判定装置200によって、この明るさ情報を用いて距離dを算出して、この距離dを用いて各発光点t0〜t3の位置座標(舌形状)を算出することができる。
そして、音素判定装置200によって、各発光点t0〜t3の位置座標やこの位置座標の変化と、音素判定データベースDBに登録されている全ての音素に対応する各発光点t0〜t3の位置座標やこの位置座標の変化との一致度合いが算出される。そして、算出された一致度合いのうちで最も一意度合いが高い音素が、ユーザの口腔形状に対応する音素であると判定されて、この音素が発音される。
このように、口腔内に発光点t及び受光点rを配設することで取得した明るさ情報を用いて舌形状及び舌形状の変化を検出し音素を判別するので、子音を精度良く判別することができる。これによって、口唇を外部から撮影した撮影画像から音素を判定する従来技術に比較してより精度良く音素を判定することができる。また、音素判定装置200では、明るさ情報を用いて音素を判定することができるため、超音波画像を視認して音素を特定する従来方法とは異なり、口腔形状を視認して音素を特定できる技能を持たない一般ユーザでも音素を判定することができる。
また、本音声判定システムでは、口腔内には光ファイバ群3や支持枠4、シート部材5等の非金属で取り替え容易な部材のみを配置するので、洗浄や定期的な交換が容易である。このため、本音声判定システムは衛生面でも優れている。
本実施形態は、以下の変形例を採用することができる。
(1)なお、本実施形態では、発光点tの個数は4つであり、受光点rの個数は2つであるがこれに限定されず、音素を好適に特定できれば幾つであってもよい。もっとも、少なくとも、舌上に配設される発光点の個数は複数(2以上)あることが舌形状を判別することができるため好ましい。
(2)なお、発光点t0〜t3が舌上に配置されて、発光点t0〜t3の位置座標が算出される構成であるが、受光点rを複数(例えば4つ)舌上に配設するとともに発光点tを口腔上面に配設し、受光点rの位置座標が算出される構成であってもよい。この場合には、受光点rの位置座標から音素が判定される。
(3)また、音素判定データベースDBには、複数の音素及び各音素に対応する発光点t0〜t3の位置座標とこの位置座標の変化が出荷段階から予め登録されている。しかしながら、これに限定されず、出荷段階には各音素に対応する発光点t0〜t3の位置座標とこの位置座標の変化を未登録にしておき、ユーザが口腔センサ100をセットした状態で、各音素の口腔形状及び動きをすることにより音素判定データベースDBに登録させてもよい。
(4)なお、本実施形態では、音素推定処理(その2)を用いて、音素判定データベースDBに登録される複数の音素から切り出したフレーム群に対応する音素を特定しているが、隠れマルコフモデル(HMM)を生成してViterbiアルゴリズム等を用いて一番可能性の高い音素を特定してもよい。
(5)また、本実施形態では、音素判定装置200によって、明るさ情報から発光点t0〜t3の位置座標(口腔形状)が算出されて、この口腔形状に基づいて音素が判定される。しかしながら、本発明はこの構成に限定されず、明るさ情報に対応する音素をニューラルネット等のアルゴリズムによって学習させて、明るさ情報から直接(口腔形状を算出せずに)音素が判定される構成であってもよい。
(6)なお、音素判定装置200は、汎用のパーソナルコンピュータにアプリケーションプログラムをインストールした構成としたが、専用機を用いても良い。
(7)また、本実施形態では、判定した音素を発音しているが、この構成に限定されない。例えば、判定した音素を音素データとして記録したり、舌形状や文字にして画面表示してもよい。また、判定した音素が音声ワープロや電話発信のための音声ダイヤルとして用いられてもよい。
(8)また、本実施形態では、指示枠4は歯列の内側であるが、内側に代えて外側でもよい。更に、受光部rを指示枠4によって口蓋に取り付けられる構成に限定されず、口蓋に取り付けられさえすれば如何なる取り付け具によって取り付けてもよい。例えば、総入れ歯、歯列の矯正器具に取り付けることによって受光部rを口蓋に取り付ける構成等であってもよい。
100−口腔センサ 3−光ファイバ 31(31A〜31E)−光ファイバ 32−光ファイバ 5−シート部材 8A−受光部(受光素子、受光部) 8B−発光部(発光素子、発光部) 14−マイコン(受光強度検出手段) 200−音素判定装置 212−判定部 212B−位置検出部 212C−音素判定部 r(r0、r1、rj)−受光点(受光部) t(t0〜t3)−発光点(発光部)
Claims (5)
- 装用者の口蓋および舌上の一方に装着された発光部と、他方に装着された受光部とを備え、前記発光部及び前記受光部のうち舌上に装着されるものが複数個あるセンサ部と、
前記受光部の受光強度パターンを検出する受光強度検出手段と、
を備えた口腔センサ。 - 前記発光部は、口腔外に設けられた発光素子と、この発光素子からの光を舌上又は口蓋に伝達するための光ファイバを備え、
前記受光部は、口腔外に設けられた受光素子と、この受光素子に舌上又は口蓋で入力された光を伝達するための光ファイバを備える、
請求項1に記載の口腔センサ。 - 前記発光部及び前記受光部のうち舌上に配置されるためのものは、ユーザの舌上に配置するための薄手のシート部材上に所定間隔を空けてそれぞれ配置されている、
ことを特徴とする請求項1又は2に記載の口腔センサ。 - 請求項1〜3の何れかに記載の口腔センサから前記明るさ情報を入力する入力部と、
前記明るさ情報に基づいて、ユーザの口腔形状に対応する音素を判定する判定部と、
を備えた音素判定装置。 - 前記判定部は、
前記明るさ情報に基づいて、前記光出力部及び前記受光部のうち舌上に配置された方の位置を所定時間間隔毎に検出する位置検出部と、
前記位置検出部による複数回分の検出位置に基づいて、音素を判定する音素判定部と、
を備えた、
ことを特徴とする請求項4に記載の音素判定装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005307210A JP2007111335A (ja) | 2005-10-21 | 2005-10-21 | 口腔センサ及び音素判定装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005307210A JP2007111335A (ja) | 2005-10-21 | 2005-10-21 | 口腔センサ及び音素判定装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007111335A true JP2007111335A (ja) | 2007-05-10 |
Family
ID=38094055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005307210A Withdrawn JP2007111335A (ja) | 2005-10-21 | 2005-10-21 | 口腔センサ及び音素判定装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007111335A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016031534A (ja) * | 2014-07-28 | 2016-03-07 | リウ チン フォンChing−Feng LIU | 発話認識システム、発話認識装置、および発話認識方法 |
WO2020079918A1 (ja) * | 2018-10-18 | 2020-04-23 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
-
2005
- 2005-10-21 JP JP2005307210A patent/JP2007111335A/ja not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016031534A (ja) * | 2014-07-28 | 2016-03-07 | リウ チン フォンChing−Feng LIU | 発話認識システム、発話認識装置、および発話認識方法 |
JP2018028681A (ja) * | 2014-07-28 | 2018-02-22 | リウ チン フォンChing−Feng LIU | 発話認識システム、発話認識装置、および発話認識方法 |
WO2020079918A1 (ja) * | 2018-10-18 | 2020-04-23 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2696307C1 (ru) | Коммуникационное устройство, коммуникационный робот и машиночитаемый носитель данных | |
US6343269B1 (en) | Speech detection apparatus in which standard pattern is adopted in accordance with speech mode | |
JP6484317B2 (ja) | 発話認識システム、発話認識装置、および発話認識方法 | |
US11105792B2 (en) | System and method for detecting halitosis | |
JP6839818B2 (ja) | コンテンツ提供方法、コンテンツ提供装置及びコンテンツ提供プログラム | |
RU2523624C2 (ru) | Способ и система для определения положения источника звука | |
US20060112754A1 (en) | Method and device for correcting acceleration sensor axis information | |
US6272466B1 (en) | Speech detection apparatus using specularly reflected light | |
US20070168187A1 (en) | Real time voice analysis and method for providing speech therapy | |
JP2005160640A (ja) | 生体状態検出装置 | |
CA2611259A1 (en) | Speech analyzer detecting pitch frequency, speech analyzing method, and speech analyzing program | |
JP6518134B2 (ja) | 眼前装着型表示装置 | |
JP2012059107A (ja) | 感情推定装置、感情推定方法およびプログラム | |
US20240041569A1 (en) | Method for analyzing an image of a dental arch | |
JP2007111335A (ja) | 口腔センサ及び音素判定装置 | |
CN108968972A (zh) | 柔性疲劳检测装置以及信息处理方法及装置 | |
JP2020126195A (ja) | 音声対話装置、音声対話装置の制御装置及び制御プログラム | |
JP4941966B2 (ja) | 感情の判別方法、感情判別装置、雰囲気情報通信端末 | |
JP7021488B2 (ja) | 情報処理装置、及びプログラム | |
JP2012230534A (ja) | 電子機器および電子機器の制御プログラム | |
KR20090070325A (ko) | 멀티모달 정보기반 응급상황 인식 시스템 및 방법 | |
JP6909733B2 (ja) | 音声分析装置および音声分析方法 | |
JP2007187898A (ja) | 吹奏楽器練習システム及び吹奏楽器練習装置 | |
JPH1189807A (ja) | 脈診支援装置 | |
JP4517838B2 (ja) | 音声処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080820 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090128 |