JP2004526473A - 口の動作及び関連した事象を利用する方法 - Google Patents

口の動作及び関連した事象を利用する方法 Download PDF

Info

Publication number
JP2004526473A
JP2004526473A JP2002542259A JP2002542259A JP2004526473A JP 2004526473 A JP2004526473 A JP 2004526473A JP 2002542259 A JP2002542259 A JP 2002542259A JP 2002542259 A JP2002542259 A JP 2002542259A JP 2004526473 A JP2004526473 A JP 2004526473A
Authority
JP
Japan
Prior art keywords
tongue
mouth
user
learner
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002542259A
Other languages
English (en)
Inventor
フレッチャー,サミュエル・ジー
Original Assignee
ロゴメトリックス・コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ロゴメトリックス・コーポレーション filed Critical ロゴメトリックス・コーポレーション
Publication of JP2004526473A publication Critical patent/JP2004526473A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/22Ergometry; Measuring muscular strength or the force of a muscular blow
    • A61B5/224Measuring muscular strength
    • A61B5/228Measuring muscular strength of masticatory organs, e.g. detecting dental force

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Dentistry (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Orthopedics, Nursing, And Contraception (AREA)

Abstract

発声の評価、発声治療を行い、発声の発達を図り及び外部装置を制御するとき口の動作を利用する方法が使用される。舌とセンサ位置(図1)の接触を検出する検出センサを有するセンサ板を備える装置が使用される。本発明の1つの面は、発声中、舌と口蓋との接触の表現物を見ることと、該表現物を分割型スクリーン形態で表示されたモデル表現物と比較することとを許容する。モデル表現物は、センサ板を利用して別の発声者により発生させ又は電子的に保存されたコンピュータ発生表現物によって発生させることができる。該表現物を分析して発声の熟達さを評価し且つモデルを模擬して発声を改善させることができる。

Description

【0001】
本発明は、口の動作及び関連した事象を利用する方法に関する。
【関連出願の相互参照】
【0002】
本出願は、以下に具体的に記載する部分を含むが、これらの部分に限定されない、その内容を参考として引用し本明細書に含めた、2000年11月15日付けで出願された、米国仮特許出願第60/249,148号の利益を主張するものである。
【連邦支援の研究又は開発の宣明】
【0003】
該当なし
【発明の背景】
【0004】
1.発明の分野
本発明は、全体として、口の動作を使用する方法、より具体的には、発声治療法を提供し且つ発声を評価するため舌の動作を使用する方法に関するが、これにのみ限定されるものではない。
【0005】
2.関連技術の説明
本明細書にて、発声とは、意思伝達の発達段階にて声の発声身振り及び音パターンを真似する生物学的傾向の結果物であると定義する。人間は、先天的方法、過程又は表現を使用して音韻学的機能を生得し且つ体系化し、また、音の知覚及び発生に導かれるとの概念が本明細書に含めた開示内容の基礎となるものである。内発的像模擬(EIM)仮説として識別されるこの概念化は、乳児の顔及び音の模倣、音韻学的種類の知覚、口の構造及び機能の成熟及び最適な音の発生の観察に基づく従来の知見により支えられる。
【0006】
新生乳児の研究の結果、赤坊は、乳児の初期の段階から、練習するすなわち試行錯誤を伴わずに、口の開き、舌の突き出し及び母音状の発声の如き身振りを真似することが分かった。
【0007】
発声の発達の判断は、聴覚が音の模擬及び発声の学習において実質的に排他的な役割を果たしていると想定するものと思われる。この考えは、重度乃至完全な聴覚喪失を伴う子供は乳児の初期の段階から重大な発声欠乏症を示すとの観察により裏付けられている。しかし、発声を模擬し且つ音を学習するときの視覚を利用することの潜在的に有用性は、殆どの言語動作は視覚的に把握することができないということから実現されていない。初期の顔の動き及び唇の音の模擬の如き発声に関係する行為は、事実上、完全聴力喪失の場合でも子供の応答性に存在する。かかる知見は、学習者が通常は隠れている構音の身振り及び動作にアクセスすることができるならば、視覚はその後の発声の模擬及び構音の学習時に重要な役割を果たすことを示唆するものである。
【0008】
1800年の後半に、音声学者は、口蓋に粉体を被覆し、人に発音させ、次に舌が接触した箇所を図に描き又は写真を撮り、粉体を除去することにより、音の発生パターンを視覚化することが可能であることを知った。舌−口蓋の接触パターンは、個々の被験者の差にもかかわらず、判別可能であると主張された。しかし、2番目の音を発音すると、舌口蓋のぬぐいパターンが損われることが分かった。発声音を修正するとき、この口蓋運動描写法を使用しようとした場合、この効果は、直ちに問題となった。例えば、バーカ(Barker)(発声異常ジャーナル(Journal of Speech Disorders)、2、165ページ)は、アーベローゼロット(Abbe Rousselot)が構音器官の位置を決定し且つ矯正するため口蓋運動描写法を「広範囲に」使用したことを報告している。しかし、1人の人間が話したフランス語における英語のアクセントを無くそうとする5年間に亙る実験における彼の努力は成功しなかった。このように、動的発声は、物理的に解明されないままであり、発声訓練のため口蓋運動描写法技術を使用することは立ち消えとなった。
【0009】
1950年代及び1960年代、発声の動的性質を明らかにする新たな方法のための真剣な研究が開始された。X線映画撮影法は、可能な門戸を開くものではあったが、X線の照射に内在する危険な放射線に伴う難点、中心フレームの選択、手による追跡速度が遅く且つ面倒であること、ノイズのため音波の細部が不鮮明になること、及び柔軟な組織が身体構造体の影に隠れてしまうという問題点は、その発声矯正法への使用を著しく制限するものであった。コンピュータ利用のX線マイクロビームシステムは、放射線を少なくするが、この複雑で且つ高価な技術は、同時に追跡可能な数箇所にのみ診断観察を制限するものであった。また、放射線は、減少したものの、依然として、発声矯正に使用することを妨げるものであった。1980年代、磁気共鳴画像化法は、身体を輪切りにする原理を発声の研究に応用するものであったが、そのコスト及び被験者が仰臥姿勢とならなければならないというような技術的難点は、その発声矯正への使用を制限するものであった。また、情報が1秒間に数個の標本にのみ制限されることは、発声にてその使用の意欲を喪失させるものであった。
【0010】
単音の観察の制約を解消するため、電子技術を使用する口蓋運動描写法を利用する観察法が1960年代に再登場した。ロシアのクスミン(Kusmin)(コペンハーゲンにおける聴覚に関する第4回国際会議(Forth International Congress on Acoustics)報告書G35)は、舌口蓋の接触を検出するため対に構成した電極を使用した。それら双方の電極は、回路を完結させるため同時に接触しなければならないが、その他の何人かの研究者もこの方法を採用していた。キッド(Kydd)及びベルト(Belt)(発声及び聴力異常ジャーナル(Journal of Speech and Hearing Disorders)29:489−492)は、別の口蓋運動描写法を採用した。彼等は、舌口蓋の接触を検出する作用を果たす12個の電極と同様に電池内の正極として舌を使用した。クスミン及びキッド−ベルトのシステムの双方には、信号の検出及びセンサ同士が唾液で橋絡するという問題が多数、存在していた。
【0011】
1969年、フレッチャ(Flatcher)、ベリー(Berry)及びグリア(Greer)(1978年9月12日に、フレッチャらに対して授与された米国特許第4,112,596号参照)は、交流信号を使用して覚知し得ない電流を身体内に導入する方法を採用した。電流は、その発生源から舌まで且つ舌を通って48個の電極である「偽口蓋」におけるセンサまで流れる。彼らの技術は、唾液による橋絡という問題点を実質的に解消し且つフレッチャ及びその他の共同研究者等が偽口蓋センサの数を96まで増すことを可能にするものであった。
【0012】
発声は、複雑な生物学的及び音声学的系からの出力を表わすものであるから、構音逸脱を生じさせる多数の原因が予想される。言語病理学者間で長く受け入れられてきた一般的な仮説は、構音異常は、学習者が正常な音の発生の熟達さに達するのを妨げる経験的及び身体的状態の結果物であるということである。以下に説明するように、かかる逸脱の可能な発生原因をピンポイントで探知するのを助け得るように、幾つかの検査法及び測定法が開発されている。
【0013】
a)目標物から目標物への舌の配置及び運動の制御
1980年初めからの観察から、発声者は、内部の空間的表現すなわち認知位相写像法を使用することにより音韻学的に命令された目標物の位置に対する運動動作を計画し且つ制御することが示唆される。発声能力が発達する間、構造上及び(又は)機能上の不規則性を迂回し且つ(又は)解消することを助ける特定の方法を人間がどの程度まで見出し得るかは、依然として推測によるものである。例えば、ある逸脱は、発声者の認知マップを完全に活用することを妨げる。年齢に亙って話す速度が速くなり且つ変動が少なくなることは、成熟と共に、運動の能力が増すことの証明である。また、このような運動能力の向上は、発声者が身体的不十分さを解消するのに役立つことも予想される。他方、スミス(Smith)及びゴッファマン(Goffman)(音声、言語及び聴力研究ジャーナル(Journal of Speech、Language and Hearing Research)、41:18−30)は、幼年時の変動率が大きいことは有益であると示唆している。これは、成長年齢の間、急速に変化する口の構造に対し子供が順応することを助ける神経回路網の可塑性がより大きいことを示すものである。
【0014】
運動制御系内の異なる位置における乱れは、動作中、また、口腔内の目標姿勢を実現するときの正確さの独得な乱れを表わすとの仮説をたてることができる。口の運動の乱れを評価し、判別し且つ類別するのに使用可能な技術における従来の制限を1つの理由として、この仮説の有効性は、最良の場合でも推測的なものにしか過ぎない。
【0015】
b)子音の最高反復速度
子音の最高反復速度は、通常、発声様の活動時における口の運動の巧みさを評価するために口/周縁検査するときに音声言語病理学者が使用するものである。これらは、また、亜正常な口運動の巧みさの関数として構音の改良度の低下を予想するのに役立てるべく使用することもできる。これら測定法の背景となる原理は、速い発声及び口の読み取りは、通常、発声者の最高の連続的速度付近で行われるということである。発声者が「速くする」ように強制されるに伴い、エラーの発生率は増大する。この構音の脆弱さを使用して口運動の巧みさの不足を明らかにするのに役立てることができる。この場合、かかる亜正常な口運動を調和させることは、発声の模擬の巧みさに影響を与えるものと予想されよう。
【0016】
音節の最高反復速度(MSRR)を評価する従来の方法は、発声者が「pataka」のような子音−母音セットを5秒間で何回反復することができるかを数えることであった。この方法は、検査者が音と経過時間を同時に数えることを要求するものであった。フレッチャ(音声及び聴覚研究ジャーナル、15、763−770)は、「タイムバイカウント」法を導入することにより、この方法を改良した。この方法において、検査者は、ストップウォッチを始動させ、次に、所定数まで子音セットを数え、ストップウォッチを停め、次に、経過時間を読み取り且つ記録する。この方法を行うとき、エラー測定値は減少するが、特に、新米の検査者の場合、エラーが依然として問題である。
【0017】
c)声の発生時間
構音器官の運動を調和させることは、構音の巧みさのもう1つの重要なファクタである。閉鎖子音の構音解放時点とその後の母音の発声開始時との間における経過時間として定義された、声の発生時間(VOT)は、構音器官の運動の成熟度を示す敏感な指数であると認識されている。大人が話す英語において、声を発した閉鎖子音の発生時(例えば、「ドゥー」の「ディー」)の喉頭の発声動作は、子音の解放時と実質的に同一の時点で開始する(±20ms)。無発音の閉鎖子音(例えば、「トゥー」の「ティー」)において、VOTは、子音の解放後、約40msにて生じる。これらの値は、1つの言語と別の言語とは相違するが、その時間的関係はかなり一定である。
【0018】
構造同士の調和の複雑さ及び関連する動作の隠れた性質に鑑みれば、VOTの時間関係を模擬することが困難であることは驚くべきことではない。このことは、成熟値に達することが遅いことで示される。初期の発声の発達段階の間、実質的に全ての閉鎖子音が発音される。すなわち、これらは、VOTの遅れが零か又は短い。無発音の子音を表わす、長期間の発達の遅れを伴うVOT値は、その後の2乃至6才の年齢段階にて現れる。神経系統の損傷があれば、この発達過程は遅れる。このように、脳性マヒ及び訥語症を有する者の発声において、VOT値は、依然として、遅れ状態が短い閉鎖子音を発音してこれらの子音をほぼ排他的に使用する状態を示すままである。失語症を有する者のVOT点数は、更に第三のパターンを示す。この状態において、発音した子音VOT対無発音子音VOTの点数は重なり合い、口及び喉頭の運動が不調和であることを反映する。
【0019】
従来、VOTは、音波を利用して測定していた。しかし、音波信号からこれらの測定値を自動的に取得しようとする試みは、子音の解放は、短く、検出が困難な低強度のノイズのみを発生させるということのため、失敗している。この困難性は、閉小時間の間に存在する別のノイズにより更に複雑なものとなっている。
【0020】
d)無意味単語の反復
音韻学的記憶及び語彙の知識を測定するため、無意味単語の反復試験が行われることが増えつつある。ギャザーコール(Gathercole)及びその共同研究者達(応用認知心理学、13:65−67)は、思春期にて音韻学的働きの記憶と語彙との間に強い関係があることを知見した。この観察から、彼等は、音韻学的制約は子供の年令を過ぎても単語の学習に影響を与え続けることを示唆している。構音の不十分さと無意味単語の反復エラーとの間の関係も判明した。
【0021】
発声構音障害のある子供の約半数は、言語障害も関係している。この比率は、子供が約6才以上となると増大し、子供時代の発声障害の多くは正常となる。発声/言語障害と無意味反復作業の成績不良との関係は、口頭作用の記憶を発達させる作業における全体的な処理能力の制限を反映するであろうと推定する者もある。実際には、言語不足と亜正常な無意味語の反復成績との間の関係は、極めて強く、このため、無意味語試験の成績が亜標準であることは、生まれつきの発声障害の表現型の標識であることを示唆している。
【0022】
e)高年令子供の音韻学的模擬
発声の精緻化の点にて模擬は、重要な役割を果たし続けるとの証拠は、聴覚刺激可能性の研究にて判明した。自分の音韻記憶にない音を真似する人間の能力として規定される刺激可能性は、古くから、音の学習の容易さの指標として使用されてきた。初期の研究は、刺激可能性を構音エラーを補正する能力の一般的な予測物として使用していたことが注目される。より最近、研究者達は、子供の音韻記憶物に存在しない音を真似る能力に基づいて、その刺激可能性を音素−特有の予測物であると定義する傾向にある。
【0023】
また、治療後の構音の普遍化を説明するためにも治療前の聴覚刺激可能性が使用されている。例えば、パウエル(Powel)ら(発声及び聴覚研究ジャーナル、34、1318−1328)は、重要な語の構音を間違う就学前の子供は、その治療目的に関係なく、発声治療の間、これらの音を発生させる点で改善がみられることを知見した。他方、非刺激可能な音は、直接的な治療を必要とするようであった。このように、刺激パターンを正確に模擬することは、音韻学的な普遍化及び治療の応答性の予測物としてのみならず、1つの重要な自己補正の予測物としての作用を果たすことができる。
【0024】
f)持続的構音の誤りの修正
子供時代の構音障害のある多くの子供は、思春期になっても依然として発声困難を伴う。公立学校の言語病理学者が行った調査からの推定では、機能上の構音異常の認められた子供の20%もの多くが従来の聴覚利用の発声矯正法を通じてその異常を解消する能力が持続的に欠如することを示す。すなわち、これらの者は、長期間の従来の発声矯正の支援にもかかわらず、構音異常を解消することができない。このような持続的な不十分さは、子供が10代の年齢に達した後に特に問題となる。多くの研究は、従来の聴覚利用の矯正法を構音又は音スペクトル描写法の音波をフィードバックすることで補充するとき、完全聴覚喪失の子供でさえ、発声能力を改善し得ることを示している。このことは、持続的な機能上の構音誤りを伴う子供は、モデル化した構音パターンを模擬するその能力を完全に呼び起こすため適正な視覚的構音又は音波のモデル化及び整形手順を利用することができるならば、その構音学習上の障害を克服することができることを示唆する。
【0025】
矯正的構音治療における視覚的な構音モデル化及び整形手順に基づく音波の形態に対し又は該形態と組み合わさった舌口蓋接触により得られるであろう相対的に有利な点は、従来、解明されていなかった。これは、その相互依存性に拘らず、事実である。その潜在的に有益なクロスフィードバックは、構音の誤りを完全に識別することに特に関連しており、構音の巧みさの普遍化を改善し且つ発声の巧みさを正常にするのに広く役立つと考えられる。
【0026】
このように、従来の技術は、幾つかの不利益な点を特徴としており、本発明はこれらの不利益な点を対象とするものである。
本発明は、本明細書に記載された方法及び構造上の特徴を利用することにより、上述した欠陥及びその他の問題点を最小にし、また、幾つかの面において、これらを解消するものである。
【発明の簡単な概要及び目的】
【0027】
このため、本発明の1つの目的は、視覚的モデル化及び模擬を通じて発声治療を許容する、舌の動きを利用する方法を提供することである。
【0028】
本発明の別の目的は、その1つの面によれば、発声を評価するため舌の動きを利用する方法を提供することである。
本発明の追加的な目的は、舌の可動性を向上させ得るように舌の動きを利用する方法を提供することである。
【0029】
本発明の更なる目的は、その1つの面に従い、聴覚障害者に対する発声治療法を提供すべく舌の動きを利用する方法を提供することである。
本発明の別の目的は、外国語の能力を開発するため舌の動きを利用する方法を提供することである。
【0030】
本発明の更なる目的は、外部装置を制御するため舌の動きを利用する方法を提供することである。
発声中のモデル舌と口との間の接触位置のモデル表現物を表示し、発声中の学習者の舌と口との間の接触位置の表現物を表示し、学習者に対し、発声中のモデル舌と口との間の接触点のモデル表現物を模擬するよう指令することにより、発声治療法を提供すべく舌の動きを利用する特定の一例としての実施の形態にて、上記の目的及び特に具体的に記載しないその他の目的が実現される。
【0031】
本発明の追加的な目的及び有利な点は、以下の説明に記載され、また、一部分、この説明から明らかになるであろうし、又は、不必要な実験を行わずに、本発明を実施することにより知ることができよう。本発明の目的及び有利な点は、特許請求の範囲に特に記載された器具及びその組み合わせによって実現し且つ得ることができる。
【0032】
本発明の上記及びその他の目的、特徴及び有利な点は、添付図面に関して記載した以下の詳細な説明から明らかになるであろう。
【好ましい実施の形態の詳細な説明】
【0033】
本発明による原理の理解を促進する目的のため、次に、図面に図示した実施の形態に関して説明し、その説明のため、特定の用語を使用する。しかし、これにより本発明の範囲を何ら限定することを意図するものではないことが理解されよう。当該技術分野の当業者で且つこの開示内容を理解した者に通常、案出されるであろう、本明細書に記載された本発明の特徴の任意の変更及び更なる改変例、また、本発明の原理の更なる適用は、特許請求の範囲に記載された本発明の範囲に属するものと見なすべきである。
【0034】
先ず、図1を参照すると、本明細書に記載された実施の形態にて使用される計測器の一例としての実施の形態が図示されている。該計測器は、参考として引用し本明細書に含めた、米国仮特許出願第60/233,770号により完全に記載されている。口蓋計12は、信号処理・ディスプレイ装置16に接続された偽口蓋と称されることがあるセンサ板14を有している。センサ板14は、図2に最も良く図示するように、ベース板20に取り付けられたフレキシブルプリント回路18を有することが好ましい。フレキシブルプリント回路18は、その表面を亙って格子列状に分配された接触感知電極22を有している。好ましくは、フレキシブルプリント回路18は、最初に、薄い峡部26により相互に接続された多数のローブ24を有する薄い平坦な板として製造されるものとする。この形態は、フレキシブルプリント回路18をベース板20に接着することを許容し、このベース板20は、図3に示すように、ユーザの口蓋及び歯の形態に合うように柔軟なプラスチック材料で形成されたものとする。ローブ24の間の空間25は、フレキシブルプリント回路18がベース板20の曲率に適合し且つこれと同時に、センサ22の間に所望の距離を保持することを許容し得るように変更することができる。フレキシブルプリント回路18の形状及び可撓性は、センサ板14が異なるサイズのユーザの口蓋に適合するのを許容する。センサ板14は、センサ板14がユーザの口蓋に取り付けられたとき、ユーザが楽に発声するのを許容し得るように薄く、約0.5mmの構造とされている。フレキシブルプリント回路18は、取り付けられたとき、ユーザの切歯と唇との間に位置するように、センサ板14上に配置された唇センサ28を有することも好ましい。その内の1つを図4に図示した、本発明の口蓋計を作用可能にするため、回路配置の幾つかの可能な実施の形態を使用することができる。
【0035】
標準的な格子パターンにて電極センサ22を有する口蓋計12を含む、この好ましい計測器は、唇、舌歯、及び舌口蓋の接触を検出し、測定し、タイミングを合わせ且つ比較することを可能にする。電極センサ22との接触は、分割型スクリーン30の形態にて表示されることが好ましい。スクリーンの一側部におけるディスプレイは、ユーザと電極センサ22との接触を表わす。反対側部は、別のセンサ板14を通じてコンピュータソフトウェア又は別のユーザにより発生される表現物を有することができる。口蓋計12は、また、ユーザが発した音を検出するためマイクロフォン32を有することも好ましい。
【0036】
モデル化及び模擬を通じて構音の変化を容易にするため舌の動きを利用する方法に関して、以下に説明する。好ましくは、唇と舌との接触を検出するためセンサ22の列を有する特製の偽口蓋14が被験者に装着される。口蓋計12が使用されるとき、センサ22との接触が検出され且つ処理及びディスプレイ装置16に伝送される。接触する前、口蓋センサ22は、格子配列内の小さい黒点34としてモニター上に表示されることが好ましい。黒点34は、その配置位置が歯及び口蓋の形態に対し正確に表現されるよう、スクリーン上に配置される。歯36は、観察者が舌から上方を見るかのように、表現される。このように、歯36は、異なる音がモデル化され且つ構音されるとき、口内で構音動作が開始する様子、時及び場所に関してユーザが正確に特定するのを助け得るように自然の方位制御標識として作用する。黒点34の像は、参照番号38で示したセンサの接触を表示し得るように、寸法を拡大し且つ青色に色変化させることが好ましい。拡大した黒点38の各々は、対応するセンサ22との接触を表わし、これにより、接触の境界、程度及び面積を定量化することができる。
【0037】
口蓋計のデータの採取が開始されたとき、センサの接触を採取し且つ例えば、好ましくは、200Hzの速度にてコンピュータの記憶装置に保存する。平行な音波の音韻学的データを取得し且つ同時に保存することが好ましい。口蓋計のフィードバックモードにおいて、モデル及び学習者の応答から横に並んだリアルタイムの接点パターンディスプレイが50Hzの速度で発生されるようにすることが好ましい。モデルの接触パターンは、発声障害のある学習者が視覚的及び聴覚的モデルパターンの双方を正確に模擬することを助け得るように提供された付随的な音波フィードバックを有する予め記録した発音から得られることが好ましい。発音すべき刺激音、単語、フレーズ及び文章は、口蓋の像の下方に印刷されることが好ましい。
【0038】
口蓋計の再表示又はその後の分析モードにおいて、構音行為には、時間波形ディスプレイにより強さを同調させることが好ましい。このことは、音を発生させるとき、時間連続体を基準として、カーソル制御の閉鎖動作を許容し又は動的像をスローモーションでディスプレイすることを許容する。自動データ分析手順は、この情報を接触箇所、形態及びタイミングの定量的な表現に変換することになる。このことは、モデルを模擬するとき、学習者の応答性がモデルを如何に正確に真似るかを表わす数値点数を生じさせることを許容する。学習者の応答性が所定のモデル化パターンに近づくのに伴い、点数は100%近くまで増大する。このように、数値の変換は、成功の確実さの解釈を容易にすることを通じて絶対的模擬を容易にすることになる。
【0039】
好ましくは、学習者は、最適な発声者とも称されるモデル発声者から発声された音、単語、及びフレーズを模擬するように導かれようにする。モデル発声者は、特定の年令、性別、言語の型式又は学習者が模擬することを欲する、当該技術分野の当業者に既知のその他の任意の範疇の如き、特定のグループを表わすものとすることができる。好ましくは、学習者とモデルとの適合性に関して、視覚的な模擬の正確さについて分析されるようにする。所定の応答の間、モデル化したものと模擬した舌口蓋の接触箇所及びタイミングの適合性について視覚的模擬の正確さについて分析することができる。次に、各学習者の応答時に実現される接触パターンの適合性の近似性を表わす数値点数を求め且つコンピュータモニター上に表示することができる。ある時間に亙る所定の刺激に対する模擬の正確さを示す学習曲線により視覚的フィードバックを補足することができる。例えば、応答が成功した後、書き込んだコンピュータ発生による形態及びコンピュータモニター上の動的ディスプレイによって点数の向上を確実にすることができる。
【0040】
聴覚的模擬の正確さを音波によって分析し、数値点数を求め且つコンピュータモニター上に表示することができ、この点数は、学習者の応答性の各々にて実現される音波の適合性の近似性を表わす。聴覚的フィードバックは、モデルの刺激及び模擬するときの応答性から発生された音分光写真ディスプレイにより補足することができる。ある時間に亙る所定の刺激に対する模擬の正確さを示す学習曲線に改善程度の数値をプロットすることができる。また、応答が成功した後にコンピュータ発生の可聴の誉め言語及びコンピュータモニター上の動的ディスプレイによって点数の改善を確実なものとすることもできる。
【0041】
目標の模擬が有益である状況は、例えば、次ぎのものを含む、すなわち従来の聴覚利用の治療法を通じて発声異常を解消することのできない子供、聴覚障害者を含む、生まれつきの重度乃至完全聴覚喪失者、舌の動き及び位置を制御するための往復運動能力が制限された者、聴覚の喪失により高周波数の認識が制限され、このため、舌もつれ発音、すなわち、「s」音の歪み及び代用をする者、口内での圧力蓄積能力が低下した者(例えば、口蓋裂、粘膜下裂、短い口蓋等に関連した口蓋帆咽頭の不能の如き障害に起因するもの)、口及び声道の他の部分に影響を与える身体異常への適合不良(例えば、発育子供又は大人で長期間、歯が無いこと、噛み合わせ不良の歯の調節)を有する者、制限された空気供給量を保持するためのより良い方法に発声者を導くこと(例えば、咽頭摘出後、食道による発声を開発し且つ容易にするため、胸部又は隔膜の損傷により空気が減少した後、又は患者の身体状態が発声行為に向けることのできるエネルギを制限するとき、空気を保存するため)、蝸牛管の植込み手術後、新しい発声パターンを学習することを必要とする者、発声の構音の巧みさを保つためヘルプを必要とする、漸進的に聴覚喪失が悪化する者、音の構音動作がいかに誤っているかを聴覚だけでは分からない者(例えば、外国語又は地方の方言)である。
【0042】
このように、発声治療法を提供する方法は、発声中のモデル舌と口との間の接触位置のモデル表現物を表示することと、発声中の学習者の舌と口との間の接触位置の表現物を表示することと、学習者に対しそのモデル表現物を模擬するように指令することとを含む。発声中の学習者の舌と口との間の接触位置の表現物は、モデルと比較し、口の近似性が1つの点数(a score)として算数的に定量化される。
【0043】
また、発声の熟達さを評価するためにも舌の動きを使用することができる。発声は、複雑な生物学的及び音韻学的系からの出力を表わすから、構音逸脱の多数の発生源を予測することができる。言語病理学者間で長く受け入れられていた一般的な仮説は、構音異常は、学習者が正常な音発生を進歩させることを妨げる経験的及び身体的条件の産物であるということである。以下に説明する検査法及び測定法は、かかる逸脱の可能な発生源をピンポイントで探知するのを助けるため開発されたものである。
【0044】
発声の熟達さを評価することのできる1つの方法は、母音を構音する間、舌の動作を評価することを含むことができる。例えば、独立した母音(V)、また、CVCのような子音(C)を有する文章を反覆することにより測定値を得ることができ、この場合、Cは、例えば、「have a CVC away」の如き文章又は所定の音節におけるような、閉鎖子音(p、t、又はk)、又は摩擦音の子音(狭い通路を通じて息を吹き込むことにより発生される、sの如き子音)である。当該技術分野の当業者が認識するように、本発明の範囲内で色々な異なる所定の音節を使用することができる。好ましくは、参加者は、所定の音節を可能な限り自然に反復するようにする。次に、各文章中の音の各々に対する口蓋計パラメータを測定することができる。本明細書に記載された口蓋計パラメータは、口蓋計の如き計測器によって測定されたような、発声中の発音過程を説明する測定値であると定義される。例えば、口蓋計パラメータは、母音の発生から片寄りまでの時間、母音の中間点における顎の分離、接触した最後方の口蓋計センサと中央切歯端縁40との間の距離、接触した最内側センサと歯の端縁42との横方向距離、接触した口蓋の表面積、センサ間のその最幅狭点における通路幅、接触した前側センサから中央切歯の先端センサ44までの距離、閉鎖子音中の前側及び後側センサ接触点間の中間矢じり状方向距離(中間線に近接する2列のセンサ46によって測定)、摩擦音、破擦音(「チェアー(chir)」における「チェ(ch)」及び「ジョイ(joy)」における「ジョ(j)」にように、同一点にて構音された閉鎖音及び摩擦音から成る複合的な発声音)及び側音(「エル(l)」におけるように舌の一側部又は両側部に沿って息を通すことで発生される音)を発する間の狭窄開口部の幅、又は異なる発声者の発声を比較するのに適した当該技術分野の当業者に既知の任意のその他の測定値を含む。
【0045】
同様に、鼻音(m、n、ngの鼻音子音を発音するときのように、空気が鼻孔内で共鳴し且つ鼻から出て行くように柔らかい口蓋を下降させることで構音される)、閉鎖子音、摩擦音、破擦音及び接近子音の如き異なる種類の子音を反復することにより、子音の構音を評価することができる。音の各々は、独立的に、また、「have a VCV away」の所定の音節セットを可能な限り自然に話すような1点母音(a point vowel)の文章にて検査することができる。上述したような、適用可能な口蓋計パラメータは、人の発声を評価すべく標準値と比較するため子音を反復する間に測定することができる。
【0046】
発声の評価のために舌の動作を使用することのできる別の方法は、舌の動作の巧みさを画定するのを助けるべく使用される、口蓋計の目標から目標への動作を追跡する範例を含む。好ましくは、歯−歯肉面の周りの3次元的ユークリッド空間内の予め設定した目標点における舌先端の位置を設定する。次に、受験者が歯−歯肉の境界に沿ってこの点から他の点まで舌を無作為に動かすとき、舌先端の動作速度、経過時間及び配置の正確さを測定することができる。得られたデータは、後で分析するためコンピュータファイル中に記録し、また、コンピュータスクリーンディスプレイにまとめることができる。ディスプレイに数値フィードバックする目的は、受験者の最大の力を励起し、成績の改善を一層促進し、また、目標毎に対する試験経験の関数として舌の操作の熟達さの可能な差の変化を調べることである。
【0047】
目標の位置及び開始信号の励起は、例えば、コンピュータソフトウェアにより又は外科医により行うことができる。目標毎の分析の結果は、例えば、標準値、受験者からの以前の結果、又は別の者と比較することができる。
【0048】
舌の制御を数値的に識別し、計測し且つ類別する能力は、運動を制御するときの不規則性及び異常を識別する能力を向上させることができる。この情報は、また、構音の模擬に影響を与えるであろう特定の舌の動作の巧みさの逸脱を特定するのに役立て得るように使用することもできる。更に、データベース利用の情報は、音波及び(又は)舌口蓋接触の視覚的模擬を通じて構音の巧みさの変化に見られる差を説明するのに役立てることができる。
【0049】
発声の熟達さを評価する別の価値あるツールは、音節の最高反復速度である。音節の反復速度に影響を与える障害は、口の運動制御の未熟さに起因する遅い速度(幼児の速度は遅い);発声構音器官の麻痺又は不全麻痺(弱さ)に起因する遅い速度、不調和に起因する可変速度;注意力の不足すなわち集中力の喪失に起因する速度の低下すなわち最高速度からの逸脱、発声運動制御の低下に起因するリズムの乱れを含む。口の動作の検出方法を使用して参加者の反復の巧みさをより効率良く設定することができる。好ましくは、例えば、標準的な応答時間、好ましくは5秒間に反復されたpa、ta、ka、pata、taka又はpatakaのような所定の音節セットの数が設定されるようにする。当該技術分野の当業者が理解し得るように、本発明の範囲内でその他の所定のセットの音節及び応答時間を使用することができる。唇、舌の先端及び(又は)舌の裏側にて最初の子音の接触が解放された瞬間に経過時間の測定を始めることができる。次に、音節の反復速度を計算し且つ完全な音節セットに亙って音節毎に自動的に印刷し且つ全体の点数を得ることができる。応答速度の変動可能性、リズムの乱れ、速度の低下及び不正確な音パターンに向けた逸脱のような多数の二次的測定値を発生させることもできる。これらの最大音節反復速度の測定値は、目標毎の運動制御の測定値と共に、運動の可能な巧みさ、調和からの逸脱及び正常な発声及び構音器官が障害を受けた者の内で運動障害を評価するため多数セットの観察結果を提供する。
【0050】
発声を評価するために使用することのできる別のツールは、声の開始時間(VOT)を評価すること、すなわち閉鎖子音の構音器官の解放時点とその後の母音の発音開始との間の経過時間を測定することである。閉鎖子音の構音器官の解放時点の一例は、「ティー」音を発するため舌が口蓋から解放される時点である。VOTは音波を利用して測定されるが、子音の解放は、検出困難な短い低強度の雑音を発生させるだけである。音波利用のVOT測定値の不確実性を解消するため、口の動作を検出することができる。本発明による有利な点は、VOT値を容易に、正確に且つ自動的に求めることができる点である。
【0051】
受験者に対するVOT値を求めるため、受験者には口蓋計12のセンサ板14が装着され且つ言葉を発するよう指令が為される。好ましくは、受験者に対し「Have a VCV away」の文章に含まれた12個の母音−子音−母音(VCV)の語の5つの内、無作為セットを読むよう指令が為されるものとする。表現C=/p/、/b/、/t/、/d/、/k/、又は/g/、V=/i/又は/u/は、かかる練習のため母音−子音−母音発声群を形成することのできる子音及び母音セットを含むことを意図し、この場合、「C」は「子音」を意味し、「V」は「母音」を意味する。例えば、発声群「ibi」、「udu」及び「iki」を幾つかのその他のものと同様に選ぶことができる。
【0052】
当該技術分野の当業者が認識し得るように、本発明の範囲内でその他のセットの母音、子音、単語及び文章を使用することができる。音波はマイクロフォン32を通じて検出され、口蓋計により口の動作が検出される。口の動作により検出されるような閉鎖子音狭窄の解放の時点から母音の安定状態を表わす音波的に検出された準周期的な声帯皺襞振動を開始時点までの平均経過時間を言葉のセットの各々に対し設定することができる。これらの値を分析して、標準値、特定の年令又は性別又はその他の所望の表現物のようなその他のVOT点数とVOT点数の差をまとめ且つ比較することができる。
【0053】
本発明の別の有利な点は、舌の可動性が向上する点である。例えば、舌の一部分を除去したような発声に影響を与える状態にある人の場合、その人はその状態を補償するため、舌の動作を変更する方法を見出すべく同様の状態を克服した他の人の口蓋計データを見ることができる。このようにして、補償的な舌の姿勢を開発することができる。同様に、練習する者は、舌の可動性を向上させることに役立て得るように舌の練習方法を開発することができる。舌の練習にとって有益な状況の例は次ぎのようなものを含む、すなわち、往復動作後の弱さ、脳性麻痺及びその他の神経学的異常に関係した舌の動きの正確さを向上させること、咀嚼及び嚥下障害(例えば、声道癌の外科手術に伴う口蓋組織の切開、口全体の歯抜け、自動車又はその他の事故による損傷に起因するようなもの)からの回復に役立てること及び舌の器用さを増すことを望むトランペット演奏者のような人である。
【0054】
人に対して舌の可動性すなわち発声を向上させる設計とされた舌の動作を行うよう指令が為される。舌と口との間の接触位置の表現物は、その人が舌を配置する方法を理解することができるように表示される。次に、その人は舌の動作を繰り返してその人の発声を改善させることができる。
【0055】
電子式制御部を有する外部装置を制御するために口の動作を使用することもできる。電子式制御部は、本明細書に記述したように、電子的に作動可能である装置を操作するため当該技術分野の当業者に既知の任意のシステムを含む。例えば、車椅子を電子式制御部により操作することができる。電子式制御部をセンサ板14に接続し、口の動作が車椅子を操作するようにすることができる。この構成は、さもなければ車椅子を操作することのできない者にとって有益であろう。接触点をセンサ板14の特定の領域に設定し特定の機能を操作することができる。例えば、接触点をセンサ板14の正面側、後側、左側及び右側に設定し、前方、逆方向、左方向及び右方向への方向変更機能をそれぞれ操作することができる。当該技術分野の当業者に認識されるように、1つ又は複数の接触点をセンサ板14における色々な位置に設定し、外部装置の多数の異なる機能を操作することができる。ユーザは舌にて接触点に触れるだけでよく、この場合、舌及びセンサ板14における接触点(センサ22)を通って流れる電流が車椅子を作動させる。電子ゲーム機、絵で口の動きを表現する装置及び当該技術分野の当業者に既知のその他の装置もまた同様の仕方にて舌の動作により制御することもできる。
【0056】
上記のことに鑑みて、本発明は、視覚的モデル化及び模擬を通じて発声治療法を行うことを可能にする舌の動作を利用する方法を提供する。本発明は、また、発声の評価及び舌の可動性を向上させるべく舌の動作を利用する方法も提供する。本明細書に記載された方法は、発声障害者、聴覚障害者、及び外国語を学習する者にとって有益である。本発明は、また、外部装置を制御するため舌の動作を利用する方法も提供する。
【0057】
上述した構成は、本発明の原理の適用例の単に一例にしか過ぎないことを理解すべきである。本発明の精神及び範囲から逸脱せずに、当該技術分野の当業者には多数の改変例及び代替的な配置が案出可能であり、特許請求の範囲はかかる改変例及び配置を包含することを意図するものである。このように、本発明は図面に図示し且つ本発明の最も実際的で且つ好ましい実施の形態であると現在、考えられる形態に関して特定的に且つ詳細に説明したが、当該技術分野の当業者には多数の改変例が可能であることが明らかであろうし、これは、例えば、非限定的に、寸法、材料、形状、形態、機能及び作用方法、組み立て及び使用方法の変更を含み、これらは、本明細書に記載した原理及び概念から逸脱せずに具体化可能である。
【図面の簡単な説明】
【0058】
【図1】本発明の原理による方法にて使用される計測器の斜視図である。
【図2】図1の計測器にて使用されるフレキシブルプリント回路の平面図である。
【図3】ユーザの口内に取り付けられるセンサ板を示す、図1の計測器の概略図である。
【図4】本発明の口蓋計を作用可能にすべく使用される回路配置の幾つかの可能な実施の形態の1つの概略図である。

Claims (129)

  1. 発声治療法を提供する方法において、
    (A)発声中のモデル舌と口との間の接触位置のモデル表現物を表示することと、
    (B)発声中の学習者の舌と口との間の接触位置の表現物を表示することとを備える、発声治療法を提供する方法。
  2. 請求項1の方法において、(C)学習者に対し、発声中、モデル舌と口との間の接触位置のモデル表現物を模擬するよう指令することを更に備える、方法。
  3. 請求項2の方法において、発声中の学習者の舌と口との間の接触位置の表現物を発声中のモデル舌と口との間の接触位置のモデル表現物と比較するステップを更に備える、方法。
  4. 請求項2の方法において、発声中の学習者の舌と口との間の接触位置の表現物と、発声中のモデル舌と口との間の接触位置のモデル表現物との適合の近似性(closeness)を表わす数値点数を発生させるステップを更に備える、方法。
  5. 請求項2の方法において、学習者が発声中のモデル舌と口との間の接触位置のモデル表現物を模擬するとき、確実な補強物を提供するステップを更に備える、方法。
  6. 請求項5の方法において、確実な補強物がコンピュータ発生による形態を備える、方法。
  7. 請求項5の方法において、確実な補強物がコンピュータモニターにおける動的ディスプレイを備える、方法。
  8. 請求項2の方法において、学習者がモデルを模擬する能力を示す学習曲線プロットを自動的に発生させるステップを更に備える、方法。
  9. 請求項1の方法において、発声中の学習者の舌と口との間の接触位置の表現物、及び発声中のモデル舌と口との間の接触位置のモデル表現物が分割型スクリーンに表示される、方法。
  10. 請求項2の方法において、発声のモデル音波表現物を提供するステップを更に備える、方法。
  11. 請求項10の方法において、学習者とモデル音波表現物との間の聴覚的模擬の正確さが音波を利用して分析される、方法。
  12. 請求項11の方法において、音波の適合性の近似性を表わす数値点数が発生される、方法。
  13. 請求項10の方法において、音分光写真ディスプレイがモデル音波表現物及び学習者の発声から発生される、方法。
  14. 請求項2の方法において、モデル表現物が、学習者がモデル表現物を模擬するとき、学習者の舌を練習させるような設計とされる、方法。
  15. 請求項2の方法において、モデル表現物が学習者に対し身体的欠陥を補償するよう指令し得るような設計とされる、方法。
  16. 請求項1の方法において、学習者が従来の聴覚利用の治療法を通じて発声異常を解消することができない、方法。
  17. 請求項1の方法において、学習者が重度乃至完全な聴覚喪失を伴う、方法。
  18. 請求項1の方法において、学習者が舌の動作及び配置を制御する往復運動が制限された能力を有する、方法。
  19. 請求項1の方法において、学習者が舌もつれ発音の原因となる制限された高周波数音認識能力を有する、方法。
  20. 請求項1の方法において、口内に圧力を蓄積する学習者の能力が低下した、方法。
  21. 請求項1の方法において、学習者が口及び声道に影響を与える身体的異常を有する、方法。
  22. 請求項1の方法において、発声動作に供する学習者のエネルギが制限される、方法。
  23. 請求項1の方法において、学習者が蝸牛管インプラント外科手術の後、新たな発声パターンを学習する、方法。
  24. 請求項1の方法において、学習者が漸進的に悪化する聴覚喪失を伴い且つ発声構音の巧みさを保つため支援を必要とする、方法。
  25. 請求項1の方法において、学習者が外国語及び方言から成る群から選ばれた発声パターンを学習する、方法。
  26. 請求項1の方法において、
    (C)発声中、コンピュータスクリーンの上のグリッドドットにより学習者の舌と口との間の接触位置を表現し、該ドットが、学習者の舌と口との間の接触に応答して拡大し且つ色変化するようにすることを更に備える、方法。
  27. 請求項26の方法において、
    (D)学習者の舌と口との間の接触位置の方位を制御する点にて支援するようコンピュータスクリーン上に歯の標識を表示することを更に備える、方法。
  28. 請求項26の方法において、ドットグリッドが学習者の口に注文的に装着したセンサ板に配置されたセンサに応答する、方法。
  29. 請求項1の方法において、発声が、音、単語、フレーズ又は文章を含み、音、単語、フレーズ又は文章が文字にて表示される、方法。
  30. 請求項1の方法において、発声中、学習者の舌と口との間の接触位置が記録される、方法。
  31. 請求項30の方法において、発声中、学習者の舌と口との間の接触位置に対応して学習者の発声が音波を利用して記録される、方法。
  32. 請求項1の方法において、モデルの表現物がモデル発声者によって発生される、方法。
  33. 請求項32の方法において、モデル発声者が特定の年齢群、性別又は言語型式の代表である、方法。
  34. 発声者の発声の熟達さを評価する方法において、
    (A)発声者に対し所定の音節セットを反復するように指令することと、
    (B)所定の音節セットが反復されるとき、発声者の口蓋計パラメータを測定することと、
    (C)発声者の口蓋計パラメータを標準値と比較することとを備える、発声者の発声の熟達さを評価する方法。
  35. 請求項34の方法において、所定の音節セットが1つの母音を含み、口蓋計パラメータを測定することが、学習者が母音の発生(onset)から片寄り(offset)まで該母音を開始するのに必要な時間を測定することを含む、方法。
  36. 請求項34の方法において、所定の音節セットが1つの母音を含み、口蓋計パラメータを測定することが、母音の中間点における顎の分離程度を測定することを含む、方法。
  37. 請求項34の方法において、口蓋計パラメータを測定することが、接触した最前方センサと中央切歯との端縁との間の口蓋計距離を測定することを含む、方法。
  38. 請求項34の方法において、口蓋計パラメータを測定することが、接触した最内側センサと歯の周縁との間の横方向距離を測定することを含む、方法。
  39. 請求項34の方法において、口蓋計パラメータを測定することが、舌が接触した口蓋の表面積を測定することを含む、方法。
  40. 請求項34の方法において、口蓋計パラメータを測定することが、センサの間のその最幅狭点における通路幅を測定することを含む、方法。
  41. 請求項34の方法において、口蓋計パラメータを測定することが、接触した前側センサから中央切歯先端センサまでの距離を測定することを含む、方法。
  42. 請求項34の方法において、口蓋計パラメータを測定することが、閉鎖子音を構音する間、前側及び後側センサ接触点の間の中間矢じり状方向距離を測定することを含む、方法。
  43. 請求項34の方法において、口蓋計パラメータを測定することが、摩擦音、破擦音及び側音を構音する間、狭窄開口部の幅を測定することを含む、方法。
  44. 請求項34の方法において、口蓋計パラメータを測定することが、狭窄開放の開始(onset)から母音の安定的な接触状態までの経過時間(time laps)を測定することを含む、方法。
  45. 請求項34の方法において、口蓋計パラメータを測定することが、舌と口蓋との間の接触境界を測定することを含む、方法。
  46. 請求項34の方法において、口蓋計パラメータを測定することが、舌と口蓋との間の接触位置を測定することを含む、方法。
  47. 請求項34の方法において、所定の音節セットが「have a CVC away」というフレーズを含み、ここで、Vは母音、Cは子音である、方法。
  48. 請求項34の方法において、所定の音節セットが「have a VCV away」というフレーズを含み、ここで、Vは母音、Cは子音である、方法。
  49. 請求項34の方法において、
    (D)口蓋計パラメータをドットグリッドによりコンピュータスクリーン上に表現し、該ドットが、発声者の舌と口との間の接触に応答して拡大し且つ色変化するようにすることを更に備える、方法。
  50. 請求項49の方法において、
    (E)学習者の舌と口との間の接触を方位制御する点にて助け得るようにコンピュータスクリーン上に歯の標識を表示することを更に備える、方法。
  51. 請求項49の方法において、ドットのグリッドが、発声者の口内に注文的に装着したセンサ板上に配置されたセンサに応答する、方法。
  52. 発声治療のため発声を評価する方法において、
    (A)ユーザに対しユーザの舌で目標に接触するよう指令することと、
    (B)ユーザが目標に接触したか否かを判断すべく一連の垂直な横列及び縦列に配置された複数のセンサを有する装置を利用することとを備える、発声治療のため発声を評価する方法。
  53. 請求項52の方法において、(C)ユーザがユーザの舌で目標に接触するのに必要な時間を測定することを更に備える、方法。
  54. 請求項53の方法において、(D)時間を標準値と比較することを更に備える、方法。
  55. 請求項53の方法において、(D)時間をユーザのそれ以前の時間の測定値と比較することを更に備える、方法。
  56. 請求項52の方法において、目標が歯−歯肉表面の周りの三次元的ユークリッド空間内に配置される、方法。
  57. 請求項52の方法において、舌の配置位置の正確さを検出することを更に備える、方法。
  58. 請求項53の方法において、ユーザが舌にて目標物に接触するのに必要な時間がコンピュータの信号によって開始される、方法。
  59. 請求項53の方法において、ユーザが舌にて目標物に接触するのに必要な時間がタイマーによって開始される、方法。
  60. 請求項53の方法において、ユーザに対してユーザの口内の複数の目標に接触するよう指令が為される、方法。
  61. 請求項60の方法において、ユーザが舌にて目標に接触するのに必要な時間が、ユーザの口内の複数の目標の別のものに接触することにより開始される、方法。
  62. 請求項53の方法において、舌が目標から目標に移動するときに舌の速度が測定される、方法。
  63. 請求項52の方法において、
    (C)複数のセンサをドットグリッドによりコンピュータスクリーン上に表現し、該ドットが、ユーザの舌とセンサとの間の接触に応答して拡大し且つ色変化するようにすることを更に備える、方法。
  64. 請求項63の方法において、
    (D)ユーザの舌とセンサとの間の接触方位を制御する点にて助け得るようにコンピュータスクリーン上に歯の標識を表示することを更に備える、方法。
  65. 請求項52の方法において、複数のセンサが、ユーザの口内に注文的に装着されたセンサ板上に配置される、方法。
  66. 請求項52の方法において、ユーザの舌及び複数のセンサに接触することにより、接触時間及び位置を含むデータが発生される、方法。
  67. 請求項66の方法において、前記データが分析及び表示のために保存される、方法。
  68. 請求項52の方法において、ユーザが目標に接触したことに成功したことを表示するためユーザに対しフィードバックが提供される、方法。
  69. 発声治療のため発声を評価する方法において、
    (A)ユーザに対しユーザの口内のある目標にユーザの舌にて接触するよう指令することと、
    (B)ユーザの舌が接触したことを検出することと、
    (C)ユーザの舌が接触したことの測定値を収集することとを備える、発声治療のため発声を評価する方法。
  70. 請求項69の方法において、測定値が、ユーザがユーザの舌にて接触するのに必要な時間を含む、方法。
  71. 請求項70の方法において、時間を標準値と比較することを更に備える、方法。
  72. 請求項70の方法において、時間をユーザのそれ以前の時間測定値と比較することを更に備える、方法。
  73. 請求項69の方法において、目標が、歯−歯肉表面の周りの三次元的ユークリッド空間内に配置される、方法。
  74. 請求項69の方法において、測定値が目標に対する接触の正確さを含む、方法。
  75. 請求項70の方法において、ユーザが舌に接触するのに必要な時間がコンピュータの信号にて開始される、方法。
  76. 請求項70の方法において、ユーザが舌に接触するのに必要な時間がタイマーによって開始される、方法。
  77. 請求項70の方法において、ユーザに対してユーザの口内の複数の目標に接触するよう指令が為される、方法。
  78. 請求項77の方法において、ユーザが舌に接触するのに必要な時間がユーザの口内の複数の目標の別のものに接触することにより開始される、方法。
  79. 請求項69の方法において、測定値が舌の速度を含む、方法。
  80. 請求項69の方法において、舌の接触が複数のセンサによって検出される、方法。
  81. 請求項80の方法において、
    (D)センサをドットグリッドによりコンピュータスクリーン上に表現し、該ドットが、ユーザの舌とセンサとの間の接触に応答して拡大し且つ色変化するようにすることを更に備える、方法。
  82. 請求項81の方法において、
    (E)ユーザの舌とセンサとの間の接触方位を制御する点にて助け得るようにコンピュータスクリーン上に歯の標識を表示することを更に備える、方法。
  83. 請求項80の方法において、複数のセンサがユーザの口内に注文的に装着したセンサ板上に配置される、方法。
  84. 請求項80の方法において、ユーザの舌及び複数のセンサに接触することにより、接触時間及び位置を含むデータが発生される、方法。
  85. 請求項84の方法において、前記データが分析及び表示のために保存される、方法。
  86. 請求項69の方法において、ユーザが目標に接触することに成功したことを表示するためユーザに対しフィードバックが提供される、方法。
  87. 発声治療のため発声を評価する方法において、
    (A)ユーザに対し所定の音節セットを反復するよう指令することと、
    (B)ユーザが所定の音節セットを反復するとき、ユーザの舌と口との間の接触事象を検出することと、
    (C)ユーザが所定の時間にて所定の音節セットを反復する回数を決定し得るよう接触事象を計数することとを備える、発声治療のため発声を評価する方法。
  88. 請求項87の方法において、ユーザが所定の時間にて所定の音節セットを反復する回数を標準値と比較することを更に備える、方法。
  89. 請求項87の方法において、所定の音節セットが、pa、ta、ka、pata、taka、及びpatakaから成る音節群の1つを備える、方法。
  90. 請求項87の方法において、所定の時間が5秒である、方法。
  91. 請求項87の方法において、所定の時間が第一の接触事象にて開始される、方法。
  92. 請求項87の方法において、二次的測定を行うことを更に備える、方法。
  93. 請求項92の方法において、二次的測定が、応答速度の変動性、リズムの乱れ、低速化及び不正確な音パターンに向けた逸脱(drifting)から成る群の少なくとも1つを含む、方法。
  94. 請求項87の方法において、ユーザが所定の時間にて所定の音節セットを反復する回数が表示される、方法。
  95. 請求項87の方法において、ユーザの舌と口との間の接触事象が複数のセンサによって検出される、方法。
  96. 請求項95の方法において、
    (D)複数のセンサをドットグリッドによりコンピュータスクリーン上に表現し、該ドットが、ユーザの舌とセンサとの間の接触に応答して拡大し且つ色変化するようにすることを更に備える、方法。
  97. 請求項96の方法において、
    (E)ユーザの舌とセンサとの間の接触事象の方位を制御する点にて助け得るようにコンピュータスクリーン上に歯の標識を表示することを更に備える、方法。
  98. 請求項95の方法において、複数のセンサがユーザの口内に注文的に装着したセンサ板上に配置される、方法。
  99. 発声治療のため発声を評価する方法において、
    (A)ユーザに対し口の動作を生じさせる言葉を発するよう指令することと、
    (B)口の動作を電子的に検出することと、
    (C)ユーザの声の音波を検出することとを備える、発声治療のため発声を評価する方法。
  100. 請求項99の方法において、(D)口の動作が生じる時間をユーザの声が音を発する時点と比較することを更に備える、方法。
  101. 請求項99の方法において、ユーザの声の音波がマイクロフォンによって検出される、方法。
  102. 請求項99の方法において、口の動作が複数のセンサにより検出される、方法。
  103. 請求項102の方法において、
    (D)複数のセンサをドットグリッドによりコンピュータスクリーン上に表現し、該ドットが、ユーザの舌とセンサとの間の接触に応答して拡大し且つ色変化するようにすることを更に備える、方法。
  104. 請求項103の方法において、
    (E)ユーザの舌とセンサとの間の接触方位を制御する点にて助け得るようにコンピュータスクリーン上に歯の標識を表示することを更に備える、方法。
  105. 請求項102の方法において、複数のセンサがユーザの口内に注文的に装着したセンサ板上に配置される、方法。
  106. 請求項99の方法において、言葉が、「have a VCV away」というフレーズを含み、ここで、Vは母音、Cは子音である、方法。
  107. 請求項99の方法において、口の動作を検出することが閉鎖子音の狭窄解放時点(constriction relaease moment)を検出することを含む、方法。
  108. 請求項99の方法において、ユーザの声の音波を検出することが、母音の安定状態を表示する準周期的な声帯皺襞振動(quasiperiodic vocal fold vibration)の開始を検出することを含む、方法。
  109. 請求項99の方法において、声の発生時点を測定することを更に備える、方法。
  110. 発声治療法を提供する方法において、
    (A)学習者に対し舌の動作を行うよう指図することと、
    (B)舌の動作中、学習者の舌と口との間の接触位置の表現物を表現することとを備える、発声治療法を提供する方法。
  111. 請求項110の方法において、
    (C)舌の動作中、コンピュータスクリーン上にドットグリッドにより学習者の舌と口との間の接触位置を表現することを更に備える、方法。
  112. 請求項111の方法において、前記ドットが、学習者の舌と口との間の接触に対応して拡大し且つ色変化する、方法。
  113. 請求項111の方法において、
    (D)学習者の舌と口との間の接触方位を制御する点にて助け得るようにコンピュータスクリーン上に歯の標識を表示することを更に備える、方法。
  114. 請求項111の方法において、ドットのグリッドが、発声者の口内に注文的に装着したセンサ板上に配置されたセンサに対応する、方法。
  115. 請求項110の方法において、舌の動作が舌を練習させ得るような設計とされる、方法。
  116. 請求項110の方法において、舌の動作が、学習者が身体障害に起因する発声障害を解決するため補償的な舌の姿勢を発達させる設計とされる、方法。
  117. 電子式制御部を有する装置を作動させるべくユーザの舌を使用する方法において、
    (A)舌にアクセス可能な少なくとも1つの接触点を設定することと、
    (B)該少なくとも1つの接触点を装置の電子式制御部に接続することと、
    (C)舌にて少なくとも1つの接触点に接触することと、
    (D)ユーザの舌と少なくとも1つの接触点との間の接触に起因する舌への電気的流れに応答可能な装置を作動させることとを備える、電子式制御部を有する装置を作動させるべくユーザの舌を使用する方法。
  118. 請求項117の方法において、装置が車椅子である、方法。
  119. 請求項117の方法において、装置が電子ゲーム機である、方法。
  120. 請求項117の方法において、装置が、漫画の口の動作の表現物を発生させる装置である、方法。
  121. 請求項117の方法において、少なくとも1つの接触点が複数の接触点を備える、方法。
  122. 請求項121の方法において、複数の接触点の各々が電子式制御部に対し異なる機能を発揮させる、方法。
  123. 請求項117の方法において、少なくとも1つの接触点が複数のセンサによって画成され、該センサがグリッド配列状態でセンサ上に配置される、方法。
  124. 請求項123の方法において、センサ板がユーザの口内に注文的に合うように装着される、方法。
  125. 発声治療法を提供する方法において、
    (A)発声中のモデル舌と口との間の接触位置のモデル表現物を表示することと、
    (B)発声中の学習者の舌と口との間の接触位置の表現物を表示することと、
    (C)学習者に対して、発声中、モデル舌と口との間の接触位置のモデル表現物を模擬するよう指令が為されることと、
    (D)発声中の学習者の舌と口との間の接触位置の表現物を発声中のモデル舌と口との間の接触位置のモデル表現物と比較することと、
    (E)発声中の学習者の舌と口との間の接触位置の表現物と、発声中のモデル舌と口との間の接触位置のモデル表現物との適合の近似性を表わす数値点数を発生させることと、
    (F)学習者が発声中のモデル舌と口との間の接触位置のモデル表現物を模擬するとき、確実な補強物を提供することと、
    (G)発声のモデルの音波表現物を提供することとを備え、
    発声中の学習者の舌と口との間の接触位置の表現物及び発声中のモデル舌と口との間の接触位置のモデル表現物が分割型スクリーンに表示され、
    学習者及びモデルの音波表現物の間の聴覚的模擬の正確さが音波を使用して分析され、
    音波の適合程度の近似性を表わす数値点数が発生され、
    音分光写真ディスプレイがモデル音波表現物及び学習者の発声から発生され、
    発声中の学習者の舌と口との間の接触位置がドットグリッドによって前記分割型スクリーン上に表現され、該ドットが、学習者の舌と口との間の接触に対応して拡張し且つ色変化し、
    学習者の舌と口との間の接触位置の方位を制御する点にて助け得るように歯の標識が分割型スクリーン上に表示され、
    ドットグリッドが学習者の口内に注文的に合わせて装着されたセンサ板上に配置されたセンサに対応し、
    発声が、音、単語、フレーズ又は文章を含み、音、単語、フレーズ又は文章が文字にて表示され、
    発声中の学習者の舌と口との間の接触位置が記録され、
    学習者の発声が、発声中の学習者の舌と口との間の接触位置に対応して音波を使用して記録される、発声治療法を提供する方法。
  126. 請求項30の方法において、モデルの表現物が記録される、方法。
  127. 請求項126の方法において、発声中の学習者の舌と口との間の記録された接触位置を、記録されたモデルの表現物と同期的に再生することを更に備える、方法。
  128. 請求項1の方法において、
    (C)発声中のモデルの唇と歯との間の接触のモデル表現物を表示することを更に備える、方法。
  129. 請求項128の方法において、
    (D)発声中の学習者の舌と歯との間の接触の表現物を表示することを更に備える、方法。
JP2002542259A 2000-11-15 2001-11-14 口の動作及び関連した事象を利用する方法 Pending JP2004526473A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US24914800P 2000-11-15 2000-11-15
PCT/US2001/043978 WO2002039881A2 (en) 2000-11-15 2001-11-14 Method for utilizing oral movement and related events

Publications (1)

Publication Number Publication Date
JP2004526473A true JP2004526473A (ja) 2004-09-02

Family

ID=22942237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002542259A Pending JP2004526473A (ja) 2000-11-15 2001-11-14 口の動作及び関連した事象を利用する方法

Country Status (5)

Country Link
US (1) US6971993B2 (ja)
JP (1) JP2004526473A (ja)
AU (1) AU2002236483A1 (ja)
GB (1) GB2387709B (ja)
WO (1) WO2002039881A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008503293A (ja) * 2004-06-24 2008-02-07 セントレ・ナショナル・デ・ラ・レシェルシェ・サイエンティフィーク 痂皮の予防装置
JP2018042925A (ja) * 2016-09-16 2018-03-22 国立大学法人岩手大学 舌機能評価方法、舌機能訓練方法、舌機能評価装置、及び舌機能訓練装置

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050288731A1 (en) * 2004-06-07 2005-12-29 Shames George H Method and associated apparatus for feedback therapy
US20060085051A1 (en) * 2004-10-19 2006-04-20 Fritsch Michael H Electrical implants
GB0513659D0 (en) * 2005-07-01 2005-08-10 Articulate Instr Ltd Artificial palate
US20070055523A1 (en) * 2005-08-25 2007-03-08 Yang George L Pronunciation training system
US7629897B2 (en) * 2005-10-21 2009-12-08 Reino Koljonen Orally Mounted wireless transcriber device
WO2007053562A2 (en) * 2005-10-31 2007-05-10 North Carolina State University Tongue operated magnetic sensor based wireless assistive technology
US20070168187A1 (en) * 2006-01-13 2007-07-19 Samuel Fletcher Real time voice analysis and method for providing speech therapy
DE602007002906D1 (de) * 2006-05-22 2009-12-03 Philips Intellectual Property System und verfahren zum trainieren eines dysarthrischen sprechers
US20080183107A1 (en) * 2007-01-29 2008-07-31 Miller Bruce D Apparatus and Method for Measurement of Force Exerted by the Tongue and the Lips and Their Applications in Tests and Therapies
US7798149B2 (en) * 2007-01-30 2010-09-21 Han Haduong Method and system for swallow control resulting in improved posture
US20090138270A1 (en) * 2007-11-26 2009-05-28 Samuel G. Fletcher Providing speech therapy by quantifying pronunciation accuracy of speech signals
US9990859B2 (en) 2008-01-17 2018-06-05 Speech Buddies, Inc. Intraoral tactile biofeedback methods, devices and systems for speech and language training
WO2009092107A2 (en) 2008-01-17 2009-07-23 Articulate Technologies, Inc. Methods and devices for intraoral tactile feedback
US9129595B2 (en) * 2008-07-01 2015-09-08 University Of The Witwatersrand Artificial larynx
US8047964B2 (en) 2009-09-09 2011-11-01 Youhanna Al-Tawil Methods and systems for lingual movement to manipulate an object
US8961437B2 (en) 2009-09-09 2015-02-24 Youhanna Al-Tawil Mouth guard for detecting and monitoring bite pressures
US7942782B2 (en) * 2008-09-12 2011-05-17 Youhanna Al-Tawil Methods and systems for lingual movement to manipulate an object
US8579766B2 (en) 2008-09-12 2013-11-12 Youhanna Al-Tawil Head set for lingual manipulation of an object, and method for moving a cursor on a display
US8494857B2 (en) 2009-01-06 2013-07-23 Regents Of The University Of Minnesota Automatic measurement of speech fluency
WO2010087171A1 (ja) * 2009-01-29 2010-08-05 パナソニック株式会社 補聴器および補聴処理方法
US20120078628A1 (en) * 2010-09-28 2012-03-29 Ghulman Mahmoud M Head-mounted text display system and method for the hearing impaired
US20130090931A1 (en) * 2011-07-05 2013-04-11 Georgia Tech Research Corporation Multimodal communication system
US8816814B2 (en) 2011-08-16 2014-08-26 Elwha Llc Systematic distillation of status data responsive to whether or not a wireless signal has been received and relating to regimen compliance
JP2014526714A (ja) * 2011-09-09 2014-10-06 アーティキュレイト テクノロジーズ,インコーポレイティド 発話および言語訓練のための口腔内触覚生体フィードバック方法、装置、およびシステム
US8292786B1 (en) 2011-12-09 2012-10-23 Youhanna Al-Tawil Wireless head set for lingual manipulation of an object, and method for moving a cursor on a display
US9576593B2 (en) 2012-03-15 2017-02-21 Regents Of The University Of Minnesota Automated verbal fluency assessment
US9263044B1 (en) * 2012-06-27 2016-02-16 Amazon Technologies, Inc. Noise reduction based on mouth area movement recognition
GB2508757A (en) * 2012-09-07 2014-06-11 Articulate Technologies Inc Intraoral tactile biofeedback methods, devices and systems for speech and language training
US9226866B2 (en) 2012-10-10 2016-01-05 Susan Ann Haseley Speech therapy device
CN105073073B (zh) * 2013-01-25 2018-12-07 胡海 用于声音可视化及声源定位的设备与方法
WO2015023681A2 (en) 2013-08-12 2015-02-19 Swallow Solutions, LLC Swallowing assessment and improvement systems and methods
US10522052B2 (en) * 2014-07-22 2019-12-31 Alaa S. G. H. S. S. Al-Harbi Method, system and device for indicating the pressure pattern by the tongue for correct pronunciation
US9656060B2 (en) * 2014-12-03 2017-05-23 Neurohabilitation Corporation Methods of manufacturing devices for the neurorehabilitation of a patient
CN105147429A (zh) * 2015-07-28 2015-12-16 安徽工程大学 喉头送话器装置及其使用方法
KR20180115600A (ko) * 2017-04-13 2018-10-23 인하대학교 산학협력단 발화 의도 표현을 위한 두경부 조음기관 물리 특성 기반 시스템
US20210393193A1 (en) * 2020-06-23 2021-12-23 University Of Florida Research Foundation, Inc. Smart pseudo-palate for linguistic and biomedical applications
WO2023007509A1 (en) * 2021-07-27 2023-02-02 Indian Institute Of Technology Bombay Method and system for time-scaled audiovisual feedback of speech production efforts

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3349489A (en) * 1963-02-07 1967-10-31 Shackelford John Hinton Multiple celled pressure sensitive dental device for measuring relative occlusal pressures
US3524932A (en) * 1968-09-10 1970-08-18 Lockheed Aircraft Corp Physiological communications system
JPS526711B1 (ja) * 1971-02-01 1977-02-24
US3752929A (en) * 1971-11-03 1973-08-14 S Fletcher Process and apparatus for determining the degree of nasality of human speech
JPS5011505A (ja) 1973-05-09 1975-02-06
JPS5923834B2 (ja) 1973-05-14 1984-06-05 三菱電機株式会社 2本針縫製装置
US3983865A (en) * 1975-02-05 1976-10-05 Shepard Richard S Method and apparatus for myofunctional biofeedback
US4052799A (en) * 1975-03-25 1977-10-11 Journot Vida M Manually indexed visual test recording apparatus
JPS5342490A (en) 1976-09-29 1978-04-17 Rion Co Artificial cover unit and method of producing same
JPS5347193A (en) 1976-10-12 1978-04-27 Rion Co Dynamic paratograph artificial palate
US4112596A (en) * 1977-01-03 1978-09-12 Fletcher Samuel G Pseudo palate useful for diagnosis and treatment of speech impairment
US4125338A (en) * 1977-02-07 1978-11-14 Lew Hyok S Quatrefoil connector connecting shelves
US4287895A (en) * 1979-03-15 1981-09-08 Rion Co., Ltd. Electropalatograph
JPS55131207A (en) 1979-03-28 1980-10-11 Sumitomo Electric Industries Gas insulated electric device having particle collector
JPS55143146A (en) 1979-04-27 1980-11-08 Rion Co Artificial palate device and its preparation
JPS55148554A (en) 1979-05-10 1980-11-19 Rion Co Artificial palate device
DK155420C (da) * 1979-05-10 1989-10-09 Rion Co Kunstig gane
JPS55153979A (en) * 1979-05-18 1980-12-01 Rion Co Voice and speech learning machine
JPS58150997A (ja) 1982-03-03 1983-09-07 工業技術院長 発音特徴抽出装置
JPS58150995A (ja) 1982-03-03 1983-09-07 工業技術院長 発音特徴抽出装置
US4460342A (en) * 1982-06-15 1984-07-17 M.B.A. Therapeutic Language Systems Inc. Aid for speech therapy and a method of making same
US4520501A (en) 1982-10-19 1985-05-28 Ear Three Systems Manufacturing Company Speech presentation system and method
US4672673A (en) 1982-11-01 1987-06-09 Thomas Jefferson University Artificial larynx
US4622673A (en) * 1984-05-24 1986-11-11 At&T Bell Laboratories Heteroepitaxial ridge overgrown laser
US5016647A (en) * 1985-10-18 1991-05-21 Mount Sinai School Of Medicine Of The City University Of New York Method for controlling the glottic opening
US4907602A (en) * 1985-10-18 1990-03-13 The Mount Sinai School Of Medicine Of The City Of New York Device for controlling the glottic opening
US4784115A (en) 1986-06-16 1988-11-15 Webster Ronald L Anti-stuttering device and method
US4697601A (en) * 1986-12-12 1987-10-06 Durkee Darryl L Tongue force measuring device
US4980917A (en) * 1987-11-18 1990-12-25 Emerson & Stern Associates, Inc. Method and apparatus for determining articulatory parameters from speech data
JPH01260481A (ja) 1988-04-12 1989-10-17 Matsushita Electric Ind Co Ltd ヘッドセット
US5212476A (en) * 1990-09-28 1993-05-18 Maloney Sean R Wireless intraoral controller disposed in oral cavity with electrodes to sense E.M.G. signals produced by contraction of the tongue
US5169316A (en) * 1991-07-09 1992-12-08 Lorman Janis S Speech therapy device providing direct visual feedback
US5257930A (en) * 1991-11-21 1993-11-02 Blakeley Robert W Speech therapy appliance
US5213553A (en) * 1992-04-15 1993-05-25 Jack Light Devices used to improve speech, swallowing and mastication
US5326349A (en) * 1992-07-09 1994-07-05 Baraff David R Artificial larynx
US5393236A (en) 1992-09-25 1995-02-28 Northeastern University Interactive speech pronunciation apparatus and method
US5487671A (en) 1993-01-21 1996-01-30 Dsp Solutions (International) Computerized system for teaching speech
US5536171A (en) * 1993-05-28 1996-07-16 Panasonic Technologies, Inc. Synthesis-based speech training system and method
US5340316A (en) * 1993-05-28 1994-08-23 Panasonic Technologies, Inc. Synthesis-based speech training system
US5452727A (en) * 1994-01-21 1995-09-26 Tura; Ronald E. Orofacial myographic measurement apparatus
US5794203A (en) 1994-03-22 1998-08-11 Kehoe; Thomas David Biofeedback system for speech disorders
GB9419388D0 (en) 1994-09-26 1994-11-09 Canon Kk Speech analysis
KR980700637A (ko) * 1994-12-08 1998-03-30 레이어스 닐 언어 장애자의 언어 인식 강화를 위한 방법 및 장치(method and device for enhancing the recognition of speechamong speech-impai red individuals)
EP0734704B1 (en) 1995-03-31 2001-11-07 International Business Machines Corporation Intraoral communication system
US6022221A (en) * 1997-03-21 2000-02-08 Boon; John F. Method and system for short- to long-term memory bridge
US5954673A (en) 1997-08-06 1999-09-21 Volunteers For Medical Engineering Method and apparatus for oral motor therapy using a visual display
ATE297707T1 (de) 1998-02-06 2005-07-15 Wisconsin Alumni Res Found Auf der zunge gelegt tastausgabevorrichtung
JP3893763B2 (ja) 1998-08-17 2007-03-14 富士ゼロックス株式会社 音声検出装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008503293A (ja) * 2004-06-24 2008-02-07 セントレ・ナショナル・デ・ラ・レシェルシェ・サイエンティフィーク 痂皮の予防装置
JP2018042925A (ja) * 2016-09-16 2018-03-22 国立大学法人岩手大学 舌機能評価方法、舌機能訓練方法、舌機能評価装置、及び舌機能訓練装置

Also Published As

Publication number Publication date
GB2387709B (en) 2005-04-06
US6971993B2 (en) 2005-12-06
WO2002039881A2 (en) 2002-05-23
US20020087322A1 (en) 2002-07-04
GB2387709A (en) 2003-10-22
GB0313504D0 (en) 2003-07-16
AU2002236483A1 (en) 2002-05-27
WO2002039881A3 (en) 2002-09-12
WO2002039881A9 (en) 2004-04-08

Similar Documents

Publication Publication Date Title
JP2004526473A (ja) 口の動作及び関連した事象を利用する方法
Munhall et al. Characteristics of velocity profiles of speech movements.
Benus et al. Articulatory characteristics of Hungarian ‘transparent’vowels
Terband et al. Assessment of childhood apraxia of speech: A review/tutorial of objective measurement techniques
Noiray et al. Variability in English vowels is comparable in articulation and acoustics
Massaro et al. 12 Animated speech: research progress and applications
Howard et al. The contribution of phonetics to the study of vowel development and disorders
Skoyles Speech phones are a replication code
Darrow Music therapy in the treatment of the hearing-impaired
Lindblom et al. The Concept of Target and Speech
Noiray et al. Lip rounding anticipatory control: Crosslinguistically lawful and ontogenetically attuned
FLETCHER New prospects for speech by the hearing impaired
Moore et al. Articulation strategies for English liquids used by Japanese speakers
Hardison The visual element in phonological perception and learning
Culatta et al. Dysfluency isn't always stuttering
Mizoguchi Articulation of the Japanese moraic nasal: Place of articulation, assimilation, and L2 transfer
Öster Computer-based speech therapy using visual feedback with focus on children with profound hearing impairments
Roll MODIFICATION OF NASAL RESONANCE IN CLEFT‐PALATE CHILDREN BY INFORMATIVE FEEDBACK 1
Neef et al. The development of generative lipreading skills in deaf persons using cued speech training
Yamada et al. Assistive speech technology for persons with speech impairments
Weirich The influence of Nature and Nurture on speaker-specific parameters in twins speech
Álvarez et al. Description of Acoustic and Articulatory Parameters of Vowels in Mapudungun Speakers. Pilot Study
Sorianello The contribution of certain acoustic vowel measures to the overall speech intelligibility
Munhall Temporal adjustment in speech motor control: Evidence for laryngeal kinematics
Campanella et al. Augev Method and an Innovative Use of Vocal Spectroscopy in Evaluating and Monitoring the Rehabilitation Path of Subjects Showing Severe Communication Pathologies

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041115

A072 Dismissal of procedure [no reply to invitation to correct request for examination]

Free format text: JAPANESE INTERMEDIATE CODE: A073

Effective date: 20050617