JP2016535305A - 自閉症における言語処理向上のための装置 - Google Patents

自閉症における言語処理向上のための装置 Download PDF

Info

Publication number
JP2016535305A
JP2016535305A JP2016534814A JP2016534814A JP2016535305A JP 2016535305 A JP2016535305 A JP 2016535305A JP 2016534814 A JP2016534814 A JP 2016534814A JP 2016534814 A JP2016534814 A JP 2016534814A JP 2016535305 A JP2016535305 A JP 2016535305A
Authority
JP
Japan
Prior art keywords
acoustic
predetermined
sound pulse
manipulation
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016534814A
Other languages
English (en)
Other versions
JP6673828B2 (ja
Inventor
ロバーツ ティモシー
ロバーツ ティモシー
エンビック デイビッド
エンビック デイビッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Childrens Hospital of Philadelphia CHOP
Original Assignee
Childrens Hospital of Philadelphia CHOP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Childrens Hospital of Philadelphia CHOP filed Critical Childrens Hospital of Philadelphia CHOP
Publication of JP2016535305A publication Critical patent/JP2016535305A/ja
Application granted granted Critical
Publication of JP6673828B2 publication Critical patent/JP6673828B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0364Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L2021/065Aids for the handicapped in understanding

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Algebra (AREA)
  • Medicinal Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

自閉症スペクトラム障害(ASD)の個体における言語処理を向上させるための音脈の聴覚的操作のための方法及び装置を提供する。音脈は受信され、そして客体を知覚的に表象する音響的刺激を含む。所定の音響的詳細特性について音響操作パラメーターが選択される。その所定の音響的詳細特性は前記ASD個体と関連し、且つ、前記ASD個体の測定された言語処理能力に基づく。音脈は、選択された音響操作パラメーターに基づいて改変されて、前記刺激の語彙性を保持しつつ所定の音響的詳細特性を減少させ、それにより前記刺激がそれぞれ前記客体を知覚的に表象する2つ以上の音響的に異なる刺激を含むときであってもその減少した音響的詳細特性によって前記ASD個体による前記客体の知覚が向上する。その改変された音脈は少なくとも1つのラウドスピーカーによって前記ASD個体に出力される。

Description

関連出願の相互参照
本願は、参照により本明細書に全体が援用される2013年8月13日に提出された「自閉症スペクトラム障害と関連の言語障害における言語処理の向上のための装置(DEVICE FOR ENHANCEMENT OF LANGUAGE PROCESSING IN AUTISM SPECTRUM DISORDERS AND RELATED LANGUAGE IMPAIRMENTS)」という表題の米国特許仮出願番号第61/865293号に対する優先権を主張するものである。
連邦政府による資金提供を受けた研究の記載
本発明は米国国立衛生研究所によって授与された助成金番号R01HD073258の国庫補助により行われた。米国政府は本発明に一定の権利を有する。
本発明の分野
本発明は言語処理に関する。より具体的には、本発明は、音脈における音響的詳細(acoustic detail)の減少に基づく言語障害関連疾患を有する個人に対する言語処理向上用の装置と方法に関する。
自閉症スペクトラム障害(ASD)は児童のうちに発見され、成人まで続く一連の発達障害を指す。ASDの特徴的な症状は、社会的統合/相互関係が難しいことに加えて言語とコミュニケーションにおける欠陥、及び多動性を含む。ASDの有病率(例えば、110人のうち約1人が少なくとも1つのスペクトラム障害を有する)。ASDの児童の大多数が大いに言葉の問題を有する(例えば、約40%がどのような言語行動も有しない)。
自閉症スペクトラム(及び中枢性聴覚処理遅延(CAPD)などのおそらく関連する神経精神障害)の児童には音響的には異なっているが概念的には同一である刺激から知覚的客体を「抽象化する」又は形成することが困難である児童もいる。例として、異なる話者によって言われた同一の言葉を符号化するときの困難が挙げられる。この抽象化における困難は、抽象的語彙表象を活性化する速度とその成功を含む、言葉(語彙)を処理し、表象する系に関してASDの個体に関係する。
本発明は自閉症スペクトラム障害(ASD)個体における言語処理を向上させるための音脈の聴覚的操作方法に関する。客体を知覚的に表象する音響的刺激を含むその音脈は処理機によって受信される。所定の音響的詳細特性について音響操作パラメーターが選択される。その所定の音響的詳細特性は前記ASD個体と関連し、且つ、前記ASD個体の測定された言語処理能力に基づく。前記処理機は選択された音響操作パラメーターに基づいて前記音脈を改変する。前記音脈に対するその改変によって前記刺激の語彙性を保持しつつ所定の音響的詳細特性が減少し、それにより前記刺激がそれぞれ前記客体を知覚的に表象する2つ以上の音響的に異なる刺激を含むときであってもその減少した音響的詳細特性によって前記ASD個体による前記客体の知覚が向上する。その改変された音脈は少なくとも1つのラウドスピーカーによって前記ASD個体に出力される。
本発明は自閉症スペクトラム障害(ASD)個体における言語処理を向上させるための音脈の聴覚的操作用の装置にも関する。その装置は音声入力インターフェース、持続性有形記憶装置、音響的詳細操作ユニット及び少なくとも1つのラウドスピーカーを含む。その音声入力インターフェースは客体を知覚的に表象する音響的刺激を含む前記音脈を受信するように構成されている。その記憶装置は所定の音響的詳細特性についての音響操作パラメーターを保存するように構成されている。その所定の音響的詳細特性は前記ASD個体と関連し、且つ、前記ASD個体の測定された言語処理能力に基づく。その音響的詳細操作ユニットは、前記所定の音響的詳細特性についての保存された音響操作パラメーターの中から一つの音響操作パラメーターを選択し、且つ、前記の選択された音響操作パラメーターに基づいて前記音脈を改変するように構成されている。前記音脈に対するその改変によって前記刺激の語彙性を保持しつつ所定の音響的詳細特性が減少し、それにより前記刺激がそれぞれ前記客体を知覚的に表象する2つ以上の音響的に異なる刺激を含むときであってもその減少した音響的詳細特性によって前記ASD個体による前記客体の知覚が向上する。その少なくとも1つのラウドスピーカーは前記ASD個体にその改変された音脈を出力するように構成されている。
添付図面と併せて読むと後続の詳細な説明から本発明を理解することができる。常識的に考えて、図面の様々な特徴/要素が実寸で描かれていない場合があり得ることを強調する。逆に、明確にするためにそれらの様々な特徴/要素の寸法を任意の割合で拡大又は縮小している場合があり得る。また、図面中で同様の特徴/要素を表すために共通の数値参照符号が使用されている。次の図が図面に含まれる。
本発明の一実施形態に従う言語処理向上のための例となる聴覚的操作装置の機能的ブロックダイアグラムを示す図である。
本発明の一実施形態に従う聴覚的操作装置の校正のための例となる方法のフローチャートを示す図である。
本発明の一実施形態に従う言語処理向上のための聴覚的操作の例となる方法のフローチャートダイアグラムを示す図である。
本発明の別の実施形態に従う言語処理向上のための聴覚的操作の例となる方法のフローチャートダイアグラムを示す図である。
本発明の一実施形態に従う「cat」という言葉の例となるユニークネスポイントを示すスペクトログラムを示す図である。
本発明の一実施形態に従う時間の関数としての「cat」という言葉の例となる活性化のグラフを示す図である。
上で考察したように、ASDの個体は音響的には異なっているが概念的には同一である刺激から知覚的客体を抽象化することが困難である。この困難は言語機能の基本的構成要素の障害、すなわち、同一の「客体」の重複的表象の作成が原因であり得、無関係の音響的詳細への過剰な注目によって特色づけられる。
そのような欠陥の証拠を、知覚的客体の周辺への反応の「集中」の欠如、音響的な(しかし言語的ではない)差異に対する増加した感受性、及び(わずかな音響的な差異を処理する過剰な努力に続く)聴覚入力処理の全体的な遅延を示す(例えば、時空的な脳機能の描写を可能にする一種の機能性脳波マッピングである脳磁気図記録(MEG)によって記録された)電気生理学的反応内に見ることができる。プライミング効果(電気生理学的と行動的の両方)も知覚的客体形成を不可能にする「無関係の」詳細への注目の強化を表す。
一般に、語られた言葉は過剰な音情報、すなわち、意図された「客体」又は意味を「復号」するために必要とされるものよりも多くの情報を含むことがあり得る。時にはその余計な詳細が高次の区別(例えば、男性の話者だろうか、又は女性の話者だろうか。彼らは起こっているだろうか。)に役立ち、時にはその余計な詳細は単に(話者ごとに、又は日によっても)変動するだけである。通常の発達によってそのような「わずかな」音響的差異又は音の違いへの耐性ができ、異なる「音」イベントの同一の「言葉」への集束が可能になる。音詳細への過度の依存、又は集中不全、又はそれらの両方によってASDの脳は意味の抽象化にとって基本的に無関係である音の違いに我慢できないことがある。
「関係性」は見る(聴く)人次第であり得るが、一般的に「無関係」という概念は客体の認識、表象及び究極的には意味を中継又は伝達するために必要ではない要素として本明細書において言及されることが理解され得る。
全ての音は、言葉のような言語音さえも音響的な特徴又は詳細を含んでいる。これらにはピッチ(周波数成分)、ハーモニクス、音の豊さ等が含まれる。これらは物理的なものであり、直接的に測定可能である(又は、例えば、コンピューターによって合成可能である)。会話の中ではそれらは話者(男性:低ピッチ、女性:高ピッチ)、音調(怒っている/悲しんでいる)又は切迫感(過渡応答の速度等)を反映している可能性があり、又はそれらは単なる発声器の変動の結果である可能性がある。問題なのは、異なる話者が異なる音調又は異なる切迫感(又は単に異なる機会に)「cat」などの同一の「言葉」を声に出すことができ、それぞれの発声が軽度から中程度の「音響的な差異」を有することである。しかしながら、「通常の耳/脳」にとっては全てが単一の「客体」、すなわち、catとして知覚される。音響的差異が知覚された客体を異なる意味が付随する例えば「cat」から「cap」へ転換するのに充分である特殊な事例において言語的な差異が具現化する可能性がある。ASDの脳は音響的な差異を超えて適切に「集束する」ことに失敗する場合があり得、したがって異なるバージョンの「cat」を複数の異なる客体として聞く(したがって、本質的に適切な表象又は意味に到達することにとって無関係である「音響的な差異」に過剰な重み又は有意性を与えるため、迅速に、又は正確に意図された意味に到達しないことがあり得る)。
(例えば、「blik」のような言葉ではないものと対照的に)言葉に対する典型的な電気生理学的反応はスペクトル経時的特徴(具体的には言葉の認識からほんの一瞬の後での5〜15Hz帯における振動パワーの減少)と関連する。ASDにおける反応は遅延化又は減衰することがある。これはMEGを使用してスキャン及び検出され得る。
通常通り発達している(TD)個体における語彙処理は抽象的要素と挿話的要素の両方を含む。言葉(例えば、cat)を聞くときは毎回その言葉は物理的に異なる特性、すなわち、個々の話者の声、話者の性別、韻律と音量の差などを有し、そのことが全ての語られた言葉をユニークなイベントにする。TDの脳はこれらの異なる音響的客体(CAT1〜CATn)の全てから「cat」という単一の語彙表象を抽象化することができる。TDの脳は、無関係の音声上の詳細を取り除き、語彙表象の基礎として機能する音韻的表象
Figure 2016535305
について作業することによりこれを行う。同時にTDの脳は言葉の幾つかの挿話的特性に対しても敏感である可能性があり、それによって聴いた言葉の個々の例の幾つかの態様(例えば、話者、又は発話速度、又は発音学についての情報)を想起して表象することもあり、それらの態様が言語処理においていくらか影響を及ぼす。catを聴いたときにこの語彙項目の語彙意味論的特性(及び他の特性、例えば、統語論的特性)が活性化されるので抽象的要素の方が言語的表象と言葉の処理にとって重要である傾向がある。抽象化について一般的な問題を有し、且つ、低レベルの詳細に対して過剰な注意を有する集団であるASDについては言語システムの結果として語彙処理の挿話的態様が抽象的システムの優位に立ち、又は抽象的システムを相殺する。
聴覚的に提示された言葉の認識は脳において多数の異なる計算を伴う。これら計算は、音響信号を音韻的表象(音の言語的表象)へ変換すること、聞き手の脳において漸次得られる音表象を言葉と一致させること(例えば、catの最初の2分節である
Figure 2016535305
を聞いた後に脳はcat、cap、cab等を部分的に活性化させている)、及び充分な量の言葉の音がわかり、それによって行うことができるようになったところで活性化された候補の中から勝者として1つを選択することを含む。例えば、catの最後の分節である[t]を聞いた後で聞き手の脳の中で言葉catが完全に活性化される。語彙アクセスのこの観点は、ASDの脳についての我々の研究において役割を果たす3つの重要な考えを含む。語彙アクセスは語彙検索/活性化(lexサーチ)の開始点、脳が標的言葉を特定する認識ポイント(recogポイント)及びその言葉が一つに特定可能になるその言葉の音響信号におけるユニークネスポイント、例えば、catの最後の[t]を含む。
図4A及び4Bは言葉「cat」に対する上に記載される語彙アクセスを示している。図4Aは言葉「cat」を含む音声信号の例となるスペクトログラムであり、図4Bは時間の関数としての言葉「cat」の例となる語彙アクセスのグラフである。図4Aは図4Bに示されている語彙脳活性と時間的に関連している。図4A及び4Bに示されているように、catのユニークネスポイントは最後の子音[t]によって決定される。(図4Bにおける)語彙システムはユニークネスポイントが処理された後になって初めてその処理された言葉を閾値の上に引き上げることができる。
図4Bは経時的な脳における語彙アクセス機構の活性化の上昇(y軸上で図式化)を示している。入ってくる音声信号が聴覚処理の増加のきっかけとなる。音響信号が音韻的表象に変換されるとlexサーチに割り当てられている活性化が増加し、その音響信号が音声として認識された直後に活性化の増加が始まる(領域1)。漸次処理される入力信号と適合する多数の候補語彙項目が語彙検索によって挙げられる(領域2)。言葉のユニークネスポイントに到達すると、語彙システムは閾値、すなわち、認識ポイントの上に優勝候補であるcatの活性化を引き上げる(領域3)。そして言葉catが完全に活性化される。
ASDの脳は初期聴覚反応が遅れ、その結果として聴覚処理の開始が遅くなる。したがって、lexサーチ要素が遅れる、及び/又は堅固でなくなる。ASDの脳が適切な音声上の詳細を抽象化/具体化できないことで同一の音韻列として認識されるべき同一の音韻列の異なる音声表象を認識することもできなくなる。直接の結果は、lexサーチの候補を挙げ、TD個体の速度と精度を有する単一の言葉の閾値(認識ポイント)に到達することが不可能であることである。
例えば反復によってプライミング効果(上に記載したように、行動とMEG記録の定量的特徴の両方について)が観察され得る。例えば、「cat」の後の「cat」はより速く処理され、且つ、「truck」の後の「cat」と比べて抑えられた電気生理学的反応を有する。「dog」の後の「cat」がそれらの関連性のために少し中道的な立場にあることは特筆すべきことであり、これを「意味的プライミング」と呼ぶ。しかしながら、「cat」という表象が「無関係の」「音響的詳細」に対する過剰な注目のために異なる客体として知覚される場合、ASDではプライミング効果が失われることがあり得る。実際に、プライミング効果の減衰の程度は実に知覚的クラスタリング欠陥、及び究極的には言語障害の程度の指標となる可能性がある。
無関係の音響的詳細は、言葉(及びその表象又は意味)の理解を通常は損なうはずであるが、「木を見て(聴いて)森を見る(聴く)ことができない」ASDの脳では別々に分類する原因になる可能性がある「音響的な差異」として一般的に定義され得る。単純な例はピッチである(話者を反映するが、意味を変えることがない)。
本発明の態様は、音響的には異なっているが概念的には同一である刺激からの知覚的客体形成を改善するための音脈の(例えば、補聴器型の装置などによる)音響操作に関する。例となる方法と装置は自閉症スペクトラム障害(ASD)個体における言語処理を向上させるための音脈の聴覚的操作に関する。音脈には客体を知覚的に表象する音響的刺激が含まれる。音響操作パラメーターは所定の音響的詳細特性について選択され得る。その所定の音響的詳細特性は前記ASD個体と関連し、且つ、前記ASD個体の測定された言語処理能力に基づく。音響的詳細操作ユニットは選択された音響操作パラメーターに基づいて前記音脈を改変することができる。前記音脈に対するその改変によって前記刺激の語彙性を保持しつつ所定の音響的詳細特性が減少し、それにより前記刺激がそれぞれ前記客体を知覚的に表象する2つ以上の音響的に異なる刺激を含むときであってもその減少した音響的詳細特性によって前記ASD個体による前記客体の知覚が向上する。その改変された音脈は少なくとも1つのラウドスピーカーによって前記ASD個体に出力され得る。
図1を参照すると、装置100として概ね表される例となる聴覚的操作装置の機能的ブロックダイアグラムが示されている。装置100は音脈132の所定の音響的詳細特性を減少させることによって音脈132を操作し得る。(音響的詳細が減少した)その改変された音声信号134は、音響的には異なっているが概念的には同一である刺激からの知覚的客体形成を改善することによってASDの個体の言語処理を向上させ得る。減少させるべきそれらの所定の音響的詳細特性(本明細書において所定の特性とも呼ばれる)は装置100の使用者の言語処理能力と関連し得る。その所定の特性(及び概して装置100)はその使用者の言語処理能力に基づいて校正され得る(図2については下でさらに説明される)。
装置100はマイクロフォン102、音声入力インターフェース104、音響的詳細操作ユニット106、増幅器108、ラウドスピーカー110、コントローラー112、記憶装置114、使用者インターフェース116及び電力供給部118を含み得る。マイクロフォン102、音声入力インターフェース104、音響的詳細操作ユニット106、増幅器108、ラウドスピーカー110、コントローラー112、記憶装置114、ユーザーインターフェース116及び電力供給部118はデータ及び制御バス(示されず)を介して接続され得る。電力供給部118は装置100の構成要素への電力供給が可能であるあらゆる適切な電力供給部(電池など)を含み得る。示されていないが、装置100は遠隔装置との有線通信又は無線通信のためのデータコミュニケーションインターフェースを含み得る。示されていないが、装置100は例えばグローバルネットワーク(すなわち、インターネット)を介して遠隔地に接続され得る。
幾つかの例では、装置100は、限定されないが耳掛け(BTE)式装置、耳穴(ITE)式装置、外耳道挿入式(ITC)装置をはじめとする聴覚装置として、又はウェアラブル聴覚装置として構成され得る。ラウドスピーカー110は使用者の耳の中に配置されるように(例えばイヤホン形状で)構成され得る。幾つかの例では、装置100は片耳用の装置であり、1つのラウドスピーカー110(及び1つの対応する増幅器108)を含む。他の例では、装置100は両耳用の装置であり、2つのラウドスピーカー110(及び2つの対応する増幅器108)を含む。幾つかの例では、装置100は1つのハウジングユニット内に構成され得る構成要素(マイクロフォン102、音声入力インターフェース104、音響的詳細操作ユニット106、増幅器108、コントローラー112、記憶装置114、ユーザーインターフェース116及び電力供給部118など)を含み得る。そのハウジングユニットはその使用者の体のどの部分にも(例えば、その使用者のベルトに、ポケットの中に、その使用者の首の周りにペンダントとして、その使用者の手首上のリストバンド上に、等)着用され得る。ラウドスピーカー110は、その使用者の耳の中に(例えば、外耳道の入り口に、又は外耳道内に)配置されるイヤホンの形状で形成され、ハウジングユニットに接続され得る。
マイクロフォン102は周囲の音響的環境、例えば、マイクロフォン102の近くにいる個体から入力音響信号128を受信するように構成されている。マイクロフォン102はその入力音響信号128を(電子的)音声信号129に変換することができるあらゆる適切な変換器を含み得る。
幾つかの例では、音声入力インターフェース104は、電話(携帯電話を含む)、コンピューター、テレビ、音声再生装置、画像再生装置(音声再生能を有する)又は遠隔音声信号130を提供することができるあらゆる装置のような遠隔装置から遠隔音声信号130(電気信号)を受信するように構成されている。その遠隔装置(示されず)は音声入力インターフェース104に有線接続又は無線接続され得る。音声入力インターフェース104は(マイクロフォン102からの)音声信号129をデジタル信号に変換するためのアナログ・デジタル変換器(ADC)も含み得る。一般に、音声入力インターフェースは音声信号129及び/又は遠隔音声信号130を受信し、これらの信号を音脈132に変換する。音声入力インターフェース104は、音声信号129(及び/又は音声信号130)を受信及び/又は改変して音響的詳細操作ユニット106による処理に適切な形式の音脈132を形成するためのあらゆるハードウェア構成要素及び/又はソフトウェア構成要素を含み得る。
音響的詳細操作ユニット106は音脈132を受信し、且つ、改変された音声信号134を提供するように構成されている。改変音声信号134は使用者の言語処理能力に基づいて音脈132の1つ以上の所定の音響的詳細特性を減少させるように音響的詳細操作ユニット106の1つ以上の構成要素によって音響的に操作され得る。音響的詳細操作ユニット106は詳細除去フィルタ120、ノイズ発生機122、音声認識機124及び音声合成機126のうちの1つ以上を含み得る。幾つかの例では、音響的詳細操作ユニット106は1つの構成要素(詳細除去フィルタ120又はノイズ発生機122など)を含み得る。他の例では、音響的詳細操作ユニット106は音声認識機124と音声合成機126だけを含み得る。音響的詳細操作ユニット106に含まれるべき構成要素は使用者が装置100を校正するときに選択され得る(図2については下でさらに説明される)。音響的詳細操作ユニット106は音脈132を操作して所定の音響的詳細特性を減少させるためのあらゆる適切なソフトウェア構成要素及び/又はハードウェア構成要素を含み得る。その所定の音響的詳細特性は詳細除去フィルタ120、ノイズ発生機122、音声認識機124及び/又は音声合成機126について選択される(及び記憶装置114に保存されている)パラメーターと関係し得る。音脈132の改変は概してその減少した刺激の語彙性を保持しつつ所定の音響的詳細特性を減少させる(すなわち、その改変された刺激がそれでもなお言葉のように聞こえる)。
詳細除去フィルタ120は、音脈132を受信し、「本質的でない」詳細の全て(又は適切な部分)が除去されるように音脈132をフィルタにかける、又は整えるように構成され得る。詳細除去フィルタ120に由来するフィルタにかけられた信号は改変音声信号134を形成し得る。詳細除去フィルタ120は所定のフィルタ特性を有するフィルタ(例えば、ローパスフィルタ、バンドパスフィルタ、ハイパスフィルタ等)を含み得る。例えば、ヒトの会話のスペクトルエネルギーの大部分は100Hz〜1kHzの範囲内にある。したがって、例となる実施形態では20Hz〜20kHzの範囲の周波数を通過させるバンドパスフィルタを使用してよい。
「本質的でない」という言葉は、発せられた音(言葉)が表象する「客体」を特定する目的にとって適切ではない(及び、実にASDの気を散らす可能性がある)詳細(例えば、音調、周波数ダイナミクス等)に関する。例となるフィルタリングアプローチは、音響の「立ち上り」(発声開始)又は音調を伝える可能性があるが特異な表象を鮮明にすることを阻むはずである高周波数の歯擦音などを除去し得る。そのようなアプローチは会話の核心を維持しつつ発話をフィルタにかけるローパスフィルタに類似している。
装置100のフィルタパラメーター(カットオフ周波数、中央周波数、フィルタタイプなど)を使用者毎に調節してよい。したがって、フィルタパラメーターを使用者に合わせて調節するために使用する前に校正を装置100に対して行ってよい。加えて、その校正は治療介入の定量的指標も提供し得る。フィルタパラメーターと前記定量的指標を経時的にさらに調節してよい(例えば、順調な進捗を示しているときにその指標を減少させてよい)。
別の例として、詳細除去フィルタ120は第1抽出速度を有する音脈132を受信し、且つ、(フィルタ120の)第2抽出速度が(音脈132の)第1抽出速度未満であるように所定の第2抽出速度を有する音脈132を二段抽出するように構成され得る。その所定の第2抽出速度は所定の音響的詳細特性を減少させるために選択されるものであり得、所定の音響的詳細特性は使用者に合わせて校正され得る。詳細除去フィルタ120に由来するその二段抽出された信号は改変音声信号134を形成し得る。
ノイズ発生機122は音脈132を受信し、且つ、所定のノイズ特性を有するノイズを音脈132に適用する(すなわち付加する)ように構成され得る。聴取者が中核的聴覚入力信号にだけ集中するように、その所定のノイズ特性は音脈132の音響的詳細を飽和させるように選択され得る。ノイズ発生機122に由来するノイズが付加された信号は改変音声信号134を形成し得る。
例えば、ホワイトノイズ(すなわち、均一な広域パワースペクトル密度を有するノイズ)又はカラードノイズ(例えば、低周波数の強調を有し、周波数に対して反比例するパワースペクトル密度を有するピンクノイズ)を音脈132に付加してよい。例えば、擬似ランダムノイズ発生機によってホワイトノイズに似せることができる。ノイズは一般的に感度(一般的に「明瞭性」と考えられる)を減少させるが、そのノイズが音脈132の本質的でない特徴を隠し、会話の核心を理解させる(所望の集束を強いる)ことになり得る。
その所定のノイズ特性はスペクトル分布(ホワイトノイズ又はピンクノイズなど)及び/又はそのスペクトル分布の各成分の振幅を含み得る。その所定のノイズ特性は個体の聴覚(聴覚学/聴力検査)、脳の反応に従って、又は理論的個人化を介してその個体に合わせて調節され得る。詳細除去フィルタ120の所定のフィルタパラメーターと同様に、所定のノイズ特性も経時的にモニター及び/又は調節され得る。
音声認識機124は音脈132を受信し、且つ、音脈132に音声認識処理を適用して音脈132の文字列表示を形成するように構成され得る。音声合成機126は認識された(音声認識機124由来の)会話を受信し、且つ、その認識された会話を音声合成処理によって単一の会話構成音声に変換するように構成され得る。音声認識機124及び音声合成機126のそれぞれによる音声認識処理と音声合成処理はリアルタイムで行われ得る。音声合成機126により作製されたその会話構成音声は個体に合わせて調節された(すなわち、校正された)所定の音声特性を有し得る。したがって、数人の異なる話者に由来する聴覚入力信号が(音声認識によって)同一の知覚的客体と認識され、(それらの話者の音響的な特性と無関係に同一の所定の音声特性を有する)単一の会話構成音声に変換され得る。音声合成機126に由来するその会話構成音声は改変音声信号134を形成し得る。
音声認識機124はあらゆる適切な(例えば、自動口述システムによって用いられる)音声認識技術を使用して複数の声(すなわち、異なる個体に由来する声)を認識し、それぞれの声の核心を文字列に抽象化することができる。例となる音声認識技術には、隠れマルコフモデル(HMM)及びニューラルネットワークをはじめとする音響モデリング技術及び/又は言語モデリング技術が含まれるが、これらに限定されない。音声合成機126は(音声認識機124に由来する)文字列を読み取り、ヒトの会話を(しかし、所定の音声特性に従って常に同じピッチ、音調などで)再現し得る。したがって、音声合成機126は特定の言葉に付随する音響的詳細にばらつきを導入しない。したがって、マイクロフォン102によって捕捉された、又は遠隔装置から受信された変わりやすい単語音に応答してラウドスピーカー110によって再現可能な単語音が発せられ得る。
詳細除去フィルタ120のフィルタパラメーターと同様に、音声合成機126の所定の音声特性は個々の使用者に合わせて校正され得る。治療介入の定量的指標が校正時に決定され得る。前記フィルタパラメーターと同様に、所定の音声特性と定量的指標も経時的にモニター/調節してよい(例えば、順調な進捗を示しているときにその指標を減少させてよい)。
幾つかの例では、詳細除去フィルタ120とノイズ発生機122のそれぞれによる詳細除去フィルタリングとノイズ発声の両方が音脈132に適用され得る。幾つかの例では、(音声合成機126に由来する)会話合成信号が追加の音響的詳細除去のために詳細除去フィルタ120及び/又はノイズ発生機122に印加され得る。音響的詳細操作ユニット106の構成要素の選択はその使用者の言語処理能力に合わせて調節され得る。
増幅器108は音響的詳細操作ユニット106から改変音声信号134を受信し、且つ、増幅して増幅信号136を形成するように構成され得る。増幅器108は、記憶装置114に保存されている所定のゲイン、及び/又はユーザーインターフェース116を介して受け付けた使用者設定(音量調節など)に基づいて改変音声信号134を増幅するためのあらゆるハードウェア構成要素及び/又はソフトウェア構成要素を含み得る。両耳用装置について、例えば聴力(すなわち、聴覚)検査に基づいてそれぞれの耳について所定のゲインで各増幅器108を校正してよい。したがって、使用者が片方の耳で聴力喪失を有する場合、又は各耳で異なる聴力を有する場合、各増幅器108の所定のゲインは異なっていてよい。幾つかの例では、増幅器108は異なる周波数における聴力喪失を補うために(ある周波数帯の)異なる周波数における異なるゲインを適用してもよい。(両耳用装置の)増幅器108によって適用される周波数依存的ゲインはその使用者のそれぞれの耳の聴力に応じて同一でも異なっていてもよい。幾つかの例では、増幅器108(又は音響的詳細操作ユニット106)はデジタル信号134をアナログ信号136に変換するためのデジタル・アナログ変換器(DAC)を含み得る。
ラウドスピーカー110は音響的詳細操作ユニット106由来の改変信号134及び/又は増幅器108由来の増幅信号136を受信することが可能である。ラウドスピーカー110は、使用者の耳に出力音響信号138が提供されるように改変信号134(又は増幅信号136)を出力音響信号138に変換することが可能であるあらゆる適切な変換器を含み得る。
音脈132の(マイクロフォン102を介した、又は直接的に音声入力インターフェース104を介した)捕捉を制御するために、音脈132の聴覚的操作を制御するために、及び/又は改変された音脈134の(増幅器108とラウドスピーカー110を介した)出力を制御するためにコントローラー112がマイクロフォン102、音声入力インターフェース104、音響的詳細操作ユニット106、増幅器108、ラウドスピーカー110、記憶装置114、ユーザーインターフェース116及び電力供給部118のうちの1つ以上に接続され得る。コントローラー112は例えば従来のデジタル信号プロセッサ、論理回路又はマイクロプロセッサを含み得る。音響的詳細操作ユニット106の1つ以上の機能がコントローラー112によって実行され得ることが理解される。音響的詳細操作ユニット106、音声入力インターフェース104、及び増幅器108の機能のうちの1つ以上がソフトウェアに実装されてよく、コントローラー112によって実行されてよいことが本明細書内の説明から当業者によって理解される。
記憶装置114は音声入力インターフェース104、詳細除去フィルタ120、ノイズ発生機122、音声認識機124及び音声合成機126のうちの少なくとも1つのパラメーター(すなわち、使用者の所定の音響的詳細特性)を保存するように構成され得る。記憶装置114は音声入力インターフェース104と増幅器108のうちの少なくとも一方のパラメーターを保存してもよい。記憶装置114は装置100の校正のために1つ以上の所定の音刺激を保存してもよい(使用者の所定の音響的詳細特性を含む)。記憶装置114は装置100のあらゆる使用者設定(音量調節など)を保存してもよい。記憶装置114はメモリー、磁気ディスク、データベース、又は基本的にデータ保存可能なあらゆる持続性で有形のローカル装置又はリモート装置であり得る。
ユーザーインターフェース116は音脈132の捕捉、改変音声信号134の出力、記憶装置の指示、装置100の校正、及び/又は量の表示のためのあらゆる適切なインターフェースを含み得る。ユーザーインターフェース116は音声入力インターフェース104、音響的詳細操作ユニット106及び増幅器108のうちの1つ以上に関連するパラメーターを提供することが可能であるあらゆる適切なユーザーインターフェースを含み得る。ユーザーインターフェース116は情報を入力するためのキーパッド又はタッチパッドなどの入力装置をさらに含み得る。ユーザーインターフェース116は使用者に情報を提示するための表示装置をさらに含み得る。
本明細書中の説明から当業者はマイクロフォン102、音声入力インターフェース104、音響的詳細操作ユニット106、増幅器108、ラウドスピーカー110、コントローラー112、記憶装置114、ユーザーインターフェース116及び電力供給部118の適切な実施形態を理解し得る。
図2を次に参照すると、聴覚的操作装置の校正のための例となる方法のフローチャートが示されている。その例となる方法は、装置100の使用者と関連する装置200のパラメーターを使用者の言語処理能力に基づいて校正するために用いられ得る。ステップ200において、装置100のパラメーターの校正のために使用者が装置100に接続される(図1)。ステップ202において、校正中に脳の反応(脳磁気データなど)を取得するために使用者がMEG獲得装置などの脳波マッピング獲得装置に接続される。
ステップ204において、使用者の言語処理能力を決定するために1つ以上の音刺激を選択する。
ステップ206において、装置100のラウドスピーカー110(図1)を介してそれらの音刺激を使用者に与える。ステップ208において、与えられた音刺激(ステップ206)と同時に(脳波マッピング獲得装置を介して)脳反応データを取得する。ステップ210において、脳反応データを分析して使用者の言語処理能力を決定する。
ステップ212において、減少させるべき音響的詳細特性を決定し、装置100のパラメーターを(前記の決定された特性に基づいて、(ステップ210において決定された)使用者の処理能力に基づいて)選択する。それらのパラメーターは音刺激の所定の音響的詳細特性を減少させるために詳細除去フィルタ120、ノイズ発生機122、音声認識機124及び/又は音声合成機126について選択される。それらの選択されたパラメーターはフィルタリング、ノイズの付加、及び/又は所定の音声特性を有する単一の会話構成音声の使用による入力音声の聴覚的操作のために使用され得る。
ステップ214において、使用者の言語処理能力を向上させるため、それらの選択されたパラメーター(ステップ212)を(ステップ204において選択された)音刺激に適用してその音刺激を操作する。ステップ216において、その操作された音刺激(ステップ214)についてステップ206〜214を繰り返し、使用者の言語処理能力の所定の改善が測定されるまで装置100のパラメーターを調節する。例えば、語彙アクセス中のユニークネスポイントと認識ポイント。早い時期に生じるユニークネスポイント及び/又は認識ポイント(図4Bを参照のこと)は、その操作によって個体の言語処理が改善されることを表し得る。ステップ218において、ステップ216において決定されたパラメーターを用いて装置100をプログラムする。
選択的ステップ220において、使用者に聴力検査を実施してよい。選択的ステップ222において、ステップ220の聴力検査の結果に基づいて装置100をさらにプログラムしてよい。例えば、増幅器108の1つ以上のゲインパラメーターを聴力検査の結果に基づいて選択してよい。別の例では、装置100の校正は理論的個人化に基づいてもよい。
図3A及び3Bは音響的詳細操作ユニット106(図1)を介した言語処理の向上のための聴覚的操作の例となる方法を示す。特に、図3Aは詳細減少フィルタリング及び/又はノイズ付加による音脈132の例となる聴覚的操作(図1)のフローチャートダイアグラムであり、図3Bは音声認識と会話合成による音脈132の例となる聴覚的操作のフローチャートダイアグラムである。
図3Aを参照すると、ステップ300において音脈132が音響的詳細操作ユニット106によって受信される。ステップ302において、聴覚減少方法が例えばコントローラー112を介して選択される。例えば、コントローラー112によってフィルタ120による詳細除去フィルタリング及び/又はノイズ発生機122によるノイズ付加フィルタリングを選択することができる。ステップ304において、例えば、記憶装置114に保存されているフィルタ/ノイズパラメーターを使用してコントローラー112を介して詳細除去フィルタ120及び/又はノイズ発生機122についてパラメーターを選択する。
ステップ306において、詳細除去フィルタ120とノイズ発生機122のそれぞれによって詳細除去フィルタリング及び/又はノイズ付加を音脈132に適用する。ステップ308において、(フィルタリング及び/又はノイズ付加後の)改変信号134を音響的詳細操作ユニット106から出力する。図3Aに示されていないが、改変信号134はアナログ信号に変換されてもよく、及び/又はラウドスピーカー110によって音響信号138を出力するために変換される前に増幅器108によって増幅されてよい。
図3Bを参照すると、ステップ310において音脈132が音響的詳細操作ユニット106によって受信される。ステップ312において、音声認識機124を介して音脈132に音声認識を適用する。ステップ314において、音声合成機126を介してその認識結果(ステップ312)に会話合成を適用する。音声合成機126は所定の音声特性を有する会話構成音声を選択し得る。例えば、記憶装置114に保存されている所定の音声特性を使用してコントローラー112によって所定の音声特性を選択してよい。
選択的ステップ316において、詳細除去フィルタリング及び/又はノイズの付加を(ステップ314において合成された)会話構成音声に適用するためにステップ302〜306が適用され得る。ステップ318において、(ステップ314における会話合成後、又は選択的ステップ316におけるフィルタリング/ノイズ付加後の)改変信号134を音響的詳細操作ユニット106から出力する。図3Aと同様に、改変信号134はアナログ信号に変換されてもよく、及び/又はラウドスピーカー110によって音響信号を出力するために変換される前に増幅器108によって増幅されてよい。
無関係の音響的詳細を排除するために本発明に従う聴覚的操作を用いてよく、それによって抽象性がより強い(例えば、言葉などの)表象がリアルタイムでより迅速にアクセスされ得るようになる。そうして例となる装置100は音響的に提示された言葉から無関係の詳細を減少させる(又は実質的に排除する)ことができる。これによってASDの脳が上昇した速度と精度で言葉を特定することを支援することができ、そのASDの個体のより堅固な語彙表象を導き、言語とコミュニケーションに対して全体的に正の効果を有する。そのようなアプローチは、本明細書に記載されるような類似の電気生理学的評価及び行動的評価(例えば、MEGクラスタリング、ミスマッチフィールド及び聴覚処理待ち時間、並びに反復プライミングの行動アッセイ)によって評価され得る。刺激の音響操作によって類型化と抽象化を改善することにより、言葉の認識をASDの脳にとってより簡単にすることで使用者の語彙システムを改善することができる。これら処理利益は語彙アクセスを超えて言語のより抽象的な部分(形態的に複雑な言葉の脱構築、統語論的処理及び意味論など)にまで及び得る。
本発明はASDを有する個体における言語処理を向上させるための装置と方法に関して説明されてきたが、1つ以上のステップ及び/又は要素をマイクロプロセッサ/汎用コンピューター(示されず)と使用するためのソフトウェアに実装してよいことが考えられている。この実施形態では上に記載された様々な要素及び/又はステップの機能のうちの1つ以上がコンピューターを制御するソフトウェアに実装され得る。そのソフトウェアはコンピューターによる実行のために持続性有形コンピューター可読媒体(非限定的な例として、磁気ディスク、光ディスク、フラッシュメモリー、ハードドライブなど)内で具現化され得る。
本発明は特定の実施形態を参照して本明細書において例示され、説明されているが、本発明がそれらの示された詳細に限定されることは意図されていない。むしろ特許請求の範囲とそれらの等価の範囲内で、且つ、本発明から逸脱することなく様々な変更をそれらの詳細に行うことができる。

Claims (20)

  1. 自閉症スペクトラム障害(ASD)個体における言語処理を向上させるための音脈の聴覚的操作の方法であって、
    客体を知覚的に表象する音響的刺激を含む前記音脈を処理機によって受信すること、
    前記ASD個体と関連し、且つ、前記ASD個体の測定された言語処理能力に基づく所定の音響的詳細特性について音響操作パラメーターを選択すること、
    前記刺激の語彙性を保持しつつ前記所定の音響的詳細特性を減少させることにより前記刺激がそれぞれ前記客体を知覚的に表象する2つ以上の音響的に異なる刺激を含むときであっても前記の減少した音響的詳細特性によって前記ASD個体による前記客体の知覚が向上するように前記の選択された音響操作パラメーターに基づいて前記音脈を前記処理機によって改変すること、及び
    少なくとも1つのラウドスピーカーによって前記ASD個体に前記の改変された音脈を出力すること
    を含む前記方法。
  2. 前記ASD個体の近位にあるマイクロフォンによって前記音脈を捕捉することをさらに含む請求項1に記載の方法。
  3. 前記処理機に接続される遠隔装置であって、電話、コンピューター、テレビ、及び音声再生能を有する再生装置のうちの少なくとも1つを含む前記遠隔装置から前記音脈を受信することをさらに含む請求項1に記載の方法。
  4. 前記音脈を改変するステップが前記所定の音響的詳細特性を減少させるために前記の選択された音響操作パラメーターに基づく所定のフィルタ特性を有するフィルタを前記音脈に適用することを含む、請求項1に記載の方法。
  5. 前記所定のフィルタ特性がローパスフィルタ、バンドパスフィルタ及びハイパスフィルタのうちの少なくとも1つを含む、請求項4に記載の方法。
  6. 前記音脈を改変するステップが前記所定の音響的詳細特性を減少させるために前記の選択された音響操作パラメーターに基づく所定の抽出速度で前記音脈を二段抽出することを含む、請求項1に記載の方法。
  7. 前記音脈を改変するステップが前記所定の音響的詳細特性を減少させるために前記の選択された音響操作パラメーターに基づく所定のノイズ特性を有するノイズを前記音脈に付加することを含む、請求項1に記載の方法。
  8. 前記音脈を改変するステップが
    前記音脈に対して音声認識を行って前記音脈の文字列表示を形成すること、及び
    前記の選択された音響操作パラメーターに基づく所定の音声特性を有する会話構成音声に前記音脈の前記文字列表示を音声合成処理によって変換すること
    を含む、請求項1に記載の方法。
  9. 前記音脈を受信する前に
    前記少なくとも1つのラウドスピーカーを介して前記ASD個体に少なくとも1つの所定の刺激を与えること、
    前記の与えられた少なくとも1つの所定の刺激と同期する前記ASD個体からの1つ以上の脳の反応を取得すること、
    前記の取得された1つ以上の脳の反応に基づいて前記ASD個体の言語処理能力を決定すること、及び
    前記の決定された言語処理能力に基づいて減少させるべき前記所定の音響的詳細特性を決定すること
    を含む請求項1に記載の方法。
  10. 前記1つ以上の脳の反応が脳磁気図記録(MEG)獲得装置から取得される、請求項9に記載の方法。
  11. 前記所定の音響的詳細特性が前記刺激のピッチ、ハーモニクス、音調、過渡音、歯擦音又は周波数ダイナミクスのうちの少なくとも1つを含む、請求項1に記載の方法。
  12. 自閉症スペクトラム障害(ASD)個体における言語処理を向上させるための音脈の聴覚的操作用の装置であって、
    客体を知覚的に表象する音響的刺激を含む前記音脈を受信するように構成されている音声入力インターフェース、
    前記ASD個体と関連し、且つ、前記ASD個体の測定された言語処理能力に基づく所定の音響的詳細特性についての音響操作パラメーターを保存するように構成されている持続性有形記憶装置、
    音響的詳細操作ユニットであって、
    前記所定の音響的詳細特性についての前記保存された音響操作パラメーターの中から一つの音響操作パラメーターを選択し、且つ、
    前記刺激の語彙性を保持しつつ前記所定の音響的詳細特性を減少させることにより前記刺激がそれぞれ前記客体を知覚的に表象する2つ以上の音響的に異なる刺激を含むときであっても前記の減少した音響的詳細特性によって前記ASD個体による前記客体の知覚が向上するように前記の選択された音響操作パラメーターに基づいて前記音脈を改変する
    ように構成されている前記音響的詳細操作ユニット、及び
    前記ASD個体に前記の改変された音脈を出力するように構成されている少なくとも1つのラウドスピーカー
    を備える前記装置。
  13. 前記音響的詳細操作ユニットが、前記の選択された音響操作パラメーターに基づく所定のフィルタ特性によって前記音脈をフィルタリングするように構成されているフィルタを備える、請求項12に記載の装置。
  14. 前記音響的詳細操作ユニットが、前記の選択された音響操作パラメーターに基づく所定の抽出速度で前記音脈を二段抽出するように構成されているフィルタを備える、請求項12に記載の装置。
  15. 前記音響的詳細操作ユニットが、前記の選択された音響操作パラメーターに基づく所定のノイズ特性を有するノイズを前記音脈に付加するように構成されているノイズ発生機を備える、請求項12に記載の装置。
  16. 前記音響的詳細操作ユニットが
    前記音脈を文字列表示に変換するように構成されている音声認識機、及び
    前記の選択された音響操作パラメーターに基づく所定の音声特性を有する会話構成音声に前記文字列表示を変換するように構成されている音声合成機
    を備える、請求項12に記載の装置。
  17. 前記所定の音響的詳細特性が前記刺激のピッチ、ハーモニクス、音調、過渡音、歯擦音又は周波数ダイナミクスのうちの少なくとも1つを含む、請求項12に記載の装置。
  18. 前記音声入力インターフェースに接続されるマイクロフォンであって、前記音脈を捕捉するように構成されている前記マイクロフォンをさらに備える請求項12に記載の装置。
  19. 前記音声入力インターフェースが電話、コンピューター、テレビ、及び音声再生能を有する再生装置のうちの少なくとも1つを含む遠隔装置から前記音脈を受信するように構成されている、請求項12に記載の装置。
  20. 前記少なくとも1つのラウドスピーカーを介して前記ASD個体に与えられる少なくとも1つの所定の刺激、及び前記の与えられた少なくとも1つの所定の刺激と同期して取得された前記ASD個体の1つ以上の測定された脳の反応に基づいて校正されるように構成されている請求項12に記載の装置。
JP2016534814A 2013-08-13 2014-08-13 自閉症における言語処理向上のための装置 Active JP6673828B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361865293P 2013-08-13 2013-08-13
US61/865,293 2013-08-13
PCT/US2014/050893 WO2015023751A1 (en) 2013-08-13 2014-08-13 Device for language processing enhancement in autism

Publications (2)

Publication Number Publication Date
JP2016535305A true JP2016535305A (ja) 2016-11-10
JP6673828B2 JP6673828B2 (ja) 2020-03-25

Family

ID=52468658

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016534814A Active JP6673828B2 (ja) 2013-08-13 2014-08-13 自閉症における言語処理向上のための装置

Country Status (4)

Country Link
US (1) US10825353B2 (ja)
EP (1) EP3033140B1 (ja)
JP (1) JP6673828B2 (ja)
WO (1) WO2015023751A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102304701B1 (ko) * 2017-03-28 2021-09-24 삼성전자주식회사 사용자의 음성 입력에 대한 답변을 제공하는 방법 및 장치
US11723579B2 (en) 2017-09-19 2023-08-15 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement
US11759140B2 (en) * 2017-09-27 2023-09-19 Northwestern University Methods and systems to determine the neural representation of digitally processed sounds
US11717686B2 (en) 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
US20190171976A1 (en) * 2017-12-06 2019-06-06 International Business Machines Corporation Enhancement of communications to a user from another party using cognitive techniques
US11478603B2 (en) 2017-12-31 2022-10-25 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to enhance emotional response
US11364361B2 (en) 2018-04-20 2022-06-21 Neuroenhancement Lab, LLC System and method for inducing sleep by transplanting mental states
US11452839B2 (en) 2018-09-14 2022-09-27 Neuroenhancement Lab, LLC System and method of improving sleep
US10593221B1 (en) * 2018-11-09 2020-03-17 Akili Interactive Labs, Inc. Audio-only interference training for cognitive disorder screening and treatment
US10817251B2 (en) 2018-11-29 2020-10-27 Bose Corporation Dynamic capability demonstration in wearable audio device
US10922044B2 (en) * 2018-11-29 2021-02-16 Bose Corporation Wearable audio device capability demonstration
US10923098B2 (en) 2019-02-13 2021-02-16 Bose Corporation Binaural recording-based demonstration of wearable audio device functions
US10905337B2 (en) * 2019-02-26 2021-02-02 Bao Tran Hearing and monitoring system
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
US20210043106A1 (en) * 2019-08-08 2021-02-11 COGNITIVEBOTICS Technologies Pvt. Ltd. Technology based learning platform for persons having autism
US11570558B2 (en) * 2021-01-28 2023-01-31 Sonova Ag Stereo rendering systems and methods for a microphone assembly with dynamic tracking

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10511472A (ja) * 1994-12-08 1998-11-04 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 言語障害者間の語音の認識を向上させるための方法および装置
US20060215845A1 (en) * 1999-10-05 2006-09-28 Burleigh Joan M Apparatus and methods for mitigating impairments due to central auditory nervous system binaural phase-time asynchrony
JP2008186010A (ja) * 2007-01-05 2008-08-14 Kyushu Univ 音声強調処理装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2386653C (en) 1999-10-05 2010-03-23 Syncphase Labs, Llc Apparatus and methods for mitigating impairments due to central auditory nervous system binaural phase-time asynchrony
US20070010573A1 (en) * 2003-06-23 2007-01-11 Xianqi Kong Methods and compositions for treating amyloid-related diseases
US20050142522A1 (en) * 2003-12-31 2005-06-30 Kullok Jose R. System for treating disabilities such as dyslexia by enhancing holistic speech perception
JP2006343884A (ja) * 2005-06-07 2006-12-21 Sony Computer Entertainment Inc 画面表示プログラム、画面表示プログラムを記憶したコンピュータ読み取り可能な記憶媒体、画面表示装置、携帯端末装置及び画面表示方法
US8825149B2 (en) * 2006-05-11 2014-09-02 Northwestern University Systems and methods for measuring complex auditory brainstem response
US8767972B2 (en) * 2006-08-16 2014-07-01 Apherma, Llc Auto-fit hearing aid and fitting process therefor
KR20110114664A (ko) * 2009-01-16 2011-10-19 메사추세츠 인스티튜트 오브 테크놀로지 자폐 스펙트럼 장애의 진단 및 치료
WO2010086447A2 (en) * 2009-01-31 2010-08-05 Enda Patrick Dodd A method and system for developing language and speech
US20130178731A1 (en) * 2010-08-13 2013-07-11 Children's Medical Center Corporation Methods and apparatus for risk assessment of developmental disorders during early cognitive development
US9072478B1 (en) * 2013-06-10 2015-07-07 AutismSees LLC System and method for improving presentation skills
US20170046973A1 (en) * 2015-10-27 2017-02-16 Thea Kuddo Preverbal elemental music: multimodal intervention to stimulate auditory perception and receptive language acquisition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10511472A (ja) * 1994-12-08 1998-11-04 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 言語障害者間の語音の認識を向上させるための方法および装置
US20060215845A1 (en) * 1999-10-05 2006-09-28 Burleigh Joan M Apparatus and methods for mitigating impairments due to central auditory nervous system binaural phase-time asynchrony
JP2008186010A (ja) * 2007-01-05 2008-08-14 Kyushu Univ 音声強調処理装置

Also Published As

Publication number Publication date
US10825353B2 (en) 2020-11-03
EP3033140B1 (en) 2019-09-25
WO2015023751A1 (en) 2015-02-19
EP3033140A1 (en) 2016-06-22
US20160210872A1 (en) 2016-07-21
JP6673828B2 (ja) 2020-03-25
EP3033140A4 (en) 2017-04-26

Similar Documents

Publication Publication Date Title
JP6673828B2 (ja) 自閉症における言語処理向上のための装置
US11095991B2 (en) Hearing evaluation and configuration of a hearing assistance-device
US10475467B2 (en) Systems, methods and devices for intelligent speech recognition and processing
US11587547B2 (en) Electronic apparatus and method for controlling thereof
Hansen et al. On the issues of intra-speaker variability and realism in speech, speaker, and language recognition tasks
WO2010011963A1 (en) Methods and systems for identifying speech sounds using multi-dimensional analysis
WO2019228329A1 (zh) 个人听力装置、外部声音处理装置及相关计算机程序产品
KR102350890B1 (ko) 휴대용 청력검사장치
Rahman et al. Amplitude variation of bone-conducted speech compared with air-conducted speech
Jacewicz et al. Introduction to the special issue on perception and production of sounds in the high-frequency range of human speech
Noh et al. How does speaking clearly influence acoustic measures? A speech clarity study using long-term average speech spectra in Korean language
KR20110018829A (ko) 청력을 검사하는 휴대용 음원재생장치 및 이를 수행하는 방법
Hsu et al. The effects of intensive voice treatment in Mandarin speakers with Parkinson's disease: Acoustic and perceptual findings
JP6598323B1 (ja) 補聴器及びプログラム
JP6918471B2 (ja) 対話補助システムの制御方法、対話補助システム、及び、プログラム
Amano et al. Acoustic features of pop-out voice in babble noise
Carta et al. Cortical over-representation of phonetic onsets of ignored speech in hearing impaired individuals
US20230019847A1 (en) Alert system and method for virtual reality headset
WO2024200875A1 (en) Ego dystonic voice conversion for reducing stuttering
Dupuis et al. Effects of emotional content and emotional voice on speech intelligibility in younger and older adults
Zhang et al. The measurement and analysis on Chinese Mandarin syllable and phoneme articulation in band-limited condition
Johnston An Approach to Automatic and Human Speech Recognition Using Ear-Recorded Speech
JP2024107476A (ja) 音声伝達補償装置、音声伝達補償方法、及びプログラム
JP2022025493A (ja) 発話トレーニングシステム
Li et al. The Influence of Sensory Memory and Attention on The Context Effect in Talker Normalization

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200305

R150 Certificate of patent or registration of utility model

Ref document number: 6673828

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250