JP2008513840A - 状況のフィードバックを使用する学習システム及び方法 - Google Patents

状況のフィードバックを使用する学習システム及び方法 Download PDF

Info

Publication number
JP2008513840A
JP2008513840A JP2007532497A JP2007532497A JP2008513840A JP 2008513840 A JP2008513840 A JP 2008513840A JP 2007532497 A JP2007532497 A JP 2007532497A JP 2007532497 A JP2007532497 A JP 2007532497A JP 2008513840 A JP2008513840 A JP 2008513840A
Authority
JP
Japan
Prior art keywords
language
speech
supporting
utterance
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007532497A
Other languages
English (en)
Other versions
JP5604033B2 (ja
Inventor
テランス ポール、
Original Assignee
インフォチュア インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インフォチュア インコーポレイテッド filed Critical インフォチュア インコーポレイテッド
Publication of JP2008513840A publication Critical patent/JP2008513840A/ja
Application granted granted Critical
Publication of JP5604033B2 publication Critical patent/JP5604033B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】学習者の聴取環境に少なくとも1個のマイクロホンを発話をキャプチャするよう配備することにより、語彙及び言語の学習を支援する方法。発話信号を形成するためにマイクロホンがモニターされる。発話信号は、発話又は発声の特性を少なくとも1つ決定するために分析されるが、ここでこの特性は発話の定性的又は定量的な特徴を表示するものである。決定された特性は予め選択された基準と比較されるか、又はその特性の長期にわたる成長を示すために追跡され、その比較又は成長が、発話信号に関わる人又は学習者の言語環境に影響を与えることができる人に報告される。

Description

本発明は一般には教育増進ソフトウェア及びシステムに関し、より詳しくは語彙及び言語能力の発達を増進させるために発話をモニターするソフトウェアシステム及び方法に関する。
言語は人を他の全動物から区別し、また知性と強く関連する。言語能力の向上は一般に高い知能指数(IQ)と同時に読み書き能力及び学究能力の向上につながる。3歳児の言語能力と語彙は、10歳以降での知性及び読書や算数のテスト成績の両者を強く予兆するものである。
子供は生まれた時から言葉を習得し始める。生後間もない時期(即ち、誕生から4歳)は言語発達に決定的に重要である。人は生涯を通して語彙及び言語を学ぶが、この生後間もない時期はその後の言語発達の軌道を確立する。
人は生まれながらの言語学習者である。言語学習能力は人類に遺伝子的にプログラムされている。初期の言語能力は、子供とその親又は主な保育者との間の相互作用や会話の当然の結果として、自然状況により本能的に発達する。初期の言語能力は、親が子供に本を読んでやる時を含む数多くの社会的相互作用から発達する。テレビやコンピュータもまた言語学習に寄与するが、通常それらの貢献は大きいものではない。
多くの言葉が禁止的な表現に対して多くの肯定的な表現と共に話される豊かな聴覚的あるいは聴音的な言語環境は、高い言語能力及び通常よりも高いIQを備える子供を造り出す。子供が学校に行きだした後や読書し始めた後でさえ、我々の言語能力と語彙の多くや、知っている言葉(理解語彙)及び話で使う言葉(表出語彙)は、我々の周りの人々との会話から付随的に得られている。学校で語彙言葉の一覧の学習を通して正規にしばしば学んだり、語彙教育用に設計されたコンピュータ・ソフトウェア・プログラムから学んだり、読書から非正規に学んだりする語彙もあるが、人間の言語能力及び語彙の基盤は、社会的相互作用や会話、他者が話すのを聞くことから得られる。
子供の言語能力は他者が話すのを聞いたり他者に話しかけたりすること(すなわち、ターンテイキング)から発達するものであるとともに、その子供自身の発話は認知機能の生きた指標でもある。研究技術は発展してきており、そこには子供の認知的発達を評価するための幼児の発声や発言の数え上げも含まれる。しかし、この情報を収集する現行のプロセスは人間の観察者を必要としており、これが目障りとなり行動に影響を及ぼす。それに加えて高価で時間のかかる音声記録の書き起こしが必要である。
子供の言語発達の態様についての我々の知見の多くは、自然な家庭環境で記録された親子の発話についての研究調査から得られる。一旦記録後、発話は人手で書き起こされテキストファイル化された。これらのテキストファイルから種々の指標が導出された。例えば、数多くの音素、形態素、発言、言葉、名詞、動詞、修飾語句、平叙文、疑問詞、命令文、肯定、禁止、文及び句等の指標である。その後、親子の発話についてのこれらの指標やその他の指標又はそれらを組み合わせたり変形したものが、子供の言語能力、語彙量、IQ、読み書き能力及びその他の学究能力についての測度と、その間の因果関係を示すように関連付けられた。そのような研究調査の例が、ハート(Hart)とリスレイ(Risley)の「アメリカの幼児の日常経験における有意な相違(Meaningful Differences in the Everyday Experiences of Young American Children)、1995」に述べられている。
ハートとリスレイによって行われたタイプの研究は実行が困難かつ高価である。というのは、人間の観察者や起稿者を使って、まず記録をとり次に発話をテキストに変換しそしてコード付けするというプロセスは非常に労力を要するからである。このタイプのデータ収集と分析の時間とコストを軽減するシステム及び方法が必要である。これらのコストの軽減により、より容易にまたより膨大なデータ集合を用いた研究が実行できるようになる。さらに重要なことには、ユーザが、子供、学生、及び、潜在的には、言語発達不全の場合の又は第2言語を学んでいる大人の学習者、の学習及び発達を増強できるよう、発話環境の情報と子供の言語的及び認知的働きの評価情報を、家庭、保育所、教室、ビジネス、その他の状況における発話者にフィードバックするシステム及び方法への必要も存在する。発話及び言語の病理学者もまた、発話発達の遅れのケースでの処方手段の評価及び開発のために、子供の発話環境についてのフィードバックを必要とする。
教室においてさえ、教師がある科目を教えながら、別の科目を間接的に損なっている場合がある。例えば、教師は、言語科目コースでは洗練された語彙を意識して使用しても、数学、芸術、体育等、語彙がその科目目標の主要な関心事ではない科目では、もっと初歩的な語彙に立ち戻ってしまうかもしれない。良くても、このような事態は、語彙教育を他の話題と統合することによる学習の好機を利用し損ねることになる。最悪の場合は、このような事態は、別のコースで提供されたばかりの言語科目の学習を、現実に駄目にしてしまうかもしれない。
従来の語彙教育では、教える具体的な言葉の意味を表すイメージ、音声、又はその他の刺激とともに、その言葉を学生に提示(口頭及び/又はテキストによる)するというやり方がしばしばとられる。その提示は、本の中で、教師によって、ソフトウェアを使って、又は他の手段によって行われる。短期間ではもしかすると効果的かもしれないが、これらのタイプの活動は「現実世界」の状況で生じることはなく、したがってこのタイプの教育は教室の外では滅多に繰り返されたり増進されたりしない。
家庭や教室での使用を目的に、ゲームの文脈中に言葉の提示と意味のあるイメージを組み合わせるプロセスをはめ込もうと試みて、種々のゲームが開発されてきた。これらの努力は幾分かは前向きの効果がある。というのは、それらは語彙教育をより魅力的にして教室環境の外での語彙使用を促進するからである。しかし、これらのゲームタイプのやり方は一般に語彙訓練用に人工的な状況を創るものであり、そのために日常活動の状況で起こり得る大量の言語学習を生かすものではない。
したがって、日常活動状況において語彙及び言語の使用を自動的にモニターし、状況に応じた言語使用の特性を示す指標を作成し、それらの指標を発話者に報告するシステム及び方法へのニーズが依然として存在する。報告を受けた発話者は、語彙及び言語の発達を支援し、これによりIQと学究的成功を進めるよう、自らの発話及び言葉による相互作用を変更するかもしれない。小児科医、発話及び言語の病理学者、及びその他の専門家もまた、特に発話の発達遅れの際の評価や処方のために同じ指標を使用してもよい。
簡単に言えば、本発明は、学習者の聴取環境内の学習者自身の発話を含む種々の音源からの発話(例えば、語、発声、幼児音声、予め指定された信号、発言、対話、独白)を記録し、そのような発話の量、レベル及び質に関する種々の指標を算出する、コンピュータ化された発話モニターシステムに関している。そのシステムはこの情報をフィードバックする。本発明は、子供の言語利用環境中の大人にフィードバック情報を与え、子供の語彙及び言語の発達をよりよく支援するよう、大人が自分の発話を調整できるようにするために特に有用である。本発明が、保育所、幼稚園、家庭等の非教室的状況においてのみならず発話及び言語の発達障害の早期検出を通して、語彙及び言語の発達を支援することにより、子供にとってより速やかな語彙及び言語の発達とより高い認知機能が得られることが期待される。
具体的な実施形態では、アナログ/デジタル音声信号を記憶してその後のコンピュータ処理に供するべく、子供及び/又は大人はデジタルレコーダのような発話キャプチャ装置を着装する。音声信号は、1人以上の人からの人による音声のみならず、機械による音声、テレビ、ラジオ、及び言語学習環境に影響する種々の音源のどれからでもの環境音声を含んでいてよい。キャプチャされた音声信号は蓄積され、その後、音声処理コンピュータに伝えられる。あるいは、音声処理コンピュータを音声キャプチャ装置自体に統合することも可能である。音声信号は言語学習環境の種々の特性を記述する指標を作成するために分析される。音声信号が人による音声(例えば、子供の発話)を含むとき、その分析は、人による音声の中に生起する音程、音素、形態素、発言、語、名詞、動詞、修飾語句、平叙文、疑問詞、命令、肯定、禁止、文及び/又は句を定量化する指標を作成するかもしれない。いくつかのアプリケーションでは、学習者の自然状況環境中の人、例えば親は、本発明に特徴的な分析と報告の機能を強化するために、コードを入力したり又は人による音声の中に生起する語を同定したりしてもよい。
本発明は、学習者又は学習者達の聴取環境に、人による音声を含む音声をキャプチャするために少なくとも1個のマイクロホンを配置することにより、語彙及び言語の学習を支援する方法に関する。マイクロホンは、学習者又は学習者達の着衣内に、学習者の口及び/又は耳に対して概ね定位置に配置することが可能である。キャプチャされた音声は分析され、そのキャプチャされた音声の少なくとも1つの特性が決定される。決定された特性は予め決められた基準と比較されてもよい。あるいはさらに、その決定された特性がある時間にわたっての変化を示すよう、その時間にわたって追跡されてもよい。
本発明は、両親、教師、及び子供専門の発話及び言語の病理学者を含むその他の大人が、子供の聴取環境についてよりよく知り得るようにすることにより、子供の語彙及び言語の向上を支援することに特に適した教育支援システムとして例示され説明される。もうひとつの目的は、子供の発話、言語、語彙及び認知機能のレベルを、自然な設定において容易に測定する手段を提供することにある。本発明は、数学、理科、社会、及びその他の言語科目のスキルを含む種々の題材の学習の支援に適用されてもよいよう意図されている。種々の活動分野はしばしばその活動分野独特の領域固有の語彙すなわち「術語」を有する。その語彙の学習はしばしばその分野での成功の前兆である。本発明の技術は、語彙使用(例えば、使用される語及び具体的な語が使用される頻度)についてモニターし、分析し、報告するために適用され、それにより言語及び一般的な語彙の両方のみならず、領域固有の語彙の学習も直接的に支援する。
さらに、本発明の技術は、語彙使用についてのみならずより複雑な概念についても、それらが子供によって及び/又は子供に対して読まれたり話されたりするときに、モニターし、分析し、報告するよう容易に適合させ得る。それらの複雑な概念は、話し言葉、句、文、及びその他種々の長さや複雑さの節で表現され、この複雑さとは、特定の書物、記事、詩、歌、及びこれら複雑な題材の節や部分の検出や報告を含む複雑さである。さらに本発明は、独白や講演のような又はテレビやラジオからの一方向の音声のみならず、会話において一般的な双方向又は多方向のコミュニケーションをモニターするようにも適合可能である。
特定の実施形態では、本発明のシステム及び方法は、非教室的環境における、例えば家庭、仕事中、通勤、電話、等の状況で、大人が自分達の語彙使用や言語的相互作用についてそれほど気にしないかもしれない状況や文脈において、言語及び語彙使用を支援するために使用される。しかしながら、教室的設定においても、教師、学生及び教室への訪問者の連続的モニターを支援するために本発明は同様に有用であり、彼らがその言語能力を向上し語彙目標を達成するのを助ける。
説明と理解の容易化のため、本発明を、学習者又は学習者群の聴取環境における発話をモニターするシステムの観点から説明する。学習者は子供でも、学生でも、又は大人であってもよい。本発明は、音響によるコミュニケーションや通常の意味での言葉を使わない発話についても機能するよう容易に適合可能なことが理解されよう。特に幼児や身障者の場合には、コミュニケーションは未発達な発声や舌足らずな言葉又は発話の前兆を含むかもしれない。そのような発言は理解が容易でないかもしれないが、このようなタイプのコミュニケーションは、話し方を学び、より円熟し機能的な語彙を発達させるための重要な踏み石である。さらに、相互的コミュニケーションをモニターすることは本発明の一部ではあるが、本発明は、前言語発声や発育時の音声を含む非相互的コミュニケーションや発話をモニターし分析するためにも有用に実施され得るよう意図されている。したがって、本明細書及び請求項は、特にそうではないと断らない限り、広い範囲の発話とコミュニケーション的及び非コミュニケーション的音声を対象範囲とすることを意図するものである。
図1aと図1bは、ユーザ101が携帯型又は着装型の音声キャプチャ装置105を着装する、本発明の実施形態を示す。図1aの実施形態は、大人又は年長の子供にとってより便利かもしれない。というのは、音声キャプチャ装置から分離した有線又は無線のマイクロホン121がより使い勝手がよいかもしれないからである。図1bの実施形態は乳児や歩き始めの幼児にはより好都合かもしれない。というのは、キャプチャ装置105が一体形成されたマイクロホンを含んでおり、図1bにおいて点線で輪郭を示すポケット又は小袋がキャプチャ装置105の収納を示唆するように、ユーザ101の着衣内に設置されてもよいからである。
マイクロホンは、ユーザ101の口及び/又は耳に対して概ね定位置にあるのが望ましい。この相対位置は実アプリケーションでの使用の間に数インチ程度変わるかもしれないが、それでもそれなりの性能を得ることが期待される。この位置が、音声のキャプチャを向上させ、またユーザ101が発する音声の背景雑音又は他の発話者の音声からの弁別を改善すると信じられている。マイクロホンが概ね固定されない場合でもそれなりの結果が得られるかもしれないが、しかしその場合は、その動きを補償するためにより複雑な音声信号処理が必要になるかもしれない。具体的なアプリケーションについては、この目標を達成する別の形態が適当かもしれない。
マイクロホン121は図1aに示されるような単一素子マイクロホンでもよく、多素子マイクロホンシステム(その例を図3に示す)でもよい。多素子マイクロホンは方向性を向上し、そのため発話者を同定する作業に有用である。マイクロホン121の具体的な設置場所は具体的なユーザや環境のニーズを満たすよう調整可能である。
音声キャプチャ装置105は、好ましくは、発話をある時間帯にわたってキャプチャし、データ処理装置にロードして分析及び報告に供してもよいよう、ランダムアクセスメモリ、ディスク記憶等の不可欠なアナログ又はデジタル記録装置を伴って実現される。あるいは、音声キャプチャ装置105は、アナログ音声信号を分析及び報告のために外部の記憶装置又は外部のデータ処理装置につなげる単純なマイクロホンとして実現されてもよい。
図2は、本発明に準拠する内蔵型又は着装型の携帯音声キャプチャ装置105の典型的な実施形態をブロックダイアグラム形式で示す。計算能力や記憶密度の継続的発展により、比較的複雑な発話分析が携帯又は着装可能なほどに小さい計算機システムで実行可能となっている。さらに、本発明のある実施形態では、不明確音声認識機能の使用を意図している。そのような不明確音声認識は、明確な音声認識や発話−テキスト変換のアプリケーションよりも計算能力がはるかに小さくてもよい。
図2に示す実施形態では、一体形成の又はプラグ接続式のマイクロホンが、選択に応じて、A/D変換、デジタル/アナログ・フィルタ、圧縮、自動利得制御、バランス、雑音低減等、種々の機能を提供する前処理部に繋がれる。前処理された信号は、プログラムされた命令を実行するために記憶装置と協同して働く処理装置部に繋がれる。アップルコンピュータ社の製造するiPod等のメディアプレーヤ装置で使用可能となっているが、選択に応じて、装置自体の中に大容量記憶装置が装備されてもよい。あるいは、運用情報を記録したり後で分析したりすることを止めることになろうが、大容量記憶装置を取り除いてもよく、又は大容量記憶装置が外部入出力装置に接続された装置を介して遠隔地に実装されてもよい。ユーザインタフェースは、ユーザが要求する情報の水準によって、グラフィカルにでも、テキストのみでも、又はハードウェア・ディスプレイとしてでも実現されてよい。
典型的な運用では、音響信号がマイクロホンによって検出され、必要又は希望に応じて前処理され、入力として処理装置部に与えられる。ある実施形態では、後で非同期に実行される分析のために、処理装置部が働いて、前処理された発話信号を記憶装置及び/又は大容量記憶装置に記憶する。別のアプリケーションでは、予め定義した語のリスト(又は句のリスト)が記憶装置にロードされる。そこでは各語は、テキスト形式で、又はより一般的には、処理装置部に与えられた前処理済みの発話信号ともマッチングが取り易いデジタル符号で表現される。処理装置部で実行されるプロセスは、モニターされる発話信号部分と語のリストとのマッチングを取り、語のリスト中の各語の生起頻度のカウント値を保持する。
図3は、本発明の特定の実施例についての環境を示す。この例では、環境中に大人201、例えば、親、教師、保育管理者、子守、雇用者、又はその他の大人、がいる。大人201は子供301と双方向のコミュニケーションを行っている。そのコミュニケーションは語彙そのものの話し合いを含んでもよいが、別の話題やスポーツ、ニュース、家事、世界のできごと等の日常の話し合いであることが多い。話し合いはまた、子供が意味のあるコミュニケーションは行わず単に発声するだけで、それに親又は大人が「赤ちゃん言葉」で応える、相互作用又はターンテイキングを含んでもよい。本発明の重要な目標は、このような日常的コミュニケーション状況における言語及び語彙の使用について、大人がよりよく知り得るようにすることである。
本発明は、発話をキャプチャする少なくとも1個の音声キャプチャ装置105と分析及び報告の機能を実行するコンピュータ又はデータ処理装置を組み合わせたものを含む。図3で、大人201及び/又は子供301は、着装可能な無線マイクロホンシステム304を装備している。着装可能マイクロホンシステム304は、話者の同定(すなわち、環境内にいる複数発話者間の識別)処理のみならず、後に続く分析処理の容易化に資する実世界環境で人が作る音声とその他の音声間の弁別処理を容易化するので、相当に有利である。別の実施例では、ユーザの希望に合わせて曲げたり又は形に入れて作る、曲げやすく半剛性の柄の両端に設置された2マイクロホン素子を有する「雁首型」マイクロホン302を含む着装型又は非着装型のマイクロホンが適当かもしれないし、又は単一柄のマイクロホン309が適当かもしれない。また別の例では、音声キャプチャ装置304は、マイクロホンの位置決めがより精確になるよう装着帯に固定した1つ又はそれ以上のマイクロホンを含む装着帯又はチョッキとして実現される。そのような装置は比較的低価格で、本発明で働かせるために特段の変更を要しないであろう。着装型音声キャプチャ装置304は、内蔵型の記録/データ蓄積装置を含んでもよい。音声キャプチャ装置304は必要に応じて、ケーブル接続又はクレードル(図には示されていない)を介してコンピュータシステムに繋がれてもよい。あるいは、音声キャプチャ装置304の無線インタフェース303をコンピュータ305と繋ぐために、無線による通信又はネットワーク技術を使うことも可能である。
あるいはさらに、コミュニケーションの行われる部屋を、コンピュータシステム305に有線(例えば、汎用シリアルバス又は音声カード接続)又は無線接続を介して繋がれた、1つ又はそれ以上のマイクロホン307で装備することも可能である。マイクロホン307は参加者にとって煩わしさがより小さいが、しかし具体的な話者を弁別する能力を危なくするかもしれず、また背景雑音の影響を受け易いかもしれない。他方、分散型マイクロホンは、話者の動きを追跡したり、コミュニケーションの際の学習環境の非言語的状況(例えば、大人201と子供301の間の距離)についての情報を得るために使うことができる。
コンピュータシステム305は、パソコン、ラップトップコンピュータ、ワークステーション、ハンドヘルドコンピュータ又は本発明実施用に特に設計された特殊目的の機器として実現されてもよい。図3には示されていないが、発話分析機能の一部又は全体が、着装型コンピュータで実現されてもよく及び/又は発話キャプチャ装置304に一体化されてもよく、又は口述機、携帯電話、音声記録機、MP3レコーダ/プレーヤ、アップルコンピュータ社によるiPod、又は同様の機器で装備されてもよい。
運用時、大人(101)及び子供(301)の発話はキャプチャされてコンピュータ305による分析に供せられ、そのコンピュータはコミュニケーションのある特性を定量化する指標を計算して表示する。このようにして作成されるかもしれない指標の例は、発話語数のカウント、発言やターンテイキング、語の発話頻度のカウント、語長の評価、文の複雑さの評価、等を含む。これらの指標のあるもの、例えば、文の複雑さや語長は、音節を数えたり、発言時間長を計ったり、音素を数えたり、抑揚や音量、音の高さ、又は発話信号中のその他の複雑さを示す手掛かりの変化を探したりする不明確技術を使って、発話されている具体的な語の判読を実際に試みなくても、評価できると信じられている。米国特許6,073,095号は、本発明の実行に役立つかもしれない技術を含む、発話の中の語を見つけるための典型的な不明確認識技術について説明している。
選択に応じて、分析では、モニターされるコミュニケーションの情緒的内容又はフィードバックの「調子」の評価を行う。肯定的な抑揚の発話(例えば、「よく頑張ったね」)と否定的な抑揚の発話(例えば、「悪い子ね」)は、語彙や大人又は子供が発話してもう一方が応答するときの相互発話又はターンテイキングの量を含む様々な学習の度合いに影響を与えると信じる研究者が多い。同様に、子供への指示に比べての子供への質問の数や、ターンテイキングは子供主導か大人主導かが、学習の度合いに影響するかもしれない。明確な言語分析技術と不明確言語分析技術の両方ともが、情緒的内容、すなわちコミュニケーションの質問/指示内容、ターンテイキング、主導、応答、又は支援的学習環境に関わると決まったその他の発話の内容特性に関する指標を作成するために利用することができる。
先に述べたように、本発明は研究者又は発話及び言語の病理学者によってなされるかもしれない発話のモニターと分析に有用な道具であるが、本発明が学習者の聴取環境中の話者に対して、彼ら自身の発話についてのフィードバックを自動的に与えることに使用できることが意図されている。コンピュータシステム305はモニターされた発話特性を定量化又は定性化する指標を計算して表示する。あるいはさらに、その指標はコンピュータ305内の又はコンピュータ305に接続されたデータ蓄積装置に記録される。指標を表示/記録するやり方や多様性は、個々のアプリケーションのニーズに適合すべく設計の選択の問題である。
図4は、本発明が実施されるソフトウェア製品の構成要素をブロックダイヤグラム形式で示す。ここで説明される構成要素の論理動作は、(1)マイクロプロセッサで実現される一連の動作又はマイクロプロセッサ上で働くプログラムモジュールとして、及び/又は(2)相互接続された機械論理回路又はコンピュータデバイス中の回路モジュールとして、実現される。実現方法は個々のアプリケーションの性能要求に依存しての選択の問題である。したがって、ここで説明される論理動作は、操作、ルーチン、構成デバイス、動作、又はモジュールなどと様々に呼ばれるかもしれない。以下に述べる実施形態はソフトウェアでの実現について議論されるが、これらの操作、構成デバイス、動作、及びモジュールがソフトウェアでもファームウェアでも特別な目的のデジタル論理でも、またそれらのいかなる組み合わせでも、添付の請求項に列挙された本発明の精神と範囲から逸脱することなく実現されてよいことが、本技術分野に技術を有するものには認識されよう。
キャプチャ部401はマイクロホンから音声信号を受信する。その音声信号はマイクロホン又はそれに付随する処理回路によって、アナログ又はデジタル形式で前処理済みであってもよい。キャプチャ部401は、ストリームオブジェクトとして実現されてもよい。例えばJAVA(登録商標)プログラミング環境又は他のプログラミング環境での同等のものである。選択に応じて、キャプチャ部は、信号分析部403による分析に適した音声信号を提供するために、アナログ−デジタル変換、圧縮、フィルタリング、正規化、増幅、等の機能を実行してもよい。
信号分析部は、学習環境中の人が作る音声及びその他の音声を含むキャプチャされた音声の特性を定量化する多様な機能のいずれをも実行する。例えば、信号分析部403は、音声信号中の語/発言の境界、語/発言境界間の経過時間、文の境界、言語(英語、フランス語、日本語、等)、音量又は抑揚の変化、等の特徴を検出する。そのような特徴は、規則407(例えば、0.5ミリ秒間の無音は語/発言の境界を示す)の適用又は発話信号の定義されたパターン409との比較により検出されてもよい。定義されたパターンはユーザに依存せずに使うこともユーザに依存して使うことも可能であり、また例えば、カウントすることができる一組の語彙言葉を予め定義するために使用することができる。
選択に応じて、信号分析部は音声認識及び/又は話者認識を実行して、音声を語に変換したり、また具体的な発話された語にどの話者が係わるかを識別してもよい。同様にして、信号分析は、音声の音素への変換、話された語や語幹の評価、等を含んでもよい。信号分析は、個々の語や語の部分に加えて又は個々の語や語の部分の代わりに、より長い複数語からなる節や論述を認識してもよい。
信号分析部403はこれらの検出された特徴を発言、ターンテイキング、語数、語長、言語の複雑性、文長、等の指標の決定に使用する。指標はユーザフィードバック部405に提供され、それがグラフィック表示装置、テキスト表示装置、音声表示装置、信号ランプ、又はその他のインタフェース装置を使ってユーザ101/201/301に選択された情報を提示する。選択に応じて、その後の分析やその後のユーザへの提示のため、指標のログを取ることができる。
図5は、本発明の第1の典型的なコンピュータシステムの実現形態を示す。そこでは、本発明の処理と方法を実現するために独立した汎用コンピュータシステム501が使用される。汎用コンピュータシステム501は処理装置とその処理装置に接続された記憶装置を含む。処理装置はマイクロプロセッサ、マイクロ制御装置、デジタル信号プロセッサ、等を含む。処理装置と記憶装置はプログラムされた命令を実行するために協同動作を行う。そのプログラムは記憶装置にでもまた付属の大容量記憶装置にでも格納されてよい。
マイクロホン503は、パソコンの音声カード中に実装されることの多いアナログ−デジタル変換回路を通して、コンピュータシステム501に接続されてもよい。あるいはさらに、マイクロホン503は無線インタフェース(例えば、無線周波数又は赤外線インタフェース)を介して、又はシリアルインタフェース(例えば、RS−232、ユニバーサルシリアルバスすなわち「USB」、IEEE−1394すなわち「ファイヤワイヤ」、その他)を通して接続されてもよい。図3に示されるような汎用コンピュータシステムを使用する1つの利点は、オペレーティングシステムのソフトウェアが直ぐに利用可能であり、所定量の計算能力のコストがほどほどに安く、多くの適当なコンピュータシステムが既に出回っており、適当なソフトウェアの装備により本発明を実施するように構成できることである。さらに、マイクロホン503やユーザインタフェース505等の周辺構成要素が直ぐに利用可能である。ユーザインタフェースは、ユーザが要求する情報レベルに応じて、グラフィカル、テキストのみ、又はハードウェア表示装置として実現してよい。
典型的な運用では、音響信号がマイクロホン(複数の場合もある)で検出され、必要又は希望により前処理されて、処理装置への入力として提供される。ある実施形態では、予め定義された語のリスト(又は句のリスト)が記憶装置にロードされ、処理装置部で実行されるプロセスが動作してモニターされた発話信号の各部を語リストとマッチングを取り、語リスト中の各語の生起頻度のカウント値を保持する。処理装置上で実行されるプロセスは音声認識、話者認識の実行に使われてもよく、その他のいかなる所望の指標の処理に使われてもよい。
図6は、本発明の特徴を実現する分散型アーキテクチャを示す。図6の実現形態では、発話をキャプチャしてユーザにフィードバックすることに関わるクライアントプロセスは、クライアント部603により提供され、一方、信号処理及び分析はネットワーク接続型サービス605により提供される。サービス605を実現するために使われる資源は複数のクライアント601に共有される。クライアント603は、計算能力集中型のプロセスは信号処理602に移されるので、比較的低コストで軽量の部品で実現されてもよい。ネットワーク601はローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、インターネットのような公衆網、又はその他のネットワーク実装を含んでよい。
アプリケーション
本発明は、研究用ツールや教育用ツールを含む多様なアプリケーション、及び家庭やビジネスでの使用のための商用アプリケーションに適用可能な基本システム、方法及びプロセスについて説明する。これらのアプリケーションの多くがここに具体的に開示されるが、本発明は、自然な言語環境において音声をモニターし分析し報告することから利益が得られる広範なアプリケーションに、容易に適応可能であることを理解されたい。
言語
言語アプリケーションは、発話をモニターし、その発話を分析し、そして発話者が発話学習環境を向上できるような何らかの形でフィードバックすることによる、発話スキルの向上に向けられた広いクラスのアプリケーションを言う。コンピュータ化された発話モニターシステムが、学習者の聴取環境中の学習者自身の発話を含む多様な源からの発話(例えば、語、発言、対話、独白、等)を記録する。発話の量、レベル、品質に関する種々の指標が計算される。そのシステムは、参加者が少なくとも言語環境について知ることができ、さらに望ましくは言語環境を改善すべく参加者が行動を変えることができるように、これらの情報を報告又はその他の表示の形でフィードバックする。
本発明は、子供の言語学習環境中の大人に、子供の語彙及び言語の発達にその大人がより助けになるために自分の発話(のみならず言語学習環境に影響するその他の要因)を調整できるようフィードバックを与えることに特に有用である。本発明により、保育所、幼稚園、家庭等の非教室的状況において語彙及び言語の発達を支援することにより、子供にとって語彙及び言語の発達が強められ認知的機能が高められる結果となることが期待される。
ある具体的な実施形態では、大人及び/又は子供は、外部の処理コンピュータとアナログ/デジタル音声信号をやり取りする音声キャプチャ装置304を着装する。あるいは、音声処理は、音声キャプチャ装置自体と一体化可能な音声処理コンピュータで実行される。言語アプリケーションでは、人が作る音声、特に発話関連の音声、が重要であるが、その他の環境音声も同様に重要かもしれない。音声認識ソフトウェアは発話を語に変換することに有用である。あるアプリケーションでは音声認識は不明確であり得る。というのは、音素、音節、語長、語数、文長、話者アイデンティティ等の、音声信号の発話関連要素の種々の特性を記述する指標が、発言されている語を実際に認識する必要のない情況で開発されるかもしれないからである。あるアプリケーションでは、学習者の自然状況の環境中の人、例えば親が、本発明の、分析、音声認識システム、及び報告機能を強化するために、コードを入力したり語を同定したりしてもよい。
前言語
前言語アプリケーションは、学習者が言語発話スキルを発達させる以前の、又は学習者が言語発話スキルを習得中の、発話スキルの発達や向上に向けられたアプリケーションのクラスのことである。本発明は言語音声だけの処理に限定されないため、発育中の幼児の音声、優しい語り掛け、舌足らずな言葉、等を含む前言語発言に関するモニター、分析、報告に容易に適応可能である。これらの音声は、乳児や小児の言語スキルへの前兆であってもよく、身障者の永続的又は半永続的レベルのコミュニケーションであってもよい。
本発明による前言語発話モニターシステムは学習者の聴取環境内の、学習者自身の音声を含む様々な音源からの音声(例えば、発話、発育中の赤ん坊の音声、発言、対話、独白、等)を記録する。音声の量、レベル及び品質に関する多様な指標が計算されてよい。そのシステムはこの情報をその他の話者、両親、教師等にフィードバックする。本発明により、自然な言語環境の支援のみならず発話及び言語発達の不全の早期検出を通して、子供にとってより速やかな言語習得やより高い認知機能が得られよう。
複雑な題材のモニター
言語習得及びスキル発達に関するアプリケーションに加えて、本発明は内容を知るためのアプリケーションにも有用である。複雑な題材のモニターアプリケーションは、学習者が受けている内容を示す一連の語や、句、本、本の部分、詩、歌、等の生起の検出に関わる。音声の流れにおける複雑な節の生起は、例えば、語を認識しそれらの語を既知のテキストと比較することにより識別される。本発明に準拠するシステムは、認識された発話と読まれている節を表現するテキストファイル等とを比較することにより、複雑な節を全体として識別するよう構成可能であるが、多くの場合、複雑な作品中の選択された節又は段落を認識することだけが必要である。分析プロセスは、ある節が発話された頻度、それが発話された速度、時間とともにその速度がどう変わったか、等を示す指標を提供してもよい。発話された節の困難な部分が識別可能であり、話者の成績についてフィードバックするために話者又は親、指導者、教師、等に伝えられる。
あるいは、様々な長さの発話された語及び/又は音声を、音声の流れにおけるそれらの語の生起を示す形跡を導き出すために、処理しそしてフィルタすることができる。したがって、システムが実際に語を認識しそれを既知のテキストと比較することは不要であり、単にモニターしている音声信号中に句に対応する形跡が生起するときに認識できればよい。処理とフィルタの型そして音声それ自体に依存して、その形跡の話者非依存性が大きかったり小さかったりするかもしれない。
会話と相互作用
複数話者間の会話及び相互作用の進展について情報を知ることが望ましい状況は多い。例えば、質問されて答えを形成するよう励まされる対話型授業からより多く学ぶ学生がいる一方、情報を与える講義型の手法により最もよく学ぶ学生もいる。同様に、幼児の発話の発達は、親又は他の大人が幼児に話しかけてその反応を聞く(言語的であろうと前言語的であろうと)頻度と方法に強く影響される。このコミュニケーションの行き来の流れは「ターンテイキング」と呼ばれる。
図7では、子供と親の間の相互作用がモニターされている。この例では、誰が話しているかをモニターすることと各発話セグメント及び発言間の無音時間の長さを測定することだけが必要かもしれない。本発明に準拠するシステムは、ターンテイキングの頻度と継続時間、誰が開始し応答するか、を示すのみならず、抑揚、長さ、又は話者や親、教師、研究者又はその他の関係者が言語環境を理解し改善するのを助けるその他の特性を示す指標を作成することができる。より詳細な分析は音声信号中に次のような情報を識別することができる、その情報とは、音程、語の繰り返しを示したり、言語及び前言語の音声から幼児の音声を識別したり、邪魔になる背景雑音の頻度や継続時間をモニターする、等の情報である。
研究
本発明は、発話の研究で従来使用される技術への重要な改善となる幾つかの特性を提示する。従来、発話の研究では、研究されている活動の受動的観察に努める観察者を必要としている。しかし、観察者の存在はほとんど常に観察される活動に影響を与え、そのため観察の正確さと価値に影響を及ぼす。本発明は、モニターされる言語環境中の参加者が観察者に置き換わることを可能にし、それにより研究環境中の人間観察者の影響と経費を低減又は消滅させる。
本発明のもう1つの特徴は、臨床現場、教室、又はその他の特殊目的の環境とは対照的な自然な言語環境中で動作することにより、収集できるデータの量と多様性がほかの研究技術で可能なものより格段に大きいことである。従来の研究者がコンピュータ研究室での被験者の観察に1時間程度と限定されたことに対して、本発明は被験者の観察を1日中また数日にわたって可能にする。さらに、被験者ひとりではなく、被験者が通常交渉を持つ種々のほかの人々がいる状況においてモニターされる。被験者を、様々な人々との、様々な背景での、電話での、等の会話においてモニターすることができる。このデータの量や質は従来技術を使ってはとうてい習得できるものではない。
コンピュータ支援によるコード付け
別のアプリケーションでは、学習者の言語環境中にいる人、例えば親は、本発明に準拠して収集された学習者の発話音声ファイルを聴き、その音声をよりよく識別するためにコードを入力したり、又はその音声を語及び/又は句にリンクさせたりしてもよい。「コード付け」という用語は、容易に発話とは認識できる又は認識できない音声に対して、その音声への観察者の解説又は理解内容を示す情報でもって注釈を付けるプロセスのことである。種々の自動化された観察者ベースのコード付けシステムが考案されてきたが、本発明は言語環境中の自然な参加者(観察者とは対照的に)がコード付けを実行できるようにする。このようにして、本発明は、観察者ベース又は自動化したコード付けというよりむしろ、コンピュータ支援型のコード付けを提供する。言語環境中の人にこの解説やコード付けが実行できるようにすることによって、観察者が有するであろう影響が避けられ、学習者に親しいものにコード付けを行わせる結果として、正確さが改善されるかもしれない。この情報は、発話の指標の処理や報告を強化するために使用することができる。
音声認識、音声が使えるソフトウェアアプリケーション
本発明は、音声認識を実現してもよいが、直接にそれを必要としたりそれに依存したりはしない。しかしながら、本発明は会話音声認識や音声を使えるソフトウェアアプリケーションの強化を可能にするいくつかの機能を提供する。発話アプリケーションは一般に音声信号の各部分を以前にトレーニングされた例とマッチングを取るアルゴリズム的プロセスを含む。音声認識において繰り返し発生する1つの困難は、アルゴリズムが音声信号を語に成功裡に変換できるようシステムをトレーニングすることに関わる。代表的なアプリケーションでは、ユーザは語の集合又は文章の句を含む台本を読むように依頼され、読み人による音声が分析され既知の文章と相互に関連付けられる。この技術は、人が読むことができない又は標準的でない発音のために理解しがたいようなやり方で読む、等の場合には使うことができない。これでは、幼児や子供、発達不全の人、卒中や事故犠牲者のような発話に影響する障害を持つ人、等のみならず、普通に機能できるがアクセントが特殊な大人に使えるよう発話ソフトウェアをトレーニングするのは困難である。
本発明は、自然な言語環境において発生する台本のない発話がそのようなトレーニングに使えるようにする。一旦音声が記録されると、発話者又はその介助者は記録された音声を、その発話が具体的な発話者又は語、複合的概念と相互に関連付けられるよう、コード付けすることができる。これは前言語の音声が、話者に親しい誰か、その人が発話又は言語学の専門家でない場合でも、により意味のある語に相互関連付けられることを可能にする。言い換えると、このコード付けは音声認識及び音声が使えるアプリケーションで使用される学習ファイルを拡大又は置き換えるために使用することができる。さらに、人が言語発達面で向上し又は言語障害を克服するに伴い、本発明の分析及び報告機能は、話者、介助者、又はソフトウェアにその変化がわかるようにし、発話者の新しい特性を反映してコード付けが更新できるようにする。このようにして、本発明はシステムが継続的かつ動的に種々のソフトウェアアプリケーションのトレーニングを向上できるようにする。
外国語アプリケーション
上記で説明した言語習得支援のための方法及びシステムの多くは、第2言語すなわち「外国語」の学習にも直接的に適用可能である。本発明は、語彙使用、発音、学習速度、等のモニターのみならず記事や本、詩、歌詞、等の複雑な題材の暗唱をモニターすることにより、教室における正規の言語トレーニング、自習又はソフトウェア支援学習環境を支援するよう使うことができる。これらの課業は、前言語アプリケーションや言語アプリケーションとして述べた基準的な言語支援アプリケーションとほぼ同種である。
さらに、本発明は家庭やオフィスのような自然な言語利用環境における多言語発話をモニターし、分析し、報告するよう使用することもできる。本発明のシステム及び方法は、家庭において具体的な言語中のある語や語句の使用頻度についてモニターして報告するよう、又は多言語を使用する家庭において第2又は第3言語との比較における第1言語の生起の相対的パーセンテジについてモニターして報告するよう適応させることもできる。この情報を親、教師、又はその他の興味を持つ者たちに、種々の外国語目標を支援すべく言語の混用がバランスされ得るよう、フィードバックすることができる。例えば、英語が第2言語である家庭で英語を学ぶ子供は、家庭での英語使用が増えると益を被るかもしれない。あるいは、多言語を学ぼうとする子供は、日々の課業の実行における非一次言語の使用の増加により益を受けるかもしれない。本発明は、言語使用が効率的かつ効果的なやり方でモニターされ、分析され、報告されることを可能にする。
評価ツールアプリケーション
多くの発話不全疾患は、発話特性への影響が症状として現れものかもしれない。発話特性は、表に出ない発話不全疾患を示す早期の標識である場合がある。本発明の1つの側面は、種々の発話不全疾患と検出可能な発話特性の間のマッピングを作り出すことにある。ここで説明される音声のキャプチャ、分析及び報告ツールは、表出された発話症状を検出しそれにより表に出ていない発話不全疾患の高進を検出し評価する新しい方法を提供するために利用できる。議論してきたように、このシステムは、自閉症のような状態検知の困難な慢性病やアルツハイマー病、等に特に有用であることが期待される。このシステムはまた長期の環境有害物質汚染又は負傷/トラウマにより引き起こされる場合がある非疾病的状態にも有用である。このシステムを血液化学変化や有害物質汚染、等のより急性の疾患の検出と評価に使用することも可能である。
規範的図表
言語発達についての、身長−体重表に類する、前言語発達を含む言語発達の正常域を表現する規範的図表、及び言語又は発話の環境の規範的図表を開発する必要がある。本発明は、多次元で次元の組み合わせを含み、そのために馴染みの身長−体重表のようには必ずしも2次元のグラフとしては表されない規範的図表の開発を可能にする。
言語発達及び言語環境のための規範的図表が、種々の病気の検知、診断及び治療に有用である場合もある。例えば、具体的な患者及び/又は患者の言語環境からの音声のモニターから獲得された特性測定値を規範的図表と比較して、具体的な病気の存在を検知できる場合もある。次いでその病気は、指摘された病気用の適切な医学技術により治療される場合がある。
パターン分析
本発明はまた、コンピュータ及び自動化を利用して、かつて行われたよりもより粒度が細かく繊細かつ精確な音声パターンの分析を行うことを意図している。従来の分析技術は一般に正常に発達した具体的な言語を話す個人の研究から発展しており、語、音素、等の粒度で動作する。例えば、前言語の幼児や子供、負傷した人、障害者、機能不全の人、等は必ずしも従来モデルの粒度で扱える音声を造り出すとは限らない。本発明はより細かい粒度で精確に人により作られる音声を分析できるようにする。多くの場合、より低レベルのより小粒度の分析により、発話の発達及び言語環境についての、言語に一般的な、すなわち英語、中国語等具体的な言語用の設計の必要がない、有用で頼りになる測度を得ることができる。
本発明は、ある程度の具体化を伴って説明され例示されてきたが、本開示は例示のみによりなされたものであり、本分野に技術のあるものによっては数多くの部分の組み合わせや構成法の変化を用いることが、請求項に示される本発明の精神及び範囲から離れることなく、可能であることが理解されよう。例えば本発明は、発話活動のモニターに関わる種々のアプリケーションを支援するために利用できる。発話活動のモニターの例として、直接にトレーニングされた主題事項の利用について、直接トレーニングの後の勤務状況においてモニターして報告することによる職場トレーニングや、ラジオ、テレビ、インターネット又はその他の音声チャンネルで配信される内容について、その内容がある語や句又はその他の文を含んでいるか含んでいないかを決定する(例えば、具体的な宣伝が契約義務にしたがって配信されかつ決められた回数繰り返されたかを自動的に確認する)ためのモニターがある。
本発明の具体的な実現例及び別の実施例を示す。 本発明の内蔵型又は着装型の実現例を示す。 本発明を実現した利用環境を示す。 本発明を実現したソフトウェア製品の構成要素をブロックダイアグラム形式で例示する。 本発明を実現した典型的なコンピュータシステムを示す。 本発明の特徴を実現する分散型アーキテクチャを例示する。 モニターされた親子間の相互作用を例示する。
符号の説明
101…ユーザ
105…携帯音声キャプチャ装置
112…マイクロホン
121…マイクロホン
201…大人
301…子供
302…「雁首型」マイクロホン
303…無線インタフェース
304…無線マイクロホンシステム
305…コンピュータシステム
307…マイクロホン
309…マイクロホン
401…キャプチャ部
405…ユーザフィードバック部
407…規則
409…定義されたパターン
411…ログ
501…コンピュータシステム
503…マイクロホン
505…ユーザインタフェース
601…ネットワーク
603…キャプチャ/処理クライアント
605…信号処理サービス

Claims (38)

  1. 自然言語環境において音声をキャプチャするステップと、
    前記音声信号が、言語発達環境に影響を与える1つ又はそれ以上の特徴を示す構成要素を含み、キャプチャされた前記音声から前記音声信号に発達させるステップと、
    前記言語発達環境における、前記1つ又はそれ以上の特徴についての定性的又は定量的な評価を示す、少なくとも1つの特性を決定するために前記音声信号を分析するステップと、
    前記決定された特性を予め選択された基準あるいは時間にわたる変化と比較するステップと、
    結果を報告するステップ
    とを含むことを特徴とする言語発達を支援する方法。
  2. 人の音声のカテゴリが優しい語り掛け、舌足らずな言葉、前言語音声及び言語音声を含む発言を含むことを特徴とする請求項1に記載の言語発達を支援する方法。
  3. 発話が少なくとも2人の参加者を含み、前記音声信号と特に前記少なくとも2人の参加者の特別な一人とを関連付けるステップを更に含むことを特徴とする請求項1に記載の言語発達を支援する方法。
  4. 少なくとも音声記録装置を人に対して概ね定位置に配置するステップを更に含むことを特徴とする請求項1に記載の言語発達を支援する方法。
  5. 少なくとも一つの前記音声記録装置を配置する行為が前記人の衣料品の範囲内に配置するステップを含むことを特徴とする請求項4に記載の言語発達を支援する方法。
  6. 前記分析するステップが、発言の量をカウントするステップを含むことを特徴とする請求項1に記載の言語発達を支援する方法。
  7. 前記分析するステップが、特別な発言が前記音声信号の中で発生する頻度を決定するステップを含むことを特徴とする請求項1に記載の言語発達を支援する方法。
  8. 前記分析するステップが、前記音声信号の中で発生する発言の長さを決定するステップを含むことを特徴とする請求項1に記載の言語発達を支援する方法。
  9. 前記分析するステップが、前記音声信号の中で発生する発言によって表される発達の段階を評価するステップを含むことを特徴とする請求項1に記載の言語発達を支援する方法。
  10. 前記分析するステップが、言語環境の中で、人間による音声と非人間による音声とを区別するステップを含むことを特徴とする請求項1に記載の言語発達を支援する方法。
  11. 前記分析するステップが、前記音声信号の中で発生する発言の感情的な調子を評価するステップを含むことを特徴とする請求項1に記載の言語発達を支援する方法。
  12. 前記分析するステップが、不明確音声認識機能を使用することを特徴とする請求項1に記載の言語発達を支援する方法。
  13. 請求項1の方法を実装したコンピュータシステム。
  14. 発言された内容が配信される活動の間に発生する音声をモニターするステップと、
    前記発言された内容の特性を表す少なくとも一つの指標であって、モニターされた前記音声から前記少なくとも1つの指標を発達させるステップと、
    前記少なくとも一つの指標を報告するステップ
    とを含むことを特徴とする学習を支援する方法。
  15. 前記活動が家庭環境で発生することを特徴とする請求項14に記載の学習を支援する方法。
  16. 前記少なくとも一つの指標を発達させるステップが、モニターされている話された内容において発生した発話の複雑さを評価するための部分的反応最大可能性分析を使用することを特徴とする請求項14に記載の学習を支援する方法。
  17. 前記活動の間に発生する心理的に肯定的及び心理的に否定的な言葉の活動を識別するステップを更に含むことを特徴とする請求項14に記載の学習を支援する方法。
  18. 前記少なくとも一つの指標を発達させるステップが、不明確音声認識機能を使用することを特徴とする請求項14に記載の学習を支援する方法。
  19. 請求項14のいかなる方法をも実装したコンピュータシステム。
  20. 学生に一組の語彙言葉を直接教えるステップと、
    前記語彙言葉を間接的に教えること識別する期間に渡って前記学生のコミュニケーションをモニターするステップと、
    前記学生に前記語彙言葉を間接的に教えること、及び/又は直接教えることに関係する第三者についての情報をフィードバックするステップ
    とを含むことを特徴とする語彙を教える方法。
  21. 第1の人によって生成される音声をキャプチャする操作が可能な音声キャプチャ部と、
    前記音声キャプチャ部に接続され、音声信号を前記音声キャプチャ部から出力される前記音声信号を分析する操作が可能であり、キャプチャされた音声の特性を識別する音声処理部と、
    前記音声処理部に接続され、前記識別された特性を定量化する指標を報告可能な報告部
    とを備えることを特徴とする言語の習得を支援するシステム。
  22. 第一の人の衣服に収納された前記音声キャプチャ部を備えることを特徴とする請求項21に記載の言語の習得を支援するシステム。
  23. 一つの装置として統合された前記音声キャプチャ部及び発話処理部を備えることを特徴とする請求項21に記載の言語の習得を支援するシステム。
  24. 概ね同時刻に前記指標を報告する前記報告部を備えることを特徴とする請求項21に記載の言語の習得を支援するシステム。
  25. 前記音声がキャプチャされた後、一度に調査するための前記指標のログを出す前記報告部を備えることを特徴とする請求項21に記載の言語の習得を支援するシステム。
  26. 前言語の言語習得を支援するのに適したことを特徴とする請求項21に記載の言語の習得を支援するシステム。
  27. キャプチャされた音声が本、記事、詩、発話、歌及び小説のような特別な資料に関係することを示す前記特性を識別する処理が可能な前記音声処理部を備えることを特徴とする請求項21に記載の言語の習得を支援するシステム。
  28. 言語研究を支援し、及び/又は発話や言語病理学者を支援するのに適することを特徴とする請求項21に記載の言語の習得を支援するシステム。
  29. 話している人の言語をコード化する処理において親、教師あるいは研究者を援助するのに適していることを特徴とする請求項21に記載の言語の習得を支援するシステム。
  30. 外国語の習得を支援するのに適することを特徴とする請求項21に記載の言語の習得を支援するシステム。
  31. 自然の設定で人の語彙及び発言をキャプチャすることが可能な発話キャプチャ部と、
    前記発話キャプチャ部に接続され、前記キャプチャされた語彙及び発言を分析可能とし、前記キャプチャされた語彙及び発言の特性を識別する発話処理部と、
    前記発話処理部に接続され、前記識別された特性を定量化し、前記キャプチャされた語彙及び発言と関連した発達段階を評価する指標を報告可能とする報告部
    とを備えることを特徴とする子供や親の言語発達を評価するシステム。
  32. 携帯音声キャプチャ装置を含む前記発話キャプチャ部を備えることを特徴とする請求項31に記載の子供や親の言語発達を評価するシステム。
  33. 一つの装置に統合された前記発話キャプチャ部及び発話処理部を備えることを特徴とする請求項32に記載の子供や親の言語発達を評価するシステム。
  34. 語彙及び発言の中における語の発生をカウントする処理が可能な仕組みを含む前記発話処理部を備えることを特徴とする請求項32に記載の子供や親の言語発達を評価するシステム。
  35. コミュニケーションにおける語の長さを評価する処理が可能な仕組みを含む前記発話処理部を備えることを特徴とする請求項32に記載の子供や親の言語発達を評価するシステム。
  36. コミュニケーションの複雑さを測定する処理が可能な仕組みを含む前記発話処理部を備えることを特徴とする請求項32に記載の子供や親の言語発達を評価するシステム。
  37. コミュニケーションの感情的な内容を評価する処理が可能な仕組みを含む前記発話処理部を備えることを特徴とする請求項32に記載の子供や親の言語発達を評価するシステム。
  38. 言語発達及び言語環境のための規範的なチャートの発展のために使用されるうることを特徴とする請求項32に記載の子供や親の言語発達を評価するシステム。
JP2007532497A 2004-09-16 2005-09-16 状況のフィードバックを使用する学習システム及び方法 Active JP5604033B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US52234004P 2004-09-16 2004-09-16
US60/522,340 2004-09-16
US11/162,520 2005-09-13
US11/162,520 US8708702B2 (en) 2004-09-16 2005-09-13 Systems and methods for learning using contextual feedback
PCT/US2005/033155 WO2006034029A2 (en) 2004-09-16 2005-09-16 A system and method for supporting language development

Publications (2)

Publication Number Publication Date
JP2008513840A true JP2008513840A (ja) 2008-05-01
JP5604033B2 JP5604033B2 (ja) 2014-10-08

Family

ID=36090518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007532497A Active JP5604033B2 (ja) 2004-09-16 2005-09-16 状況のフィードバックを使用する学習システム及び方法

Country Status (4)

Country Link
US (2) US8708702B2 (ja)
EP (1) EP1792292A4 (ja)
JP (1) JP5604033B2 (ja)
WO (1) WO2006034029A2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015129849A (ja) * 2014-01-07 2015-07-16 日本電信電話株式会社 育児語使用傾向測定装置、方法、及びプログラム
JP2018530930A (ja) * 2015-07-21 2018-10-18 ロヴィ ガイズ, インコーポレイテッド 家庭内で話されている言語に対応するコンテンツを識別するためのシステムおよび方法
JP2019109643A (ja) * 2017-12-18 2019-07-04 国立大学法人 東京大学 授業改善のためのネットワークシステム
JP2020115197A (ja) * 2019-01-18 2020-07-30 日本電信電話株式会社 語彙発達指標推定装置、語彙発達指標推定方法、プログラム
JP2020535731A (ja) * 2017-09-27 2020-12-03 ジーエヌ ヒアリング エー/エスGN Hearing A/S 会話露出評価のための聴覚装置および関連する方法

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10223934B2 (en) 2004-09-16 2019-03-05 Lena Foundation Systems and methods for expressive language, developmental disorder, and emotion assessment, and contextual feedback
US8078465B2 (en) * 2007-01-23 2011-12-13 Lena Foundation System and method for detection and analysis of speech
US9355651B2 (en) 2004-09-16 2016-05-31 Lena Foundation System and method for expressive language, developmental disorder, and emotion assessment
US9240188B2 (en) 2004-09-16 2016-01-19 Lena Foundation System and method for expressive language, developmental disorder, and emotion assessment
US8938390B2 (en) * 2007-01-23 2015-01-20 Lena Foundation System and method for expressive language and developmental disorder assessment
CA2676380C (en) * 2007-01-23 2015-11-24 Infoture, Inc. System and method for detection and analysis of speech
WO2009114499A2 (en) * 2008-03-10 2009-09-17 Anat Thieberger Ben-Haim Methods and devices for language skill development
US9352411B2 (en) * 2008-05-28 2016-05-31 Illinois Tool Works Inc. Welding training system
US8963987B2 (en) * 2010-05-27 2015-02-24 Microsoft Corporation Non-linguistic signal detection and feedback
CN103236260B (zh) * 2013-03-29 2015-08-12 京东方科技集团股份有限公司 语音识别系统
US10405786B2 (en) 2013-10-09 2019-09-10 Nedim T. SAHIN Systems, environment and methods for evaluation and management of autism spectrum disorder using a wearable data collection device
US9936916B2 (en) 2013-10-09 2018-04-10 Nedim T. SAHIN Systems, environment and methods for identification and analysis of recurring transitory physiological states and events using a portable data collection device
US20150325136A1 (en) * 2014-05-07 2015-11-12 Jeffrey C. Sedayao Context-aware assistant
US10776419B2 (en) 2014-05-16 2020-09-15 Gracenote Digital Ventures, Llc Audio file quality and accuracy assessment
US20160111019A1 (en) * 2014-10-15 2016-04-21 Kast Inc. Method and system for providing feedback of an audio conversation
JP6377516B2 (ja) * 2014-12-17 2018-08-22 日本電信電話株式会社 単語提示装置、方法及びプログラム
JP6377517B2 (ja) * 2014-12-19 2018-08-22 日本電信電話株式会社 単語提示装置、方法及びプログラム
US10516938B2 (en) * 2016-07-16 2019-12-24 Ron Zass System and method for assessing speaker spatial orientation
US11195542B2 (en) * 2019-10-31 2021-12-07 Ron Zass Detecting repetitions in audio data
US11253193B2 (en) 2016-11-08 2022-02-22 Cochlear Limited Utilization of vocal acoustic biomarkers for assistive listening device utilization
US10529357B2 (en) 2017-12-07 2020-01-07 Lena Foundation Systems and methods for automatic determination of infant cry and discrimination of cry from fussiness
JP6463520B2 (ja) * 2018-01-19 2019-02-06 日本電信電話株式会社 計算装置、方法、システム及びプログラム
US10878813B2 (en) 2018-10-09 2020-12-29 International Business Machines Corporation Analytics-based speech therapy
US11620552B2 (en) 2018-10-18 2023-04-04 International Business Machines Corporation Machine learning model for predicting an action to be taken by an autistic individual
US11455907B2 (en) * 2018-11-27 2022-09-27 International Business Machines Corporation Adaptive vocabulary improvement
US11417236B2 (en) * 2018-12-28 2022-08-16 Intel Corporation Real-time language learning within a smart space
US11361676B2 (en) 2019-06-14 2022-06-14 International Business Machines Corporation, Armonk, Ny Augmented reality techniques for simultaneously learning multiple languages
WO2023219489A1 (en) * 2022-05-13 2023-11-16 Toybox Creations And Technology Sdn Bhd Automated tool to assess child development

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS50150521A (ja) * 1974-05-22 1975-12-03
JPS58121084A (ja) * 1982-01-13 1983-07-19 工業技術院長 発話訓練装置
JPS60245000A (ja) * 1984-05-21 1985-12-04 富士通株式会社 発声訓練装置
JPH03273280A (ja) * 1990-03-22 1991-12-04 Nec Corp 発声練習用音声合成方式
JPH10511472A (ja) * 1994-12-08 1998-11-04 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 言語障害者間の語音の認識を向上させるための方法および装置
JP2000148172A (ja) * 1988-03-11 2000-05-26 British Telecommunications Plc 音声の動作特性検出装置および検出方法
JP2001117581A (ja) * 1999-10-22 2001-04-27 Alpine Electronics Inc 感情認識装置
JP2003131548A (ja) * 2001-10-29 2003-05-09 Mk Denshi Kk 言語学習装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4464119A (en) * 1981-11-10 1984-08-07 Vildgrube Georgy S Method and device for correcting speech
GB9223066D0 (en) * 1992-11-04 1992-12-16 Secr Defence Children's speech training aid
US5717828A (en) 1995-03-15 1998-02-10 Syracuse Language Systems Speech recognition apparatus and method for learning
KR960042590A (ko) * 1995-05-23 1996-12-21 김광호 테이프 재생용 음량기기에서의 발음비교방법
US6157913A (en) * 1996-11-25 2000-12-05 Bernstein; Jared C. Method and apparatus for estimating fitness to perform tasks based on linguistic and other aspects of spoken responses in constrained interactions
JP3702978B2 (ja) * 1996-12-26 2005-10-05 ソニー株式会社 認識装置および認識方法、並びに学習装置および学習方法
US6185534B1 (en) * 1998-03-23 2001-02-06 Microsoft Corporation Modeling emotion and personality in a computer user interface
US6336089B1 (en) * 1998-09-22 2002-01-01 Michael Everding Interactive digital phonetic captioning program
US6554617B1 (en) * 1999-04-05 2003-04-29 Dolan F. J. "Steve" Vocabulary teaching aid system and method
US7062441B1 (en) * 1999-05-13 2006-06-13 Ordinate Corporation Automated language assessment using speech recognition modeling
US6275806B1 (en) * 1999-08-31 2001-08-14 Andersen Consulting, Llp System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters
US20020150869A1 (en) * 2000-12-18 2002-10-17 Zeev Shpiro Context-responsive spoken language instruction
US6714911B2 (en) * 2001-01-25 2004-03-30 Harcourt Assessment, Inc. Speech transcription and analysis system and method
US6732076B2 (en) * 2001-01-25 2004-05-04 Harcourt Assessment, Inc. Speech analysis and therapy system and method
JP4898015B2 (ja) * 2001-04-26 2012-03-14 東芝テック株式会社 通信教育システム、このシステムに使用される保管用サーバ及びこの保管用サーバに使用されるプログラムを記録したコンピュータ読み取り可能な記録媒体
US7016839B2 (en) * 2002-01-31 2006-03-21 International Business Machines Corporation MVDR based feature extraction for speech recognition

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS50150521A (ja) * 1974-05-22 1975-12-03
JPS58121084A (ja) * 1982-01-13 1983-07-19 工業技術院長 発話訓練装置
JPS60245000A (ja) * 1984-05-21 1985-12-04 富士通株式会社 発声訓練装置
JP2000148172A (ja) * 1988-03-11 2000-05-26 British Telecommunications Plc 音声の動作特性検出装置および検出方法
JPH03273280A (ja) * 1990-03-22 1991-12-04 Nec Corp 発声練習用音声合成方式
JPH10511472A (ja) * 1994-12-08 1998-11-04 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 言語障害者間の語音の認識を向上させるための方法および装置
JP2001117581A (ja) * 1999-10-22 2001-04-27 Alpine Electronics Inc 感情認識装置
JP2003131548A (ja) * 2001-10-29 2003-05-09 Mk Denshi Kk 言語学習装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015129849A (ja) * 2014-01-07 2015-07-16 日本電信電話株式会社 育児語使用傾向測定装置、方法、及びプログラム
JP2018530930A (ja) * 2015-07-21 2018-10-18 ロヴィ ガイズ, インコーポレイテッド 家庭内で話されている言語に対応するコンテンツを識別するためのシステムおよび方法
JP2021093749A (ja) * 2015-07-21 2021-06-17 ロヴィ ガイズ, インコーポレイテッド 家庭内で話されている言語に対応するコンテンツを識別するためのシステムおよび方法
US11127393B2 (en) 2015-07-21 2021-09-21 Rovi Guides, Inc. Systems and methods for identifying content corresponding to a language spoken in a household
US11721321B2 (en) 2015-07-21 2023-08-08 Rovi Guides, Inc. Systems and methods for identifying content corresponding to a language spoken in a household
JP7368406B2 (ja) 2015-07-21 2023-10-24 ロヴィ ガイズ, インコーポレイテッド 家庭内で話されている言語に対応するコンテンツを識別するためのシステムおよび方法
JP2020535731A (ja) * 2017-09-27 2020-12-03 ジーエヌ ヒアリング エー/エスGN Hearing A/S 会話露出評価のための聴覚装置および関連する方法
JP2019109643A (ja) * 2017-12-18 2019-07-04 国立大学法人 東京大学 授業改善のためのネットワークシステム
JP2020115197A (ja) * 2019-01-18 2020-07-30 日本電信電話株式会社 語彙発達指標推定装置、語彙発達指標推定方法、プログラム
JP7097026B2 (ja) 2019-01-18 2022-07-07 日本電信電話株式会社 語彙発達指標推定装置、語彙発達指標推定方法、プログラム

Also Published As

Publication number Publication date
US8708702B2 (en) 2014-04-29
US20070172805A1 (en) 2007-07-26
EP1792292A4 (en) 2012-01-25
JP5604033B2 (ja) 2014-10-08
US20140234811A1 (en) 2014-08-21
WO2006034029A2 (en) 2006-03-30
EP1792292A2 (en) 2007-06-06
WO2006034029A3 (en) 2006-05-18

Similar Documents

Publication Publication Date Title
JP5604033B2 (ja) 状況のフィードバックを使用する学習システム及び方法
Ganek et al. Language ENvironment analysis (LENA) system investigation of day long recordings in children: A literature review
Canault et al. Reliability of the language environment analysis system (LENA™) in European French
Wang et al. A meta-analysis of the predictability of LENA™ automated measures for child language development
Nittrouer et al. Language structures used by kindergartners with cochlear implants: Relationship to phonological awareness, lexical knowledge and hearing loss
Huttenlocher et al. Language input and child syntax
Lynch et al. Listening
AU2009299102B2 (en) Measuring cognitive load
Wood et al. An investigation of language environment analysis measures for Spanish–English bilingual preschoolers from migrant low-socioeconomic-status backgrounds
Robillard et al. Monolingual and bilingual children with and without primary language impairment: Core vocabulary comparison
Bulgarelli et al. Look who’s talking: A comparison of automated and human-generated speaker tags in naturalistic day-long recordings
Bolaños et al. FLORA: Fluent oral reading assessment of children's speech
Ertmer Relationships between speech intelligibility and word articulation scores in children with hearing loss
Barrow et al. Subjective ratings of age-of-acquisition: exploring issues of validity and rater reliability
Stockman et al. Comparison of African American children's performances on a minimal competence core for morphosyntax and the Index of Productive Syntax
KR20220048381A (ko) 말 장애 평가 장치, 방법 및 프로그램
Horton et al. Examining the use of spoken dialect indices with African American children in the southern United States
Arjmandi et al. Variability in quantity and quality of early linguistic experience in children with cochlear implants: Evidence from analysis of natural auditory environments
Chenausky et al. Review of methods for conducting speech research with minimally verbal individuals with autism spectrum disorder
Robinson et al. Predicting difficulties in learning phonetic transcription: Phonemic awareness screening for beginning speech-language pathology students
US20220015687A1 (en) Method for Screening Psychiatric Disorder Based On Conversation and Apparatus Therefor
Flores-Carballo et al. Speaker identification in interactions between mothers and children with Down syndrome via audio analysis: A case study in Mexico
Sobti et al. Challenges for designing of children speech corpora: A state-of-the-art review
Dai et al. In Search of Negative Moments: Multi-Modal Analysis of Teacher Negativity in Classroom Observation Videos.
CN214017509U (zh) 基于幼儿语音分析的语言发展评估装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110628

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110927

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120925

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121221

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140305

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20140421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140421

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140825

R150 Certificate of patent or registration of utility model

Ref document number: 5604033

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250