JP3956115B2 - Utterance language learning device - Google Patents

Utterance language learning device Download PDF

Info

Publication number
JP3956115B2
JP3956115B2 JP2002206318A JP2002206318A JP3956115B2 JP 3956115 B2 JP3956115 B2 JP 3956115B2 JP 2002206318 A JP2002206318 A JP 2002206318A JP 2002206318 A JP2002206318 A JP 2002206318A JP 3956115 B2 JP3956115 B2 JP 3956115B2
Authority
JP
Japan
Prior art keywords
learner
language learning
language
behavior
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002206318A
Other languages
Japanese (ja)
Other versions
JP2004046018A (en
Inventor
佳史 西田
俊夫 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
National Institute of Advanced Industrial Science and Technology AIST
National Institute of Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
National Institute of Advanced Industrial Science and Technology AIST
National Institute of Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, National Institute of Advanced Industrial Science and Technology AIST, National Institute of Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2002206318A priority Critical patent/JP3956115B2/en
Publication of JP2004046018A publication Critical patent/JP2004046018A/en
Application granted granted Critical
Publication of JP3956115B2 publication Critical patent/JP3956115B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、居室内における学習者の動きから行動を判定して、その行動に対応した表現(例文)を特定の言語で発話し、語学学習を行うことができるようにした発話型語学学習装置に関する。
【0002】
【従来の技術】
例えば、日本人が英語等の他国語の会話学習を行う時のように、語学学習を行うに際しては従来より種々の方法が用いられている。具体的に説明すると、語学学習用のテキストにおいては、初歩から上級者用に至る複数段階のレベル分けを行い、各レベルにおいて、学習する言語について、各種物品の名称を列記し、歩く、座る、寝る等の種々の行動の態様を例示し、あるいは道を聞く、買い物をする、乗り物に乗る等の生活中における各種のシーンを分類して、そのシーンにおいて用いられる代表的な言葉を例示し、更には種々の例文を示すことが行われている。
【0003】
また、これらの会話の学習においては、上記のようなテキストに加えてカセットテープに先生の声を録音し、これを聴きながらテキストに沿って学習していくことも行われる。また、英会話学校のように先生と対面しながら、先生のカリキュラムに沿って学習することも行われる。
【0004】
【発明が解決しようとする課題】
上記のような種々の語学学習法はいずれも何らかのテキスト、カリキュラムに沿って進められるものであり、系統だった学習が可能である反面、特に会話の学習においては、学習者はその言葉が使われる状況を想像しながら学習する必要があり、学習する人にとっては語学の学習能力の他に想像力が必要とされる。そのため、学習者の社会経験の相違、想像力の相違によって学習の効果が異なることとなり、特に、子供は多くの経験をしていないため想像の範囲が狭く、このような学習法では適切な学習が行われないことが多い。
【0005】
また、テレビやビデオテープによって実際にその言葉が使われる状況を例示しながら行う学習方法のように、映像を用いて学習者の想像を補う手段が使われる方法も利用されている。しかしながら、それによっても実際に学習者が経験している状態ではないため、必ずしもその言葉を身体で感じとることができず、この場合も自分がその場にいることを想像しながら学習を行うしかなく、更に、前記のようなテキストに沿った予め決められた言葉しか使われることがないので、状況に応じた種々の態様の言葉を知ることができず、このような学習方法には限界がある。
【0006】
更に、先生と対話しながら英語会話の学習を行う場合においては、その英語が使われるシーンを先生との間で形成することにより、できる限りその言葉が使われる状態に近づけた中で学習することが行われる。しかしながら、この方法によっても実際の場面とは必ずしも一致せず、そのような場面にあるものと想像しながら学習せざるを得ない。また、このような学習方法は、その場面を形成する先生が必要となるため、学習者はその先生のいる学校等に出向くか、その先生に来てもらうしかない。そのため、この学習に多くの時間がかかるか、あるいは多くの費用がかかることとなる。
【0007】
本発明は、このような問題点を解決するためになされたものであり、本発明の目的は、先生等の他人の力を借りることなく、いつでも学習者が学習者自身の行動で直接言葉を学習することができて、効果的な語学学習を行うことができる発話型語学学習装置を提供することにある。
【0008】
【課題を解決するための手段】
上記のような目的を達成するため、本発明による発話型語学学習装置は、基本構成として、居室内における学習者の身体の動きを検出して当該学習者の行動を判定する行動判定装置と、前記行動判定装置により判定された行動により、学習者の行動と関連した語学学習用データを出力する語学学習処理装置と、前記語学学習処理装置の出力データを音声化する音声化処理装置とを備える
【0009】
この発話型語学学習装置において、行動判定装置は、学習者が手に持つ器具または学習者の身体(手などの特定部位または複数箇所)について3次元位置測定を行い、学習者が手に持つ器具または学習者の身体の空間位置の動きを検出し、前記検出した学習者が手に持つ器具または学習者の身体の空間位置の動きに対応して学習者の行動を判定するものである。例えば、学習者の身体の一部につけた光反射板により動きを取り込むモーションキャプチャーシステムなどが利用できる。
【0010】
また、ここでの行動判定装置は、学習者が操作する器具に取り付けられた信号発信器からの信号により3次元位置測定を行い、学習者が操作する器具の空間位置の動きを検出し、前記検出した学習者が操作する器具の空間位置の動きに対応して学習者の行動を判定するものとしてもよい。
【0011】
また、同じく、行動判定装置は、学習者の身体の所定部位について3次元位置測定を行い、前記所定部位の空間位置の動きを検出し、前記検出した学習者の所定部位の空間位置の動きに対応して学習者の行動を判定するものとしてもよい。
【0012】
また、行動判定装置は、特徴的には、学習者が手に持つ器具に貼り付けられた信号発信器または学習者が手に持つ器具に貼り付けられた信号受信機と、居室内に置かれた信号発信機または信号受信機による信号の送受信によって、前記器具の空間位置の動きを検出するものであり、前記器具の空間位置の動きに対応して学習者の行動を判定する。
【0013】
また、行動判定装置は、学習者が手に持つ器具または学習者の身体について3次元位置測定を行い、学習者が手に持つ器具または学習者の身体の空間位置の動きを検出し、前記検出した学習者が手に持つ器具または学習者の身体の空間位置の動きに対応して学習者の行動を判定するものであるように構成することもできる。
【0014】
また、この発話型語学学習装置において、行動判定装置は、学習者が操作する器具に取り付けられた信号発信器から発信された信号を居室内の複数箇所で受信する受信機により受信した信号によって、前記器具の空間位置の動きを検出するものであり、前記器具の空間位置の動きに対応して学習者の行動を判定するものとすることができる。
【0015】
この発話型語学学習装置において、行動判定装置は、学習者の身体に取り付けられた信号発信器から発信された信号を居室内の複数箇所で受信する受信機により受信した信号により、前記学習者の身体の空間位置の動きを検出するものであり、前記学習者の身体の空間位置の動きに対応して学習者の行動を判定するものとすることができる。
【0016】
別の特徴として、本発明の発話型語学学習装置において、行動判定装置は、学習者の身体に取り付けられた第1の信号発信器から発信された第1の信号と、学習者が手に持つ器具に貼り付けられた第2の信号発信器から発信された第2の信号とを居室内の複数箇所で受信する受信機により受信した信号によって、前記学習者の身体および器具の空間位置の動きを検出するものであり、前記学習者の身体および器具の空間位置の動きに対応して学習者の行動を判定するものとすることができる。
【0017】
この発話型語学学習装置において、語学学習処理装置は、学習者の学習レベルを設定する学習レベル設定部を備え、行動判定装置からの判定結果の行動パターンを元に、前記学習レベル設定部で設定された学習レベルに合わせて、行動・例文データベースにおいて予め学習レベル別に蓄積された例文を検索して、学習レベルに合わせた例文を、語学学習用データとして出力するものとすることができる。
【0018】
この発話型語学学習装置において、語学学習処理装置は、複数の言語の語学辞書と学習言語選択指示部とを備え、行動判定装置からの判定結果の行動パターンを元に、行動・例文データベースにおいて蓄積された例文を検索し、検索された例文を、学習言語選択指示部で指示された学習する対象の言語への翻訳を前記語学辞書に基づいて行い、語学学習用データとして出力するものとすることができる。
【0019】
また、この発話型語学学習装置において、行動判定装置が、所定時間、前記器具の空間位置が同じ位置である状態を判定すると、語学学習処理装置は、直前に出力した語学学習用データと同じ学習用データを出力するものとすることができる。
【0020】
また、この発話型語学学習装置において、行動判定装置が、所定時間、前記器具の空間位置が同じ位置である状態を判定すると、語学学習処理装置は、直前に出力した語学学習用データの例文を学習者に応じて予め設定された母国語の言語への翻訳を語学辞書に基づいて行い、語学学習用データとして出力するものとすることができる。
【0021】
また、この発話型語学学習装置において、行動判定装置が、所定時間、前記器具の空間位置が同じ位置である状態を判定すると、語学学習処理装置は、直前に出力した語学学習用データの例文を登録するものとすることができる。
【0022】
【発明の実施の形態】
以下、本発明を実施する場合の一形態について図面を参照して説明する。図1は、本発明による発話型語学学習装置の主要機能を示すブロックによるシステム構成とそれらの関係を示す図である。図1において、1は3次元位置測定装置、2は行動判定装置、3は語学学習処理装置、4は音声化処理装置、6は第1の超音波受信機、7は第2の超音波受信機、8は第3の超音波受信機、9は3次元位置測定部、10は動き・行動データベース、13は学習レベル設定部、14は語学学習用例文形成部、15は辞書検索部、16は特定言語翻訳部、17はレベル設定指示部、18は行動・例文データベース、19は語学辞書データベース、20は学習言語選択指示部、21はスピーカである。
【0023】
全体のシステム構成としては、居室内の複数箇所に設置した超音波受信機6,7,8および当該超音波受信機の受信信号により3次元位置を測定する3次元位置測定部9から構成される3次元位置測定装置1、学習者が手に持つ器具または学習者の身体の一部(手などの身体の所定部位)について測定した3次元位置の動きから学習者の行動を判定する行動判定装置2、行動の判定に応じて例文を生成して出力する語学学習処理装置3、例文を発話するための音声化処理装置4とから構成されているシステムである。
【0024】
3次元位置測定装置1は、例えば、図2に示すように、居室内の例えば天井の複数箇所に設置した超音波受信機6,7,8と、この超音波受信機6,7,8の受信信号により3次元位置を測定する3次元位置測定部9とから構成される。ここでの超音波受信機6,7,8において受信される信号は、学習者が手に持つ器具または学習者の身体の一部に貼り付けられた信号発信器30から発信される信号である。後述するように、信号発信器(30,31,32)が複数個設けられる場合には、それぞれの信号発信器が発信する超音波周波数を異ならせて区別するか、または、発信する信号に識別情報を含ませてそれぞれを区別する。この信号発信器が発信する信号が共に3つの超音波受信機6,7,8により受信されることにより、例えば、その受信信号の位相差から3次元位置が測定される。この3次元位置の測定は、所定の時間間隔(例えば、1秒間に50回程度)で行われ、これの3次元位置の変化を連続して測定することにより、3次元位置の一連の動き(3次元座標値の時系列データ)が測定される。
【0025】
図2に示すように、例えば、学習者5がテーブルにおかれたカップを持ち上げる行動を起こすと、そのカップに貼り付けられた信号発信器30から発信された信号が、共に超音波受信機6,7,8により受信されて3次元位置測定部9において信号処理されて、測定された3次元位置の一連の動き(3次元位置の時系列データ)が、行動判定装置2に入力される。行動判定装置2は、3次元位置測定部9から連続して所定時間毎に入力される3次元位置の時系列データから、カップの動きを判定し、例えば、学習者5がテーブルにおかれたカップを持ち上げる行動を起こしたことを判定する。
【0026】
すなわち、図7に示すように、居室内に置かれているテーブルの表面の3次元空間の座標値が予め登録されており、このテーブルの3次元空間の表面位置の空間領域(座標値)から離れて、カップの位置(座標値)がその上の空間位置の領域に入ったことを判定して、学習者5がテーブルにおかれたカップを持ち上げる行動を起こしたことを判定する。また、このとき、例えば、図3に示すように、学習者5の手首(手の指)に付けられた信号発信器31からの信号を受信していれば、その手首の3次元位置が、カップの3次元位置に近づき、手首の3次元位置とカップの3次元位置とが共に同じ空間領域に入ったことを判定することにより、更に精度良く、学習者5がテーブルにおかれたカップを持ち上げる行動を起こしたことを判定できる。ここでの行動判定装置2による学習者の行動の判定処理は、後述するように、動きと行動とを3次元空間位置のデータ(座標値)に基づいて、それぞれに対応づけたデータが動き・行動データベース10に格納されているので、このデータを参照して行う(図8)。
【0027】
このように判定された行動の判定結果は判定識別符号を付与して、行動判定装置2から出力されて、語学学習処理装置3に入力される。例えば、学習者の行動が、歩いている、座っている、何かを指している、何かを持っている等の行動が、学習者が手に持つ器具(例えばカップ)または学習者の身体の一部(手首)の3次元位置の動きの時系列データから、それぞれの行動パターンとして、判定される。
【0028】
行動判定装置2の処理によって、学習者の行動が行動パターンとして、判定されると、語学学習処理装置3において、それらの行動パターンに対応して、学習者の行動および関連する物体(器具)に関連する例文に関して、語学学習用の言葉を出力する処理を行う。語学学習処理装置3は、図示する実施例では、主要機能部として、学習レベル設定部13、語学学習用例文形成部14、辞書検索部15、特定言語翻訳部16を備えている。
【0029】
学習レベル設定部13は、この装置の外部に設けた学習レベル設定操作部17を操作することにより、この語学学習処理装置3を利用する学習者の学習レベルに合わせて設定を行う。行動判定装置2において、学習者5の行動パターンの判定が同じであっても、出力する語学学習用の例文の形態は、その学習者のレベルに合わせて変化させることができるようにしている。その結果、例えば、図2に示すように、学習者5がテーブルの上のコーヒーカップを持ち上げたことを判定すると、語学学習装置3において、学習レベルが初心者レベルに設定されている場合には、後に述べるような処理を行うことにより、例えば、最終的に「これはカップです。」「あなたはカップを見ています。」のような言葉を英語、フランス語等の学習する所定の言語で発声し、また、中級レベルに設定されている場合には「あなたは椅子に座ってテーブルの上のカップを持ち上げています。」のような比較的複雑な例文を発声するようにしている。
【0030】
語学学習用例文形成部14においては、語学学習処理装置3に入力された行動判定装置2からの判定結果の行動パターンを元に、また、学習レベル設定部13で設定された学習レベルに合わせて、出力すべき例文を形成する。その例文の形成に際しては、図9に示すように、行動・例文データベース18において予め学習レベル別に蓄積された種々の例文を用い、これを検索して、前記のようなレベルに合わせた例文を読み出すことにより行う。
【0031】
出力するべき例文が決まった後は、特定言語翻訳部16において、学習言語選択指示部20で指示された学習する対象の言語である英語、フランス語等の特定の言語への翻訳を行う。この翻訳に際しては、語学学習用例文形成部14で形成された例文について、しかも、学習言語選択指示部20で指示された言語について、語学辞書データベース19に蓄積されたデータを辞書検索部15において検索しながら行う。以上のようにして、翻訳された例文は音声化処理装置4において音声に変換され、スピーカ21から出力される。
【0032】
このような一連の処理により、例えば、図2の例に対応して説明すると、図1の右側列に語学学習処理の例として図示しているようなプロセスに従い処理が進行する。学習者5がテーブルの上のコーヒーカップを手に取るような行動を起こしたとき、学習者5の行動を、複数の信号受信機(6,7,8)および3次元位置測定部9から構成される3次元位置測定装置1により、3次元位置座標値の時系列データとして検出し、行動判定装置2において動き・行動データベース10に格納されたデータを参照して、学習者5の動きから、その行動を判定して、行動パターンを出力する。
【0033】
次いで、出力された行動パターンに基づいて、語学学習処理装置3において学習レベルに合わせて蓄積されている行動や物体(器具)の例文を探し、これを所定の言語に翻訳する。次いで、音声化処理装置4で処理した音声を、スピーカ21から、例えば、「This is a cup. You are looking at a cup.」と出力する。これにより、学習者は自分が現在行った行動に対する英語を実感をもって、例文を聞き取り理解することができ、学習効果を向上することができる。また、上記実施例においては、多くの国の言語の辞書を予め用意することにより、同じ装置を用いて希望の言語の学習を行うことができる。
【0034】
このような語学学習装置を用いることにより、図2に示す例の他、例えば、図3に示すように、学習者5が椅子に座っているときについても、この学習者の行動を、複数の信号受信機(6,7,8)および3次元位置測定部9から構成される3次元位置測定装置1により3次元位置座標値の時系列データ(動き)として検出し、行動判定装置2において動き・行動データベース10に格納されたデータを参照して、学習者5の動きから、その行動パターンを判定する。
【0035】
語学学習装置3が初心者レベルであって、かつ学習言語が英語に設定されているとき、「You sat down on the seat!」とスピーカ21から自動的に発声する。また、図4に示すように、学習者5が歩いていること(行動パターン)を、3次元位置の時系列データ(座標値)により判定できたときには、「You are walking!」と発声する。また、図5に示すように、学習者5がテレビのリモコンを持って、スイッチを入れたことを判定した場合(図示しないが、テレビの電源が入ったことを別途に設けたセンサにより検知するようにしておく)には、「You turned on the television!」と発声することができる。更に、図6に示すように学習者がベッドに移動した行動を判定したときには、「You went to bed!」と発声する。このような行動パターンの判定は、ベッドの空間位置が3次元座標値として予め登録されており、学習者5の身体の一部の3次元位置の座標値が、ベッドに近づいたことを判定することにより行われる。
【0036】
また、行動判定装置2において、学習者の行動が、しばらくの間、停止したような状態を判定すると、更に必要に応じて、再度発音し、更に必要に応じて、同様の行動をとったときには学習者が日本人である場合には日本語等、学習者の母国語で発音するようにすることもできる。また、例えば、学習者が語学学習装置を操作して(例えばリモコンを操作して)、先の言葉が理解できなかった旨の入力を行ったときも、前記と同様の再発音、母国語での発音等を何回も行わせることも可能である。
【0037】
また、このように学習者が理解できないような行動をとり、あるいはその旨の入力が行われたときには、学習者が、このような言葉を理解しにくい傾向があるとして、この言葉をメモリに登録し、その後、同じような行動がとられたときには、この登録されている言葉を優先的に出力する等、効率的な学習を行わせるようにすることができる。更に、必要に応じて、スピーカから出力している言葉を、別に設けた表示装置に表示するように構成することもできる。
【0038】
なお、図1に示す実施例において、語学学習処理装置3には複数の言語の語学辞書データベース19を備え、学習言語選択指示部20で選択した特定の言語に翻訳を行う例を示したが、例えば、この語学学習装置を英語の学習専用とする際には、語学辞書データベース19には英語の辞書データベースのみを備え、学習言語選択指示部20を除くこともできる。
【0039】
また、行動判定装置2としては、学習者が手に持つ器具に貼り付けられた信号発信器と居室内に置かれた信号受信機のと組み合わせ、または、学習者が手に持つ器具の信号受信機と居室内に置かれた信号発信機との組み合わせにより、これらの組み合わせによる信号の送受信の処理によって、器具の空間位置の動きを検出するものであってもよく、その場合の器具の空間位置の動きに対応して学習者の行動が判定できるものであってもよい。
【0040】
具体的には、行動判定装置2は、超音波式、磁気式、光学式等の三次元位置計測装置や、加速度センサなどの動きの検出を行う装置、スイッチ、接触センサ、ICタグなど位置の変化が検出できる装置を用いることにより、学習者の身体の動きや器具の空間位置の動きや、その変化を検出するものであってもよい。つまり、この場合、学習者の身体や器具の空間位置の動きや変化に対応して学習者の行動を判定できるものであればよい。
【0041】
上述した実施例の説明では、行動判定装置2は、3次元位置測定装置1による空間位置を測定するものとしたが、これに替えて、学習者の身体に取り付けられた信号発信器または学習者の身体に取り付けられた信号受信機と、居室内に置かれた信号発信機または信号受信機による信号の送受信によって、学習者の身体の空間位置の動きを検出するものであってもよい。その場合には、行動判定装置2が、学習者の身体の空間位置の動きに対応して学習者の行動を判定する。
【0042】
また、行動判定装置2として、超音波送受信機による空間位置(3次元位置)の測定に替えて、モーションキャプチャーシステムを利用すると、学習者が手に持つ器具または学習者の身体について3次元位置測定を行い、学習者が手に持つ器具または学習者の身体の空間位置の動きを検出できる。そのため、検出した学習者が手に持つ器具または学習者の身体の空間位置の動きに対応して学習者の行動を判定するものとすることができる。
【0043】
また、前述したように、超音波式、磁気式、光学式等の三次元位置計測装置や、加速度センサなどの動きの検出を行う装置、スイッチ、接触センサ、ICタグなど位置の変化が検出できる装置を用い、これらを学習者が手に持つ器具または学習者に身体に取り付けて、居室内の天井、壁面等に設けられた受信装置または送信装置により信号を検出することで、また、それらの間で信号の送受信の処理を行うことにより、学習者が手に持つ器具および学習者の身体の空間位置の動きを検出し、検出した学習者が手に持つ器具および学習者の身体の空間位置の動きに対応して学習者の行動を判定するものとすることもできる。これにより、高い精度で学習者の行動を判定できる。
【0044】
行動判定装置2は、学習者が手に持つ器具または学習者の身体に貼り付けられた信号発信機または信号受信機と、居室内に置かれた信号発信機または信号受信機による信号の送受信に利用して、学習者の動きを判定するようにして良い。その場合には、学習者が手に持つ器具または学習者の身体の空間位置の動きに対応して学習者の行動が判定できる。
【0045】
また、行動判定装置2は、学習者が操作する器具に取り付けられた信号発信器から発信された信号を居室内の複数箇所で受信する受信機により受信した信号によって、前記器具の空間位置の動きを検出するものとし、器具の空間位置の動きに対応して学習者の行動を判定するものとしてもよい。このように、行動判定装置2は、様々に変形することが可能である。
【0046】
【発明の効果】
本発明は上記のように構成したので、学習者の行動を判定してその行動に関連する言葉を発声し、先生等の他の人の力を借りることなく、いつでも学習者が身体で直接言葉を理解することができ効果的な語学学習を行うことができる。
【図面の簡単な説明】
【図1】本発明による発話型語学学習装置の主要機能を示すブロックによるシステム構成とそれらの関係を示す図である。
【図2】本発明による語学学習装置を用いた学習の態様を示す概要図である。
【図3】本発明による語学学習装置を用いた学習の他の態様を示す概要図である。
【図4】本発明による語学学習装置を用いた学習の他の態様を示す概要図である。
【図5】本発明による語学学習装置を用いた学習の他の態様を示す概要図である。
【図6】本発明による語学学習装置を用いた学習の他の態様を示す概要図である。
【図7】本発明による行動判定装置の動作を概略的に説明する図である。
【図8】本発明による行動判定装置の動き・行動データベースの具体例を説明する図である。
【図9】本発明による語学学習装置の行動・例文データベースの具体例を説明する図である。
【符号の説明】
1…3次元位置測定装置、
2…行動判定装置、
3…語学学習処理装置、
4…音声化処理装置、
5…学習者
6…第1の超音波受信機、
7…第2の超音波受信機、
8…第3の超音波受信機、
9…3次元位置測定部、
10…動き・行動データベース、
13…学習レベル設定部、
14…語学学習用例文形成部、
15…辞書検索部、
16…特定言語翻訳部、
17…レベル設定指示部、
18…行動・例文データベース、
19…語学辞書データベース、
20…学習言語選択指示部、
21…スピーカ
30,31,32…信号発信器
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an utterance type language learning device that can determine an action from a learner's movement in a room, utter an expression (example sentence) corresponding to the action in a specific language, and perform language learning. About.
[0002]
[Prior art]
For example, various methods are conventionally used for language learning, such as when a Japanese learns conversations in other languages such as English. More specifically, the language learning text is divided into multiple levels from beginners to advanced students, and at each level, the names of various articles are listed for the language to be learned, walking, sitting, Examples of various behavioral aspects such as sleeping, etc., classifying various scenes in life such as listening to the road, shopping, riding on vehicles, etc., and illustrating typical words used in the scenes, Furthermore, various example sentences are shown.
[0003]
Moreover, in learning these conversations, in addition to the above text, a teacher's voice is recorded on a cassette tape, and learning is performed along the text while listening to it. In addition, students are taught along the teacher's curriculum while facing the teacher like an English conversation school.
[0004]
[Problems to be solved by the invention]
Each of the various language learning methods described above can be carried out according to some text and curriculum, and while systematic learning is possible, the language is used by learners, especially in conversational learning. It is necessary to learn while imagining the situation, and for those who learn, imagination is required in addition to language learning ability. For this reason, the learning effect differs depending on the difference in the learner's social experience and imagination. In particular, the range of imagination is narrow because children do not have much experience, and appropriate learning is not possible with such learning methods. Often not done.
[0005]
In addition, there is also a method in which a means for supplementing a learner's imagination using video is used, such as a learning method performed by exemplifying a situation where the words are actually used on a television or a video tape. However, because it is not the state that the learner is actually experiencing, it is not always possible to feel the words with the body, and in this case, too, learning must be done while imagining that you are on the spot In addition, since only predetermined words according to the text as described above are used, it is not possible to know words of various modes according to the situation, and there is a limit to such a learning method. .
[0006]
In addition, when learning English conversation while talking with a teacher, you should learn as close as possible to the state in which the language is used by forming a scene where the English is used with the teacher. Is done. However, even this method does not necessarily match the actual scene, and it must be learned while imagining that it is in such a scene. Moreover, since such a learning method requires a teacher who forms the scene, the learner has no choice but to go to the school where the teacher is located or have the teacher come to the school. Therefore, this learning takes a lot of time or costs a lot.
[0007]
The present invention has been made in order to solve such problems, and the object of the present invention is to allow the learner to speak directly with his / her own actions at any time without the help of others such as teachers. It is an object to provide an utterance type language learning device that can learn and perform effective language learning.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, an utterance type language learning device according to the present invention has, as a basic configuration, an action determination device that detects a learner's body movement in a living room and determines the learner's behavior; A language learning processing device that outputs language learning data related to a learner's behavior based on the behavior determined by the behavior determination device, and a speech processing device that utters the output data of the language learning processing device. Get .
[0009]
this In the utterance type language learning device, the behavior determination device performs three-dimensional position measurement on an instrument held by the learner or a learner's body (a specific part or a plurality of places such as a hand), The movement of the spatial position of the learner's body is detected, and the behavior of the learner is determined in accordance with the movement of the device held by the learner or the spatial position of the learner's body. For example, a motion capture system that captures movement using a light reflector attached to a part of the learner's body can be used.
[0010]
Further, the behavior determination device here performs three-dimensional position measurement by a signal from a signal transmitter attached to the instrument operated by the learner, detects the movement of the spatial position of the instrument operated by the learner, It is good also as what judges a learner's action corresponding to the motion of the spatial position of the appliance which the learner who detected detects.
[0011]
Similarly, the behavior determination device performs three-dimensional position measurement on a predetermined part of the learner's body, detects a movement of the spatial position of the predetermined part, and detects the movement of the spatial position of the predetermined part of the learner. Correspondingly, the learner's behavior may be determined.
[0012]
In addition, the behavior determination device Characteristically, Transmitting and receiving signals with signal transmitters attached to instruments held by learners or signal receivers attached to instruments held by learners, and signal transmitters or receivers placed in living rooms Thus, the movement of the spatial position of the appliance is detected, and the behavior of the learner is determined in response to the movement of the spatial location of the appliance.
[0013]
In addition, the behavior determination device performs a three-dimensional position measurement on the instrument held by the learner or the learner's body, detects a movement of a spatial position of the instrument held by the learner or the learner's body, and the detection The learner can also be configured to determine the learner's behavior in response to the movement of the instrument held by the learner or the spatial position of the learner's body.
[0014]
Also, this In the utterance type language learning device, the behavior determination device uses the signal received by the receiver that receives the signal transmitted from the signal transmitter attached to the instrument operated by the learner at a plurality of locations in the room, of the instrument. The movement of the spatial position is detected, and the behavior of the learner can be determined in response to the movement of the spatial position of the appliance.
[0015]
this In the utterance type language learning device, the behavior determination device uses the signal received by the receiver that receives the signal transmitted from the signal transmitter attached to the learner's body at a plurality of locations in the room, to determine the body of the learner. The movement of the spatial position of the learner is detected, and the behavior of the learner can be determined in response to the movement of the spatial position of the learner's body.
[0016]
Another feature is that In the utterance type language learning device of the present invention, the behavior determination device is attached to the first signal transmitted from the first signal transmitter attached to the learner's body and the instrument held by the learner. The movement of the spatial position of the learner's body and instrument is detected by a signal received by a receiver that receives the second signal transmitted from the second signal transmitter at a plurality of locations in the room. Yes, the learner's behavior can be determined in accordance with the movement of the learner's body and the spatial position of the appliance.
[0017]
this In the utterance type language learning device, the language learning processing device includes a learning level setting unit for setting the learning level of the learner, Based on the behavior pattern of the determination result from the behavior determination device, according to the learning level set in the learning level setting unit, the example sentence stored in advance in each learning level in the behavior / example sentence database is searched to obtain the learning level. Output combined example sentences as language learning data Can be.
[0018]
this In the utterance type language learning device, the language learning processing device includes a language dictionary of a plurality of languages and a learning language selection instruction unit, Based on the behavior pattern of the determination result from the behavior determination device, search the stored example sentence in the action / example sentence database, and translate the searched example sentence into the language to be learned instructed by the learning language selection instruction unit As language learning data based on the language dictionary Can be output.
[0019]
Also, this In the utterance type language learning device, the behavior determination device is A state in which the spatial position of the instrument is the same for a predetermined time The language learning processing device Output the same learning data as the language learning data output immediately before Can be.
[0020]
Also, this In the utterance type language learning device, the behavior determination device is A state in which the spatial position of the instrument is the same for a predetermined time The language learning processing device Based on the language dictionary, the language example data of the language output data output immediately before is translated into the language of the native language set in advance according to the learner. Can be output.
[0021]
Also, this In the utterance type language learning device, the behavior determination device is A state in which the spatial position of the instrument is the same for a predetermined time The language learning processing device Example sentences of language learning data output just before Can be registered.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a system configuration of a block showing the main functions of an utterance type language learning apparatus according to the present invention and their relationship. In FIG. 1, 1 is a three-dimensional position measurement device, 2 is a behavior determination device, 3 is a language learning processing device, 4 is a speech processing device, 6 is a first ultrasonic receiver, and 7 is a second ultrasonic reception. , 8 is a third ultrasonic receiver, 9 is a three-dimensional position measurement unit, 10 is a movement / behavior database, 13 is a learning level setting unit, 14 is an example sentence formation unit for language learning, 15 is a dictionary search unit, 16 Is a specific language translation unit, 17 is a level setting instruction unit, 18 is an action / example sentence database, 19 is a language dictionary database, 20 is a learning language selection instruction unit, and 21 is a speaker.
[0023]
The overall system configuration includes ultrasonic receivers 6, 7, and 8 installed at a plurality of locations in the room and a three-dimensional position measuring unit 9 that measures a three-dimensional position using received signals from the ultrasonic receiver. 3D position measuring device 1, behavior determination device for determining learner's behavior from movement of 3D position measured on instrument held by learner or part of learner's body (predetermined part of body such as hand) 2. A system composed of a language learning processing device 3 that generates and outputs example sentences according to action determination, and a speech processing unit 4 for uttering example sentences.
[0024]
For example, as shown in FIG. 2, the three-dimensional position measuring apparatus 1 includes ultrasonic receivers 6, 7, and 8 installed in a plurality of locations on the ceiling of a living room, and the ultrasonic receivers 6, 7, and 8. And a three-dimensional position measuring unit 9 that measures a three-dimensional position by a received signal. The signals received by the ultrasonic receivers 6, 7, and 8 here are signals transmitted from a signal transmitter 30 attached to a part of the learner's hand or the learner's body. . As will be described later, when a plurality of signal transmitters (30, 31, 32) are provided, the ultrasonic frequencies transmitted from the respective signal transmitters are differentiated or distinguished from each other. Include information to distinguish each. When the signals transmitted by the signal transmitter are received by the three ultrasonic receivers 6, 7, and 8, for example, the three-dimensional position is measured from the phase difference of the received signals. The measurement of the three-dimensional position is performed at a predetermined time interval (for example, about 50 times per second). By continuously measuring the change in the three-dimensional position, a series of movements of the three-dimensional position ( Time-series data of three-dimensional coordinate values) is measured.
[0025]
As shown in FIG. 2, for example, when the learner 5 raises the cup placed on the table, the signals transmitted from the signal transmitter 30 attached to the cup are both ultrasonic receivers 6. , 7, 8 and processed by the three-dimensional position measurement unit 9, a series of movements of the measured three-dimensional position (time-series data of the three-dimensional position) is input to the behavior determination device 2. The behavior determination device 2 determines the movement of the cup from the time-series data of the three-dimensional position continuously input from the three-dimensional position measurement unit 9 at predetermined time intervals. For example, the learner 5 is placed on the table. Determine that you have taken action to lift the cup.
[0026]
That is, as shown in FIG. 7, the coordinate values of the three-dimensional space of the surface of the table placed in the room are registered in advance, and the space area (coordinate values) of the surface position of the three-dimensional space of this table is registered. It is determined that the position (coordinate value) of the cup has entered the region of the spatial position above it, and it is determined that the learner 5 has acted to lift the cup placed on the table. At this time, for example, as shown in FIG. 3, if the signal from the signal transmitter 31 attached to the wrist (finger) of the learner 5 is received, the three-dimensional position of the wrist is By approaching the three-dimensional position of the cup and determining that both the three-dimensional position of the wrist and the three-dimensional position of the cup are in the same spatial region, the learner 5 puts the cup placed on the table more accurately. It can be determined that a lifting action has occurred. As will be described later, the determination process of the learner's action by the action determination device 2 is based on the data (coordinate value) of the movement and the action based on the data (coordinate value) of the three-dimensional space. Since it is stored in the behavior database 10, this data is referred to (FIG. 8).
[0027]
The action determination result thus determined is assigned a determination identification code, is output from the action determination device 2, and is input to the language learning processing device 3. For example, if a learner's action is walking, sitting, pointing to something, holding something, etc., the learner's hand (such as a cup) or the learner's body Are determined as respective action patterns from the time-series data of the movement of a part (wrist) of the three-dimensional position.
[0028]
When the behavior of the learner is determined as a behavior pattern by the processing of the behavior determination device 2, the language learning processing device 3 applies the behavior of the learner and related objects (instruments) in accordance with the behavior pattern. For related example sentences, a process for outputting words for language learning is performed. In the illustrated embodiment, the language learning processing device 3 includes a learning level setting unit 13, a language learning example sentence forming unit 14, a dictionary search unit 15, and a specific language translation unit 16 as main function units.
[0029]
The learning level setting unit 13 performs setting according to the learning level of the learner who uses the language learning processing device 3 by operating a learning level setting operation unit 17 provided outside the device. In the behavior determination device 2, even if the behavior pattern determination of the learner 5 is the same, the form of the example sentence for language learning to be output can be changed according to the level of the learner. As a result, for example, as shown in FIG. 2, when it is determined that the learner 5 has lifted the coffee cup on the table, in the language learning device 3, when the learning level is set to the beginner level, By performing the process described later, for example, the words “This is a cup” and “You are watching the cup” are finally spoken in the language you are learning, such as English or French. In addition, when the intermediate level is set, a relatively complicated example sentence such as “You are sitting on a chair and lifting a cup on the table” is uttered.
[0030]
In the language learning example sentence formation unit 14, based on the behavior pattern of the determination result from the behavior determination device 2 input to the language learning processing device 3, and in accordance with the learning level set by the learning level setting unit 13. , Form example sentences to be output. In forming the example sentence, as shown in FIG. 9, various example sentences stored in advance in the behavior / example sentence database 18 for each learning level are used to retrieve the example sentence that matches the level as described above. By doing.
[0031]
After the example sentence to be output is determined, the specific language translation unit 16 performs translation into a specific language such as English or French, which is the language to be learned, instructed by the learning language selection instruction unit 20. At the time of this translation, the dictionary search unit 15 searches the data stored in the language dictionary database 19 for the example sentence formed by the language learning example sentence forming unit 14 and for the language specified by the learning language selection instruction unit 20. While doing. As described above, the translated example sentence is converted into speech by the speech processing apparatus 4 and output from the speaker 21.
[0032]
By describing such a series of processes, for example, corresponding to the example of FIG. 2, the process proceeds according to a process as illustrated as an example of the language learning process in the right column of FIG. When the learner 5 takes an action such as picking up a coffee cup on the table, the learner's 5 action is composed of a plurality of signal receivers (6, 7, 8) and a three-dimensional position measuring unit 9. Is detected as time-series data of the three-dimensional position coordinate value by the three-dimensional position measuring device 1, and is stored in the movement / behavior database 10 in the behavior determination device 2, The action is determined and an action pattern is output.
[0033]
Next, based on the output action pattern, the language learning processing device 3 searches for an example of the action and object (equipment) accumulated according to the learning level, and translates it into a predetermined language. Next, the voice processed by the voice processing device 4 is output from the speaker 21 as, for example, “This is a cup. You are looking at a cup.”. Thereby, the learner can hear and understand the example sentence with an actual feeling of the English for the action he / she has performed, and can improve the learning effect. Further, in the above-described embodiment, it is possible to learn a desired language using the same device by preparing a dictionary of languages of many countries in advance.
[0034]
By using such a language learning device, in addition to the example shown in FIG. 2, for example, as shown in FIG. 3, even when the learner 5 is sitting on a chair, Detected as time-series data (motion) of three-dimensional position coordinate values by a three-dimensional position measuring device 1 constituted by a signal receiver (6, 7, 8) and a three-dimensional position measuring unit 9, and moves in the action determination device 2 The action pattern is determined from the movement of the learner 5 with reference to the data stored in the action database 10.
[0035]
When the language learning device 3 is at a beginner level and the learning language is set to English, the speaker 21 automatically utters “You sat down on the seat!”. Also, as shown in FIG. 4, when the learner 5 is walking (behavior pattern) can be determined by the time-series data (coordinate values) of the three-dimensional position, “You are walking!” Is uttered. In addition, as shown in FIG. 5, when the learner 5 holds the TV remote control and determines that the switch is turned on (not shown, the TV 5 is turned on by a separately provided sensor). In this case, it is possible to say "You turned on the television!" Furthermore, when the learner determines the action of moving to the bed as shown in FIG. 6, he / she utters “You want to bed!”. The determination of such an action pattern is that the spatial position of the bed is registered in advance as a three-dimensional coordinate value, and the coordinate value of the three-dimensional position of a part of the body of the learner 5 has approached the bed. Is done.
[0036]
Further, in the behavior determination device 2, when it is determined that the learner's behavior has been stopped for a while, the pronunciation is repeated again as necessary, and the similar behavior is taken as necessary. If the learner is Japanese, it can be pronounced in the learner's native language such as Japanese. Also, for example, when a learner operates a language learning device (for example, by operating a remote controller) and inputs that the previous word could not be understood, the same re-pronunciation and native language are used. It is also possible to repeat the pronunciation of the sound.
[0037]
In addition, when such an action is taken that the learner cannot understand, or when an input to that effect is made, the learner tends to have difficulty in understanding such a word, and this word is registered in the memory. After that, when the same action is taken, efficient learning can be performed such as preferentially outputting the registered words. Furthermore, if necessary, the words output from the speakers can be displayed on a separate display device.
[0038]
In the embodiment shown in FIG. 1, the language learning processing device 3 includes a language dictionary database 19 of a plurality of languages, and an example of performing translation into a specific language selected by the learning language selection instruction unit 20 is shown. For example, when this language learning device is dedicated to learning English, the language dictionary database 19 may include only an English dictionary database, and the learning language selection instruction unit 20 may be omitted.
[0039]
In addition, as the action determination device 2, the signal transmitter attached to the instrument held by the learner and the signal receiver placed in the living room, or the signal reception of the instrument held by the learner is held. The movement of the spatial position of the appliance may be detected by the signal transmission / reception processing by the combination of the machine and the signal transmitter placed in the room, and the spatial position of the appliance in that case It may be possible to determine the behavior of the learner in response to the movement.
[0040]
Specifically, the behavior determination device 2 is a three-dimensional position measuring device such as an ultrasonic type, a magnetic type, or an optical type, a device that detects a motion such as an acceleration sensor, a switch, a contact sensor, an IC tag, or the like. By using a device that can detect a change, the movement of the learner's body, the movement of the spatial position of the instrument, and the change may be detected. That is, in this case, what is necessary is just to be able to determine the learner's behavior corresponding to the movement or change in the spatial position of the learner's body or instrument.
[0041]
In the description of the above-described embodiment, the behavior determination device 2 measures the spatial position by the three-dimensional position measurement device 1, but instead of this, a signal transmitter attached to the learner's body or the learner The movement of the spatial position of the learner's body may be detected by transmission / reception of a signal by a signal receiver attached to the body and a signal transmitter or signal receiver placed in the room. In that case, the behavior determination device 2 determines the behavior of the learner in response to the movement of the spatial position of the learner's body.
[0042]
In addition, when the motion capture system is used instead of the measurement of the spatial position (three-dimensional position) by the ultrasonic transmitter / receiver as the action determination device 2, the learner's hand or the learner's body is measured with the three-dimensional position measurement. And the movement of the spatial position of the device held by the learner or the learner's body can be detected. Therefore, the learner's action can be determined corresponding to the movement of the spatial position of the appliance or the learner's body that the detected learner has.
[0043]
In addition, as described above, it is possible to detect a change in position such as a three-dimensional position measuring device such as an ultrasonic type, a magnetic type, or an optical type, a device that detects a motion such as an acceleration sensor, a switch, a contact sensor, or an IC tag. By using these devices, attaching them to the body of the learner's hand or the learner, and detecting signals with the receiving device or transmitting device provided on the ceiling, wall surface, etc. of the living room, Detects movements of the learner's hand and the spatial position of the learner's body by performing signal transmission / reception processing between them, and the detected learner's hand and the learner's body spatial position It is also possible to determine the learner's behavior in response to the movement of. Thereby, a learner's action can be determined with high precision.
[0044]
The behavior determination device 2 transmits and receives signals by a signal transmitter or signal receiver attached to a learner's hand or a learner's body, and a signal transmitter or signal receiver placed in a living room. It may be used to determine the learner's movement. In that case, the learner's behavior can be determined in accordance with the movement of the instrument held by the learner or the spatial position of the learner's body.
[0045]
In addition, the behavior determination device 2 moves the spatial position of the appliance by a signal received by a receiver that receives signals transmitted from a signal transmitter attached to the appliance operated by the learner at a plurality of locations in the room. It is good also as what detects a learner's action corresponding to the motion of the spatial position of an instrument. Thus, the behavior determination device 2 can be variously modified.
[0046]
【The invention's effect】
Since the present invention is configured as described above, the learner's behavior is determined, the words related to the behavior are uttered, and the learner can directly speak directly on the body without the help of other people such as a teacher. Can understand effective language learning.
[Brief description of the drawings]
BRIEF DESCRIPTION OF DRAWINGS FIG. 1 is a diagram showing a system configuration by a block showing the main functions of an utterance type language learning apparatus according to the present invention and their relationship.
FIG. 2 is a schematic diagram showing a learning mode using a language learning device according to the present invention.
FIG. 3 is a schematic diagram showing another aspect of learning using the language learning device according to the present invention.
FIG. 4 is a schematic diagram showing another aspect of learning using the language learning device according to the present invention.
FIG. 5 is a schematic diagram showing another mode of learning using the language learning device according to the present invention.
FIG. 6 is a schematic diagram showing another mode of learning using the language learning device according to the present invention.
FIG. 7 is a diagram schematically illustrating the operation of the behavior determination device according to the present invention.
FIG. 8 is a diagram for explaining a specific example of a motion / behavior database of the behavior determination apparatus according to the present invention.
FIG. 9 is a diagram illustrating a specific example of an action / example sentence database of the language learning device according to the present invention.
[Explanation of symbols]
1 ... 3D position measuring device,
2 ... Action determination device,
3. Language learning processing device,
4 ... voice processing device,
5 ... Learner
6 ... first ultrasonic receiver,
7: Second ultrasonic receiver,
8 ... Third ultrasonic receiver,
9 ... 3D position measurement unit,
10 ... Movement / Behavior Database,
13 ... Learning level setting section,
14 ... Language learning example sentence formation part,
15 ... Dictionary search section,
16 ... specific language translation department,
17 ... Level setting instruction section,
18 ... Behavior / Example sentence database,
19 ... Language dictionary database,
20 ... Learning language selection instruction section,
21 ... Speaker
30, 31, 32 ... Signal transmitter

Claims (7)

居室内における学習者の身体の動きを検出して当該学習者の行動を判定する行動判定装置と、
前記行動判定装置により判定された行動により、学習者の行動と関連した語学学習用データを出力する語学学習処理装置と、
前記語学学習処理装置の語学学習用データを音声化する音声化処理装置と
を備える発話型語学学習装置であって、
前記行動判定装置は、学習者が手に持つ器具に貼り付けられた信号発信器または学習者が手に持つ器具に貼り付けられた信号受信機と、居室内に置かれた信号発信機または信号受信機による信号の送受信によって、前記器具の空間位置の動きを検出するものであり、前記器具の空間位置の動きに対応して学習者の行動を判定する
ことを特徴とする発話型語学学習装置。
An action determination device for detecting the movement of the learner's body in the room and determining the learner's action;
A language learning processing device that outputs language learning data related to a learner's behavior according to the behavior determined by the behavior determination device;
An utterance type language learning device comprising: a speech processing device that synthesizes language learning data of the language learning processing device;
The behavior determination device includes a signal transmitter attached to an instrument held by a learner or a signal receiver attached to an instrument held by a learner, and a signal transmitter or signal placed in a living room. An utterance type language learning apparatus for detecting movement of a spatial position of the appliance by transmitting and receiving a signal by a receiver, and determining a learner's action corresponding to the movement of the spatial position of the appliance. .
居室内における学習者の身体の動きを検出して当該学習者の行動を判定する行動判定装置と、
前記行動判定装置により判定された行動により、学習者の行動と関連した語学学習用データを出力する語学学習処理装置と、
前記語学学習処理装置の語学学習用データを音声化する音声化処理装置と
を備える発話型語学学習装置であって、
前記行動判定装置は、学習者の身体に取り付けられた第1の信号発信器から発信された第1の信号と、学習者が手に持つ器具に貼り付けられた第2の信号発信器から発信された第2の信号とを居室内の複数箇所で受信する受信機により受信した信号によって、前記学習者の身体および器具の空間位置の動きを検出するものであり、前記学習者の身体および器具の空間位置の動きに対応して学習者の行動を判定するものである
ことを特徴とする請求項1記載の発話型語学学習装置。
An action determination device for detecting the movement of the learner's body in the room and determining the learner's action;
A language learning processing device that outputs language learning data related to a learner's behavior according to the behavior determined by the behavior determination device;
An utterance type language learning device comprising: a speech processing device that synthesizes language learning data of the language learning processing device;
The behavior determination device transmits a first signal transmitted from a first signal transmitter attached to a learner's body and a second signal transmitter attached to an instrument held by the learner. The movement of spatial positions of the learner's body and equipment is detected by signals received by receivers that receive the second signal thus obtained at a plurality of locations in the room, and the learner's body and equipment The utterance type language learning device according to claim 1, wherein the behavior of the learner is determined in accordance with the movement of the spatial position.
前記語学学習処理装置は、学習者の学習レベルを設定する学習レベル設定部を備え、
前記行動判定装置からの判定結果の行動パターンを元に、前記学習レベル設定部で設定された学習レベルに合わせて、行動・例文データベースにおいて予め学習レベル別に蓄積された例文を検索して、学習レベルに合わせた例文を、語学学習用データとして出力することを特徴とする請求項1または請求項2記載の発話型語学学習装置。
The language learning processing device includes a learning level setting unit for setting a learner's learning level,
Based on the behavior pattern of the determination result from the behavior determination device, according to the learning level set by the learning level setting unit, searches for an example sentence stored in advance in the behavior / example sentence database for each learning level, The utterance type language learning apparatus according to claim 1, wherein an example sentence adapted to is output as language learning data.
前記語学学習処理装置は、複数の言語の語学辞書と学習言語選択指示部とを備え、
前記行動判定装置からの判定結果の行動パターンを元に、行動・例文データベースにおいて蓄積された例文を検索し、検索された例文を、前記学習言語選択指示部で指示された学習する対象の言語への翻訳を前記語学辞書に基づいて行い、語学学習用データとして出力する
ことを特徴とする請求項1または請求項2記載の発話型語学学習装置。
The language learning processing device includes a language dictionary of a plurality of languages and a learning language selection instruction unit,
Based on the action pattern of the determination result from the action determination device, the stored example sentence is searched in the action / example sentence database, and the searched example sentence is designated as the language to be learned instructed by the learning language selection instruction unit. The utterance type language learning apparatus according to claim 1, wherein the translation is performed based on the language dictionary and output as language learning data.
前記行動判定装置が、所定時間、前記器具の空間位置が同じ位置である状態を判定すると、
前記語学学習処理装置は、直前に出力した語学学習用データと同じ学習用データを出力する
ことを特徴とする請求項1または請求項2記載の発話型語学学習装置。
When the behavior determination device determines a state in which the spatial position of the appliance is the same position for a predetermined time,
The utterance type language learning device according to claim 1, wherein the language learning processing device outputs the same learning data as the language learning data output immediately before.
前記行動判定装置が、所定時間、前記器具の空間位置が同じ位置である状態を判定すると、
前記語学学習処理装置は、直前に出力した語学学習用データの例文を学習者に応じて予め設定された母国語の言語への翻訳を語学辞書に基づいて行い、語学学習用データとして出力する
ことを特徴とする請求項1または請求項2記載の発話型語学学習装置。
When the behavior determination device determines a state in which the spatial position of the appliance is the same position for a predetermined time,
The language learning processing device translates an example sentence of the language learning data output immediately before according to a learner into a native language set in advance based on a language dictionary, and outputs it as language learning data The utterance type language learning apparatus according to claim 1, wherein:
前記行動判定装置が、所定時間、前記器具の空間位置が同じ位置である状態を判定すると、
前記語学学習処理装置は、直前に出力した語学学習用データの例文を登録する
ことを特徴とする請求項1または請求項2記載の発話型語学学習装置。
When the behavior determination device determines a state in which the spatial position of the appliance is the same position for a predetermined time,
3. The utterance type language learning device according to claim 1, wherein the language learning processing device registers an example sentence of language learning data output immediately before.
JP2002206318A 2002-07-15 2002-07-15 Utterance language learning device Expired - Lifetime JP3956115B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002206318A JP3956115B2 (en) 2002-07-15 2002-07-15 Utterance language learning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002206318A JP3956115B2 (en) 2002-07-15 2002-07-15 Utterance language learning device

Publications (2)

Publication Number Publication Date
JP2004046018A JP2004046018A (en) 2004-02-12
JP3956115B2 true JP3956115B2 (en) 2007-08-08

Family

ID=31711327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002206318A Expired - Lifetime JP3956115B2 (en) 2002-07-15 2002-07-15 Utterance language learning device

Country Status (1)

Country Link
JP (1) JP3956115B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346016A (en) * 2004-06-07 2005-12-15 Willway:Kk Show-of-hand detector and show-of-hand detection system using the same
JP6733027B1 (en) * 2019-11-28 2020-07-29 株式会社ドワンゴ Content control system, content control method, and content control program
JP7078082B2 (en) * 2020-09-09 2022-05-31 カシオ計算機株式会社 Learning support device, learning support system, learning support method, robot and program

Also Published As

Publication number Publication date
JP2004046018A (en) 2004-02-12

Similar Documents

Publication Publication Date Title
JP4839838B2 (en) Information processing system, information processing method, and information processing program
US10438609B2 (en) System and device for audio translation to tactile response
Fernandez-Lopez et al. Towards estimating the upper bound of visual-speech recognition: The visual lip-reading feasibility database
KR102409303B1 (en) Method and Apparatus for Voice Recognition
JP2018097185A (en) Voice dialogue device, voice dialogue method, voice dialogue program and robot
JP6759445B2 (en) Information processing equipment, information processing methods and computer programs
Arsan et al. Sign language converter
Rosenblum et al. Audiovisual investigation of the loudness-effort effect for speech and nonspeech events.
Kulkarni et al. Robotic assistance in indoor navigation for people who are blind
TWI795663B (en) personal assistant control system
JP2014071319A (en) Railroad simulator and method for simulating driving of railroad
JPWO2019123775A1 (en) Information processing equipment, information processing systems, information processing methods, and programs
Dhanjal et al. Tools and techniques of assistive technology for hearing impaired people
JP3956115B2 (en) Utterance language learning device
Youssef et al. A social robot with conversational capabilities for visitor reception: Design and framework
Ahmetovic et al. Sonification of navigation instructions for people with visual impairment
KR20180012192A (en) Infant Learning Apparatus and Method Using The Same
KR20090000258A (en) Target education system and education method thereof
JP2002207413A (en) Action recognizing speech type language learning device
US20020137013A1 (en) Self-contained, voice activated, interactive, verbal articulate toy figure for teaching a child a chosen second language
KR20130135423A (en) Learning materials for younger learners with voice record means of parent
KR20180134337A (en) Information processing apparatus, information processing method, and program
JP6884854B2 (en) Audio providing device, audio providing method and program
JP3891020B2 (en) Robot equipment
JP2005024815A (en) System, device, method, and program for language learning, and recording medium for recording the program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070424

R150 Certificate of patent or registration of utility model

Ref document number: 3956115

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100518

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term