JP2017201342A - 言語学習ロボット・ソフトウェア - Google Patents
言語学習ロボット・ソフトウェア Download PDFInfo
- Publication number
- JP2017201342A JP2017201342A JP2016092414A JP2016092414A JP2017201342A JP 2017201342 A JP2017201342 A JP 2017201342A JP 2016092414 A JP2016092414 A JP 2016092414A JP 2016092414 A JP2016092414 A JP 2016092414A JP 2017201342 A JP2017201342 A JP 2017201342A
- Authority
- JP
- Japan
- Prior art keywords
- learner
- language learning
- function
- robot software
- language
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
Abstract
【課題】言語学習における時間の制約や一方通行の学習や個々人の間違えやすい点やライフスタイルやカレンダー・イベント等に応じた学習を提供できる言語学習ロボット・ソフトウェアを提供する。【解決手段】学習者からの音声・画像・振動などの入力を感知し、言語解析・画像解析・センシングを行い、言語学習メソッド人工知能が学習者に応じた会話を選択し、間違えやすい点やライフスタイルなどを記憶する機能やカレンダー・イベント等に応じた自主的な語彙機能を有し、これらの機能から学習者の状況に応じた会話を出力機能により学習者へ行うことにより、ストレスフリーで楽しく学ぶことを可能にした。【選択図】図1
Description
本発明は、対話によって人(学習者)の言語能力を向上させるための言語学習をすることができる言語学習ロボット・ソフトウェアに関する。
従来から、学習用の教材として言語をメソッドに沿って、学習する人工知能を備えたロボット、パソコンやスマートフォンなどのソフトウェアは既知である。このようなロボット・ソフトウェアは、学習者が発音した音声を判別してシナリオ(会話の類型)を選択し、あるいはロボット・ソフトウェアに言語を学習する機能を持たせることにより学習者の言語能力を向上させるといった技術は存在した。例えば、特許文献1は、認識機能(聴覚機能、視覚機能)と表現機能(発声機能、行動機能、表示機能)を有するロボットを用いて、所謂ダイレクトメッソッドで学習者に外国語を学習させる会話学習システムを開示する。
上記特許文献1に記載された会話学習システムでは、認識機能と表現機能を作動させて、学習者である人に外国語を発声させるように誘導する「1」のシナリオを実行する。学習者はこの誘導に呼応してロボットに向かって外国語を発声する。この種のロボットは、学習者の発声を分析して次のシナリオを作成し、これを実行する。ロボットは、語学学習が終了するまで、上記の作業を反復する。
自国語以外の言語能力の向上のために、会話教室へ通ったり、通信教育を活用したりすることが多いが、言語の習得には相当な時間が必要で、言語習得に至らない人も多数存在している。
人工知能を有するロボットを利用した対話形式で言語などを学習するシステムは上記以外にも幾つか提案されている。しかし、自国語を親から子供が学ぶように、個々の学習者の特性に合わせ、あるいはカレンダーや個々の学習者のスケジュールやイベントなどに合わせ、または学習者のライフスタイルに合わせた対話によって言語能力を向上させるようにした効果的な手段がなかった。
本発明の目的は、学習者が話しかけることによって、親が子供に言語を教えるかの如くに、言語の習得を促進するシステム構成とした言語学習ロボットを提供することにある。
本発明に係る言語学習ロボット・ソフトウェアは、対話によって学習者の言語能力を向上させるために、所謂ディープ・ラーニング機能を持つ言語学習ロボット・ソフトウェアで当該学習者から話しかけられた言語の発音・語彙・文法などの誤りや習熟レベルを判定し、間違えやすい点などの個々の特性を記憶し、それらの結果をもとにロボット・ソフトウェアが学習者にアドバイスを行う。これにより、学習者は、正しい言語の発音・語彙・文法の練習を行うことができる。また、カレンダー(日時、曜日)、スケジュール、イベントなどに応じた会話や、学習者の生活スタイル等に応じた会話をロボット・ソフトウェアが自主的に当該学習者に対して話しかけることで、親が子供に教えるかのように言語学習を実行する。なお、以下では、本発明に係る言語学習ロボット・ソフトウェアを単にロボットと称する場合もある。
前記した本発明の目的を達成するための本発明に係る言語学習ロボット・ソフトウェアを特徴づける代表的な構成は以下のとおりである。すなわち、
(1)ロボット・ソフトウェアに対して学習者がした会話に含まれる所定の単語の発音、語彙、会話の文法などのレベル判定(例えば、その単語の本来の発音との差異、正しい構文との違い、など)を行い、会話を構成する個々単語、フレーズの特性(例えば、発音の間違えやすい音調(トーン)や抑揚(イントネーション)、文法など)を記憶し、その情報を元に学習者に対して適正なアドバイスを行う。
(2)カレンダーや時計、個々学習者のスケジュールと具体的なイベントなどに応じて、新しい語彙などをロボット・ソフトウェアの方から語り掛ける。
(3)個々の学習者のライフスタイルに合わせて、ロボット・ソフトウェアの方から語り掛ける。個々の学習者のライフスタイルのデータは、(2)のカレンダー、時計、スケジュールに関連したデータ、ロボット・ソフトウェア自身が日常的に学習した当該学習者のライフスタイル(起床時間や時刻、外出時間や帰宅時間などの時刻、休日、など)に基づいてデータが採取され、必要な加工が施されて記憶手段(メモリ)に格納される。
(4)ニュース、天気予報、交通機関状況、その他の所謂公共に頒布されている情報、あるいはビッグデータに基づいて当該学習者に関連すると考えられる情報を処理し、これを適時に学習者に提供する。
(1)ロボット・ソフトウェアに対して学習者がした会話に含まれる所定の単語の発音、語彙、会話の文法などのレベル判定(例えば、その単語の本来の発音との差異、正しい構文との違い、など)を行い、会話を構成する個々単語、フレーズの特性(例えば、発音の間違えやすい音調(トーン)や抑揚(イントネーション)、文法など)を記憶し、その情報を元に学習者に対して適正なアドバイスを行う。
(2)カレンダーや時計、個々学習者のスケジュールと具体的なイベントなどに応じて、新しい語彙などをロボット・ソフトウェアの方から語り掛ける。
(3)個々の学習者のライフスタイルに合わせて、ロボット・ソフトウェアの方から語り掛ける。個々の学習者のライフスタイルのデータは、(2)のカレンダー、時計、スケジュールに関連したデータ、ロボット・ソフトウェア自身が日常的に学習した当該学習者のライフスタイル(起床時間や時刻、外出時間や帰宅時間などの時刻、休日、など)に基づいてデータが採取され、必要な加工が施されて記憶手段(メモリ)に格納される。
(4)ニュース、天気予報、交通機関状況、その他の所謂公共に頒布されている情報、あるいはビッグデータに基づいて当該学習者に関連すると考えられる情報を処理し、これを適時に学習者に提供する。
本発明に係る言語学習ロボット・ソフトウェアの主要な構成を例記すれば次のとおりである。すなわち、本発明に係る言語学習ロボット・ソフトウェアは、
(a)学習者の音声や画像や振動などを含む環境データを感知あるいは取得して、学習者からの入力を受け付ける入力機能を備える。
(b)入力情報を元に言語解析や画像解析に基づく当該学習者の特定に加えて、表情解析と言い回しなどに基づく機嫌の良し悪しや健康状態、などの当該学習者の行動様式(ビヘイビア)の解析機能のためのセンシング機能(体温センサー、身振り・手振りセンサー)を備える。
(c)解析した情報を元に、言語学習メソッドに関する動作を決定する人工知能を備える。人工知能は、入力情報の正誤判定、習熟度などのレベル判定を行うと共に、間違えやすい点(語形変化、音調や抑揚)などの特徴点を抽出し、個々の学習者の特徴を記憶する機能にそれらの情報を格納する。
(d)また、話しかけた時間や話題などにより、個々人のライフスタイルを判断し、ライフスタイル記憶機能に情報を格納する。また、格納されている個々の特徴情報、ライフスタイル情報、さらには、カレンダーやイベントなどの情報を元に会話の内容を判断し、カリキュラムと合わせて会話を行う機能を有する。
(e)ロボット・ソフトウェアが個々の学習者について、その特徴であると判断した情報を保存する個々の学習者の特徴情報記憶機能を有する。
(f)ロボット・ソフトウェアが個々学習者について、そのライフスタイルであると判断した情報を保存するライフスタイル情報記憶機能を有する。
(g)人工知能が学習者へ出力すると判断した情報を音声や画像や振動などで出力する機能を有する。
(a)学習者の音声や画像や振動などを含む環境データを感知あるいは取得して、学習者からの入力を受け付ける入力機能を備える。
(b)入力情報を元に言語解析や画像解析に基づく当該学習者の特定に加えて、表情解析と言い回しなどに基づく機嫌の良し悪しや健康状態、などの当該学習者の行動様式(ビヘイビア)の解析機能のためのセンシング機能(体温センサー、身振り・手振りセンサー)を備える。
(c)解析した情報を元に、言語学習メソッドに関する動作を決定する人工知能を備える。人工知能は、入力情報の正誤判定、習熟度などのレベル判定を行うと共に、間違えやすい点(語形変化、音調や抑揚)などの特徴点を抽出し、個々の学習者の特徴を記憶する機能にそれらの情報を格納する。
(d)また、話しかけた時間や話題などにより、個々人のライフスタイルを判断し、ライフスタイル記憶機能に情報を格納する。また、格納されている個々の特徴情報、ライフスタイル情報、さらには、カレンダーやイベントなどの情報を元に会話の内容を判断し、カリキュラムと合わせて会話を行う機能を有する。
(e)ロボット・ソフトウェアが個々の学習者について、その特徴であると判断した情報を保存する個々の学習者の特徴情報記憶機能を有する。
(f)ロボット・ソフトウェアが個々学習者について、そのライフスタイルであると判断した情報を保存するライフスタイル情報記憶機能を有する。
(g)人工知能が学習者へ出力すると判断した情報を音声や画像や振動などで出力する機能を有する。
本発明に係る言語学習システムを具備するロボット・ソフトウェアは、その外形形状、材質に限定はなく、スタンドアローン的なものとして認識されている、所謂人形ロボットに限らず、家電、車両、その他さまざまな汎用機器、装置に組み込むことができる。さらに、スマートフォンやタブレットなどの携帯機器、パソコン、ホログラムや機器画面内に仮想の人や動物などを投影し、そのアプリケーション・ソフトウェアとして搭載することも可能である。
これまでの言語学習は、英会話教室のように、限られた時間での学習や、通信教育や従来の言語学習ロボットのように、個々人の学習者の特徴、そのライフスタイルなどとは関係なく行われる均一なオーラルメッソッドを基調とした学習であった。これに対し、本発明に係る言語学習ロボットは、個々の学習者の特徴やそのライフスタイルなどの個人的な特徴や生活環境のみならず、そのライフスタイル(人生観・価値観・習慣などを含めた個人の HYPERLINK "https://kotobank.jp/word/%E7%94%9F%E3%81%8D%E6%96%B9-431184" 生き方)を含めて、個々の学習者に合わせた言語の習熟を可能とする。典型的な具体例的では、時刻データ、カレンダーのデータ、カレンダーなどに関連づけられたイベントの具体的な内容などに応じたアーサティブ・コミュニケーションによる学習も可能である。
本発明に係る言語学習ロボット・ソフトウェアは、学習者の音声、画像、振動などを検知すると、その音声、画像、振動などの認識を行う。認識が成功した場合、言語、画像解析を行い、具備する人工知能は言語学習メソッドに従って会話を行う。学習者が正しく会話をしたかどうかを判別し、間違えた場合は設定された本発明のメソッドに従って再度会話を行う。また、同時に間違えた点の特徴を記憶する。
上記のメソッドに従って正しい会話をした場合には、次の会話として、カレンダー、イベント、流行になっている言葉などに沿った会話やライフスタイルに合わせた会話などの間違えやすい点を、ジョークを交えながらなどアドバイスしながら、ストレスフリーに楽しく会話を行う。なお、学習者の音声やその画像が途絶えたら、学習ルーチンは終了する。
従来の英会話教室のような学習場所では、「英語教師やグループメンバーの目の前での自己の会話に間違いがあったら恥ずかしい」と考えて、会話をすることを躊躇することが少なくない。生徒(学習者)の習熟度にばらつきがあるのみである。優秀な教師ほど、学習効果を確保する生徒の人数に限りがある。また、通信教育は一方通行であり、即時的な相互会話(インタラクティブ・カンバセーション)が不可能で、学習期間にも制限がある。
これに対して、本発明の言語学習ロボット・ソフトウェアを用いた学習システムでは、話し相手がロボット・ソフトウェアであることから、気軽に話しかけることができ、また、自分の特徴(欠点など)を覚えた上で会話をしてくれるので、気軽に、親しく話をすることができる。従来の学習ロボット・ソフトウェアではカリキュラムを進めるのみであるのに対し、本発明のロボット・ソフトウェアは個々の学習者の間違いやすい点を記憶し、これを基に会話のシナリオを展開できる。さらに、個々の学習者のライフスタイル、カレンダーや予定されたイベントに応じた語学教育をすることが可能で継続性を強化した語学学習を可能とすることができる。
このように、本発明によれば、語学力に不安があってなかなか教室に行きづらい人や一方通行の通信教育では向上心が生まれない、個々の状況をくみ取れないロボット・ソフトウェアとの学習といった問題を解決し、言語学習へのハードルを下げることができる。これにより、優れた言語学習メソッドを活用することができるようになる。
なお、以下では、本発明の説明を簡素化するため、一つのパターンについて説明するが、会話の順番や内容は学習者に合わせて柔軟に変更できるものである。
本発明は、上記解決手段で説明した構成、後述する実施形態に記載される構成に限定されるものではなく、本発明の技術思想を逸脱しない範囲で種々の変更が可能であることはいうまでもない。
以下、本発明の実施形態について、実施例の図面を参照して詳細に説明する。
図1は、本発明に係る言語学習ロボット・ソフトウェアの実施例1を説明する構成図である。図1に示した言語学習ロボット・ソフトウェアは次のような構成を有する。すなわち、入力機能100、言語解析機能・画像解析機能・センサー200、言語学習メソッド人工知能(AI)機能300、個人の特徴記憶機能400、ライフスタイル記憶機能500、カレンダー・イベント等に応じた自主的な語彙機能600、出力機能800を有し、付随的に環境データ取得機能700を有する。
図1では、学習者900からの入力情報を入力機能100で検知し、その情報を言語解析機能・画像解析機能・センサー200で解析し、言語学習メソッド人工知能機能300に情報を送り、人工知能でメソッドの判断をし、出力機能800より学習者900へ伝達する。また、必要に応じて、間違えやすい点などを個々の特徴記憶機能、ライフスタイルをライフスタイル記憶機能500で記憶し、カレンダー・イベント等に応じた自主的な語彙機能600から人工知能機能300が情報を引き出して、個々人に合わせたストレスフリーな楽しい会話となるように学習者900へ伝達する。
図2は、本発明に係る言語学習ロボット・ソフトウェアの実施例1を説明する流れ図である。先ず(スタート)し、学習者がロボットへ話しかける、もしくは画像・振動などをロボット・ソフトウェアが検知して(ステップ1、以下S−1のように表記)、その音声、もしくは画像・振動などを認識し(S−2)、その認識が成功すると(S−3のYes)、その音声解析、画像解析を行い(S−4)、人工知能が言語学習メソッドによる会話を行う(S−5)。この会話で、ロボット・ソフトウェアは学習者が正しい会話をしたかどうかを人工知能で判定し(S−6)、間違えていた場合(S−6のno)には再度個々人の状況に応じて会話を繰り返す。同時に、間違えた点についての特徴を記憶する(S−7)。
なお、(S−2)での認識が失敗した場合には(S−3のno)、(S−2)に戻って再度の認識動作を行う。図示しての説明は省略するが、この認識処理は事前設定した回数行い、その最終処理で認識ができない場合は、当該(S−1)での検知を無効として次の(S−1)の発生に対して待機する。
ロボット・ソフトウェアは学習者が正しい会話をしたと判断した場合は、次の会話へと進み(S−8)、カレンダー・イベントなどに応じた会話やライフスタイルに応じた会話や間違えやすい点のアドバイスなどの会話を行う(S−9)。この会話で、学習者が正しく会話したか否かを判断する(S−10)。会話が正しく行われた場合には(S−10のYes)、ライフスタイルに応じた会話に行(S−11)。間違えた会話があった場合には(S−10のno)、その間違えた特徴を記憶する(S−16)。
(S−11)での会話が正しく行われた場合には(S−12のYes)、それまでの会話間でメモリに記憶された情報に基づいて、間違え易い点を予めアドバイスして会話を行う(S−13)。同時に、間違えた会話があった場合には(S−12のno)、その間違えた特徴を記憶する(S−17)。
(S−13)での会話に間違いがあると判断された場合には(S−14のno)、間違えた点を記憶する共に、会話が正しく行われたと判断され(S−14のYes)、学習者からの音声・画像などが一定時間無い状態になれば学習は終了する(エンド)。
図3は、本発明に係る言語学習ロボット・ソフトウェアと学習者との間で交わされる対話の具体例を説明する模式図である。図3中、語学の先生である言語学習ロボット・ソフトウェアは立方体で示し、右端に立って居る学習者がロボット・ソフトウェアに対して今日の天気を聞いて、ロボット・ソフトウェアが応答している場面を想定している。
先ず、図3の右端に立って居る学習者が入力機能100を用いて“今日の天気はどうだい?”と英語でロボット・ソフトウェアに話しかけたとする。ロボット・ソフトウェアは言語解析機能/画像解析機能/各種センサー200で上記の“weather”の発音が事前に設定された目標レベルに達しているか否かを判定する。その判定結果が「目標レベルに達していない」ときは、ロボット・ソフトウェアは“今日は天気がいいよ”と返事すると共に、「“weather”の発音がイマイチだから練習が必要です。私(ロボット先生)の話す“weather”に続いて“weather”と繰り返して発音してくださいね。」と応答する。このとき、“weather”の発音がイマイチであることを個人の特徴記憶機能400に記憶する。
なお、上記の判定結果が「目標レベルに達している」と判断されたときには、ライフスタイル記憶機能500に記憶されている情報とカレンダー・イベント等に応じた自主的な語彙機能600,環境データ取得機能700で取得されたデータに従ってシナリオを生成し、生成したシナリオに沿った会話を会話出力機能800から出力して学習者900に話をする。ロボット(AI)は言語学習メソッド/人工知能機能300で上記の処理を実行する。
図4は、本発明に係る言語学習ロボット・ソフトウェアの実施例1の構成を説明するブロック図である。図4において、図1の入力機能として、音声入力部1と画像入力部2および振動入力部3を備えている。音声入力部1はマイクロホン1aと音声入力手段1bで構成される。画像入力部2はカメラ2aと画像入力手段2bで構成される。画像は主として映像(動画)であるが、増静止画とすることもできる。振動入力部3は振動センサー3aと振動入力手段3bで構成される。
音声入力部1の出力は音声認識手段4で入力音声を認識する。認識した音声データは発音特徴検出手段7で特徴の検出が行われる。検出された発音の特徴データはメモリ13に記憶される共に、個人特定手段10に渡される。画像入力部2の画像データは画像処理手段5で特徴検出に対応する所定の形式に処理される。画像処理手段5からの画像データは顔・姿勢・動作等認識手段で特徴が認識され、メモリ13に記憶されると共に個人特定手段10に渡される。
振動入力部3は、床の振動や空気の流れの変化を検出する。振動認識手段6は、例えば人間の歩行によるもので、通常パターンなのか、異常パターンであるのかを認識する。通常パターンは、例えば日常の動き時の歩行パターンなど、異常パターンは急いで何かを準備しているために部屋の中を動き廻っている場合などである。振動認識手段6の出力データはスケジュール設定手段11に設定されているデータと照合され、照合結果はメモリ13に記憶される。
スケジュール設定手段11には、カレンダー18、時計19、環境データ取得手段20、インターネット等とのネット接続手段21からの各種データが入力され、学習者が音声入力部1から入力したスケジュールのデータが設定されている。このスケジュールもメモリ13に記憶されている。環境データ取得手段20は学習者の居室の室温、湿度、騒音などを検知する。ネット接続手段21はインターネットからニュース、天気予報、学術情報など、およびクラウドからビッグデータを取得し、必要に応じてメモリ13にそのデータを記憶する。
個人特定手段10は、音声入力部1と画像入力部2および振動入力部3に入力された情報とメモリに格納されている個々の学習者ごとの個人データに基づいて学習者を特定する。個人特定手段の特定データは前記した会話の進行におけるシナリオを生成するシナリオ生成手段9で利用される。シナリオ生成手段9とスケジュール設定手段11から出力されたデータは出力制御手段12で出力の種類が判別され、出力手段ごとに振り分けられる。出力制御手段12で音声、画像、振動、その他のコミュニケーションに振り分けられたデータは、出力部に有するそれぞれの出力手段を介して学習者に提供される。
音声出力部14は音声出力手段14bとスピーカ14aで構成され、画像出力部15は画像出力手段15bとディスプレイ・モニター15aで構成される。振動出力部16は振動信号を生成する振動出力手段16bと振動器(振動板など)16aからなる。その他の報知部17はその他のコミュニケーション手段17bと点滅光源やブザーあるいはオルゴールなどの報知手段17aで構成される。
上記の各認識機能、各判断機能、個人特定機能、シナリオ生成機能あるいはスケジュール設定機能、それらのための推論および各データ処理などの実行はAI(人工知能)22が主として担当する。
以上説明した実施例によれば、語学力に不安があってなかなか教室に行きづらい人や一方通行の通信教育では向上心が生まれない、個々の状況をくみ取れないロボット・ソフトウェアとの学習といった問題が解消し、言語学習へのハードルを下げることができ、優れた言語学習メソッドを活用することができる。
100・・入力機能
200・・言語解析機能/画像解析機能/各種センサー
300・・言語学習メソッド人工知能(AI)機能
400・・個人の特徴記憶機能
500・・ライフスタイル記憶機能
600・・語彙機能
700・・環境データ取得機能
800・・会話出力機能
900・・学習者
1・・音声入力部
2・・画像入力部
3・・振動入力部
4・・音声認識手段
5・・画像処理手段
6・・振動認識手段
7・・発音特徴検出手段
8・・顔/姿勢/動作認識手段
9・・シナリオ生成手段
10・・個人特定手段
11・・スケジュール設定手段
12・・出力制御手段
13・・メモリ
14・・音声出力部
15・・画像出力部
16・・振動出力部
17・・その他の報知部
18・・カレンダー
19・・時計
20・・環境データ取得手段
21・・ネット接続手段
22・・AI(人工知能)
200・・言語解析機能/画像解析機能/各種センサー
300・・言語学習メソッド人工知能(AI)機能
400・・個人の特徴記憶機能
500・・ライフスタイル記憶機能
600・・語彙機能
700・・環境データ取得機能
800・・会話出力機能
900・・学習者
1・・音声入力部
2・・画像入力部
3・・振動入力部
4・・音声認識手段
5・・画像処理手段
6・・振動認識手段
7・・発音特徴検出手段
8・・顔/姿勢/動作認識手段
9・・シナリオ生成手段
10・・個人特定手段
11・・スケジュール設定手段
12・・出力制御手段
13・・メモリ
14・・音声出力部
15・・画像出力部
16・・振動出力部
17・・その他の報知部
18・・カレンダー
19・・時計
20・・環境データ取得手段
21・・ネット接続手段
22・・AI(人工知能)
Claims (6)
- 学習者の状況に応じて、言語学習メソッドに従って適切な会話を行う言語学習ロボット・ソフトウェアであって、
前記学習者が発言した発音を含む情報を入力する入力機能と、
前記学習者による発言の間違え易い点を当該発言者の特徴点として記憶する特徴記憶機能と、
前記学習者のそれぞれのライフスタイルを記憶するライフスタイル記憶機能と、
カレンダーやイベント等に応じた前記学習者の自主的な語彙を記憶する語彙記憶機能と、
前記学習者に対して発音を含む情報を出力する出力機能と、
前記の各機能を用いて会話のシナリオを生成して、前記学習者との間で前記言語学習メソッドに従った柔軟な会話を行う人工知能機能と、
を具備したことを特徴とする言語学習ロボット・ソフトウェア。 - 請求項1に記載の言語学習ロボット・ソフトウェアであって、
前記入力機能は、前記学習者の音声や画像や振動などを含む環境データを感知あるいは取得して、学習者からの入力情報を受け付ける手段を備えたことを特徴とする言語学習ロボット・ソフトウェア。 - 請求項1に記載の言語学習ロボット・ソフトウェアであって、
前記入力した情報を元に言語解析や画像解析に基づく当該学習者の特定に加えて表情解析と言い回しなどに基づく機嫌の良し悪しや健康状態などの当該学習者の行動様式の解析機能のためのセンシング手段を備えたことを特徴とする言語学習ロボット・ソフトウェア。 - 請求項3に記載の言語学習ロボット・ソフトウェアであって、
前記人工知能機能は、前記解析した情報を元に、言語学習メソッドに関する動作を決定する人工知能を備えたことを特徴とする言語学習ロボット・ソフトウェア。 - 請求項3に記載の言語学習ロボット・ソフトウェアであって、
前記人工知能は、入力情報の正誤判定、習熟度などのレベル判定を行うと共に、語形変化、音調や抑揚などの間違えやすい特徴点を抽出する機能を具備することを特徴とする言語学習ロボット・ソフトウェア。 - 請求項1乃至5のいずれかに記載の言語学習ロボット・ソフトウェアであって、
前記人工知能は、前記個々の学習者の特徴や話しかけた時間や話題などにより、個々人のライフスタイルを判断してライフスタイル記憶機能に情報を格納し、格納されている個々の特徴情報、ライフスタイル情報、さらには、カレンダーやイベントなどの情報を元に会話の内容を判断し、カリキュラムと合わせて会話を行う機能を有することを特徴とする言語学習ロボット・ソフトウェア。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016092414A JP2017201342A (ja) | 2016-05-02 | 2016-05-02 | 言語学習ロボット・ソフトウェア |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016092414A JP2017201342A (ja) | 2016-05-02 | 2016-05-02 | 言語学習ロボット・ソフトウェア |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017201342A true JP2017201342A (ja) | 2017-11-09 |
Family
ID=60264840
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016092414A Pending JP2017201342A (ja) | 2016-05-02 | 2016-05-02 | 言語学習ロボット・ソフトウェア |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017201342A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107705643A (zh) * | 2017-11-16 | 2018-02-16 | 四川文理学院 | 一种机器人主持教学方法及其装置 |
CN109598991A (zh) * | 2019-01-11 | 2019-04-09 | 张翩 | 一种英语发音教学系统、装置及方法 |
WO2019078071A1 (ja) | 2017-10-17 | 2019-04-25 | 三菱重工環境・化学エンジニアリング株式会社 | 被焼却物燃焼用ストーカ炉 |
CN109712454A (zh) * | 2019-03-11 | 2019-05-03 | 荆州职业技术学院 | 一种智能化英语教学语言学习系统 |
CN110008229A (zh) * | 2019-04-10 | 2019-07-12 | 龙剑辉 | 基于计算机用于识别长时记忆语言单位信息的方法 |
JP2019128533A (ja) * | 2018-01-26 | 2019-08-01 | 国立研究開発法人情報通信研究機構 | 脳活動を利用した語学能力評価装置、及び語学能力評価システム |
CN111259125A (zh) * | 2020-01-14 | 2020-06-09 | 百度在线网络技术(北京)有限公司 | 语音播报的方法和装置、智能音箱、电子设备、存储介质 |
JP2021071723A (ja) * | 2019-10-31 | 2021-05-06 | エルジー シーエヌエス カンパニー リミテッド | 外国語学習装置、外国語学習サービス提供方法、およびコンピュータプログラム |
US11875699B2 (en) | 2022-04-21 | 2024-01-16 | Columbia College | Methods for online language learning using artificial intelligence and avatar technologies |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080027731A1 (en) * | 2004-04-12 | 2008-01-31 | Burlington English Ltd. | Comprehensive Spoken Language Learning System |
JP2014176963A (ja) * | 2013-03-14 | 2014-09-25 | Toyota Motor Engineering & Manufacturing North America Inc | ロボット装置/プラットフォームを使用して能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム |
JP2015060056A (ja) * | 2013-09-18 | 2015-03-30 | 株式会社ナガセ | 教育装置並びに教育装置用ic及び媒体 |
-
2016
- 2016-05-02 JP JP2016092414A patent/JP2017201342A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080027731A1 (en) * | 2004-04-12 | 2008-01-31 | Burlington English Ltd. | Comprehensive Spoken Language Learning System |
JP2014176963A (ja) * | 2013-03-14 | 2014-09-25 | Toyota Motor Engineering & Manufacturing North America Inc | ロボット装置/プラットフォームを使用して能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム |
JP2015060056A (ja) * | 2013-09-18 | 2015-03-30 | 株式会社ナガセ | 教育装置並びに教育装置用ic及び媒体 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019078071A1 (ja) | 2017-10-17 | 2019-04-25 | 三菱重工環境・化学エンジニアリング株式会社 | 被焼却物燃焼用ストーカ炉 |
CN107705643A (zh) * | 2017-11-16 | 2018-02-16 | 四川文理学院 | 一种机器人主持教学方法及其装置 |
CN107705643B (zh) * | 2017-11-16 | 2024-01-02 | 四川文理学院 | 一种机器人主持教学方法及其装置 |
JP7125042B2 (ja) | 2018-01-26 | 2022-08-24 | 国立研究開発法人情報通信研究機構 | 脳活動を利用した語学能力評価装置、及び語学能力評価システム |
JP2019128533A (ja) * | 2018-01-26 | 2019-08-01 | 国立研究開発法人情報通信研究機構 | 脳活動を利用した語学能力評価装置、及び語学能力評価システム |
WO2019146753A1 (ja) * | 2018-01-26 | 2019-08-01 | 国立研究開発法人情報通信研究機構 | 脳活動を利用した語学能力評価装置、及び語学能力評価システム |
CN109598991A (zh) * | 2019-01-11 | 2019-04-09 | 张翩 | 一种英语发音教学系统、装置及方法 |
CN109712454A (zh) * | 2019-03-11 | 2019-05-03 | 荆州职业技术学院 | 一种智能化英语教学语言学习系统 |
CN109712454B (zh) * | 2019-03-11 | 2021-04-30 | 荆州职业技术学院 | 一种智能化英语教学语言学习系统 |
CN110008229A (zh) * | 2019-04-10 | 2019-07-12 | 龙剑辉 | 基于计算机用于识别长时记忆语言单位信息的方法 |
CN110008229B (zh) * | 2019-04-10 | 2023-05-16 | 龙剑辉 | 基于计算机用于识别长时记忆语言单位信息的方法 |
JP7059492B2 (ja) | 2019-10-31 | 2022-04-26 | エルジー シーエヌエス カンパニー リミテッド | 外国語学習装置、外国語学習サービス提供方法、およびコンピュータプログラム |
JP2021071723A (ja) * | 2019-10-31 | 2021-05-06 | エルジー シーエヌエス カンパニー リミテッド | 外国語学習装置、外国語学習サービス提供方法、およびコンピュータプログラム |
CN111259125B (zh) * | 2020-01-14 | 2023-08-29 | 百度在线网络技术(北京)有限公司 | 语音播报的方法和装置、智能音箱、电子设备、存储介质 |
CN111259125A (zh) * | 2020-01-14 | 2020-06-09 | 百度在线网络技术(北京)有限公司 | 语音播报的方法和装置、智能音箱、电子设备、存储介质 |
US11875699B2 (en) | 2022-04-21 | 2024-01-16 | Columbia College | Methods for online language learning using artificial intelligence and avatar technologies |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017201342A (ja) | 言語学習ロボット・ソフトウェア | |
Ashwell et al. | How Accurately Can the Google Web Speech API Recognize and Transcribe Japanese L2 English Learners' Oral Production?. | |
Zielinski et al. | Pronunciation instruction is not appropriate for beginning-level learners | |
JP2002503353A (ja) | 音読及び発音指導装置 | |
CN108431883A (zh) | 语言学习系统以及语言学习程序 | |
AU2017371714B2 (en) | Learning tool and method | |
Cucchiarini et al. | Second language learners' spoken discourse: Practice and corrective feedback through automatic speech recognition | |
JP2017173546A (ja) | 学習支援装置、ロボット、学習支援システム、学習支援方法及びプログラム | |
KR20190061191A (ko) | 아동언어학습을 위한 음성인식 기반 학습 시스템 및 학습방법 | |
Indrasari | Designing Listening Tasks For English Students | |
KR100915681B1 (ko) | 컴퓨터 주도형 대화 장치 및 방법 | |
KR20130068598A (ko) | 외국어 학습자의 발음 평가 장치 및 방법 | |
US11587460B2 (en) | Method and system for adaptive language learning | |
Gorman et al. | A framework for speechreading acquisition tools | |
JP6308608B2 (ja) | ダイレクトメソッドにもとづく外国語会話学習システム | |
Dillon et al. | Student Perceptions of Mobile Automated Speech Recognition for Pronunciation Study and Testing. | |
TW201727595A (zh) | 外語口說學習系統、方法及電腦程式產品 | |
US20210142685A1 (en) | Literacy awareness skills tools implemented via smart speakers and conversational assistants on smart devices | |
KR101854379B1 (ko) | 무의식적 절차 기억 강화를 통한 영어 학습 방법 | |
Cucchiarini et al. | Jasmin-cgn: Extension of the spoken dutch corpus with speech of elderly people, children and non-natives in the human-machine interaction modality | |
FERREIRO et al. | Redirecting goals for Pronunciation Teaching: A new proposal for adult Spanish-L1 learners of English. | |
Çelik | Approaches and principles in English as a foreign language (EFL) education | |
KR101312058B1 (ko) | 비쥬얼 파닉스를 이용하여 한국어를 학습하기 위한 장치 및 그 방법 | |
van Doremalen et al. | Speech technology in CALL: The essential role of adaptation | |
Demirezen | A model to rehabilitate a fossilized pronunciation error of Turkish English language teachers: the nasal devoicing of/ŋ/as/ŋk |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190409 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200106 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200625 |