本発明と本発明の動作上の利点及び本発明の実施によって達成される目的を十分に理解するためには、本発明の好ましい実施例を例示する添付図面及び添付図面に記載された内容を参照しなければならない。
以下、添付した図面に基づいて本発明の好ましい実施例を説明することにより本発明を詳細に説明する。しかし、本発明は、多様な異なる形態に実施することができ、以下で説明する実施例に限定されるものではない。そして、本発明を明確に説明するために、説明と関係ない部分は省略し、図面での同一の図面符号は同一の部材を示す。
明細書全体において、ある部分がある構成要素を「含む」とするとき、これは、特別に反対の記載がない限り、他の構成要素を除外するのではなく、他の構成要素をさらに含むことができることを意味する。また、明細書に記載された「・・・部」、「・・・機」、「モジュール」、「ブロック」などの用語は、少なくとも1つの機能や動作を処理する単位を意味し、これはハードウェアやソフトウェア、またはハードウェアとソフトウェアの結合で実現されることができる。
図1は、本発明の一実施例に係る外国語学習システムの構成を示す図面である。
図1を参照すると、本発明の外国語学習システムは、スマートメガネ100と、事物認識サーバ200と、外国語変換サーバ300と、を含む。
スマートメガネ100は、メガネ形態で実現されて、学習者が着用することができ、一般のメガネのように学習者が事物を観察できるように、投射可能であるガラスにより実現される。しかし、スマートメガネ100は、知られているように、一般のメガネと異なって、単純にガラスを介して事物を観察できるだけでなく、映像及び音響の出力、外部機器との通信などの多様な機能を果たすことができるように構成される。
図1に示すように、本発明のスマートメガネ100は、映像獲得部110と、音声獲得部120と、ディスプレイ部130と、音声出力部140と、通信部150と、を含む。
映像獲得部110は、カメラのように、映像獲得手段として実現されて、学習者が観察している周辺環境の映像を映像信号として得る。場合によって、映像獲得部110は、複数個のカメラを備え、学習者が見る周辺環境のイメージだけでなく、学習者の眼球イメージを得ることもできる。学習者の眼球イメージを得る理由は、学習者が周辺環境中のどの領域を重点的に観察しているかを判別するためである。映像獲得部110は、学習者がどの映像を重点的に観察しているのかが判別されると、周辺環境の映像を得るカメラの動きを調整して学習者が重点的に観察している事物が中心となるように撮影するようにできる。そして、映像獲得部110は、得られた映像を通信部150を介して事物認識サーバ200に伝送する。
音声獲得部120は、マイクのような音声獲得手段で実現されて、学習者が発話する音声を音声信号として得る。そして得られた音声信号を通信部150を介して外国語変換サーバ300に伝送する。
ディスプレイ部130は、通信部150を介して外国語変換サーバ300で構成された学習映像を受信し、受信された学習映像を学習者が確認できるようにディスプレイする。このとき、ディスプレイ部130は、学習者の視野に妨害されないように、スマートメガネ100に学習映像をオーバーラップしてディスプレイする。
一方、音声出力部140は、スピーカのような音声出力手段で実現されて、通信部150を介して外国語変換サーバ300で構成された合成音を受信し、受信された合成音を出力する。
通信部150は、映像獲得部110から映像信号を受信して事物認識サーバ200に伝送し、音声獲得部120で得られた音声信号を外国語変換サーバ300に伝送する。また、通信部150は、外国語変換サーバ300から学習映像及び合成音を受信し、それぞれディスプレイ部130及び音声出力部140に伝送する。
上記では、通信部150が音声獲得部120で得られた音声信号を外国語変換サーバ300に伝送することに説明したが、場合によっては、音声信号を事物認識サーバ200に伝送することもできる。
事物認識サーバ200は、スマートメガネ100から映像信号を受信して分析し、映像信号に含まれた事物情報を得る。ここで、事物情報は、代表的に事物の名称を含むことができる。例えば、図1に示すように、受信された映像信号を分析した結果、映像信号に椅子が含まれている場合に事物認識サーバ200は、“椅子”を事物情報として得ることができる。事物認識サーバ200は、分析された映像信号に含まれたすべての事物に対する認識を行うこともでき、映像信号中、中央に配置された事物に対する認識のみを行うこともできる。また、事物認識サーバ200は、認識された事物の配置位置を判別し、得られた事物情報にマッチングして追加することができる。そして、事物認識サーバ200は、得られた事物情報を外国語変換サーバ300に伝送する。
外国語変換サーバ300は、スマートメガネ100から音声信号を受信し、事物認識サーバ200から事物情報を受信する。外国語変換サーバ300は、先ず、事物認識サーバ200から受信された事物情報を、対応する外国語単語に変換する。すなわち、事物の名称を、対応する外国語単語に変換する。例えば、上述したように、事物認識サーバ200が、“椅子”を事物情報として伝送した場合、外国語変換サーバ300は、“椅子”に対応する英語単語である“chair”に変換することができる。
本発明では、学習者が学習しようとする外国語が、一例として英語であると仮定して説明する。しかし、本発明を用いて学習者が学習できる外国語は、英語に限定されず、日本語、中国語、プランス語など多様な国家の言語をすべて含むことができる。
そして、外国語変換サーバ300は、事物情報に含まれた事物の位置情報を分析して、変換された外国語単語が位置情報に対応する位置に配置されるように学習映像を構成し、スマートメガネ100に伝送する。また、外国語変換サーバ300は、変換された外国語単語に対応する音声を合成して合成音を生成し、生成された合成音をスマートメガネ100に伝送する。
一方、外国語変換サーバ300は、スマートメガネ100から音声信号を受信して音声認識を行い、音声認識された音声信号の発音を外国語単語の発音と比較して発音評価を行う。そして、発音評価結果をスマートメガネ100に伝送して、発音評価結果がスマートメガネ100のディスプレイ部130を介して表示されるようにする。
結果的に、本発明に係るスマートメガネを用いた外国語学習システムは、学習者がスマートメガネを着用した状態で観察する事物の映像を得て分析し、対応する外国語単語に変換した後に再びスマートメガネ100にディスプレイし、対応する合成音を出力する。
したがって、本発明に係る外国語学習システムは、学習者が単純に事物を見るだけでも当該事物に対応する外国語単語及び発音を確認できるので、別途検索することなく、実生活で目にする事物の外国語単語を学習することができる。学習者が実生活で目にする事物は、外国語においても頻繁に活用される単語である可能性が高いため、実際に活用性の高い単語を主として学習することができるだけでなく、自然に繰り返し学習が可能であるので、学習の効率を高めることができる。さらに、外国語発音に対する評価が行われ、評価結果が提供されるので、単純に外国語単語を暗記するだけでなく、外国語スピーキング学習にも大きな効果を得ることができる。
図2は、図1の事物認識サーバの構成例を示す図面である。
図2を参照すると、事物認識サーバ200は、通信部210と、映像分析部220と、事物判別部230と、事物認識データベース240と、位置判別部250と、を含む。
通信部210は、スマートメガネ100及び外国語変換サーバ300との通信を行い、スマートメガネ100から映像信号を受信し、分析された事物情報を外国語変換サーバ300に伝送する。
映像分析部220は、通信部210を介して映像信号を受信し、受信された映像信号を分析して、事物認識を行うための分析対象領域を決定し、分析対象領域中、学習者が関心を持っているハイライト領域を判別する。すなわち、分析対象領域は、映像信号に複数個含まれ得るが、ハイライト領域は、映像信号に単に一つの領域のみが含まれる。ハイライト領域は、一例として、少なくとも一つの分析対象領域中、映像信号で表示される映像の中心から最も近い領域をハイライト領域として設定することができる。
事物判別部230は、事物認識データベース240を利用して映像分析部220で決定された分析対象領域に対する事物判別を行って事物情報を得る。
事物認識データベース240は、事物認識のための各種映像データを格納する。
事物判別部230は、映像信号の分析対象領域イメージを事物認識データベース240に格納された映像データと比較して事物を判別することにより、事物情報を得る。このとき、判別されなかった事物は、判別しなくてもよい。事物が判別されなかった場合、その原因は様々あり、例えば、事物の形状が類似機能の事物と大きく異なる形状を有する場合があり得る。また、映像信号に含まれた事物のイメージが明確でないため、事物を判別できない場合もある。事物のイメージが明確でないため、事物を判別できなかった場合は、スマートメガネ100の映像獲得部110が当該事物を中心に撮影しなかった場合を想定できる。したがって、事物が判別されなくても学習者には問題にならなく、以後学習者の動きにより事物のイメージが明確になることがあり、事物のイメージが明確になった状態で再び事物を判別すればよい。
位置判別部250は、分析対象領域及び得られた事物情報に基づいて、事物情報が表示される位置を判別する。特に位置判別部250は、分析対象領域においても事物が位置した領域を分析して事物情報が表示される位置を判別する。また位置判別部250は、ハイライト領域の事物に対する位置を別途に指定する。位置判別部250は、判別した位置の位置情報を事物情報に含め、通信部310を介して外国語変換サーバ300に伝送する。
図3は、図1の外国語変換サーバの構成例を示す図面である。
図3に示すように、外国語変換サーバ300は、通信部310と、外国語変換部320と、言語モデルデータベース330と、映像及び音声構成部340と、音声認識部350と、発音評価部360と、を含む。
通信部310は、スマートメガネ100及び事物認識サーバ200との通信を行い、スマートメガネ100から音声信号を受信し、事物認識サーバ200から事物情報を受信して、スマートメガネ100に学習映像及び合成音を伝送する。
外国語変換部320は、通信部310を介して事物情報を受信し、事物情報に対応する外国語単語を言語モデルデータベース330に格納されている言語モデルを利用して検索して変換する。言語モデルデータベース330は、学習者が学習しようとする学習対象言語の言語モデルを格納する。ここで、言語モデルは、単純語彙だけでなく学習対象言語を使用する使用者の発音である音響モデルを共に格納する。
したがって、外国語変換部320は、事物情報を外国語単語に変換するだけでなく外国語単語の発音情報を共に得る。そして、得られた外国語単語及び発音情報を映像及び音声構成部340に伝送する。
映像及び音声構成部340は、外国語変換部320から外国語単語及び発音情報を受信し、受信された外国語単語に対し、事物情報に含まれた位置情報を基盤にして外国語単語が表示される映像を構成し、発音情報を基盤にして合成音を生成して、通信部310を介してスマートメガネ100に伝送する。このとき、映像及び音声構成部340は、事物情報にハイライト領域に関する情報が含まれている場合は、ハイライト領域に対応する事物の外国語単語が他の単語とは異なる形式(例えば、字の大きさ、字の色、背景色など)で表示されるように学習映像を構成することができる。
そして、音声認識部350は、スマートメガネ100から伝送された音声信号を通信部310を介して受信し、音声認識を行う。このとき、音声認識部350は、言語モデルデータベース330に格納された言語モデルの音響モデルを活用して音声認識を行い、音響モデルから音声認識された言語に対応する単語の音響モデル発音を得る。
発音評価部360は、音声信号と音声認識部350で得られた音響モデル発音とを比較して学習者が発話した音声信号の発音を評価し、評価結果を映像及び音声構成部340に伝送する。そして、映像及び音声構成部340は、発音評価結果を表示するための学習映像を構成して通信部310を介してスマートメガネ100に伝送する。このとき、映像及び音声構成部340は、発音評価部360から音響モデル発音を共に得てスマートメガネ100に伝送することにより、スマートメガネ100が音響モデル発音を出力できるように構成することもできる。
上記では、外国語変換サーバ300を事物認識サーバ200とは別途の装置として示したが、外国語変換サーバ300は、事物認識サーバ200に含まれて構成されることもできる。
また上記では、事物認識サーバ200が単に映像信号に含まれた事物を認識して事物情報を得ることに説明したが、最近、映像分析技術が事物認識機能を越えて状況認知技術として発展する傾向にある。これにより、事物認識サーバ200は、スマートメガネ100からさらに音声信号の印加を受け、映像信号と音声信号とを組み合わせて分析することにより、学習者の状況を認知する状況認知技術を採用することもできる。この場合、本発明の外国語学習システムは、単に事物の名称をスマートメガネを介して表示するだけでなく、学習者の状況を考慮した文章を構成し、外国語変換サーバ300がこれを外国語に変換してスマートメガネ100に外国語文章が表示されるように構成することもできる。すなわち、学習者の実生活の状況に適した外国語文章を学習者に提供することもできる。
また、示されていないが、スマートメガネ100は、場合によって、GPSのような位置情報獲得部をさらに備えることができる。スマートメガネ100がさらに位置情報獲得部を備える場合は、上述した状況認知による外国語文章を、さらに詳細かつ容易に学習者に提供することができる。
図4は、本発明の一実施例に係る外国語学習システムを用いた外国語学習方法を示す図面である。
図1から図3を参照して、図4の外国語学習方法を説明すると、先ず、スマートメガネ100の映像獲得部110は、学習者が見る周辺環境に対する映像を得て映像信号を生成する(S11)。そして、映像信号を通信部150を介して事物認識サーバ200に伝送する。事物認識サーバ200は、映像信号を分析して映像信号に含まれた事物を認識して事物情報を生成する(S13)。このとき、事物認識サーバ200は、各事物の位置情報を含むことができる。
事物認識サーバ200は、認識された事物情報を外国語変換サーバ300に伝送し、外国語変換サーバ300は、既に格納されている言語モデルから事物情報に対応する外国語語彙の単語を得る(S15)。そして、事物情報に含まれた位置情報を基盤にして外国語単語が表示される学習映像を出力映像として構成し、外国語単語に対応する発音を合成して合成音を生成する(S16)。生成された学習映像及び合成音をスマートメガネ100に伝送する(S17)。スマートメガネ100は、外国語変換サーバ300から受信された学習映像及び合成音を学習者が認知できるように出力する(S18)。このとき、学習映像は学習者の視野をすべて覆うことなく事物に対応する位置にのみ表示されて、半透明状に表示されることができる。
一方、スマートメガネ100は、学習者が発話した学習者の音声を感知すると、学習者の音声を受信して音声信号を生成する(S19)。そして、生成された音声信号を外国語変換サーバ300に伝送する。
外国語変換サーバ300は、音声信号を受信し、受信された音声信号を音声認識して対応する音響モデル発音を得ることになり、音声信号と音声モデル発音とを比較して音声信号の発音を評価する(S22)。そして、評価結果を再び学習映像として構成し、音響モデル発音と共にスマートメガネ100に伝送する(S23)。スマートメガネ100は、発音評価結果の学習映像及び音響モデル発音を出力して、学習者が発音を校正できるようにする(S24)。
図5は、本発明係る外国語学習システムを用いた外国語学習方法の実際の適用例を示す。
図5の(a)は、学習者の視野に入る一般の周辺環境のイメージを示し、(b)は、本発明の外国語学習システムに係るスマートメガネを着用した場合に、学習者の視野に入る周辺環境イメージを示す。
図5の(b)に示すように、本発明の外国語学習システムに係るスマートメガネを着用すると、学習者が実生活での各事物の外国語名称を別途検索することなく、リアルタイムでメガネを介して各事物の外国語名称が表示されるので、外国語学習を容易に行うことができる。また、実生活に適用可能な外国語学習を行うことができ、特別な手間をかけることなく繰り返し学習を行うことができるので、自然に外国語を学習することができる。
本発明に係る方法は、コンピューターで読み取り可能な記録媒体に、コンピューターで読み取り可能なコードで実現することができる。コンピューターで読み取り可能な記録媒体とは、コンピューターシステムによって読み出されることができるデータが格納されるすべての種類の記録装置を含む。記録媒体の例には、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ格納装置などがあり、また、キャリアウエーブ(例えばインターネットを介した伝送)などの形態で実現されることも含む。また、コンピューターが読み取り可能な記録媒体は、ネットワークに接続されたコンピューターシステムに分散され、分散方式でコンピューターで読み取り可能なコードとして格納されて行われる。
本発明は、図面に示した実施例を参照にして説明したが、これは例示的なものに過ぎず、当該技術分野の通常の知識を有する者であれば、これより多様な変更及び均等な他の実施例が可能であることを理解できよう。
したがって、本発明の技術的保護範囲は、添付された特許請求範囲の技術的思想により定められるべきである。