JP2015041101A - スマートメガネを用いた外国語学習システム及びその方法 - Google Patents

スマートメガネを用いた外国語学習システム及びその方法 Download PDF

Info

Publication number
JP2015041101A
JP2015041101A JP2014062320A JP2014062320A JP2015041101A JP 2015041101 A JP2015041101 A JP 2015041101A JP 2014062320 A JP2014062320 A JP 2014062320A JP 2014062320 A JP2014062320 A JP 2014062320A JP 2015041101 A JP2015041101 A JP 2015041101A
Authority
JP
Japan
Prior art keywords
foreign language
video
learning
information
thing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014062320A
Other languages
English (en)
Inventor
ホン チャン
Hong Zhang
ホン チャン
ソン−ジュ イ
Son-Ju Lee
ソン−ジュ イ
ユ−イ オ
You-Lee Oh
ユ−イ オ
ユン−グン イ
Yun-Gun Lee
ユン−グン イ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2015041101A publication Critical patent/JP2015041101A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Computational Linguistics (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Eyeglasses (AREA)

Abstract

【課題】スマートメガネを用いた外国語学習システム及びその方法を提供する。【解決手段】本発明によるスマートメガネを用いた外国語学習システムは、学習者が着用可能であるメガネ形態で実現され、学習者の視野に対応する映像を得て映像信号を生成し、学習映像及び合成音を受信して出力するスマートメガネと、スマートメガネから映像信号を受信し、上記映像信号に含まれた事物に対する事物認識を行い、認識された事物に対応する事物情報を伝送する事物認識サーバと、事物認識サーバから事物情報を受信して事物情報に対応する外国語単語に変換し、外国語単語を表示するための学習映像及び外国語単語に対応する発音を合成音として生成してスマートメガネに伝送する外国語変換サーバと、を含むことを特徴とする。【選択図】図4

Description

本発明は、スマートメガネ(SMART GLASSES)を用いた外国語学習システム及びその方法に関し、より詳細には、スマートメガネを用いて事物認識を行い、学習者が観察している事物に対応する外国語単語を映像及び音声で出力することができる、スマートメガネを用いた外国語学習システム及びその方法に関する。
外国語学習は、リスニング、スピーキング、ライティング及びリーディングなどの様々な学習を要するが、その基盤として外国語語彙に対する知識を必要とする。すなわち、外国語単語学習が基礎となる。
従来の外国語単語学習システムは、一般的に印刷物を含むPC及びモバイル環境下でサービス提供者が伝達する単方向性の情報を使用して外国語単語を学習することになる。辞書、単語帳、単語学習機などが代表的な例であって、このような外国語単語学習システムを利用して学習者らは単純に単語に対応する意味を暗記したり、意味に対応する単語を検索して暗記したりする単純暗記を繰り返して外国語単語を学習することになる。
しかし、このような外国語単語学習システムは、学習と実生活とが分離されていることにより、学習者が単語学習の必要性を大きく感じないだけでなく、学習した単語の活用度を高めることができない限界がある。
本発明の目的は、学習者が観察する事物に対応する単語が即刻メガネにオーバーラップで表示されて、実生活に連携して外国語単語を学習できるようにするスマートメガネを提供することにある。
本発明の他の目的は、スマートメガネを用いた外国語学習方法を提供することにある。
上記目的を達成するために、本発明の一例に係る外国語学習システムは、学習者が着用可能なメガネ形態で実現されて、上記学習者の視野に対応する映像を得て映像信号を生成し、学習映像及び合成音を受信して出力するスマートメガネと、上記スマートメガネから上記映像信号を受信し、上記映像信号に含まれた事物に対する事物認識を行い、認識された事物に対応する事物情報を伝送する事物認識サーバと、上記事物認識サーバから上記事物情報を受信して上記事物情報に対応する外国語単語に変換し、上記外国語単語を表示するための上記学習映像と上記外国語単語に対応する発音を上記合成音で生成して上記スマートメガネに伝送する外国語変換サーバと、を含む。
上記スマートメガネは、上記学習者の視野に対応する映像を得て映像信号を生成する映像獲得部と、上記学習映像を受信してディスプレイするディスプレイ部と、上記合成音を受信して音響として出力する音声出力部と、上記映像獲得部で生成された上記映像信号を上記事物認識サーバに伝送し、上記外国語変換サーバから上記学習映像及び上記合成音を受信してそれぞれ上記ディスプレイ部及び上記音声出力部に伝送する第1通信部と、を含むことを特徴とする。
上記事物認識サーバは、上記スマートメガネから上記映像信号を受信し、上記事物情報を上記外国語変換サーバに伝送する第2通信部と、上記第2通信部を介して上記映像信号を受信し、分析して事物認識を行う少なくとも一つの分析対象領域を設定する映像分析部と、事物認識のために比較対象となる複数個の事物映像データを格納する事物認識データベースと、上記少なくとも一つの分析対象領域の映像を上記事物認識データベースの上記事物映像データと比較して事物を認識し、認識された事物の事物情報を得る事物判別部と、上記分析対象領域及び上記事物情報により上記事物情報が上記学習映像での表示される位置を判別して位置情報を上記事物情報に含める位置判別部と、を含むことを特徴とする。
上記外国語変換サーバは、上記事物認識サーバから上記事物情報を受信し、上記学習映像及び上記合成音を上記スマートメガネに伝送する第3通信部と、上記学習者が学習しようとする学習対象言語に対する言語モデルを格納する言語モデルデータベースと、上記第3通信部を介して受信される上記事物情報に対応する上記外国語単語及び上記外国語単語の発音に対応する発音情報を、上記言語モデルを検索して得る外国語変換部と、上記事物情報に含まれた上記位置情報に基づいて上記外国語単語が表示される上記学習映像を構成し、上記発音情報を基盤にして上記合成音を生成して、上記通信部を介して上記スマートメガネに伝送する映像及び音声構成部と、を含むことを特徴とする。
上記スマートメガネは、上記学習者が発話した音声を得て音声信号を生成し、上記第1通信部を介して上記事物認識サーバに伝送する音声獲得部をさらに含むことを特徴とする。
上記外国語変換サーバは、上記スマートメガネから伝送される上記音声信号を上記第3通信部を介して受信し、受信された上記音声信号を上記言語モデルに含まれた音響モデルと比較して音声認識を行い、音響モデルから音声認識された言語に対応する単語の音響モデル発音を得る音声認識部と、上記音声信号と上記音響モデルの発音とを比較して上記音声モデルに対する発音評価結果を生成し、上記発音評価結果を上記映像及び音声構成部に伝送して、上記スマートメガネに上記学習映像として表示されるようにする発音評価部と、をさらに含むことを特徴とする。
上記の他の目的を達成するための本発明の一例に係る外国語学習方法は、学習者が着用可能なメガネ形態で実現されるスマートメガネと、事物認識サーバと、外国語変換サーバとを含む外国語学習システムを用いた外国語学習方法において、上記スマートメガネが上記学習者の視野に対応する映像を得て映像信号を生成するステップと、上記事物認識サーバが上記スマートメガネから上記映像信号を受信し、上記映像信号に含まれた事物に対する事物認識を行って事物情報を生成するステップと、上記外国語変換サーバが上記事物認識サーバから上記事物情報を受信し、上記事物情報に対応する外国語単語に変換して、上記外国語単語を表示するための学習映像と上記外国語単語に対応する発音を合成音として生成して上記スマートメガネに伝送するステップと、上記スマートメガネが上記学習映像及び上記合成音を受信して上記学習者に出力するステップと、を含む。
上記事物情報を生成するステップは、上記映像信号を受信し、分析して事物認識を行う少なくとも一つの分析対象領域を設定するステップと、上記少なくとも一つの分析対象領域の映像を上記事物認識サーバに既に格納された複数個の事物映像データと比較して事物を認識し、認識された事物の事物情報を得るステップと、上記分析対象領域及び上記事物情報により上記事物情報が上記学習映像での表示される位置を判別して位置情報を上記事物情報に含めるステップと、上記事物情報を上記外国語変換サーバに伝送するステップと、を含むことを特徴とする。
上記スマートメガネに伝送するステップは、上記事物認識サーバから上記事物情報を受信するステップと、上記学習者が学習しようとする学習対象言語に対して既に格納された言語モデルから、上記事物情報に対応する上記外国語単語及び上記外国語単語の発音に対応する発音情報を上記言語モデルを検索して得るステップと、上記事物情報に含まれた上記位置情報に基づいて上記外国語単語が表示される上記学習映像を構成し、上記発音情報を基盤にして上記合成音を生成するステップと、上記学習映像及び上記合成音を上記スマートメガネに伝送するステップと、を含むことを特徴とする。
上記外国語学習方法は、上記スマートメガネが上記学習者が発話した音声を得て音声信号を生成し、上記事物認識サーバに伝送するステップと、上記外国語変換サーバが上記音声信号を受信し、受信された上記音声信号を上記言語モデルに含まれた音響モデルと比較して音声認識し、上記音響モデルから音声認識された言語に対応する単語の音響モデル発音を得るステップと、上記外国語変換サーバが上記音声信号と上記音響モデル発音とを比較して上記音声モデルに対する発音評価結果を生成するステップと、上記外国語変換サーバが上記発音評価結果を上記学習映像に生成するステップと、上記外国語変換サーバが上記発音評価結果に対する上記学習映像及び上記音響モデル発音を上記スマートメガネに伝送するステップと、上記スマートメガネが上記発音評価結果に対する上記学習映像及び上記音響モデル発音を出力するステップと、をさらに含むことを特徴とする。
本発明に係るスマートメガネを用いた外国語学習システム及びその方法によれば、学習者がスマートメガネを着用して観察する事物に対する外国語単語綴字及び発音をリアルタイムでスマートメガネを介して出力するので、スマートメガネを着用するだけでも学習者は、別途検索することなく、便利に実生活に必要な外国語単語を即刻確認して学習することができる。また、実生活でよく目にする事物に対する外国語単語の学習が行われるので、自然に繰り返し学習が可能となり、学習効果を大きく高めることができる。
本発明の一実施例に係る外国語学習システムの構成を示す図面である。 図1の事物認識サーバの構成例を示す図面である。 図1の外国語変換サーバの構成例を示す図面である。 本発明の一実施例に係る外国語学習システムを用いた外国語学習方法を示す図面である。 本発明に係る外国語学習システムを用いた外国語学習方法の実際適用例を示す図面である。
本発明と本発明の動作上の利点及び本発明の実施によって達成される目的を十分に理解するためには、本発明の好ましい実施例を例示する添付図面及び添付図面に記載された内容を参照しなければならない。
以下、添付した図面に基づいて本発明の好ましい実施例を説明することにより本発明を詳細に説明する。しかし、本発明は、多様な異なる形態に実施することができ、以下で説明する実施例に限定されるものではない。そして、本発明を明確に説明するために、説明と関係ない部分は省略し、図面での同一の図面符号は同一の部材を示す。
明細書全体において、ある部分がある構成要素を「含む」とするとき、これは、特別に反対の記載がない限り、他の構成要素を除外するのではなく、他の構成要素をさらに含むことができることを意味する。また、明細書に記載された「・・・部」、「・・・機」、「モジュール」、「ブロック」などの用語は、少なくとも1つの機能や動作を処理する単位を意味し、これはハードウェアやソフトウェア、またはハードウェアとソフトウェアの結合で実現されることができる。
図1は、本発明の一実施例に係る外国語学習システムの構成を示す図面である。
図1を参照すると、本発明の外国語学習システムは、スマートメガネ100と、事物認識サーバ200と、外国語変換サーバ300と、を含む。
スマートメガネ100は、メガネ形態で実現されて、学習者が着用することができ、一般のメガネのように学習者が事物を観察できるように、投射可能であるガラスにより実現される。しかし、スマートメガネ100は、知られているように、一般のメガネと異なって、単純にガラスを介して事物を観察できるだけでなく、映像及び音響の出力、外部機器との通信などの多様な機能を果たすことができるように構成される。
図1に示すように、本発明のスマートメガネ100は、映像獲得部110と、音声獲得部120と、ディスプレイ部130と、音声出力部140と、通信部150と、を含む。
映像獲得部110は、カメラのように、映像獲得手段として実現されて、学習者が観察している周辺環境の映像を映像信号として得る。場合によって、映像獲得部110は、複数個のカメラを備え、学習者が見る周辺環境のイメージだけでなく、学習者の眼球イメージを得ることもできる。学習者の眼球イメージを得る理由は、学習者が周辺環境中のどの領域を重点的に観察しているかを判別するためである。映像獲得部110は、学習者がどの映像を重点的に観察しているのかが判別されると、周辺環境の映像を得るカメラの動きを調整して学習者が重点的に観察している事物が中心となるように撮影するようにできる。そして、映像獲得部110は、得られた映像を通信部150を介して事物認識サーバ200に伝送する。
音声獲得部120は、マイクのような音声獲得手段で実現されて、学習者が発話する音声を音声信号として得る。そして得られた音声信号を通信部150を介して外国語変換サーバ300に伝送する。
ディスプレイ部130は、通信部150を介して外国語変換サーバ300で構成された学習映像を受信し、受信された学習映像を学習者が確認できるようにディスプレイする。このとき、ディスプレイ部130は、学習者の視野に妨害されないように、スマートメガネ100に学習映像をオーバーラップしてディスプレイする。
一方、音声出力部140は、スピーカのような音声出力手段で実現されて、通信部150を介して外国語変換サーバ300で構成された合成音を受信し、受信された合成音を出力する。
通信部150は、映像獲得部110から映像信号を受信して事物認識サーバ200に伝送し、音声獲得部120で得られた音声信号を外国語変換サーバ300に伝送する。また、通信部150は、外国語変換サーバ300から学習映像及び合成音を受信し、それぞれディスプレイ部130及び音声出力部140に伝送する。
上記では、通信部150が音声獲得部120で得られた音声信号を外国語変換サーバ300に伝送することに説明したが、場合によっては、音声信号を事物認識サーバ200に伝送することもできる。
事物認識サーバ200は、スマートメガネ100から映像信号を受信して分析し、映像信号に含まれた事物情報を得る。ここで、事物情報は、代表的に事物の名称を含むことができる。例えば、図1に示すように、受信された映像信号を分析した結果、映像信号に椅子が含まれている場合に事物認識サーバ200は、“椅子”を事物情報として得ることができる。事物認識サーバ200は、分析された映像信号に含まれたすべての事物に対する認識を行うこともでき、映像信号中、中央に配置された事物に対する認識のみを行うこともできる。また、事物認識サーバ200は、認識された事物の配置位置を判別し、得られた事物情報にマッチングして追加することができる。そして、事物認識サーバ200は、得られた事物情報を外国語変換サーバ300に伝送する。
外国語変換サーバ300は、スマートメガネ100から音声信号を受信し、事物認識サーバ200から事物情報を受信する。外国語変換サーバ300は、先ず、事物認識サーバ200から受信された事物情報を、対応する外国語単語に変換する。すなわち、事物の名称を、対応する外国語単語に変換する。例えば、上述したように、事物認識サーバ200が、“椅子”を事物情報として伝送した場合、外国語変換サーバ300は、“椅子”に対応する英語単語である“chair”に変換することができる。
本発明では、学習者が学習しようとする外国語が、一例として英語であると仮定して説明する。しかし、本発明を用いて学習者が学習できる外国語は、英語に限定されず、日本語、中国語、プランス語など多様な国家の言語をすべて含むことができる。
そして、外国語変換サーバ300は、事物情報に含まれた事物の位置情報を分析して、変換された外国語単語が位置情報に対応する位置に配置されるように学習映像を構成し、スマートメガネ100に伝送する。また、外国語変換サーバ300は、変換された外国語単語に対応する音声を合成して合成音を生成し、生成された合成音をスマートメガネ100に伝送する。
一方、外国語変換サーバ300は、スマートメガネ100から音声信号を受信して音声認識を行い、音声認識された音声信号の発音を外国語単語の発音と比較して発音評価を行う。そして、発音評価結果をスマートメガネ100に伝送して、発音評価結果がスマートメガネ100のディスプレイ部130を介して表示されるようにする。
結果的に、本発明に係るスマートメガネを用いた外国語学習システムは、学習者がスマートメガネを着用した状態で観察する事物の映像を得て分析し、対応する外国語単語に変換した後に再びスマートメガネ100にディスプレイし、対応する合成音を出力する。
したがって、本発明に係る外国語学習システムは、学習者が単純に事物を見るだけでも当該事物に対応する外国語単語及び発音を確認できるので、別途検索することなく、実生活で目にする事物の外国語単語を学習することができる。学習者が実生活で目にする事物は、外国語においても頻繁に活用される単語である可能性が高いため、実際に活用性の高い単語を主として学習することができるだけでなく、自然に繰り返し学習が可能であるので、学習の効率を高めることができる。さらに、外国語発音に対する評価が行われ、評価結果が提供されるので、単純に外国語単語を暗記するだけでなく、外国語スピーキング学習にも大きな効果を得ることができる。
図2は、図1の事物認識サーバの構成例を示す図面である。
図2を参照すると、事物認識サーバ200は、通信部210と、映像分析部220と、事物判別部230と、事物認識データベース240と、位置判別部250と、を含む。
通信部210は、スマートメガネ100及び外国語変換サーバ300との通信を行い、スマートメガネ100から映像信号を受信し、分析された事物情報を外国語変換サーバ300に伝送する。
映像分析部220は、通信部210を介して映像信号を受信し、受信された映像信号を分析して、事物認識を行うための分析対象領域を決定し、分析対象領域中、学習者が関心を持っているハイライト領域を判別する。すなわち、分析対象領域は、映像信号に複数個含まれ得るが、ハイライト領域は、映像信号に単に一つの領域のみが含まれる。ハイライト領域は、一例として、少なくとも一つの分析対象領域中、映像信号で表示される映像の中心から最も近い領域をハイライト領域として設定することができる。
事物判別部230は、事物認識データベース240を利用して映像分析部220で決定された分析対象領域に対する事物判別を行って事物情報を得る。
事物認識データベース240は、事物認識のための各種映像データを格納する。
事物判別部230は、映像信号の分析対象領域イメージを事物認識データベース240に格納された映像データと比較して事物を判別することにより、事物情報を得る。このとき、判別されなかった事物は、判別しなくてもよい。事物が判別されなかった場合、その原因は様々あり、例えば、事物の形状が類似機能の事物と大きく異なる形状を有する場合があり得る。また、映像信号に含まれた事物のイメージが明確でないため、事物を判別できない場合もある。事物のイメージが明確でないため、事物を判別できなかった場合は、スマートメガネ100の映像獲得部110が当該事物を中心に撮影しなかった場合を想定できる。したがって、事物が判別されなくても学習者には問題にならなく、以後学習者の動きにより事物のイメージが明確になることがあり、事物のイメージが明確になった状態で再び事物を判別すればよい。
位置判別部250は、分析対象領域及び得られた事物情報に基づいて、事物情報が表示される位置を判別する。特に位置判別部250は、分析対象領域においても事物が位置した領域を分析して事物情報が表示される位置を判別する。また位置判別部250は、ハイライト領域の事物に対する位置を別途に指定する。位置判別部250は、判別した位置の位置情報を事物情報に含め、通信部310を介して外国語変換サーバ300に伝送する。
図3は、図1の外国語変換サーバの構成例を示す図面である。
図3に示すように、外国語変換サーバ300は、通信部310と、外国語変換部320と、言語モデルデータベース330と、映像及び音声構成部340と、音声認識部350と、発音評価部360と、を含む。
通信部310は、スマートメガネ100及び事物認識サーバ200との通信を行い、スマートメガネ100から音声信号を受信し、事物認識サーバ200から事物情報を受信して、スマートメガネ100に学習映像及び合成音を伝送する。
外国語変換部320は、通信部310を介して事物情報を受信し、事物情報に対応する外国語単語を言語モデルデータベース330に格納されている言語モデルを利用して検索して変換する。言語モデルデータベース330は、学習者が学習しようとする学習対象言語の言語モデルを格納する。ここで、言語モデルは、単純語彙だけでなく学習対象言語を使用する使用者の発音である音響モデルを共に格納する。
したがって、外国語変換部320は、事物情報を外国語単語に変換するだけでなく外国語単語の発音情報を共に得る。そして、得られた外国語単語及び発音情報を映像及び音声構成部340に伝送する。
映像及び音声構成部340は、外国語変換部320から外国語単語及び発音情報を受信し、受信された外国語単語に対し、事物情報に含まれた位置情報を基盤にして外国語単語が表示される映像を構成し、発音情報を基盤にして合成音を生成して、通信部310を介してスマートメガネ100に伝送する。このとき、映像及び音声構成部340は、事物情報にハイライト領域に関する情報が含まれている場合は、ハイライト領域に対応する事物の外国語単語が他の単語とは異なる形式(例えば、字の大きさ、字の色、背景色など)で表示されるように学習映像を構成することができる。
そして、音声認識部350は、スマートメガネ100から伝送された音声信号を通信部310を介して受信し、音声認識を行う。このとき、音声認識部350は、言語モデルデータベース330に格納された言語モデルの音響モデルを活用して音声認識を行い、音響モデルから音声認識された言語に対応する単語の音響モデル発音を得る。
発音評価部360は、音声信号と音声認識部350で得られた音響モデル発音とを比較して学習者が発話した音声信号の発音を評価し、評価結果を映像及び音声構成部340に伝送する。そして、映像及び音声構成部340は、発音評価結果を表示するための学習映像を構成して通信部310を介してスマートメガネ100に伝送する。このとき、映像及び音声構成部340は、発音評価部360から音響モデル発音を共に得てスマートメガネ100に伝送することにより、スマートメガネ100が音響モデル発音を出力できるように構成することもできる。
上記では、外国語変換サーバ300を事物認識サーバ200とは別途の装置として示したが、外国語変換サーバ300は、事物認識サーバ200に含まれて構成されることもできる。
また上記では、事物認識サーバ200が単に映像信号に含まれた事物を認識して事物情報を得ることに説明したが、最近、映像分析技術が事物認識機能を越えて状況認知技術として発展する傾向にある。これにより、事物認識サーバ200は、スマートメガネ100からさらに音声信号の印加を受け、映像信号と音声信号とを組み合わせて分析することにより、学習者の状況を認知する状況認知技術を採用することもできる。この場合、本発明の外国語学習システムは、単に事物の名称をスマートメガネを介して表示するだけでなく、学習者の状況を考慮した文章を構成し、外国語変換サーバ300がこれを外国語に変換してスマートメガネ100に外国語文章が表示されるように構成することもできる。すなわち、学習者の実生活の状況に適した外国語文章を学習者に提供することもできる。
また、示されていないが、スマートメガネ100は、場合によって、GPSのような位置情報獲得部をさらに備えることができる。スマートメガネ100がさらに位置情報獲得部を備える場合は、上述した状況認知による外国語文章を、さらに詳細かつ容易に学習者に提供することができる。
図4は、本発明の一実施例に係る外国語学習システムを用いた外国語学習方法を示す図面である。
図1から図3を参照して、図4の外国語学習方法を説明すると、先ず、スマートメガネ100の映像獲得部110は、学習者が見る周辺環境に対する映像を得て映像信号を生成する(S11)。そして、映像信号を通信部150を介して事物認識サーバ200に伝送する。事物認識サーバ200は、映像信号を分析して映像信号に含まれた事物を認識して事物情報を生成する(S13)。このとき、事物認識サーバ200は、各事物の位置情報を含むことができる。
事物認識サーバ200は、認識された事物情報を外国語変換サーバ300に伝送し、外国語変換サーバ300は、既に格納されている言語モデルから事物情報に対応する外国語語彙の単語を得る(S15)。そして、事物情報に含まれた位置情報を基盤にして外国語単語が表示される学習映像を出力映像として構成し、外国語単語に対応する発音を合成して合成音を生成する(S16)。生成された学習映像及び合成音をスマートメガネ100に伝送する(S17)。スマートメガネ100は、外国語変換サーバ300から受信された学習映像及び合成音を学習者が認知できるように出力する(S18)。このとき、学習映像は学習者の視野をすべて覆うことなく事物に対応する位置にのみ表示されて、半透明状に表示されることができる。
一方、スマートメガネ100は、学習者が発話した学習者の音声を感知すると、学習者の音声を受信して音声信号を生成する(S19)。そして、生成された音声信号を外国語変換サーバ300に伝送する。
外国語変換サーバ300は、音声信号を受信し、受信された音声信号を音声認識して対応する音響モデル発音を得ることになり、音声信号と音声モデル発音とを比較して音声信号の発音を評価する(S22)。そして、評価結果を再び学習映像として構成し、音響モデル発音と共にスマートメガネ100に伝送する(S23)。スマートメガネ100は、発音評価結果の学習映像及び音響モデル発音を出力して、学習者が発音を校正できるようにする(S24)。
図5は、本発明係る外国語学習システムを用いた外国語学習方法の実際の適用例を示す。
図5の(a)は、学習者の視野に入る一般の周辺環境のイメージを示し、(b)は、本発明の外国語学習システムに係るスマートメガネを着用した場合に、学習者の視野に入る周辺環境イメージを示す。
図5の(b)に示すように、本発明の外国語学習システムに係るスマートメガネを着用すると、学習者が実生活での各事物の外国語名称を別途検索することなく、リアルタイムでメガネを介して各事物の外国語名称が表示されるので、外国語学習を容易に行うことができる。また、実生活に適用可能な外国語学習を行うことができ、特別な手間をかけることなく繰り返し学習を行うことができるので、自然に外国語を学習することができる。
本発明に係る方法は、コンピューターで読み取り可能な記録媒体に、コンピューターで読み取り可能なコードで実現することができる。コンピューターで読み取り可能な記録媒体とは、コンピューターシステムによって読み出されることができるデータが格納されるすべての種類の記録装置を含む。記録媒体の例には、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ格納装置などがあり、また、キャリアウエーブ(例えばインターネットを介した伝送)などの形態で実現されることも含む。また、コンピューターが読み取り可能な記録媒体は、ネットワークに接続されたコンピューターシステムに分散され、分散方式でコンピューターで読み取り可能なコードとして格納されて行われる。
本発明は、図面に示した実施例を参照にして説明したが、これは例示的なものに過ぎず、当該技術分野の通常の知識を有する者であれば、これより多様な変更及び均等な他の実施例が可能であることを理解できよう。
したがって、本発明の技術的保護範囲は、添付された特許請求範囲の技術的思想により定められるべきである。

Claims (17)

  1. 学習者が着用可能であるメガネ形態で実現され、前記学習者の視野に対応する映像を得て映像信号を生成し、学習映像と合成音とを受信して出力するスマートメガネと、
    前記スマートメガネから前記映像信号を受信し、前記映像信号に含まれた事物に対する事物認識を行い、認識された事物に対応する事物情報を伝送する事物認識サーバと、
    前記事物認識サーバから前記事物情報を受信し、前記事物情報に対応する外国語単語に変換し、前記外国語単語を表示するための前記学習映像及び前記外国語単語に対応する発音を前記合成音で生成して、前記スマートメガネに伝送する外国語変換サーバと、
    を含む外国語学習システム。
  2. 前記スマートメガネは、
    前記学習者の視野に対応する映像を得て映像信号を生成する映像獲得部と、
    前記学習映像を受信してディスプレイするディスプレイ部と、
    前記合成音を受信して音響に出力する音声出力部と、
    前記映像獲得部で生成された前記映像信号を前記事物認識サーバに伝送し、前記外国語変換サーバから前記学習映像及び前記合成音を受信してそれぞれ前記ディスプレイ部及び前記音声出力部に伝送する第1通信部と、を含むことを特徴とする請求項1に記載の外国語学習システム。
  3. 前記事物認識サーバは、
    前記スマートメガネから前記映像信号を受信し、前記事物情報を前記外国語変換サーバに伝送する第2通信部と、
    前記第2通信部を介して前記映像信号を受信し、分析して事物認識を行う少なくとも一つの分析対象領域を設定する映像分析部と、
    事物認識のために比較対象となる複数個の事物映像データを格納する事物認識データベースと、
    前記少なくとも一つの分析対象領域の映像を前記事物認識データベースの前記事物映像データと比較して事物を認識し、認識された事物の事物情報を得る事物判別部と、
    前記分析対象領域及び前記事物情報により、前記事物情報が前記学習映像での表示される位置を判別して位置情報を前記事物情報に含める位置判別部と、を含むことを特徴とする請求項2に記載の外国語学習システム。
  4. 前記外国語変換サーバは、
    前記事物認識サーバから前記事物情報を受信し、前記スマートメガネに前記学習映像及び前記合成音を伝送する第3通信部と、
    前記学習者が学習しようとする学習対象言語に対する言語モデルを格納する言語モデルデータベースと、
    前記第3通信部を介して受信される前記事物情報に対応する前記外国語単語及び前記外国語単語の発音に対応する発音情報を、前記言語モデルを検索して得る外国語変換部と、
    前記事物情報に含まれた前記位置情報に基づいて前記外国語単語が表示される前記学習映像を構成し、前記発音情報を基盤にして前記合成音を生成して前記通信部を介して前記スマートメガネに伝送する映像及び音声構成部と、を含むことを特徴とする請求項3に記載の外国語学習システム。
  5. 前記スマートメガネは、
    前記学習者が発話した音声を得て音声信号を生成し、前記第1通信部を介して前記事物認識サーバに伝送する音声獲得部をさらに含むことを特徴とする請求項4に記載の外国語学習システム。
  6. 前記外国語変換サーバは、
    前記スマートメガネから伝送される前記音声信号を前記第3通信部を介して受信し、受信された前記音声信号を前記言語モデルに含まれた音響モデルと比較して音声認識を行い、音響モデルから、音声認識された言語に対応する単語の音響モデル発音を得る音声認識部と、
    前記音声信号と前記音響モデル発音とを比較して前記音声モデルに対する発音評価結果を生成し、前記発音評価結果を前記映像及び音声構成部に伝送して前記スマートメガネに前記学習映像として表示されるようにする発音評価部と、をさらに含むことを特徴とする請求項5に記載の外国語学習システム。
  7. 前記映像及び音声構成部は、
    前記発音評価部から前記音響モデル発音を受信し、前記発音評価結果に対する前記学習映像と共に前記音響モデル発音を前記スマートメガネに伝送することを特徴とする請求項6に記載の外国語学習システム。
  8. 前記映像分析部は、
    前記少なくとも一つの分析対象領域中、前記映像信号で表示される映像の中心から最も近い分析対象領域をハイライト領域として設定することを特徴とする請求項7に記載の外国語学習システム。
  9. 前記位置判別部は、
    前記事物情報に含まれる前記位置情報中、ハイライト領域情報を区分して含むことを特徴とする請求項8に記載の外国語学習システム。
  10. 前記映像及び音声構成部は、
    前記学習映像構成時に、前記ハイライト領域に対応する位置の前記外国語単語をその他の外国語単語と異なる形態で表示することを特徴とする請求項9に記載の外国語学習システム。
  11. 学習者が着用可能であるメガネ形態で実現されるスマートメガネと、事物認識サーバと、外国語変換サーバと、を含む外国語学習システムを用いた外国語学習方法において、
    前記スマートメガネが、前記学習者の視野に対応する映像を得て映像信号を生成するステップと、
    前記事物認識サーバが、前記スマートメガネから前記映像信号を受信し、前記映像信号に含まれた事物に対する事物認識を行って事物情報を生成するステップと、
    前記外国語変換サーバが、前記事物認識サーバから前記事物情報を受信し、前記事物情報に対応する外国語単語に変換し、前記外国語単語を表示するための学習映像及び前記外国語単語に対応する発音を合成音として生成して前記スマートメガネに伝送するステップと、
    前記スマートメガネが、前記学習映像及び前記合成音を受信して前記学習者に出力するステップと、を含む外国語学習方法。
  12. 前記事物情報を生成するステップは、
    前記映像信号を受信し、分析して事物認識を行う少なくとも一つの分析対象領域を設定するステップと、
    前記少なくとも一つの分析対象領域の映像を、前記事物認識サーバに既に格納されている複数個の事物映像データと比較して事物を認識し、認識された事物の事物情報を得るステップと、
    前記分析対象領域及び前記事物情報により、前記事物情報が前記学習映像での表示される位置を判別して位置情報を前記事物情報に含めるステップと、
    前記事物情報を前記外国語変換サーバに伝送するステップと、を含むことを特徴とする請求項11に記載の外国語学習方法。
  13. 前記スマートメガネに伝送するステップは、
    前記事物認識サーバから前記事物情報を受信するステップと、
    前記学習者が学習しようとする学習対象言語に対して既に格納されている言語モデルから前記事物情報に対応する前記外国語単語及び前記外国語単語の発音に対応する発音情報を前記言語モデルを検索して得るステップと、
    前記事物情報に含まれた前記位置情報に基づいて前記外国語単語が表示される前記学習映像を構成し、前記発音情報を基盤にして前記合成音を生成するステップと、
    前記学習映像及び前記合成音を前記スマートメガネに伝送するステップと、を含むことを特徴とする請求項12に記載の外国語学習方法。
  14. 前記外国語学習方法は、
    前記スマートメガネが、前記学習者が発話した音声を得て音声信号を生成し、前記事物認識サーバに伝送するステップと、
    前記外国語変換サーバが、前記音声信号を受信し、受信された前記音声信号を前記言語モデルに含まれた音響モデルと比較して音声認識し、前記音響モデルから、音声認識された言語に対応する単語の音響モデル発音を得るステップと、
    前記外国語変換サーバが、前記音声信号と前記音響モデル発音とを比較して前記音声モデルに対する発音評価結果を生成するステップと、
    前記外国語変換サーバが、前記発音評価結果を前記学習映像に生成するステップと、
    前記外国語変換サーバが、前記発音評価結果に対する前記学習映像及び前記音響モデル発音を前記スマートメガネに伝送するステップと、
    前記スマートメガネが、前記発音評価結果に対する前記学習映像及び前記音響モデル発音を出力するステップと、をさらに含むことを特徴とする請求項13に記載の外国語学習方法。
  15. 前記事物情報を生成するステップは、
    前記少なくとも一つの分析対象領域を設定するステップの後に、前記少なくとも一つの分析対象領域中、前記映像信号で表示される映像の中心から最も近い分析対象領域をハイライト領域として設定するステップをさらに含むことを特徴とする請求項14に記載の外国語学習方法。
  16. 前記合成音を生成するステップは、
    前記学習映像構成時に、前記ハイライト領域に対応する位置の前記外国語単語を他の国語単語と異なる形態で表示することを特徴とする請求項15に記載の外国語学習方法。
  17. 請求項11から請求項16のいずれか1項に記載の外国語学習方法を行うためのコンピューターで読み取り可能なプログラムを記録した記録媒体。
JP2014062320A 2013-08-20 2014-03-25 スマートメガネを用いた外国語学習システム及びその方法 Pending JP2015041101A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20130098444A KR20150021283A (ko) 2013-08-20 2013-08-20 스마트 안경을 이용한 외국어 학습 시스템 및 방법
KR10-2013-0098444 2013-08-20

Publications (1)

Publication Number Publication Date
JP2015041101A true JP2015041101A (ja) 2015-03-02

Family

ID=52695262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014062320A Pending JP2015041101A (ja) 2013-08-20 2014-03-25 スマートメガネを用いた外国語学習システム及びその方法

Country Status (2)

Country Link
JP (1) JP2015041101A (ja)
KR (1) KR20150021283A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182646A (ja) * 2016-03-31 2017-10-05 大日本印刷株式会社 情報処理装置、プログラム及び情報処理方法
CN111539408A (zh) * 2020-04-08 2020-08-14 王鹏 基于拍照识物的智能点读方案
JP2020177689A (ja) * 2016-03-31 2020-10-29 大日本印刷株式会社 情報処理装置、プログラム及び情報処理方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4042401A4 (en) * 2019-09-30 2023-11-01 Learning Squared, Inc. LANGUAGE TEACHING MACHINE
KR102660613B1 (ko) * 2021-02-26 2024-04-25 차형경 언어교육 보조 시스템용 사용자 기기

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012007985A (ja) * 2010-06-24 2012-01-12 Nec Corp 確認業務支援システム、サーバ装置、ヘッドマウントディスプレイ装置、ウェアラブル端末、確認業務支援方法およびプログラム
US20130114849A1 (en) * 2011-11-04 2013-05-09 Microsoft Corporation Server-assisted object recognition and tracking for mobile devices
US20130174205A1 (en) * 2011-12-29 2013-07-04 Kopin Corporation Wireless Hands-Free Computing Head Mounted Video Eyewear for Local/Remote Diagnosis and Repair
US20130194164A1 (en) * 2012-01-27 2013-08-01 Ben Sugden Executable virtual objects associated with real objects
JPWO2013115203A1 (ja) * 2012-01-30 2015-05-11 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012007985A (ja) * 2010-06-24 2012-01-12 Nec Corp 確認業務支援システム、サーバ装置、ヘッドマウントディスプレイ装置、ウェアラブル端末、確認業務支援方法およびプログラム
US20130114849A1 (en) * 2011-11-04 2013-05-09 Microsoft Corporation Server-assisted object recognition and tracking for mobile devices
US20130174205A1 (en) * 2011-12-29 2013-07-04 Kopin Corporation Wireless Hands-Free Computing Head Mounted Video Eyewear for Local/Remote Diagnosis and Repair
US20130194164A1 (en) * 2012-01-27 2013-08-01 Ben Sugden Executable virtual objects associated with real objects
JPWO2013115203A1 (ja) * 2012-01-30 2015-05-11 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182646A (ja) * 2016-03-31 2017-10-05 大日本印刷株式会社 情報処理装置、プログラム及び情報処理方法
JP2020177689A (ja) * 2016-03-31 2020-10-29 大日本印刷株式会社 情報処理装置、プログラム及び情報処理方法
CN111539408A (zh) * 2020-04-08 2020-08-14 王鹏 基于拍照识物的智能点读方案

Also Published As

Publication number Publication date
KR20150021283A (ko) 2015-03-02

Similar Documents

Publication Publication Date Title
JP6463825B2 (ja) 多重話者音声認識修正システム
US8645121B2 (en) Language translation of visual and audio input
CN106575500B (zh) 基于面部结构合成话音的方法和装置
JP6392374B2 (ja) ヘッドマウントディスプレイシステム及びヘッドマウントディスプレイ装置の操作方法
JP2015041101A (ja) スマートメガネを用いた外国語学習システム及びその方法
US20180288109A1 (en) Conference support system, conference support method, program for conference support apparatus, and program for terminal
Shahriar et al. A communication platform between bangla and sign language
Alkhalifa et al. Enssat: wearable technology application for the deaf and hard of hearing
CN111354362A (zh) 用于辅助听障者交流的方法和装置
Priya et al. Indian and english language to sign language translator-an automated portable two way communicator for bridging normal and deprived ones
Chuckun et al. Enabling the Disabled using mHealth
JP6832503B2 (ja) 情報提示方法、情報提示プログラム及び情報提示システム
US9697851B2 (en) Note-taking assistance system, information delivery device, terminal, note-taking assistance method, and computer-readable recording medium
WO2019150708A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
FR2899097A1 (fr) Systeme d'aide pour personne malentendante
KR20220100366A (ko) 시각적 정보를 이용한 통역 결과 제공 방법, 장치 및 시스템
JP2013080362A (ja) 対話型情報発信装置、対話型情報発信方法、及びプログラム
KR101839805B1 (ko) 소리사전 방법 및 이를 이용한 시스템
US20180108356A1 (en) Voice processing apparatus, wearable apparatus, mobile terminal, and voice processing method
KR101883365B1 (ko) 전문가 교정이 가능한 발음 학습 시스템
Joshi et al. Automated electronic pen aiding visually impaired in reading, visualizing and understanding textual contents
KR20130065064A (ko) 음성인식정보를 수화정보로 자동변환시켜 제공하는 시스템
US20230221583A1 (en) Smart glasses to assist those who are deaf or hard of hearing
CN112241462B (zh) 知识点标记生成系统及其方法
KR20180068655A (ko) 음성 신호에 기초한 문자 생성 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190226