JP2009080334A - 言語学習支援方法、言語学習支援装置およびプログラム - Google Patents

言語学習支援方法、言語学習支援装置およびプログラム Download PDF

Info

Publication number
JP2009080334A
JP2009080334A JP2007249986A JP2007249986A JP2009080334A JP 2009080334 A JP2009080334 A JP 2009080334A JP 2007249986 A JP2007249986 A JP 2007249986A JP 2007249986 A JP2007249986 A JP 2007249986A JP 2009080334 A JP2009080334 A JP 2009080334A
Authority
JP
Japan
Prior art keywords
image
answer
attention
word
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007249986A
Other languages
English (en)
Inventor
Hiroyori Nomura
浩順 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007249986A priority Critical patent/JP2009080334A/ja
Publication of JP2009080334A publication Critical patent/JP2009080334A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】既存の画像を活用するとともに、煩わしさを伴わない継続的且つ楽しい言語学習を実現できる。
【解決手段】シソーラスデータベース20から、特定の注目語に関連する関連語を抽出し、画像データベース30から、関連語が付与されている関連画像を抽出し、注目語に対応する注目画像の周辺に関連画像を配置した画面情報を利用者端末10のディスプレイ15で表示する。学習者が答案を入力すると、正解であるか否かが利用者端末10のディスプレイ15で表示される。学習者が気になる関連画像を指示したとき、該関連画像に付与されている文字情報を新たな注目語に設定して、前述の関連語抽出、関連画像抽出および画面情報出力を繰り返す。
【選択図】図1

Description

本発明は、利用者の言語学習を支援する言語学習支援方法、言語学習支援装置およびプログラムに関する。
利用者端末を操作する利用者に対して通信ネットワークを介して言語学習支援を行う方法が知られている。
特許文献1、2には、文字情報(単語又は文章)と画像情報等とをセットにして利用者の端末に送信する構成が開示されている。
特開2002−23615号公報 特開2007−3691号公報
従来は、文字情報とその文字情報に対応する画像情報とがセットで表示されるだけあり、言語学習の流れ自体は慣習的な方法に従っていて、画期性に欠けているため、楽しく学習することができないという課題がある。特に学習初期段階では、煩わしさに因り、継続的な学習を阻害する。
また、デジタルカメラの普及と、画像アップロードが可能なブログ、SNS(Social Networking Service)などのCGM(Consumer Generated Media)サイトの普及に伴い、インターネット上には大量の画像が溢れている現状がある。このような画像には一般にタグと言われるメタデータが付与されており、タグをキーワードにしてネットワーク上の画像を検索することができる。しかしながら、インターネット上の大量な画像は一般に分類、整理されておらず、コンテンツの有効な活用には、まだまだ検討の余地がある。
本発明はこのような事情に鑑みてなされたもので、既存の画像を活用するとともに、煩わしさを伴わない継続的且つ楽しい言語学習を実現できる言語学習支援方法、言語学習支援装置、および、プログラムを提供することを目的とする。
前記目的を達成するために、請求項1に記載の発明は、文字情報が付与されている画像を用いて言語学習を支援する言語学習支援方法であって、文字情報が文字情報間の相互関係によって分類されているシソーラスデータベースから、特定の注目語に関連する関連語を抽出する第1のステップと、前記画像を管理する画像データベースから、前記関連語が付与されている関連画像を抽出する第2のステップと、前記注目語に対応する注目画像の周辺に前記関連画像を配置した画面情報を出力する第3のステップと、前記関連画像が指示されたとき、該関連画像に付与されている文字情報を新たな前記注目語に設定する第4のステップを含み、前記第1から前記第4のステップを繰り返すことを特徴とする言語学習支援方法を提供する。
請求項2に記載の発明は、請求項1に記載の発明において、前記画面情報を出力した状態で前記注目画像によって表されていると想定される答案が入力される答案入力ステップと、前記答案と前記注目画像に付与されている文字情報とを照合するステップと、照合の結果、前記答案が前記注目画像に付与されている場合には正解である旨の判定情報を出力する一方で、前記答案が前記注目画像に付与されていない場合には不正解である旨の判定情報を出力するステップをさらに含むことを特徴とする言語学習支援方法を提供する。
請求項3に記載の発明は、請求項2に記載の発明において、前記答案入力ステップにおいて音声情報が入力され、該音声情報を文字情報に変換することを特徴とする言語学習支援方法を提供する。
請求項4に記載の発明は、請求項2に記載の発明において、前記答案入力ステップにおいて描画情報が入力され、該描画情報を文字情報に変換することを特徴とする言語学習支援方法を提供する。
請求項5に記載の発明は、文字情報が付与されている画像を用いて言語学習を支援する言語学習支援装置であって、文字情報が文字情報間の相互関係によって分類されているシソーラスデータベースから、特定の注目語に関連する関連語を抽出する関連語抽出手段と、前記画像を管理する画像データベースから、前記関連語が付与されている関連画像を抽出する画像抽出手段と、前記注目語に対応する注目画像の周辺に前記関連画像を配置した画面情報を生成する画面情報生成手段と、前記画面情報を出力する画面情報出力手段と、前記関連画像の指示入力を受け付ける画像指示入力手段と、前記関連画像が指示されたとき、該関連画像に付与されている文字情報を新たな前記注目語に設定する更新手段を備えたことを特徴とする言語学習支援装置を提供する。
請求項6に記載の発明は、請求項5に記載の発明において、前記画面情報を出力した状態で前記注目画像によって表されていると想定される答案が入力される答案入力手段と、前記答案と前記注目画像に付与されている文字情報とを照合する照合手段と、前記照合手段による照合の結果、前記答案が前記注目画像に付与されている場合には正解である旨の判定情報を出力する一方で、前記答案が前記注目画像に付与されていない場合には不正解である旨の判定情報を出力する判定出力手段を備えたことを特徴とする言語学習支援装置を提供する。
請求項7に記載の発明は、文字情報が付与されている画像を用いて言語学習を支援するためのプログラムであって、文字情報が文字情報間の相互関係によって分類されているシソーラスデータベースから、特定の注目語に関連する関連語を抽出する第1のステップと、前記画像を管理する画像データベースから、前記関連語が付与されている関連画像を抽出する第2のステップと、前記注目語に対応する注目画像の周辺に前記関連画像を配置した画面情報を出力する第3のステップと、前記関連画像が指示されたとき、該関連画像に付与されている文字情報を新たな前記注目語に設定する第4のステップをコンピュータに繰り返し実行させることを特徴とするプログラムを提供する。
請求項8に記載の発明は、請求項7に記載の発明において、前記画面情報を出力した状態で前記注目画像によって表されていると想定される答案が入力される答案入力ステップと、前記答案と前記注目画像に付与されている文字情報とを照合するステップと、照合の結果、前記答案が前記注目画像に付与されている場合には正解である旨の判定情報を出力する一方で、前記答案が前記注目画像に付与されていない場合には不正解である旨の判定情報を出力するステップをさらに実行させることを特徴とするプログラムを提供する。
本発明によれば、既存の画像を活用するとともに、煩わしさを伴わない継続的且つ楽しい言語学習を実現できる。
以下、添付図面に従って、本発明の実施形態について、詳細に説明する。
図1は、第1実施形態におけるシステム構成図である。
図1において、利用者端末10、シソーラスデータベース20、画像データベース30およびサーバ装置40を含んで、本実施形態の言語学習支援システムが構成されている。
利用者端末10は、マイクロコンピュータなどからなる制御部11と、インターネットなどの通信ネットワーク60を介して、サーバ装置40と通信する通信部12と、マウス、タッチペンなどからなるポインティングデバイス13と、キーボード14と、液晶表示装置(LCD)などからなるディスプレイ15と、ディスプレイ15上に配置されたタッチパネル16を含んで構成されている。
ポインティングデバイス13は、ディスプレイ15に表示された複数の画像のうちから、学習者が任意の画像を指示する操作などに使用される。キーボード14およびタッチパネル16は、学習者が直接的にキーワードを入力する操作などに使用される。
シソーラスデータベース20は、文字情報(単語および/または文章)が文字情報間の相互関係によって分類されているシソーラス(Thesaurus)辞書を管理する。シソーラス辞書は、単に文字順に単語を並べた辞書とは異なり、具体的には、上位/下位関係、部分/全体関係、同義関係、類義関係などによって、文字情報が分類されている辞書である。言い換えると、シソーラスデータベース20は、意味(語彙)によって体系付けられた文字情報を管理している。
画像データベース30は、キーワード(文字情報)が付与されている画像を管理する。画像に付与されている複数のキーワードのうちで、代表するキーワードを、以下では「タグ」ということもある。画像データベース30で管理されている画像は、利用者端末10のディスプレイ15で表示可能である。利用者端末10のディスプレイ15で表示できない画像は、表示可能な画像に変換するようにしてもよい。
本例では、サーバ装置40によって、本発明に係る言語学習支援装置が構成されている。
図2は、図1のサーバ装置40の機能的な構成例を示すブロック図である。
図2において、サーバ装置40は、制御部41、通信部42、関連語抽出部43、画像抽出部44、画面情報生成部45、照合部46、更新部47、および、記憶部48を含んで構成されている。
制御部41は、サーバ装置40を統括制御する。
通信部42は、利用者端末10と通信ネットワーク60を介して通信する。例えば、利用者端末10に対する初期画面情報の出力、初期画面における利用者端末10からのキーワード入力、利用者端末10に対する答案入力用の画面情報の出力、利用者端末10からの答案入力、利用者端末10に対する判定情報出力などを行う。
関連語抽出部43は、注目されている文字情報(以下「注目語」という)をキーワードとして検索を行い、シソーラスデータベース20から、注目語に関連する文字情報(以下「関連語」という)を抽出する。
画像抽出部44は、画像に付与されているキーワードにより検索を行い、画像データベース30から所定の画像を抽出する。例えば、注目語が付与されている画像(以下「注目画像」という)の抽出や、関連語が付与されている画像(以下「関連画像」という)の抽出を行う。
画面情報生成部45は、利用者端末10のディスプレイ15で表示可能な画面情報を生成する。例えば、初期画面情報、注目画像の周辺に関連画像を配置した答案入力用の画面情報、正解または不正解である旨の判定情報、などを生成する。
照合部46は、利用者端末10から通信部42に答案として文字情報が入力されたとき、入力された文字情報と注目画像に付与されている文字情報とを照合する。
更新部47は、注目語の更新を行う。具体的には、関連画像が指示されたとき、その指示された関連画像に付与されているキーワードを新たな注目語に設定する。また、更新部47は、注目語に対応する画像(注目画像)が未抽出である場合には、画像抽出部44を用いて、注目語が付与されている画像を画像データベース30から抽出する。
記憶部48は、各種の情報を記憶する。データベース20、30から抽出された文字情報や画像を一時的に記憶するキャッシュ機能を有する。
制御部41、関連語抽出部43、画像抽出部44、画面情報生成部45、照合部46および更新部47は、例えばマイクロコンピュータおよびその周辺回路によって構成され、通信部42は例えばネットワークアダプタによって構成され、記憶部48は例えばメモリによって構成されている。
なお、本発明における画面情報出力手段、画像指示入力手段、答案入力手段および判定出力手段は、通信部42によって構成されている。
本実施形態における言語学習支援処理の流れの一例について、図3の概略フローチャートを用いて説明する。
図3に示す処理の開始前、利用者端末10のディスプレイ15には、図4に示す初期画面が表示されているものとする。
まず、ステップS2にて、画像クリックまたはキーワード入力が行われる。
画像クリックでは、学習者が、初期画面でアトランダムに並べられている画像から気になる画像をクリックする。例えば、人気ランキング上位の画像、本日登録された画像等である。利用者端末10のポインティングデバイス13(またはタッチパネル16)を用いて、ワンクリックで画像が指示される。指示された画像にタグとして付与されているキーワードは、利用者端末10からサーバ装置40に対して送信される。
キーワード入力では、学習者が、学習したい分野のキーワードを入力する。例えば、「動物」、「花」、「魚」等である。なお、日本語、英語、その他、言語は問わない。本実施形態では、利用者端末10のキーボード14(またはタッチパネル16)を用いて、キーワードが入力される。入力されたキーワードは、利用者端末10からサーバ装置40に対して送信される。
ステップS2でサーバ装置40の通信部42に入力されたキーワードは、初期の注目語として扱われる。以下では、初期の注目語が「動物」である場合を例に、説明する。
ステップS4では、「動物」(注目語)をキーワードとして画像検索を行い、画像データベース30から、「動物」というタグが付与された画像(注目画像)が抽出される。注目画像は、サーバ装置40の記憶部48に一時記憶される。
例えば、猿の画像が画像データベース30から抽出される。この猿の画像には、「動物」のタグのほかに、「猿」、「ボス猿」、「家族」、「ノミとり」といった、複数のキーワードが付与されている。
なお、注目画像が既に抽出されてサーバ装置40の記憶部48に記憶されている場合には、ステップS4を行わなくてもよい。
ステップS6では、「動物」(注目語)をキーワードとして文字情報検索を行い、シソーラスデータベース20から、関連語が抽出される。抽出された関連語は、サーバ装置40の記憶部48に一時記憶される。
例えば、「ペット」、「動物園」、「サバンナ」、「鳥」、「植物」、「馬」、「キリン」、「ライオン」などの関連語が抽出される。注目語に近い文字情報、すなわち注目語との近さを数値で表すスコア(関連度)が規定値以上である文字情報を、抽出することが、望ましい。
ステップS8では、各関連語をキーワードとして画像検索を行い、画像データベース30から、関連画像が抽出される。関連画像は、サーバ装置40の記憶部48に一時記憶される。
例えば、「ペット」、「動物園」、「サバンナ」、「鳥」、「植物」、「馬」、「キリン」、「ライオン」などの関連語が付与されている画像が抽出される。
ステップS10では、注目画像の周辺に関連画像を配置した答案入力用の画面情報が生成される。ステップS12では、答案入力用の画面情報がサーバ装置40から利用者端末10に対して出力されて、利用者端末10のディスプレイ15で表示される。
例えば、図5に示すように、注目画像である猿の画像を略中央に配置し、その周囲に、ペット、動物園、サバンナ、鳥、植物、馬、キリン、ライオンなどの関連画像を配置した画面情報が生成される。
次に、ステップS14にて、注目画像に対する答案が入力される。
図5に示す例では、学習者は、利用者端末10のディスプレイ15の略中央に配置された注目画像およびその周囲に配置された関連画像を視認し、注目画像によって表されていると想定される文字情報を、利用者端末10のキーボード14(またはタッチパネル16)を用いて入力する。すなわち、学習者は、注目画像だけでなく関連画像をも見て連想を働かせて答案する。答案としての文字情報は、利用者端末10からサーバ装置40に対して送信されて、サーバ装置40の通信部42に入力される。
次に、ステップS16にて、答案としての文字情報と、猿の画像(注目画像)に付与されている文字情報とが、照合される。
本例では、画像に複数のキーワードが付与されており、答案としての文字情報と一致するキーワードが注目画像に付与されている場合には正解とし、一致するキーワードが注目画像に付与されていない場合には不正解する。なお、ステップS2で既に「動物」がキーワード入力されている場合には、それ以外のキーワード(「猿」など)を正解とする。
次に、ステップS18にて、正解または不正解である旨の判定情報(照合結果)がサーバ装置40から利用者端末10に対して出力されて、利用者端末10のディスプレイ15で表示される。
例えば、図5に示す画面情報が利用者端末10で表示されているとき、猿の画像(注目画像)に付与されているキーワード(例えば「猿」)が答案として入力された場合には、図6のように正解を示す「○」が表示される。猿の画像(注目画像)に付与されているキーワードが答案として入力されなかった場合には、図7のように不正解を示す「×」が表示される。図6または図7に示す画面情報の全体をサーバ装置40で生成し、利用者端末10に対して送信してもよい。
次に、ステップS26にて、学習者が、次に学習したい画像を指示入力する。例えば、図6に示す画面において、左上の「ペット」の画像を、利用者端末10のポインティングデバイス13を用いて、ワンクリックで指示する。指示された関連画像にタグとして付与されているキーワード(「ペット」)は、利用者端末10からサーバ装置40に対して送信される。
次に、ステップS28にて、注目語を更新する。すなわち、学習者によって指示された関連画像に付与されている文字情報が、新たな注目語に設定される。
本例では、画像に複数のキーワードが付与されているので、そのうちのひとつが注目語に設定される。なお、表示済みの「ペット」以外のキーワードを注目語とする。
次に、ステップS6へ戻って、新たな注目語に関連する新たな関連語が、シソーラスデータベース20から抽出される。ステップS8では、新たな関連語が付与されている新たな関連画像が、画像データベース30から抽出される。ステップS10では、注目画像の周辺に関連画像を配置した新たな答案入力用の画面情報が、生成される。ステップS12では、新たな答案入力用の画面情報が、サーバ装置40から利用者端末10に対して出力されて、図8に示すように利用者端末10のディスプレイ15で表示される。
図8では、「ペット」が付与された注目画像が略中央に配置され、その周囲に、「トリミング」、「ペットグッズ」、「ペットフード」、「インコ」、「イグアナ」、「うさぎ」、「猫」、「ハムスター」がそれぞれ付与された関連画像が配置されている。
ステップS14では、注目画像に対する答案が入力される。ステップS16では、照合が行われ、ステップS18では、判定情報(照合結果)がサーバ装置40から利用者端末10に対して出力されて、利用者端末10のディスプレイ15で表示される。ステップS26にて、次に学習したい画像が指示入力されると、ステップS28にて、注目語が更新され、ステップS6に戻る。
以上のようにして、ステップS6からステップS28までが繰り返される。したがって、学習者は、注目画像と関連画像とを見ながら直感的(右脳的)な言語学習をすることができるとともに、関連画像をワンクリックにより次々に自由にたどりながら言語学習できることになり、煩わしさを伴わない継続的且つ楽しい言語学習を実現できる。すなわち、簡便性、継続できるアミューズメント性および自由度を従来よりも高めたシステムを実現できる。また、インターネット上に溢れている画像とその画像に付与されている文字情報とを用いることができるので、低コストで単語学習を実施できる。
図9は、第2実施形態におけるシステム構成図である。なお、図1に示した第1実施形態と同じものには同じ符号を付してあり、既に説明した内容については、ここではその説明を省略する。
図9において、本実施形態の利用者端末10は、ポインティングデバイス13と、ディスプレイ15とを備えるほか、マイクロフォンを有する音声入力装置17と、スピーカを有する音声出力装置18と、タッチペンなどによる描画入力が可能な描画入力装置19とを備える。なお、図示を省略したが、第1実施形態と同様に、キーボード14およびタッチパネル16をさらに備えていてもよい。
本例では、サーバ装置40によって、本発明に係る言語学習支援装置が構成されている。
図10の概略フローチャートは、本実施形態における言語学習支援処理の流れの一例を示す。
図10に示す処理の開始前、利用者端末10のディスプレイ15には、図4に示す初期画面が表示されているものとする。
まず、ステップS2にて、画像クリックまたはキーワード入力、が行われる。画像クリックは、第1実施形態で説明した通りである。
キーワード入力は、本例では、音声入力装置17または描画入力装置19を用いて行われる。音声入力装置17で入力された音声情報や、描画入力装置19によって入力された描画情報は、利用者端末10の制御部11によって、文字情報に変換される。変換された文字情報は、キーワードとして、利用者端末10からサーバ装置40に対して送信される。文字情報への変換を、サーバ装置40の制御部41によって行う構成としてもよい。
変換して得られた文字情報(例えば「動物」)は、初期の注目語として扱われる。
なお、ステップS4〜S12は、第1実施形態において説明した処理と概略は同じであり、ここでは相違点のみを簡単に説明する。
本実施形態では、図11に示すように、答案入力用画面において、キーワードは非表示である。すなわち、ステップS10において、キーワードを含まない画面情報を生成する。
また、本実施形態では、ステップS14にて、利用者端末10の音声入力装置17または描画入力装置19を用いて答案を入力する。
音声入力装置17によって入力された音声情報や、描画入力装置19によって入力された描画情報は、利用者端末10の制御部11によって文字情報に変換される。変換された文字情報は、答案として、利用者端末10からサーバ装置40に対して送信される。文字情報への変換を、サーバ装置40の制御部41によって行う構成としてもよい。
ステップS16、S18は、第1実施形態において説明した処理と同じである。すなわち、ステップS16にて、答案としての文字情報と、注目画像(例えば猿の画像)に付与されている文字情報とが照合される。また、ステップS18にて、判定情報(照合結果)がサーバ装置40から利用者端末10に対して出力されて、利用者端末10のディスプレイ15で表示される。判定情報は、音声情報として、利用者端末10の音声出力装置18から出力してもよい。
本実施形態では、ステップS20にて、正解であったか否かを判定し、不正解であった場合には、ステップS22にて、学習者が再答案するか否かのいずれを選択したかを判定する。詳細には、利用者端末10の音声入力装置17(またはポインティングデバイス13)用いて、再答案するか否かの選択が入力され、その選択結果が利用者端末10からサーバ装置40に対して送信されるので、この選択結果を参照する。
再答案が選択された場合には、ステップS14へ戻る。再答案しないことが選択された場合には、ステップS24にて正解が出力される。例えば、正解の文字情報がサーバ装置40から利用者端末10に対して送信されて、利用者端末10のディスプレイ15に表示される。音声情報として利用者端末10の音声出力装置18から出力してもよい。その後、ステップS26へ進んで、正解であった場合と同様に、学習したい画像の指示入力が可能となる。
本実施形態においても、第1実施形態と同様に、注目画像および関連画像を見ながら直感的(右脳的)な言語学習をすることができるとともに、関連画像をワンクリックで次々に自由にたどりながら言語学習をすることができることになり、煩わしさを伴わない継続的且つ楽しい言語学習を実現できる。すなわち、言語学習システムの簡便性、継続できるアミューズメント性および自由度を従来よりも高めた、言語学習システムを実現できる。また、インターネット上に溢れている画像とその画像に付与されている文字情報とを用いればよいので、低コストで単語学習を実施できる。
さらに、本実施形態では、言語学習者は、発声および描画の二通りの方法で言語学習を行うことができる。
図12(A)〜(C)は、答案入力用の画面情報における注目画像51および関連画像52の配置の説明に用いる説明図である。
図12(A)は、第1実施形態での図5、および、第2実施形態での図11に示したように、注目画像51を画面の略中央に配置し、その周囲に円状に関連画像52を配置した例を示す。図12(B)は、注目画像51の右辺および下辺に沿って関連画像52を配置した例を示す。図12(C)は、注目画像51の右辺のみに沿って関連画像52を配置した例を示す。注目画像の右辺のみ、上辺のみ、または、左辺のみに沿って関連画像52を配置してもよい。このように、注目画像51の「周辺」に関連画像52を配置すればよい。また、注目画像51のサイズよりも関連画像52のサイズを小さくして表示することが、望ましい。関連画像52はサムネイル画像を用いてもよい。
また、第1実施形態および第2実施形態において、サーバ装置40によって本発明の言語学習支援装置を構成した場合を例に説明したが、このような場合に特に限定されない。例えば、図2に示した画面情報生成部45、照合部46および更新部47を利用者端末10に設け、利用者端末10の制御部11によって、所定の言語学習アプリケーションプログラムに従い図3または図10の言語学習支援処理を実行する。すなわち、利用者端末10とサーバ装置40によって本発明に係る言語学習支援装置を構成する。
この場合、サーバ装置40の関連語抽出部43が、シソーラスデータベース20から関連語を抽出し、サーバ装置40の画像抽出部43が、画像データベース30から関連画像を抽出し、サーバ装置40から利用者端末10に対して関連画像を送信して、利用者端末40において答案入力用の画面情報を生成して出力する。また、利用者端末10で注目画像に対する答案が入力されると、利用者端末10において、答案と注目画像に付与されている文字情報とを照合し、判定情報を生成して出力する。利用者端末10で関連画像が指示入力されたときには、利用者端末10において、注目語を更新する。
また、スタンドアローン型の利用者端末10によって本発明に係る言語学習支援装置を構成してもよい。例えば、図2に示した関連語抽出部43、画像抽出部44、画面情報生成部45、照合部46および更新部47を利用者端末10に設け、利用者端末10の制御部11によって、所定の言語学習アプリケーションプログラムに従い図3または図10の言語学習支援処理を実行する。
スタンドアローン型では、利用者端末10において、シソーラスデータベース20(スタンドアローン型では利用者端末10に接続されている)から関連語を抽出し、画像データベース30(スタンドアローン型では利用者端末10に接続されている)から関連画像を抽出し、答案入力用の画面情報を生成して出力する。また、利用者端末10で注目画像に対する答案が入力されると、利用者端末10において、答案と注目画像に付与されている文字情報とを照合し、判定情報を生成して出力する。利用者端末10で関連画像が指示入力されたときには、利用者端末10において、注目語を更新する。
なお、第1実施形態および第2実施形態において、文字情報として単語(例えば「猿」、「ノミとり」など)を入力して答案する場合を例に説明したが、文字情報として文章(例えば「猿がノミとりをしています」)を入力して答案する場合にも、本発明を適用できることは、言うまでもない。このような文章を答案する構成では、答案と画像に付与された文字情報との照合は、全部一致を正解とする場合に特に限定されず、文章中の所定の単語が一致する場合を正解としてよいことは、もちろんである。例えば、画像に「猿」と「ノミとり」が付与されている場合、「猿がノミとりをしています」を正解としてよい。
本発明は、本明細書において説明した例や図面に図示された例には限定されず、本発明の要旨を逸脱しない範囲において、各種の設計変更や改良を行ってよいのはもちろんである。
第1実施形態におけるシステム構成図 サーバ装置の一例を示すブロック図 第1実施形態における言語学習支援処理の流れの一例を示すフローチャート 初期画面の一例を示す図 第1実施形態における答案入力用画面の一例を示す図 正解したときの画面の一例を示す図 不正解のときの画面の一例を示す図 次の答案入力用画面の一例を示す図 第2実施形態におけるシステム構成図 第2実施形態における言語学習支援処理の流れの一例を示すフローチャート 第2実施形態における答案入力用画面の一例を示す図 注目画像および関連画像の配置の説明に用いる説明図
符号の説明
10…利用者端末、13…利用者端末のポインティングデバイス、14…利用者端末のキーボード、15…利用者端末のディスプレイ、16…利用者端末のタッチパネル、17…利用者端末の音声入力装置、18…利用者端末の音声出力装置、19…利用者端末の描画入力装置、20…シソーラスデータベース、30…画像データベース、40…サーバ装置、60…通信ネットワーク

Claims (8)

  1. 文字情報が付与されている画像を用いて言語学習を支援する言語学習支援方法であって、
    文字情報が文字情報間の相互関係によって分類されているシソーラスデータベースから、特定の注目語に関連する関連語を抽出する第1のステップと、
    前記画像を管理する画像データベースから、前記関連語が付与されている関連画像を抽出する第2のステップと、
    前記注目語に対応する注目画像の周辺に前記関連画像を配置した画面情報を出力する第3のステップと、
    前記関連画像が指示されたとき、該関連画像に付与されている文字情報を新たな前記注目語に設定する第4のステップと、
    を含み、前記第1から前記第4のステップを繰り返すことを特徴とする言語学習支援方法。
  2. 前記画面情報を出力した状態で前記注目画像によって表されていると想定される答案が入力される答案入力ステップと、
    前記答案と前記注目画像に付与されている文字情報とを照合するステップと、
    照合の結果、前記答案が前記注目画像に付与されている場合には正解である旨の判定情報を出力する一方で、前記答案が前記注目画像に付与されていない場合には不正解である旨の判定情報を出力するステップと、
    をさらに含むことを特徴とする請求項1に記載の言語学習支援方法。
  3. 前記答案入力ステップにおいて音声情報が入力され、該音声情報を文字情報に変換することを特徴とする請求項2に記載の言語学習支援方法。
  4. 前記答案入力ステップにおいて描画情報が入力され、該描画情報を文字情報に変換することを特徴とする請求項2に記載の言語学習支援方法。
  5. 文字情報が付与されている画像を用いて言語学習を支援する言語学習支援装置であって、
    文字情報が文字情報間の相互関係によって分類されているシソーラスデータベースから、特定の注目語に関連する関連語を抽出する関連語抽出手段と、
    前記画像を管理する画像データベースから、前記関連語が付与されている関連画像を抽出する画像抽出手段と、
    前記注目語に対応する注目画像の周辺に前記関連画像を配置した画面情報を生成する画面情報生成手段と、
    前記画面情報を出力する画面情報出力手段と、
    前記関連画像の指示入力を受け付ける画像指示入力手段と、
    前記関連画像が指示されたとき、該関連画像に付与されている文字情報を新たな前記注目語に設定する更新手段と、
    を備えたことを特徴とする言語学習支援装置。
  6. 前記画面情報を出力した状態で前記注目画像によって表されていると想定される答案が入力される答案入力手段と、
    前記答案と前記注目画像に付与されている文字情報とを照合する照合手段と、
    前記照合手段による照合の結果、前記答案が前記注目画像に付与されている場合には正解である旨の判定情報を出力する一方で、前記答案が前記注目画像に付与されていない場合には不正解である旨の判定情報を出力する判定出力手段と、
    を備えたことを特徴とする請求項5に記載の言語学習支援装置。
  7. 文字情報が付与されている画像を用いて言語学習を支援するためのプログラムであって、
    文字情報が文字情報間の相互関係によって分類されているシソーラスデータベースから、特定の注目語に関連する関連語を抽出する第1のステップと、
    前記画像を管理する画像データベースから、前記関連語が付与されている関連画像を抽出する第2のステップと、
    前記注目語に対応する注目画像の周辺に前記関連画像を配置した画面情報を出力する第3のステップと、
    前記関連画像が指示されたとき、該関連画像に付与されている文字情報を新たな前記注目語に設定する第4のステップと、
    をコンピュータに繰り返し実行させることを特徴とするプログラム。
  8. 前記画面情報を出力した状態で前記注目画像によって表されていると想定される答案が入力される答案入力ステップと、
    前記答案と前記注目画像に付与されている文字情報とを照合するステップと、
    照合の結果、前記答案が前記注目画像に付与されている場合には正解である旨の判定情報を出力する一方で、前記答案が前記注目画像に付与されていない場合には不正解である旨の判定情報を出力するステップと、
    をさらに実行させることを特徴とする請求項7に記載のプログラム。
JP2007249986A 2007-09-26 2007-09-26 言語学習支援方法、言語学習支援装置およびプログラム Pending JP2009080334A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007249986A JP2009080334A (ja) 2007-09-26 2007-09-26 言語学習支援方法、言語学習支援装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007249986A JP2009080334A (ja) 2007-09-26 2007-09-26 言語学習支援方法、言語学習支援装置およびプログラム

Publications (1)

Publication Number Publication Date
JP2009080334A true JP2009080334A (ja) 2009-04-16

Family

ID=40655117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007249986A Pending JP2009080334A (ja) 2007-09-26 2007-09-26 言語学習支援方法、言語学習支援装置およびプログラム

Country Status (1)

Country Link
JP (1) JP2009080334A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110826301A (zh) * 2019-09-19 2020-02-21 厦门快商通科技股份有限公司 标点符号添加方法、系统、移动终端及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110826301A (zh) * 2019-09-19 2020-02-21 厦门快商通科技股份有限公司 标点符号添加方法、系统、移动终端及存储介质
CN110826301B (zh) * 2019-09-19 2023-12-26 厦门快商通科技股份有限公司 标点符号添加方法、系统、移动终端及存储介质

Similar Documents

Publication Publication Date Title
US11586827B2 (en) Generating desired discourse structure from an arbitrary text
US20170017635A1 (en) Natural language processing system and method
US9892103B2 (en) Social media guided authoring
US8909637B2 (en) Context-based ranking of search results
CN109101533B (zh) 自动化阅读理解
US8412728B1 (en) User interface (UI) for presentation of match quality in auto-complete suggestions
US20150024351A1 (en) System and Method for the Relevance-Based Categorizing and Near-Time Learning of Words
CN110770694A (zh) 获得来自多个语料库的响应信息
US20220405484A1 (en) Methods for Reinforcement Document Transformer for Multimodal Conversations and Devices Thereof
US8027991B2 (en) Enhanced searching using a thesaurus
US20190295199A1 (en) Intelligent legal simulator
CN108780439A (zh) 用于内容丰富且用于教导阅读并实现理解的系统和方法
KR20200014047A (ko) 시맨틱 트리플 기반의 지식 확장 시스템, 방법 및 컴퓨터 프로그램
US11769013B2 (en) Machine learning based tenant-specific chatbots for performing actions in a multi-tenant system
Borges et al. Semantic-enhanced recommendation of video lectures
Wahde et al. DAISY: an implementation of five core principles for transparent and accountable conversational AI
JP2017182646A (ja) 情報処理装置、プログラム及び情報処理方法
US20210149900A1 (en) Method, system and computer program for semantic triple-based knowledge extension
Graham Investigating Google’s Search Engine: Ethics, Algorithms, and the Machines Built to Read Us
KR20200124836A (ko) 콘텐츠 분석 기반의 인공지능 책쓰기 가이딩 시스템
Zhao et al. Mining user intents to compose services for end-users
Knops A strategic-relational account of language use, discourse, and reason
CN110580313A (zh) 一种数据处理方法、装置和用于数据处理的装置
JP2009080334A (ja) 言語学習支援方法、言語学習支援装置およびプログラム
Bennett-Kapusniak Baby boomers and technology: Factors and challenges in utilizing mobile devices