JP6200450B2 - 教育支援システム及び端末装置 - Google Patents

教育支援システム及び端末装置 Download PDF

Info

Publication number
JP6200450B2
JP6200450B2 JP2015093669A JP2015093669A JP6200450B2 JP 6200450 B2 JP6200450 B2 JP 6200450B2 JP 2015093669 A JP2015093669 A JP 2015093669A JP 2015093669 A JP2015093669 A JP 2015093669A JP 6200450 B2 JP6200450 B2 JP 6200450B2
Authority
JP
Japan
Prior art keywords
phrase
reproduction
unit
log data
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015093669A
Other languages
English (en)
Other versions
JP2016212169A (ja
Inventor
西澤 達夫
達夫 西澤
佑介 田代
佑介 田代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shinano Kenshi Co Ltd
Original Assignee
Shinano Kenshi Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shinano Kenshi Co Ltd filed Critical Shinano Kenshi Co Ltd
Priority to JP2015093669A priority Critical patent/JP6200450B2/ja
Priority to PCT/JP2016/061339 priority patent/WO2016175005A1/ja
Priority to US15/557,735 priority patent/US10636316B2/en
Publication of JP2016212169A publication Critical patent/JP2016212169A/ja
Application granted granted Critical
Publication of JP6200450B2 publication Critical patent/JP6200450B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/08Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/08Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
    • G09B5/14Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations with provision for individual teacher-student communication
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Operations Research (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、学習用デジタルコンテンツによる教育支援システム及び教育支援システムの端末装置に関する。
電子データとしてあらかじめ記憶されている電子図書を音声として再生する装置が従来から知られている(例えば、特許文献1参照)。この特許文献1に開示されている装置は、DAISY(Digital Accessible Information SYstem)規格によるデジタルコンテンツを再生する装置であり、特に視覚に障害がある人たちが読書を楽しむことが出来るように、本に記載されている文章情報を音声として読み上げることができる装置である。
上記のようなデジタルコンテンツの再生において、近年のネットワーク環境の整備に伴ってe-learningが普及しつつある(例えば、特許文献2参照)。
e-learningの利用方法として、デジタルコンテンツをe-learningによって児童生徒に配信し、児童生徒が一人ひとり操作する端末を操作し、学習用のデジタルコンテンツを再生することが採用できる。
特開2000−057752号公報 特開2004−61788号公報
児童生徒が学習用デジタルコンテンツを再生して学習を行う場合、児童生徒を指導する指導者側で、再生終了直後に学習の進捗状況を把握、管理する必要性がある。
また、児童生徒自身も、再生終了直後に再生状況を確認した方が、自身の読解力の把握をしやすい。
そこで、本発明は上記課題を解決すべくなされ、その目的とするところは、指導者及び児童生徒自身が、効果的かつ効率的な学習を行えるような情報を付与できる教育支援システム及び端末装置を提供する。
本発明にかかる教育支援システムによれば、テキストデータ及び該テキストデータを読み上げてなる音声データを含むデジタルコンテンツのテキストデータを表示する端末表示部と、デジタルコンテンツの音声データを音声出力する音声出力部と、前記端末表示部及び前記音声出力部によって再生されたデジタルコンテンツのフレーズごとに、少なくとも該フレーズのID情報及び該フレーズの再生開始時間を再生ログデータとして記憶する再生ログデータ記憶部と、該再生ログデータ記憶部に記憶された再生ログデータを送信する送信部と、を有する1又は複数の端末装置と、各前記端末装置から送信された再生ログデータを受信する受信部と、該受信部によって受信された各前記端末装置の再生ログデータをデジタルコンテンツのフレーズごとに再生に要した時間及び再生回数に変換するデータ変換部と、該データ変換部によって変換されたデジタルコンテンツのフレーズごとの再生に要した時間及び再生回数を表示するサーバ表示部と、前記サーバ表示部に表示させる再生ログデータのフレーズの文字列を縦方向に配置し、該フレーズの文字列の再生に要した時間を各文字列の右側に配置したマス目の横方向の長さで示すとともに、フレーズごとの再生回数を同一画面上で表示させる表示制御部と、を有するサーバ装置とを具備することを特徴としている。
この構成を採用することによって、端末装置によって再生されたデジタルコンテンツの再生ログデータがサーバ装置によって表示され、児童生徒の学習の進捗状況を容易に把握できる。
また、各前記端末装置は、端末表示部の表示面と同じ方向を向くカメラと、カメラで撮像された端末装置の操作者の目の画像を解析することにより操作者の視線方向を算出し、算出された視線が端末表示部に表示されているデジタルコンテンツの文章のいずれの箇所に向いているかを検出する視線検出手段とを有し、該視線検出手段によって検出された視線を受けた箇所は、前記再生ログデータと関連付けして前記再生ログデータ記憶部に記憶され、前記サーバ装置の前記表示制御部は、前記サーバ表示部に表示させるフレーズの文字列に関連付けして視線が向いていた文字列を表示することを特徴としてもよい。
この構成によれば、端末装置の操作者のコンテンツ再生中の視線位置を、容易に把握することができる。このため、例えば問題文に対して回答を検討する際に正しい箇所を視線が追っているか否かを容易に把握することができる。
また、各前記端末装置は、端末表示部がタッチパネルであり、デジタルコンテンツの再生時に端末装置の操作者が端末表示部をタップした場合にタップされた箇所が端末表示部に表示されているデジタルコンテンツの文章のいずれの箇所かを検出するタップ位置検出手段とを有し、該タップ位置検出手段によって検出されたタップされた箇所は、前記再生ログデータと関連付けして前記再生ログデータ記憶部に記憶され、前記サーバ装置の前記表示制御部は、前記サーバ表示部に表示させるフレーズの文字列に関連付けしてタップされた文字列を表示することを特徴としてもよい。
この構成によれば、端末装置の操作者が表示部をタップした部分を、容易に把握することができる。このため、例えば問題文に対して回答を検討する際に正しい箇所をタップしているか否かを容易に把握することができる。
また、各前記端末装置は、少なくとも文字書式、文字の色、及び音声出力条件を含む再生時設定情報を、前記サーバ装置及び当該端末装置の双方からの指示によって設定可能であって、設定された条件でデジタルコンテンツの表示及び音声出力を実行させる再生条件設定部を備えることを特徴としてもよい。
この構成によれば、再生時の条件を各端末装置の操作者が自ら設定できるとともに、サーバ装置の操作者も各端末装置の再生時の条件を設定できる。このため、サーバ装置の操作者が学習の進捗状況等に基づいて、これに適した条件を設定することができる。
また、各前記端末装置は、各前記端末装置の操作者が操作した内容も再生ログデータとして再生ログデータ記憶部に記憶することを特徴としてもよい。
この構成によれば、各端末装置でどのような操作がされたかも確実に把握できる。
本発明にかかる端末装置によれば、テキストデータ及び該テキストデータを読み上げてなる音声データを含むデジタルコンテンツのテキストデータを表示する表示部と、デジタルコンテンツの音声データを音声出力する音声出力部と、前記表示部及び前記音声出力部によって再生されたデジタルコンテンツのフレーズごとに、少なくとも該フレーズのID情報及び該フレーズの再生開始時間を再生ログデータとして記憶する再生ログデータ記憶部と、該再生ログデータ記憶部の再生ログデータをデジタルコンテンツのフレーズごとに再生に要した時間及び再生回数に変換するデータ変換部と、該データ変換部によって変換された再生ログデータのフレーズの文字列を縦方向に配置し、該フレーズの文字列の再生に要した時間を各文字列の右側に配置したマス目の横方向の長さで示すとともに、フレーズごとの再生回数を同一画面上で表示させる表示制御部と、を具備することを特徴としている。
この構成を採用することによって、端末装置によって再生されたデジタルコンテンツの再生ログデータを表示させることができるので、児童生徒自身が、学習の進捗状況を容易に把握できる。
また、表示部の表示面と同じ方向を向くカメラと、カメラで撮像された操作者の目の画像を解析することにより操作者の視線方向を算出し、算出された視線が表示部に表示されているデジタルコンテンツの文章のいずれの箇所に向いているかを検出する視線検出手段とを備え、該視線検出手段によって検出された視線を受けた箇所は、前記再生ログデータと関連付けして前記再生ログデータ記憶部に記憶され、前記表示制御部は、前記表示部に表示させるフレーズの文字列に関連付けして視線が向いていた文字列を表示することを特徴としてもよい。
この構成によれば、児童生徒自身が、自分の視線位置を、容易に把握することができる。このため、例えば問題文に対して回答を検討する際に正しい箇所を視線が追っているか否かを容易に把握することができる。
また、前記視線検出手段によって検出された視線を受けた箇所は、テキストデータ表示中の表示部に表示されることを特徴としてもよい。
この構成によれば、視線の位置をリアルタイムで操作者に把握させることができる。
また、表示部がタッチパネルであり、デジタルコンテンツの再生時に操作者が表示部をタップした場合にタップされた箇所が表示部に表示されているデジタルコンテンツの文章のいずれの箇所かを検出するタップ位置検出手段とを有し、該タップ位置検出手段によって検出されたタップされた箇所は、前記再生ログデータと関連付けして前記再生ログデータ記憶部に記憶され、前記表示制御部は、前記表示部に表示させるフレーズの文字列に関連付けしてタップされた文字列を表示することを特徴としてもよい。
この構成によれば、児童生徒自身が、自分が表示部をタップした部分を、容易に把握することができる。このため、例えば問題文に対して回答を検討する際に正しい箇所をタップしているか否かを容易に把握することができる。
また、操作者が操作した内容も再生ログデータとして再生ログデータ記憶部に記憶することを特徴としてもよい。
この構成によれば、各端末装置でどのような操作がされたかも確実に把握できる。
本発明によれば、児童生徒の読解力の支援を実現できる。
本発明の教育支援システムの全体構成を示す説明図である。 端末装置の内部構成を示すブロック図である。 端末装置の表示部を示す説明図である。 サーバ装置の内部構成を示すブロック図である 再生ログデータの例を示す説明図である。 再生に要した時間と再生回数のグラフを示す説明図である。 再生に要した時間と、再生回数と、視線位置と、タップ位置のグラフを示す説明図である。 再生に要した時間と、視線位置とのグラフを示す説明図である。 再生に要した時間と、視線位置との他のグラフを示す説明図である。 端末装置の他の構成を示すブロック図である。 端末装置でテキストデータと共に視線位置を表示させる例を示す説明図である。
本発明にかかる教育支援システムの全体構成を図1に示す。
教育支援システム20は、1又は複数のサーバ装置30と、1又は複数の端末装置40とを備えている。図1では、1台のサーバ装置30に、複数の端末装置40がインターネット等のネットワーク21を介して接続されているところを示している。
教育支援システム20は、児童生徒一人一人が少なくとも1台の端末装置40を所有しているものであり、各端末装置40において学習用デジタルコンテンツをサーバ装置30からダウンロードして各児童生徒が学習用デジタルコンテンツを視聴するものである。学習用デジタルコンテンツとしては、DAISY規格による電子図書を採用している。児童生徒が端末装置40を操作して学習用デジタルコンテンツを再生することで、学習用デジタルコンテンツの文章部分が端末装置に表示されるとともに表示された文章部分に対応する音声データを端末装置が読み上げるように動作する。
また、サーバ装置30は、児童生徒の指導者又は教師など、児童生徒を束ねる立場にある者が操作可能とするものである。
端末装置40の構成を示す図2に基づいて、端末装置40について説明をする。
端末装置40は、インターネットに接続可能な携帯端末であるタブレット端末(スレート型PC)を採用することができる。
端末装置40は、タッチパネルを採用した表示部41と、インターネットに接続するためのインターフェース部42と、CPU及びメモリ等から構成される制御部44と、音声を出力するスピーカ47とを備えている。なお、特許請求の範囲の端末表示部は、上記の表示部41が該当する。また、特許請求の範囲の音声出力部は、上記のスピーカ47が該当する。
端末装置40は、サーバ装置30に記憶されているデジタルコンテンツを再生する再生ソフトウェアAを備えている。再生ソフトウェアは、サーバ装置30からダウンロードしたデジタルコンテンツを再生可能(ダウンロードしながら再生するストリーミング再生を含む)な機能を有するプログラムから構成されている。再生ソフトウェアAは、半導体メモリなどの記憶部46に記憶されており、制御部44が再生ソフトウェアAを読み出して実行することでデジタルコンテンツの再生が行われる。
端末装置40は、少なくとも文字書式、文字の色、及び音声出力条件を含む再生時設定情報を設定することができる。この再生時設定情報に基づいてデジタルコンテンツの再生が行われる。再生時設定情報として、さらに具体的には、文字の書体、文字の大きさ、音声再生速度などを挙げることができる。
端末装置40は、再生時設定情報を端末装置40の操作者(児童生徒)によって設定可能であって、設定された条件でデジタルコンテンツの表示及び音声出力を実行させる再生条件設定部49を有している。
なお、再生条件設定部49は、端末装置40の操作者(児童生徒)だけでなく、サーバ装置30からも操作可能に設けられている。すなわち、サーバ装置30の操作者(指導者)によって、各児童生徒に適した再生時の設定を行うことができ、学習効果を上げることができる。
本実施形態におけるデジタルコンテンツは、電子図書であるとする。電子図書の規格としては、デジタル録音図書であるDAISY規格などが代表的である。
DAISY規格の電子図書データは、smil(Synchronized Multimedia Integration Language)ファイルと、見出し情報が記述されたnccファイル又はncxファイルと、表示部41に表示可能なテキストデータを記述したhtmlファイル又はxmlファイルと、テキストデータを読み上げた音声データファイルとを備えている。
smilファイルは、マークアップ言語の一種であり、htmlファイル又はxmlファイル内の各フレーズの表示する順番と、各フレーズに対応する音声データファイルの再生開始・終了時間が記述されている。
端末装置40において、制御部44が再生ソフトウェアAを実行すると、所定のデジタルコンテンツのフレーズごとにテキストデータが表示部41に表示される。また、端末装置の操作者(児童生徒)が後述する再生ボタン50をタップすることにより、表示部41に表示されているテキストデータに該当する部分の音声データファイルがテキストデータと同期してスピーカ47から音声出力される。
再生ソフトウェアAの実行に伴い、端末装置40の表示部41には、例えば図3に示すような画面が表示される。
この図に示す例では、右から左方向にデジタルコンテンツ中の文章の一部が表示されている。また、文章の下部には、再生ボタン50、早送りボタン52、巻き戻しボタン54、次ページボタン56、前ページボタン58が表示されている。
表示部41は、タッチパネルであるので、操作者(児童生徒)が、上記の再生ボタン50、早送りボタン52、巻き戻しボタン54、次ページボタン56、前ページボタン58のいずれか、または聞きたいフレーズを直接タップすることによって、再生ソフトウェアAは各動作を実行する。
例えば、操作者(児童生徒)が再生ボタン50をタップすると、再生ソフトウェアAは表示部41に表示されている文章に対応する音声データファイルを再生する。
音声データファイルの再生が終了すると、操作者(児童生徒)は、理解が進まなかった場合は、巻き戻しボタン54をタップすることによって、もう一度同じフレーズを再生できる。
また、次のページに進む場合には、次ページボタン56をタップすることで、再生ソフトウェアは、次のフレーズの文章を表示部41に表示させる。
音声データファイルの再生が行われると、1つのフレーズごとのフレーズのID情報と再生開始時間が再生ログデータとして記憶部46に記憶される。なお、その他に再生ログデータとしては、日時、端末装置40において操作された操作情報(再生ボタンや停止ボタンなどの操作)、再生情報(フレーズの内容)、サーバ装置30からの設定値変更情報などを含むデータ等も含む。
再生ソフトウェアは、ピンチイン及びピンチアウトについても対応可能である。操作者(児童生徒)がピンチインをすると、再生ソフトウェアが表示部41に表示されている各文字を縮小し、さらに多くの文字を表示させる。したがって、1画面当たりにおける表示文字数が増加することとなる。
一方、操作者(児童生徒)がピンチアウトをすると、再生ソフトウェアが表示部41に表示されている各文字を拡大し、表示されている文字数を減らす。したがって、1画面当たりにおける表示文字数が減少することとなる。
ピンチイン又はピンチアウトすることに伴って、1画面ごとの再生時間も異なってくるが、再生ログデータとしては、1つのフレーズ単位で再生時間とともに画面に表示されている先頭のフレーズと最後のフレーズもログとして記憶することで、ピンチイン又はピンチアウトの操作を記録することができる。同様に、スクロールの操作も記録することができる。
記憶部46に記憶された再生ログデータは、1つの学習用デジタルコンテンツの再生が終了したのちに、まとめてサーバ装置30へ送信される。再生ログデータの送信タイミングとしては、再生ソフトウェアAが再生終了のタイミングで送信を行えばよい。
ただし、再生ログデータのサーバ装置30への送信は、1つフレーズにおける再生時間の検出が終了する都度、フレーズごとの再生ログデータを送信してもよい。
端末装置40には、表示部41の表面と同一方向を向くカメラ70が設けられている。カメラ70は、表示部41を操作する操作者(児童生徒)の方を向くように配置されている。カメラ70は、レンズと撮像素子とを有している。カメラ70には、撮影された画像から視線を検出する視線検出部75が接続されている。
視線検出部75は、演算装置及びメモリ等から構成されており、撮像素子からのデータが入力され、視線を検出する。
視線検出の方法としては種々のものがある。例えば、視線検出部75は、撮影された画像の中から瞳孔の位置と角膜反射を検出することにより、視線の位置を決定することができる。また、別の方法としては、視線検出部75が瞳孔の中心を検出し、この瞳孔の中心位置を視線位置とする方法がある。
視線検出部75は、視線位置を連続して検出する。検出された視線位置は、視線上に表示されているテキストデータのフレーズの再生ログデータと共に、記憶部46に記憶される。
また、視線検出部75は、検出された視線が同じ位置で停止している場合、その停止時間も計測する。計測された視線の停止時間は、再生ログデータと共に、記憶部46に記憶される。
なお、カメラ70の動作は、表示部41に表示される視線追尾ボタン(図示せず)を操作者(児童生徒)がタップすることにより開始される。また、カメラ70の動作終了も、表示部41に表示される視線追尾ボタン(図示せず)を操作者(児童生徒)がタップすることにより終了する。
ただし、カメラ70の動作を、操作者(児童生徒)が指示した場合にのみ行うのではなく、再生ソフトウェアAが起動した後、デジタルコンテンツの再生と共に自動的にカメラ70も自動的に視線位置の検出を行ってもよい。
さらに、端末装置40は、学習用デジタルコンテンツを再生中に、操作者(児童生徒)が表示部41をタップした場合に、その位置を検出するタップ位置検出部72を備えている。タップ位置検出部72は、表示部41からのタップの検出信号に基づいて、再生ソフトウェアAによって再生されている学習用デジタルコンテンツのいずれのテキストデータの箇所でタップされているかを検出する。このタップ位置検出部72は制御部44の一機能として設けられていてもよい。
次に、サーバ装置30の構成を図4に示す。
サーバ装置30は一般的なコンピュータ(PC)を採用することができる。サーバ装置30は、HDD等から構成される記憶部60と、インターネットに接続するためのインターフェース部62と、CPU及びメモリ等から構成される制御部64と、モニタ等で構成される表示部63と、マウス及びキーボード等を含む入力部65とを備えている。
なお、特許請求の範囲のサーバ表示部は、上記の表示部63が該当し、特許請求の範囲の受信部は、上記のインターフェース部62が該当し、特許請求の範囲の表示制御部は、上記の制御部64が後述する表示ソフトウェアを実行することで実現される。
サーバ装置30では、各端末装置40から送信されてきた再生ログデータ(視線位置、タップ位置があればそれを含めたデータ)をインターフェース部62で受信し、記憶部60に記憶している。
サーバ装置30の制御部64は、記憶部60に記憶されている再生ログデータ(少なくともフレーズごとのID情報及びフレーズごとの再生開始時間を含む)を、フレーズごとに再生に要した時間及びフレーズごとの再生回数に変換し、変換したフレーズごとに再生に要した時間及びフレーズごとの再生回数を表示部63に表示させることができる。すなわち、特許請求の範囲でいうデータ変換部は、制御部64がデータ変換機能を実現する。
ここで、再生ログデータの構成を図5に示す。
各端末装置40にて生成される再生ログデータは、何らかの操作ボタンが操作された日時、操作の内容、端末装置40の状態、タイトル名、再生ファイル名、フレーズID、該当フレーズのテキストデータが含まれている。
制御部64は、フレーズごとの再生開示時間と次のフレーズの再生開始時間に基づいて、各フレーズの再生に要した時間を算出する。また、制御部64は、フレーズごとのファイル名に関して同じファイル名がいくつ存在するかに基づいて、各フレーズの再生回数を算出する。
制御部64によって再生ログデータから算出された、各フレーズの再生に要した時間及び各フレーズの再生回数の表示は、あらかじめ記憶部60に記憶されていた表示ソフトウェアBによって実行される。
図6及び図7に、表示部63に表示される各フレーズの再生に要した時間及び各フレーズの再生回数の表示例を示す。
図6のグラフは、横軸に時間を表し、縦軸は上から学習用デジタルコンテンツの文頭で下が文末となるように、文章を所定の範囲(フレーズ範囲)で区切っている。また、再生回数はグラフ右側において、横軸を再生回数にした棒グラフで表現している。
具体的に説明すると、縦軸の欄には、学習用デジタルコンテンツの文章がフレーズ範囲で区切られ、区切られた文字列が上から順番に表示されている。このフレーズに対応する再生時間が横軸のマス目の長さで表示される。
なお、この学習用デジタルコンテンツは、文末に問題文が表示される。児童生徒は、問題文に対して、表示された学習用デジタルコンテンツを巻き戻して該当箇所を検討することになる。
図6では、グラフが文末まで到達した後、児童生徒が再度問題文の箇所を巻き戻して表示させていることがわかる。また、その後に空白部分があるが、この時間は、児童生徒が紙の問題文を見ている時間である。そして、紙の問題文を見た後、3回ほど巻き戻して再生したことがわかる。
その後にも空白部分がある。この時間は、児童生徒が回答を記入している時間である。
一方、グラフの右端では、所定箇所ごとの再生回数が右方向に積み重ねられるような棒グラフで表示されるので、児童生徒がいずれの箇所をよく再生したかが容易に判明する。
再生回数をみると、本来の正答箇所を再生した回数が少なく、誤回答した箇所の再生箇所が多いことがわかる。したがって、児童生徒の文章の内容の理解度が低かったことが判明する。また、どの部分で誤答したのかが明確になるので、児童生徒に対する今後の指導の参考になる。
図7では、児童生徒の視線位置及びタップ位置を各フレーズの再生に要した時間及び各フレーズの再生回数と共に表示したところを示している。
図7のグラフも横軸に時間を表し、縦軸は上から学習用デジタルコンテンツの文頭で下が文末となるように、文章のフレーズで区切っている。また、再生回数はグラフ右側において、横軸を再生回数にした棒グラフで表現している。これらの点は、図6と同様である。
図7のグラフでは、各フレーズの再生時間を示すマス目内に、そのフレーズに視線が存在した場合には、丸印を表示させている。丸印は、マス目の色と異なる色で表示させるとよい。視線の位置が判明することにより、児童生徒が文章を確実に読んでいたかどうかの判断を容易にすることができる。
さらに、図7のグラフでは、児童生徒が端末装置40の表示部41をタップしていた箇所の再生時間を示すマス目の色を、他の箇所のマス目の色と異ならせて表示している。児童生徒がタップした位置が判明することにより、児童生徒が文書を確実に読んでいたかどうかの判断を容易にすることができる。
図7では、2回目に再生した際(文末の問題文を読んだ後)には、途中で早送りした箇所がある。この箇所は、問題文に対する回答とは無関係であるが、1回目の再生時に児童生徒は、この箇所が問題文に対する回答とは無関係であることを認識したうえで早送りしているので、児童生徒が文章をよく理解していることが判断できる。
なお、グラフ右端の再生回数(図面上では再生頻度と表示)の棒グラフにより、再生回数が多い箇所が判断でき、再生時間が大きい箇所も判断できるので、児童生徒にとって文章中の理解が難しい箇所が容易に把握できる。
図8に示すグラフは、ある児童生徒Xが、デジタルコンテンツの再生に要した時間及び視線位置を示すグラフである。上に示すグラフは、表示部41においてフレーズごとのハイライト表示なし、及び音声再生なしで視線位置のみを示したものである。下に示すグラフは、表示部41においてフレーズごとにハイライト表示させた場合であって、且つ音声再生も行った場合の各フレーズの再生に要した時間と視線位置を示すグラフである。
なお、図8の[で表されている箇所は、1画面分に表示している先頭のフレーズと最後のフレーズとを示している。
なお、ハイライト表示とは、表示部41において、他の箇所と背景色を変更して所定のフレーズを目立たせるように表示させる表示方法をいう。操作者(児童生徒)は再生条件設定部49を操作することによって、ハイライト表示するかしないかを設定することができる。
図8の上のグラフの例で、ハイライトなし、音声出力もなしの場合には、同じフレーズを何度も見ていたり、1つのフレーズに視線が長く滞留していることで、この児童生徒Xの読みが遅くなっていることがわかる。
図8の下のグラフの例で、ハイライトあり、音声出力ありの場合には、読みの速度が速く、画面外も含めて視線の暴れが多く、視覚で文字を読んでおらず、音声の情報保障により読みの速度が速くなっていることがわかる。
視線位置が表示部41ではなく、表示部41の外に位置する場合もある。このような場合、再生ソフトウェアAは、下のグラフのようにグラフの最下部に視線位置を表示させるようにすればよい。グラフの最下部に視線位置が表示されている場合、この箇所ではデジタルコンテンツをほとんど読んでいないことがわかる。
図9に示すグラフは、ある児童生徒Yが、デジタルコンテンツの再生に要した時間及び視線位置を示すグラフである。上に示すグラフは、表示部41においてフレーズごとのハイライト表示なし、及び音声再生なしで視線位置のみを示したものである。下に示すグラフは、表示部41においてフレーズごとにハイライト表示させた場合であって、且つ音声再生も行った場合の各フレーズの再生に要した時間と視線位置を示すグラフである。
図9の上のグラフと下のグラフとでは、両者の読みの速度に大きな差はないことがわかる。
図8のグラフと図9のグラフとの互いの下のグラフどうしを比較すると、図9のグラフの方が再生に要した時間のマス目と視線位置とが一致しており、再生に要した時間のマス目の傾きが急であるので、児童生徒Yの方が視覚によっても正確にデジタルコンテンツを読んでいることがわかる。
次に、端末装置40自体が、図6〜図9のような表示を行う例について説明する。
この場合の端末装置40の構成を図10に示す。なお、上述した構成要素と同一の構成要素については同一の符号を付し、説明を省略する場合もある。
端末装置40の制御部44は、記憶部46に記憶されている再生ログデータ(少なくともフレーズごとのID情報及びフレーズごとの再生開始時間を含む)を、フレーズごとに再生に要した時間及びフレーズごとの再生回数に変換し、変換したフレーズごとに再生に要した時間及びフレーズごとの再生回数を表示部41に表示させることができる。
各フレーズの再生に要した時間及び各フレーズの再生回数の表示は、あらかじめ記憶部46に記憶されていた表示ソフトウェアBが制御部44に読み出されることによって実行される。
このとき、各フレーズの再生に要した時間及び各フレーズの再生回数のみを表示する場合、端末装置40の表示部41には、図6に示した内容と同一の内容が表示される。
また、各フレーズの再生に要した時間及び各フレーズの再生回数と、視線位置と、タップ位置とを合わせて端末装置40の表示部41に表示する場合、図7に示した内容と同一の内容が表示される。
また、デジタルコンテンツの再生に要した時間及び視線位置を示すグラフとして、フレーズごとのハイライト表示なし及び音声再生なしで視線位置のみを示したグラフ、並びにフレーズごとにハイライト表示させた場合であって、且つ音声再生も行った場合の各フレーズの再生に要した時間と視線位置を示すグラフを、端末装置40の表示部41に表示する場合、図8又は図9に示した内容と同一の内容が表示される。
これらの表示を端末装置40で実行することによって、児童生徒自身が、文章の内容の理解度を認識することができる。
また、端末装置40は、学習用デジタルコンテンツの再生中に、検出した視線位置を表示できる。この例を図11に示す。
端末装置40の再生ソフトウェアAは、カメラ70によって撮影され、視線検出部75によって検出された視線位置をリアルタイムで表示する。再生ソフトウェアAは、高速再生中に視線位置を丸い形状で表示する。
なお、上述してきた実施形態は、録音された音声データを再生するものについて説明してきた。しかし、録音された音声データが無く、テキストデータを音声データに変換するTTS(text to speech)システムを採用することも可能である。ただし、TTSシステムを採用する場合、端末装置40においてTTS機能を備えた制御部を設けることが必要となる。
以上本発明につき好適な実施形態を挙げて種々説明したが、本発明はこの実施形態に限定されるものではなく、発明の精神を逸脱しない範囲内で多くの改変を施し得るのはもちろんである。
20 教育支援システム
21 ネットワーク
30 サーバ装置
40 端末装置
41 表示部
42 インターフェース部
44 制御部
46 記憶部
47 スピーカ
49 再生条件設定部
50 再生ボタン
52 早送りボタン
54 巻き戻しボタン
56 次ページボタン
58 前ページボタン
60 記憶部
62 インターフェース部
63 表示部
64 制御部
65 入力部
70 カメラ
72 タップ位置検出部
75 視線検出部

Claims (10)

  1. テキストデータ及び該テキストデータを読み上げてなる音声データを含むデジタルコンテンツのテキストデータを表示する端末表示部と、デジタルコンテンツの音声データを音声出力する音声出力部と、前記端末表示部及び前記音声出力部によって再生されたデジタルコンテンツのフレーズごとに、少なくとも該フレーズのID情報及び該フレーズの再生開始時間を再生ログデータとして記憶する再生ログデータ記憶部と、該再生ログデータ記憶部に記憶された再生ログデータを送信する送信部と、を有する1又は複数の端末装置と、
    各前記端末装置から送信された再生ログデータを受信する受信部と、該受信部によって受信された各前記端末装置の再生ログデータをデジタルコンテンツのフレーズごとに再生に要した時間及び再生回数に変換するデータ変換部と、該データ変換部によって変換されたデジタルコンテンツのフレーズごとの再生に要した時間及び再生回数を表示するサーバ表示部と、前記サーバ表示部に表示させる再生ログデータのフレーズの文字列を縦方向に配置し、該フレーズの文字列の再生に要した時間を各文字列の右側に配置したマス目の横方向の長さで示すとともに、フレーズごとの再生回数を同一画面上で表示させる表示制御部と、を有するサーバ装置とを具備することを特徴とする教育支援システム。
  2. 各前記端末装置は、
    端末表示部の表示面と同じ方向を向くカメラと、
    カメラで撮像された端末装置の操作者の目の画像を解析することにより操作者の視線方向を算出し、算出された視線が端末表示部に表示されているデジタルコンテンツの文章のいずれの箇所に向いているかを検出する視線検出手段とを有し、
    該視線検出手段によって検出された視線を受けた箇所は、前記再生ログデータと関連付けして前記再生ログデータ記憶部に記憶され、
    前記サーバ装置の前記表示制御部は、前記サーバ表示部に表示させるフレーズの文字列に関連付けして視線が向いていた文字列を表示することを特徴とする請求項1記載の教育支援システム。
  3. 各前記端末装置は、
    端末表示部がタッチパネルであり、
    デジタルコンテンツの再生時に端末装置の操作者が端末表示部をタップした場合にタップされた箇所が端末表示部に表示されているデジタルコンテンツの文章のいずれの箇所かを検出するタップ位置検出手段とを有し、
    該タップ位置検出手段によって検出されたタップされた箇所は、前記再生ログデータと関連付けして前記再生ログデータ記憶部に記憶され、
    前記サーバ装置の前記表示制御部は、前記サーバ表示部に表示させるフレーズの文字列に関連付けしてタップされた文字列を表示することを特徴とする請求項1又は請求項2記載の教育支援システム。
  4. 各前記端末装置は、
    少なくとも文字書式、文字の色、及び音声出力条件を含む再生時設定情報を、前記サーバ装置及び当該端末装置の双方からの指示によって設定可能であって、設定された条件でデジタルコンテンツの表示及び音声出力を実行させる再生条件設定部を備えることを特徴とする請求項1〜請求項3のうちのいずれか1項記載の教育支援システム。
  5. 各前記端末装置は、
    各前記端末装置の操作者が操作した内容も再生ログデータとして再生ログデータ記憶部に記憶することを特徴とする請求項1〜請求項4のうちのいずれか1項記載の教育支援システム。
  6. テキストデータ及び該テキストデータを読み上げてなる音声データを含むデジタルコンテンツのテキストデータを表示する表示部と、
    デジタルコンテンツの音声データを音声出力する音声出力部と、
    前記表示部及び前記音声出力部によって再生されたデジタルコンテンツのフレーズごとに、少なくとも該フレーズのID情報及び該フレーズの再生開始時間を再生ログデータとして記憶する再生ログデータ記憶部と、
    該再生ログデータ記憶部の再生ログデータをデジタルコンテンツのフレーズごとに再生に要した時間及び再生回数に変換するデータ変換部と、
    該データ変換部によって変換された再生ログデータのフレーズの文字列を縦方向に配置し、該フレーズの文字列の再生に要した時間を各文字列の右側に配置したマス目の横方向の長さで示すとともに、フレーズごとの再生回数を同一画面上で表示させる表示制御部と、を具備することを特徴とする端末装置。
  7. 表示部の表示面と同じ方向を向くカメラと、
    カメラで撮像された操作者の目の画像を解析することにより操作者の視線方向を算出し、算出された視線が表示部に表示されているデジタルコンテンツの文章のいずれの箇所に向いているかを検出する視線検出手段とを備え、
    該視線検出手段によって検出された視線を受けた箇所は、前記再生ログデータと関連付けして前記再生ログデータ記憶部に記憶され、
    前記表示制御部は、前記表示部に表示させるフレーズの文字列に関連付けして視線が向いていた文字列を表示することを特徴とする請求項6記載の端末装置。
  8. 前記視線検出手段によって検出された視線を受けた箇所は、テキストデータ表示中の表示部に表示されることを特徴とする請求項7記載の端末装置。
  9. 表示部がタッチパネルであり、
    デジタルコンテンツの再生時に操作者が表示部をタップした場合にタップされた箇所が表示部に表示されているデジタルコンテンツの文章のいずれの箇所かを検出するタップ位置検出手段とを有し、
    該位置検出手段によって検出されたタップされた箇所は、前記再生ログデータと関連付けして前記再生ログデータ記憶部に記憶され、
    前記表示制御部は、前記表示部に表示させるフレーズの文字列に関連付けしてタップされた文字列を表示することを特徴とする請求項6〜請求項8のうちのいずれか1項記載の端末装置。
  10. 操作者が操作した内容も再生ログデータとして再生ログデータ記憶部に記憶することを特徴とする請求項6〜請求項9のうちのいずれか1項記載の端末装置。
JP2015093669A 2015-04-30 2015-04-30 教育支援システム及び端末装置 Active JP6200450B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015093669A JP6200450B2 (ja) 2015-04-30 2015-04-30 教育支援システム及び端末装置
PCT/JP2016/061339 WO2016175005A1 (ja) 2015-04-30 2016-04-07 教育支援システム及び端末装置
US15/557,735 US10636316B2 (en) 2015-04-30 2016-04-07 Education support system and terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015093669A JP6200450B2 (ja) 2015-04-30 2015-04-30 教育支援システム及び端末装置

Publications (2)

Publication Number Publication Date
JP2016212169A JP2016212169A (ja) 2016-12-15
JP6200450B2 true JP6200450B2 (ja) 2017-09-20

Family

ID=57199703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015093669A Active JP6200450B2 (ja) 2015-04-30 2015-04-30 教育支援システム及び端末装置

Country Status (3)

Country Link
US (1) US10636316B2 (ja)
JP (1) JP6200450B2 (ja)
WO (1) WO2016175005A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7142441B2 (ja) * 2018-02-23 2022-09-27 シャープ株式会社 出力装置、データ出力システム、及び出力方法
JP6813196B2 (ja) * 2019-04-11 2021-01-13 学校法人新潟青陵学園 学習システム、学習プログラム及び学習方法
JP6864041B2 (ja) * 2019-06-27 2021-04-21 株式会社ドワンゴ 情報記憶方法および情報記憶システム
US11568506B2 (en) 2020-07-14 2023-01-31 Skyllful Inc. System of and method for facilitating on-device training and creating, updating, and disseminating micro-learning simulations

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000057752A (ja) 1998-08-10 2000-02-25 Shinano Kenshi Co Ltd 音声による文章情報再生装置
JP2004061788A (ja) * 2002-07-29 2004-02-26 Infinitekku:Kk ネットワークシステム
US20050191604A1 (en) * 2004-02-27 2005-09-01 Allen William H. Apparatus and method for teaching dyslexic individuals
JP4997601B2 (ja) * 2006-11-30 2012-08-08 独立行政法人産業技術総合研究所 音声データ検索用webサイトシステム
JP2011096173A (ja) * 2009-11-02 2011-05-12 Nec Corp 情報提供システム、情報提供端末、情報提供サーバ、情報提供方法および情報提供プログラム
US20110262887A1 (en) * 2010-04-21 2011-10-27 Lc Technologies Inc. Systems and methods for gaze based attention training
JP5752572B2 (ja) * 2011-11-24 2015-07-22 シャープ株式会社 表示制御装置、表示方法、制御プログラム、および記録媒体
JP2014089443A (ja) * 2012-10-03 2014-05-15 Tottori Univ 文字音読指導装置および文字音読指導プログラム
JP5994117B2 (ja) * 2014-11-28 2016-09-21 株式会社サイトビジット Eラーニングシステム

Also Published As

Publication number Publication date
US10636316B2 (en) 2020-04-28
JP2016212169A (ja) 2016-12-15
WO2016175005A1 (ja) 2016-11-03
US20180068575A1 (en) 2018-03-08

Similar Documents

Publication Publication Date Title
US9904666B2 (en) Interactive environment for performing arts scripts
JP6044553B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6200450B2 (ja) 教育支援システム及び端末装置
JP2011516924A (ja) マルチモードの学習システム
KR100900085B1 (ko) 외국어 학습 제어방법
US11620252B2 (en) System for recorded e-book digital content playout
KR20160111294A (ko) 읽기 및 쓰기 학습 기능을 구비한 외국어 학습 시스템 및 외국어 학습 방법
JP6277958B2 (ja) 再生装置、設定装置、再生方法およびプログラム
KR100900081B1 (ko) 외국어 학습 제어방법
JP2008122482A (ja) 語学学習カード及び語学学習システム
KR100850046B1 (ko) 전자 강의 장치
US10460178B1 (en) Automated production of chapter file for video player
JP2006337490A (ja) コンテンツ配信システム
JP6230131B2 (ja) 教育支援システム及び端末装置
JP6200449B2 (ja) 教育支援システム及び端末装置
JP6155102B2 (ja) 学習支援装置
JP2017009875A (ja) 学習支援装置およびプログラム
JP6508350B2 (ja) 再生制御方法及び再生制御システム
JP6494002B2 (ja) 要約筆記学習支援システム、要約筆記学習支援装置、要約筆記学習の支援方法、及びプログラム
KR101051602B1 (ko) 외국어 학습기 및 학습방법
KR101074018B1 (ko) 학습 보조 장치
KR101110644B1 (ko) 전자책의 독서속도 향상 방법 및 장치
JP6620437B2 (ja) 学習支援装置およびプログラム
JPH0525473U (ja) 楽器教習支援装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170825

R150 Certificate of patent or registration of utility model

Ref document number: 6200450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250