JP2019144507A - Output device, data output system, and outputting method - Google Patents

Output device, data output system, and outputting method Download PDF

Info

Publication number
JP2019144507A
JP2019144507A JP2018031098A JP2018031098A JP2019144507A JP 2019144507 A JP2019144507 A JP 2019144507A JP 2018031098 A JP2018031098 A JP 2018031098A JP 2018031098 A JP2018031098 A JP 2018031098A JP 2019144507 A JP2019144507 A JP 2019144507A
Authority
JP
Japan
Prior art keywords
data
memo
terminal device
audio
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018031098A
Other languages
Japanese (ja)
Other versions
JP7142441B2 (en
Inventor
沢田 裕司
Yuji Sawada
裕司 沢田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2018031098A priority Critical patent/JP7142441B2/en
Publication of JP2019144507A publication Critical patent/JP2019144507A/en
Application granted granted Critical
Publication of JP7142441B2 publication Critical patent/JP7142441B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an output device which, when one of audio and memo datasets is selected, allows for easily referring to the other dataset.SOLUTION: In order to clear the above challenge, an output device (1) according to an embodiment of the present invention is configured to store an audio dataset and memo dataset in association with each other and, when one dataset of the audio dataset corresponding to a certain chronological period and a target section of the memo dataset is selected, output the other dataset associated with the one dataset.SELECTED DRAWING: Figure 1

Description

本発明の一様態は、出力装置、データ出力システム、及びデータの出力方法に関する。   One embodiment of the present invention relates to an output device, a data output system, and a data output method.

近年、学校等において、各生徒が、ノートパソコン、タブレット等の端末を所持しての授業が行われている。各生徒は、例えば、教科書、参考書等を読む場合や電子的にメモを取る場合に、当該端末を用いる。   2. Description of the Related Art In recent years, classes are being held in schools and the like in which each student has a terminal such as a laptop computer or tablet. Each student uses the terminal, for example, when reading textbooks, reference books, etc., or taking notes electronically.

以下の特許文献1では、端末装置を用いて授業を受けた場合において、開いていた電子教科書のページと電子黒板の板書データとを関連付けて記録することにより、当該授業を復習する際に生じる手間を軽減できる情報処理システムが開示されている。   In the following Patent Document 1, when taking a class using a terminal device, it is troublesome to review the class by associating and recording the open electronic textbook page and the blackboard data on the electronic blackboard. An information processing system that can reduce the risk is disclosed.

特開2016−138930号公報(2016年8月4日公開)JP 2006-138930 A (released on August 4, 2016)

しかしながら、上述のような従来技術は、ユーザが授業を録音し、後から確認する場合に、メモデータと録音データとの対応箇所を探す手間がかかるという問題がある。   However, the conventional technology as described above has a problem that it takes time and effort to search for a corresponding portion between the memo data and the recorded data when the user records the lesson and confirms it later.

本発明の一態様は、上記の問題に鑑みてなされたものであり、音声データ又はメモデータを選択した場合に、もう一方のデータを容易に参照することができる出力装置(端末装置)を実現することを目的とする。   One aspect of the present invention has been made in view of the above problem, and when audio data or memo data is selected, an output device (terminal device) that can easily refer to the other data is realized. The purpose is to do.

上記の課題を解決するために、本発明の一態様に係る出力装置は、音声データとメモデータとを関連付けて記憶し、上記音声データの時系列上のある区間、及びメモデータにおける対象箇所の一方が選択された場合に、当該一方に関連付けられた他方のデータを出力する。   In order to solve the above problems, an output device according to an aspect of the present invention stores voice data and memo data in association with each other, and stores a certain section on the time series of the voice data and a target portion in the memo data. When one is selected, the other data associated with the one is output.

本発明の一態様によれば、音声データ又はメモデータを選択した場合に、もう一方のデータを容易に参照することができる出力装置を実現できる。   According to one aspect of the present invention, when audio data or memo data is selected, an output device that can easily refer to the other data can be realized.

実施形態1に係る端末装置の機能ブロック図である。3 is a functional block diagram of a terminal device according to Embodiment 1. FIG. 実施形態1に係る処理の流れを示すフローチャートである。3 is a flowchart showing a flow of processing according to the first embodiment. ユーザがノート表示部に対して、書き込みを行う例を示す図である。It is a figure which shows the example which a user writes in with respect to a note display part. メモデータの例を示す図である。It is a figure which shows the example of memo data. ユーザが電子書籍表示部に対して、書き込みを行う例を示す図である。It is a figure which shows the example which a user writes in with respect to an electronic book display part. 操作履歴データの例を示す図である。It is a figure which shows the example of operation history data. 表示制御部が、表示部に電子書籍データ、電子ノート、音声波形図を表示させた例を示す図である。It is a figure which shows the example in which the display control part displayed the electronic book data, the electronic note, and the audio | voice waveform diagram on the display part. 電子ノート、電子書籍データ、及び音声データを相互に参照する例を示す図である。It is a figure which shows the example which mutually refers an electronic notebook, electronic book data, and audio | voice data. 音声データ、メモデータ、操作履歴データ、又はそれらの対応関係を編集する画面の例を示す図である。It is a figure which shows the example of the screen which edits audio | voice data, memo data, operation history data, or those correspondence. 実施形態1の変形例に係る端末装置の機能ブロック図である。It is a functional block diagram of the terminal device which concerns on the modification of Embodiment 1. 実施形態2に係る端末装置及びサーバの機能ブロック図である。It is a functional block diagram of the terminal device and server which concern on Embodiment 2. FIG. 実施形態2に係る処理の流れを示すフローチャートである。10 is a flowchart showing a flow of processing according to the second embodiment. 端末装置またはサーバとして利用可能なコンピュータの構成を例示したブロック図である。It is the block diagram which illustrated the composition of the computer which can be used as a terminal unit or a server.

本発明の実施形態について、図1〜図12に基づいて説明すれば以下の通りである。   The embodiment of the present invention will be described with reference to FIGS.

〔実施形態1〕
以下、本発明の一実施形態について、図1〜図9に基づいて説明する。
Embodiment 1
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, an embodiment of the invention will be described with reference to FIGS.

本実施形態においては、ユーザが、端末装置を用いて授業等に関する各データを記録し、のちに参照する構成について説明する。   In the present embodiment, a configuration will be described in which a user records each data related to a class using a terminal device and refers to it later.

〔1.端末装置1の構成〕
図1に基づいて本実施形態に係る端末装置1(出力装置1)の構成について説明する。端末装置1は、ユーザによる所定の操作等に起因してデータの入出力が可能なタブレット等の装置である。
[1. Configuration of Terminal Device 1]
Based on FIG. 1, the structure of the terminal device 1 (output device 1) which concerns on this embodiment is demonstrated. The terminal device 1 is a device such as a tablet that can input and output data due to a predetermined operation by a user.

図1は、本実施形態に係る端末装置1の機能ブロック図である。図1に示す通り、端末装置1は、制御部10、記憶部20、表示部30、音声取得部41、及び音声出力部42を備える。   FIG. 1 is a functional block diagram of a terminal device 1 according to the present embodiment. As illustrated in FIG. 1, the terminal device 1 includes a control unit 10, a storage unit 20, a display unit 30, a voice acquisition unit 41, and a voice output unit 42.

制御部10は、端末装置1全体を統括する制御装置であって、表示制御部11及び音声出力制御部12を備える。表示制御部11は、表示部30の画面表示に係る制御を行う。音声出力制御部12は、音声出力部42による音声出力に係る制御を行う。   The control unit 10 is a control device that controls the entire terminal device 1, and includes a display control unit 11 and an audio output control unit 12. The display control unit 11 performs control related to the screen display of the display unit 30. The audio output control unit 12 performs control related to audio output by the audio output unit 42.

記憶部20は、各種データを保持する記憶装置であって、音声データ21、メモデータ22、操作履歴データ23、及び電子書籍データ24を格納する。音声データ21は、例えば会議、インタビュー、又は授業等(本明細書において授業等と適宜呼称する。)を録音した音声を示すデータである。メモデータ22は、ユーザが表示部30を介して端末装置1に対して入力した、テキスト又はイラストを示すデータである。操作履歴データ23は、電子書籍等に対するユーザの操作履歴を示すデータである。   The storage unit 20 is a storage device that holds various data, and stores audio data 21, memo data 22, operation history data 23, and electronic book data 24. The voice data 21 is data indicating a voice in which a conference, an interview, a class, or the like (referred to as a class or the like in this specification as appropriate) is recorded, for example. The memo data 22 is data indicating text or an illustration input to the terminal device 1 by the user via the display unit 30. The operation history data 23 is data indicating a user operation history for an electronic book or the like.

電子書籍データ24は、例えば教科書、参考書、又はプリント等(本明細書において電子書籍等と適宜呼称する。)の一部又は全部を示すデータである。電子書籍データ24は、テキスト、画像、又はその両方を含んでいてもよい。なお、本明細書において、上述した各データを呼称する場合には、当該各データが、当該各データの一部であるか全部であるかを区別しない。   The electronic book data 24 is data indicating a part or the whole of, for example, a textbook, a reference book, a print, or the like (referred to as an electronic book or the like in this specification as appropriate). The electronic book data 24 may include text, images, or both. In addition, in this specification, when calling each data mentioned above, it is not distinguished whether each said data is a part or all of the said each data.

表示部30は、電子書籍表示部31及びノート表示部32を備えた、画面表示が可能なタッチパネルである。ユーザは、表示部30を介して端末装置1に対する操作を行ってもよい。電子書籍表示部31は、電子書籍データ24に由来する電子書籍等の内容を表示する。ノート表示部32は、ユーザがノートとして使用するページを表示する。電子書籍表示部31及びノート表示部32は、表示部30の一部又は全部の領域に相当し、各々のサイズは可変であってもよい。   The display unit 30 includes a digital book display unit 31 and a notebook display unit 32 and is a touch panel capable of screen display. The user may perform an operation on the terminal device 1 via the display unit 30. The electronic book display unit 31 displays the contents of an electronic book or the like derived from the electronic book data 24. The notebook display unit 32 displays a page that the user uses as a notebook. The electronic book display unit 31 and the notebook display unit 32 correspond to part or all of the area of the display unit 30, and each size may be variable.

〔2.処理の流れ〕
本実施形態における処理の流れについて図1〜図9に基づいてステップごとに説明する。図2は、本実施形態に係る処理の流れを示すフローチャートである。以下、一例として、授業を受けているユーザ(生徒)の各々が端末装置1を所持している場合を想定して説明を行う。
[2. Process flow
The flow of the process in this embodiment is demonstrated for every step based on FIGS. FIG. 2 is a flowchart showing a flow of processing according to the present embodiment. Hereinafter, as an example, a description will be given on the assumption that each user (student) taking a class has the terminal device 1.

なお、端末装置1が取りうる状態としては、授業等に関する各データの記録を行う記録モードと、ユーザが当該各データを参照するモードである再生モードとがある。   Note that the terminal device 1 can be in a recording mode in which each data related to a class or the like is recorded and a reproduction mode in which the user refers to the data.

(S101)
ステップS101からステップS105までは、ユーザが端末装置1を用いて授業に関する各データを記録する処理、つまり上述した記録モードにおける処理である。ステップS101において、表示制御部11は、ユーザの端末装置1に対する所定の操作により、電子書籍データ24を電子書籍表示部31に表示させ、電子的なノート(本明細書において電子ノートと適宜呼称する。)をノート表示部32に表示させる。
(S101)
Steps S <b> 101 to S <b> 105 are processes in which the user records each data related to the lesson using the terminal device 1, that is, processes in the recording mode described above. In step S101, the display control unit 11 causes the electronic book data 24 to be displayed on the electronic book display unit 31 by a predetermined operation on the terminal device 1 by the user, and an electronic notebook (referred to as an electronic notebook in this specification as appropriate). .) Is displayed on the note display unit 32.

なお、制御部10がメモデータ22を参照し、表示制御部11が、前回の授業までにおけるユーザの書き込みであって、電子書籍データ24及び電子ノートに対する書き込みも電子書籍表示部31及びノート表示部32に表示させても構わない。次いで、制御部10は、ユーザが電子書籍データ24及び電子ノートに対して書き込んだ内容を取得し、メモデータ22として記憶部20に随時保存する処理を開始する。   Note that the control unit 10 refers to the memo data 22, and the display control unit 11 is a user's writing up to the previous lesson, and writing to the electronic book data 24 and the electronic notebook is also the electronic book display unit 31 and the notebook display unit. 32 may be displayed. Next, the control unit 10 starts the process of acquiring the content written by the user with respect to the electronic book data 24 and the electronic notebook, and storing it as memo data 22 in the storage unit 20 as needed.

(S102)
続いて、ステップS102において、制御部10は、音声取得部41に授業の音声を取得させ、当該音声を示す音声データ21を記憶部20に随時保存する処理を開始する。この時、録音開始時刻を合わせて記憶部20に記録する。また、音声データの記録中、音声の出力レベルが閾値以下の期間が一定時間続いた場合は、この無音期間の開始時刻・終了時刻を音声データの区切り位置として記録するようにする。
(S102)
Subsequently, in step S102, the control unit 10 causes the audio acquisition unit 41 to acquire the audio of the lesson, and starts processing to save the audio data 21 indicating the audio in the storage unit 20 as needed. At this time, the recording start time is also recorded in the storage unit 20. Further, during recording of audio data, if a period in which the audio output level is equal to or lower than a threshold value continues for a certain period of time, the start time / end time of the silent period is recorded as the audio data delimiter position.

(S103)
続いて、ステップS103において、制御部10は、ユーザによる電子書籍等に対する操作履歴を取得し、当該操作履歴を示す操作履歴データ23を記憶部20に随時保存する処理を開始する。なお、上述した操作履歴とは、例えば、電子書籍コンテンツの開閉・ページめくり・ページ拡大などの閲覧のための操作や、ユーザが電子書籍等のテキストに対してマーカーを付与したり、手書きなどの書き込みをする操作などを指す。また、ステップS101からS103までの処理の順番は入れ替わってもよい。
(S103)
Subsequently, in step S <b> 103, the control unit 10 acquires an operation history for the electronic book by the user, and starts processing to save operation history data 23 indicating the operation history in the storage unit 20 as needed. Note that the above-described operation history includes, for example, operations for browsing such as opening / closing, turning pages, and expanding pages of electronic book content, and a user gives a marker to text such as an electronic book, Refers to an operation that performs writing. Further, the order of processing from step S101 to S103 may be changed.

(S104)
続いて、ステップS104において、端末装置1は、ステップS101からS103において上述した、制御部10が各データを記憶部20に保存する処理を、ユーザが端末装置1に対して所定の終了操作を行うまで継続する。
(S104)
Subsequently, in step S104, the terminal device 1 performs a predetermined end operation on the terminal device 1 with respect to the process in which the control unit 10 stores each data in the storage unit 20 described above in steps S101 to S103. Continue until.

端末装置1を所持するユーザは、授業を受けながら電子書籍表示部31及びノート表示部32に対して適宜書き込みを行う。   A user who owns the terminal device 1 appropriately writes in the electronic book display unit 31 and the notebook display unit 32 while taking a lesson.

図3は、ユーザがノート表示部32に対して、書き込みを行う例を示す図である。   FIG. 3 is a diagram illustrating an example in which the user performs writing on the note display unit 32.

ノート表示部32にテキスト等を入力する場合、ユーザがボタン72を選択することにより端末装置1は、テキストを追加・編集するモードに移行する。次いでユーザは、図3(b)のようにテキストを入力する領域を選択し、キーボードからテキストを入力する。上記キーボードは、端末装置1の一機能としてソフトウェアにより実現され、表示部30に表示されるキーボードであってもよい。端末装置1は、ユーザが当該領域外を選択することにより、テキストを追加・編集するモードを終了する。   When text or the like is input to the note display unit 32, the terminal device 1 shifts to a mode for adding / editing text when the user selects the button 72. Next, the user selects a text input area as shown in FIG. 3B and inputs the text from the keyboard. The keyboard may be a keyboard that is realized by software as one function of the terminal device 1 and displayed on the display unit 30. The terminal device 1 ends the mode for adding / editing text when the user selects outside the area.

また、ユーザがボタン73を選択することにより、端末装置1は、フリーハンドの自由線を追加・編集するモードに移行する。次いでユーザは、図3(c)のように自由線を入力する領域を選択し、マウス又はペンなどにより自由線を入力する。端末装置1は、ユーザが当該領域外を選択することにより、自由線を追加・編集するモードを終了する。   Further, when the user selects the button 73, the terminal device 1 shifts to a mode for adding / editing a freehand free line. Next, the user selects an area for inputting a free line as shown in FIG. 3C, and inputs the free line with a mouse or a pen. The terminal device 1 ends the mode for adding / editing a free line when the user selects outside the area.

また、表示制御部11は、ノート表示部32に、例えば画面表示の拡大縮小ボタン70、あるいはページの切り替えボタン71等を表示させてもよい。   Further, the display control unit 11 may cause the note display unit 32 to display, for example, a screen display enlargement / reduction button 70 or a page switching button 71.

図4は、メモデータ22の例を示す図である。図4に示すようにメモデータ22は、例えば、編集開始日時、編集終了日時、書き込みのタイプ、メモが書き込まれたページ、ページ内におけるメモの位置、及びメモの内容等を含む。   FIG. 4 is a diagram illustrating an example of the memo data 22. As shown in FIG. 4, the memo data 22 includes, for example, an edit start date / time, an edit end date / time, a writing type, a page in which the memo is written, a position of the memo in the page, and a memo content.

なお、図4の各行、つまりメモデータ22の処理単位は、テキスト又は自由線を入力する矩形領域毎の単位に限定されない。例えば、メモデータ22がテキストデータである場合には、一行毎のテキストを処理単位としてもよいし、メモデータ22が自由線である場合、所定の距離以上離れた自由線は、別々のメモデータ22としてもよい。   Note that the processing unit of each row in FIG. 4, that is, the memo data 22 is not limited to a unit for each rectangular area into which text or a free line is input. For example, when the memo data 22 is text data, the text for each line may be used as a processing unit. When the memo data 22 is a free line, free lines separated by a predetermined distance or more are separate memo data. 22 may be used.

図5は、ユーザが電子書籍表示部31に対して、書き込みを行う例を示す図である。ユーザが電子書籍表示部31に表示された電子書籍等のテキスト50をなぞる操作をした場合、表示制御部11は、電子書籍表示部31の一部に、マーカー色(背景色)を選択するインターフェース51を表示させる。次いでユーザが何れかの色を選択する操作を行った場合、当該テキストにユーザが選択した色によってマーカーが付される。   FIG. 5 is a diagram illustrating an example in which the user performs writing on the electronic book display unit 31. When the user performs an operation of tracing the text 50 such as the electronic book displayed on the electronic book display unit 31, the display control unit 11 selects a marker color (background color) for a part of the electronic book display unit 31. 51 is displayed. Next, when the user performs an operation of selecting any color, a marker is attached to the text according to the color selected by the user.

また、表示制御部11は、電子書籍表示部31に、例えば電子書籍等の選択ボタン80、ページの切り替えボタン81、画面表示の拡大縮小ボタン82、電子書籍等の表示終了ボタン83、あるいは電子書籍に対してしおりを挟むボタン84等を表示させてもよい。   The display control unit 11 also includes, for example, an electronic book selection button 80, a page switching button 81, a screen display enlargement / reduction button 82, an electronic book display end button 83, or an electronic book. Alternatively, a button 84 or the like sandwiching a bookmark may be displayed.

また、図6は、操作履歴データ23の例を示す図である。図6に示すように操作履歴データ23は、例えば、操作日時、操作内容、操作対象、操作対象のページ、及び所定のパラメータ等を含む。また、操作履歴には、電子書籍等を開く操作、及び閉じる動作も含まれる。   FIG. 6 is a diagram illustrating an example of the operation history data 23. As illustrated in FIG. 6, the operation history data 23 includes, for example, operation date and time, operation content, operation target, operation target page, predetermined parameters, and the like. The operation history also includes operations for opening and closing electronic books and the like.

また、制御部10は、音声データ21を記憶部20に格納する場合に、当該音声データ21の任意の位置、例えば音声取得部41が取得した音声が所定の音量以上である箇所の冒頭毎、あるいは一定時間毎に、区切り又はインデックスを挿入してもよい。   In addition, when storing the audio data 21 in the storage unit 20, the control unit 10, at an arbitrary position of the audio data 21, for example, at the beginning of a location where the audio acquired by the audio acquisition unit 41 is equal to or higher than a predetermined volume, Alternatively, a break or index may be inserted at regular time intervals.

(S105)
続いて、ステップS105において、端末装置1は、ユーザの所定の操作により、ステップS101からステップS104において上述した処理であって、制御部10が各データを記憶部20に保存する処理を終了する。
(S105)
Subsequently, in step S <b> 105, the terminal device 1 terminates the process in which the control unit 10 saves each data in the storage unit 20 in the processing described above in steps S <b> 101 to S <b> 104 according to a predetermined operation by the user.

(S106)
ステップS106からステップS109までは、端末装置1が、ユーザの所定の操作に応じて各データを出力する処理である。換言すると、ステップS106からステップS109における処理は、ユーザが端末装置1を用いて、ステップS101からステップS105までに記録した各データを参照する処理、つまり上述した再生モードにおける処理である。なお、ステップS106からステップS109までの一連の処理は、ユーザが所定の操作により端末装置1の再生モードを終了するまでの間、繰り返し複数回行われてもよい。
(S106)
Steps S106 to S109 are processes in which the terminal device 1 outputs each data in accordance with a user's predetermined operation. In other words, the processing from step S106 to step S109 is processing in which the user uses the terminal device 1 to refer to each data recorded from step S101 to step S105, that is, processing in the above-described playback mode. Note that the series of processing from step S106 to step S109 may be repeatedly performed a plurality of times until the user ends the reproduction mode of the terminal device 1 by a predetermined operation.

ステップS106において、ユーザは、電子ノート、電子書籍データ24、又は音声データ21の何れかの任意の箇所を選択する。   In step S <b> 106, the user selects any part of the electronic notebook, the electronic book data 24, or the audio data 21.

図7は、表示制御部11が、表示部30に電子書籍データ24、電子ノート、及び音声データ21を示す音声波形図60を表示させた例を示す図である。   FIG. 7 is a diagram illustrating an example in which the display control unit 11 causes the display unit 30 to display an audio waveform diagram 60 indicating the electronic book data 24, the electronic notebook, and the audio data 21.

なお、図7に示すように、音声波形図60には、例えば、音声出力を停止する停止ボタン61、及び音声を再生する再生ボタン62、メモデータ22の編集開始時刻等を示すマーカー63、並びに音声の再生位置を示すマーカー64等が含まれていてもよい。また、ユーザがマーカー64を左右にスライドすることによって、音声の再生位置を変更できる構成であってもよい。   As shown in FIG. 7, the audio waveform diagram 60 includes, for example, a stop button 61 for stopping audio output, a playback button 62 for reproducing audio, a marker 63 indicating the editing start time of the memo data 22, and the like. The marker 64 etc. which show the reproduction | regeneration position of an audio | voice may be included. Moreover, the structure which can change the audio | voice reproduction | regeneration position by a user sliding the marker 64 right and left may be sufficient.

また、各々の領域が表示部30に占める画面比率は、例えばユーザが各領域間の境界をなぞる操作等によって変更できる構成でもよい。また、特に音声波形図は、ユーザが画面内側から音声波形図上を経由して画面下側へ指をなぞる操作等によって非表示にし、逆に、画面下側から画面内側へ指をなぞる操作等によって再度表示させることができる構成でもよい。   Moreover, the structure which can change the screen ratio which each area | region occupies for the display part 30 by the operation etc. which a user traces the boundary between each area | region, for example may be sufficient. In particular, the audio waveform diagram is hidden by the user's operation of tracing the finger from the inside of the screen to the bottom of the screen via the audio waveform diagram, and conversely, the operation of tracing the finger from the bottom of the screen to the inside of the screen, etc. It is also possible to use a configuration that can be displayed again.

メモデータ22、操作履歴データ23、及び音声データ21は、何れかに対する選択によって、相互に参照することが可能である。図8は、上述した各データを相互に参照する例を示す図である。   The memo data 22, the operation history data 23, and the voice data 21 can be referred to each other by selecting one of them. FIG. 8 is a diagram illustrating an example in which the above-described data are referred to each other.

本ステップにおいて、例えば、図8(b)に示すように、ユーザが電子ノートに記載されたテキスト52を選択する操作を行う。選択するテキスト・手書きの単位は、図4の各行単位、つまりメモの処理単位とすることで、学習者が簡単にメモデータを選べるようにする。   In this step, for example, as shown in FIG. 8B, the user performs an operation of selecting the text 52 described in the electronic notebook. The text / handwriting unit to be selected is the unit of each line in FIG. 4, that is, the processing unit of the memo, so that the learner can easily select the memo data.

(S107)
続いて、ステップS107において、表示部30は、ステップS106においてユーザが選択した箇所から何れのデータを参照するかを選択可能に提示する。
(S107)
Subsequently, in step S107, the display unit 30 presents in a selectable manner which data is referred to from the location selected by the user in step S106.

例えば、ステップS106において、ユーザがノート表示部32に表示されたテキスト52を選択した場合、表示制御部11は、テキスト52がメモデータ22として記録された時刻における、電子書籍等の操作履歴又は音声データ21を参照する選択肢を選択可能にノート表示部32に表示させる。   For example, in step S <b> 106, when the user selects the text 52 displayed on the note display unit 32, the display control unit 11 displays the operation history or sound of an electronic book or the like at the time when the text 52 is recorded as the memo data 22. An option for referring to the data 21 is displayed on the note display unit 32 so as to be selectable.

なお、電子書籍等の操作履歴の参照とは、当該時刻において電子書籍等の開いていたページを開き、拡大等の操作を行っていれば当該操作を再現することを意味する。   Note that the reference to the operation history of an electronic book or the like means that the opened page of the electronic book or the like at that time is opened and the operation is reproduced if an operation such as enlargement is performed.

また、ステップS106において、例えば、ユーザが音声波形図60内のマーカー63又はマーカー63の近傍を選択した場合、表示部30は、マーカー63またはマーカー63の近傍に対応する時刻における電子ノートの記載か、電子書籍等の操作履歴かを参照する選択肢を表示する。   In step S106, for example, when the user selects the marker 63 or the vicinity of the marker 63 in the audio waveform diagram 60, the display unit 30 displays the electronic note at the time corresponding to the marker 63 or the vicinity of the marker 63. An option for referring to an operation history of an electronic book or the like is displayed.

また、ステップS106において、例えば、ユーザが電子書籍表示部31に表示された電子書籍等に含まれるテキストのマーカー部分を選択した場合、表示部30は、当該電子書籍に当該マーカーが付された時刻又は当該時刻から所定の範囲内の時間だけ離れた時刻における音声データ21か電子ノートの記載かを参照する選択肢を表示する。   In step S106, for example, when the user selects a marker portion of text included in the electronic book displayed on the electronic book display unit 31, the display unit 30 displays the time at which the marker is attached to the electronic book. Alternatively, an option for referring to whether the audio data 21 or the electronic notebook is described at a time separated from the time by a time within a predetermined range is displayed.

(S108)
続いて、ステップS108において、ユーザは、ステップS106において表示部30が表示した選択肢のうち、何れかを選択する操作を行う。
(S108)
Subsequently, in step S108, the user performs an operation of selecting one of the options displayed on the display unit 30 in step S106.

(S109)
続いて、ステップS109において、端末装置1は、ステップS108においてユーザが選択したデータを出力する。
(S109)
Subsequently, in step S109, the terminal device 1 outputs the data selected by the user in step S108.

例えば、ユーザが図8(b)において、作成時の音声を聞くボタン53bを選択した場合、音声出力制御部12は、ユーザが電子ノートにテキスト52を記載した時刻又は当該時刻から所定の範囲内の時間だけ離れた時刻を開始点にして音声取得部41が取得した音声を、音声出力部42に出力させる。   For example, when the user selects the button 53b for listening to the voice at the time of creation in FIG. 8B, the voice output control unit 12 sets the time when the user wrote the text 52 in the electronic notebook or within a predetermined range from the time. The voice output unit 42 is caused to output the voice acquired by the voice acquisition unit 41 starting from the time separated by the time.

なお、例えば、ユーザが電子ノートに記載されたテキスト52を選択する操作を行った場合に、ノート表示部32が選択肢53を表示せずに、端末装置1が、操作履歴と音声データ21との双方又は一方を出力する構成でもよい。   Note that, for example, when the user performs an operation of selecting the text 52 described in the electronic notebook, the notebook display unit 32 does not display the option 53, and the terminal device 1 displays the operation history and the audio data 21. The structure which outputs both or one may be sufficient.

以上が図2のフローチャートに基づく処理の流れである。   The above is the flow of processing based on the flowchart of FIG.

上述したように本実施形態に係る端末装置1(出力装置1)は、音声データ21、メモデータ22、及び操作履歴データ23を、処理時刻を示す情報を付随させて記憶し、上記音声データ21、上記メモデータ22、及び上記操作履歴データ23を含むデータ群に含まれる何れかのデータである第1のデータが選択された場合に、各処理時刻をもとに同一時刻の上記第1のデータとは異なる第2のデータ、又は第2のデータと第3のデータとを検索して出力する。   As described above, the terminal device 1 (output device 1) according to the present embodiment stores the voice data 21, the memo data 22, and the operation history data 23 together with the information indicating the processing time. When the first data which is any data included in the data group including the memo data 22 and the operation history data 23 is selected, the first time at the same time based on each processing time is selected. The second data different from the data, or the second data and the third data are retrieved and output.

上記の構成によれば、音声データ21、メモデータ22、又は操作履歴データ23の何れかを選択した場合に、他のデータを容易に参照することができる出力装置を実現できる。   According to said structure, when any of the audio | voice data 21, the memo data 22, or the operation history data 23 is selected, the output device which can refer other data easily is realizable.

また、上記各データは、少なくとも一部が同一の時刻情報に紐づけられたデータ、つまり同時刻に記録されたデータであってもよい。   Each of the data may be data associated with at least a part of the same time information, that is, data recorded at the same time.

上記の構成によれば、同一の時刻情報に紐づけられた第1のデータ(例えば音声データ21)と第2のデータ(例えばメモデータ22)との一方を選択することにより、同時刻に記録された他方のデータを容易に参照できる。   According to the above configuration, recording is performed at the same time by selecting one of the first data (for example, voice data 21) and the second data (for example, memo data 22) associated with the same time information. The other data can be easily referred to.

<実施形態1に係る付記事項>
実施形態1においては、端末装置1が、音声データ21、メモデータ22、及び操作履歴データ23を記録する構成について説明したが、端末装置1は、必ずしも上述した3種のデータ全てを記録しなくともよい。例えば端末装置1(出力装置1)は、音声データ21とメモデータ22とを記憶し、上記音声データ21の時系列上のある区間、及びメモデータ22における対象箇所の一方が選択された場合に、当該一方の処理時間から同時刻の他方のデータを検索し出力してもよい。
<Additional Notes on Embodiment 1>
In Embodiment 1, although the terminal device 1 demonstrated the structure which records the audio | voice data 21, the memo data 22, and the operation history data 23, the terminal device 1 does not necessarily record all three types of data mentioned above. Also good. For example, the terminal device 1 (output device 1) stores the voice data 21 and the memo data 22, and when one of the sections in the time series of the voice data 21 and the target portion in the memo data 22 is selected. The other data at the same time may be searched and output from the one processing time.

上記の構成によれば、音声データ21又はメモデータ22を選択した場合に、もう一方のデータを容易に参照することができる出力装置を実現できる。   According to said structure, when the audio | voice data 21 or the memo data 22 is selected, the output device which can refer another data easily is realizable.

また、端末装置1が記憶する当該音声データ21と当該メモデータ22とは、少なくとも一部が同一の時刻情報に紐づけられたデータであってもよい。   Further, the audio data 21 and the memo data 22 stored in the terminal device 1 may be data associated with at least a part of the same time information.

一般的に、先生が説明を開始した時刻と、生徒がメモデータを保存した時刻、電子書籍に対する操作時刻は完全に一致しない。例えば、先生の板書をもとに生徒がメモデータを取った後、先生が口頭で解説を加える場合には、メモデータの保存時刻より後に対応する音声データが続くのに対し、先生が口頭で解説した後に先生が板書を始め、生徒がそれをメモデータとして記録していく場合には、メモデータの保存時刻は、先生の音声データの後に続くことになる。また、出席確認や雑談などメモデータとは関係ない音声データが含まれていることもある。そのため、端末装置1は、ユーザの所定の操作によって、音声データ21、メモデータ22、操作履歴データ23、又はそれらの対応関係を変更したり、不要な音声を削除する機能を有していてもよい。図9は、上述した各データを編集する画面の例を示す図である。   In general, the time when the teacher started explanation, the time when the student saved the memo data, and the operation time for the electronic book do not completely match. For example, when a student takes memo data based on the teacher's writing, and the teacher adds verbal explanation, the corresponding voice data continues after the memo data save time, whereas the teacher verbally If the teacher starts writing on the board after explanation and the student records it as memo data, the memo data storage time will follow the teacher's voice data. In addition, voice data that is not related to memo data, such as attendance confirmation and chat, may be included. Therefore, the terminal device 1 may have a function of changing the voice data 21, the memo data 22, the operation history data 23, or their corresponding relationship or deleting unnecessary voices according to a predetermined operation by the user. Good. FIG. 9 is a diagram showing an example of a screen for editing each data described above.

図9に示す画面においては、ユーザが、不要な音声波形の一部を、例えば区切り間単位で選択し消去する操作を行い、制御部が、当該音声波形に対応する音声を示すデータを、音声データ21から消去してもよい。また、音声データを出力しながら内容に応じて区切り区間を分割・結合できるような編集機能を設けてもよい。あるいは、ユーザが、教科書23頁を開いたことを示すオブジェクト55等を左右何れかにスライドする操作を行い、制御部が、当該ページが開かれた時刻を示すデータを変更し、操作履歴データ23を更新してもよい。また、上記機能は、記録モードと再生モードとのどちらのモードに属する機能であってもよい。   In the screen shown in FIG. 9, the user performs an operation of selecting and deleting a part of an unnecessary speech waveform, for example, in units of intervals, and the control unit stores data indicating the speech corresponding to the speech waveform. The data 21 may be deleted. Also, an editing function may be provided that can divide and combine the delimiter sections according to the contents while outputting audio data. Alternatively, the user performs an operation of sliding the object 55 or the like indicating that the textbook page 23 is opened to the left or right, and the control unit changes the data indicating the time when the page is opened, and the operation history data 23 is displayed. May be updated. Further, the function may belong to either the recording mode or the reproduction mode.

また、電子書籍に対するユーザの書き込みは、電子書籍データ24の一部として保存されてもよいし、メモデータ22の一部として保存されてもよい。あるいは、特にテキストに対するマーカーの付与のような軽微な書き込みである場合、図6に示すように、操作履歴データ23の一部として保存される構成でもよい。   The user's writing on the electronic book may be stored as a part of the electronic book data 24 or may be stored as a part of the memo data 22. Alternatively, in particular, in the case of a light writing such as adding a marker to the text, as shown in FIG.

また、表示部30はタッチパネルとしての機能を有せず、単なる表示パネルである構成でもよい。上記の構成の場合、端末装置1はキーボード、ボタン、又はマウス等の入力デバイスを別途備える。従って、ステップS103において上述した操作履歴とは、ユーザが表示部30を介して行った操作の履歴に限定されず、例えばユーザが物理的なキーボードを介して行った操作の履歴であってもよい。   Further, the display unit 30 may not have a function as a touch panel, and may be a simple display panel. In the case of the above configuration, the terminal device 1 includes an input device such as a keyboard, a button, or a mouse. Therefore, the operation history described above in step S103 is not limited to the history of operations performed by the user via the display unit 30, and may be, for example, the history of operations performed by the user via the physical keyboard. .

また、端末装置1が有する一部の部材又は機能は、端末装置1とは別の装置により実現される構成でもよい。例えば、電子ノートを編集・表示する端末装置1とは別の装置が、電子書籍データ24を表示する構成でもよい。   Moreover, the structure implement | achieved by the apparatus different from the terminal device 1 may be sufficient as the one part member or function which the terminal device 1 has. For example, a device that is different from the terminal device 1 that edits and displays an electronic notebook may display the electronic book data 24.

なお、上述した各付記事項は、後述の各実施形態及び各変形例に対しても適宜の適用が可能である。   Each of the supplementary items described above can be appropriately applied to each of the embodiments and modifications described later.

〔変形例〕
実施形態1の変形例について、図2及び図10に基づいて説明する。なお便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、説明を省略する。
[Modification]
The modification of Embodiment 1 is demonstrated based on FIG.2 and FIG.10. For convenience, members having the same functions as those described in the above embodiment are given the same reference numerals, and description thereof is omitted.

本変形例においては、端末装置が音声を記録する場合に、加速度センサ等のセンサ情報を参照する構成について説明する。   In the present modification, a configuration in which sensor information such as an acceleration sensor is referred to when the terminal device records voice will be described.

図10は、本変形例に係る端末装置1aの機能ブロック図である。図10に示す通り、端末装置1aは、図1に示す端末装置1から更にセンサ部43を備え、制御部10aは、制御部10から更にセンサ情報取得部13を備える。   FIG. 10 is a functional block diagram of the terminal device 1a according to the present modification. As shown in FIG. 10, the terminal device 1 a further includes a sensor unit 43 from the terminal device 1 illustrated in FIG. 1, and the control unit 10 a further includes a sensor information acquisition unit 13 from the control unit 10.

センサ部43は、図10には図示しない、例えば6軸センサ又は加速度センサ等を備え、端末装置1aの位置及び姿勢の変化を検知する。センサ情報取得部13は、センサ部43からの信号であって、端末装置1aの位置及び姿勢の変化を示す信号を取得する。   The sensor unit 43 includes, for example, a 6-axis sensor or an acceleration sensor (not shown in FIG. 10), and detects changes in the position and orientation of the terminal device 1a. The sensor information acquisition unit 13 acquires a signal that is a signal from the sensor unit 43 and that indicates a change in the position and orientation of the terminal device 1a.

本変形例に係る端末装置1aは、実施形態1のステップS102において上述した、制御部が音声データ21を記憶部20に保存する処理において、制御部は、センサ情報取得部13が端末装置1aの位置及び姿勢の変化を示す信号を取得したことに起因して、記憶部20に保存中の音声データ21における、上記信号を取得した時刻に対応する位置に区切り又はインデックスを挿入する構成である。   In the terminal device 1a according to this modification, in the process in which the control unit saves the audio data 21 in the storage unit 20 as described above in step S102 of the first embodiment, the control unit includes the sensor information acquisition unit 13 of the terminal device 1a. Due to the fact that a signal indicating a change in position and orientation is acquired, a segment or index is inserted at a position corresponding to the time at which the signal is acquired in the audio data 21 being stored in the storage unit 20.

上記の構成によれば、例えば授業が別の形態、所謂グループ学習等に移行してユーザが机を動かし、センサ部43が端末装置1aの移動を検知することにより、端末装置1aは、周囲の音声が止まない場合においても、記憶部20に保存する音声データ21の好適な位置に区切り又はインデックスを挿入することができる。   According to the above configuration, for example, the lesson moves to another form, so-called group learning, the user moves the desk, and the sensor unit 43 detects the movement of the terminal device 1a. Even when the sound does not stop, a break or index can be inserted at a suitable position of the sound data 21 stored in the storage unit 20.

〔実施形態2〕
本発明の第2の実施形態について、以下に説明する。なお便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、説明を省略する。
[Embodiment 2]
A second embodiment of the present invention will be described below. For convenience, members having the same functions as those described in the above embodiment are given the same reference numerals, and description thereof is omitted.

本実施形態においては、端末装置が、授業等の音声データ21と、電子書籍データ24等に対する操作履歴とをサーバ上から取得し、参照する構成について説明する。   In the present embodiment, a configuration will be described in which the terminal device acquires and refers to audio data 21 such as a lesson and operation history for the electronic book data 24 and the like from the server.

〔1.端末装置1bの構成〕
図11は、本実施形態に係る端末装置1b及びサーバ90の機能ブロック図である。
[1. Configuration of Terminal Device 1b]
FIG. 11 is a functional block diagram of the terminal device 1b and the server 90 according to the present embodiment.

図11に示す通り、端末装置1bは、図1に示す構成から、更に通信部44を備える構成である。また、制御部10bは、更に通信制御部14を備える。なお、図11に示すように、端末装置1bは、音声取得部41を備えずともよい。   As illustrated in FIG. 11, the terminal device 1 b is configured to further include a communication unit 44 from the configuration illustrated in FIG. 1. The control unit 10b further includes a communication control unit 14. In addition, as shown in FIG. 11, the terminal device 1b does not need to be provided with the audio | voice acquisition part 41. FIG.

通信部44は、外部の装置との通信処理を行う。通信制御部14は、通信部44によるデータ通信処理の制御に係る処理を行う。   The communication unit 44 performs communication processing with an external device. The communication control unit 14 performs processing related to control of data communication processing by the communication unit 44.

サーバ90は、授業を行う教員等が操作する電子黒板であって、画面の一部又は全部に電子書籍等を表示することができる。また、電子黒板(サーバ90)は、当該電子書籍に対する操作履歴と、授業等の音声データ21とを保存し、端末装置1b等のクライアントに各データを出力することができる。また、ユーザは、電子黒板に対して、通常の黒板と同じように画面に板書を行うことができる。   The server 90 is an electronic blackboard operated by a teacher or the like who conducts a lesson, and can display an electronic book or the like on part or all of the screen. The electronic blackboard (server 90) can store an operation history for the electronic book and audio data 21 such as a lesson, and can output each data to a client such as the terminal device 1b. In addition, the user can write a blackboard on the screen in the same manner as a normal blackboard on an electronic blackboard.

〔2.処理の流れ〕
本実施形態における処理の流れについて図2〜図9、図11及び図12に基づいてステップごとに説明する。図12は、本実施形態に係る処理の流れを示すフローチャートである。以下、一例として、生徒の各々が端末装置1bを所持し、教員が電子黒板を操作し、授業を行う場合を想定して説明を行う。
[2. Process flow
The flow of processing in this embodiment will be described step by step based on FIGS. 2 to 9, 11 and 12. FIG. 12 is a flowchart showing the flow of processing according to the present embodiment. Hereinafter, as an example, explanation will be given on the assumption that each student possesses the terminal device 1b and the teacher operates the electronic blackboard to conduct a lesson.

(S201)
ステップS201においては、実施形態1のステップS101と同様の処理を行う。ただし、本ステップにおいては、必ずしも表示制御部11が、電子書籍データ24を電子書籍表示部31に表示させることを要しない。
(S201)
In step S201, the same processing as in step S101 of the first embodiment is performed. However, in this step, the display control unit 11 does not necessarily need to display the electronic book data 24 on the electronic book display unit 31.

(S202)
続いて、ステップS202において、電子黒板は、教員の所定の操作により、電子書籍等の表示を行い、当該電子書籍等に対する操作履歴及び授業の音声の記録を開始する。なお、ステップS201とS202との処理の順番は入れ替わってもよい。
(S202)
Subsequently, in step S202, the electronic blackboard displays an electronic book or the like by a teacher's predetermined operation, and starts recording an operation history and a lesson voice for the electronic book or the like. Note that the processing order of steps S201 and S202 may be switched.

(S203)
続いて、ステップS203において、端末装置1bは、実施形態1のステップS104において上述した処理であって、制御部10bがメモデータ22を記憶部20に保存する処理を、生徒が端末装置1bに対して所定の終了操作を行うまで継続する。また、電子黒板は、電子書籍等に対する操作履歴及び授業の音声を記録する処理を、教員が電子黒板に対して所定の終了操作を行うまで継続する。
(S203)
Subsequently, in step S203, the terminal device 1b performs the processing described above in step S104 of the first embodiment, in which the control unit 10b stores the memo data 22 in the storage unit 20, and the student performs the processing for the terminal device 1b. Until a predetermined end operation is performed. In addition, the electronic blackboard continues the process of recording the operation history for the electronic book and the voice of the lesson until the teacher performs a predetermined end operation on the electronic blackboard.

(S204)
続いて、ステップS204において、端末装置1bは、生徒の所定の操作により、制御部10bがメモデータ22を記憶部20に保存する処理を終了する。また、電子黒板は、教員の所定の操作により、電子書籍等に対する操作履歴及び授業の音声の記録を記録する処理を終了する。
(S204)
Subsequently, in step S204, the terminal device 1b ends the process in which the control unit 10b stores the memo data 22 in the storage unit 20 in accordance with a predetermined operation by the student. In addition, the electronic blackboard terminates the process of recording the operation history for the electronic book and the audio recording of the lesson by a predetermined operation of the teacher.

(S205)
続いて、ステップS205において、端末装置1bは、サーバである電子黒板から、電子書籍等の操作履歴である操作履歴データ23、及び授業の音声の録音データである音声データ21を取得する。
(S205)
Subsequently, in step S205, the terminal device 1b obtains operation history data 23 that is an operation history of an electronic book and audio data 21 that is audio recording data of a lesson from an electronic blackboard that is a server.

具体的には、通信制御部14が、通信部44にサーバ90から当該データを取得させる。次いで制御部10bが、当該データを記憶部20に格納する。また、制御部10bが当該データを記憶部20に格納する場合において、メモデータ22、並びに電子書籍等の操作履歴データ23及び音声データ21の少なくとも一部を、同一の時刻情報によって相互に参照可能なように対応付けてもよい。   Specifically, the communication control unit 14 causes the communication unit 44 to acquire the data from the server 90. Next, the control unit 10 b stores the data in the storage unit 20. Further, when the control unit 10b stores the data in the storage unit 20, the memo data 22, and at least a part of the operation history data 23 such as an electronic book and the audio data 21 can be mutually referred to by the same time information. As such, they may be associated with each other.

(S106〜ステップS109)
端末装置1bの再生モードにおける処理は、実施形態1のステップS106からステップS109までと同様である。
(S106 to step S109)
The processing in the playback mode of the terminal device 1b is the same as that from step S106 to step S109 of the first embodiment.

上記の構成によれば、例えばメモデータ22を選択した場合に、教員による、電子書籍等のより好適な操作履歴を参照することができる。また、端末装置1bが音声取得部41を備えずとも、例えば音声データ21を選択した場合に、メモデータ22の対応する箇所を参照することができる。   According to the above configuration, for example, when the memo data 22 is selected, a more preferable operation history such as an electronic book by the teacher can be referred to. Even if the terminal device 1b does not include the voice acquisition unit 41, for example, when the voice data 21 is selected, a corresponding portion of the memo data 22 can be referred to.

〔変形例1〕
端末装置1bは、電子書籍等の操作履歴データ23と音声データ21とに加え、電子黒板に対して板書された内容を示す板書データを取得し、当該板書データをメモデータ22としてノート表示部32に表示できる構成でもよい。
[Modification 1]
In addition to the operation history data 23 and the audio data 21 such as an electronic book, the terminal device 1b acquires board writing data indicating the contents written on the electronic blackboard, and uses the board writing data as memo data 22 for the note display unit 32. The structure which can be displayed on may be sufficient.

上記の構成によれば、例えば欠席して授業を受けていない生徒が、後日、端末装置1bを用いて板書データを含む各データを参照することにより、当該授業の内容をより正確に把握することができる。   According to the above configuration, for example, a student who is absent and does not take a class can grasp the contents of the class more accurately by referring to each piece of data including the blackboard data using the terminal device 1b at a later date. Can do.

〔変形例2〕
本変形に係る端末装置1c(不図示)は、図11に示す端末装置1bから記憶部20を備えない構成である。この構成では実施形態1で記憶部20に保存していた音声データ21、メモデータ22、操作履歴データ23、電子書籍データ24はサーバ90に保存される。端末装置1cは、通信部44がサーバ90から取得した電子書籍等の操作履歴データ23、音声データ21、及びメモデータ22を、表示制御部11がストリーミング形式で直接表示部30に表示させる。且つ、表示制御部11は、実施形態1のステップS106からステップS109までにおいて上述したように、当該各データを相互に参照可能に表示部30に表示させる。
[Modification 2]
The terminal device 1c (not shown) according to this modification has a configuration that does not include the storage unit 20 from the terminal device 1b illustrated in FIG. In this configuration, the voice data 21, memo data 22, operation history data 23, and electronic book data 24 stored in the storage unit 20 in the first embodiment are stored in the server 90. In the terminal device 1c, the display control unit 11 directly displays the operation history data 23 such as an electronic book, the audio data 21, and the memo data 22 acquired from the server 90 by the communication unit 44 on the display unit 30 in a streaming format. In addition, as described above in steps S106 to S109 of the first embodiment, the display control unit 11 displays the data on the display unit 30 so that they can be referred to each other.

また、端末装置1cは、必ずしも上述した3種のデータをサーバ90から取得しなくともよい。例えば、端末装置は、音声データ21と、当該音声データ21に関連付けられたメモデータ22とをサーバから取得し、上記音声データ21の時系列上のある区間、及びメモデータ22における対象箇所の一方が選択された場合に、当該一方に関連付けられた他方のデータを出力してもよい。   Further, the terminal device 1c does not necessarily have to acquire the above-described three types of data from the server 90. For example, the terminal device acquires the voice data 21 and the memo data 22 associated with the voice data 21 from the server, and selects one of the sections in the time series of the voice data 21 and the target portion in the memo data 22. When is selected, the other data associated with the one may be output.

〔変形例3〕
端末装置1b、又は通信部44と通信制御部14とを更に備える端末装置1若しくは端末装置1aが、操作履歴データ23等の各データを他の装置に出力するサーバとして機能する構成でもよい。
[Modification 3]
The terminal device 1b or the terminal device 1 or the terminal device 1a further including the communication unit 44 and the communication control unit 14 may function as a server that outputs each data such as the operation history data 23 to another device.

上記の構成によれば、生徒間、あるいは端末装置1b等を使用する教員と生徒間においても、当該各データを共有することができる。   According to said structure, each said data can be shared between students or between the teacher who uses the terminal device 1b etc., and students.

〔実施形態3〕
上記各実施形態では、1つのサーバ90を用いる例を説明したが、サーバ90の有する各機能が、個別のサーバにて実現されていてもよい。そして、複数のサーバを適用する場合においては、各サーバは、同じ事業者によって管理されていてもよいし、異なる事業者によって管理されていてもよい。
[Embodiment 3]
In each of the above embodiments, an example in which one server 90 is used has been described. However, each function of the server 90 may be realized by an individual server. And when applying a some server, each server may be managed by the same provider, and may be managed by a different provider.

〔実施形態4〕
端末装置(1、1a〜1c)およびサーバ90の各ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。後者の場合、端末装置(1、1a〜1c)およびサーバ90のそれぞれを、図13に示すようなコンピュータ(電子計算機)を用いて構成することができる。
[Embodiment 4]
Each block of the terminal device (1, 1a to 1c) and the server 90 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software. In the latter case, each of the terminal devices (1, 1a to 1c) and the server 90 can be configured using a computer (electronic computer) as shown in FIG.

図13は、端末装置(1、1a〜1c)またはサーバ90として利用可能なコンピュータ910の構成を例示したブロック図である。コンピュータ910は、バス911を介して互いに接続された演算装置912と、主記憶装置913と、補助記憶装置914と、入出力インターフェース915と、通信インターフェース916とを備えている。演算装置912、主記憶装置913、および補助記憶装置914は、それぞれ、例えばプロセッサ(例えばCPU:Central Processing Unit等)、RAM(random access memory)、ハードディスクドライブであってもよい。入出力インターフェース915には、ユーザがコンピュータ910に各種情報を入力するための入力装置920、および、コンピュータ910がユーザに各種情報を出力するための出力装置930が接続される。入力装置920および出力装置930は、コンピュータ910に内蔵されたものであってもよいし、コンピュータ910に接続された(外付けされた)ものであってもよい。例えば、入力装置920は、キーボード、マウス、タッチセンサなどであってもよく、出力装置930は、ディスプレイ、プリンタ、スピーカなどであってもよい。また、タッチセンサとディスプレイとが一体化されたタッチパネルのような、入力装置920および出力装置930の双方の機能を有する装置を適用してもよい。そして、通信インターフェース916は、コンピュータ910が外部の装置と通信するためのインターフェースである。   FIG. 13 is a block diagram illustrating a configuration of a computer 910 that can be used as the terminal device (1, 1a to 1c) or the server 90. The computer 910 includes an arithmetic device 912, a main storage device 913, an auxiliary storage device 914, an input / output interface 915, and a communication interface 916 that are connected to each other via a bus 911. The arithmetic device 912, the main storage device 913, and the auxiliary storage device 914 may be, for example, a processor (for example, CPU: Central Processing Unit), a RAM (random access memory), and a hard disk drive, for example. Connected to the input / output interface 915 are an input device 920 for the user to input various information to the computer 910 and an output device 930 for the computer 910 to output various information to the user. The input device 920 and the output device 930 may be incorporated in the computer 910 or may be connected (externally attached) to the computer 910. For example, the input device 920 may be a keyboard, a mouse, a touch sensor, or the like, and the output device 930 may be a display, a printer, a speaker, or the like. In addition, a device having both functions of the input device 920 and the output device 930, such as a touch panel in which a touch sensor and a display are integrated, may be applied. The communication interface 916 is an interface for the computer 910 to communicate with an external device.

補助記憶装置914には、コンピュータ910を端末装置(1、1a〜1c)またはサーバ90として動作させるための各種のプログラムが格納されている。そして、演算装置912は、補助記憶装置914に格納された上記プログラムを主記憶装置913上に展開して該プログラムに含まれる命令を実行することによって、コンピュータ910を、端末装置(1、1a〜1c)またはサーバ90が備える各部として機能させる。なお、補助記憶装置914が備える、プログラム等の情報を記録する記録媒体は、コンピュータ読み取り可能な「一時的でない有形の媒体」であればよく、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブル論理回路などであってもよい。また、記録媒体に記録されているプログラムを、主記憶装置913上に展開することなく実行可能なコンピュータであれば、主記憶装置913を省略してもよい。なお、上記各装置(演算装置912、主記憶装置913、補助記憶装置914、入出力インターフェース915、通信インターフェース916、入力装置920、および出力装置930)は、それぞれ1つであってもよいし、複数であってもよい。   The auxiliary storage device 914 stores various programs for operating the computer 910 as the terminal device (1, 1a to 1c) or the server 90. Then, the arithmetic device 912 expands the program stored in the auxiliary storage device 914 on the main storage device 913 and executes instructions included in the program, whereby the computer 910 is connected to the terminal devices (1, 1a to 1c) or function as each unit included in the server 90. Note that the recording medium for recording information such as programs provided in the auxiliary storage device 914 may be a computer-readable “non-temporary tangible medium”. For example, tape, disk, card, semiconductor memory, programmable logic, etc. It may be a circuit or the like. Further, the main storage device 913 may be omitted if the computer can execute the program recorded on the recording medium without developing it on the main storage device 913. Each of the above devices (the arithmetic device 912, the main storage device 913, the auxiliary storage device 914, the input / output interface 915, the communication interface 916, the input device 920, and the output device 930) may be one each. There may be a plurality.

また、上記プログラムは、コンピュータ910の外部から取得してもよく、この場合、任意の伝送媒体(通信ネットワークや放送波等)を介して取得してもよい。そして、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   The program may be acquired from the outside of the computer 910, and in this case, may be acquired via an arbitrary transmission medium (such as a communication network or a broadcast wave). The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係る出力装置は、音声データ21とメモデータ22とを、処理時刻を示す情報を付随させて記憶し、上記音声データ21の時系列上のある区間、及びメモデータ22における対象箇所の一方が選択された場合に、各処理時刻をもとに同一時刻の他方のデータを出力する構成である。
[Summary]
The output device according to the first aspect of the present invention stores the voice data 21 and the memo data 22 together with information indicating the processing time, and in the time series of the voice data 21 and the memo data 22 When one of the target locations is selected, the other data at the same time is output based on each processing time.

上記の構成によれば、音声データ21又はメモデータ22を選択した場合に、もう一方のデータを容易に参照することができる出力装置を実現できる。   According to said structure, when the audio | voice data 21 or the memo data 22 is selected, the output device which can refer another data easily is realizable.

本発明の態様2に係る出力装置は、上記の態様1において、上記音声データ21と上記メモデータ22との少なくとも何れかに関連付いた操作履歴データ23を記憶し、上記音声データ21、上記メモデータ22、及び上記操作履歴データ23を含むデータ群に含まれる何れかのデータである第1のデータが選択された場合に、上記第1のデータとは異なる第2のデータ、又は第2のデータと第3のデータとを出力する構成としてもよい。   The output device according to aspect 2 of the present invention stores operation history data 23 associated with at least one of the audio data 21 and the memo data 22 in the above aspect 1, and stores the audio data 21 and the memo data. When the first data which is any data included in the data group including the data 22 and the operation history data 23 is selected, the second data different from the first data, or the second data Data and third data may be output.

上記の構成によれば、音声データ21、メモデータ22、又は操作履歴データ23の何れかを選択した場合に、他のデータを容易に参照することができる出力装置を実現できる。   According to said structure, when any of the audio | voice data 21, the memo data 22, or the operation history data 23 is selected, the output device which can refer other data easily is realizable.

本発明の態様3に係る出力装置は、上記の態様1又は2において、少なくとも一部が同一の時刻情報に紐づけられた上記各データを記憶する構成としてもよい。   The output device according to aspect 3 of the present invention may be configured to store each of the above data associated with the same time information in at least one of the above aspects 1 or 2.

上記の構成によれば、同一の時刻情報に紐づけられた第1のデータと第2のデータとの一方を選択することにより、同時刻に記録された他方のデータを容易に参照できる。   According to said structure, the other data recorded at the same time can be referred easily by selecting one of the 1st data linked | related with the same time information, and 2nd data.

本発明の態様4に係る出力装置は、上記の態様1から3までの何れか1項において、当該端末装置の位置又は姿勢が変化したことを示す信号の取得に起因して、記憶する音声データ21における、上記信号を取得した時刻に対応する位置に区切り又はインデックスを挿入する構成としてもよい。   The output device according to aspect 4 of the present invention stores audio data in any one of the above aspects 1 to 3 due to acquisition of a signal indicating that the position or orientation of the terminal device has changed. It is good also as a structure which inserts a delimiter or an index in the position in 21 corresponding to the time when the said signal was acquired.

上記の構成によれば、例えば授業が別の形態、所謂グループ学習等に移行してユーザが机を動かし、センサ部43が端末装置の移動を検知することにより、端末装置は、周囲の音声が止まない場合においても、記憶部20に保存する音声データ21の好適な位置に区切り又はインデックスを挿入することができる。   According to the above configuration, for example, when the lesson moves to another form, so-called group learning, the user moves the desk, and the sensor unit 43 detects the movement of the terminal device. Even when it does not stop, a break or index can be inserted at a suitable position of the audio data 21 stored in the storage unit 20.

本発明の態様5に係る出力装置は、音声データ21と、当該音声データ21に関連付けられたメモデータ22とを取得し、上記音声データ21の時系列上のある区間、及びメモデータ22における対象箇所の一方が選択された場合に、当該一方に関連付けられた他方のデータを出力する構成である。   The output device according to the fifth aspect of the present invention acquires the voice data 21 and the memo data 22 associated with the voice data 21, and a certain section on the time series of the voice data 21 and the target in the memo data 22. When one of the locations is selected, the other data associated with the one is output.

上記の構成によれば、音声データ21又はメモデータ22を選択した場合に、もう一方のデータを容易に参照することができる出力装置を実現できる。   According to said structure, when the audio | voice data 21 or the memo data 22 is selected, the output device which can refer another data easily is realizable.

本発明の態様6に係るデータ出力システムは、出力装置とサーバとを備えたデータ出力システムであって、上記出力装置は、上記サーバから取得した音声データ21とメモデータ22とを関連付けて記憶し、上記音声データ21の時系列上のある区間、及びメモデータ22における対象箇所の一方が選択された場合に、当該一方に関連付けられた他方のデータを出力する構成である。   A data output system according to a sixth aspect of the present invention is a data output system including an output device and a server, and the output device stores voice data 21 and memo data 22 acquired from the server in association with each other. When one of the sections in the time series of the audio data 21 and the target portion in the memo data 22 is selected, the other data associated with the one is output.

本発明の態様7に係る出力方法は、装置によって実行される出力方法であって、音声データ21とメモデータ22とを関連付けて記憶する記憶ステップと、上記音声データ21の時系列上のある区間、及びメモデータ22における対象箇所の一方が選択された場合に、当該一方に関連付けられた他方のデータを出力する出力ステップとを含む方法である。   The output method according to the seventh aspect of the present invention is an output method executed by the apparatus, wherein the audio data 21 and the memo data 22 are stored in association with each other, and a certain section on the time series of the audio data 21 And an output step of outputting the other data associated with the one when one of the target portions in the memo data 22 is selected.

上記の構成によれば、音声データ21又はメモデータ22を選択した場合に、もう一方のデータを容易に参照することができる。   According to said structure, when the audio | voice data 21 or the memo data 22 is selected, the other data can be referred easily.

本発明の態様8に係る出力装置としてコンピュータを機能させるための制御プログラムであって、前記コンピュータを前記出力装置として機能させることを特徴とする制御プログラムは、態様1から5までの何れかに記載の画像出力装置としてコンピュータを機能させるための制御プログラムであって、前記コンピュータを前記出力装置として機能させる構成としてもよい。   A control program for causing a computer to function as an output device according to aspect 8 of the present invention, wherein the control program causes the computer to function as the output device is any one of aspects 1 to 5. A control program for causing a computer to function as the image output device may be configured to cause the computer to function as the output device.

本発明の態様9に係る記録媒体は、態様8に係る制御プログラムを記録したコンピュータ読み取り可能な記録媒体であってもよい。   The recording medium according to aspect 9 of the present invention may be a computer-readable recording medium in which the control program according to aspect 8 is recorded.

本発明の各態様に係る端末装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記端末装置が備える各部(ソフトウェア要素)として動作させることにより上記端末装置をコンピュータにて実現させる端末装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The terminal device according to each aspect of the present invention may be realized by a computer. In this case, the terminal device is realized by the computer by operating the computer as each unit (software element) included in the terminal device. A control program for the terminal device and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

1、1a、1b、1c 端末装置(出力装置)
10、10a、10b 制御部
11 表示制御部
12 音声出力制御部
13 センサ情報取得部
14 通信制御部
20 記憶部
21 音声データ
22 メモデータ
23 操作履歴データ
24 電子書籍データ
30 表示部
31 電子書籍表示部
32 ノート表示部
41 音声取得部
42 音声出力部
43 センサ部
44 通信部
90 サーバ
910 コンピュータ
911 バス
912 演算装置
913 主記憶装置
914 補助記憶装置
915 入出力インターフェース
916 通信インターフェース
920 入力装置
930 出力装置
1, 1a, 1b, 1c Terminal device (output device)
10, 10a, 10b Control unit 11 Display control unit 12 Audio output control unit 13 Sensor information acquisition unit 14 Communication control unit 20 Storage unit 21 Audio data 22 Memo data 23 Operation history data 24 Electronic book data 30 Display unit 31 Electronic book display unit 32 Note display unit 41 Audio acquisition unit 42 Audio output unit 43 Sensor unit 44 Communication unit 90 Server 910 Computer 911 Bus 912 Processing unit 913 Main storage unit 914 Auxiliary storage unit 915 Input / output interface 916 Communication interface 920 Input unit 930 Output unit

Claims (7)

音声データとメモデータとを関連付けて記憶し、
上記音声データの時系列上のある区間、及びメモデータにおける対象箇所の一方が選択された場合に、当該一方に関連付けられた他方のデータを出力する
ことを特徴とする出力装置。
Audio data and memo data are stored in association with each other,
An output device characterized in that when one of a section of the audio data in time series and one of target portions in memo data is selected, the other data associated with the one is output.
上記音声データと上記メモデータとの少なくとも何れかに関連付いた操作履歴データを記憶し、
上記音声データ、上記メモデータ、及び上記操作履歴データを含むデータ群に含まれる何れかのデータである第1のデータが選択された場合に、上記第1のデータとは異なる第2のデータ、又は第2のデータと第3のデータとを出力する
ことを特徴とする請求項1に記載の出力装置。
Storing operation history data associated with at least one of the voice data and the memo data;
Second data different from the first data when the first data which is any data included in the data group including the voice data, the memo data, and the operation history data is selected; The output device according to claim 1, wherein the second data and the third data are output.
少なくとも一部が同一の時刻情報に紐づけられた上記各データを記憶する
ことを特徴とする請求項1又は2に記載の出力装置。
The output device according to claim 1 or 2, wherein at least a part of the data is associated with the same time information.
当該出力装置の位置又は姿勢が変化したことを示す信号の取得に起因して、
記憶する音声データにおける、上記信号を取得した時刻に対応する位置に区切り又はインデックスを挿入する
ことを特徴とする請求項1から3までの何れか1項に記載の出力装置。
Due to the acquisition of a signal indicating that the position or orientation of the output device has changed,
4. The output device according to claim 1, wherein a delimiter or an index is inserted at a position corresponding to a time at which the signal is acquired in audio data to be stored. 5.
音声データと、当該音声データに関連付けられたメモデータとを取得し、
上記音声データの時系列上のある区間、及びメモデータにおける対象箇所の一方が選択された場合に、当該一方に関連付けられた他方のデータを出力する出力装置。
Obtain voice data and memo data associated with the voice data,
An output device for outputting the other data associated with one of the audio data when a certain section in the time series and one of the target locations in the memo data are selected.
出力装置とサーバとを備えたデータ出力システムであって、
上記出力装置は、上記サーバから取得した音声データとメモデータとを関連付けて記憶し、
上記音声データの時系列上のある区間、及びメモデータにおける対象箇所の一方が選択された場合に、当該一方に関連付けられた他方のデータを出力する
ことを特徴とするデータ出力システム。
A data output system comprising an output device and a server,
The output device stores voice data and memo data acquired from the server in association with each other,
A data output system that outputs, when a certain section in the time series of the voice data and one of target portions in memo data are selected, the other data associated with the one.
装置によって実行される出力方法であって、
音声データとメモデータとを関連付けて記憶する記憶ステップと、
上記音声データの時系列上のある区間、及びメモデータにおける対象箇所の一方が選択された場合に、当該一方に関連付けられた他方のデータを出力する出力ステップと
を含むことを特徴とする出力方法。
An output method performed by the apparatus,
A storage step for storing voice data and memo data in association with each other;
And an output step of outputting the other data associated with one of the sections in the time series of the audio data and one of the target locations in the memo data. .
JP2018031098A 2018-02-23 2018-02-23 Output device, data output system, and output method Active JP7142441B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018031098A JP7142441B2 (en) 2018-02-23 2018-02-23 Output device, data output system, and output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018031098A JP7142441B2 (en) 2018-02-23 2018-02-23 Output device, data output system, and output method

Publications (2)

Publication Number Publication Date
JP2019144507A true JP2019144507A (en) 2019-08-29
JP7142441B2 JP7142441B2 (en) 2022-09-27

Family

ID=67772348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018031098A Active JP7142441B2 (en) 2018-02-23 2018-02-23 Output device, data output system, and output method

Country Status (1)

Country Link
JP (1) JP7142441B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023210387A1 (en) * 2022-04-28 2023-11-02 ソニーグループ株式会社 Information processing device, information processing method, and information processing system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004163586A (en) * 2002-11-12 2004-06-10 Clarion Co Ltd Voice recording device, on-vehicle device, mobile machine, distribution system, distribution server, and method and program for controlling distribution server
JP2006053696A (en) * 2004-08-10 2006-02-23 Ricoh Co Ltd Contents creating device, method, contents providing system, program, and recording medium
JP2011095902A (en) * 2009-10-28 2011-05-12 Tomoko Yonezawa Multimedia label device
US20120064947A1 (en) * 2010-09-09 2012-03-15 Ilbyoung Yi Mobile terminal and memo management method thereof
JP2013232235A (en) * 2013-08-06 2013-11-14 Nippon Telegr & Teleph Corp <Ntt> Information processing apparatus and program thereof
JP2014215352A (en) * 2013-04-23 2014-11-17 大日本印刷株式会社 Computer device and program
JP2016212169A (en) * 2015-04-30 2016-12-15 シナノケンシ株式会社 Education support system and terminal
JP2017097030A (en) * 2015-11-18 2017-06-01 株式会社ジャストシステム Learning support device
US20180041807A1 (en) * 2015-02-17 2018-02-08 Jong Park Interaction system and interaction method thereof

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004163586A (en) * 2002-11-12 2004-06-10 Clarion Co Ltd Voice recording device, on-vehicle device, mobile machine, distribution system, distribution server, and method and program for controlling distribution server
JP2006053696A (en) * 2004-08-10 2006-02-23 Ricoh Co Ltd Contents creating device, method, contents providing system, program, and recording medium
JP2011095902A (en) * 2009-10-28 2011-05-12 Tomoko Yonezawa Multimedia label device
US20120064947A1 (en) * 2010-09-09 2012-03-15 Ilbyoung Yi Mobile terminal and memo management method thereof
JP2014215352A (en) * 2013-04-23 2014-11-17 大日本印刷株式会社 Computer device and program
JP2013232235A (en) * 2013-08-06 2013-11-14 Nippon Telegr & Teleph Corp <Ntt> Information processing apparatus and program thereof
US20180041807A1 (en) * 2015-02-17 2018-02-08 Jong Park Interaction system and interaction method thereof
JP2016212169A (en) * 2015-04-30 2016-12-15 シナノケンシ株式会社 Education support system and terminal
JP2017097030A (en) * 2015-11-18 2017-06-01 株式会社ジャストシステム Learning support device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023210387A1 (en) * 2022-04-28 2023-11-02 ソニーグループ株式会社 Information processing device, information processing method, and information processing system

Also Published As

Publication number Publication date
JP7142441B2 (en) 2022-09-27

Similar Documents

Publication Publication Date Title
US10997364B2 (en) Operations on sound files associated with cells in spreadsheets
US6802041B1 (en) Multimedia word processor
CN111539188B (en) Note generation method, computing device, and computer storage medium
US5970455A (en) System for capturing and retrieving audio data and corresponding hand-written notes
US20140250355A1 (en) Time-synchronized, talking ebooks and readers
JPH06176171A (en) Data access system
KR20140037824A (en) Electronic book interface systems and methods
WO2019041639A1 (en) Information storage and display method, device, equipment and computer storage medium
JP2012185323A (en) Reproduction apparatus, reproduction method, program and recording medium
US20130332859A1 (en) Method and user interface for creating an animated communication
JP3266959B2 (en) Electronic conference system
TWI500004B (en) A recording notes electronic book device and the control method thereof
US20180121084A1 (en) Information display device
KR101567449B1 (en) E-Book Apparatus Capable of Playing Animation on the Basis of Voice Recognition and Method thereof
JP7142441B2 (en) Output device, data output system, and output method
KR20080055383A (en) Electronic lecture apparatus
JP7279754B2 (en) Learning control method and learning system
KR20200000300A (en) Summary note making and Memorizing learning system using E-book and its method
KR20180137369A (en) Summary Note generating method for E-book and Word document, Memorization learning system and method using the same
KR20180029563A (en) Summary generating system of electronic book and word document and studying method using the same
WO2020186816A1 (en) Highlighted display method for page element, device, apparatus, and storage medium
JP2011095809A (en) Presentation support system
JP2007219219A (en) Electronic device for language learning and creation method of sentence list for learning
JP2893831B2 (en) Information processing apparatus and information processing method
JPH08160989A (en) Sound data link editing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220913

R150 Certificate of patent or registration of utility model

Ref document number: 7142441

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150