JP2005017949A - Document creation support system - Google Patents
Document creation support system Download PDFInfo
- Publication number
- JP2005017949A JP2005017949A JP2003185841A JP2003185841A JP2005017949A JP 2005017949 A JP2005017949 A JP 2005017949A JP 2003185841 A JP2003185841 A JP 2003185841A JP 2003185841 A JP2003185841 A JP 2003185841A JP 2005017949 A JP2005017949 A JP 2005017949A
- Authority
- JP
- Japan
- Prior art keywords
- storage
- document
- information
- input
- storage means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
この発明は、文書作成支援システムに関し、例えばボード上に文字や図形を描きながら行われる講義や講演等の記録を行うものに利用して有効な技術に関するものである。
【0002】
【従来の技術】
講演等を文書で記録するには、音声認識ソフトウェアを利用して文書化することが考えられる。音声認識技術は人が話す言葉や文章をコンピュータに直接認識させる技術であり、現在入力手段として用いられているキーボード入力、ペン入力などに替わる簡便な入力手段として注目されている。音声認識に関する文献の例としては下記のものがある。
【0003】
【非特許文献1】
Y.Obuchi, A.Koizumi, Y.Kitahara, J.Matsuda, and T.Tsukada, Proc. EUROSPEECH’99, pp.2023−2026, 1999
【非特許文献2】
Via Voice(IBM社)
【非特許文献3】
Naturally Speaking(Dragon 社)
【0004】
【発明が解決しようとする課題】
上記口述ソフトウェアでは、音声データとして認識したもの全てを文書化しようとするため、会議の議事録の様な全体を纏めた記録を作成するには向かない。
また、音声認識エラーにより思わぬ記録が作成されしまうという問題がある。聴講等の場で記録をリアルタイムに作成する際、聞き逃してしまった箇所を再度確認したいと思うことか多々ある。そこで、音声データと文書データの双方を記録することを検討したが、それぞれを独立に記録した場合、記録漏れを起こした箇所を記憶に頼り、音声データを再生しながら検索するあるいは大まかな時間を推定しながら検索することとなり効率悪いという問題が生じる。
【0005】
この発明の目的は、高効率化を実現した文書作成支援システムを提供することにある。この発明の前記ならびにそのほかの目的と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。
【0006】
【課題を解決するための手段】
本願において開示される発明のうち代表的なものの概要を簡単に説明すれば、下記の通りである。文書入力手段により座標データ又はキーデータを生成し、かかる入力信号に時刻情報が加えられてなる第1記憶情報を第1記憶手段に記憶し、音声入力手段により取り込まれた音声信号に時刻情報が加えられてなる第2記憶情報を第2記憶手段に記録し、上記時刻情報を媒介として上記第1記憶手段の第1記憶情報からそれに関連する第2記憶手段に記憶された第2記憶情報を検索して音声再生装置から出力させ、又は上記第2記憶手段の第2記憶情報からそれに関連する第1記憶手段に記憶された第1記憶情報を検索して表示装置により表示させる。
【0007】
【発明の実施の形態】
図1には、この発明に係る文書作成支援システムの一実施例の構成図が示されている。この実施例の文書作成支援システムでは、2通りの入力手段が設けられる。この実施例では、パーソナルコンピュータ・タブレット入力デバイスを基本としたシステム構成が示されている。ペン・キーボード・マウス等の入力I/Fを通して記録する文書は、入力文書記録モジユールによってタイムスタンプを付加されて保存される。ここで文書を構成する要素は、文字だけではなく、図、絵、削除記録、シーンチェンジ情報などもある。一方、文書入力と同時にマイクを通して音声入力を行い、録音機で音声入力開始時刻から終了時刻までタイムスタンプを付加した音声データを保存する。
【0008】
保存文書データをパーソナルコンピュータ・タブレット入力デバイス等の表示媒体(ディスプレイ)に表示させ、ユーザがペン・キーボード・マウスで保存文書データの音声データ取り出し要求をした時、記録音声確認指示があると指示された文書位置に該当する時刻が取り出され、制御装置から再生装置が制御されて該当時刻の保存音声が再生機を通して再生される。
【0009】
上記文書を構成する要素は、上記タブレット又はホワイトボードに描かれた文字又は図形等の座標信号からなる文字、図、絵等や、削除記録、あるいはシーンチェンジ情報などである。上記ペン入力、キー入力、あるいはマウス入力は、上記のように検索操作のための入力としても用いられる。例えば、保存文書データの表示が行われる表示装置の画面上に、文書作成を行うユーザーにより、図形等の説明に対応した音声信号を取り出すときには、当該図形が描かれたエリアをボード上にペン入力し、あるいは表示画面上にキーボード又はマウスによりカーソルを移動させて当該図形の一部を指示することにより、上記記録音声確認指示が与えられて、制御装置により保存音声信号のタイムスタンプから当該音声信号を取り出して再生装置を介してスピーカから出力させる。
【0010】
逆に、保存音声を再生装置によりスピーカを介して出力させて、文書作成を行うときには、音声のみからは意味が不明な部分、キーボード等による時刻情報指定や、GUI等による保存音声指定により、それに対応した文字や図形等を表示装置に表示させることもできる。このように、タイムスタンプを媒介させて、文書入力と音声入力とを互いに関連付けて再生・表示することができる。
【0011】
この実施例のように文書作成を行うユーザがパーソナルコンピュータのキーボード、あるいはタブレット型PCやPDA等のタッチパネル、あるいはペン入力システムからリアルタイムに作成する記録と、その場の音声データの関連付けを時刻で行う装置と、キーボード、タッチパネル、あるいはペン入力システムで入力した記録の一部を選択し、選択したデータと時刻で関連付けた音声データを再生装置により、音声をデータソースにした文書、図形式の記録作成時に聞き取れなかったキー入力やペンの速度が追いつかず記録漏れをおこした場合や、文書、図形式の記録の確認或いは音声ソースデータの確認を行いたい場合など、文書、図形式の記録の確認したい箇所を選択すればその時刻で関連付けられた音声データを再生することが出来、記録漏れを埋めたり図形式の記録の確認或いは音声ソースデータの確認か出来るようになり文書作成が容易となる。
【0012】
図2には、この発明に係る文書作成支援システムにおける文書入力データである手書き情報の蓄積方法の一実施例の説明図が示されている。ホワイトボードやタブレットにペンを用いて描かれた文字や図形は、その座標データをサンプリングして、ヘッダに絶対時刻(タイムスタンプ)が付加されて1つの要素1とされる。時間的距離と空間的距離により複数の要素をグループ化(グルーピング)して文字「あ」に対応したグループ1を構成する。このようなグループを更に大グループ化して、記録モジュールに記録される。
【0013】
図3には、この発明に係る文書作成支援システムにおける文書入力から音声入力を検索する場合の説明図が示されている。同図においては、一定時刻でグルービングできる文書、両形式記録のオブジェクト単位と音声データとの関連付けされた例が示されている。文書データは、1つの大グループ1を有し、かかる大グループ1はグループ1ないしグループ3から構成される。グループ1は、要素1ないし要素3から構成され、グループ2は要素1から構成され、グループ3は要素1ないし要素4から構成される。このような大グループ1の期間を指定すると、音声データの中からかかる大グープル1が含まれる期間に近い音声1ないし音声3が検索されて音声1ないし音声3の順に再生される。
【0014】
上記大グループ1ではなく、特定のグループ1ないし3のいずれか1つを指定すると、それに最も近い音声1ないし3が検索されて再生される。もしも、文書データのグループ2に対して検索され音声2が、当該文書データに該当しないときには、かかる音声2の内容から1つ前の音声1又は1つ後の音声3を指定して再生するようにして該当する音声を探し出すようにすればよい。
【0015】
このように、あらゆる要素が記憶された保存文書のデータベースから、検索キーが持つ時刻に該当する要素(あるいはグループ)が検索される。そして、検索結果を時刻順に再生する。検索する場合、どのような情報(音声・動画・文書など)のうち何が必要かは場合によるので、全てのデータに時刻情報(なるべく同一形式)を付加し、特定の時刻のデータは何でも検索・再生できるようにされる。また検索にあたり必要な機能は、実際には音声に対応する文書が同時刻に入力されることは少なく、上記のように音声が先のときもあり、後のときもある。この補正は最終的には人手でやるしかないが、その補正の支援として音声認識結果(認識ミスがあってもOK)など、見るだけで時刻のずれが推測できる表現方法が用意されてもよい。また、音声認識結果と文書の内容から時刻のずれを自動で求め、グルーピングできれる機能も用意できるようにすると便利である。
【0016】
図4には、この発明に係る文書作成支援システムにおける文書入力と音声入力の関係を説明する説明図が示されている。上記文書データに時刻情報を付加する単位は文章の場合は、文字単位、語彙単位、文章単位、句読点やスペース単位、改行単位、変換処理単位としてもよい。また、図形情報、削除情報、シーンチェンジ情報などはイベント発生単位としてもよい。この他に、記録データ形式にこだわらずに一定時刻でグルーピングできるオブジェクト単位としてもよい。図4においては、上記のように一定時刻でグルーピングできる文書、両形式記録のオブジェクト単位と音声データとの関連付けの例が示されている。
【0017】
図5には、この発明に係る文書作成支援システムの他の一実施例の構成図が示されている。この実施例では、入力側と検索側とが分けて示されている。ドキュメント入力IFからは、前記同様にタッチパネル(タブレットあるいはホワイトボード)を用いて描かれた文字、図形等の座標データ入力と、キーボード等により入力される文字や記号コードのデータを入力とが行われる。
【0018】
上記座標データは、タイムスタンプ付座標列に変換される。このタイムスタンプ付座標列は、同図に例示的に示されているようにTM・x1,y1・x2,y2…ENDとなる。ここで、TMはタイムスタンプであり、ENDはエンドマークである。これらは記憶装置にデータベース1として記録される。上記文字や記号コードのデータも、上記同様にタイムスタンプ付キー文字列に変換される。このタイムスタンプ付キー文字列は、同図に例示的に示されているようにTM・A・B・C・D…ENDとなる。ここで、TMはタイムスタンプであり、ENDはエンドマークである。これらは記憶装置にデータベース2として記録される。音声信号は、マイクを通して音声入力され、タイムスタンプ付録音装置によりタイムスタンプが付加されて記憶装置にデータベース3として記録される。
【0019】
上記データベース1、2の記録データは、表示装置の画面上に表示される。上記データベース3の記録データは、音声再生装置により再生される。例えば、文書作成時において、データベース1の記録データをタッチパネル表示装置の画面上に表示させた状態で、該当する図形等が描かれた領域をタッチすることにより、当該領域に描かれた図形等の付加されたタイムスタンプ情報から検索時刻Tが取り出されて、かかる検索時刻Tをもとにデータベース3の中から該当するタイムスタンプが付加された音声信号が選択されて再生される。
【0020】
また、上記文書作成時において、データベース2の記録データを表示装置の画面上に表示させた状態で、該当する文字列をペン又はカーソルで指定することにより、当該文字列に付加されたタイムスタンプ情報から検索時刻Tが取り出されて、かかる検索時刻Tをもとにデータベース3の中から該当するタイムスタンプが付加された音声信号が選択されて再生される。
【0021】
更に、上記文書作成時において、データベース3に記録されている音声信号のうち聞き取り難い部分を音声認識して、それに対応したタイムスタンプ情報から検索時刻Tが取り出されて、かかる検索時刻Tをもとにデータベース1又は2が検索されて、該当する図形又はキー文字列を表示画面上に表示させる。
【0022】
このように音声をデータソースにした文書、図形式の記録作成時に聞き取れなかったりキー入力やペンの速度が追いつかず記録漏れをおこした場合や文書、図形式の記録の確認或いは音声ソースデータの確認を行いたい場合、文書、図形式の記録の確認したい箇所を選択すればその時刻で関連付けられた音声データを再生することが出来、記録漏れを埋めたり図形式の記録の確認或いは音声ソースデータの確認か出来るようになる。
【0023】
以上説明した実施例の文書作成支援システムによれば、手入力或いはキー入力した文書で不明確な箇所を直接ポイントすることにより、同時刻に記録した音声情報を再生できるので、曖昧な記憶にたよることなく正確な文書を完成させることが可能となる。入力文書と音声データの関連付けによる新しい記録形式の提案によるPC(パーソナルコンピュータ、以下同じ),PDAユーザの拡大が図られる。
【0024】
以上本発明者によってなされた発明を実施例に基づき具体的に説明したが、本発明は上記実施例に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。例えば、ドキュメント入力手段としては、文字又は図形を座標データとして取り込むもの、キーボードのようにキーコードが入力されるもの、あるいはキーやマウスによるカーソルの位置情報によるもの等種々の実施形態をとることができる。音声信号は、無音状態を削除したり、記録時のサンプリング周波数に対して、再生時の周波数を音声認識が可能な範囲で高くして早聞きとしたりする変換機能を付加するものであってもよい。この発明は、PDA,ノートPC,タブレットPC,電子黒板,テレビ会議システム,電子会議システム(ネット・ミーティング)にあるようなネットワーク共有のホワイトボードと音声チャットとの組合せが可能な文書作成支援システムとして広く利用できる。
【0025】
【発明の効果】
本願において開示される発明のうち代表的なものによって得られる効果を簡単に説明すれば、下記の通りである。文書入力手段により座標データ又はキーデータを生成し、かかる入力信号に時刻情報が加えられてなる第1記憶情報を第1記憶手段に記憶し、音声入力手段により取り込まれた音声信号に時刻情報が加えられてなる第2記憶情報を第2記憶手段に記録し、上記時刻情報を媒介として上記第1記憶手段の第1記憶情報からそれに関連する第2記憶手段に記憶された第2記憶情報を検索して音声再生装置から出力させ、又は上記第2記憶手段の第2記憶情報からそれに関連する第1記憶手段に記憶された第1記憶情報を検索して表示装置により表示させることにより、文書作成の高効率化を実現できる。
【図面の簡単な説明】
【図1】この発明に係る文書作成支援システムの一実施例を示す構成図である。
【図2】この発明に係る文書作成支援システムにおける文書入力データである手書き情報の蓄積方法の一実施例を示す説明図である。
【図3】この発明に係る文書作成支援システムにおける文書入力から音声入力を検索する場合の説明図である。
【図4】この発明に係る文書作成支援システムにおける文書入力と音声入力の関係を説明する説明図である。
【図5】この発明に係る文書作成支援システムの他の一実施例を示す構成図である。
【符号の説明】
TM…タイムスタンプ,x1,y1・x2,y2…座標データ、A,B,C,D…キー入力情報、END…エンドマーク。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a document creation support system, for example, a technique effective for use in recording a lecture or a lecture performed while drawing characters and figures on a board.
[0002]
[Prior art]
In order to record a lecture or the like in a document, it may be possible to document it using voice recognition software. The voice recognition technology is a technology that allows a computer to directly recognize words and sentences spoken by a person, and has attracted attention as a simple input means that replaces keyboard input and pen input that are currently used as input means. Examples of documents related to speech recognition include the following.
[0003]
[Non-Patent Document 1]
Y. Obuchi, A.A. Koizumi, Y. et al. Kitahara, J. et al. Matsuda, and T.M. Tsukada, Proc. EUROSPEECH '99, pp. 2023-2026, 1999
[Non-Patent Document 2]
Via Voice (IBM)
[Non-Patent Document 3]
Naturally Speaking (Dragon)
[0004]
[Problems to be solved by the invention]
Since the above dictation software tries to document everything recognized as voice data, it is not suitable for creating a record that summarizes the whole meeting minutes.
There is also a problem that an unexpected recording is created due to a voice recognition error. When creating a record in real time, such as at a lecture, there are many things that you may want to reconfirm where you missed. Therefore, we considered recording both audio data and document data. However, if each was recorded independently, the location where the recording error occurred was relied on memory, and the search was performed while reproducing the audio data, or a rough time was spent. The problem is that the search is performed while estimating and the efficiency is low.
[0005]
An object of the present invention is to provide a document creation support system that realizes high efficiency. The above and other objects and novel features of the present invention will be apparent from the description of this specification and the accompanying drawings.
[0006]
[Means for Solving the Problems]
The outline of a typical invention among the inventions disclosed in the present application will be briefly described as follows. Coordinate data or key data is generated by the document input means, first storage information obtained by adding time information to the input signal is stored in the first storage means, and time information is stored in the voice signal captured by the voice input means. The second storage information added is recorded in the second storage means, and the second storage information stored in the second storage means related thereto is changed from the first storage information of the first storage means through the time information as a medium. A search is made to output from the audio reproduction device, or the first storage information stored in the first storage means related to the second storage information of the second storage means is searched and displayed on the display device.
[0007]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 shows a block diagram of an embodiment of a document creation support system according to the present invention. In the document creation support system of this embodiment, two types of input means are provided. In this embodiment, a system configuration based on a personal computer / tablet input device is shown. A document to be recorded through an input I / F such as a pen, a keyboard, and a mouse is stored with a time stamp added by an input document recording module. Here, elements constituting the document include not only characters but also figures, pictures, deletion records, scene change information, and the like. On the other hand, the voice is input through the microphone simultaneously with the document input, and the voice data with the time stamp added from the voice input start time to the end time is stored by the recorder.
[0008]
When the stored document data is displayed on a display medium (display) such as a personal computer / tablet input device and the user makes a request to extract the stored document data using the pen / keyboard / mouse, it is instructed that there is a recording voice confirmation instruction. The time corresponding to the selected document position is taken out, the playback device is controlled from the control device, and the stored sound at the corresponding time is played back through the playback device.
[0009]
The elements constituting the document are characters, figures, pictures, etc., deletion records, scene change information, etc. composed of coordinate signals such as characters or figures drawn on the tablet or whiteboard. The pen input, key input, or mouse input is also used as an input for a search operation as described above. For example, when an audio signal corresponding to an explanation of a figure or the like is taken out by a user who creates a document on the screen of a display device that displays stored document data, the area on which the figure is drawn is pen-input on the board Alternatively, by moving the cursor on the display screen with a keyboard or mouse and instructing a part of the figure, the recording voice confirmation instruction is given, and the control device gives the voice signal from the time stamp of the stored voice signal. Is taken out and output from the speaker via the playback device.
[0010]
On the other hand, when creating a document by outputting the stored voice through the speaker by the playback device, it is possible to specify a part whose meaning is unknown from the voice alone, time information specification using a keyboard, etc., or storage voice specification using a GUI or the like. Corresponding characters and figures can be displayed on the display device. As described above, it is possible to reproduce and display the document input and the voice input in association with each other through the time stamp.
[0011]
As in this embodiment, a user who creates a document associates the recording created in real time with a keyboard of a personal computer, a touch panel such as a tablet PC or PDA, or a pen input system with the voice data on the spot at the time. Select a part of the record entered with the device and keyboard, touch panel, or pen input system, and create a document or graphic format record with the audio as the data source by using the playback device to associate the selected data with the time I want to check the document or graphic recording, such as when I missed a keystroke or pen speed that I could not hear at times, or when I missed the record, or when I want to check the document or graphic recording or the audio source data If a location is selected, the associated audio data can be played back at that time. , Sure can as to become documentation of confirmation or sound source data of the record of the graphic form or fill in the record leakage becomes easy.
[0012]
FIG. 2 shows an explanatory diagram of an embodiment of a method for accumulating handwritten information which is document input data in the document creation support system according to the present invention. Characters and figures drawn with a pen on a whiteboard or tablet are sampled from the coordinate data, and an absolute time (time stamp) is added to the header to form one
[0013]
FIG. 3 shows an explanatory diagram when a voice input is searched from a document input in the document creation support system according to the present invention. In the figure, an example in which a document that can be grooved at a fixed time, an object unit of both format records, and audio data are associated with each other is shown. The document data has one
[0014]
If any one of the
[0015]
In this way, the element (or group) corresponding to the time of the search key is searched from the stored document database in which all elements are stored. The search results are reproduced in order of time. When searching, what kind of information (audio, video, document, etc.) is required depends on the case, so add time information (preferably in the same format) to all data and search for any data at a specific time.・ It can be played back. In addition, as for the functions necessary for the search, a document corresponding to voice is rarely input at the same time, and the voice may be earlier or later as described above. This correction can only be done manually by hand, but as a support for the correction, there may be an expression method that can estimate the time lag just by looking, such as a speech recognition result (OK even if there is a recognition error). . It is also convenient to be able to prepare a function that can automatically determine the time lag from the voice recognition result and the content of the document and group it.
[0016]
FIG. 4 is an explanatory diagram for explaining the relationship between document input and voice input in the document creation support system according to the present invention. In the case of sentences, the units for adding time information to the document data may be character units, vocabulary units, sentence units, punctuation marks, space units, line feed units, and conversion processing units. Further, graphic information, deletion information, scene change information, etc. may be used as event occurrence units. In addition to this, an object unit that can be grouped at a fixed time regardless of the recording data format may be used. FIG. 4 shows an example of associating a document that can be grouped at a fixed time as described above, an object unit of both format records, and audio data.
[0017]
FIG. 5 shows a block diagram of another embodiment of the document creation support system according to the present invention. In this embodiment, the input side and the search side are shown separately. From the document input IF, coordinate data such as characters and figures drawn using a touch panel (tablet or whiteboard) is input as described above, and characters and symbol code data input using a keyboard or the like are input. .
[0018]
The coordinate data is converted into a coordinate sequence with a time stamp. This time-stamped coordinate string is TM · x1, y1, x2, y2,. Here, TM is a time stamp, and END is an end mark. These are recorded as the
[0019]
The recorded data of the
[0020]
In addition, at the time of creating the document, the time stamp information added to the character string by specifying the corresponding character string with a pen or cursor while the recorded data of the
[0021]
Furthermore, at the time of creating the document, a portion of the audio signal recorded in the
[0022]
In this way, when creating a document with audio as a data source, when it is not audible when creating a record in the figure format, or when the key input or pen speed cannot keep up with the record omission, confirmation of the document, diagram format record, or audio source data If you want to check the document or graphic recording, you can play the associated audio data at that time, fill the record omission, check the graphic recording, or record the audio source data. You can check it.
[0023]
According to the document creation support system of the embodiment described above, the voice information recorded at the same time can be reproduced by directly pointing to an unclear point in the manually or keyed document. This makes it possible to complete an accurate document without any problems. PC (personal computer, the same applies hereinafter) and PDA users can be expanded by proposing a new recording format by associating input documents with audio data.
[0024]
The invention made by the present inventor has been specifically described based on the embodiments. However, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the scope of the invention. Nor. For example, the document input means may take various embodiments, such as one that captures characters or figures as coordinate data, one that inputs a key code like a keyboard, or one that uses cursor or positional information of a mouse. it can. The audio signal may be added with a conversion function that eliminates silence or increases the playback frequency within the recognizable range of the sampling frequency during recording so that it can be heard quickly. Good. The present invention is a document creation support system that can be combined with a network shared whiteboard and voice chat, as in a PDA, notebook PC, tablet PC, electronic blackboard, video conference system, and electronic conference system (net meeting). Widely available.
[0025]
【The invention's effect】
The effects obtained by the representative ones of the inventions disclosed in the present application will be briefly described as follows. Coordinate data or key data is generated by the document input means, first storage information obtained by adding time information to the input signal is stored in the first storage means, and time information is stored in the voice signal captured by the voice input means. The second storage information added is recorded in the second storage means, and the second storage information stored in the second storage means related thereto is changed from the first storage information of the first storage means through the time information as a medium. By retrieving and outputting from the audio reproduction device, or by retrieving the first storage information stored in the first storage means related to the second storage information of the second storage means and displaying it on the display device, the document High efficiency of creation can be realized.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an embodiment of a document creation support system according to the present invention.
FIG. 2 is an explanatory diagram showing an embodiment of a method for accumulating handwritten information as document input data in the document creation support system according to the present invention.
FIG. 3 is an explanatory diagram when a voice input is searched from a document input in the document creation support system according to the present invention.
FIG. 4 is an explanatory diagram for explaining the relationship between document input and voice input in the document creation support system according to the present invention.
FIG. 5 is a block diagram showing another embodiment of the document creation support system according to the present invention.
[Explanation of symbols]
TM ... Time stamp, x1, y1, x2, y2 ... Coordinate data, A, B, C, D ... Key input information, END ... End mark.
Claims (3)
上記文書入力手段により取り込まれた入力信号に時刻情報が加えられてなる第1記憶情報を記憶する第1記憶手段と、
音声入力手段と、
上記音声入力手段により取り込まれた音声信号に時刻情報が加えられてなる第2記憶情報を記憶する第2記憶手段と、
上記第1記憶手段に記憶された第1記憶情報から表示を行う表示装置と、
上記第2記憶手段に記憶された第2記憶情報から音声信号を再生する音声再生装置と、
上記時刻情報を媒介として上記第1記憶手段の第1記憶情報からそれに関連する第2記憶手段に記憶された第2記憶情報を検索して上記音声再生装置から出力させ、又は上記第2記憶手段の第2記憶情報からそれに関連する第1記憶手段に記憶された第1記憶情報を検索して上記表示装置により表示させる制御装置とを備えてなることを特徴とする文書作成支援システム。Document input means for generating coordinate data or key data;
First storage means for storing first storage information obtained by adding time information to the input signal captured by the document input means;
Voice input means;
Second storage means for storing second storage information obtained by adding time information to the voice signal captured by the voice input means;
A display device for displaying from the first storage information stored in the first storage means;
An audio reproduction device for reproducing an audio signal from the second storage information stored in the second storage means;
Using the time information as a medium, the second storage information stored in the second storage means related to the first storage information of the first storage means is retrieved and output from the audio reproduction device, or the second storage means And a control device for retrieving the first storage information stored in the first storage means related thereto from the second storage information and displaying it on the display device.
上記文書入力手段により取り込まれた座標データは、サンプリングされて上記入力信号とされることを特徴とする文書作成支援システム。In claim 1,
A document creation support system, wherein the coordinate data captured by the document input means is sampled and used as the input signal.
上記座標データは、連続した座標データを要素とし、時刻的距離と空間的距離により複数の要素をグループ化して上記時刻情報が加えられるものであり、
上記複数のグループは、更にグループ化されて大グループが形成されることを特徴とする文書作成支援システム。In claim 2,
The coordinate data includes continuous coordinate data as elements, and a plurality of elements are grouped by time distance and spatial distance, and the time information is added.
The document creation support system, wherein the plurality of groups are further grouped to form a large group.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003185841A JP2005017949A (en) | 2003-06-27 | 2003-06-27 | Document creation support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003185841A JP2005017949A (en) | 2003-06-27 | 2003-06-27 | Document creation support system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005017949A true JP2005017949A (en) | 2005-01-20 |
Family
ID=34185133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003185841A Pending JP2005017949A (en) | 2003-06-27 | 2003-06-27 | Document creation support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005017949A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016157176A (en) * | 2015-02-23 | 2016-09-01 | 株式会社プロフィールド | Data processing apparatus, data structure, data processing method, and program |
JP2017090921A (en) * | 2016-12-13 | 2017-05-25 | 株式会社プロフィールド | Data processing apparatus, data structure, data processing method, and program |
-
2003
- 2003-06-27 JP JP2003185841A patent/JP2005017949A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016157176A (en) * | 2015-02-23 | 2016-09-01 | 株式会社プロフィールド | Data processing apparatus, data structure, data processing method, and program |
JP2017090921A (en) * | 2016-12-13 | 2017-05-25 | 株式会社プロフィールド | Data processing apparatus, data structure, data processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018227761A1 (en) | Correction device for recorded and broadcasted data for teaching | |
CN101998107B (en) | Information processing apparatus, conference system and information processing method | |
KR20080097361A (en) | Creating annotated recordings and transcripts of presentations using a mobile device | |
JP2008084110A (en) | Information display device, information display method and information display program | |
WO2019019406A1 (en) | Teaching recording data updating device | |
WO2023160288A1 (en) | Conference summary generation method and apparatus, electronic device, and readable storage medium | |
JP2018180519A (en) | Voice recognition error correction support device and program therefor | |
Bouamrane et al. | Meeting browsing: State-of-the-art review | |
JP6095553B2 (en) | Information display apparatus, method and program | |
CN104572712A (en) | Multimedia file browsing system and multimedia file browsing method | |
KR20140062247A (en) | Method for producing lecture text data mobile terminal and monbile terminal using the same | |
KR102396263B1 (en) | A System for Smart Language Learning Services using Scripts | |
JP3234083B2 (en) | Search device | |
JP2010002788A (en) | Learning terminal, and learning program | |
JP2010002787A (en) | Learning system, learning terminal, and learning program | |
Campbell | Tools and resources for visualising conversational-speech interaction | |
US20090240734A1 (en) | System and methods for the creation, review and synchronization of digital media to digital audio data | |
Thompson | Making noise in the Roaring’Twenties: sound and aural history on the web | |
JP2005017949A (en) | Document creation support system | |
JP2009283020A (en) | Recording apparatus, reproducing apparatus, and program | |
JP2005326811A (en) | Voice synthesizer and voice synthesis method | |
JP3548900B2 (en) | Multimedia information processing device | |
Sladek et al. | Speech-to-text transcription in support of pervasive computing | |
JP4250983B2 (en) | Device for associating user data with continuous data | |
JP2006195900A (en) | Multimedia content generation device and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060623 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090701 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100120 |