JPH08320940A - Composite information processor - Google Patents

Composite information processor

Info

Publication number
JPH08320940A
JPH08320940A JP7125107A JP12510795A JPH08320940A JP H08320940 A JPH08320940 A JP H08320940A JP 7125107 A JP7125107 A JP 7125107A JP 12510795 A JP12510795 A JP 12510795A JP H08320940 A JPH08320940 A JP H08320940A
Authority
JP
Japan
Prior art keywords
stroke
input
information
time
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7125107A
Other languages
Japanese (ja)
Other versions
JP3552338B2 (en
Inventor
Hiroshi Kawamoto
浩史 川本
Hiroshi Ishikawa
宏 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP12510795A priority Critical patent/JP3552338B2/en
Publication of JPH08320940A publication Critical patent/JPH08320940A/en
Application granted granted Critical
Publication of JP3552338B2 publication Critical patent/JP3552338B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Document Processing Apparatus (AREA)

Abstract

PURPOSE: To receive integrated information from both of eyes and ears by allowing stroke input time and sound information recorded during the input period of the stroke to correspond to each other to generate composite information. CONSTITUTION: A packet data constituting part 3 annexes current time data inputted from a clock/counter 10 to stroke information inputted from a stroke input part 1. A writing processing part 4 outputs the stroke data with time information to a composite information file 5 together with voice data recorded at the time of inputting the stroke. The composite information recorded in the file 5 is read out by a reading processing part 6 and each time information- added data constituting the composite information are generated at the same time interval as recording time interval. Each time-added data generated at the generation time are transmitted to a stroke plotting part 8 and a sound reproducing part 9 and stroke plotting and voice reproduction are executed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像と音声との双方を
入力して画像と音声との双方からなる複合情報を生成す
る複合情報処理装置、および、その複合情報に基づいて
画像と音声の双方を出力する複合情報処理装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a composite information processing apparatus for inputting both an image and a sound to generate composite information including the image and the sound, and an image and a sound based on the composite information. The present invention relates to a composite information processing device that outputs both

【0002】[0002]

【従来の技術】従来、文章や画像、図表のような視覚的
情報と、発話音声や音楽、効果音のような音声情報は、
もっぱら各々の情報モードに切りわけて取り扱われて来
た。例えば紙メディアに代表される視覚的情報は、物理
的な郵送やファクシミリ、LAN上での電子メール、テ
レックス、電報などの通信経路で流通し、利用者には紙
面、もしくは、電子的あるいは光学的表示画面の上に提
供されてきた。その一方で音声情報は、電話やラジオ、
TV等の放送などの通信路、およびCD、テープなどの
オフライン媒体を中心に伝達、流通されてきた。
2. Description of the Related Art Conventionally, visual information such as sentences, images and charts, and audio information such as speech, music and sound effects are
It has been handled by dividing it into each information mode. For example, visual information typified by paper media is distributed through communication channels such as physical mail, facsimile, electronic mail on LAN, telex, telegram, etc., and it is printed on paper or electronically or optically to users. Has been provided on the display screen. On the other hand, the voice information is
It has been transmitted and distributed mainly through communication channels for broadcasting such as TV and offline media such as CDs and tapes.

【0003】しかし近年、複合情報、すなわち視覚情報
と音声情報との双方を合わせてデジタル記録し保存・再
利用するものとして、パーソナルコンピュータ上でのマ
ルチメディア媒体(あるいはシステム)が普及しはじめ
ている。例えばアップルコンピューターではクイックタ
イム(Quick Time)というソフトウエアがマ
ッキントッシュ上に蓄積された音声と動画を再生できる
し、いくつかの動画を作るアプリケーションソフトも発
売されている。
However, in recent years, a multimedia medium (or system) on a personal computer has begun to spread as a composite information, that is, a combination of both visual information and audio information which is digitally recorded, stored and reused. For example, in Apple Computer, software called Quick Time can play back audio and video stored on the Macintosh, and application software for making some videos has been released.

【0004】特に最近では、ネットワーク上の通信端末
から視覚情報と音声情報との双方をアクセスする技術も
開発されつつある。特開平4−105114号公報に記
載された装置においては、音声に加えて画像情報をスキ
ャナで取り込み、タブレット等のポインティング・デバ
イスで双方向に操作することのできる通信端末が報告さ
れている。
Particularly in recent years, a technique for accessing both visual information and audio information from a communication terminal on a network is being developed. In the device described in Japanese Patent Application Laid-Open No. 4-105114, a communication terminal capable of capturing image information in addition to voice with a scanner and bidirectionally operating with a pointing device such as a tablet has been reported.

【0005】また、プレゼンテーション用として、音声
つきの簡単なアニメーションを編集するソフトウエア・
ツールも開発されている。
Software for editing a simple animation with sound for presentation
Tools are also being developed.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、従来の
マルチメディア・コミュニケーションにおいては、利用
者が作成した画像情報と音声情報は、ページ単位と文章
単位のように、比較的大きな単位で分離され、保存、伝
達されてきた。そのため、ボイスつき電子メールなどで
は、文書中に音声を挿入することはできるが、画像の作
成過程と音声の説明とを関連づけることはできない。し
たがって、例えば地図を使って道順を説明したり、設計
図を用いて機械の動作を説明しようとするときに、音声
情報が画像情報のどこを指示しているかが明確になら
ず、マルチメディアとしての効力が十分には発揮されな
い。
However, in the conventional multimedia communication, the image information and the audio information created by the user are separated and stored in relatively large units such as page units and sentence units. , Has been transmitted. Therefore, in e-mail with voice, etc., the voice can be inserted into the document, but the process of creating the image and the explanation of the voice cannot be associated with each other. Therefore, for example, when explaining directions using a map or explaining the operation of a machine using a blueprint, it is not clear where the audio information points in the image information. Is not fully effective.

【0007】前述のアニメーション編集ソフトウエア・
ツールには、画像を細かく制御する機能も提供されてい
るものがあるが、これを利用するためには多くの時間を
かけて細かい編集作業を遂行する必要があり、利用者が
リアルタイムに記録、通信に利用するための道具として
まったく不向きである。本発明は、上記事情に鑑み、目
と耳との双方から統一のとれた情報を受け取ることので
きるシステムに適した複合情報処理装置を提供すること
を目的とする。
The above-mentioned animation editing software
Some tools also have the function of finely controlling the image, but in order to use this, it is necessary to spend a lot of time performing detailed editing work, and the user can record in real time. It is completely unsuitable as a tool for communication. In view of the above circumstances, it is an object of the present invention to provide a composite information processing device suitable for a system that can receive unified information from both eyes and ears.

【0008】[0008]

【課題を解決するための手段】上記目的を達成する本発
明の第1の複合情報処理装置は、 (1−1)複数のストロークからなる線画を入力する線
画入力操作子 (1−2)音声を収録する音声収録手段 (1−3)線画入力操作子の操作により入力された各ス
トロークの入力順もしくは入力時刻を計測する計測手段 (1−4)線画入力操作子の操作により入力された各ス
トロークを表わす各ストローク情報と、上記計測手段に
より計測された、各ストロークの入力順もしくは入力時
刻と、各ストロークの入力期間中に音声収録手段により
収録された各音声を表わす各音声情報とが互いに対応づ
けられてなる複合情報を生成する複合情報生成手段 を備えたことを特徴とする。
Means for Solving the Problems A first composite information processing apparatus of the present invention that achieves the above object is: (1-1) Line drawing input operator for inputting a line drawing consisting of a plurality of strokes (1-2) Voice (1-3) Measuring means for measuring the input order or input time of each stroke input by the operation of the line drawing input operator (1-4) Each input by the operation of the line drawing input operator Each stroke information indicating a stroke, the input order or input time of each stroke measured by the above-mentioned measuring means, and each voice information indicating each voice recorded by the voice recording means during the input period of each stroke are mutually related. It is characterized in that it is provided with a composite information generating means for generating composite information associated with each other.

【0009】また上記目的を達成する本発明の第2の複
合情報処理装置は、 (2−1)表示画面上に、複数のストロークから構成さ
れる線画を描画する線画描画手段 (2−2)音声を発音する発音手段 (2−3)線画を構成する各ストロークを表わす各スト
ローク情報と、各ストロークの入力順もしくは入力時刻
と、各ストロークに対応する各音声を表わす各音声情報
とが互いに対応づけられてなる複合情報を構成する上記
入力順もしくは入力時刻に基づいて互いに対応をとりな
がら、上記複合情報を構成する各ストローク情報に基づ
く各ストロークを上記表示画面に表示させるとともに、
上記複合情報を構成する各音声情報に基づく各音声を上
記発音手段により発音させる出力制御手段 を備えたことを特徴とする。
A second composite information processing apparatus of the present invention which achieves the above object is: (2-1) Line drawing means for drawing a line drawing composed of a plurality of strokes on a display screen (2-2) Sound producing means for producing voice (2-3) Each stroke information representing each stroke constituting the line drawing, the input order or input time of each stroke, and each voice information representing each voice corresponding to each stroke correspond to each other. While corresponding to each other based on the input order or input time configuring the composite information that is attached, while displaying each stroke based on each stroke information configuring the composite information on the display screen,
It is characterized by further comprising output control means for causing the sounding means to generate each sound based on each sound information forming the composite information.

【0010】ここで、上記本発明の第2の複合情報処理
装置において、上記出力制御手段が、各ストロークに対
応する各音声の持続時間に応じた描画速度で、各ストロ
ークを表示画面に描画させるものであることが好まし
い。あるいは、上記本発明の第2の複合情報処理装置に
おいて、上記出力制御手段が、各ストロークに対応する
各音声が上記発音手段により発音されている間、発音中
の音声に対応する上記表示画面上のストロークを、その
表示画面上に表示されている他のストロークの属性とは
異なる属性で表示させるものであることも好ましい態様
である。
Here, in the second composite information processing apparatus of the present invention, the output control means draws each stroke on the display screen at a drawing speed according to the duration of each voice corresponding to each stroke. It is preferably one. Alternatively, in the second composite information processing apparatus of the present invention, the output control means displays on the display screen corresponding to a sound being produced while each sound corresponding to each stroke is being produced by the sound producing means. It is also a preferable aspect that the stroke is displayed with an attribute different from the attributes of other strokes displayed on the display screen.

【0011】ここで、上記「入力時刻」は、典型的には
そのストロークの入力開始時刻を指すが、必ずしも入力
開始時刻である必要はなく、そのストロークの入力終了
時刻、あるいはそのストロークの入力開始時刻と入力終
了時刻との中間の時刻等、そのストロークに対応する代
表的な時刻であればよい。また、その「入力時刻」は、
絶対的な時刻であってもよいが、それに限られず、例え
ば一連のストロークのうちの最初のストロークの入力開
始時刻を基準とした相対時刻、あるいは一連のストロー
クの入力順と、直前に入力されたストロークの入力開始
時刻ないし入力終了時刻と今回入力されたストロークの
入力開始時刻との間の時間差との組合せ等、ストローク
とストロークとの入力タイミングの関係がわかる情報で
あればどのようなものであってもよい。
Here, the "input time" typically refers to the input start time of the stroke, but it does not necessarily have to be the input start time, but the input end time of the stroke or the input start of the stroke. A representative time corresponding to the stroke, such as an intermediate time between the time and the input end time, may be used. Also, the "input time" is
It may be an absolute time, but it is not limited to this. For example, the relative time based on the input start time of the first stroke in the series of strokes, or the input order of the series of strokes, and the immediately preceding input What kind of information can be used to understand the relationship between stroke input timings, such as the combination of the stroke input start time or input end time and the time difference between the stroke input start time input this time. May be.

【0012】尚、上記本発明の第1の複合情報処理装置
は複合情報の入力を担当する装置であり、また本発明の
第2の複合情報処理装置は複合情報の出力を担当する装
置であり、これら第1及び第2の複合情報処理装置を統
合して複合情報の入力と出力との双方を担う1つの複合
情報処理装置を構成してもよい。ただし、1つの装置に
統合する必要はなく、それら第1の複合情報処理装置及
び第2の複合情報処理装置が通信回線を経由して互いに
接続されていてもよく、あるいは独立に設置され、例え
ばフロッピィディスク、MO等の可搬性記憶媒体を介し
て複合情報を授受するものであってもよい。
The first composite information processing device of the present invention is a device in charge of input of composite information, and the second composite information processing device of the present invention is a device in charge of output of composite information. Alternatively, the first and second composite information processing devices may be integrated to form one composite information processing device that handles both input and output of composite information. However, it is not necessary to integrate them into one device, and the first composite information processing device and the second composite information processing device may be connected to each other via a communication line, or they may be installed independently, The composite information may be transmitted and received via a portable storage medium such as a floppy disk or MO.

【0013】[0013]

【作用】本発明の第1の複合情報処理装置によれば、各
ストロークの入力順ないし入力時刻を計測し、各ストロ
ークと、各ストロークの入力順ないし入力時刻と、各音
声とが互いに対応づけられた複合情報を生成するもので
あるため、情報出力にあたっては、目と耳とで対応のと
れた情報を受けることができ、表現力と理解性の高いコ
ミュニケーション手段が実現される。
According to the first composite information processing apparatus of the present invention, the input order or input time of each stroke is measured, and each stroke, the input order or input time of each stroke, and each voice are associated with each other. Since the generated composite information is generated, in outputting information, it is possible to receive information in which the eyes and ears correspond to each other, and to realize a communication means with high expressiveness and comprehension.

【0014】また、本発明の第2の複合情報処理装置
は、複合情報中の入力順ないし入力時刻に基づいて、ス
トロークと音声を、互いに対応をとりながら出力するも
のであり、上述の、表現力と理解性の高いコミュニケー
ションが実現する。本発明の第2の複合情報処理装置に
おける、ストロークと音声との対応のとり方は、特定の
対応のとり方に限定されるものではないが、例えば、音
声の持続時間に応じた描画速度で、その音声に対応する
ストロークを表示画面上に描画すると、描画中のストロ
ークが発音中の音声に対応することが直ちに認識され
る。あるいは描画速度で対応をとる代わりに、例えば発
音中の音声に対応するストロークを他のストロークとは
別の属性で表示すること、例えば別の色で表示したり、
太く表示したり、そのストロークをブリンクさせたりす
ることによっても、発音中の音声に対応するストローク
が容易に認識される。
The second composite information processing apparatus of the present invention outputs strokes and voices in correspondence with each other based on the input order or input time in the composite information, and the above-mentioned expression Communication with high power and understanding is realized. In the second composite information processing apparatus according to the present invention, the correspondence between the stroke and the voice is not limited to a specific correspondence, but, for example, at a drawing speed according to the duration of the voice, When the stroke corresponding to the voice is drawn on the display screen, it is immediately recognized that the stroke being drawn corresponds to the sound being produced. Alternatively, instead of responding at the drawing speed, for example, displaying a stroke corresponding to the sound being sounded with a different attribute from other strokes, such as displaying in a different color,
The stroke corresponding to the voice being sounded can be easily recognized also by displaying it thick and blinking the stroke.

【0015】尚、本発明では、ストロークと音声とを対
応させているため、入力時に例えばストロークの開始よ
りも遅れて音声が入力された場合であっても、出力時に
はストロークの出力開始時刻と音声出力開始時刻とを容
易に揃えることができ、入力時に、出力時を想定して対
応する音声の入力時点を精密に管理する必要はなく、使
い勝手の良い装置ないしシステムが実現する。
In the present invention, since the stroke and the voice are associated with each other, even if the voice is input later than the start of the stroke at the time of input, the output start time of the stroke and the voice are output at the time of output. The output start time can be easily aligned with each other, and when inputting, it is not necessary to precisely manage the input time point of the corresponding voice assuming the output time, and an easy-to-use device or system can be realized.

【0016】[0016]

【実施例】以下、本発明の実施例について説明する。こ
こでは、本発明の本実施例として、ポインティングデバ
イスによるフリーハンド作画と音声による解説入力を同
期させて記録する装置について説明する。図1は、本発
明の第1の複合情報処理装置および本発明の第2の複合
情報処理装置の双方の構成を含む複合情報処理装置の一
実施例のブロック図である。
Embodiments of the present invention will be described below. Here, as an embodiment of the present invention, an apparatus for recording freehand drawing by a pointing device and commentary input by voice in synchronization will be described. FIG. 1 is a block diagram of an embodiment of a composite information processing apparatus including the configurations of both the first composite information processing apparatus of the present invention and the second composite information processing apparatus of the present invention.

【0017】詳細説明は後述することとし、ここでは、
先ず、この図1を参照して、本実施例の全体についてそ
の概要を説明する。ストローク入力部1には、マウス
(図示せず)が備えられており、そのマウスを操作する
ことにより、線画を構成する各ストロークを表すストロ
ークデータが入力される。また、音声入力部2では音声
が収録されて音声情報が入力される。
A detailed description will be given later, and here,
First, with reference to FIG. 1, an outline of the entire embodiment will be described. The stroke input unit 1 is provided with a mouse (not shown), and by operating the mouse, stroke data representing each stroke forming a line drawing is input. Further, the voice input unit 2 records voice and inputs voice information.

【0018】ストローク入力部1から入力されたストロ
ーク情報には、パケットデータ構成部3においてクロッ
ク/カウンタ10から得る現在時刻のデータが添付され
る。この時刻情報つきストロークデータは、そのストロ
ークを入力する際に収録された音声データとともに、書
き出し処理部4により、複合情報ファイル5に出力され
る。複合情報ファイル5は描画ストローク・データと音
声データとを時刻データつきでキュー形式のシーケンス
・データにしたものである。複合情報ファイル5に記録
された複合情報は、読み出し処理部6により読み出さ
れ、複合情報を構成する各時刻情報つきデータが記録時
と同じ時間間隔で生起される。これは、時刻調整部7
が、クロック/カウンタ10を参照しながら、各時刻情
報つきデータを管理することによって実行される。生起
時刻となって起動された各時刻情報つきデータは、スト
ローク描画部8もしくは音声再生部9に伝送される。
The stroke information input from the stroke input unit 1 is attached with data of the current time obtained from the clock / counter 10 in the packet data construction unit 3. The stroke data with time information is output to the composite information file 5 by the writing processing unit 4 together with the voice data recorded when the stroke is input. The composite information file 5 is a sequence data in the form of a queue with drawing time data and voice data together with time data. The composite information recorded in the composite information file 5 is read by the read processing unit 6, and each data with time information forming the composite information is generated at the same time intervals as when recording. This is the time adjustment unit 7
Is performed by managing each data with time information while referring to the clock / counter 10. The data with each time information which is activated at the occurrence time is transmitted to the stroke drawing unit 8 or the voice reproduction unit 9.

【0019】図2は、図1にブロックで示す複合情報フ
ァイルを構成する、ストロークデータと音声データのフ
ァイル構造を示す図である。まず入力されたストローク
データを保存するストローク・データ領域から説明す
る。パケット・インデックスは、各ストロークの生起順
序を示す続き番号である。これは、音声のデータ・パケ
ットにも同様に添付されており、2系統の通し番号とな
っている。ストローク描画起動時刻は、ストロークの入
力が生起した時刻を、ストローク入力作業開始時点から
の経過時間で記録するものである。計時に関して、スト
ロークの入力はマウス左ボタンのクリックをもって生起
したものとする。経路点リストはストロークを形成する
座標点の集合であり、ストローク点数はそのストローク
を構成する座標点の数である。音声参照ポインタは、同
時に再生する音声データ・パケットのアドレス(パケッ
ト・インデックス)を指定するものである。対応する音
声が存在しない場合はヌル・ポインタが記録される。
FIG. 2 is a diagram showing a file structure of stroke data and voice data which composes the composite information file shown by blocks in FIG. First, the stroke data area for storing the input stroke data will be described. The packet index is a serial number indicating the order of occurrence of each stroke. This is also attached to the voice data packet, and is a serial number of two systems. The stroke drawing start time records the time when the stroke is input as the elapsed time from the start of the stroke input work. Regarding timing, it is assumed that the stroke input is generated by clicking the left mouse button. The route point list is a set of coordinate points forming a stroke, and the stroke point number is the number of coordinate points forming the stroke. The audio reference pointer designates the address (packet index) of audio data packets to be reproduced simultaneously. A null pointer is recorded if there is no corresponding voice.

【0020】次に、音声データ領域を説明する。パケッ
ト・インデックスは、各音声データの生起順序を示す続
き番号である。描画参照ポインタは、同時に表示すべき
ストロークデータ・パケットのインデックスを指定する
ものである。対応するストロークが存在しない場合はヌ
ル・ポインタが記録される。音声データ長には、音声信
号データのバイト長を記録しており、音声再生の所要時
間はこれから容易に算出される。本実施例では圧縮の手
段を用いていないが、記憶容量の効率的活用のために音
声データ圧縮を行う場合は、この音声データ長に加えて
音声持続時間を与えれば同様に装置が構成される。
Next, the voice data area will be described. The packet index is a serial number indicating the occurrence order of each audio data. The drawing reference pointer specifies the index of the stroke data packet to be displayed at the same time. A null pointer is recorded if there is no corresponding stroke. The byte length of the audio signal data is recorded in the audio data length, and the required time for audio reproduction is easily calculated from this. Although a compression means is not used in the present embodiment, when audio data compression is performed in order to efficiently use the storage capacity, a device is similarly configured by giving an audio duration in addition to this audio data length. .

【0021】次に、本実施例の動作を説明する。図3
は、複合情報ファイルに描画データと音声データとを関
連づけて記録する処理順序を示すフローチャートであ
る。記録作業が開始されると(S21)、マウスクリッ
クおよびそれに続く音声入力の待ち状態にはいる。始め
てのストローク・データ入力があった時点、すなわちこ
こではマウスボタンの最初の押下を記録作業の起点とし
てクロックを初期化する。以降発生したデータ入力はす
べてこの起点からの経過時間により記録される。マウス
左ボタンが押下される(S22)と、ストローク座標点
の入力処理(S23)に移り、そこでは、ストロークの
開始点と一定時間間隔でサンプリングされた経路座標点
とのデータセットを得ることで入力処理を完了する。ス
トローク情報の採取処理終了はマウス左ボタンの解放を
もってする(S24)。
Next, the operation of this embodiment will be described. FIG.
FIG. 9 is a flowchart showing a processing sequence for recording drawing data and audio data in association with each other in a composite information file. When the recording work is started (S21), the process is in a waiting state for mouse click and subsequent voice input. At the time when the first stroke data is input, that is, here, the first depression of the mouse button is used as the starting point of the recording operation to initialize the clock. All subsequent data entry will be recorded by the time elapsed from this origin. When the left mouse button is pressed (S22), the process proceeds to stroke coordinate point input processing (S23), in which a data set of a stroke start point and a path coordinate point sampled at fixed time intervals is obtained. Complete the input process. Completion of the stroke information collection process is performed by releasing the left mouse button (S24).

【0022】ストローク情報の採取開始と同時に、音声
データのサンプリングが並行して起動される。まずデー
タの入力待ち状態(S25)に入り、あらかじめ定めた
閾値強度Ath以上の信号が閾値区間Tth1以上連続
して入力されると、A/Dコンバータ(図示せず)から
のデータ・サンプリングを開始する(S26)。音声の
サンプリング終了については、開始と同様に、閾値強度
Ath以下の信号が閾値区間Tth2以上連続すると無
音区間と判断し、データ・サンプリングを終了する(S
27)。
Simultaneously with the start of collecting stroke information, sampling of voice data is started in parallel. First, a data input waiting state (S25) is entered, and when a signal having a predetermined threshold intensity Ath or more is continuously input for a threshold period Tth1 or more, data sampling from an A / D converter (not shown) is started. Yes (S26). Regarding the end of voice sampling, similarly to the start, when the signal with the threshold intensity Ath or less continues for the threshold interval Tth2 or more, it is determined to be a silent interval, and the data sampling is ended (S).
27).

【0023】ストローク・データと音声データからなる
データ・パケットはRAM上のパケットバッファ11へ
書き込まれる(S29)。ストロークデータの採取と音
声データの採取が共に完了した時点で、図1に示すクロ
ック/カウンタ10のカウンタがインクリメントされる
(S28)。無音区間を検知する前にマウスがオフさ
れ、その後未だ無音区間を検知していない時点で、次の
ストローク入力すなわちマウス左ボタンが押下されても
その押下は無効化されている。
A data packet consisting of stroke data and voice data is written in the packet buffer 11 on the RAM (S29). When both the stroke data collection and the voice data collection are completed, the counter of the clock / counter 10 shown in FIG. 1 is incremented (S28). When the mouse is turned off before detecting the silent section and the silent section is not detected thereafter, even if the next stroke input, that is, the left mouse button is pressed, the pressing is invalidated.

【0024】また、音声(発話)を伴わないストローク
入力は、そのストロークパケットが、音声データが空の
音声データ・パケットを参照することによって表現され
る。一方、描画を伴わない音声情報を表現するために、
入力待ち時点(S25)においてマウス右ボタンが押下
されると、その右ボタンが押下されている期間だけ音声
信号のサンプリングがなされる。この音声データ・パケ
ットは、空のストローク・パケットを参照するように組
み合わされて記憶される。
A stroke input without voice (utterance) is expressed by referring to a voice data packet whose voice packet is empty. On the other hand, in order to express voice information without drawing,
When the right mouse button is pressed at the input waiting time (S25), the audio signal is sampled only during the time when the right button is pressed. This voice data packet is combined and stored to reference the empty stroke packet.

【0025】ストローク入力もしくは音声入力が終わる
と、上述したようにカウンタがインクリメントされ(S
28)、パケットバッファ11内のストロークパケット
および音声パケットが、このカウンタ値をパケット・イ
ンデックスとし、生起時刻とともに、ディスク上の複合
情報ファイル5(図1参照)に出力される(S29)。
When stroke input or voice input is completed, the counter is incremented as described above (S
28), the stroke packet and the voice packet in the packet buffer 11 are output to the composite information file 5 (see FIG. 1) on the disk along with the occurrence time, using this counter value as the packet index (S29).

【0026】以上のデータ入力、入力データの複合情報
ファイル5への書き出しの過程は、操作終了シグナルを
受け取るまで(S30)繰り返される。このシグナルは
マウス左ボタンにて終了ボタンアイコンをクリックする
ことにより発生する。操作終了シグナルを受け取るとフ
ァイルの終了(EOF)を複合情報ファイル5に書き込
んで終了する(S31)。
The process of inputting data and writing the input data to the composite information file 5 is repeated until an operation end signal is received (S30). This signal is generated by clicking the end button icon with the left mouse button. When the operation end signal is received, the end of file (EOF) is written in the composite information file 5 and the process ends (S31).

【0027】次に、複合情報ファイル5に記録された複
合情報を再生出力する再生出力モードについて説明す
る。本実施例における複合情報の再生出力モードには、
リアルタイムモードとステップモードが用意されてお
り、リアルタイムモードでは、ストローク記録時の時間
経過をそのまま再現し、ステップモードでは、ストロー
ク記録の再生順序にしたがって、ステップ式に描画/音
声を再生出力する。
Next, a reproduction output mode for reproducing and outputting the composite information recorded in the composite information file 5 will be described. In the reproduction output mode of the composite information in this embodiment,
A real-time mode and a step mode are prepared. In the real-time mode, the elapsed time at the time of stroke recording is reproduced as it is, and in the step mode, drawing / audio is reproduced and output stepwise according to the reproduction order of stroke recording.

【0028】図4は、リアルタイムモードによる再生を
示すフローチャートである。リアルタイム再生では、各
パケットを、記録時に入力された時刻に再生しなければ
ならないので、まず再生処理の起点となる時点において
クロックを初期化する(S41)。以降の各パケット再
生は、このクロックとの比較によって進行する。
FIG. 4 is a flowchart showing reproduction in the real time mode. In real-time reproduction, each packet must be reproduced at the time input at the time of recording, so the clock is first initialized at the starting point of reproduction processing (S41). Reproduction of each packet thereafter proceeds by comparison with this clock.

【0029】先ずストロークパケットが複合情報ファイ
ル5より読み込まれ(S43)、続いてこのパケットに
対応する音声パケットが読み出され(S44)、パケッ
トバッファ10に保持される。次に、パケットに記載さ
れたストローク描画起動時刻とクロックとが比較され、
出力デバイスへのデータ送信起動時刻に達するのを待つ
(S45)。起動時刻になると、描画および音声再生に
必要なデータがストローク描画部8および音声再生部9
(図1参照)に送信され、ストローク描画と音声再生が
行なわれる(S46,S47)。このリアルタイム再生
は、パケットの終了を示すEOFを検知するか(S4
2)、利用者からの割り込み終了シグナルを特定のキー
により受けるまで(S48)繰り返される。
First, a stroke packet is read from the composite information file 5 (S43), and then a voice packet corresponding to this packet is read (S44) and held in the packet buffer 10. Next, the stroke drawing start time described in the packet is compared with the clock,
It waits until the data transmission start time to the output device is reached (S45). At the start time, the data necessary for drawing and voice reproduction are transferred to the stroke drawing unit 8 and the voice reproduction unit 9.
(See FIG. 1), stroke drawing and voice reproduction are performed (S46, S47). Does this real-time reproduction detect the EOF indicating the end of the packet (S4
2) The process is repeated until an interrupt end signal from the user is received by a specific key (S48).

【0030】続いて、図5により、ステップモードにお
ける再生処理を説明する。リアルタイム再生と同様に、
まず複合情報ファイル5からパケット・データをフェッ
チしパケットバッファ11に保持する(S52,S5
3)。パケットデータはタイプ別にストローク描画部8
および音声再生部9(図1参照)に送信され、利用者か
らの進行を指示するシグナルを待つ(S54)。指示は
キー入力もしくはマウス左ボタンの押下による。指示が
入力されると、ストローク描画と音声再生が行なわれる
(S55,S56)。以上のステップは、複合情報ファ
イル5からそのパケットのデータをすべて読み出すか
(S51)、あるいは利用者からの中止指示があるまで
(S57)、繰り返される。中止シグナルの受信は、リ
アルタイム再生の場合と同様である。
Next, the reproduction process in the step mode will be described with reference to FIG. As with real-time playback,
First, the packet data is fetched from the composite information file 5 and held in the packet buffer 11 (S52, S5).
3). Stroke drawing unit 8 for packet data by type
Then, it waits for a signal sent from the user to the voice reproducing unit 9 (see FIG. 1) and instructing the progress (S54). Instructions are made by key input or pressing the left mouse button. When the instruction is input, stroke drawing and voice reproduction are performed (S55, S56). The above steps are repeated until all the data of the packet is read from the composite information file 5 (S51) or until there is a stop instruction from the user (S57). The reception of the stop signal is the same as in the case of real-time reproduction.

【0031】図6は、ストローク描画の詳細を示すフロ
ーチャートである。ストローク描画にあたっては、先
ず、パケットバッファ11から音声データ長およびスト
ローク点数が読み出される(S61,図2参照)。 1) 表示モード(S63)が描画時間制御の場合に
は、音声の持続時間Tsを均等に割った時間間隔Tin
t にて経路点を結び、描画される。そのために、まず
音声データ長Lv(byte)は、実時間Ts(se
c)へ変換される(S62)。この変換はA/D変換の
サンプリング周波数N(Hz)、データ幅Wbを用い
て、式Ts=Lv/(N×Wb)によって簡単に求ま
る。この音声持続時間をストローク経路点の数Lで均等
に割り(S64)、求められた平均値Tint=Ts/
Lを描画速度として、経路点をスプライン補間しなが
ら、曲線を形成する(S65)。
FIG. 6 is a flowchart showing details of stroke drawing. In drawing a stroke, first, the voice data length and the stroke score are read from the packet buffer 11 (S61, see FIG. 2). 1) When the display mode (S63) is the drawing time control, the time interval Tin obtained by equally dividing the audio duration Ts.
The route points are connected at t 1 and drawn. Therefore, first, the voice data length Lv (byte) is calculated as the real time Ts (se
It is converted into c) (S62). This conversion can be easily obtained by the equation Ts = Lv / (N × Wb) using the sampling frequency N (Hz) of A / D conversion and the data width Wb. This voice duration is evenly divided by the number L of stroke path points (S64), and the obtained average value Tint = Ts /
A curve is formed while spline interpolating the route points with L as the drawing speed (S65).

【0032】2) 表示モードとして、ストロークの特
殊描画が選択されているときには、特殊属性{ブリン
ク、線幅・線種変更、色変更}のいずれかあるいは組合
せがセットされ(S66)、ストロークを描画する(S
67)。このときの経路点はパラメータバッファ70に
保存される。その描画したストロークに対応する音声出
力が終了すると、その描画ストロークと同じストローク
の属性が標準値にセットされ(S68)その同じストロ
ークがパラメータバッファから読み出されて再度描画さ
れる(S69)。
2) When stroke special drawing is selected as the display mode, one or a combination of special attributes {blink, line width / line type change, color change} is set (S66), and the stroke is drawn. Do (S
67). The route point at this time is stored in the parameter buffer 70. When the voice output corresponding to the drawn stroke ends, the attribute of the same stroke as the drawn stroke is set to the standard value (S68), and the same stroke is read from the parameter buffer and drawn again (S69).

【0033】図7は、本実施例による複合情報処理装置
がネットワーク上に配置された状態を示す図である。本
複合情報処理装置は、高機能ワークステーション70を
用いて実現したり、携帯情報端末71に実装することが
可能である。それらがLANあるいは公衆回線を通じて
通信することにより、従来のように、画像のみ、あるい
は音声のみ、さらには単純な音声つき画像によっても困
難であった複合情報の有機的なコミュニケーションが可
能となる。
FIG. 7 is a diagram showing a state in which the composite information processing apparatus according to this embodiment is arranged on the network. The present composite information processing apparatus can be realized by using the high-performance workstation 70 or can be mounted on the portable information terminal 71. By communicating with each other through a LAN or a public line, it becomes possible to organically communicate the complex information, which is difficult even with only an image, only a sound, or an image with a simple sound as in the past.

【0034】ここで、上述の実施例は、本発明にいう第
1の複合情報処理装置の機能と本発明にいう第2の複合
情報処理装置の機能との双方の機能をもった複合情報処
理装置であるが、本発明にいう第1の複合情報処理装置
と本発明にいう第2複合情報処理装置は1つの装置に統
合されている必要はない。例えば図7に示すワークステ
ーション70は線画と音声の入力のみを担当するもの
(本発明にいう第1の複合情報処理装置の一例)であっ
て、携帯情報端末71は線画と音声の出力のみを担当す
るもの(本発明にいう第2の複合情報処理装置の一例)
であってもよい。
Here, the above-described embodiment is a composite information processing having both the function of the first composite information processing apparatus according to the present invention and the function of the second composite information processing apparatus according to the present invention. Although it is an apparatus, the first composite information processing apparatus according to the present invention and the second composite information processing apparatus according to the present invention need not be integrated into one apparatus. For example, the workstation 70 shown in FIG. 7 is in charge of only inputting line drawing and voice (an example of the first composite information processing apparatus according to the present invention), and the portable information terminal 71 outputs only line drawing and voice. Person in charge (an example of the second composite information processing apparatus according to the present invention)
It may be.

【0035】[0035]

【発明の効果】以上説明したように、本発明によれば、
簡便な操作性のもとで、経時的に細かく同期した線画情
報と音声情報とを記録、伝達することができ、表現力と
理解性のより高いコミュニケーションが可能となる。
As described above, according to the present invention,
With simple operability, it is possible to record and transmit line drawing information and voice information that are finely synchronized with each other over time, and communication with higher expressiveness and comprehension is possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例のブロック図である。FIG. 1 is a block diagram of an embodiment of the present invention.

【図2】データ・パケットの構成図である。FIG. 2 is a configuration diagram of a data packet.

【図3】記録処理を示すフローチャートである。FIG. 3 is a flowchart showing a recording process.

【図4】リアルタイムモードでの再生処理を示すフロー
チャートである。
FIG. 4 is a flowchart showing a reproduction process in a real-time mode.

【図5】ステップモードでの再生処理を示すフローチャ
ートである。
FIG. 5 is a flowchart showing a reproduction process in step mode.

【図6】ストローク描画の詳細動作を示すフローチャー
トである。
FIG. 6 is a flowchart showing a detailed operation of stroke drawing.

【図7】複合情報処理装置がネットワーク上に配置され
た状態を示す図である。
FIG. 7 is a diagram showing a state in which a composite information processing device is arranged on a network.

【符号の説明】[Explanation of symbols]

1 ストローク入力部 2 音声入力部 3 パケットデータ構成部 4 書き出し処理部 5 複合情報ファイル 6 読み出し処理部 7 時刻調整部 8 ストローク描画部 9 音声再生部 10 クロック/カウンタ 11 パケットバッファ 12 パラメータバッファ 1 Stroke Input Section 2 Voice Input Section 3 Packet Data Composition Section 4 Write Processing Section 5 Complex Information File 6 Read Processing Section 7 Time Adjustment Section 8 Stroke Drawing Section 9 Audio Playback Section 10 Clock / Counter 11 Packet Buffer 12 Parameter Buffer

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 複数のストロークからなる線画を入力す
る線画入力操作子、 音声を収録する音声収録手段、 前記線画入力操作子の操作により入力された各ストロー
クの入力順もしくは入力時刻を計測する計測手段、およ
び前記線画入力操作子の操作により入力された各ストロ
ークを表わす各ストローク情報と、前記計測手段により
計測された、各ストロークの入力順もしくは入力時刻
と、該各ストロークの入力期間中に前記音声収録手段に
より収録された各音声を表わす各音声情報とが互いに対
応づけられてなる複合情報を生成する複合情報生成手段
を備えたことを特徴とする複合情報処理装置。
1. A line drawing input operator for inputting a line drawing consisting of a plurality of strokes, a voice recording means for recording a voice, and a measurement for measuring an input order or an input time of each stroke input by the operation of the line drawing input operator. Means, and stroke information representing each stroke input by the operation of the line drawing input operator, the input order or input time of each stroke measured by the measuring means, and the stroke during the input period of each stroke. A composite information processing apparatus comprising: composite information generation means for generating composite information in which each piece of voice information representing each voice recorded by the voice recording means is associated with each other.
【請求項2】 表示画面上に、複数のストロークから構
成される線画を描画する線画描画手段、 音声を発音する発音手段、および線画を構成する各スト
ロークを表わす各ストローク情報と、該各ストロークの
入力順もしくは入力時刻と、該各ストロークに対応する
各音声を表わす各音声情報とが互いに対応づけられてな
る複合情報を構成する前記入力順もしくは入力時刻に基
づいて互いに対応をとりながら、前記複合情報を構成す
る前記各ストローク情報に基づく各ストロークを前記表
示画面に表示させるとともに、前記複合情報を構成する
前記各音声情報に基づく各音声を前記発音手段により発
音させる出力制御手段を備えたことを特徴とする複合情
報処理装置。
2. A line drawing drawing means for drawing a line drawing composed of a plurality of strokes on a display screen, a sounding means for producing a sound, stroke information representing each stroke forming the line drawing, and stroke information for each stroke. The input order or input time and the voice information representing each voice corresponding to each stroke are associated with each other to form composite information, and the composite order is obtained while corresponding to each other based on the input order or the input time. The output control means displays each stroke based on each stroke information that constitutes information on the display screen, and causes each sound based on each voice information that constitutes the composite information to be sounded by the sounding means. A featured complex information processing device.
【請求項3】 前記出力制御手段が、前記各ストローク
に対応する前記各音声の持続時間に応じた描画速度で、
該各ストロークを前記表示画面に描画させるものである
ことを特徴とする請求項2記載の複合情報処理装置。
3. The output control means, at a drawing speed corresponding to a duration of each of the sounds corresponding to each of the strokes,
3. The composite information processing apparatus according to claim 2, wherein each stroke is drawn on the display screen.
【請求項4】 前記出力制御手段が、前記各ストローク
に対応する前記各音声が前記発音手段により発音されて
いる間、発音中の音声に対応する前記表示画面上のスト
ロークを、該表示画面上に表示されている他のストロー
クの属性とは異なる属性で表示させるものであることを
特徴とする請求項2記載の複合情報処理装置。
4. The output control means, on the display screen, strokes on the display screen corresponding to the sound being sounded while the sounds corresponding to the strokes are being sounded by the sounding means. The composite information processing apparatus according to claim 2, wherein the composite information processing apparatus is displayed with an attribute different from the attributes of the other strokes displayed in (3).
JP12510795A 1995-05-24 1995-05-24 Complex information processing device Expired - Fee Related JP3552338B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12510795A JP3552338B2 (en) 1995-05-24 1995-05-24 Complex information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12510795A JP3552338B2 (en) 1995-05-24 1995-05-24 Complex information processing device

Publications (2)

Publication Number Publication Date
JPH08320940A true JPH08320940A (en) 1996-12-03
JP3552338B2 JP3552338B2 (en) 2004-08-11

Family

ID=14902027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12510795A Expired - Fee Related JP3552338B2 (en) 1995-05-24 1995-05-24 Complex information processing device

Country Status (1)

Country Link
JP (1) JP3552338B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002099666A1 (en) * 2001-06-01 2002-12-12 Digital-Knowledge Co.,Ltd Dynamic image distributing method, server therefor, and program
JP2006505167A (en) * 2002-11-01 2006-02-09 シンクロ アーツ リミテッド Method and apparatus for use in sound replacement that automatically synchronizes with an image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002099666A1 (en) * 2001-06-01 2002-12-12 Digital-Knowledge Co.,Ltd Dynamic image distributing method, server therefor, and program
JP2006505167A (en) * 2002-11-01 2006-02-09 シンクロ アーツ リミテッド Method and apparatus for use in sound replacement that automatically synchronizes with an image

Also Published As

Publication number Publication date
JP3552338B2 (en) 2004-08-11

Similar Documents

Publication Publication Date Title
US7458013B2 (en) Concurrent voice to text and sketch processing with synchronized replay
US6304283B1 (en) Conference apparatus and method for realistically reproducing image data and shared board data
WO2021109678A1 (en) Video generation method and apparatus, electronic device, and storage medium
JP3955099B2 (en) Time-based media processing system
JPH07219970A (en) Method and apparatus for reproduction in acceleration format
CN113365134B (en) Audio sharing method, device, equipment and medium
CN109474843A (en) The method of speech control terminal, client, server
US7970263B1 (en) Seamless integration of video capture in demonstration applications
EP3024223B1 (en) Videoconference terminal, secondary-stream data accessing method, and computer storage medium
MXPA03002790A (en) Synchronization mechanism for multimedia captioning and audio description.
US20020085022A1 (en) Presentation system, method for generating presentation data, and program for generating presentation data
JP4010094B2 (en) Lecture information presentation device for remote locations
US20040151471A1 (en) Method and apparatus for controlling editing image display
JP2006033841A (en) Screen searching method and screen searching device for digital reproduction
KR100395883B1 (en) Realtime lecture recording system and method for recording a files thereof
JP2007028242A (en) Terminal apparatus and computer program applied to the same
JP2012178028A (en) Album creation device, control method thereof, and program
JP3552338B2 (en) Complex information processing device
JP4382045B2 (en) DATA OUTPUT DEVICE, DATA OUTPUT METHOD, DATA OUTPUT PROGRAM, AND RECORDING MEDIUM
JP2000267639A (en) Information processor
JP2002008052A (en) Presentation system and recording medium
JP2008032787A (en) Language learning system and program for language learning system
JP2004135256A (en) Data structure of information file, methods, apparatuses and programs for generating and reproducing information file, and storage media for storing the same programs
JP2001350775A (en) Method and device for presenting a plurality of information
JP2008032788A (en) Program for creating data for language teaching material

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040426

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080514

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090514

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100514

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100514

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110514

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110514

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120514

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees