JPH1165752A - Data editing device and its method - Google Patents

Data editing device and its method

Info

Publication number
JPH1165752A
JPH1165752A JP21721197A JP21721197A JPH1165752A JP H1165752 A JPH1165752 A JP H1165752A JP 21721197 A JP21721197 A JP 21721197A JP 21721197 A JP21721197 A JP 21721197A JP H1165752 A JPH1165752 A JP H1165752A
Authority
JP
Japan
Prior art keywords
data
additional information
pen
sound data
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP21721197A
Other languages
Japanese (ja)
Other versions
JP3409999B2 (en
Inventor
Yoshihiro Omori
善啓 大盛
Shuichi Tsujimoto
修一 辻本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP21721197A priority Critical patent/JP3409999B2/en
Publication of JPH1165752A publication Critical patent/JPH1165752A/en
Application granted granted Critical
Publication of JP3409999B2 publication Critical patent/JP3409999B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To perform the data relating editing without losing the original semantics of time by designating the 3rd data which are newly related to the 1st data and relating the 1st data to the 3rd data via the additional information. SOLUTION: An editing additional information selection part 24 refers to the additional information on the pen data related to the pen data and the sound data to detect that only the additional information on the types of 'time' are added and selects the additional information to relate the pen data to the sound data. When an editing additional information selection part 26 selects the additional information for the data relating editing, a relating change part 27 opens the sound data which are already related to the pen data and then relates the sound data to the new sound data. Then the part 27 retrieves both pen and sound data having the types of additional information and adds the additional information on the types of 'edit' by means of the integer value larger by 1 than the maximum value of the pen and sound data and also by means of an ID of '3'.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術の分野】本発明は、データに複数の
付加情報を付加して記憶し、付加情報を介して関連付け
を行うデータ編集装置およびデータ編集方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data editing apparatus and a data editing method for storing a plurality of pieces of additional information to data and for associating the data with the additional information.

【0002】[0002]

【従来の技術】従来、携帯型ペンコンピュータを用いて
画面上に描いたペンの手書き軌跡(以下、ペンデータと
呼ぶ)と音(以下、サウンドデータと呼ぶ)とを同時に
記録する装置が種々開発されている。例えば、このよう
な装置には、データの記録後にユーザが指定したペンデ
ータと「同時に記録された」サウンドデータを取り出し
て再生することができるようにペンデータとサウンドデ
ータとを関連付ける工夫が成されている。
2. Description of the Related Art Conventionally, various devices have been developed for simultaneously recording a handwriting locus (hereinafter referred to as pen data) and a sound (hereinafter referred to as sound data) of a pen drawn on a screen using a portable pen computer. Have been. For example, such a device is designed to associate pen data with sound data so that pen data specified by a user and sound data "simultaneously recorded" can be retrieved and reproduced after recording the data. ing.

【0003】この関連付けのための工夫された方法とし
て、特開平6―176171号公報に記載されている様
な、ペンデータの記録時にそのペンデータを記録した時
刻を同時に記録し、又サウンドデータの記録時にそのサ
ウンドデータを記録した時刻を同時に記録し、ペンデー
タ、サウンドデータのそれぞれに時刻を参照して、同じ
時刻に記録されたペンデータとサウンドデータを特定す
ることにより実現している。
As a devised method for this association, as described in JP-A-6-176171, when pen data is recorded, the time at which the pen data was recorded is simultaneously recorded, and the sound data is recorded. This is realized by simultaneously recording the time at which the sound data was recorded at the time of recording, referring to the time for each of the pen data and the sound data, and specifying the pen data and the sound data recorded at the same time.

【0004】この公報に記載された例では、「同時に記
録された」ことを特定するために、まずユーザが画面上
に表示されたペンデータを指定しすることによって、そ
のペンデータと同時に記録された時刻を得、ペンデータ
が記録された時刻を含むサウンドデータを、記録された
サウンドデータの時刻から検索する方法が採られてい
る。
In the example described in this publication, in order to specify that the pen data is recorded at the same time, the user first specifies pen data displayed on the screen, and the pen data is recorded simultaneously with the pen data. In this case, the sound data including the time when the pen data is recorded is searched for from the time of the recorded sound data.

【0005】[0005]

【発明が解決しようとする課題】ところが、一方ペンデ
ータとサウンドデータとを同時に記録する装置におい
て、既にあるサウンドデータと関連付けられているペン
データを、新規に録音したサウンドデータと関連付ける
(既録音のサウンドデータを新規サウンドデータと交換
する)といった「関連付けの編集」の要求がある。この
場合、「ペンデータが記録された時刻(情報)」を新規
に録音した「サウンドデータが記録された時刻(情
報)」と同時刻に変更することにより、この「関連付け
の編集」を実現することができる。
On the other hand, in an apparatus for simultaneously recording pen data and sound data, pen data associated with existing sound data is associated with newly recorded sound data (the already recorded sound data). (Exchange sound data with new sound data). In this case, this "edit of association" is realized by changing "time (information) at which pen data was recorded" to the same time as "time (information) at which sound data was recorded" which was newly recorded. be able to.

【0006】しかし、この方法で「関連付けの編集」を
行うと「ペンデータと同時に記録された時刻」が編集に
よって変更されてしまい、ペンデータを記録した時刻が
失われてしまい、そのペンデータがいつ記録されたかと
いう情報が本来持っていた意味を失ってしまう。つま
り、時刻を指定してその範囲内に描かれたペンデータを
抽出したり、ペンデータを記録した時刻の順に自動的に
再生する、といったことが出来なくなってしまうのであ
る。
However, when "editing the association" is performed by this method, the "time recorded at the same time as the pen data" is changed by the editing, the time when the pen data was recorded is lost, and the pen data is lost. The information of when it was recorded loses its original meaning. That is, it becomes impossible to specify the time and extract the pen data drawn in the range, or to automatically reproduce the pen data in the order of the recorded time.

【0007】そこで、本願発明は、時刻(情報)等の付
加情報を介して関連付け記録されたデータの「関連付け
の編集」を、時刻(情報)が本来持つ時間的意味を失う
ことなく可能にするデータ編集装置およびデータ編集方
法を提供することを目的としている。
Therefore, the present invention makes it possible to "edit association" of data recorded in association with time (information) and the like without additional information such as time (information) without losing the temporal meaning inherent in time (information). It is an object to provide a data editing device and a data editing method.

【0008】[0008]

【課題を解決するための手段】上記の目的を実現するた
めに、本願発明は、関連付けされた文字等の第1のデー
タと音声等の第2のデータを、第1のデータと第2のデ
ータとは異なる音声等の第3のデータとを新たに関連付
けされるよう変更するためのデータ編集装置及び方法で
あって、第1のデータと第2のデータとの関連付けを変
更するための指示を得、第1のデータと第3のデータと
を新たに関連付けるための付加情報を選択し、第1のデ
ータと新たに関連付ける第3のデータを指定し、付加情
報を介して、第1のデータと第3のデータとを関連付け
ることを特徴とするデータ編集装置及び方法を提供す
る。
In order to achieve the above object, the present invention relates to a method in which first data such as characters and second data such as voice are associated with first data and second data. What is claimed is: 1. A data editing apparatus and method for changing a third data such as a voice different from data so as to be newly associated with the third data, wherein an instruction for changing the association between the first data and the second data is provided. Is obtained, additional information for newly associating the first data with the third data is selected, third data to be newly associated with the first data is designated, and the first information is added via the additional information. A data editing apparatus and method are provided, wherein data is associated with third data.

【0009】[0009]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

(実施例1)以下、本発明の一実施例について図面を参
照して説明する。ここでは、携帯端末装置を用いてペン
データとサウンドデータとがそれぞれ記録された時刻
(情報)を付加情報とし、この付加情報を介して同時に
記録された(関連付けされた)各データが既にある場合
について説明する。又、ユーザによって画面上に記録さ
れたペンデータのうち、ユーザが指定したペンデータと
同時刻に記録されたサウンドデータとの関連付けを解除
して、新規に録音されたサウンドデータと新たに関連付
ける「関連付けの編集」を、ペンデータの付加情報(時
刻(情報))の意味を失うことなく実現する方法につい
て、特に詳しく説明することとする。
(Embodiment 1) An embodiment of the present invention will be described below with reference to the drawings. Here, the time (information) at which the pen data and the sound data were recorded using the portable terminal device is set as additional information, and each data recorded (associated) at the same time via this additional information already exists. Will be described. Further, of the pen data recorded on the screen by the user, the association between the pen data designated by the user and the sound data recorded at the same time is released, and the pen data newly associated with the newly recorded sound data is released. A method of implementing “editing association” without losing the meaning of the additional information (time (information)) of the pen data will be described in detail in particular.

【0010】まず、図1に本携帯端末装置の外観を示
す。本装置はペンデータを入力するペン10、タブレッ
ト11、ペン10によって入力された各ペンデータを表
示する液晶パネル12、サウンドデータを入力するマイ
ク13、サウンドデータを再生するスピーカ14、及び
種々のボタンから構成される。ペン10はユーザが直接
タブレット11に文字等を記入するためのものである。
First, FIG. 1 shows an appearance of the portable terminal device. The apparatus includes a pen 10 for inputting pen data, a tablet 11, a liquid crystal panel 12 for displaying each pen data input by the pen 10, a microphone 13 for inputting sound data, a speaker 14 for reproducing sound data, and various buttons. Consists of The pen 10 is for the user to directly write characters and the like on the tablet 11.

【0011】図1では、「会議資料」を液晶パネル12
上に表示し、記録開始ボタン15を操作し、会議の様子
をマイク13で録音しながらペン10でコメントを資料
の上に描いている様子が示されている。会議資料等を液
晶パネル12上に表示し、このパネル12上でペン10
を用いて文字等を記録するデバイスは既に存在する。ま
た、会議資料は、内蔵のディスクから読み出しても良い
し、ネットワークから送られてくるものでも、又無線に
より送信されるものを受信する方法によるものでも良
い。図1の例では、ユーザによって2つのペンデータ
1、2が、あるタイミングで入力されている様子を示し
ている。1つは会議資料の「次回会議場所:未定」の右
に口頭で伝えられた、次回の会議場所「会議室「A」」
の文字(ペンデータ1)が、もう1つは、会議資料の
「・簡潔な見出し」の左に重要であることを示す星印の
図形(ペンデータ2)が描かれている。
In FIG. 1, “conference materials” are displayed on the liquid crystal panel 12.
Displayed above is a state in which the recording start button 15 is operated and a comment is drawn on the material with the pen 10 while recording the state of the meeting with the microphone 13. The conference materials and the like are displayed on the liquid crystal panel 12, and the pen 10
There is already a device that records characters and the like by using. The meeting material may be read from a built-in disk, sent from a network, or received by wireless. The example of FIG. 1 illustrates a state in which two pieces of pen data 1 and 2 are input by a user at a certain timing. One is the next meeting place "Meeting room" A "", which was verbally conveyed to the right of "Next meeting place: undecided" in the meeting materials.
Is drawn (pen data 1), and the other is a star-shaped figure (pen data 2) indicating that it is important to the left of ".brief headline" in the meeting material.

【0012】これらのペンデータ1、2の各々の記録時
にはマイク13で取得した各々のサウンドデータが関連
付けられており、ペンデータ1が描かれたときには会議
の司会者が「次回の会議はA棟の会議室で行います。」
と喋っていたため、このサウンドデータ(サウンドデー
タ1)がペンデータ1と関連付けられる。また、ペンデ
ータ2が描かれたときには「ここが重要」とペンデータ
を描いたユーザ自身の声が、このサウンドデータ(サウ
ンドデータ2)としてペンデータ2と関連付けられてい
る。サウンドデータは、記録開始ボタン14の操作によ
り取り込みを開始するが、所定音量以上のサウンドのみ
を検知した際に、サウンドデータとして取り込まれる
(記憶される)。このような仕組みは、既に確立された
ものを用いることができる。ただし、取り込まれたサウ
ンドデータが、全てペンデータを関連付けられるもので
はなく、ペンデータが記録された時刻とほぼ同一の時刻
(その時刻の近傍あるいは時刻に重なりがある場合を含
む)のサウンドデータが関連づけられる。尚、ここで言
う時刻とは、絶対時刻(時計時刻)であっても、また携
帯端末装置内部の時刻であっても良い。
At the time of recording each of the pen data 1 and 2, each sound data acquired by the microphone 13 is associated with each other. When the pen data 1 is drawn, the moderator of the conference says, "The next conference will be Building A. In the conference room. "
The sound data (sound data 1) is associated with the pen data 1. Also, when the pen data 2 is drawn, the voice of the user who drew “this is important” is associated with the pen data 2 as this sound data (sound data 2). The capture of the sound data is started by operating the recording start button 14. When only a sound having a predetermined volume or more is detected, the sound data is captured (stored) as sound data. As such a mechanism, an established one can be used. However, not all the captured sound data can be associated with the pen data, and the sound data at almost the same time as the time when the pen data was recorded (including a case near or overlapping the time) is used. Associated. The time mentioned here may be an absolute time (clock time) or a time inside the portable terminal device.

【0013】図4はペンデータとサウンドデータとが付
加情報を介して関連付けられて記憶されているデータ構
造を模式的に示している。ペンデータ1、2には「Ti
me」という種類の付加情報の項に、時刻が記憶されて
いる。一方サウンドデータ1、2にも「Time」とい
う種類の付加情報の項に、時刻が記憶されている。図4
の場合、ペンデータが記録された時刻とサウンドデータ
が記録された時刻と同一の時刻の場合であり、そのペン
データはそのサウンドデータと各々関連付けられてい
る。
FIG. 4 schematically shows a data structure in which pen data and sound data are stored in association with each other via additional information. The pen data 1 and 2 contain “Ti
The time is stored in the item of additional information of the type “me”. On the other hand, the sound data 1 and 2 also store the time in the item of additional information of the type “Time”. FIG.
Is the same time as the time when the pen data was recorded and the time when the sound data was recorded, and the pen data is respectively associated with the sound data.

【0014】ペンデータ1は、時刻「’10’’00
−’10’’12」(10時00分から10時12分)
に描かれており、サウンドデータ1は同一時刻「’1
0’’00−’10’’12」(10時00分から10
時12分)に記録されている。この場合、そのすべての
時間(区間)が重なっているため、ペンデータ1はサウ
ンドデータ1と時刻という種類の付加情報を介して関連
付けられることとなる。ペンデータ2及びサウンドデー
タ2についても同様である。
The pen data 1 has a time "'10" 00
-'10''12 "(10:00 to 10:12)
At the same time "'1
0 "00-'10" 12 "(10:00 to 10
12:00). In this case, since all the times (sections) overlap, the pen data 1 is associated with the sound data 1 via additional information of the type of time. The same applies to pen data 2 and sound data 2.

【0015】図2は本装置の全体構成図を示している。
図2及び図3のフローチャートを用いて、図4に示した
付加情報(時刻情報)によって関連付けられたデータの
関連付け編集を行う方法を説明する。図3は関連付け編
集を行う際の手順を表している。図4に示したペンデー
タ1、2は上述したような手順で、予め記憶部20に記
憶されており、表示制御部21によってタブレット11
(液晶パネル12の画面)上に表示される。また図4に
示したサウンドデータは記憶部30に記憶されており、
再生制御部29によりスピーカ13から再生することが
できる。
FIG. 2 shows the overall configuration of the present apparatus.
With reference to the flowcharts of FIGS. 2 and 3, a method of performing association editing of data associated with the additional information (time information) illustrated in FIG. 4 will be described. FIG. 3 shows a procedure for performing association editing. The pen data 1 and 2 shown in FIG. 4 are stored in the storage unit 20 in advance according to the procedure described above, and the display control unit 21 controls the tablet 11.
(The screen of the liquid crystal panel 12). The sound data shown in FIG. 4 is stored in the storage unit 30,
The reproduction can be reproduced from the speaker 13 by the reproduction control unit 29.

【0016】ここで、画面上に表示されたペンデータ2
と同時刻に記録されたサウンドデータ2との関連付けを
解除して、ペンデータ2と新規に録音されたサウンドデ
ータ(サウンドデータ3)とを新たに関連付けるという
「関連付け編集」を実施する動作手順を説明する。
Here, pen data 2 displayed on the screen
The operation procedure of performing “association editing” of releasing the association between the pen data 2 and the newly recorded sound data (sound data 3) by releasing the association with the sound data 2 recorded at the same time as explain.

【0017】まずユーザは画面上に表示されたペンデー
タを見て、その内からペンデータ2を指定する。このペ
ンデータの指定は、「関連付け編集」を実施するための
モード指定(図示しないボタン等による:S40)を行
うことにより、図2のペンデータ指定部22が駆動す
る。ユーザは画面上に表示されたペンデータを見てペン
データ2を探すと、その表示された液晶パネル12の上
をペン10で触れる。これにより、ペンデータ指定部2
2は、タブレット11上のどこがペン10で接触したか
をタブレット11上での座標(Xt ,Yt )を検出す
る。ペンデータ指定部22は、記憶部20に記憶された
すべてのペンデータの座標(Xn ,Yn )のすべてと、
この座標(Xt ,Yt )との距離を、例えば、式((X
t −Xn )**2 +(Yt −Yn )**2 )により求めて、
この値が最小な座標を含むペンデータを検索する。
First, the user looks at the pen data displayed on the screen and designates pen data 2 from the pen data. The pen data is specified by performing a mode specification (using a button or the like (not shown): S40) for performing “association editing”, whereby the pen data specification unit 22 in FIG. When the user looks at the pen data displayed on the screen and searches for the pen data 2, the user touches the displayed liquid crystal panel 12 with the pen 10. Thereby, the pen data specifying unit 2
2 detects coordinates (Xt, Yt) on the tablet 11 to determine where on the tablet 11 the pen 10 has touched. The pen data designating unit 22 stores all of the coordinates (Xn, Yn) of all the pen data stored in the storage unit 20,
The distance from the coordinates (Xt, Yt) is expressed by, for example, the formula ((X
t−Xn) ** 2+ (Yt−Yn) ** 2)
The pen data including the coordinates having the minimum value is searched.

【0018】この例ではペンデータはペンデータ1とペ
ンデータ2との2つしかなく、ユーザはペンデータ2の
上を触れたため、ペンデータ指定部22ではペンデータ
2が特定されることになる。
In this example, there are only two pieces of pen data, pen data 1 and pen data 2. Since the user touches the pen data 2, the pen data 2 is specified by the pen data specifying section 22. .

【0019】次にユーザはペンデータ2と新規に記録す
るサウンドデータ3とを関連付ける、という関連付けの
編集を行うモード指定(図示しないボタン等による:S
41)を行う。この指定により、図2の編集指示部23
が駆動する。ユーザがペンデータ2の選択後に、サウン
ドデータ新規関連付けボタン16を押すと、編集指示部
23はペンデータ指定部22でどのペンデータが指定さ
れているか検出し、ペンデータ2と新規に録音するサウ
ンドデータ3と関連付けることを指示する。そしてユー
ザは記録開始ボタン14を押してサウンドデータ3の録
音を開始し、「ここがポイント」という音声をマイク1
7から入力し、記録停止ボタン15を押すことにより録
音を停止し、サウンドデータ3は記憶部30に記憶され
る。この際もサウンドデータ3には、これが記録された
時刻を「Time」という種類の付加情報に付加して記
憶部30に記憶する。この様子を図5に示す。
Next, the user specifies a mode for editing the association of associating the pen data 2 with the sound data 3 to be newly recorded (using a button or the like (not shown): S
Perform 41). By this designation, the editing instruction unit 23 of FIG.
Drives. When the user presses the new sound data association button 16 after selecting the pen data 2, the editing instruction unit 23 detects which pen data is specified by the pen data specifying unit 22, and the sound to be newly recorded with the pen data 2. Instruct to associate with data 3. Then, the user presses the recording start button 14 to start recording the sound data 3, and outputs the sound “point here” to the microphone 1.
7, the recording is stopped by pressing the recording stop button 15, and the sound data 3 is stored in the storage unit 30. At this time, the time when the sound data 3 was recorded is added to the additional information of the type “Time” in the sound data 3 and stored in the storage unit 30. This is shown in FIG.

【0020】次に編集のために用いる付加情報の種類を
図2の編集用付加情報選択部24で選択する(S4
2)。編集用付加情報選択部24は、ペンデータ2と関
連付けられていたペンデータ2とサウンドデータ3との
付加情報を参照して「Time」の種類の付加情報しか
付加されていないことを検知する。図2の付加情報選択
テーブル記憶部25には、図7に示すようにどの種類の
付加情報を優先させて関連付けを行うかの優先順序情報
が付加情報選択テーブルに記憶されており、これを基に
どの付加情報を用いてペンデータ2とサウンドデータ3
とを関連付けるかを選択する。
Next, the type of additional information used for editing is selected by the additional information selecting section 24 for editing in FIG. 2 (S4).
2). The editing additional information selecting unit 24 refers to the additional information of the pen data 2 and the sound data 3 associated with the pen data 2 and detects that only additional information of the type “Time” is added. In the additional information selection table storage unit 25 of FIG. 2, priority order information indicating which type of additional information is to be prioritized and associated is stored in the additional information selection table as shown in FIG. Pen data 2 and sound data 3 using any additional information
Select whether to associate with.

【0021】図7に示す付加情報選択テーブルは、例え
ば関連付け編集の際に、既に「Time」の種類の付加
情報を用いて関連付けが過去に行なわれていると、次の
優先順位の「Edit」の種類の付加情報を用いること
を表している。関連付け編集に用いる付加情報が編集用
付加情報選択部26で選択されると、図2の関連付け変
更部27でペンデータ2と既に関連付けられていたサウ
ンドデータ2を開放し、サウンドデータ3と新規に関連
付けを行う(S44、45)。
In the additional information selection table shown in FIG. 7, for example, in the case of association editing, if the association has already been performed using the additional information of the type “Time” in the past, the “Edit” of the next priority order Is used. When the additional information used for association editing is selected by the additional information selecting unit for editing 26, the association changing unit 27 of FIG. 2 releases the sound data 2 already associated with the pen data 2 and newly creates the sound data 3 with the sound data 3. The association is performed (S44, 45).

【0022】まず、関連付け変更部27は、編集用付加
情報選択部26で選択された付加情報の種類を持ったす
べてのペンデータ、サウンドデータを検索してその最大
値より1大きい整数を求める。このようにするとこの値
は選択された付加情報に関する限り唯一となる(S4
3)。そして、関連付け変更部27は、この値を用いて
図6に示すように「Edit」の種類の付加情報を
「3」というIDを用いて付加する(S44、45)。
First, the association changing unit 27 searches all pen data and sound data having the type of additional information selected by the additional information selecting unit for editing 26, and obtains an integer one greater than the maximum value. In this way, this value is unique as far as the selected additional information is concerned (S4
3). Then, the association change unit 27 uses this value to add additional information of the type “Edit” using the ID “3” as shown in FIG. 6 (S44, 45).

【0023】このようにして関連付け編集の行なわれた
データの再生方法を、図2を用いて説明する。まず、編
集時と同様に画面上に表示されたペンデータを図2のペ
ンデータ指定部22によって指定する。すると、参照用
付加情報選択部24は、付加情報選択テーブル記憶部2
5の内容を参照して、どの種類の付加情報を用いて関連
付けが行なわれているかを調べる。
A method of reproducing the data that has been subjected to the association editing will be described with reference to FIG. First, pen data displayed on the screen is specified by the pen data specifying unit 22 in FIG. Then, the reference additional information selection unit 24 stores the additional information selection table storage unit 2
With reference to the contents of No. 5, it is checked which type of additional information is used for association.

【0024】図6の例では、ペンデータ2には「Tim
e」の種類と「Edit」の種類の2種類の付加情報が
付加されているが、図7に示す付加情報選択テーブルで
は「Edit」種の方が「Time」種より優先度が高
いので、「Edit」種を用いて関連付けが行なわれて
いることを検知する。そして、「Edit」種には
「3」のIDが付加されていることを記憶部20を参照
することにより得る。すると、サウンドデータ検索部2
8は、記憶部30に記憶されたサウンドデータの内か
ら、「Edit」種に「3」のIDが付加されたサウン
ドデータをすべてのサウンドデータの「Edit」種の
値を参照することにより特定する。このIDは関連付け
編集時に唯一となっているため複数のサウンドデータが
検索されることはない。このようにして「Edit」種
で「3」のIDを持ったサウンドデータであるサウンド
データ3を特定する。そして、再生制御部29は、サウ
ンドデータ検索部28によって特定されたサウンドデー
タ3の音声データを記憶部30から読み出し筐体に取り
付けられたスピーカ13から再生する。
In the example of FIG. 6, the pen data 2 contains "Tim
Although two types of additional information, the type of “e” and the type of “Edit”, are added, the “Edit” type has a higher priority than the “Time” type in the additional information selection table shown in FIG. It is detected that the association is performed using the “Edit” type. Then, the fact that the ID of “3” is added to the “Edit” type is obtained by referring to the storage unit 20. Then, the sound data search unit 2
Reference numeral 8 designates, from the sound data stored in the storage unit 30, the sound data in which the ID of "3" is added to the "Edit" type by referring to the value of the "Edit" type of all the sound data. I do. Since this ID is unique at the time of association editing, a plurality of sound data is not searched. In this way, the sound data 3 which is the sound data of the “Edit” type and having the ID of “3” is specified. Then, the reproduction control unit 29 reads out the sound data of the sound data 3 specified by the sound data search unit 28 from the storage unit 30 and reproduces the sound data from the speaker 13 attached to the housing.

【0025】このように、関連付け編集では、ペンデー
タ2と編集前に関連付けされていたサウンドデータ2と
の関連付けで用いられていた付加情報よりも優先順位の
高い付加情報を用いて、ペンデータ2とサウンドデータ
3との関連付けを行い、これ以降は、優先順位の最も高
い付加情報を使用して関連づけを行うため、それまでに
付加された付加情報による関連付けは無効になる。
As described above, in the association editing, the pen data 2 having higher priority than the additional information used in associating the pen data 2 with the sound data 2 associated before the editing is used. Is associated with the sound data 3, and thereafter, the association is performed using the additional information having the highest priority. Therefore, the association by the additional information added up to that point becomes invalid.

【0026】このような仕組みを設けることにより、例
えば時刻(’10’’00−’10’’12)の間に記
録されたペン10の手書き軌跡を求める、などといった
編集前は関連付けのために付加されていた時刻情報が持
つ時間的前後関係という別の意味を利用した検索を行う
ことが編集後でも可能になる。
By providing such a mechanism, for example, a handwriting locus of the pen 10 recorded during the time ('10''00-'10''12) is obtained. Even after editing, it is possible to perform a search using another meaning of the temporal context of the added time information.

【0027】また本発明の有効性を示す別の例としてペ
ン10の手書き軌跡が記録された時刻順にそれらに関連
付けられたサウンドデータを次々に自動再生することが
挙げられる。本発明による編集ではペン10の手書き軌
跡に付加された時刻情報は変更されることないため、自
動再生時には編集前の再生時のペン10の手書き軌跡の
順番と同じ順序でサウンドデータの再生を行うことが出
来る。しかも編集を行ったペン10の手書き軌跡のサウ
ンドデータは新規に記録されたサウンドデータが再生さ
れる。
Another example showing the effectiveness of the present invention is to automatically reproduce sound data associated with handwritten trajectories of the pen 10 one after another in the order of recording time. In the editing according to the present invention, the time information added to the handwriting locus of the pen 10 is not changed. Therefore, during automatic reproduction, the sound data is reproduced in the same order as the handwriting locus of the pen 10 during reproduction before editing. I can do it. Moreover, as the sound data of the handwriting locus of the pen 10 that has been edited, the newly recorded sound data is reproduced.

【0028】(実施例2)実施例1において、参照用付
加情報選択部24は付加情報選択テーブル記憶部25の
内容を基に選択を行っていたが、関連付け編集の際に図
8に示すように「関連付けタグ」を記憶部20、記憶部
30に持ってどの付加情報が関連付けに用いられている
かを記憶しておいて、これを参照することにより付加情
報の選択を行っても良い。
(Embodiment 2) In the first embodiment, the reference additional information selecting section 24 performs the selection based on the contents of the additional information selection table storage section 25, but as shown in FIG. The additional information may be stored in the storage unit 20 and the storage unit 30 to store which additional information is used for the association, and the additional information may be selected by referring to this.

【0029】(実施例3)実施例1において、編集で関
連付けのために用いる付加情報として「Edit」種の
付加情報を用いたが、編集の対象となるサウンドデータ
が独立したファイルである場合などにはそのファイル名
などを用いても良い。
(Embodiment 3) In the first embodiment, the "Edit" type additional information is used as the additional information used for the association in editing, but the sound data to be edited is an independent file. May be used as the file name.

【0030】[0030]

【発明の効果】本発明により、既に付加された付加情報
の持つ意味を失うことなく、関連付け編集を行うことが
可能となる。
According to the present invention, it is possible to perform the association editing without losing the meaning of the already added additional information.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の外観図FIG. 1 is an external view of the present invention.

【図2】本発明の全体構成図FIG. 2 is an overall configuration diagram of the present invention.

【図3】関連付けの変更の手順FIG. 3 is a procedure for changing an association.

【図4】関連付け編集前のデータの様子FIG. 4 shows data before association editing.

【図5】関連付け編集中のデータの様子FIG. 5 shows a state of data being edited for association.

【図6】関連付け編集後のデータの様子FIG. 6 shows the state of data after association editing

【図7】付加情報選択テーブルの内容FIG. 7 shows the contents of an additional information selection table.

【図8】関連付け付加情報タグのあるデータFIG. 8 shows data with an association additional information tag.

【符号の説明】[Explanation of symbols]

20 記憶部 21 表示制御部 22 ペンデータ指定部 23 編集指示部 24 参照用情報選択部 25 付加情報選択テーブル記憶部 26 編集用付加情報選択部 27 関連付け変更部 28 サウンドデータ検索部 29 再生制御部 30 記憶部 REFERENCE SIGNS LIST 20 storage unit 21 display control unit 22 pen data designation unit 23 editing instruction unit 24 reference information selection unit 25 additional information selection table storage unit 26 editing additional information selection unit 27 association change unit 28 sound data search unit 29 playback control unit 30 Memory

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】関連付けされた文字等の第1のデータと音
声等の第2のデータを、第1のデータと前記第2のデー
タとは異なる音声等の第3のデータとを新たに関連付け
されるよう変更するためのデータ編集装置において、 前記第1のデータと前記第2のデータとの関連付けを変
更するための指示を与える手段と、 前記第1のデータと第3のデータとを新たに関連付ける
ための付加情報を選択する手段と、 第1のデータと新たに関連付ける第3のデータを指定す
る手段と、 前記付加情報を介して、第1のデータと第3のデータと
を関連付ける手段とを具備することを特徴とするデータ
編集装置。
1. Newly associating associated first data such as characters and second data such as voice, and first data and third data such as voice different from the second data. A data editing apparatus for changing the association between the first data and the second data; and a means for giving an instruction to change the association between the first data and the second data; Means for selecting additional information for associating the first data, means for specifying third data to be newly associated with the first data, means for associating the first data with the third data via the additional information A data editing device comprising:
【請求項2】請求項1記載のデータ編集装置によって関
連付けられた第1のデータと第3のデータに対して、 第1のデータを検索する手段と、 この手段による検索時に、前記付加情報を抽出する手段
と、 この手段によって抽出された付加情報によって関連付け
られた第3のデータを検索する手段と、 この手段によって検索された第3のデータを再生する手
段とを具備することを特徴とするデータ編集装置。
And means for retrieving the first data from the first data and the third data associated with each other by the data editing apparatus according to claim 1. Means for extracting, means for searching for third data associated with the additional information extracted by this means, and means for reproducing the third data searched for by this means. Data editing device.
【請求項3】関連付けされた文字等の第1のデータと音
声等の第2のデータを、第1のデータと前記第2のデー
タとは異なる音声等の第3のデータとを新たに関連付け
されるよう変更するためのデータ編集方法において、 前記第1のデータと前記第2のデータとの関連付けを変
更するための指示を得、 前記第1のデータと第3のデータとを新たに関連付ける
ための付加情報を選択し、 第1のデータと新たに関連付ける第3のデータを指定
し、 前記付加情報を介して、第1のデータと第3のデータと
を関連付けることを特徴とするデータ編集方法。
3. Newly associated first data such as characters and second data such as voice, and associated first data and third data such as voice different from the second data. In the data editing method for changing the first data and the second data, an instruction for changing the association between the first data and the second data is obtained, and the first data and the third data are newly associated. A third data to be newly associated with the first data, and associating the first data with the third data via the additional information. Method.
【請求項4】請求項3記載のデータ編集方法によって関
連付けられた第1のデータと第3のデータに対して、 第1のデータの検索時に、前記付加情報を抽出し、 この付加情報によって関連付けられた第3のデータを検
索し、 検索された第3のデータを再生することを特徴とするデ
ータ編集方法。
4. The first data and the third data associated with each other by the data editing method according to claim 3, extracting the additional information when searching for the first data, and associating the additional information with the additional information. A data editing method comprising: searching for retrieved third data; and reproducing the retrieved third data.
JP21721197A 1997-08-12 1997-08-12 Data editing device and data editing method Expired - Fee Related JP3409999B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21721197A JP3409999B2 (en) 1997-08-12 1997-08-12 Data editing device and data editing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21721197A JP3409999B2 (en) 1997-08-12 1997-08-12 Data editing device and data editing method

Publications (2)

Publication Number Publication Date
JPH1165752A true JPH1165752A (en) 1999-03-09
JP3409999B2 JP3409999B2 (en) 2003-05-26

Family

ID=16700614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21721197A Expired - Fee Related JP3409999B2 (en) 1997-08-12 1997-08-12 Data editing device and data editing method

Country Status (1)

Country Link
JP (1) JP3409999B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1165901A (en) * 1997-08-18 1999-03-09 Toshiba Corp Information storage device, information storage retrieval device, and information storing method
JP2003140546A (en) * 2001-11-07 2003-05-16 Chiri Geographic Information Service Co Ltd Map recognition voice device for visually impaired person
JP2003308169A (en) * 2002-04-15 2003-10-31 Hitachi Ltd Information processor and display control program
JP2007026298A (en) * 2005-07-20 2007-02-01 Ricoh Co Ltd Computer input device, computer input method, information processor, and information processing method
US7463290B2 (en) 2001-05-31 2008-12-09 Canon Kabushiki Kaisha Information storing apparatus and method thereof
JP2010061669A (en) * 2004-05-26 2010-03-18 Qualcomm Inc User interface action processing using freshness status

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0877192A (en) * 1994-09-06 1996-03-22 Hitachi Ltd Information processor
JPH08212238A (en) * 1994-11-30 1996-08-20 Toshiba Corp Individual information terminal equipment
JPH08235209A (en) * 1995-02-28 1996-09-13 Fujitsu Ltd Multi-media information processor
WO1996033465A1 (en) * 1995-04-18 1996-10-24 Waverley Holdings, Inc. A system and method for using intelligent notes to organize, link, and manipulate disparate data objects
JPH09153069A (en) * 1995-09-29 1997-06-10 Toshiba Corp Information gathering device, information gathering and reproducing device, and patrol terminal device
JPH1165901A (en) * 1997-08-18 1999-03-09 Toshiba Corp Information storage device, information storage retrieval device, and information storing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0877192A (en) * 1994-09-06 1996-03-22 Hitachi Ltd Information processor
JPH08212238A (en) * 1994-11-30 1996-08-20 Toshiba Corp Individual information terminal equipment
JPH08235209A (en) * 1995-02-28 1996-09-13 Fujitsu Ltd Multi-media information processor
WO1996033465A1 (en) * 1995-04-18 1996-10-24 Waverley Holdings, Inc. A system and method for using intelligent notes to organize, link, and manipulate disparate data objects
JPH09153069A (en) * 1995-09-29 1997-06-10 Toshiba Corp Information gathering device, information gathering and reproducing device, and patrol terminal device
JPH1165901A (en) * 1997-08-18 1999-03-09 Toshiba Corp Information storage device, information storage retrieval device, and information storing method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1165901A (en) * 1997-08-18 1999-03-09 Toshiba Corp Information storage device, information storage retrieval device, and information storing method
US7463290B2 (en) 2001-05-31 2008-12-09 Canon Kabushiki Kaisha Information storing apparatus and method thereof
JP2003140546A (en) * 2001-11-07 2003-05-16 Chiri Geographic Information Service Co Ltd Map recognition voice device for visually impaired person
JP2003308169A (en) * 2002-04-15 2003-10-31 Hitachi Ltd Information processor and display control program
JP2010061669A (en) * 2004-05-26 2010-03-18 Qualcomm Inc User interface action processing using freshness status
US7984382B2 (en) 2004-05-26 2011-07-19 Qualcomm Incorporated User interface action processing using a freshness status
JP2007026298A (en) * 2005-07-20 2007-02-01 Ricoh Co Ltd Computer input device, computer input method, information processor, and information processing method

Also Published As

Publication number Publication date
JP3409999B2 (en) 2003-05-26

Similar Documents

Publication Publication Date Title
JPH10320169A (en) Electronic information device
JPH0355985A (en) Picture retrieval device
JPH04256295A (en) Still picture recording and reproducing device
US5546565A (en) Input/output apparatus having a pen, and method of associating and processing handwritten image data and voice data
JP3266959B2 (en) Electronic conference system
JP3409999B2 (en) Data editing device and data editing method
KR100773441B1 (en) Method and apparatus for searching stored files in mobile terminal
JP2005129093A (en) Information reproducing device, information reproducing method, program and recording medium
JP4574113B2 (en) Device for creating file for displaying additional information superimposed on display screen and magnetic recording medium
JP2009283020A (en) Recording apparatus, reproducing apparatus, and program
JPH05242166A (en) Multi-media data editing and display system
JP2002344849A (en) Moving picture processing unit, moving picture processing method, recording medium, and control program
JP3555840B2 (en) Electronic equipment with voice recording / playback function
JP2001045428A (en) Moving picture processing unit, moving picture processing method and storage medium
US7719930B2 (en) Apparatus and method for digital contents playback
JPH0713687A (en) Handwriting input device
JP2006252208A (en) Annotation application device, annotation application method and program
JP2002245033A (en) Portable electronic equipment and character string display method therefor
JPS63197212A (en) Multi-medium reproducing device
JPH01284973A (en) Picture recording and reproducing device
JPH1165901A (en) Information storage device, information storage retrieval device, and information storing method
JPH07334523A (en) Information processor
JP2003157091A (en) Information processor, control method for information processor, control program for information processor, recording medium having control program for information processor recorded thereon, data recording method for information recorder and recording medium having data of information recorder recorded thereon
JP3626080B2 (en) Moving image processing device
JP2002101398A (en) Electronic conference system

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080320

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090320

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100320

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees