WO2002023350A1 - Technique for superimposingly display additional information on display screen - Google Patents

Technique for superimposingly display additional information on display screen Download PDF

Info

Publication number
WO2002023350A1
WO2002023350A1 PCT/JP2000/006164 JP0006164W WO0223350A1 WO 2002023350 A1 WO2002023350 A1 WO 2002023350A1 JP 0006164 W JP0006164 W JP 0006164W WO 0223350 A1 WO0223350 A1 WO 0223350A1
Authority
WO
WIPO (PCT)
Prior art keywords
file
screen
information
image
audio
Prior art date
Application number
PCT/JP2000/006164
Other languages
French (fr)
Japanese (ja)
Inventor
Hiroaki Haga
Original Assignee
Digital-Knowledge Co., Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Digital-Knowledge Co., Ltd filed Critical Digital-Knowledge Co., Ltd
Priority to JP2002527932A priority Critical patent/JP4574113B2/en
Priority to PCT/JP2000/006164 priority patent/WO2002023350A1/en
Publication of WO2002023350A1 publication Critical patent/WO2002023350A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Definitions

  • the present invention belongs to a technology for superimposing and displaying additional information such as various objects and audio / video on a display screen, and for example, relates to a technology for improving the expressive power of the contents of an Internet homepage.
  • An object of the present invention is to provide a technique for superimposing various objects, additional information such as audio and moving images on a display screen extremely easily. Disclosure of the invention
  • the present invention includes a step of calling a first file and displaying the image on a first screen; and a step of inputting a voice or a moving image while virtually inputting a second file virtually present on the first screen.
  • Moving or arranging the image object to be added in the screen obtaining the position information of the image object on the second screen in association with time; input audio information or moving image information Based on Creating an audio file or a moving image file; creating an object information file based on the information for specifying the image object, the location information, and the time information; Associating the audio file or the video file with the object information file; and displaying the first file on the first screen while linking the input audio or video to the second file.
  • (1) a method of superimposing and displaying additional information on a display screen the method including a step of moving or arranging the image object over time in a screen and displaying the image object.
  • the present invention also provides a step of calling a first file and displaying the image on a first screen; and a step of adding the image in a second screen virtually existing on the first screen. Moving or arranging the image object; obtaining information on the position of the image object on the second screen; and acquiring the image object based on the information for specifying the image object and the position information. Creating a project information file; associating the first file with the object information file; displaying the first file on the first screen and displaying the image in the second screen. And (b) displaying a supplementary object on the display screen.
  • the present invention includes a step of calling a first file and displaying the image on a first screen; at a predetermined position of the second screen virtually existing on the first screen, Displaying an image object to be added that is linked to the audio file or the video file; obtaining position information of the image object on the second screen; and the audio file or the video. Specifying the output order of the files; outputting the audio file or the video file according to the specified output order, and displaying the image object linked to the audio file or the video file in the second screen. And (3) a method of superimposing and displaying additional information on a display screen.
  • the present invention also relates to (4), wherein (4) or (3), wherein no link information is added to the first file.
  • the present invention moves or arranges an image object in the second screen virtually existing on the screen of the first screen while inputting a sound or a moving image.
  • a method of creating a source file that superimposes additional information on a display screen, including a step of associating a file with the above object information file Concerning the law (5).
  • the present invention also provides a step of, in a second screen virtually existing on a screen of the first screen, moving or arranging an image object to be added in the second screen; A step of obtaining the information of the position of the image object on the second screen; and a step of creating an image object file based on the information specifying the image object and the position information; Copy the file related to the screen display of the first screen to the object Relating to a method of creating a source file that superimposes additional information on a display screen, including a step of associating with a display information file.
  • the present invention provides a step of displaying an image object to be added, which is linked to an audio file or a moving image file, at a predetermined position of the second screen virtually existing on the first screen.
  • the present invention also relates to the methods (5) to (7), wherein any link information is not added to the file on the first screen (8).
  • the present invention relates to a magnetic recording medium storing a program for executing the steps defined in the above methods (1) to (8) (9).
  • the present invention also relates to a computer system having the magnetic recording medium defined in the medium (10) (10).
  • First file refers to the file (processed file) in which additional information is embedded.
  • the type of file is not particularly limited, and includes a document file, a spreadsheet file, an audio file, an image file, and a video file.
  • the format is not particularly limited, and a document file is exemplified by an HTML format file. "Movie” includes not only video without sound but also video with sound.
  • the “virtual second screen” is defined as the first screen and the i
  • “Audio file” and “video file” are not particularly limited, and include various types of files.
  • “Image object” refers to image information added to the first file. For example, there are moving information of still images (movable images), drawing information, telops, fixed images, and the like.
  • the phrase “while inputting audio or video” refers to recording audio and video when inputting an image, and existing audio and video files when inputting an image. Playing.
  • the “object information file” is a file containing information necessary for displaying an image object on a file image to be processed as instructed. Generally called a data file.
  • "Associating the first file with the audio file or the moving image file and the object information file” means that the link information is written in the first file and the first file link information is not written. For example, this includes recording in the database data in which the URL of the object information file, the URL of the audio file or the video file, and the URL of the file to be processed are associated.
  • "Specifying the output order of the audio file or the moving image file” means specifying the output order of the audio file or the moving image file, and specifying the output order of the image object linked to the audio file or the moving image file. This includes indirectly specifying the output order of audio files or video files.
  • the attached parts (set of object information file and image or video file)
  • a management file in which the display order of each part is recorded is preferably created without integrating the parts.
  • FIG. 1 is a system configuration diagram of an embodiment according to the present invention.
  • FIG. 2 is a hardware configuration diagram of an embodiment according to the present invention.
  • FIG. 3 to FIG. 7 are flowcharts showing the internal processing of the first embodiment.
  • FIG. 8 and FIG. 9 are internal processing flowcharts of the second embodiment.
  • FIG. 10 is an operation flowchart of the third embodiment.
  • FIG. 11 is an internal processing flowchart of part creation in the third embodiment.
  • FIGS. 2 and 13 are flowcharts showing the internal processing in which the parts are incorporated in the third embodiment.
  • FIG. 14 is a diagram illustrating a state where the input method selection window is displayed after the system according to the first embodiment is started. Fig.
  • FIG. 15 shows the first mode in which the input instruction window for the file to be processed (target HTML) and the audio file (target sound) after "input new instruction" is selected in the input method selection window is displayed.
  • FIG. FIG. 16 is a diagram showing a state in which the image (reference numeral 5) and the operation panel (reference numeral 10) of the file to be processed are displayed in the first embodiment.
  • FIG. 17 is a diagram showing a state in which a list of movable images among the image objects is displayed.
  • FIG. 18 is a diagram showing a state in which a list of basic figures that can be drawn among image objects is displayed. The color of the line can be selected with the code 6, and the thickness of the line can be selected with the code 7 (see Fig. 16).
  • Figure 19 shows the telop. Characters, symbols, etc. to be displayed as telops are entered in the box of reference numeral 27.
  • Figure 20 is a diagram showing a state where a list of fixed images is displayed. is there. In this figure, 12 fixed images are registered (reference numeral 28).
  • FIG. 21 is a diagram showing a state where the control buttons are displayed.
  • FIG. 22 is a diagram showing a state in which the movable image (finger) 30 is moved along the trajectory of the line 31 while inputting audio via an audio file in the first embodiment.
  • FIG. 23 is a diagram showing a state in which a speed change list 32 is displayed from the operation panel in order to change the time axis of the audio file at the time of input.
  • FIG. 24 is a diagram showing a state before the file to be processed in which the additional information is incorporated is reproduced.
  • Reference numeral 3 3 indicates a playback button, and when this button is pressed, the playback operation starts.
  • FIG. 25 is a diagram showing the movement of the movable image (finger) after the play button in FIG. 24 is pressed.
  • reference numeral 35 indicates a locus of a movable image (finger).
  • Reference numeral 34 denotes operation buttons for fast forward, rewind, stop, and pause during playback.
  • FIG. 26 is a diagram showing a screen displayed after the system is started in the second mode.
  • Reference numeral 36 indicates a file to be processed.
  • FIG. 27 is a diagram showing a trajectory after moving the image object (line) in the second embodiment.
  • Reference numerals 37 and 38 denote trajectories of lines recorded as age object information.
  • FIG. 28 shows a parts list used in the third embodiment. In this figure, five parts (No. 1 to 5) are displayed.
  • FIG. 29 is a diagram showing a state where a plurality of parts (a plurality of sets of an object information file and an audio file) and a file to be processed (HTML file) are linked in the third mode.
  • BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described in more detail with reference to the accompanying drawings. In the following, an HTML file is used as the file to be processed, but the present invention is not limited to this.
  • FIG. 1 is a system configuration diagram of an embodiment according to the present invention.
  • reference numeral 1 denotes the Internet
  • reference numeral 2 denotes a user (operator) terminal (for example, a personal computer)
  • reference numeral 3 denotes a server.
  • the user terminal and server are connected to the Internet via a communication line.
  • FIG. 2 is a hardware configuration diagram of an embodiment according to the present invention, which is basically the same as a commercially available personal computer. However, a sound recording unit for recording external sounds and a moving image recording unit for recording external moving images are provided.
  • the file to be processed (HTML file) and the audio (moving image) file are external, and the object information and programs are local.
  • the locations of the files to be processed, audio (video) files, object information, and programs are not particularly limited.
  • the present invention is roughly classified into a first embodiment, a second embodiment, and a third embodiment. Therefore, in the following, description will be given for each mode.
  • a first aspect of the present invention is a technique for easily creating a file to be processed in which audio and video information and intelligent object information are incorporated.
  • existing audio file ⁇ video file is used lb
  • method I a method of inputting object information
  • method I a method of inputting object information while inputting audio and video
  • method I a method of inputting object information while inputting audio and video
  • Fig. 14 and Fig. 14 are diagram related to the above specification and decision. However, since these diagrams assume only method (2), another panel will be displayed for method (2).) . At that time, an operation panel is displayed on the screen (see Fig. 16).
  • various input control functions (recording button 19, play button 20, pause button 21, stop button 22, delete button, etc.), various time control functions (time control Slide bar 18, playback speed change function 23, etc.), smart object selection function (movable image list 12, drawable basic figure list 13, telop input 14, fixed image) List 15), and a result creation support function (storage of saved files, preview, layout of play button, etc.) are provided. Since this operation panel is always displayed on the screen, these functions can be used at various times during input. Hereinafter, the various functions will be described.
  • Play button 20 When this button is pressed, the input object information is read from the recording unit, and the object is arranged and operated according to the content according to the content.
  • Pause button 21 Press this button to pause the recording of object information, the recording and playback of audio and video.
  • This button is a toggle button and will not resume once pressed once it is pressed again.
  • the first method is to press the cancel button (right button) on the mouse.
  • the second is a method of automatically pausing and resuming depending on the position of the mouse cursor.
  • the recording and playback of audio and video are paused, If it is within the display area of the HTML file to be processed, release the pause of recording and playback of audio and video, and resume recording and playback.
  • Stop button 2 2 Press this button to stop recording and playback of audio and video, and stop recording of object information.
  • method 1 method using an existing audio file or video file
  • the playback stops automatically when the playback of the existing file ends.
  • Slide bar 18 This is one of the time control functions of the operation panel. Like the existing audio and video playback tools, the file playback time is represented by a straight line, with the playback start and end positions at both ends. The knob indicates where the current playback position is. Dragging this knob changes the position of the input time. For example, if there is a time zone where it is not necessary to insert the object information during input, skip the unnecessary time zone; if the input timing does not match, return a little time; a certain time For example, when it is desired to insert a plurality of genius object information into a band, a certain genuine object information is recorded, then the time zone is returned again, and another genuine object information is recorded.
  • Speed change function 2 3 This is used when you want to change the playback speed of these files in the case of method 1 (method using existing audio and video files). For example, by setting the playback speed of the audio file to be slow, the time axis is extended, so that it is possible to input with a margin, and it is possible to calmly input the object information.
  • List of movable images 1 2 A list of image data of movable images J registered in the system is displayed (reference numeral 25 in Fig. 17). If the operator adds new “movable image” image data to the system, it will be added to the list. Since the trajectory of the movement of the movable image does not remain, it points to the part explained and expresses the movement It is effective when you want to.
  • Telop 1 4 When this is selected, it becomes possible to input a character string in a predetermined part (reference numeral 27) on the operation panel, and the input character string is pasted at the specified location on the HTML file screen to be processed. (See Figure 19). It can be used for supplementary explanations.
  • Fixed image 15 By selecting a fixed image recorded in the system, it can be pasted into the image like a sticker (see Fig. 20).
  • buttons By pressing this button, a smart object information file (data file) reflecting the input smart object information is created. In the case of simultaneous recording and recording, an audio file and a video file are created, respectively. In addition, an operation of linking the processed HTML file, the object information file, and the audio file or the moving image file is performed.
  • Play button layout button Press this button to display the button layout window. A plurality of button candidates are listed in the button arrangement window, and the operator selects a desired button from the list and arranges the button at a desired position in the image of the HTML file to be processed. By pressing the play button placed here if
  • the age object information is recorded only while the mouse's decision button (left button) is pressed. Note that the age object information is displayed at the position of the mouse cursor.
  • the HTML file to be input may be on a local computer or on the Internet.
  • the system if the system is specified to read the HTML file to be processed, the system automatically starts after reading the HTML file to be processed. (In this case, it is necessary to create an HTML file to be processed to which a line for calling this system has been added in advance). However, in the following description, it is assumed that an HTML file in which the address of the engine is not specified is used.
  • method (2) the user inputs (or selects) the name of the audio file or the video file to be used (note that Fig. 15 assumes only the audio file).
  • method (2) input the name of the audio file to be created, the name of the movie file, the path to create it, and the file format (including detailed settings for the audio and movie storage formats). Then, press the Finish button.
  • the processed H TML file image 5 and the operation panel 10 are displayed on the screen (see Fig. 16).
  • the input object is set to the default (as shown by reference numeral 9, the movable image “finger” is selected as the image object). If you want to input an object that is different from the default object, select the desired object from the operation panel ⁇ 0.
  • a smart object is displayed or moved using a mouse in accordance with the played sound or moving image.
  • the movable image 30 is moved in the direction indicated by the reference numeral 31.
  • the mouse uses the mouse to display or move the object.
  • simultaneous input input is possible as long as the capacity of the recording unit (for example, auxiliary storage device) permits.
  • the recording unit for example, auxiliary storage device
  • the playback is automatically stopped after the playback (that is, when the slide bar 18 reaches the right end). In this case, it is not always necessary to press the stop button 22.
  • the operator arranges a playback button for playback on the HTML file screen to be processed.
  • a file selection window (4 in FIG. 15) is displayed and the path of the HTML file to be processed is displayed.
  • ⁇ File name and the path of the audio file or video file to be used ⁇ Enter the file name (selection) and give instructions (step 204).
  • method (2) input of audio or video at the same time
  • the path of the HTML file to be processed ⁇ File name and the audio file or video to be created Path to save the file ⁇ File name ⁇ Input (select) save format instruction (Step 207).
  • the path of the input audio file or video file After inputting (selecting) the path, file name, etc. by the operator in these files, in the case of method (2), the path of the input audio file or video file.
  • the file is sent to the playback unit, and the audio playback unit or the video playback unit reads the specified file (step 205).
  • the path, file name, and storage format are sent to the audio recording unit or video recording unit for the audio file or video file to be created, and the audio recording unit or video recording unit transmits the transmitted information.
  • the input HTML file to be processed is read and displayed by the browser used by the operator (step 209, see FIG. 16). Then, an operation panel 10 and a preview window are displayed on the processed HTML file image 5 (step 210).
  • the identification number of the default The number is sent to the recording unit (step 211).
  • the identification number is sent to the recording unit.
  • the identification number of the changed smart object is sent to the recording unit (step 220), and the smart object corresponding to the identification number is read (step 222).
  • internal preparation is completed and the system waits for operator's instructions.
  • step 2 32 in the case of method 1 (in the case of using an existing file), the audio reproduction unit starts audio reproduction (in the case of using an audio file), and The playback section opens the video preview window and starts playing the video (if you have selected to use a video file).
  • step 233 the voice recording unit starts recording (when simultaneously recording voice) and the video recording unit starts recording (when simultaneously recording moving images).
  • the pointing device detection unit starts detecting the position information of the mouse cursor (step 234). Thereafter, the position of the mouse cursor is constantly monitored.
  • the mouse cursor is outside the display area of the HTML file image 5 (here, the operation panel 10 is also outside the display area of the HTML file image)
  • the recording of audio and video and the playback of the video are paused.
  • Step 2 3 6 When the mouse cursor moves into the display area of the HTML file image 5, the pause of the recording / playback of the audio / video is released, and the recording / playback is resumed (step 238). Even if the operator presses the cancel button (right button) of the re-mouse, recording and playback of audio and video are paused. ?
  • Step 2 4 3 Then, when the pause is pressed again, the pause is released and the recording is resumed. ⁇ Playback is resumed (step 2 45) 0
  • the current selection is made when the mouse's enter button (left button) is pressed.
  • the selected object is displayed at the position of the mouse cursor (step 247).
  • the current time is acquired at regular intervals from the audio playback unit or the video playback unit (in the case of method I) or the audio recording unit or the video recording unit (in the case of method I) at each sampling cycle ( Specifically, the current time is obtained based on the position on the time axis starting from 0 seconds during playback / recording), and sent to the recording unit as time information, and the current mouse cursor position information is obtained.
  • the X and ⁇ coordinates are obtained starting from the upper left of the HTML file to be processed. If the value of the X or Y coordinate becomes negative, it is truncated and recorded as 0. There is no limit and the value is recorded) and sent to the recording unit (step 249). Then, as long as the decision button (left button) of the mouse is kept pressed, the above acquisition of the current time and position information is repeated.
  • the audio playback unit or the video playback unit stops playback in the case of the method 1, and the audio recording unit or the movie recording unit in the case of the method 2. Stop recording (step 25 1). Further, in the case of the method (2), when the reproduction of the sound or the moving image is completed, the stop processing is performed even if the stop button 22 is not pressed (step 2411).
  • the pointing device detector detects and monitors the position information of the mouse cursor.
  • Stop viewing (step 25). When the stop is released, it will be in the state of waiting for the operator's command.
  • Step 2 26 when the play button layout button is pressed by the operator (Step 2 26), a button layout window is displayed (Step 2 27), and after the type and position of the play button are determined by the operator, (Step 228), as in the case of the object, send the type (identification number) and position information of the playback button to the recording unit (Step 229) 0
  • step 2 2 4 when the save button is pressed (step 2 2 4), in the case of method (1), the video recorded by the video recording unit (for simultaneous recording) or the audio recorded by the audio recording unit (for simultaneous recording) Based on the information received in step 209, step 233, step 233, step 238 and step 245, a moving image file or an audio file is created, respectively. Also, an object information file (for example, a JS file format) is created based on the information written to the recording unit in Steps 212, 220, 229, and 249. (Steps 2 5 5).
  • an object information file for example, a JS file format
  • the input object information file contains the path and file name of the audio file or video file used (in the case of method)) or the path and file name of the created audio file or video file (in the case of method 2); input Information about the genuine object (for example, the identification number of the genuine object, information necessary for the genuine object (for example, the thickness and color of the line for a genuine object, and the telop for a telop) Write the identification number of the play button, position information, etc.
  • input objects for example, the identification number of the genuine object, information necessary for the genuine object (for example, the thickness and color of the line for a genuine object, and the telop for a telop)
  • the project objects are independent. Note that there is only one playback information file to be placed on one time axis (audio file or video file) and one play button to be placed.
  • a correction is made to the processed H TML file.
  • the contents of the correction are information for linking the HTML file to be processed with the created object information file (for example, the path and file name of the object object information file) and an engine for reading the object object information file (driving part). ) (For example, engine path and file name) is written (step 260).
  • this correction only adds a few lines to the source of the processed HTML file, it is possible to correct the processed HTML file after inputting the operation.
  • step 255 it is determined whether or not a moving image is used as a time axis (step 256), and if so, the HTML file to be processed is corrected, and the image of the HTML file to be processed is displayed on the screen. In the horizontal part of the processed HTML file image, the video is arranged so that it can be browsed (step 257).
  • multiple time axes can be assigned by repeating the operations from step 201 to step 257 for one HTML file to be processed. Is a project object information file. There are also multiple regeneration buttons.
  • This item is selected when inputting additional instructions to the HTML file to be processed in which the subject information has already been incorporated by this system. To do so, select the “Add instructions to an existing file” item from the file selection window, and then select the HTML file to be processed for additional input. However, there is no need to select the audio file or video file that serves as the time axis because it is already linked to the HTML file to be processed, and there is no need for simultaneous input. Select the HTML file to be processed, read the file, read the linked object information file (send it to the recording unit), and input the audio file name or video file name into the audio playback unit or video playback unit. Send to After that, the process proceeds to step 209, and the rest is the same as in the case of method II.
  • the location of the engine part file added to the processed HTML file is specified by a URL.
  • the path of the local machine used is specified. So, select the "Create HTML file for web publishing"
  • the created HTML file to be processed can be used on the web.
  • the HTML file used in the following second aspect (the URL of the engine is specified in advance) is also created by selecting this item.
  • a second aspect of the present invention is one in which the time axis of the first aspect is eliminated.
  • the smart object information is written and the file to be processed is linked.
  • the system After activating the system and specifying the HTML file to be processed, the system is ready to enter the project object information. At that time, an operation panel is displayed on the screen. On the operation panel, various input control functions (delete button etc.), smart object selection function (still image, list of drawable basic figures, telop input, moving image, etc.), result creation support function ( Storage of saved files, preview, play button arrangement, etc.) are provided. The various functions will be described below.
  • Display 'Hide display switching button Processed HTML file image Switch between displaying and hiding the placed object.
  • Still image list A list of image data of "still images" registered in the system is displayed. The operator selects a desired still image from these. If the operator adds new “still image” image data to the system, it is added to the list. The operator pastes the still image on the processed H TML file image like a sticker.
  • a character string can be input to a predetermined portion on the operation panel, and the input character string is pasted at a specified location on the processed HTML file screen. It can be used for supplementary explanations.
  • Moving images By selecting a moving image recorded in the system, it can be pasted into the image like a sticker.
  • Play button layout button Press this button to display the button layout window.
  • a plurality of button candidates are listed, and the operator selects a desired button from the list and places it in a desired location in the image of the HTML file to be processed.
  • the age object information is recorded only while the enter button (left button) of the mouse is pressed. Note that the age object information is displayed at the position of the mouse cursor.
  • the operator starts the system.
  • the path of the H TML file to be processed ⁇ Enter the file name.
  • a file may be selected from the displayed file selection window instead of inputting.
  • the HTML file to be input (selected) is preferably on a local computer.
  • the HTML file to be processed may be on a local computer or on the Internet.
  • the processed HTML file image and operation panel are displayed on the screen. And, the object selection function of the operation panel To select the desired talent object.
  • the operator places the smart object at a desired position using a mouse.
  • the drawing object moves the mouse while pressing the left button of the mouse while drawing (see Fig. 27, but the operation panel is off-screen or closed in Fig. 27).
  • the position to be pasted is determined.
  • a playback button for playback is arranged on the HTML file screen to be processed.
  • the operator displays the image of the HTML file to be processed on the screen using a browser (step 401), and, in accordance with the URL of the system (engine part) written in the HTML file to be processed, the system Is started and the operation panel is displayed (Step 402). At this time, the operation panel should not cover the processed H TML file image.
  • the identification number of the smart object is sent to the recording section (step 407), and the smart object corresponding to the identification number is inserted. Then, the pointing device detection unit starts detecting the position information of the mouse cursor. If the drawing object is selected, and if the left mouse button is pressed in the processed HTML file image until the save button is pressed, the drawing object is selected. The position of the mouse cursor is acquired along with displaying the trajectory of the mouse on the screen (Steps 411 to 413). If the value of the X or Y coordinate becomes negative, it is truncated and recorded at 0, while the value is recorded without any restriction in the positive direction) and sent to the recording unit (step 41). 2).
  • the mouse decision button left button
  • the display of the locus and the acquisition of position information are repeated. If any other object is selected, the identification number of the object and the information necessary for the object (for example, the content of the displayed character string in the case of a telop) are sent to the recording unit. (Step 407), the target object is displayed at the position of the cursor, and if the enter button is pressed (Step 409), the position information is sent to the recording unit (Step ⁇ 0).
  • the input object information file contains information about the genius object that was input (for example, the identification number of the object, the information necessary for the genius object (for example, the line thickness and color, In the case of, the contents of the text displayed in the telop), position information ⁇ ; Write the identification number of the play button and the position information.
  • the destination of the source object information file may be either on the local computer or on the server, and is appropriately specified depending on the application.
  • data relating the smart object information file to the processed HTML file (specifically, link information between the smart object information file and the processed HTML file, their paths and addresses, and Information that identifies the operator) in a predetermined database (no modification is made to the processed HTML file).
  • the location of this database is preferably located on the same computer as the system because it is read by the system.
  • the operation panel is closed by closing the browser displaying the HTML file to be processed, and the program ends (step 4 16).
  • the third mode is a technique in which an audio file or a moving image file and a smart object information file are set (parts), and the parts are incorporated into a file image to be processed.
  • the method of creating the parts is basically the same as that of the first mode.
  • Figures 10 and 11 show simplified flowcharts.
  • when creating parts unlike the first mode, there is no need to input the HTML file to be processed, prepare a template HTML file, set it to the default setting, and set it as necessary You just have to make the changes.
  • the object information file and the audio file or the moving image file are saved in a linked state (as a set).
  • the part index file for example, the final still image of the part, the name and description of the part (memo) ⁇ displayed in the parts playback order display window and the parts list display window is also a component of this part (Fig. 2 8).
  • ID information for identifying this part is also a component of this part.
  • the operation panel mainly has a parts list display window and a parts playback order display window. Hereinafter, these will be described.
  • the parts list display window a list of parts (index of parts) recorded in the database is displayed (see Fig. 28). In this window, the operator selects a part to be included in the processed H TML file image.
  • the part playback order designation window has a function of managing the entire time of the HTML file to be processed.
  • the index of the part for example, the final still image of the part
  • the index of the part is displayed in the playback order specification window.
  • Each time a part is placed it is added to this part playback order designation window in order.
  • the order of the part in the part reproduction order designation window can be changed.
  • the operator inputs (selects) the HTML file to be processed.
  • the input (selected) HTML file to be processed may be either on a local computer or on the Internet.
  • the parts list window on the displayed operation panel Fig.
  • the input HTML file to be processed is read and displayed by a browser. Then, the operation panel is displayed so as not to be exposed to the processed HTML file image.
  • the index data of the parts to be displayed in the parts list display window ⁇ for example, the name and description of the parts (memo) ⁇ , the parts to be displayed in the playback order display window
  • the index data (for example, final still image), the file information file, and the audio file-The file name of the video file is sent to the recording unit (step 641).
  • a parts list is displayed on the display (see step 642, Fig. 28).
  • a window for specifying the playback order is also displayed (step 6 43).
  • the object information file of the selected part is read and the position information (X, Y coordinates) written in the object information file is read.
  • the size (operation range) of the part is grasped based on the maximum value of (Step 645), and the size is displayed in a rectangle in accordance with the position of the mouse cursor (Step 646).
  • the position of the base point of the part is obtained from the HTML file (step 648). Also, the index of this part (for example, the final still image) is added after the index of the currently placed part in the part playback order display window (step 649). Then, the information (ID) specifying the arranged parts, the base point position information, and the reproduction order information are sent to the recording unit. This process is repeated by the number of parts.
  • step 652 if there is a change in the part playback order, the change is reflected in the part playback order display window (step 652), and sent to the changed playback order recording unit (step 651). ).
  • the files (audio files and video files) on the time axis are combined in the order of playback, and these files that have been separated for each part are combined (step 6). 5 5).
  • the time information contained in the audio file and video file of each part is also different, the time information is also recalculated in the order of playback.
  • the object information file the data (position data) of the recording section is recalculated, and these files that have been separated for each part are synthesized (step 6554).
  • object information of multiple parts is Based on the base information of the packet, it is converted to the XY axis of the current HTML file, and the time information is converted to one time axis in the order of part playback.
  • the HTML file to be processed is modified (step 6556), which is the same as in the first embodiment. Then, after the instruction to close the system, the displayed windows are all closed (step 658), and the system is terminated.
  • the teacher (client) uses this system to add audio and video to the teaching materials created in HTML format and then uploads them on the server. (Note that the URL of the engine is specified in this file.) Has been).
  • the student (client) browses the HTML file on the server. Then, by pressing the play button on the HTML, the specified engine is started, and based on the data written in the smart object information file, the operation of the smart object or the moving object is synchronized with the sound or video. Placement is performed. In this way, for example, teachers can receive explanations on a blackboard as many times as they want, regardless of time or physical distance.
  • HTML files on the Internet can only be edited by the creator, so if a third party wants to add information, the main method is to write it on a bulletin board. However, by using this system, it is possible to add information (writing, image attachment) to the HTML file.
  • buttons are It is possible to explain by pointing directly to the screen, such as "Press here ⁇ ⁇ ⁇ ⁇ " on the photo of the operating unit that is operating.
  • the help screen is usually opened in a separate window, and the screen is displayed and explained.
  • the help screen can be displayed on the user's screen without opening a separate window. Can be explained. In both cases, explanations can be made with sound on one screen, which makes it very easy to understand.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

A method for superimposingly displaying various objects and additional information including sound and animation on a screen, comprising a file creating step of moving or placing an image object to be added while inputting sound or animation in displaying a second screen being virtually present on a first screen and recording a sound or animation file and an information file where information concerning the position of the object on the second screen correlated with time and a display step of calling the files, displaying the first screen while linking the object with the input sound or animation and moving the object with time or placing the object.

Description

明 細 書 表示画面に付加情報を重畳表示する技術 技術分野  Description Technology for superimposing additional information on the display screen
本発明は、 様々な才ブジェク 卜や音声 · 動画等の付加情報を 表示画面に重畳表示する技術に属し、 例えば、 インターネッ ト のホームページのコンテンツの表現力を向上させる技術に関す る。 背景技術  The present invention belongs to a technology for superimposing and displaying additional information such as various objects and audio / video on a display screen, and for example, relates to a technology for improving the expressive power of the contents of an Internet homepage. Background art
インターネッ トの発展により、 パーソナルコンピュータが急 速に普及した。 そして、 老若男女を問わず非常に多くの人が、 主に、 電子メールを送受信したりホームページを閲覧するため に利用している。 そして、 昨今、 インターネッ トの新しい利用 法 (ビジネスモデル) が次々と誕生しており、 無限の可能性を 秘めていることから、 インターネッ トは第二の産業革命といわ れている。  With the development of the Internet, personal computers have spread rapidly. And it is used by a very large number of people, both young and old, mainly for sending and receiving e-mails and browsing websites. In recent years, new ways of using the Internet (business models) have been created one after another, and the internet has been called the second industrial revolution because it has unlimited potential.
ところで、 そのような新しい利用法が次々と登場する中、 既 存のファイル、 特にインターネッ トでやり とりをする文書ファ ィル (典型的には H T M L形式のファイル) は、 余りに味気な く面白味に欠ける。 他方、 何らかの才ブジェク 卜や音声等を載 せた文書ファイルもあるが、 その作成が素人には難しく、 一般 的には余り行われていないのが現状である。このような状況下、 ファイルに様々な付加情報を簡単に組み込む技術が存在すれば 極めて有意義であり、 インターネッ トの利用が益々盛んになる 1 By the way, as such new usages appear one after another, existing files, especially document files (typically HTML format files) that are exchanged via the Internet, are becoming too bland and interesting. Chip. On the other hand, there is a document file that contains some sort of object or voice, but it is difficult for a layman to create it, and at present it is rarely done. Under such circumstances, it would be extremely useful if there was a technology to easily incorporate various additional information into the file, and the use of the Internet would become more and more popular 1
ことに疑いない。例えば、 ホームページを閲覧しているときに、 重要な部分や疑問のある部分等に、 丸を付けたリ音声を入力す ることができたら便利であろう。 また、 既存の静止画像のみの ホームページに、 描画や音声を簡単に組込むことができたら、 より魅力的なホームページになるであろう。 また、 パーソナル コンピュータの操作に不慣れなユーザにとり、 例えば、 指など のキャラクタの移動に従い、 記載内容を音声で説明してくれる ホームページがあれば、 非常に分かりやすく、 親しみが湧くは ずである。 No doubt. For example, when browsing the homepage, it would be useful to be able to input circled re-voices for important or questionable parts. It would also be more attractive if drawings and audio could be easily incorporated into existing still-image-only homepages. For users who are unfamiliar with the operation of personal computers, for example, if there is a homepage that explains the contents of the description by voice following the movement of a character such as a finger, it will be very easy to understand and familiar.
しかし、 従来のグラフィ ックツールを用いて、 ホームページ にこのような書き込みを行ったファイルをサーバに転送する場 合、 例えばファイル形式が文書ファイルであったときには、 文 書ファイルの画像上に描画した後、 画像ファイルの形式で保存 されるので、 元の文書ファイル形式に戻すことはできないとい う問題がある。  However, when a file written in such a way on a home page is transferred to a server using a conventional graphic tool, for example, if the file format is a document file, after drawing on the document file image, The problem is that it cannot be restored to the original document file format because it is saved in the image file format.
本発明は、 極めて簡単に、 様々なオブジェク トや音声 , 動画 等の付加情報を表示画面に重畳する技術を提供することを目的 としている。 発明の開示  SUMMARY OF THE INVENTION An object of the present invention is to provide a technique for superimposing various objects, additional information such as audio and moving images on a display screen extremely easily. Disclosure of the invention
本発明は、 第 1 のファイルを呼び出し、 その画像を第 1 の画 面上に表示するステップと ; 音声又は動画を入力しながら、 上 記第 1 の画面上に仮想的に存在する第 2の画面内で、 付加され るべき画像オブジェク トを移動又は配置するステップと ; 上記 画像才ブジェク 卜の第 2の画面における位置情報を時間と関連 づけて得るステップと ; 入力された音声情報又は動画情報に基 づき、 音声ファイル又は動画ファイルを作成するステップと ; 上記画像才ブジェク 卜を特定する情報と上記位置情報と上記時 間情報に基づき、 オブジェク ト情報ファイルを作成するステツ プと ; 第 1 のファイルを、 上記音声ファイル又は上記動画ファ ィル及び上記オブジェク ト情報ファイルと関連づけるステップ と ; 第 1 のファイルを第 1 の画面で表示させつつ、 入力された 音声又は動画とリ ンク して、 第 2の画面内で上記画像オブジェ ク 卜を経時的に移動又は配置して表示するステップとを含む、 表示画面に付加情報を重畳表示する方法に関する ( 1 )。 The present invention includes a step of calling a first file and displaying the image on a first screen; and a step of inputting a voice or a moving image while virtually inputting a second file virtually present on the first screen. Moving or arranging the image object to be added in the screen; obtaining the position information of the image object on the second screen in association with time; input audio information or moving image information Based on Creating an audio file or a moving image file; creating an object information file based on the information for specifying the image object, the location information, and the time information; Associating the audio file or the video file with the object information file; and displaying the first file on the first screen while linking the input audio or video to the second file. (1) a method of superimposing and displaying additional information on a display screen, the method including a step of moving or arranging the image object over time in a screen and displaying the image object.
また、 本発明は、 第 1 のファイルを呼び出し、 その画像を第 1 の画面上に表示するステップと ; 上記第 1 の画面上に仮想的 に存在する第 2の画面内で、 付加されるべき画像才ブジェク 卜 を移動又は配置するステップと ; 上記画像オブジェク 卜の上記 第 2の画面上における位置の情報を得るステップと ; 上記画像 才ブジェク 卜を特定する情報と上記位置情報に基づき、 才ブジ ェク 卜情報ファイルを作成するステップと;第 1 のファイルを、 上記才ブジェク 卜情報ファイルと関連づけるステップと ; 第 1 のファイルを第 1 の画面で表示させつつ、 第 2の画面内で上記 画像才ブジェク 卜を表示するステップとを含む、 表示画面に付 加情報を重畳表示する方法に関する ( 2 )。  The present invention also provides a step of calling a first file and displaying the image on a first screen; and a step of adding the image in a second screen virtually existing on the first screen. Moving or arranging the image object; obtaining information on the position of the image object on the second screen; and acquiring the image object based on the information for specifying the image object and the position information. Creating a project information file; associating the first file with the object information file; displaying the first file on the first screen and displaying the image in the second screen. And (b) displaying a supplementary object on the display screen.
更に、 本発明は、 第 1 のファイルを呼び出し、 その画像を第 1 の画面上に表示するステップと ; 上記第 1 の画面上に仮想的 に存在する上記第 2の画面の所定の位置に、 音声ファイル又は 動画ファイルとリ ンクした、 付加されるべき画像オブジェク ト を表示するステップと ; 上記画像オブジェク 卜の第 2の画面に おける位置情報を得るステップと ; 上記音声ファイル又は動画 ファイルの出力順序を特定するステップと ; 特定された出力順 序に従い、 上記音声ファイル又は動画ファイルを出力しつつ、 上記音声ファイル又は動画ファイルとリンクした上記画像才ブ ジェク 卜を第 2の画面内で表示するステップとを含む、 表示画 面に付加情報を重畳表示する方法に関する ( 3 )。 Further, the present invention includes a step of calling a first file and displaying the image on a first screen; at a predetermined position of the second screen virtually existing on the first screen, Displaying an image object to be added that is linked to the audio file or the video file; obtaining position information of the image object on the second screen; and the audio file or the video. Specifying the output order of the files; outputting the audio file or the video file according to the specified output order, and displaying the image object linked to the audio file or the video file in the second screen. And (3) a method of superimposing and displaying additional information on a display screen.
また、 本発明は、 第 1 のファイルにはいかなるリ ンク情報も 付加しない、 前記方法 ( 〗 )ないし ( 3 ) に関する ( 4 )。  The present invention also relates to (4), wherein (4) or (3), wherein no link information is added to the first file.
更に、 本発明は、 音声又は動画を入力しながら、 第 1 の画面 の画面上に仮想的に存在する第 2の画面内で、 画像才ブジェク 卜を上記第 2の画面内で移動又は配置するステップと ; 上記画 像才ブジェク 卜の第 2の画面における位置情報を時間と関連づ けて得るステップと ; 入力された音声又は動画に基づき、 音声 ファイル又は動画ファイルを作成するステップと ; 上記画像ォ ブジェク 卜を特定する情報と上記位置情報と上記時間情報とを 関連づけて、 オブジェク ト情報ファイルを作成するステップ と ; 上記第 1 の画面の上記画面表示にかかるファイルを、 上記 音声ファイル又は上記動画ファイル及び上記才ブジェク 卜情報 ファイルと関連づけるステップとを含む、 表示画面に付加情報 を重畳表示するソースファイルの作成方法に関する ( 5 )。  Furthermore, the present invention moves or arranges an image object in the second screen virtually existing on the screen of the first screen while inputting a sound or a moving image. A step of obtaining position information of the image object on the second screen in association with time; a step of creating a sound file or a moving image file based on the input sound or moving image; Creating an object information file by associating the information specifying the object with the position information and the time information; and transmitting the file related to the screen display of the first screen to the audio file or the moving image. A method of creating a source file that superimposes additional information on a display screen, including a step of associating a file with the above object information file Concerning the law (5).
また、 本発明は、 第 1 の画面の画面上に仮想的に存在する第 2の画面内で、 付加されるべき画像才ブジェク 卜を上記第 2の 画面内で移動又は配置するステップと ; 上記画像才ブジェク 卜 の上記第 2の画面上における上記位置の情報を得るステツプ と ; 上記画像才ブジェク 卜を特定する情報と上記位置情報に基 づき、 才ブジェク 卜情報ファイルを作成するステップと ; 上記 第 1 の画面の上記画面表示にかかるファイルを上記オブジェク 卜情報ファイルと関連づけるステップとを含む、 表示画面に付 加情報を重畳表示するソースファイルの作成方法に関する The present invention also provides a step of, in a second screen virtually existing on a screen of the first screen, moving or arranging an image object to be added in the second screen; A step of obtaining the information of the position of the image object on the second screen; and a step of creating an image object file based on the information specifying the image object and the position information; Copy the file related to the screen display of the first screen to the object Relating to a method of creating a source file that superimposes additional information on a display screen, including a step of associating with a display information file.
( 6 )。  (6).
更に、 本発明は、 第 1 の画面上に仮想的に存在する上記第 2 の画面の所定の位置に、 音声ファイル又は動画ファイルと リ ン クした、 付加されるべき画像オブジェク トを表示するステップ と ; 上記画像才ブジェク 卜の第 2の画面における位置情報を得 るステップと ; 上記音声ファイル又は動画ファイルの出力順序 を特定するステップを含む、 表示画面に付加情報を重畳表示す るソースファイルの作成方法に関する ( 7 )。  Further, the present invention provides a step of displaying an image object to be added, which is linked to an audio file or a moving image file, at a predetermined position of the second screen virtually existing on the first screen. A step of obtaining position information of the image object on the second screen; and a step of specifying an output order of the audio file or the moving image file. How to make (7).
また、 本発明は、 第 1 の画面にかかるファイルにはいかなる リンク情報も付加しない、 前記方法 ( 5 )ないし ( 7 ) に関す る ( 8 )。  The present invention also relates to the methods (5) to (7), wherein any link information is not added to the file on the first screen (8).
更に、 本発明は、 前記方法 ( 1 ) ないし ( 8 ) に規定された ステップを実行するプログラムを格納する、 磁気記録媒体に関 する ( 9 )。  Furthermore, the present invention relates to a magnetic recording medium storing a program for executing the steps defined in the above methods (1) to (8) (9).
また、 本発明は、 前記媒体 ( 9 ) に規定された磁気記録媒体 を有する、 コンピュータシステムに関する ( 1 0 )。  The present invention also relates to a computer system having the magnetic recording medium defined in the medium (10) (10).
まず、上記及び請求の範囲で用いられる用語につき説明する。 「第 1 のファイル」とは、付加情報が組み込まれるファイル(被 処理ファイル) をいう。 ファイルの種類は特に限定されず、 文 書ファイル、 表計算ファイル、 音声ファイル、 画像ファイル、 動画ファイルが挙げられる。 また、 その形式も特に限定されず、 文書ファイルであれば、 H T M L形式のファイルが例示される。 「動画」 とは、 音声のない動画のみならず、 音声のある動画を 含む。 「仮想的に存在する第 2の画面」 とは、 第 1 の画面と独 i First, terms used in the above and claims will be described. “First file” refers to the file (processed file) in which additional information is embedded. The type of file is not particularly limited, and includes a document file, a spreadsheet file, an audio file, an image file, and a video file. The format is not particularly limited, and a document file is exemplified by an HTML format file. "Movie" includes not only video without sound but also video with sound. The “virtual second screen” is defined as the first screen and the i
立した画面であり、 第 1 の画面上に存在する、 透明 (第 2の画 面から第 1 の画面が透けて見える限り、 半透明や有色透明を含 む) な仮想画面をいう。 「音声ファイル」 や 「動画ファイル」 は、 特に限定されず、 様々な形式のものを含む。 「画像才ブジ ェク 卜」 とは、 第 1 のファイルに付加される画像情報をいう。 例えば、 静止画像 (可動画像) の移動情報、 描画情報、 テロッ プ、 固定画像等が挙げられる。 「音声又は動画を入力しながら」 とは、 画像才ブジェク 卜の入力の際、 音声の録音や動画の録画 を行なうことの他、 画像才ブジェク 卜の入力の際、 既存の音声 ファイルや動画ファイルを再生することを含む。 「ォブジェク 卜情報ファイル」 とは、 画像才ブジェク 卜を被処理ファイル画 像上に指示通り に表示させるために必要な情報が盛り込まれて いるファイルをいう。一般的にデータファイルといわれている。 「第 1 のファイルを、 上記音声ファイル又は上記動画ファイル 及び上記オブジェク ト情報ファイルと関連づける」 とは、 第 1 のファイルにリ ンク情報を書き込むことの他、 第 1 のファイル リンク情報を書き込まず、 例えば、 才ブジェク 卜情報ファイル の U R Lと、 音声ファイルや動画ファイルの U R Lと、 被処理 ファイルの U R Lとを関連づけたデータをデータベースに記録 することも含む。 「上記音声ファイル又は動画ファイルの出力 順序を特定する」 とは、 音声ファイル又は動画ファイルの出力 順序を特定する他、 音声ファイル又は動画ファイルとリンクし た画像才ブジェク 卜の出力順序を特定することにより、 間接的 に音声ファイル又は動画ファイルの出力順序を特定することも 含む。 なお、 特定された表示順序に従い、 貼付されたパーツ (ォ ブジェク 卜情報ファイルと画像又は動画ファイルとのセッ 卜) を統合することの他、 パーツを統合させないで、 各パーツの表 示順序が記録された管理ファイルが好適には作成される。 図面の簡単な説明 A standing virtual screen that is transparent on the first screen (including translucent and colored transparent as long as the first screen can be seen through the second screen). “Audio file” and “video file” are not particularly limited, and include various types of files. “Image object” refers to image information added to the first file. For example, there are moving information of still images (movable images), drawing information, telops, fixed images, and the like. The phrase “while inputting audio or video” refers to recording audio and video when inputting an image, and existing audio and video files when inputting an image. Playing. The “object information file” is a file containing information necessary for displaying an image object on a file image to be processed as instructed. Generally called a data file. "Associating the first file with the audio file or the moving image file and the object information file" means that the link information is written in the first file and the first file link information is not written. For example, this includes recording in the database data in which the URL of the object information file, the URL of the audio file or the video file, and the URL of the file to be processed are associated. "Specifying the output order of the audio file or the moving image file" means specifying the output order of the audio file or the moving image file, and specifying the output order of the image object linked to the audio file or the moving image file. This includes indirectly specifying the output order of audio files or video files. In addition, according to the specified display order, the attached parts (set of object information file and image or video file) In addition to integrating the parts, a management file in which the display order of each part is recorded is preferably created without integrating the parts. BRIEF DESCRIPTION OF THE FIGURES
図〗 は、 本発明に係る一実施形態のシステム構成図である。 図 2は、本発明に係る一実施形態のハー ドウェア構成図である。 図 3〜図 7は、 第一の態様の内部処理フローチャー トである。 図 8及び図 9は、第二の態様の内部処理フローチヤ一卜である。 図 1 0は、 第三の態様の操作フローチヤ一卜である。 図 1 1 は、 第三の態様におけるパーツ作成の内部処理フローチヤ一卜であ る。 図〗 2及び図 1 3は、 第三の態様におけるパーツ組込みの 内部処理フローチヤ一 卜である。 図 1 4は、 第一の態様のシス テムを起動した後の、 入力方法選択ウィンドウが表示された状 態を示す図である。 図 1 5は、 第一の態様において、 入力方法 選択ウィンドウで 「新しく指示を入力」 が選択された後の、 被 処理ファイル (対象 H T M L ) と音声ファイル (対象 s o u n d ) の入力指示ウィンドウが表示された状態を示す図である。 図 1 6は、 第一の態様において、 被処理ファイルの画像 (符号 5 ) と操作パネル (符号 1 0 ) が表示された状態を示す図であ る。 図 1 7は、 画像才ブジェク 卜のうち、 可動な画像の一覧が 表示された状態を示す図である。 図 1 8は、 画像才ブジェク 卜 のうち、 描画可能な基本的な図形の一覧が表示された状態を示 す図である。 なお、 線の色は符号 6で、 線の太さは符号 7で選 択可能である (図 1 6参照)。 図 1 9は、 テロップを示す。 テ ロップとして表示する文字や記号等は、 符号 2 7の枠内に入力 する。 図 2 0は、 固定画像の一覧が表示された状態を示す図で ある。本図においては、 1 2個の固定画像が登録されている(符 号 2 8 )。 図 2 1 は、 制御ボタンが表示された状態を示す図で ある。 図 2 2は、 第一の態様において、 音声ファイルを介して 音声を入力しながら、 可動な画像 (指) 3 0を、 線 3 1 の軌跡 で移動させている状態を示す図である。 図 2 3は、 入力時の音 声ファイルの時間軸を変更するために、 操作パネルから速度変 更一覧 3 2を表示させた状態を示す図である。 図 2 4は、 付加 情報が組み込まれた被処理ファイルを再生する前の状態を示す 図である。 符号 3 3は再生ポタンを示し、 これを押すと再生動 作が始まる。 図 2 5は、 図 2 4 における再生ボタンを押した後 の、 可動な画像 (指) の動きを示した図である。 図中、 符号 3 5は、 可動な画像 (指) の軌跡を示す。 符号 3 4は、 再生時に、 早送り、 巻き戻し、 停止及び一時停止させるための操作ボタン を示す。 図 2 6は、 第二の態様において、 システムを起動した 後に表示される画面を示す図である。 符号 3 6は、 被処理ファ ィルを示す。 図 2 7は、 第二の態様において、 画像才ブジェク 卜 (線) を移動させた後の軌跡を示す図である。 符号 3 7及び 3 8が、 才ブジェク 卜情報として記録される線の軌跡である。 図 2 8は、 第三の態様において用いられる、 パーツ一覧表を示 す。 本図では、 5個のパーツ ( N o . 1 〜 5 ) が表示されてい る。 図 2 9は、 第三の態様における、 複数のパーツ (オブジェ ク 卜情報ファイルと音声ファイルとの複数のセッ ト) と被処理 ファイル ( H T M Lファイル) とがリンク した状態を示す図で ある。 発明を実施するための最良の形態 本発明をより詳細に説述するために、 添付の図面に従ってこ れを説明する。 なお、 以下では、 被処理ファイルとして H T M Lファイルを用いるが、 本発明はこれに限定されるものではな い。 FIG. 1 is a system configuration diagram of an embodiment according to the present invention. FIG. 2 is a hardware configuration diagram of an embodiment according to the present invention. FIG. 3 to FIG. 7 are flowcharts showing the internal processing of the first embodiment. FIG. 8 and FIG. 9 are internal processing flowcharts of the second embodiment. FIG. 10 is an operation flowchart of the third embodiment. FIG. 11 is an internal processing flowchart of part creation in the third embodiment. FIGS. 2 and 13 are flowcharts showing the internal processing in which the parts are incorporated in the third embodiment. FIG. 14 is a diagram illustrating a state where the input method selection window is displayed after the system according to the first embodiment is started. Fig. 15 shows the first mode in which the input instruction window for the file to be processed (target HTML) and the audio file (target sound) after "input new instruction" is selected in the input method selection window is displayed. FIG. FIG. 16 is a diagram showing a state in which the image (reference numeral 5) and the operation panel (reference numeral 10) of the file to be processed are displayed in the first embodiment. FIG. 17 is a diagram showing a state in which a list of movable images among the image objects is displayed. FIG. 18 is a diagram showing a state in which a list of basic figures that can be drawn among image objects is displayed. The color of the line can be selected with the code 6, and the thickness of the line can be selected with the code 7 (see Fig. 16). Figure 19 shows the telop. Characters, symbols, etc. to be displayed as telops are entered in the box of reference numeral 27. Figure 20 is a diagram showing a state where a list of fixed images is displayed. is there. In this figure, 12 fixed images are registered (reference numeral 28). FIG. 21 is a diagram showing a state where the control buttons are displayed. FIG. 22 is a diagram showing a state in which the movable image (finger) 30 is moved along the trajectory of the line 31 while inputting audio via an audio file in the first embodiment. FIG. 23 is a diagram showing a state in which a speed change list 32 is displayed from the operation panel in order to change the time axis of the audio file at the time of input. FIG. 24 is a diagram showing a state before the file to be processed in which the additional information is incorporated is reproduced. Reference numeral 3 3 indicates a playback button, and when this button is pressed, the playback operation starts. FIG. 25 is a diagram showing the movement of the movable image (finger) after the play button in FIG. 24 is pressed. In the figure, reference numeral 35 indicates a locus of a movable image (finger). Reference numeral 34 denotes operation buttons for fast forward, rewind, stop, and pause during playback. FIG. 26 is a diagram showing a screen displayed after the system is started in the second mode. Reference numeral 36 indicates a file to be processed. FIG. 27 is a diagram showing a trajectory after moving the image object (line) in the second embodiment. Reference numerals 37 and 38 denote trajectories of lines recorded as age object information. FIG. 28 shows a parts list used in the third embodiment. In this figure, five parts (No. 1 to 5) are displayed. FIG. 29 is a diagram showing a state where a plurality of parts (a plurality of sets of an object information file and an audio file) and a file to be processed (HTML file) are linked in the third mode. BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described in more detail with reference to the accompanying drawings. In the following, an HTML file is used as the file to be processed, but the present invention is not limited to this.
図 1 は、 本発明に係る一実施形態のシステム構成図である。 図 1 中、 符号 1 はインターネッ トであり、 符号 2はユーザ (操 作者) 端末 (例えば、 パーソナルコンピュータ) であり、 符号 3はサーバである。 そして、 ユーザ端末及びサーバは、 通信回 線を介してインターネッ 卜に接続している。  FIG. 1 is a system configuration diagram of an embodiment according to the present invention. In FIG. 1, reference numeral 1 denotes the Internet, reference numeral 2 denotes a user (operator) terminal (for example, a personal computer), and reference numeral 3 denotes a server. The user terminal and server are connected to the Internet via a communication line.
図 2は、 本発明に係る一実施形態のハー ドウェア構成図であ リ、 基本的には市販のパーソナルコンピュータと同じである。 但し、 外部の音声を録音するための音声録音部、 外部の動画を 録画するための動画録画部が設けられている。 なお、 本図では、 被処理ファイル ( H T M Lファイル) 及び音声 (動画) フアイ ルは外部にあり、 才ブジェク 卜情報やプログラムはローカルに あるものが示されている。 但し、 本質的には、 被処理ファイル、 音声 (動画) ファイル、 オブジェク ト情報及びプログラムの所 在は、 特に限定されるものではない。  FIG. 2 is a hardware configuration diagram of an embodiment according to the present invention, which is basically the same as a commercially available personal computer. However, a sound recording unit for recording external sounds and a moving image recording unit for recording external moving images are provided. In this figure, the file to be processed (HTML file) and the audio (moving image) file are external, and the object information and programs are local. However, the locations of the files to be processed, audio (video) files, object information, and programs are not particularly limited.
本発明は、 第一の態様、 第二の態様及び第三の態様に大別さ れる。 したがって、 以下では、 それぞれの態様に分けて説明す る。  The present invention is roughly classified into a first embodiment, a second embodiment, and a third embodiment. Therefore, in the following, description will be given for each mode.
1 . 第一の態様 1. First aspect
本発明の第一の態様は、 音声や動画情報と才ブジェク 卜情報 とが組み込まれた被処理ファイルを簡単に作成する技術である。 作成方式としては、 既存の音声フアイルゃ動画ファイルを用い l b A first aspect of the present invention is a technique for easily creating a file to be processed in which audio and video information and intelligent object information are incorporated. As a creation method, existing audio file ゃ video file is used lb
つつ、 オブジェク ト情報を入力する方式 (以下、 方式①という)、 及び、 音声や動画を入力しつつ、 オブジェク ト情報を入力する 方式 (以下、 方式②という) の二通りある。 以下では、 第一の 態様に係るシステムおける、 各機能、 操作手順及び内部処理に つき説明する。 In addition, there are two methods: a method of inputting object information (hereinafter referred to as method I), and a method of inputting object information while inputting audio and video (hereinafter referred to as method I). Hereinafter, each function, operation procedure, and internal processing in the system according to the first embodiment will be described.
( a ) 各機能の説明  (a) Description of each function
システムを起動させ、 被処理 H T M Lファイルの特定と、 方 式①又は②のいずれによリ作成するかの決定を行なった後、 才 ブジェク 卜情報入力可能状態になる (なお、 図 1 4及び図 1 5 が上記特定及び決定に関連した図であるが、 これらの図は、 方 式①のみを想定したものであるので、 方式②の場合には、 別の パネルが表示されることになる)。 その際、 画面上に操作パネ ルが表示される (図 1 6参照)。 操作パネル 1 0上には、 各種 入力制御機能 (録画ポタン 1 9、 再生ボタン 2 0、 一時停止ボ タン 2 1 、 停止ボタン 2 2、 削除ボタン等)、 各種時間制御機 能 (時間を制御するためのスライ ドバー 1 8、 再生速度変更機 能 2 3等)、 才ブジェク 卜選択機能 (可動な画像の一覧 1 2 、 描画可能な基本的な図形の一覧 1 3、 テロップ入力 1 4、 固定 画像一覧 1 5等)、 結果物作成支援機能(保存ファイルの保存、 プレビュー、 再生ボタン配置等) が設けられている。 この操作 パネルは、 常に画面上に表示されている為、 入力中の様々なタ イミングでこれらめ機能を使用することができる。 以下、 上記 各種機能につき説明する。  After activating the system and specifying the HTML file to be processed and deciding whether to create the file by method (1) or (2), the system is ready to enter the object information (Fig. 14 and Fig. 14). (Fig. 15 is a diagram related to the above specification and decision. However, since these diagrams assume only method (2), another panel will be displayed for method (2).) . At that time, an operation panel is displayed on the screen (see Fig. 16). On the operation panel 10, various input control functions (recording button 19, play button 20, pause button 21, stop button 22, delete button, etc.), various time control functions (time control Slide bar 18, playback speed change function 23, etc.), smart object selection function (movable image list 12, drawable basic figure list 13, telop input 14, fixed image) List 15), and a result creation support function (storage of saved files, preview, layout of play button, etc.) are provided. Since this operation panel is always displayed on the screen, these functions can be used at various times during input. Hereinafter, the various functions will be described.
★各種入力制御機能 (図 1 6参照) ★ Various input control functions (See Fig. 16)
*録画ボタン 1 9 : このボタンを押すと、 方式① (既存の音声 ファイルや動画ファイルを用いる方式) の場合には再生が始ま Ί * Record button 19: When this button is pressed, playback starts in the case of system ① (a system that uses existing audio and video files). Ί
リ、 方式② (音声や動画を入力する方式) の場合には録音ゃ録 画が始まり、 このボタンを押した後に指示された才ブジェク 卜 情報の記録を開始する。 In the case of the method (method of inputting audio or video), recording starts, and after pressing this button, recording of the specified object information starts.
*再生ボタン 2 0 : このボタンを押すと、 記録部より入力済み の才ブジェク 卜情報を読込み、 その内容に従い音声又は動画に 合わせてオブジェク トを配置、 動作させる。  * Play button 20: When this button is pressed, the input object information is read from the recording unit, and the object is arranged and operated according to the content according to the content.
*一時停止ボタン 2 1 : このポタンを押すと、 オブジェク 卜情 報の記録、 音声や動画の記録 , 再生が一時停止する。 このボタ ンは トグルボタンになっており、 一度押すと再度押されるまで 再開しない。 なお、 本システムにおいては、 一時停止の方法が 他に二つある。 一つ目は、 マウスのキャンセルポタン (右ボタ ン) を押す方法である。 二つ目は、 マウスカーソルの位置によ つて自動的に一時停止 · 再開させる方法である。 例えば、 マウ スカーソルが被処理 H T M Lファイル画面の表示領域外 (ここ で、 操作パネル上も被処理 H T M Lファイル画面の表示領域外 とする) にある場合、 音声や動画の記録 , 再生を一時停止し、 被処理 H T M Lフアイルの表示領域内にあるときは、 音声や動 画の記録 · 再生の一時停止を解除し、 記録 · 再生を再開する。 *停止ボタン 2 2 : このボタンを押すと、 音声や動画の記録 - 再生を停止し、 才ブジェク 卜情報の記録を停止する。 なお、 方 式① (既存の音声ファイルや動画ファイルを用いる方式) の場 合、 このボタンを押さなく とも、 既存ファイルの再生が終了す ると自動的に停止する。 * Pause button 21: Press this button to pause the recording of object information, the recording and playback of audio and video. This button is a toggle button and will not resume once pressed once it is pressed again. In this system, there are two other suspension methods. The first method is to press the cancel button (right button) on the mouse. The second is a method of automatically pausing and resuming depending on the position of the mouse cursor. For example, if the mouse cursor is outside the display area of the HTML file screen to be processed (here also on the operation panel, outside the display area of the HTML file screen to be processed), the recording and playback of audio and video are paused, If it is within the display area of the HTML file to be processed, release the pause of recording and playback of audio and video, and resume recording and playback. * Stop button 2 2: Press this button to stop recording and playback of audio and video, and stop recording of object information. In the case of method ① (method using an existing audio file or video file), even if this button is not pressed, the playback stops automatically when the playback of the existing file ends.
*削除ボタン ( 2 2の右のボタン) : このボタンを押すと、 入 力したオブジェク ト情報 (一時記憶領域に保存されている) が 消去される。 ( 1 * Delete button (22 right button): Press this button to delete the input object information (saved in the temporary storage area). (1
★各種時間制御機能 (図 1 6参照)  ★ Various time control functions (See Fig. 16)
*スライ ドバー 1 8 : これは、 操作パネルの時間制御機能の一 つで、 既存の音声や動画の再生ツールと同じように、 ファイル の再生時間を直線で表し、 両端が再生開始位置と終了位置であ リ、 現在の再生位置がどのあたりかがつまみで表されている。 このつまみを ドラッグして変更することにより、 入力する時間 の位置が変更される。 例えば、 入力中に才ブジェク 卜情報を挿 入する必要のない時間帯がある場合には、 不必要な時間帯を飛 ばす ; 入力のタイミングが合わなかった場合に少し時間を戻 す;ある時間帯に複数の才ブジェク 卜情報を挿入したい場合に、 ある才ブジェク 卜情報を記録した後、 再びその時間帯に戻し、 別の才ブジェク 卜情報を記録させる、 といった使用例が挙げら れる。  * Slide bar 18: This is one of the time control functions of the operation panel. Like the existing audio and video playback tools, the file playback time is represented by a straight line, with the playback start and end positions at both ends. The knob indicates where the current playback position is. Dragging this knob changes the position of the input time. For example, if there is a time zone where it is not necessary to insert the object information during input, skip the unnecessary time zone; if the input timing does not match, return a little time; a certain time For example, when it is desired to insert a plurality of genius object information into a band, a certain genuine object information is recorded, then the time zone is returned again, and another genuine object information is recorded.
*速度変更機能 2 3 : これは、 方式① (既存の音声ファイルや 動画ファイルを用いる方式) の場合、 これらファイルの再生速 度を変更したいときに用いる。 例えば、 音声ファイルの再生速 度を遅く設定することにより時間軸が伸びる結果、 余裕を持つ て入力が可能となり、 落ち着いて才ブジェク 卜情報を入力する ことが可能となる。  * Speed change function 2 3: This is used when you want to change the playback speed of these files in the case of method ① (method using existing audio and video files). For example, by setting the playback speed of the audio file to be slow, the time axis is extended, so that it is possible to input with a margin, and it is possible to calmly input the object information.
女才ブジェク 卜選択機能 (図 1 7〜図 2 0参照) Female object selection function (See Fig. 17 to Fig. 20)
*可動な画像の一覧 1 2 : システムに登録されている 「可動な 画像 J の画像データの一覧が表示されている (図 1 7の符号 2 5 )。 操作者は、 この中から使用したい可動な画像を選択する。 なお、 操作者が、 新規な 「可動な画像」 の画像データをシステ 厶に追加した場合には一覧に追加される。 可動な画像の動きは 軌跡が残らない為、 説明している部分を指したり、 動きを表現 したい場合に有効である。 * List of movable images 1 2: A list of image data of movable images J registered in the system is displayed (reference numeral 25 in Fig. 17). If the operator adds new “movable image” image data to the system, it will be added to the list. Since the trajectory of the movement of the movable image does not remain, it points to the part explained and expresses the movement It is effective when you want to.
*描画可能な基本的な図形の一覧 1 3 : 描画可能な基本的な図 形として、 自由線、 直線、 四角形などが登録されている (図 1 8の符号 2 6 )。 この描画図形は軌跡が残るため、 強調したい 部分にマーカーをいれるときや、 お絵かきソフ トのように被処 理 H T M Lファイル画面上に自由に書き込み · 描き込みを行う とき等に有効である。  * List of drawable basic shapes 13: Free lines, straight lines, rectangles, etc. are registered as the basic drawable shapes (reference numeral 26 in Fig. 18). Since this drawing figure has a locus, it is effective when a marker is to be placed on a portion to be emphasized, or when writing and drawing freely on the processed HTML file screen like drawing software.
*テロップ 1 4 : これを選択すると、 操作パネル上の所定部分 (符号 2 7 ) に文字列を入力することが可能となり、 入力され た文字列は、 被処理 H T M Lファイル画面の指定の場所に貼り 付けられる (図 1 9参照)。 補足説明等に利用できる。  * Telop 1 4: When this is selected, it becomes possible to input a character string in a predetermined part (reference numeral 27) on the operation panel, and the input character string is pasted at the specified location on the HTML file screen to be processed. (See Figure 19). It can be used for supplementary explanations.
*固定画像 1 5 : システムに記録されている固定画像を選択す ることにより、 シールのように画像内に貼リ付けることができ る (図 2 0参照)。 * Fixed image 15: By selecting a fixed image recorded in the system, it can be pasted into the image like a sticker (see Fig. 20).
★結果物作成支援機能 ★ Result creation support function
*保存ボタン : このボタンを押すことにより、 入力した才ブジ ェク 卜情報を反映した才ブジェク 卜情報ファイル (データファ ィル) が作成される。 また、 同時録音 · 録画の場合には、 それ ぞれ音声ファイル · 動画ファイルが作成される。 また、 被処理 H T M Lファイルと、 オブジェク ト情報ファイルと、 音声ファ ィル又は動画ファイルとをリ ンクさせる作業が行なわれる。 *再生ボタン配置ボタン : このボタンを押すこと より、 ボタ ン配置ウィ ン ドウを表示させる。 ボタン配置ウイン ドウには、 複数のボタン候補が一覧になっており、 操作者は、 この中から 好みのボタンを選択し、 被処理 H T M Lファイル画像内の希望 の場所に配置する。 ここで配置した再生ボタンを押すことによ i f * Save button: By pressing this button, a smart object information file (data file) reflecting the input smart object information is created. In the case of simultaneous recording and recording, an audio file and a video file are created, respectively. In addition, an operation of linking the processed HTML file, the object information file, and the audio file or the moving image file is performed. * Play button layout button: Press this button to display the button layout window. A plurality of button candidates are listed in the button arrangement window, and the operator selects a desired button from the list and arranges the button at a desired position in the image of the HTML file to be processed. By pressing the play button placed here if
リ、 入力した内容に従って動作させる事ができる。 It can be operated according to the input contents.
女才ブジェク 卜情報の入力方法 How to enter information
才ブジェク 卜情報は、 記録時 (一時停止や停止状態でない場 合)、 マウスの決定ボタン (左ボタン) が押されている間のみ 記録される。 なお、 才ブジェク 卜情報は、 マウスカーソルの位 置にあわせて表示される。  At the time of recording (if not paused or stopped), the age object information is recorded only while the mouse's decision button (left button) is pressed. Note that the age object information is displayed at the position of the mouse cursor.
女才ブジェク 卜情報の入力可能範囲 Input range of female intelligence object information
被処理 H T M Lファイル画面の左上を基点 ( 0, 0 ) として、 正の方向への制限はない (すなわち、 右方向、 下方向に制限は ない) のに対し、 上 · 左方向の負の方向へは制限が設けられて おり、 負の方向への移動は不可能になっている (才ブジェク 卜 はそこで止まってしまう)。  There is no restriction in the positive direction (that is, there is no restriction in the right direction and the downward direction) with respect to the base point (0, 0) from the upper left of the HTML file screen to be processed. Is restricted, so that movement in the negative direction is not possible (the project stops there).
( b ) 操作手順の説明  (b) Explanation of operation procedure
まず、 操作者は、 本システムを起動させる。 次に、 起動後、 入力方法選択ウィン ドウが表示されるので、 「既存ファイルを 使用し、 新しく指示を入力」 (方式①)、 「同時入力で、 新しく 指示を入力」 (方式②)、 「既存のファイルに指示を追加」、 「w e b公開用の H T M Lを作成 J のいずれかを選択する (なお、 図 1 4では、 方式①のみの入力を前提としているので、 上記の 入力方法選択ウィン ドウとは異なっている)。 以下では方式① 又は②を選択した場合につき詳細に説明し、 その他の 「既存の ファイルに指示を追加」及び Γ w e b公開用の H T M Lを作成」 を選択した場合 (図 1 4参照) については、 本項の最後で簡単 に触れることとする。  First, the operator starts the system. Next, after starting up, the input method selection window will be displayed. “Use existing file and input new instructions” (method ①), “Simultaneous input, input new instructions” (method ②), “ Add an instruction to an existing file ”or“ Create HTML for web publishing J ”(Note that Figure 14 assumes that only method ② is input, so the above input method selection window In the following, it will be explained in detail when the method ① or ② is selected, and when the other “Add instructions to existing files” and 作成 Create HTML for web publishing ”are selected (Fig. 14) will be briefly mentioned at the end of this section.
方式①又は②のいずれを選択した場合でも、 被処理 H T M L ファイルのパス ■ ファイル名を入力する (図 1 5参照)。 また I Regardless of which method (1) or (2) is selected, the path of the HTML file to be processed ■ Enter the file name (see Fig. 15). Also I
は、 入力の代わりに、 表示されたファイル選択ウインドウより ファイルを選択してもよい。 なお、 入力 (選択) する H T M L ファイルは、 ローカルのコンピュータ上でもインターネッ 卜上 でもどちらでもよい。 また、 別の方式として、 被処理 H T M L ファイルに本システムを読み込むための指定がされている場合 には、 被処理 H T M Lファイルを読み込んだ後、 本システムは 自動的に起動する。 (なお、 この場合は、 予め本システムを呼 び出すための行を追加した被処理 H T M Lファイルを作成して おく必要がある)。 但し、 以下では、 エンジン部分のア ドレス が指定されていない H T M Lファイルを使用するものとして説 明する。 May select a file from the displayed file selection window instead of inputting. The HTML file to be input (selected) may be on a local computer or on the Internet. As another method, if the system is specified to read the HTML file to be processed, the system automatically starts after reading the HTML file to be processed. (In this case, it is necessary to create an HTML file to be processed to which a line for calling this system has been added in advance). However, in the following description, it is assumed that an HTML file in which the address of the engine is not specified is used.
そして、 方式①では、 使用する音声ファイル名又は動画ファ ィル名を入力 (または選択) する (なお、 図 1 5では音声ファ ィルのみを前提としている)。 方式②では、 作成される音声フ アイルゃ動画ファイルの名称、作成先のパス、 ファイル形式(音 声や動画保存形式の細かい設定を含む) を入力する。 その後、 完了ボタンを押す。  Then, in method (2), the user inputs (or selects) the name of the audio file or the video file to be used (note that Fig. 15 assumes only the audio file). In method (2), input the name of the audio file to be created, the name of the movie file, the path to create it, and the file format (including detailed settings for the audio and movie storage formats). Then, press the Finish button.
完了ボタンを押した後、 画面内に、 被処理 H T M Lファイル 画像 5 と操作パネル 1 0が表示される (図 1 6参照)。 初期表 示時、 入力される才ブジェク 卜はデフオル卜の設定になってい る (符号 9で示されるように、 画像才ブジェク 卜として、 可動 な画像の 「指」 が選択されている) が、 初期設定されている才 ブジェク 卜と異なったオブジェク トを入力したい場合には、 操 作パネル〗 0より希望の才ブジェク 卜を選択する。  After pressing the Finish button, the processed H TML file image 5 and the operation panel 10 are displayed on the screen (see Fig. 16). At the time of initial display, the input object is set to the default (as shown by reference numeral 9, the movable image “finger” is selected as the image object). If you want to input an object that is different from the default object, select the desired object from the operation panel〗 0.
次に、 録画ポタン 1 9を押すことにより、 才ブジェク 卜情報 の入力を開始する (図 2 2 )。 方式①の場合は、 指定した音声 a Next, by pressing the recording button 19, the input of the smart object information is started (Fig. 22). For method II, the specified audio a
又は動画ファイルが再生されるので、 この再生された音声や動 画に合わせて、 マウスを用いて、 才ブジェク 卜を表示させたり 移動させたリする。 例えば、 図 2 2の場合、 可動な画像 3 0を、 符号 3 1 で示された方向に移動させる。 なお、 この方式の場合、 既存ファイルの再生が終了すると自動的に停止するので、 操作 者は終了前に入力を完了させる必要がある。 また、 方式②の場 合は、 録音や録画をしながら、 マウスを用いて、 才ブジェク 卜 を表示させたり移動させたりする。 同時入力の場合は、 記録部 (例えば、 補助記憶装置) の容量が許す限り入力が可能である。 なお、 いずれの方式の場合も、 前記のように三通りの一時停止 手段があるので、 これらを使い分けることにより、 落ち着いて 入力することができる。 Alternatively, since a moving image file is played, a smart object is displayed or moved using a mouse in accordance with the played sound or moving image. For example, in the case of FIG. 22, the movable image 30 is moved in the direction indicated by the reference numeral 31. In addition, in the case of this method, it stops automatically when the reproduction of the existing file ends, so the operator needs to complete the input before the end. In the case of method II, while recording or recording, use the mouse to display or move the object. In the case of simultaneous input, input is possible as long as the capacity of the recording unit (for example, auxiliary storage device) permits. In either case, since there are three types of temporary stop means as described above, it is possible to input calmly by properly using them.
才ブジェク 卜情報の入力が終了したら、 操作者は、 停止ボタ ン 2 2を押す。 但し、 方式①の場合は、 再生後自動的に停止す る (すなわち、 スライ ドバー 1 8が右端に到達した時) ので、 この場合は必ずしも停止ボタン 2 2を押す必要はない。  When the input of the smart object information is completed, the operator presses the stop button 22. However, in the case of the method (2), the playback is automatically stopped after the playback (that is, when the slide bar 18 reaches the right end). In this case, it is not always necessary to press the stop button 22.
次に、 操作者は、 被処理 H T M Lファイル画面上に、 再生時 の再生ボタンを配置する。  Next, the operator arranges a playback button for playback on the HTML file screen to be processed.
最後に、 保存ポタンを押し、 ブラウザを閉じることにより、 本操作は終了する。  Finally, press the save button and close the browser to end this operation.
( c ) 内部処理の説明  (c) Description of internal processing
次に、 内部処理につき、 図 3〜図 7のフローチャー トに従い 説明する。  Next, the internal processing will be described with reference to the flowcharts of FIGS.
まず、 本システム起動後、 方式①又は②のいずれによリオブ ジェク 卜情報を入力するのかの選択指示を出す (ステップ 2 0 2 ) 0 / ? First, after the system start-up, put out a selection instruction or to enter the Riobu Jeku Bok information by any of the method ① or ② (step 2 0 2) 0 /?
次に、 操作者が方式①を選択した場合 (既存の音声ファイル 又は動画ファイルを使用する場合) には、 ファイル選択ウィン ドウ (図 1 5の符号 4 ) を表示し、 被処理 H T M Lファイルの パス · ファイル名と、 使用する音声ファイルまたは動画フアイ ルのパス · ファイル名の入力 (選択) 指示を出す (ステップ 2 0 4 )。 また、 操作者が方式②を選択した場合 (同時に音声又 は動画を入力することを選択した場合) には、 被処理 H T M L ファイルのパス ■ ファイル名と、 これから作成される音声ファ ィルまたは動画ファイルを保存するためのパス · ファイル名 ■ 保存形式の入力 (選択) 指示を出す (ステップ 2 0 7 )。  Next, when the operator selects the method II (when using an existing audio file or video file), a file selection window (4 in FIG. 15) is displayed and the path of the HTML file to be processed is displayed. · File name and the path of the audio file or video file to be used · Enter the file name (selection) and give instructions (step 204). If the operator selects method (2) (input of audio or video at the same time), the path of the HTML file to be processed ■ File name and the audio file or video to be created Path to save the file · File name ■ Input (select) save format instruction (Step 207).
これらのファイルにっき、 操作者によりパス · ファイル名等 が入力 (選択) された後、 方式①の場合は、 入力された音声フ アイルまたは動画ファイルのパス ■ ファイル名を音声再生部ま たは動画再生部へ送り、 音声再生部または動画再生部は指定さ れたファイルを読み込む (ステップ 2 0 5 )。 また、 方式②の 場合は、 作成される音声ファイルまたは動画ファイルに関し、 音声録音部または動画録画部へパス , ファイル名 , 保存形式を 送り、 音声録音部または動画録画部は、 送られた情報を基に音 声ファイルまたは動画ファイル作成の準備をする (ステップ 2 0 8 )。  After inputting (selecting) the path, file name, etc. by the operator in these files, in the case of method (2), the path of the input audio file or video file. The file is sent to the playback unit, and the audio playback unit or the video playback unit reads the specified file (step 205). In the case of method II, the path, file name, and storage format are sent to the audio recording unit or video recording unit for the audio file or video file to be created, and the audio recording unit or video recording unit transmits the transmitted information. Prepare to create an audio or video file based on that (step 208).
次に、 方式①及び②のいずれにおいても、 入力された被処理 H T M Lフアイルを操作者が使用しているブラウザで読み込み 表示する (ステップ 2 0 9、 図 1 6参照)。 そして、 被処理 H T M Lフアイル画像 5上に操作パネル 1 0及びプレビューウイ ンドウを表示する (ステップ 2 1 0 )。  Next, in both methods (1) and (2), the input HTML file to be processed is read and displayed by the browser used by the operator (step 209, see FIG. 16). Then, an operation panel 10 and a preview window are displayed on the processed HTML file image 5 (step 210).
操作パネル 1 0表示後、 デフオル卜の才ブジェク 卜の識別番 号を記録部に送る (ステップ 2 1 1 )。 なお、 図 1 6の場合、 デフオル卜として、 可動な画像の 「指」 が選択されているので、 その識別番号を記録部に送る。 また、 操作者が変更した場合、 その変更後の才ブジェク 卜の識別番号を記録部へ送り (ステツ プ 2 2 0 )、 その識別番号に対応した才ブジェク 卜を読み込む (ステップ 2 2 1 )。 この段階で内部での準備が完了し、 操作 者の指示を待つ。 After the operation panel 10 is displayed, the identification number of the default The number is sent to the recording unit (step 211). In the case of FIG. 16, since the “finger” of the movable image is selected as the default, the identification number is sent to the recording unit. When the operator has changed, the identification number of the changed smart object is sent to the recording unit (step 220), and the smart object corresponding to the identification number is read (step 222). At this stage, internal preparation is completed and the system waits for operator's instructions.
録画ボタン 1 9が押されると、 ステップ 2 3 2 において、 方 式①の場合 (既存ファイル使用の場合) は、 音声再生部は音声 再生を開始し (音声ファイルの使用を選択した場合)、 動画再 生部は動画のプレビューウィンドウを開き動画再生を開始する (動画ファイルの使用を選択した場合)。 また、 方式②の場合 は、 ステップ 2 3 3 において、 音声録音部は録音を開始し (音 声を同時録音する場合)、 動画録画部は録画を開始する (動画 を同時録画する場合)。  When the record button 19 is pressed, in step 2 32, in the case of method ① (in the case of using an existing file), the audio reproduction unit starts audio reproduction (in the case of using an audio file), and The playback section opens the video preview window and starts playing the video (if you have selected to use a video file). In the case of method II, in step 233, the voice recording unit starts recording (when simultaneously recording voice) and the video recording unit starts recording (when simultaneously recording moving images).
再生や録音 (録画) と同時に、 ポインティ ングデバイス検出 部は、 マウスカーソルの位置情報の検出を開始する (ステップ 2 3 4 )。 以後、 マウスカーソルの位置を常に監視する。 そし て、マウスカーソルが H T M Lファイル画像 5の表示領域外(こ こで、 操作パネル 1 0上も H T M Lファイル画像の表示領域外 である) にあるとき、 音声 · 動画の記録 · 再生を一時停止する (ステップ 2 3 6 )。 また、 H T M Lファイル画像 5の表示領 域内にマウスカーソルが移動したときには、音声 ·動画の記録 - 再生の一時停止を解除し、 記録 · 再生を再開する (ステップ 2 3 8 )。 なお、 操作者によリマウスのキャンセルポタン (右ポ タン) が押された場合も、 音声 , 動画の記録 · 再生を一時停止 ? At the same time as playback or recording (recording), the pointing device detection unit starts detecting the position information of the mouse cursor (step 234). Thereafter, the position of the mouse cursor is constantly monitored. When the mouse cursor is outside the display area of the HTML file image 5 (here, the operation panel 10 is also outside the display area of the HTML file image), the recording of audio and video and the playback of the video are paused. (Step 2 3 6). When the mouse cursor moves into the display area of the HTML file image 5, the pause of the recording / playback of the audio / video is released, and the recording / playback is resumed (step 238). Even if the operator presses the cancel button (right button) of the re-mouse, recording and playback of audio and video are paused. ?
する (ステップ 2 4 3 )。 そして、 再度一時停止が押されたと き、 一時停止を解除し、 記録 ■ 再生を再開する (ステップ 2 4 5 ) 0 (Step 2 4 3). Then, when the pause is pressed again, the pause is released and the recording is resumed. ■ Playback is resumed (step 2 45) 0
そして、 録画ボタン 1 9が押された後停止ボタン 2 2が押さ れるまでの間、 一時停止状態である場合を除き、 マウスの決定 ボタン (左ボタン) が押されている場合には、 現在選択されて いる才ブジェク 卜をマウスカーソルの位置に表示する (ステツ プ 2 4 7 )。 また、 オブジェク トの表示と共に、 音声再生部又 は動画再生部 (方式①の場合) 或いは音声録音部又は動画録画 部 (方式②の場合) よりサンプリング周期ごとに一定間隔で現 在時刻を取得 (具体的には、 再生 · 記録の 0秒からの時間軸上 のどの位置にいるかで現在の時刻を取得) し、 時間情報として 記録部へ送ると同時に、 現在のマウスカーソルの位置情報を取 得 (具体的には、 被処理 H T M Lファイルの左上を基点として X及び丫座標を取得し、 X又は Y座標の値が負になる場合には 切り捨てられ 0で記録し、 他方、 正の方向への制限はなくその 値を記録する) して記録部へ送る (ステップ 2 4 9 )。 そして、 マウスの決定ボタン (左ボタン) が押され続けている限り、 上 記の現在時刻及び位置情報の取得を繰り返す。  Then, unless the pause button is pressed after the recording button 19 is pressed until the stop button 22 is pressed, the current selection is made when the mouse's enter button (left button) is pressed. The selected object is displayed at the position of the mouse cursor (step 247). In addition to the display of the object, the current time is acquired at regular intervals from the audio playback unit or the video playback unit (in the case of method I) or the audio recording unit or the video recording unit (in the case of method I) at each sampling cycle ( Specifically, the current time is obtained based on the position on the time axis starting from 0 seconds during playback / recording), and sent to the recording unit as time information, and the current mouse cursor position information is obtained. (Specifically, the X and 丫 coordinates are obtained starting from the upper left of the HTML file to be processed. If the value of the X or Y coordinate becomes negative, it is truncated and recorded as 0. There is no limit and the value is recorded) and sent to the recording unit (step 249). Then, as long as the decision button (left button) of the mouse is kept pressed, the above acquisition of the current time and position information is repeated.
その後、 操作者により停止ボタン 2 2が押される (ステップ 2 5 0 ) と、 方式①の場合は音声再生部又は動画再生部は再生 を停止し、 方式②の場合は音声録音部又は動画録画部の記録を 停止する (ステップ 2 5 1 )。 また、 方式①の場合は、 音声や 動画の再生が終了すると、 停止ボタン 2 2が押されていなく と も停止処理を行なう (ステップ 2 4 1 )。 そして、 ポインティ ングデバイス検出部は、 マウスカーソルの位置情報の検出と監 1.0 After that, when the stop button 22 is pressed by the operator (step 250), the audio playback unit or the video playback unit stops playback in the case of the method ①, and the audio recording unit or the movie recording unit in the case of the method ②. Stop recording (step 25 1). Further, in the case of the method (2), when the reproduction of the sound or the moving image is completed, the stop processing is performed even if the stop button 22 is not pressed (step 2411). The pointing device detector detects and monitors the position information of the mouse cursor. 1.0
視を停止する (ステップ 2 5 2 )。 停止を解除すると操作者の 命令待ちの状態となる。 Stop viewing (step 25). When the stop is released, it will be in the state of waiting for the operator's command.
次に、 再生ポタン配置ボタンが操作者によって押される (ス テツプ 2 2 6 ) と、 ボタン配置ウィ ンドウを表示し (ステップ 2 2 7 )、 操作者により再生ボタンの種類や位置が決定された 後 (ステップ 2 2 8 )、 オブジェク 卜の場合と同様に、 再生ポ タンの種類 (識別番号) と位置情報を記録部へ送る (ステップ 2 2 9 ) 0 Next, when the play button layout button is pressed by the operator (Step 2 26), a button layout window is displayed (Step 2 27), and after the type and position of the play button are determined by the operator, (Step 228), as in the case of the object, send the type (identification number) and position information of the playback button to the recording unit (Step 229) 0
その後、 保存ボタンが押されると (ステップ 2 2 4 )、 方式 ①の場合は、 動画録画部が記録した動画 (同時録画の場合) ま たは音声録音部が録音した音声 (同時録音の場合) にっき、 ス テツプ 2 0 8、 ステップ 2 3 3、 ステップ 2 3 8及びステップ 2 4 5で受け取った情報を基にして、 それぞれ動画ファイル又 は音声ファイルを作成する。 また、 ステップ 2 1 2、 ステップ 2 2 0、 ステップ 2 2 9及びステップ 2 4 9 において記録部に 書き込まれた情報を基にして、 オブジェク 卜情報ファイル (例 えば、 J S ファイルの形式) を作成する (ステップ 2 5 5 )。 才ブジェク 卜情報ファイルには、 使用された音声ファイル又は 動画ファイルのパス及びファイル名 (方式①の場合) 或いは作 成された音声ファイル又は動画ファイルのパス及びファイル名 (方式②の場合) ; 入力された才ブジェク 卜に関する情報 {例 えば、才ブジェク 卜の識別番号、才ブジェク 卜に必要な情報(例 えば、 描画才ブジェク 卜の場合は線の太さや色、 テロップの場 合はテロップで表示するテキス 卜の内容)、 時間軸と対応させ た位置情報 } ; 再生ボタンの識別番号及び位置情報、 等を書き 込む。 このように、 入力されたオブジェク トの数だけ、 才ブジ Ά Then, when the save button is pressed (step 2 2 4), in the case of method (1), the video recorded by the video recording unit (for simultaneous recording) or the audio recorded by the audio recording unit (for simultaneous recording) Based on the information received in step 209, step 233, step 233, step 238 and step 245, a moving image file or an audio file is created, respectively. Also, an object information file (for example, a JS file format) is created based on the information written to the recording unit in Steps 212, 220, 229, and 249. (Steps 2 5 5). The input object information file contains the path and file name of the audio file or video file used (in the case of method)) or the path and file name of the created audio file or video file (in the case of method ②); input Information about the genuine object (for example, the identification number of the genuine object, information necessary for the genuine object (for example, the thickness and color of the line for a genuine object, and the telop for a telop) Write the identification number of the play button, position information, etc. Thus, as many objects as input objects Ά
ェク 卜単位で才ブジェク 卜情報ファイルに情報を追加していく ため、 才ブジェク 卜同士は独立している。 なお、 ひとつの時間 軸 (音声ファイル又は動画ファイル) にっき作成される才ブジ ェク 卜情報ファイル、 配置する再生ボタンはひとつである。 次に、 被処理 H T M Lファイルに修正を加える。 修正内容は、 被処理 H T M Lファイルと作成した才ブジェク 卜情報ファイル とをリンクさせる情報 (例えば、 才ブジェク 卜情報ファイルの パス及びファイル名) と、 才ブジェク 卜情報ファイルを読み込 むためのエンジン (駆動部分) の場所を特定する情報 (例えば、 エンジンのパス及びファイル名) の書き込みである (ステップ 2 6 0 )。 なお、 この修正は、 被処理 H T M Lファイルのソー スに数行追加するのみなので、 動作入力後に被処理 H T M Lフ アイルを修正することも可能である。 但し、 被処理 H T M Lフ アイル作成ソフ トによっては、 本システムで追加した内容を無 効にするものもあるため、 ソースレベルでの修正が望ましい。 なお、 被処理 H T M Lファイルを修正しない方式も可能であり (ステップ 2 5 9 )、 これについての詳細は第二の態様の項目 で述べる。 更に、 時間軸として動画を使用しているか否か判断 し (ステップ 2 5 6 )、 使用している場合は、 被処理 H T M L ファイルを修正し、 被処理 H T M Lファイル画像を画面に表示 させたときに、 被処理 H T M Lファイル画像の横の部分に、 動 画を閲覧できるように配置する (ステップ 2 5 7 )。 Since the information is added to the project object information file on a project-by-project basis, the project objects are independent. Note that there is only one playback information file to be placed on one time axis (audio file or video file) and one play button to be placed. Next, a correction is made to the processed H TML file. The contents of the correction are information for linking the HTML file to be processed with the created object information file (for example, the path and file name of the object object information file) and an engine for reading the object object information file (driving part). ) (For example, engine path and file name) is written (step 260). In addition, since this correction only adds a few lines to the source of the processed HTML file, it is possible to correct the processed HTML file after inputting the operation. However, depending on the HTML file creation software to be processed, the contents added in this system may be invalidated, so correction at the source level is desirable. It is to be noted that a method that does not modify the HTML file to be processed is also possible (step 255), and the details of this method will be described in the item of the second embodiment. Further, it is determined whether or not a moving image is used as a time axis (step 256), and if so, the HTML file to be processed is corrected, and the image of the HTML file to be processed is displayed on the screen. In the horizontal part of the processed HTML file image, the video is arranged so that it can be browsed (step 257).
なお、 このステップ 2 0 1 からステップ 2 5 7の作業を繰り 返しひとつの被処理 H T M Lファイルに対して行うことにより 複数の時間軸 (音声ファイル又は動画ファイル) を割当てるこ とができるが、 この場合は才ブジェク 卜情報ファイル、 配置す る再生ポタンも複数となる。 It should be noted that multiple time axes (audio files or video files) can be assigned by repeating the operations from step 201 to step 257 for one HTML file to be processed. Is a project object information file. There are also multiple regeneration buttons.
ブラウザを閉じる指示入力後、 操作パネル 1 0を閉じ (ステ ップ 2 6 1 )、 本プログラムを終了する。  After inputting the instruction to close the browser, close the operation panel 10 (step 261) and end this program.
( d ) 「既存のファイルに指示を追加」 及び 「w e b公開用の H T M Lを作成」 に関する説明  (d) Explanation of "Add instructions to existing file" and "Create HTML for public use of web"
最後に、 入力方法選択ウィン ドウ中の他の選択項目である、 「既存のファイルに指示を追加」 及び 「w e b公開用の H T M Lを作成」 つき説明する。  Finally, other items in the input method selection window, "Add instructions to existing file" and "Create HTML for public web" are explained.
★ 「既存のファイルに指示を追加」  ★ "Add instructions to existing file"
この項目は、 本システムにより既に才ブジェク 卜情報が組み 込まれた被処理 H T M Lファイルに追加で指示を入力する際に 選択する。 操作方法は、 ファイル選択ウィンドウから 「既存の ファイルに指示を追加」 の項目を選択し、 次いで、 追加入力を 行う被処理 H T M Lファイルを選択する。 但し、 時間軸となる 音声ファイルや動画ファイルは既に被処理 H T M Lファイルと リンクしているため、 選択する必要はなく、 また、 同時入力も 必要ない。 被処理 H T M Lファイルを選択し、 そのファイルを 読込んだ後、 リンクしている才ブジェク 卜情報ファイルを読込 み (記録部へ送る)、 音声ファイル名や動画ファイル名を音声 再生部や動画再生部へ送る。 その後ステップ 2 0 9 に進み、 以 降は方式①の場合と同じである。  This item is selected when inputting additional instructions to the HTML file to be processed in which the subject information has already been incorporated by this system. To do so, select the “Add instructions to an existing file” item from the file selection window, and then select the HTML file to be processed for additional input. However, there is no need to select the audio file or video file that serves as the time axis because it is already linked to the HTML file to be processed, and there is no need for simultaneous input. Select the HTML file to be processed, read the file, read the linked object information file (send it to the recording unit), and input the audio file name or video file name into the audio playback unit or video playback unit. Send to After that, the process proceeds to step 209, and the rest is the same as in the case of method II.
★ 「w e b公開用の H T M Lファイルを作成」  ★ "Create HTML file for web publication"
通常、 被処理 H T M Lファイルに追加されるエンジン部分の ファイルの位置指定は U R Lで記述される。 通常は使用してい るローカルマシンのパスが指定されている。 そこで、 「w e b 公開用の H T M Lファイルを作成」 の項目を選択し、 エンジン 部分のァ ドレスをインターネッ 卜上の U R Lを指定することに より、 作成した被処理 H T M Lファイルを w e b上で使用する ことができるようになる。 なお、 以下の第二の態様で用 ( られ る H T M Lファイル (予めエンジンの U R L指定がなされてい るもの) も、 この項目を選択することにより作成される。 Normally, the location of the engine part file added to the processed HTML file is specified by a URL. Usually, the path of the local machine used is specified. So, select the "Create HTML file for web publishing" By specifying the URL of the part of the address on the Internet, the created HTML file to be processed can be used on the web. The HTML file used in the following second aspect (the URL of the engine is specified in advance) is also created by selecting this item.
2 . 第二の態様 2. Second aspect
本発明の第二の態様は、 第一の態様の時間軸をなく したもの である。 すなわち、 音声ファイルや動画ファイルの使用や作成 をせず、 才ブジェク 卜情報の書き込みと被処理ファイルとのリ ンクを行うというものである。 以下では、 まず、 第二の態様に 係るシステムにおける、 各機能、 操作手順及び内部処理につき 説明する。  A second aspect of the present invention is one in which the time axis of the first aspect is eliminated. In other words, without using or creating an audio file or a moving image file, the smart object information is written and the file to be processed is linked. Hereinafter, first, each function, operation procedure, and internal processing in the system according to the second aspect will be described.
( a ) 各機能の説明  (a) Description of each function
システムを起動させ、 被処理 H T M Lファイルの特定を行な つた後、 才ブジェク 卜情報入力可能状態になる。 その際、 画面 上に操作パネルが表示される。 操作パネル上には、 各種入力制 御機能 (削除ボタン等)、 才ブジェク 卜選択機能 (静止画像、 描画可能な基本的な図形の一覧、 テロップ入力、 動画像等)、 結果物作成支援機能 (保存ファイルの保存、 プレビュー、 再生 ボタン配置等) が設けられている。 以下、 上記各種機能につき 説明する。  After activating the system and specifying the HTML file to be processed, the system is ready to enter the project object information. At that time, an operation panel is displayed on the screen. On the operation panel, various input control functions (delete button etc.), smart object selection function (still image, list of drawable basic figures, telop input, moving image, etc.), result creation support function ( Storage of saved files, preview, play button arrangement, etc.) are provided. The various functions will be described below.
*各種入力制御機能  * Various input control functions
*削除ポタン : このボタンを押すと、 入力した才ブジェク 卜情 報 (一時記憶領域に保存されている) が消去される。  * Delete button: Press this button to delete the input object information (saved in the temporary storage area).
*表示 ' 非表示切替ボタン : 被処理 H T M Lファイル画像上に 配置した才ブジェク 卜の表示 · 非表示の切替えを行なう。 * Display 'Hide display switching button: Processed HTML file image Switch between displaying and hiding the placed object.
女才ブジェク 卜選択機能 Female genius object selection function
*静止画像の一覧 : システムに登録されている 「静止画像」 の 画像データの一覧が表示されている。 操作者は、 この中から使 用したい静止画像を選択する。 なお、 操作者が、 新規な 「静止 画像」 の画像データをシステムに追加した場合には一覧に追加 される。 操作者は、 静止画像を被処理 H T M Lファイル画像に シールのように貼り付ける。  * Still image list: A list of image data of "still images" registered in the system is displayed. The operator selects a desired still image from these. If the operator adds new “still image” image data to the system, it is added to the list. The operator pastes the still image on the processed H TML file image like a sticker.
*描画可能な基本的な図形の一覧 : 描画可能な基本的な図形と して、 自由線、 直線、 四角形などが登録されている。 この描画 図形は軌跡が残るため、 強調したい部分にマーカーをいれると きや、 お絵かきソフ 卜のように被処理 H T M Lファイル画面上 に自由に書き込み · 描き込みを行うとき等に有効である。  * List of basic shapes that can be drawn: Free lines, straight lines, rectangles, etc. are registered as basic shapes that can be drawn. Since this drawing figure has a locus, it is effective when a marker is to be placed on the part to be emphasized, or when writing and drawing freely on the processed HTML file screen like drawing software.
*テロップ : これを選択すると、 操作パネル上の所定部分に文 字列を入力することが可能となり、 入力された文字列は、 被処 理 H T M Lファイル画面の指定の場所に貼り付けられる。 補足 説明等に利用できる。 * Ticker: When this is selected, a character string can be input to a predetermined portion on the operation panel, and the input character string is pasted at a specified location on the processed HTML file screen. It can be used for supplementary explanations.
*動画像 : システムに記録されている動画像を選択することに より、 シールのように画像内に貼り付けることができる。  * Moving images: By selecting a moving image recorded in the system, it can be pasted into the image like a sticker.
★結果物作成支援機能 ★ Result creation support function
*保存ボタン : このボタンを押すことにより、 入力した才ブジ ェク 卜情報を反映した才ブジェク 卜情報ファイル (データファ ィル) が作成される。 また、 被処理 H T M Lファイルと才ブジ ェク 卜情報ファイルとをリ ンクさせる作業が行なわれる。  * Save button: By pressing this button, a smart object information file (data file) reflecting the input smart object information is created. In addition, an operation of linking the processed HTML file and the project information file is performed.
*再生ボタン配置ボタン : このボタンを押すことにより、 ボタ ン配置ウィ ン ドウを表示させる。 ボタン配置ウィン ドウには、 複数のボタン候補が一覧になっており、 操作者は、 この中から 好みのボタンを選択し、 被処理 H T M Lファイル画像内の希望 の場所に配置する。 * Play button layout button: Press this button to display the button layout window. In the button arrangement window, A plurality of button candidates are listed, and the operator selects a desired button from the list and places it in a desired location in the image of the HTML file to be processed.
★すブジェク 卜情報の入力方法 ★ How to enter object information
才ブジェク 卜情報は、 記録時(保存ボタンが押されるまで)、 マウスの決定ボタン (左ボタン) が押されている間のみ記録さ れる。 なお、 才ブジェク 卜情報は、 マウスカーソルの位置にあ わせて表示される。  At the time of recording (until the save button is pressed), the age object information is recorded only while the enter button (left button) of the mouse is pressed. Note that the age object information is displayed at the position of the mouse cursor.
女才ブジェク 卜情報の入力可能範囲 Input range of female intelligence object information
被処理 H T M Lファイル画面の左上を基点 ( 0 , 0 ) として、 正の方向への制限はない (すなわち、 右方向、 下方向に制限は ない) のに対し、 上 , 左方向の負の方向へは制限が設けられて おり、 負の方向への移動は不可能になっている (才ブジェク 卜 はそこで止まってしまう)。  There is no restriction in the positive direction (that is, there is no restriction in the right direction and the downward direction) from the upper left base point (0, 0) of the HTML file screen to be processed. Is restricted, so that movement in the negative direction is not possible (the project stops there).
( b ) 操作手順の説明  (b) Explanation of operation procedure
まず、 操作者は、 本システムを起動させる。 次に、 起動後、 被処理 H T M Lファイルのパス ■ ファイル名を入力する。 また は、 入力の代わりに、 表示されたファイル選択ウインドウより ファイルを選択してもよい。 なお、 この場合、 入力 (選択) す る H T M Lファイルは、 ローカルのコンピュータ上にあること が好ましい。 別のシステム起動方法として、 被処理 H T M Lフ アイルをブラウザで読込む際にシステムを自動的に起動するこ とも可能である。 この場合、 被処理 H T M Lファイルはロー力 ルのコンピュータ上、 インターネッ 卜上のどちらでもよい。  First, the operator starts the system. Next, after startup, the path of the H TML file to be processed ■ Enter the file name. Alternatively, a file may be selected from the displayed file selection window instead of inputting. In this case, the HTML file to be input (selected) is preferably on a local computer. As another system startup method, it is also possible to automatically start up the system when loading the HTML file to be processed with a browser. In this case, the HTML file to be processed may be on a local computer or on the Internet.
その後、 画面内に、 被処理 H T M Lファイル画像と操作パネ ルが表示される。 そして、 操作パネルの才ブジェク 卜選択機能 により、 希望の才ブジェク 卜を選択する。 After that, the processed HTML file image and operation panel are displayed on the screen. And, the object selection function of the operation panel To select the desired talent object.
この段階で、才ブジェク 卜情報の入力待機状態となっている。 操作者は、 マウスを用いて才ブジェク 卜を希望の位置に配置す る。 なお、 描画才ブジェク 卜を選択した場合には、 描画中マウ スの左ボタンを押しながらマウスを移動させる (図 2 7参照、 ただし図 2 7では操作パネルは画面外、 または閉じている)。 描画才ブジェク 卜以外の才ブジェク 卜を選択した場合には、 貼 付位置の決定を行なう。  At this stage, it is in a state of waiting for input of input object information. The operator places the smart object at a desired position using a mouse. When the drawing object is selected, move the mouse while pressing the left button of the mouse while drawing (see Fig. 27, but the operation panel is off-screen or closed in Fig. 27). When a genuine object other than a drawing object is selected, the position to be pasted is determined.
才ブジェク 卜情報の入力が終了したら、 被処理 H T M Lファ ィル画面上に再生時の再生ボタンを配置する。  When the input of the input object information is completed, a playback button for playback is arranged on the HTML file screen to be processed.
最後に、 保存ポタンを押し、 ブラウザを閉じることにより、 本操作は終了する。  Finally, press the save button and close the browser to end this operation.
( c ) 内部処理の説明  (c) Description of internal processing
次に、 内部処理につき、 図 8及び図 9のフローチャー トに従 い説明する。 なお、 以下では、 被処理 H T M Lファイルに本シ ステムの U R Lが書き込まれている場合の内部処理につき説明 する。  Next, the internal processing will be described with reference to the flowcharts of FIGS. In the following, the internal processing when the URL of the present system is written in the HTML file to be processed will be described.
まず、 操作者がブラウザで被処理 H T M Lファイル画像を画 面に表示する (ステップ 4 0 1 ) と共に、 被処理 H T M Lファ ィルに書き込まれた本システム (エンジン部分) の U R Lに従 い、 本システムを起動し、 操作パネルを表示する (ステップ 4 0 2 )。 この際、 操作パネルは、 被処理 H T M Lファイル画像 に被さらないようにする。  First, the operator displays the image of the HTML file to be processed on the screen using a browser (step 401), and, in accordance with the URL of the system (engine part) written in the HTML file to be processed, the system Is started and the operation panel is displayed (Step 402). At this time, the operation panel should not cover the processed H TML file image.
操作パネル表示後、 才ブジェク 卜の識別番号を記録部へ送り (ステップ 4 0 7 )、 その識別番号に対応した才ブジェク 卜を |¾み込む。 そして、 ポインティ ングデバイス検出部は、 マウスカーソル の位置情報の検出を開始する。 そして、 描画才ブジェク 卜が選 択されている場合には、 保存ボタンが押されるまでの間、 被処 理 H T M Lファイル画像内でマウスの左ボタンが押されている 場合には、 描画才ブジェク 卜の軌跡を画面に表示する (ステツ プ 4 1 1 〜ステップ 4 1 3 ) と共に、 マウスカーソルの位置情 報を取得 (具体的には、 被処理 H T M Lファイルの左上を基点 として X及び丫座標を取得し、 X又は Y座標の値が負になる場 合には切り捨てられ 0で記録し、 他方、 正の方向への制限はな くその値を記録する) して記録部へ送る (ステップ 4 1 2 )。 そして、 マウスの決定ポタン (左ポタン) が押され続けている 限り、 軌跡の表示と位置情報の取得を繰り返す。 また、 その他 の才ブジェク 卜が選択されている場合には、 そのオブジェク 卜 の識別番号やそのオブジェク トに必要な情報 (例えば、 テロッ プの場合は表示する文字列の内容) を記録部に送り (ステップ 4 0 7 )、 カーソルの位置にその才ブジェク 卜を表示し、 決定 ボタンが押された場合 (ステップ 4 0 9 ) には、 その位置情報 を記録部へ送る (ステップ 4 Ί 0 )。 After displaying the operation panel, the identification number of the smart object is sent to the recording section (step 407), and the smart object corresponding to the identification number is inserted. Then, the pointing device detection unit starts detecting the position information of the mouse cursor. If the drawing object is selected, and if the left mouse button is pressed in the processed HTML file image until the save button is pressed, the drawing object is selected. The position of the mouse cursor is acquired along with displaying the trajectory of the mouse on the screen (Steps 411 to 413). If the value of the X or Y coordinate becomes negative, it is truncated and recorded at 0, while the value is recorded without any restriction in the positive direction) and sent to the recording unit (step 41). 2). Then, as long as the mouse decision button (left button) is kept pressed, the display of the locus and the acquisition of position information are repeated. If any other object is selected, the identification number of the object and the information necessary for the object (for example, the content of the displayed character string in the case of a telop) are sent to the recording unit. (Step 407), the target object is displayed at the position of the cursor, and if the enter button is pressed (Step 409), the position information is sent to the recording unit (Step Ί0).
次に、 再生ボタン配置ボタンが操作者によって押されると、 ボタン配置ウィ ンドウを表示し、 操作者により再生ボタンの種 類や位置が決定された後、 才ブジェク 卜の場合と同様に、 識別 番号と位置情報を記録部へ送る (フローチャー トには表示せ ず)。  Next, when the play button layout button is pressed by the operator, a button layout window is displayed, and after the type and position of the play button are determined by the operator, the identification number is set in the same manner as in the case of the smart object. And position information to the recording unit (not displayed on the flowchart).
その後、 保存ボタンが押されると、 ステップ 4 0 7、 ステツ プ 4 1 0及びステップ 4 1 2 において記録部に書き込まれた情 報を基にして、 才ブジェク 卜情報ファイル (データファイル) を作成する (ステップ 4 1 4 )。 才ブジェク 卜情報ファイルに は、 入力された才ブジェク 卜に関する情報 {例えば、 オブジェ ク 卜の識別番号、 才ブジェク 卜に必要な情報 (例えば、 描画才 ブジェク 卜の場合は線の太さや色、 テロップの場合はテロップ で表示するテキス 卜の内容)、 位置情報 } ; 再生ボタンの識別番 号及び位置情報、 等を書き込む。 なお、 才ブジェク 卜情報ファ ィルの作成先は、 ローカルコンピュータ上でもサーバ上どちら でもよく、 用途により適当に指定する。 After that, when the save button is pressed, based on the information written in the recording unit in step 407, step 410, and step 412, the input object information file (data file) (Step 4 1 4). The genius object information file contains information about the genius object that was input (for example, the identification number of the object, the information necessary for the genius object (for example, the line thickness and color, In the case of, the contents of the text displayed in the telop), position information}; Write the identification number of the play button and the position information. The destination of the source object information file may be either on the local computer or on the server, and is appropriately specified depending on the application.
次に、 才ブジェク 卜情報フアイルと被処理 H T M Lファイル とを関連付けたデータ (具体的には、 才ブジェク 卜情報フアイ ルと被処理 H T M Lファイルとのリンク情報、 これらのパス - ア ドレス、 必要に応じて操作者を特定する情報) を所定のデー 夕ベースに記録する (被処理 H T M Lファイルには修正を加え ない)。 なお、 このデータベースの場所は、 本システムが読み 込むため、 本システムと同じコンピュータ上に存在することが 好ましい。 この方式を採用することにより、 操作者を特定する 情報がデータベースに記録されている場合には、 本システムで 被処理 H T M Lファイルに書き込んだ内容を本人のみに表示可 能にしたり、 特定の相手に書き込んだ内容を見せたり、 不特定 多数の相手に見せることも可能となる。  Next, data relating the smart object information file to the processed HTML file (specifically, link information between the smart object information file and the processed HTML file, their paths and addresses, and Information that identifies the operator) in a predetermined database (no modification is made to the processed HTML file). The location of this database is preferably located on the same computer as the system because it is read by the system. By adopting this method, if the information that identifies the operator is recorded in the database, the contents written in the HTML file to be processed by this system can be displayed only to the person himself / herself. It is also possible to show the written content or show it to an unspecified number of opponents.
被処理 H T M Lファイルを表示しているブラウザを閉じるこ とにより、 操作パネルを閉じ、 本プログラムを終了する (ステ ップ 4 1 6 )。  The operation panel is closed by closing the browser displaying the HTML file to be processed, and the program ends (step 4 16).
以上、 予め被処理 H T M Lファイルにエンジンの U R L指定 を記述している場合について説明したが、 それ以外に、 ブラウ ザの機能に本システムを追加 (拡張) する方法、 プロキシを使 n In the above, the case where the URL of the engine is specified in the HTML file to be processed has been described in advance. However, in addition to this, the method of adding (extending) this system to the browser function and the use of a proxy n
用する方法 ( H T T Pデーモンに機能を追加する) がある。 こ れらの場合は、 ^処理 H T M Lファイルに全く修正を加えるこ となく本システムを使用することが可能となる。 3 . 第三の態様 There is a method (adding functions to the HTTP daemon). In these cases, the system can be used without any modification to the ^ processed HTML file. 3. Third aspect
第三の態様は、 音声ファイル又は動画ファイルと才ブジェク 卜情報ファイルとをセッ トにし (パーツ化)、 被処理ファイル 画像にそのパーツを組み込む技術である。  The third mode is a technique in which an audio file or a moving image file and a smart object information file are set (parts), and the parts are incorporated into a file image to be processed.
パーツの作成方式は、 第一の態様と基本的には同じであリ、 既存の音声ファイルや動画ファイルを用いつつ、 オブジェク ト 情報を入力する方式、 及び、 音声や動画を入力しつつ、 才ブジ ェク 卜情報を入力する方式の二通りある。 簡略化したフローチ ヤー 卜を図 1 0及び図 1 1 に示す。 但し、 パーツ作成の際には、 第一の態様と異なり、 被処理 H T M Lファイルを入力する必要 がなく、 雛型の H T M Lファイルを用意し、 それをデフオル卜 の設定にしておき、 必要に応じ設定変更を行なえばよい。  The method of creating the parts is basically the same as that of the first mode. The method of inputting object information while using existing audio and video files, and the method of inputting audio and video, There are two ways to enter project information. Figures 10 and 11 show simplified flowcharts. However, when creating parts, unlike the first mode, there is no need to input the HTML file to be processed, prepare a template HTML file, set it to the default setting, and set it as necessary You just have to make the changes.
そして、 パーツ作成後 (保存ボタンを押した後)、 オブジェ ク 卜情報ファイルと音声ファイル又は動画ファイルとは、 リン クした状態で (セッ トで) 保存される。 また、 パーツ再生順表 示ウィンドウやパーツ一覧表示ウィンドウに表示されるパーツ 指標ファイル {例えば、 そのパーツの最終静止画像、 パーツの 名称や説明 (メモ) } もこのパーツの構成要素である (図 2 8 参照)。 更に、 このパーツを特定する I D情報もこのパーツの 構成要素である。  After the parts are created (after the save button is pressed), the object information file and the audio file or the moving image file are saved in a linked state (as a set). In addition, the part index file {for example, the final still image of the part, the name and description of the part (memo)} displayed in the parts playback order display window and the parts list display window is also a component of this part (Fig. 2 8). Furthermore, ID information for identifying this part is also a component of this part.
以下では、 作成された様々なパーツを被処理 H T M Lフアイ ルに組み込むシステムにおける、 各機能、 操作手順及び内部処 理にっき説明する。 In the following, each function, operation procedure, and internal processing in the system that incorporates various created parts into the processed HTML file Let me explain why.
( a ) 各機能の説明  (a) Description of each function
システムを起動させ、 被処理 H T M Lファイルの特定を行な つた後、 パーツ組込み可能状態になる。 その際、 画面上に操作 パネルが表示される。 操作パネル上には、 主に、 パーツ一覧表 示ウィン ドウ とパーツ再生順表示ウィンドウが備わっている。 以下、 これらにつき説明する。  After the system is started and the HTML file to be processed is specified, parts can be incorporated. At that time, an operation panel is displayed on the screen. The operation panel mainly has a parts list display window and a parts playback order display window. Hereinafter, these will be described.
★パーツ一覧表示ウインド ウ ★ Parts list display window
パーツ一覧表示ウィンドウには、 データベースに記録されて いるパーツのリス 卜 (パーツの指標) が表示される (図 2 8参 照)。 操作者は、 このウィンドウで被処理 H T M Lファイル画 像に組み込みたいパーツを選択する。  In the parts list display window, a list of parts (index of parts) recorded in the database is displayed (see Fig. 28). In this window, the operator selects a part to be included in the processed H TML file image.
★パーツ再生順表示ウインド ウ ★ Part playback order display window
パーツ再生順指定ウインド ウは、 被処理 H T M Lファイルの 全体の時間を管理する機能を有する。 パーツが被処理 H T M L ファイル画像上に配置されると、 そのパーツの指標 (例えば、 そのパーツの最終静止画像) を再生順指定ウィンドウに表示す る。 なお、 パーツが配置される度に、 このパーツ再生順指定ゥ インドウ に順番に追加する。 但し、 表示されたパーツの指標を ドラッグさせることによリ、 パーツ再生順指定ウィンドウ内に おけるそのパーツの順番を変更することができる。  The part playback order designation window has a function of managing the entire time of the HTML file to be processed. When a part is placed on the processed H TML file image, the index of the part (for example, the final still image of the part) is displayed in the playback order specification window. Each time a part is placed, it is added to this part playback order designation window in order. However, by dragging the index of the displayed part, the order of the part in the part reproduction order designation window can be changed.
( b ) 操作手順  (b) Operation procedure
まず、 操作者は、 被処理 H T M Lファイルを入力 (選択) す る。 なお、 入力 (選択) する被処理 H T M Lファイルは、 ロー カルのコンピュータ上でもインターネッ 卜上でもどちらでもよ い。 次に、 表示された操作パネル上のパーツ一覧ウィンドウ (図First, the operator inputs (selects) the HTML file to be processed. The input (selected) HTML file to be processed may be either on a local computer or on the Internet. Next, the parts list window on the displayed operation panel (Fig.
2 8参照) から、 被処理 H T M Lファイル画像に貼付したいパ ーッを選択する。 そして、 矩形に表示されたそのパーツのサイ ズを参考にして、 画面からその矩形がはみ出ないようにマウス カーソルで希望の位置まで移動し、 貼付位置でマウスの左ボタ ンを押す。 この操作を、 貼付を希望するパーツ分繰り返す。 次に、 パーツの表示順序を決定する。 すべてのパーツを貼付 した段階では、 貼付順に、 各パーツの目印がパーツ再生順表示 ウィンドウに並んでいる。 そこで、 操作者は、 順序を変えたい パーツの指標を ドラッグし、 パーツ再生順表示ウィンドウ内の 希望の順番の場所に移動させる。 2)), select the part you want to paste on the processed H TML file image. Then, refer to the size of the part displayed in the rectangle, move the mouse cursor to the desired position so that the rectangle does not protrude from the screen, and press the left button of the mouse at the paste position. Repeat this operation for the parts you want to paste. Next, the display order of the parts is determined. At the stage where all parts have been pasted, the markers for each part are arranged in the parts playback order display window in the order of pasting. Therefore, the operator drags the index of the part whose order is to be changed, and moves the index to a desired order in the part reproduction order display window.
最後に保存ボタンを押して組込み作業を終了する。  Finally, press the save button to complete the installation work.
( c ) 内部処理の説明  (c) Description of internal processing
パーツ貼り込みの内部処理を、 図 1 2のフローチヤ一卜に従 い説明する。  The internal processing for pasting parts will be described with reference to the flowchart of FIG.
まず、 入力された被処理 H T M Lファイルをブラウザで読み 込み表示する。 そして、 被処理 H T M Lファイル画像に被さら ないように、 操作パネルを表示する。  First, the input HTML file to be processed is read and displayed by a browser. Then, the operation panel is displayed so as not to be exposed to the processed HTML file image.
そして、 その操作パネル内に、 データベースに登録されてい るパーツにつき、 パーツ一覧表示ウィンドウに表示するパーツ の指標データ {例えば、 パーツの名称や説明 (メモ) }、 パーツ 再生順表示ウインドゥに表示するパーツの指標データ(例えば、 最終静止画像)、 才ブジェク 卜情報ファイル · 音声ファイル - 動画ファイルのファイル名を記録部に送る(ステップ 6 4 1 )。 そして、 記録部に送られた情報を基に、 パーツ一覧をディスプ レイ上に表示する (ステップ 6 4 2、 図 2 8参照)。 また、 パ 1- ーッ再生順指定ウィンドウも表示する (ステップ 6 4 3 )。 操作者によりパーツが選択される (ステップ 6 4 4 ) と、 選 択されたパーツの才ブジェク 卜情報ファイルを読み込み、 その 才ブジェク 卜情報ファイルに書かれている位置情報 ( X, Y座 標) の最大値に基づきそのパーツのサイズ (動作範囲) を把握 し (ステップ 6 4 5 )、 そのサイズをマウスカーソルの位置に 合わせて矩形で表示する (ステップ 6 4 6 )。 In the operation panel, for the parts registered in the database, the index data of the parts to be displayed in the parts list display window {for example, the name and description of the parts (memo)}, the parts to be displayed in the playback order display window The index data (for example, final still image), the file information file, and the audio file-The file name of the video file is sent to the recording unit (step 641). Then, based on the information sent to the recording unit, a parts list is displayed on the display (see step 642, Fig. 28). Also, A window for specifying the playback order is also displayed (step 6 43). When a part is selected by the operator (step 644), the object information file of the selected part is read and the position information (X, Y coordinates) written in the object information file is read. The size (operation range) of the part is grasped based on the maximum value of (Step 645), and the size is displayed in a rectangle in accordance with the position of the mouse cursor (Step 646).
次に、 マウスの左ボタンが押された場合、 そのパーツの基点 の位置を H T M Lファイルより取得する (ステップ 6 4 8 )。 また、パーツ再生順表示ウィンドウ内に、 このパーツの指標(例 えば、 最終静止画像) を、 現在配置済みのパーツの指標の後に 追加する (ステップ 6 4 9 )。 そして、 配置されたパーツを特 定する情報 ( I D )、 基点の位置情報、 再生順情報を記録部へ 送る。 この処理をパーツの数だけ繰り返す。  Next, when the left mouse button is pressed, the position of the base point of the part is obtained from the HTML file (step 648). Also, the index of this part (for example, the final still image) is added after the index of the currently placed part in the part playback order display window (step 649). Then, the information (ID) specifying the arranged parts, the base point position information, and the reproduction order information are sent to the recording unit. This process is repeated by the number of parts.
次に、 パーツ再生順の変更があった場合は、 変更内容をパー ッ再生順表示ウィンドウに反映させる (ステップ 6 5 2 ) と共 に、 変更後の再生順 記録部へ送る (ステップ 6 5 1 )。  Next, if there is a change in the part playback order, the change is reflected in the part playback order display window (step 652), and sent to the changed playback order recording unit (step 651). ).
そして、 保存ポタンが押されると、 時間軸となっているファ ィル (音声ファイルや動画ファイル) を再生順に合成し、 パー ッ毎にばらばらになっていたこれらファイルを合成する (ステ ップ 6 5 5 )。 具体的には、 各パーツの音声ファイルや動画フ アイルがもっている時間情報もばらばらのため、 再生順に時間 情報も再計算を行なう。 また、 才ブジェク 卜情報ファイルに関 しても、 記録部のデータ (位置データ) を再計算し、 パーツ毎 にばらばらになつていたこれらファイルを合成する (ステップ 6 5 4 )。 具体的には、 複数のパーツのオブジェク 卜情報を、 パ一ッの基点情報を基に、 現在の H T M Lファイルの X Y軸に 変換し、時間情報をパーツ再生順にひとつの時間軸に変換する。 最後に、 被処理 H T M Lファイルに修正を加える (ステップ 6 5 6 ) が、 これは第一の態様の場合と同じである。 そして、 本システムを閉じる指示の後、 表示したウィンドウをすベて^ じ (ステップ 6 5 8 )、 本システムを終了する。 Then, when the save button is pressed, the files (audio files and video files) on the time axis are combined in the order of playback, and these files that have been separated for each part are combined (step 6). 5 5). Specifically, since the time information contained in the audio file and video file of each part is also different, the time information is also recalculated in the order of playback. Also, regarding the object information file, the data (position data) of the recording section is recalculated, and these files that have been separated for each part are synthesized (step 6554). Specifically, object information of multiple parts is Based on the base information of the packet, it is converted to the XY axis of the current HTML file, and the time information is converted to one time axis in the order of part playback. Finally, the HTML file to be processed is modified (step 6556), which is the same as in the first embodiment. Then, after the instruction to close the system, the displayed windows are all closed (step 658), and the system is terminated.
4. 本システムの利用例 4. Usage example of this system
) ィンターネッ 卜学習  ) Internet learning
教師 (クライアン 卜) は、 本システムを利用して、 H T M L 形式で作成した教材に音声や動画を追加した後、 サーバ上にァ ップロー ドする (なお、 このファイル中には、 エンジンの U R Lが指定されている)。 生徒側 (クライアン ト) は、 サーバ上 の H T M Lファイルを閲覧する。 そして、 H T M L上の再生ボ タンを押すことにより、 指定されているエンジンを起動し、 才 ブジェク 卜情報ファイルに書かれているデータをもとに、 音声 又は動画に合わせて才ブジェク 卜の動作、 配置が行われる。 こ れによれば、 例えば、 先生が黒板で行うような説明を、 時間や 物理的な距離に関係無く、 何度でも受けることができる。  The teacher (client) uses this system to add audio and video to the teaching materials created in HTML format and then uploads them on the server. (Note that the URL of the engine is specified in this file.) Has been). The student (client) browses the HTML file on the server. Then, by pressing the play button on the HTML, the specified engine is started, and based on the data written in the smart object information file, the operation of the smart object or the moving object is synchronized with the sound or video. Placement is performed. In this way, for example, teachers can receive explanations on a blackboard as many times as they want, regardless of time or physical distance.
( 2 ) 掲示板、 H T M Lファイル上への書きこみ  (2) Writing on bulletin boards and H TML files
インターネッ 卜上の H T M Lファイルは、 基本的に作成者し か編集できないため、 第三者が情報を付加したい場合は、 掲示 板に書きこみを行う方法が主である。 ところが、 このシステム を利用することにより H T M Lファイル上に情報 (書きこみ、 画像の添付) を付加することが可能となる。  HTML files on the Internet can only be edited by the creator, so if a third party wants to add information, the main method is to write it on a bulletin board. However, by using this system, it is possible to add information (writing, image attachment) to the HTML file.
システムを利用する手段を説明する。 まず、 ホームページの 制作者が、 エンジンの U R L指定を H T M Lに付加し、 ホーム ページに反映させる。 これにより、 エンジンの U R Lが指定さ れている H T M Lファイルをブラウザで読込んだ利用者すベて が、 その H T M Lファイルに書きこみを行うことができるよう になる。 この場合、 起動するエンジンが読込むデータベースに H T M Lファイルとリ ンク している才ブジェク 卜情報ファイル の U R Lも登録されるが、 ここでユーザ情報を登録し、 管理す ることにより、 書きこんだ内容を不特定多数の人が閲覧が可能 であったリ、 本人のみが閲覧可能であったリ、 特定の相手のみ が閲覧可能といった設定も行うことが可能となる。 なお、 ユー ザを管理することにより、 書きこんだ内容を不特定多数の人が 閲覧が可能であったリ、 本人のみが閲覧可能であったリ、 特定 の相手のみが閲覧可能といった設定も行うことが可能となる。 Means for using the system will be described. First, on the homepage The creator adds the URL of the engine to the HTML and reflects it on the home page. As a result, all users who read the HTML file with the engine URL specified by the browser can write to the HTML file. In this case, the HTML file and the URL of the linked object information file are also registered in the database read by the engine to be started, but by registering and managing the user information here, the content written It is also possible to make settings that allow an unspecified number of people to view the file, that only the person can view the file, and that only a specific person can view the file. In addition, by managing users, settings are made such that the written content can be viewed by an unspecified number of people, that only the user can view the content, and that only a specific person can view the content. It becomes possible.
( 3 ) 商品説明  (3) Product description
W e b上で商品を販売している店が増えているが、 当然に、 写真と説明のみで、 実際に店頭で店員が商品を説明している場 合と比べると押しが弱く、 顧客側に高い購買意欲がないとなか なか購入には至らない。 そこで本システムを利用することによ リ、 販売側が商品のポイン ト等を詳しく音声付きで説明できる ために、 より購買意欲を高めることが可能となる。  The number of stores that sell products on the web is increasing, but, of course, only by photos and explanations, the push is weaker than when clerks actually explain the products at the storefront, If you do not have a high willingness to purchase, you will not be able to purchase. Therefore, by using this system, the sales side can explain the points of the product etc. in detail with sound, so that the purchase motivation can be further increased.
( 4 ) 説明書、 ヘルプ  (4) Manual, help
例えば、 ビデオの操作や、 パソコンの操作等で分からない所 があった場合、 問題を解決するまで、 ユーザは説明書の中から 説明されているところを探し出し、 さらに対応しているボタン を探し · · ·といった大変な作業が必要になる。 しかし、 本シス テムを利用することにより、 簡単な説明の場合は、 ボタンが並 んでいる操作部の写真上で 「ここを押すと · · ·」 といった直接 画面上を指して説明することが可能になる。 また、 パソコンの ヘルプの場合にも、 通常はヘルプの画面を別ウィンドウで開い て、 そこで画面を表示して説明するが、 本システムを利用する ことにより、 別ウィンドウを開く ことなくユーザの画面上で説 明することができる。 どちらも、 ひとつの画面上で音声付きで 説明が可能になるため非常に分かりやすくなる。 For example, if there is something that you do not understand by operating a video or operating a personal computer, until the problem is solved, the user searches for the place described in the instruction manual and further searches for the corresponding button. · · A lot of hard work is needed. However, by using this system, in the case of a simple explanation, the buttons are It is possible to explain by pointing directly to the screen, such as "Press here · · · ·" on the photo of the operating unit that is operating. Also, in the case of PC help, the help screen is usually opened in a separate window, and the screen is displayed and explained. However, by using this system, the help screen can be displayed on the user's screen without opening a separate window. Can be explained. In both cases, explanations can be made with sound on one screen, which makes it very easy to understand.
( 5 ) 動画、 ビデオの説明  (5) Video, video description
動画に合わせて説明が可能になるため、 映画、 ビデオの紹介 を行うホームページや、 手話の教材、 楽器の指の使い方など、 今までは動画の中にテキス 卜や絵を含めて (テレビ、 ビデオな どで) 配信されていたが、 本システムを利用することにより、 動画とテキス 卜を別に分けての説明が可能となるため、 動画を 邪魔することなくテキス 卜や、 絵を表示し詳しく説明すること が可能となる。  Since it is possible to explain along with the video, websites that introduce movies and videos, sign language teaching materials, how to use the fingers of musical instruments, etc. However, using this system, it is possible to separately explain video and text, so that text and pictures can be displayed without disturbing the video and explained in detail. It becomes possible to do.
( 6 ) 音楽教材の説明  (6) Explanation of music teaching materials
音声、 動画に合わせて説明が可能なため、 実際に音楽を流し、 楽譜に書きこみを行いながら説明することができる。  Because explanations can be made according to audio and video, it is possible to explain while actually playing music and writing music.

Claims

請求の範囲 The scope of the claims
1 . 第 1 のファイルを呼び出し、 その画像を第 1 の画面上に表 示するステップと ;  1. calling a first file and displaying the image on a first screen;
音声又は動画を入力しながら、 上記第 1 の画面上に仮想的に 存在する第 2の画面内で、 付加されるべき画像才ブジェク 卜を 移動又は配置するステップと ;  Moving or arranging an image object to be added in a second screen virtually existing on the first screen while inputting a voice or a moving image;
上記才ブジェク 卜の第 2の画面における位置情報を時間と関 連づけて得るステップと ; 入力された音声情報又は動画情報に 基づき、 音声ファイル又は動画ファイルを作成するステップ と ;  Obtaining position information of the above-mentioned object on the second screen in association with time; creating an audio file or a moving image file based on the input audio information or moving image information;
上記画像才ブジェク 卜を特定する情報と上記位置情報と上記 時間情報に基づき、 才ブジェク 卜情報ファイルを作成するステ ップと ;  Creating a smart object information file based on the information specifying the image smart object, the position information, and the time information;
第 1 のファイルを、 上記音声ファイル又は上記動画ファイル 及び上記才ブジェク 卜情報ファイルと関連づけるステップと ; 第 1 のファイルを第 1 の画面で表示させつつ、 入力された音 声又は動画とリ ンクして、 第 2の画面内で上記才ブジェク 卜を 経時的に移動又は配置して表示するステップ  Linking the first file with the audio file or the moving image file and the object information file; linking the input sound or the moving image while displaying the first file on the first screen; Moving or arranging the above objects over time in the second screen and displaying the objects.
とを含む、 表示画面に付加情報を重畳表示する方法。 And a method for superimposing and displaying additional information on a display screen.
2 . 第 1 のファイルを呼び出し、 その画像を第 1 の画面上に表 示するステップと ; 2. Retrieve the first file and display the image on the first screen;
上記第 1 の画面上に仮想的に存在する第 2の画面内で、 付加 されるべき画像才ブジェク 卜を移動又は配置するステップと ; 上記画像才ブジェク 卜の上記第 2の画面上における位置の情 報を得るステップと ;  Moving or arranging the image object to be added in the second screen virtually existing on the first screen; and determining the position of the image object on the second screen. Obtaining information;
上記画像才ブジェク 卜を特定する情報と上記位置情報に基づ き、 才ブジェク 卜情報ファイルを作成するステップと ; 第 1 のファイルを、 上記才ブジェク 卜情報ファイルと関連づ けるステップと;第 1 のファイルを第 1 の画面で表示させつつ、 第 2の画面内で上記画像才ブジェク 卜を表示するステップ とを含む、 表示画面に付加情報を重畳表示する方法。 Based on the information for specifying the image object and the position information, Creating a smart object information file; and associating the first file with the smart object information file; and displaying the first file on the first screen while displaying the second file on the first screen. Displaying the above-mentioned image object in the display, wherein the additional information is superimposed on the display screen.
3 . 第 1 のファイルを呼び出し、 その画像を第 1 の画面上に表 示するステップと ;  3. calling the first file and displaying the image on the first screen;
上記第 1 の画面上に仮想的に存在する上記第 2の画面の所定 の位置に、 音声ファイル又は動画ファイルとリ ンクした、 付加 されるべき画像才ブジェク 卜を表示するステップと ;  Displaying, at a predetermined position of the second screen virtually existing on the first screen, an image object to be added, which is linked to an audio file or a moving image file;
上記画像才ブジェク 卜の第 2の画面における位置情報を得る ステップと ;  Obtaining position information of the image object on the second screen;
上記音声ファイル又は動画ファイルの出力順序を特定するス テツプと ;  A step for specifying the output order of the audio file or the video file;
特定された出力順序に従い、 上記音声ファイル又は動画ファ ィルを出力しつつ、 上記音声ファイル又は動画ファイルとリン ク した上記画像才ブジェク 卜を第 2の画面内で表示するステツ プ  A step of displaying the image object linked to the audio file or the moving image file on the second screen while outputting the audio file or the moving image file in accordance with the specified output order.
とを含む、 表示画面に付加情報を重畳表示する方法。 And a method for superimposing and displaying additional information on a display screen.
4 . 第 1 のファイルにはいかなるリンク情報も付加しない、 請 求の範囲 ( 1 )ないし ( 3 ) に規定された方法。 4. The method specified in claims (1) to (3), without adding any link information to the first file.
5 . 音声又は動画を入力しながら、 第 1 の画面の画面上に仮想 的に存在する第 2の画面内で、 画像才ブジェク 卜を上記第 2の 画面内で移動又は配置するステップと ; 5. moving or arranging an image object in the second screen, which is virtually present on the screen of the first screen, while inputting a voice or a moving image;
上記画像才ブジェク 卜の第 2の画面における位置情報を時間 と関連づけて得るステップと ; 3g Obtaining position information of the image object on the second screen in association with time; 3g
入力された音声又は動画に基づき、 音声ファ。ィル又は動画フ アイルを作成するステップと ;  An audio file based on the input audio or video. Creating a file or video file;
上記画像才ブジェク 卜を特定する情報と上記位置情報と上記 時間情報とを関連づけて、 才ブジェク 卜情報ファイルを作成す るステップと ; 上記第 1 の画面の上記画面表示にかかるフアイ ルを、 上記音声フアイル又は上記動画ファイル及び上記才ブジ ェク 卜情報ファイルと関連づけるステップ  Creating an image object information file by associating the information for identifying the image object, the position information, and the time information with each other; Steps for associating with an audio file or the above-mentioned video file and the above-mentioned project information file
とを含む、 表示画面に付加情報を重畳表示するソースファイル の作成方法。 A method for creating a source file that superimposes and displays additional information on a display screen.
6 . 第 1 の画面の画面上に仮想的に存在する第 2の画面内で、 付加されるべき画像才ブジェク 卜を上記第 2の画面内で移動又 は配置するステップと ; 6. In a second screen virtually existing on the screen of the first screen, moving or arranging an image object to be added in the second screen;
上記画像才ブジ iク 卜の上記第 2の画面上における上記位置 の情報を得るステップと ;  Obtaining information on the position of the image object on the second screen;
上記画像才ブジェク 卜を特定する情報と上記位置情報に基づ き、 オブジェク 卜情報ファイルを作成するステップと ; 上記第 〗 の画面の上記画面表示にかかるファイルを上記ォブ ジェク 卜情報ファイルと関連づけるステップ  Creating an object information file based on the information specifying the image object and the position information; associating the file related to the screen display of the second screen with the object information file; Steps
とを含む、 表示画面に付加情報を重畳表示するソースファイル の作成方法。 A method for creating a source file that superimposes and displays additional information on a display screen.
7 . 第〗 の画面上に仮想的に存在する上記第 2の画面の所定の 位置に、 音声ファイル又は動画ファイルとリ ンク した、 付加さ れるべき画像才ブジェク トを表示するステップと ;  7. displaying an image object to be added, which is linked to the audio file or the moving image file, at a predetermined position of the second screen virtually existing on the second screen;
上記画像才ブジェク 卜の第 2の画面における位置情報を得る ステップと ;  Obtaining position information of the image object on the second screen;
上記音声ファイル又は動画ファイルの出力順序を特定するス 一 ^ A switch that specifies the output order of the audio file or video file One ^
テツプ Tep
を含む、 表示画面に付加情報を重畳表示するソースファイルの 作成方法。 How to create a source file that superimposes additional information on the display screen.
8. 第 1 の画面にかかるファイルにはいかなるリンク情報も付 加しない、 請求の範囲 ( 5 )ないし ( 7 ) に規定された方法。  8. The method defined in claims (5) to (7), wherein no link information is added to the file for the first screen.
9. 請求の範囲 ( 1 ) ないし ( 8 ) に規定されたステップを実 行するプログラムを格納する、 磁気記録媒体。  9. A magnetic recording medium for storing a program for executing the steps defined in claims (1) to (8).
1 0. 請求の範囲 ( 9 ) に規定された磁気記録媒体を有する、 コンピュータシステム。  10. A computer system having the magnetic recording medium defined in claim (9).
PCT/JP2000/006164 2000-09-08 2000-09-08 Technique for superimposingly display additional information on display screen WO2002023350A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002527932A JP4574113B2 (en) 2000-09-08 2000-09-08 Device for creating file for displaying additional information superimposed on display screen and magnetic recording medium
PCT/JP2000/006164 WO2002023350A1 (en) 2000-09-08 2000-09-08 Technique for superimposingly display additional information on display screen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2000/006164 WO2002023350A1 (en) 2000-09-08 2000-09-08 Technique for superimposingly display additional information on display screen

Publications (1)

Publication Number Publication Date
WO2002023350A1 true WO2002023350A1 (en) 2002-03-21

Family

ID=11736442

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/006164 WO2002023350A1 (en) 2000-09-08 2000-09-08 Technique for superimposingly display additional information on display screen

Country Status (2)

Country Link
JP (1) JP4574113B2 (en)
WO (1) WO2002023350A1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006323793A (en) * 2005-05-17 2006-11-30 Norio Goto Slide show program and slide show web browser program
JP2007509436A (en) * 2003-10-23 2007-04-12 マイクロソフト コーポレーション Markup language and object model for vector graphics
WO2009001921A1 (en) * 2007-06-27 2008-12-31 Sprasia Inc. Moving image delivery system and moving image delivery method
US8166420B2 (en) 2007-09-28 2012-04-24 Kabushiki Kaisha Toshiba Electronic apparatus and image display control method of the electronic apparatus
US8201105B2 (en) 2007-09-28 2012-06-12 Kabushiki Kaisha Toshiba Electronic apparatus and image display control method of the electronic apparatus
WO2012118256A1 (en) * 2011-03-02 2012-09-07 Bahk Jae Hyun Method for controlling drawing action using transparent window
US8325191B2 (en) 2008-02-05 2012-12-04 Konica Minolta Business Technologies, Inc. Image distribution apparatus, image distribution method, and image distribution program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05242166A (en) * 1992-02-28 1993-09-21 Fuji Xerox Co Ltd Multi-media data editing and display system
JPH0950437A (en) * 1995-08-04 1997-02-18 Matsushita Electric Ind Co Ltd Multimedia information reproducing device and multimedia information recorder
JPH09101928A (en) * 1995-07-28 1997-04-15 Matsushita Electric Ind Co Ltd Information service system
JPH09297675A (en) * 1995-08-15 1997-11-18 Internatl Business Mach Corp <Ibm> Customizable device pointer to be used for graphical user interface
JPH11232299A (en) * 1998-02-18 1999-08-27 Fujitsu Ltd Information adding device and its program storage medium
JPH11328073A (en) * 1998-02-23 1999-11-30 Internatl Business Mach Corp <Ibm> Browser and method for simulation
JP2000076266A (en) * 1998-08-28 2000-03-14 Internatl Business Mach Corp <Ibm> System/method for automatically executing browser operation
JP2000092005A (en) * 1998-09-14 2000-03-31 Toshiba Corp Program transmission system and program receiver for digital broadcasting system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3304630B2 (en) * 1994-09-14 2002-07-22 株式会社日立製作所 Multimedia mail system and mail terminal device
JP3821170B2 (en) * 1996-07-26 2006-09-13 富士ゼロックス株式会社 Method for managing collaborative work information and collaborative work support system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05242166A (en) * 1992-02-28 1993-09-21 Fuji Xerox Co Ltd Multi-media data editing and display system
JPH09101928A (en) * 1995-07-28 1997-04-15 Matsushita Electric Ind Co Ltd Information service system
JPH0950437A (en) * 1995-08-04 1997-02-18 Matsushita Electric Ind Co Ltd Multimedia information reproducing device and multimedia information recorder
JPH09297675A (en) * 1995-08-15 1997-11-18 Internatl Business Mach Corp <Ibm> Customizable device pointer to be used for graphical user interface
JPH11232299A (en) * 1998-02-18 1999-08-27 Fujitsu Ltd Information adding device and its program storage medium
JPH11328073A (en) * 1998-02-23 1999-11-30 Internatl Business Mach Corp <Ibm> Browser and method for simulation
JP2000076266A (en) * 1998-08-28 2000-03-14 Internatl Business Mach Corp <Ibm> System/method for automatically executing browser operation
JP2000092005A (en) * 1998-09-14 2000-03-31 Toshiba Corp Program transmission system and program receiver for digital broadcasting system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007509436A (en) * 2003-10-23 2007-04-12 マイクロソフト コーポレーション Markup language and object model for vector graphics
JP2006323793A (en) * 2005-05-17 2006-11-30 Norio Goto Slide show program and slide show web browser program
WO2009001921A1 (en) * 2007-06-27 2008-12-31 Sprasia Inc. Moving image delivery system and moving image delivery method
JP2009010654A (en) * 2007-06-27 2009-01-15 Sprasia Inc System and method for distributing moving picture
US8166420B2 (en) 2007-09-28 2012-04-24 Kabushiki Kaisha Toshiba Electronic apparatus and image display control method of the electronic apparatus
US8201105B2 (en) 2007-09-28 2012-06-12 Kabushiki Kaisha Toshiba Electronic apparatus and image display control method of the electronic apparatus
US8325191B2 (en) 2008-02-05 2012-12-04 Konica Minolta Business Technologies, Inc. Image distribution apparatus, image distribution method, and image distribution program
WO2012118256A1 (en) * 2011-03-02 2012-09-07 Bahk Jae Hyun Method for controlling drawing action using transparent window

Also Published As

Publication number Publication date
JPWO2002023350A1 (en) 2004-05-27
JP4574113B2 (en) 2010-11-04

Similar Documents

Publication Publication Date Title
JP4201154B2 (en) Digital story creation and playback method and system
US6760884B1 (en) Interactive memory archive
JP6066101B2 (en) Method for dynamically creating moving image based on structured document, electronic device, electronic system, and program for electronic device
US20070162846A1 (en) Automatic sub-template selection based on content
JP2007115180A (en) Information processor, information display method and information display program
JP2007535018A (en) Multimedia digital content visualization and control technology
JPH09128408A (en) Media for interactive recording and reproducing and reproducing device
TW201115362A (en) System, method, and program for editing electronic document
JPH08505720A (en) Command system
US7921127B2 (en) File management apparatus, control method therefor, computer program, and computer-readable storage medium
JP4010094B2 (en) Lecture information presentation device for remote locations
JP4514671B2 (en) CONTENT EDITING DEVICE, COMPUTER-READABLE PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME
JP2004112372A (en) Image processing system
JP2001142827A (en) Method and device for collecting/sticking contents and computer-readable recording medium with recorded program for collecting/sticking contents
WO2002056290A1 (en) Display control method, information display device and medium
JP4574113B2 (en) Device for creating file for displaying additional information superimposed on display screen and magnetic recording medium
US20060236260A1 (en) Journal display having three dimensional appearance
JP2006050469A (en) Content generating apparatus, content generating method, program and recording medium
JP2004038283A (en) Contents management program, information processor, and information processing method
US20040145611A1 (en) Method, program, and system for editing contents of multimedia
JP7180622B2 (en) Information processing device, information processing method and information processing program
JP2000250902A (en) Computer readable recording medium recording contents production tool
JP2004128724A (en) Media editor, media editing method, media editing program, and recording medium
JP2011095809A (en) Presentation support system
JP2003099424A (en) Document data structure, storage medium and information processor

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

WWE Wipo information: entry into national phase

Ref document number: 2002527932

Country of ref document: JP