WO2001056281A1 - Procede et systeme informatique et support d'enregistrement de programmes - Google Patents

Procede et systeme informatique et support d'enregistrement de programmes Download PDF

Info

Publication number
WO2001056281A1
WO2001056281A1 PCT/JP2001/000420 JP0100420W WO0156281A1 WO 2001056281 A1 WO2001056281 A1 WO 2001056281A1 JP 0100420 W JP0100420 W JP 0100420W WO 0156281 A1 WO0156281 A1 WO 0156281A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
scenes
scene
data
scenario
Prior art date
Application number
PCT/JP2001/000420
Other languages
English (en)
French (fr)
Inventor
Kei Fukuda
Motoyuki Suzuki
Muneaki Osawa
Kentaro Miura
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US09/937,463 priority Critical patent/US7085995B2/en
Priority to DE60139527T priority patent/DE60139527D1/de
Priority to EP01901518A priority patent/EP1168838B1/en
Priority to AU27092/01A priority patent/AU781859B2/en
Publication of WO2001056281A1 publication Critical patent/WO2001056281A1/ja
Priority to US11/488,570 priority patent/US7797620B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/21Disc-shaped record carriers characterised in that the disc is of read-only, rewritable, or recordable type
    • G11B2220/213Read-only discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2508Magnetic discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2508Magnetic discs
    • G11B2220/2512Floppy disks
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2508Magnetic discs
    • G11B2220/2516Hard disks
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2525Magneto-optical [MO] discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2545CDs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals

Definitions

  • the present invention relates to an information processing apparatus, a processing method, and a program storage medium, and particularly to an information processing apparatus, a processing method, and a program storage medium for editing image data.
  • an information processing apparatus a processing method, and a program storage medium for editing image data.
  • BACKGROUND ART With the improvement of functions of personal computers, not only text data but also image data can be edited.
  • An object of the present invention is to solve a problem of a conventional information processing device such as a personal computer, and to provide a novel information processing device, a processing method, and a program capable of easily and quickly editing image data. It is to provide a storage medium.
  • An information processing apparatus includes: a storage medium for storing scenario data composed of a plurality of scenes; and a plurality of images to be edited in each of a plurality of scenes configuring the scenario data stored in the storage medium.
  • Associating means for arbitrarily associating them.
  • the plurality of scenes can have different predetermined lengths. Then, the image associated by the associating means is corrected according to the length of the scene. Correction means may be further provided.
  • a reproducing means for continuously reproducing a plurality of images associated by the associating means based on the scenario can be further provided.
  • the reproduction means can reproduce the image by applying the special effect information to a plurality of images based on the predetermined special effect information associated with the scene.
  • Determining means for arbitrarily determining special effect information to be associated with the scene from the plurality of special effect information; the reproducing means applying the special effect information to a plurality of images based on a result determined by the determining means; Can be played.
  • the associating means can arbitrarily associate a plurality of images to be edited with a plurality of scenes of the scenario data selected from the plurality of scenario data.
  • Registration means for registering an image to be edited, image information display means for displaying a list of information on a plurality of images to be edited, and a plurality of images associated by the associating means according to the order of a plurality of scenes.
  • Output information display means for displaying information on images side by side can be further provided.
  • the associating means is configured to perform association using a scenario corresponding to a command from a user, of a first scenario based on repeated continuous playback and a second scenario not based on repeated playback.
  • the information processing method further comprises: an associating processing step for arbitrarily associating a plurality of images to be edited with each of a plurality of scenes constituting the scenario data; A correction processing step of correcting each of the associated images; and a reproduction processing step of continuously reproducing a plurality of images based on the scenario data.
  • An image information display processing step for displaying a list of information on a plurality of images to be edited, and an output information display for displaying information relating to a plurality of images associated in the association processing step side by side according to the order of the plurality of scenes And a processing step.
  • the program stored in the storage medium according to the present invention includes: a correspondence processing step of arbitrarily associating a plurality of images to be edited with each of a plurality of scenes constituting the scenario data; A correction processing step of correcting each of the associated images; and a reproduction processing step of continuously reproducing a plurality of images based on the scenario data.
  • a decision processing step for arbitrarily determining special effect information to be associated with a scene from a plurality of special effect information can be further included.
  • An image information display processing step for displaying a list of information on a plurality of images to be edited, and an output information display for displaying information relating to a plurality of images associated in the association processing step side by side according to the order of the plurality of scenes And a processing step.
  • acquired scenes are associated with image information.
  • FIG. 1 is a perspective view showing the appearance of a personal computer to which the present invention is applied
  • FIG. 2 is a plan view thereof
  • FIG. 3 is a left side view thereof
  • FIG. 5 is a front view thereof
  • FIG. 6 is a bottom view thereof.
  • FIG. 7 is a block diagram showing an example of the internal configuration of the personal computer shown in FIG.
  • FIG. 8 is a diagram showing a display example of LCD provided in the personal computer shown in FIG.
  • FIG. 9 is a diagram showing a display example of the material tray portion shown in FIG.
  • FIG. 10 is a diagram showing a display example of an image captured from the CCD video camera shown in FIG.
  • FIG. 11 is a diagram showing an example of an image file taken into the material tray shown in FIG. 8
  • FIG. 12 is a diagram showing an example of trimming of the playback screen shown in FIG.
  • FIG. 13 is a diagram for explaining the rearrangement of the clips on the output tray shown in FIG.
  • FIG. 14 is a diagram showing a display example of a window when the volume button shown in FIG. 8 is operated.
  • FIG. 15 is a diagram showing a display example of a window when the color tone button shown in FIG. 8 is operated.
  • FIG. 16 is a diagram showing a display example when the playback speed button shown in FIG. 8 is operated.
  • FIG. 17 is a view showing a display example of a text window of the special effect tray shown in FIG.
  • FIG. 18 is a diagram showing a display example of an effect window of the special effect tray shown in FIG.
  • FIG. 19 is a diagram showing a display example of a transition window of the special effect tray shown in FIG.
  • FIG. 20 is a diagram showing a display example when the transition of the output tray shown in FIG. 8 is applied.
  • FIG. 21 is a diagram illustrating a display example illustrating the wipe effect.
  • FIG. 22 is a diagram showing a display example of a shake window of the special effect tray shown in FIG.
  • FIG. 23 is a view showing a display example of a window displayed when the output button shown in FIG. 8 is operated.
  • FIG. 24 is a diagram illustrating an example of the editing information of the simple storage.
  • FIG. 25A to FIG. 25C are flowcharts illustrating the sharing process.
  • FIG. 26A and FIG. 26B are diagrams illustrating the configuration of a scene.
  • FIGS. 27A to 27D are diagrams for explaining the configuration of a scene on the premise of continuous and repeated playback.
  • FIG. 28 is a diagram for explaining the sharing process.
  • This information processing apparatus is configured as a portable personal computer, and is configured as shown in FIGS.
  • This personal computer 1 is configured as a small notebook-type personal computer.
  • the personal computer 1 includes a main body 2 and a display section 3 which is attached to the main body 2 so as to be freely opened and closed. It has.
  • FIG. 1 is an external perspective view showing a state in which the display unit 3 of the personal computer 1 is opened with respect to the main body 2
  • FIG. 2 is a plan view thereof
  • FIG. FIG. 4 is a right side view showing the display unit 3 opened 180 degrees with respect to the main body 2
  • FIG. 5 is a front view thereof.
  • Fig. 6 is a bottom view.
  • the main unit 2 has a keyboard 4 that is operated when entering various characters and symbols, and a stick-type pointing device 5 that is operated when moving the mouse cursor. It is provided in. Further, on the upper surface of the main body 2, speakers 8-1 and 8-2 for outputting sound and a shirt tapotan 10 which is operated when taking an image with the CCD video camera 23 provided on the display unit 3 are further provided. ing.
  • the display unit 3 is openably and closably coupled to the main body 2 by hinges 9-1 and 9-2.
  • a battery 7 is detachably mounted between one hinge 9-1 of the main body 2 and the other hinge 9-1.
  • a pair of hooks 13-1 and 13-2 are provided on both sides on the distal end side of the display unit 3.
  • an engagement hole into which the holes 13-1 and 13-2 engage. 6-1 and 6-2 are provided.
  • a microphone 24 is attached to the distal end side of the display unit 3 adjacent to the imaging unit 22. As shown in FIG. 6, the microphone 24 is configured to collect sound incident from the back side of the display unit 3.
  • An exhaust hole 11 is provided on one side of the main body 2 as shown in FIG. 3, and an intake hole 14 is also provided on the lower part on the front side of the main body 2 as shown in FIG. . Further, on one side of the main body 4 where the exhaust holes 11 are provided, as shown in FIG. (Personal Computer Memory Card International Association) is provided with a slot 12 for inserting a card, that is, a PC card, which conforms to the standard defined by the card.
  • a slot 12 for inserting a card that is, a PC card, which conforms to the standard defined by the card.
  • an LCD (Liquid Crystal Display) 21 for displaying an image is provided in front of the display unit 3, and an imaging unit 22 is provided at an upper end of the display unit 3. It is provided rotatable with respect to 3.
  • the imaging section 22 is configured to rotate to an arbitrary position within a range of 180 degrees between the front direction of the LCD 21 and the rear direction opposite thereto.
  • a CCD video camera 23 is attached to the imaging unit 22.
  • a power lamp PL, a battery lamp BL, a message lamp ML, and a lamp composed of other LEDs are provided on the front end side of the main body 2 on which the key board 4 is provided.
  • a power switch 40 is provided on the rear end side of the main body 2 to which the display unit 3 is connected, as shown in FIG.
  • an adjustment ring 25 for adjusting the focus of the CCD video camera 23 is provided on the front end face of the main body 2 as shown in FIG.
  • a mounting portion for an additional memory mounted on the body 2 is provided. This mounting part is usually covered by a lid 26.
  • a central processing unit (CPU (Central Processing Unit)) 51 is housed and arranged inside the personal computer 1.
  • the CPU 51 is composed of, for example, a Pentium (trademark) processor manufactured by Intel Corporation, and is connected to the host bus 52.
  • the host bus 52 is further connected to a bridge 53, a so-called north bridge.
  • the bridge 53 has an Accelerated Graphics Port (AGP) 50 and is connected to a Peripheral Component Interconnect / Interface (PCI) bus 56.
  • AGP Accelerated Graphics Port
  • PCI Peripheral Component Interconnect / Interface
  • the bridge 53 is composed of, for example, 400 BX, which is an AGP Host Bridge Controller made by Intel Corporation, and controls the CPU 51 and a RAM (Random-Access Memory) 54 (so-called main memory). .
  • Bridge 53 has A The video controller 57 is controlled via the GP 50.
  • the bridge 53 and the bridge (so-called south bridge (PCI-ISA Bridge)) 58 constitute a so-called tube set.
  • the bridge 53 is further connected to a cache memory 55.
  • the cache memory 55 is a memory such as an SRAM (Static RAM) that can execute a write or read operation at a higher speed than the RAM 54, and temporarily stores a program or data used by the CPU 51. .
  • SRAM Static RAM
  • the CPU 51 is a memory that can operate at a higher speed than the cache memory 55 and has a cache memory controlled by the CPU 51 itself.
  • the RAM 54 is composed of, for example, a DRAM (Dynamic RAM), and stores a program executed by the CPU 51 or data necessary for the operation of the CPU 51. Specifically, for example, when the boot is completed, the RAM 54 stores the e-mail program 54A, the auto pilot program 54B, the operating program (OS) 54C loaded from the HDD 67, Use the share program 54D, the capture program 54E, and other application programs 54F1 to 54Fn3t3te.
  • DRAM Dynamic RAM
  • the e-mail program 54A is a program for sending and receiving so-called e-mail, which is an electronic message, via a communication line such as a telephone line 76 via a modem 75.
  • the e-mail program 54A has an incoming mail acquisition function. This function is used to check whether mail addressed to the user has arrived in the mailbox 79 of the mail server 78 provided by the Internet service provider 77, and use the function. If there is an e-mail addressed to the person, a process for acquiring the e-mail is executed.
  • the auto-pilot program 54B is a program that sequentially activates and executes a plurality of preset processes (or programs) in a preset order.
  • OS (Operating System) 54C is represented by, for example, the so-called Windows 95 (trademark) or Windows 98 (trademark) of Microsoft Corporation or the so-called Mac S (trademark) of Apple Computer. It is a program that controls the basic operation of a computer.
  • the sharer program 54D is a program for executing an automatic editing process.
  • the capture program 54E is a program for controlling the capture of a captured image by the CCD video camera 23.
  • the video controller 57 is connected to the page 53 via the AGP 50, and receives data (image data or text data) supplied from the CPU 51 via the AGP 50 and the bridge 53. (E.g., one night) and generate an image corresponding to the received data, or store the received data as it is in the built-in video memory (not shown).
  • the video controller 57 causes the LCD 21 of the display unit 3 to display an image corresponding to the image data stored in the video memory.
  • the video controller 57 supplies the video data supplied from the CCD video camera 23 to the RAM 54 via the PCI bus 56.
  • a sound controller 64 is connected to the PCI bus 56.
  • the sound controller 64 takes in a signal corresponding to the voice from the microphone 24, generates a data corresponding to the voice, and outputs it to the RAM 54.
  • the sound controller 64 drives the speaker 8 to output the sound to the speaker 8.
  • a modem 75 is connected to the PCI bus 56.
  • the modem 75 transmits predetermined data to a communication network 80 such as an Internet or a mail server 78 via a public telephone line 76 and an internet service provider 77, and transmits the communication network.
  • a communication network 80 such as an Internet or a mail server 78 via a public telephone line 76 and an internet service provider 77, and transmits the communication network.
  • the PC card slot interface 111 is connected to the PCI bus 56 and receives data supplied from the interface card 112 attached to the slot 12 to the CPU 51 or RAM.
  • the data supplied from the CPU 51 is output to the interface card 112 while the data is supplied to the interface card 114.
  • the drive 113 is connected to the PCI path 56 via a PC slot interface 111 and an interface 112.
  • the drive 113 reads data stored in the magnetic disk 122, optical disk 122, magneto-optical disk 123, or semiconductor memory 124 mounted as necessary, and reads the read data.
  • the face card 1 1 2, PC card It is supplied to RAM 54 through slot-in interface 111 and PCI bus 56.
  • a bridge 58 is also connected to the PCI bus 56.
  • the bridge 58 is composed of, for example, PIIX 4E (trademark) manufactured by Intel Corporation, and includes an IDE (Integrated Drive Electronics) controller / configuration register 59, a timer circuit 60, and an IDE interface 61. , And USB interface 68 etc.
  • the bridge 58 is connected to the IDE bus 62 or via an ISA / EIO (Industry Standard Architecture / Extended Input Output) bus 63 or an I / O interface. It controls various types of I / O (Input / Output), such as control of connected devices.
  • ISA / EIO Industry Standard Architecture / Extended Input Output
  • the IDE controller / configuration register 59 includes two IDE controllers, a so-called primary IDE controller and a secondary IDE controller, and a configuration register (configuraion ion register). I have.
  • the HDD 67 is connected to the primary IDE controller via the IDE bus 62. Further, when a so-called IDE device such as a CD-ROM drive or HDD (not shown) is mounted on another IDE bus, the mounted IDE device is electrically connected to the secondary IDE controller.
  • a so-called IDE device such as a CD-ROM drive or HDD (not shown) is mounted on another IDE bus, the mounted IDE device is electrically connected to the secondary IDE controller.
  • the HDD 67 has an e-mail program 67A, an auto-pilot program 67B, a ⁇ S 67C, an application program such as a Shaker Blog program 67D, a capture program 67E, and a plurality of other application programs 67F1 to 67F. Fn and the like are recorded.
  • the e-mail program 67 A, auto-pilot program 67 B, 0S 67 C, share program 67 D, capture program 67 E, and application programs 67 F1 to 67 Fn recorded on the HDD 67 are as follows: Startup (bootup) During the process, the data is sequentially supplied to the RAM 54 and loaded.
  • the USB interface 68 receives the pseudo noise code from the connected GPS antenna 106 via the USB port 107 and receives the pseudo noise code. Is transmitted to the RAM 54 via the PCI bus 56.
  • the timer circuit 60 supplies data indicating the current time to the CPU 51 via the PCI bus 56 in response to requests from various programs.
  • the I / O interface 69 is connected to the ISA / EIO bus 63.
  • the I / 0 interface 69 is composed of an embedded date controller, in which a ROM 70, a RAM 71, and a CPU 72 are mutually connected.
  • the ROM 70 stores in advance the IEEE1394 interface program 70 A, the LED control program 70 B, the touch pad input monitoring program 70 C, the key input monitoring program 70 D, and the wake-up program 70 E. are doing.
  • the IEEE 1394 interface program 70 A is connected via the IEEE 1394 port 101 to data (stored in a packet) that conforms to the standards specified by the IEEE 1394. Data) is transmitted and received.
  • the LED control program 70B controls the lighting of the power lamp P L, the battery lamp B L, the message lamp ML as required, or other lamps composed of LEDs.
  • the evening touch pad input monitoring program 70C is a program for monitoring input from the touch pad 33 corresponding to a user operation.
  • the key input monitoring program 70D is a program for monitoring an input from the keyboard 4 or another key switch.
  • the wake-up program 70E checks whether or not a preset time has been reached based on the data indicating the current time supplied from the timer circuit 60 of the bridge 58. This is a program for managing the power supply of each chip constituting the personal computer 1 in order to activate a predetermined process or a program.
  • BIOS 70G controls the transfer of data between the OS or the abbreviated program and peripheral devices (such as the touchpad 33, the keypad 4 or the HDD 67), that is, controls the input / output of data.
  • RAM 71 is used for LED control, touch pad input status, key input timer, or register time for setting time, or IEEE 1394 IF register timer.
  • registers 71A to 71F For example, when the e-mail program 54A is started, a predetermined value is stored in the LED control register, and the lighting of the message lamp ML is controlled in accordance with the stored value.
  • the key input status register stores a predetermined operation key flag. In the set time register evening, a predetermined time is set in accordance with the operation of the keypad 4 or the like by the user.
  • the I / O interface 69 is connected to a touch pad 33, a key port 4, an IEEE1394 port 101, a shutter button 10 and the like via a connector (not shown).
  • a signal corresponding to the operation for the switching device 5, evening pad 33, key board 4, or shirt button 10 is output to the ISA / EI ⁇ bus 63.
  • the I / I interface 69 controls transmission and reception of data with connected devices via the IE EE 1394 port 101.
  • a power lamp PL, a battery lamp BL, a message lamp ML, a power control circuit 73, and a lamp composed of other LEDs are connected to the I / Pin face 69.
  • the power supply control circuit 73 is connected to the built-in battery 74 or the AC power supply, and supplies necessary power to each block and controls charging of the built-in battery 74 or a second battery of a peripheral device. .
  • the I / O interface 69 monitors the power switch 40 which is operated when the power is turned on or off.
  • the I / 0 interface 69 executes the IEEE 1394 interface program 70 A to the wake-up program 70 E by the internally provided power supply even when the power is off. In other words, the I EEE 1 394 input evening program 7 OA to the wake-up program 70 E are always operating.
  • T FIG. 8 shows that the L CD 21
  • the example of the display of the image displayed on is shown.
  • a material tray 201 is displayed at the upper left of the screen.
  • a read button 211 is displayed.
  • the reading button 211 is operated by the user when the user tries to edit predetermined image information and tries to read the information to be edited. This operation is performed by operating the stick type pointing device 5.
  • the material tray 201 is shown in an enlarged manner in FIG.
  • the video controller 57 outputs an image captured by the CCD video camera 23 to the LCD 21 and causes the LCD 21 to display the image.
  • FIG. 10 shows an example of an image displayed in this manner.
  • the video controller 57 supplies the still image or moving image data currently displayed on the LCD 21 to the RAM 54 for storage. This image data is supplied from the RAM 54 to the hard disk 67 and recorded as needed.
  • the user reads out the image data stored in the RAM 54 or the hard disk 67 and operates the read button 211 to display the image data as a material to be edited. It can be stored in RAM 54 as a clip.
  • the image data set to be shaken in this way is displayed on the material tray 201 as a material clip 2 12.
  • the title of the material clip, the classification of the moving image and the still image, and the playback time are displayed on the right side of the material clip 2 12.
  • the scroll bar 2 1 3 is used to scroll the material clips 2 1 2 when the number of material clips 2 1 2 increases and it becomes impossible to display everything within the range of the material tray 201. Operated by the user.
  • Files that can be edited as material clips can be MOV, .AVI, .BMP, .GIF, .JPG, .PNG, .PNG files as shown in Fig. 11. It can be a still image with an extension such as PCT or music with an extension such as .WAV or .AIF.
  • a reproduction screen 221 is displayed as shown in FIG.
  • the stick type pointing device 5 is operated by the user
  • a predetermined one of the material clips 2 12 displayed on the material tray 201 is designated, and the play button 231 is operated.
  • the specified image is reproduced and displayed on the reproduction screen 221.
  • the display position of the reproduction position display button 235 moves from the left side to the right side according to the reproduction position.
  • the mode button 2 3 3 When the mode button 2 3 3 is operated in the story playback mode, the mode is changed to the edit mode.When the mode button 2 3 3 is operated in the edit mode, the mode is changed. Is changed to the story playback mode.
  • the material clip 2 1 2 designated from the material tray 2 1 at that time is displayed on the playback screen 2 2
  • the play button 2 3 1 is operated in the state where the story playback mode is set, the automatically or manually edited story displayed on the output tray 291, as described later, is displayed.
  • One scenario is played from beginning to end.
  • the user selects a predetermined one from the material clips 2 12 displayed in the material tray 201 and displays the image shown in FIG. 13.
  • a desired scene scenario is created by drag-and-dropping a desired position on a plurality of image display sections 301A on the track 301.
  • the image as a material clip once dragged and dropped to the predetermined image display section 301A can be moved by dragging and dropping it to the image display section 301A at another position. It is possible.
  • the user places the music file icon, that is, the material clip 21 designated by the icon, on the output tray 291, the BGM track 3
  • the sound can be made to correspond to BGM.
  • the length to which the music information on the BGM track 302 is assigned corresponds to the length of the music information. Therefore, if the length of the music information is short, another music information can be assigned by dragging and dropping it onto the BGM drag 302.
  • a volume button 241, a color tone button 2424, and a playback speed button 2443 are displayed on the right side of the playback screen 221.
  • a window 331 shown in FIG. 14 is displayed below the volume button 241. The user can adjust the volume at the time of outputting the sound to be edited by operating the adjustment bar 3 32.
  • a window 341 shown in FIG. 15 is displayed below the color tone button 242.
  • the user can select one of X-ray, high contrast, as is, sepia, and monochrome by operating the adjustment bar 342.
  • a window 351 shown in FIG. 16 is displayed below the playback speed button 243.
  • the user can make adjustments such as increasing or decreasing the image playback speed.
  • An effect display button 244 is displayed below the playback speed button 244.
  • the user drags and unselects the selection button icon 36 4 displayed in FIG. 1 (described later) or the selection button icon 36 2 displayed in FIG. 18 to the effect display button 24 4.
  • the effect can be assigned to the material displayed on the playback screen 222.
  • a special effect tray 261 is displayed on the right side of the volume button 241 to the effect display button 244.
  • tags 2711-11 to 271-1-4 are displayed.
  • a text window ⁇ is displayed, as shown in FIG.
  • the font button 362 is operated when selecting the font of the text to which the effect is added.
  • the text input window 3 6 3 displays the text input by the user operating the keyboard 4.
  • the selection icon 364 is operated when selecting an effect to be added to text (character string).
  • the scroll bar 365 is operated when the selection button icon 365 is scrolled. By dragging and dropping a predetermined one of the selection button icons 364 onto the effect display port 244, the input is displayed in the text input window 363 at that time.
  • the text effect selected with the selection button icon 364 for example, a text animation, can be added to the text.
  • the field image with the selected text effect added is displayed in the playback screen 2 2 1 Will be displayed immediately. In this way, the user can check the text effects in real time.
  • a text animation of “oblique merging” is displayed on the playback screen 222.
  • FIG. 18 shows a display example when tag 2 7 1-3 is selected.
  • an effect window is displayed as shown in FIG.
  • an image 381 to be edited is displayed, and a selection button icon 362 for selecting an animation effect is displayed below the image 381.
  • the scroll bar is operated when the selection button icon is scrolled.
  • a predetermined animation effect can be selected.
  • the play button 2 3 1 is operated after making this selection, the image with the animation effect added to the play screen 2 2 1 is displayed in real time.
  • the animation effect of “Tokimeki” is displayed.
  • FIG. 19 shows a display example when tag 2 7 1—4 is selected.
  • a transition window is displayed as shown in FIG.
  • a selection button icon 391 is displayed, and the user can select a predetermined one from a plurality of selection button icons 391.
  • a schematic image corresponding to the selected transition is displayed on the display unit 393.
  • the selection button icon 3 91 is scrolled.
  • the user drags and drops it to the transition display area 301B of the image track 301 shown in FIG. You can add a transition to the image (material clip) displayed on the image display section 301A.
  • the image displayed on the left side of the figure gradually moves to the right side, and gradually hides the image displayed on the right side, as shown in Figure 21. Then, the transition is performed.
  • a simple window for automatic editing is displayed, as shown enlarged in Figure 22.
  • the selection buttons 281-1-1 to 281-1-5 are displayed in this single window.
  • Each of the selection buttons 281-1-1 to 2811-15 is associated with a predetermined story scenario in advance.
  • Each scenario corresponds to a predetermined music set in advance, and the music corresponding to the leftmost selection button 281-1-1 in FIG.
  • the one corresponding to the rightmost select button 2 8 1-5 is said to be the fastest and the most intense.
  • the music corresponding to the selection buttons 2 8 1-2 to 2 8 1 1 4 between them is considered to be music with an intermediate tempo.
  • select button 2 8 1—1 contains ambient music (environmental music)
  • select button 2 8 1—2 contains piano music
  • select button 2 8 1—3 contains jazz music
  • Select buttons 2 8 1–4 are associated with hibb hobb music
  • select buttons 2 8 1–5 are associated with techno music.
  • the number of scenes constituting the scenario corresponding to the selection button 281-1-1 is relatively small (the number of scene changes is small) corresponding to these musics.
  • the scenario corresponding to the selection button 281 1-5 has a large number of scenes (the number of scene changes is large). Note that the lengths of the scenarios corresponding to the selection buttons 281-1-1 to 281-1-5 are all the same, and in this example, 30 seconds.
  • the loop button 282 is operated by the user when it is assumed that a 30-second scenario generated by automatic editing is repeatedly played.
  • Text Shake button 283 is used by the user to shake text (characters). Is operated.
  • a window 284 is displayed.
  • a character string to be edited is displayed. Can be entered. In this example, the three character strings "Let's do our best", “Chiyan Junko”, and "Happy !!" are displayed.
  • the shake button 285 is operated by the user when starting a shake (automatic editing).
  • a window 401 as shown in FIG. 23 is displayed.
  • the user selects a desired item from this window 401. This allows the user to select the form of saving the information (manually or automatically edited) displayed in the output tray 29 1.
  • the editing information is, for example, information as shown in FIG. In FIG. 24, the leftmost frame number indicates the start time of each scene constituting the scenario. In the example of FIG. 24, the scenario is composed of 10 scenes, and the first scene starts from the sixth frame.
  • the following animation effect shows the processing of the animation effect corresponding to the scene. Since 20 effects are prepared as animation effects, the values from 0 to 19 represent the effects, and the value of 99 indicates that the animation effects are not applied. Is represented. A value of 1 indicates that a predetermined one is randomly selected from the 20 animation effects.
  • the next transition indicates which of the eight transitions it is. A value of 99 indicates that no transition has been applied. The next value indicates the timing of the transition.
  • the color tone effect indicates which of the 24 types of color has a value of 0 to 23.
  • the value 1 indicates that a predetermined color tone is randomly selected from the 24 types of color tones.
  • the value of 9 to 9 applies the tonal effect It means that there is no.
  • the last value indicates whether to use the black mat as the background or not.A value of 1 indicates that the black mat should be used as the background, and a value of 0 indicates that it should not be used. ing.
  • step S1 the specified file is read as a material clip and the reading process is executed. That is, as described above, the user activates the capture program 54 E, and executes the image data file captured from the CCD video camera 23 and the audio input from the microphone 24. By specifying a specified file among the data files and operating the read button 2 1 1, the file is specified as the target (material clip) of the automatic editing process.
  • the shared program 54D stores the specified file as a material clip, processes the image of the first frame of the file, and generates a material clip 211 as a material clip. Display on the material tray 201. If the specified information is audio information, an image indicating that it is audio information prepared in advance is displayed as the material clip 2 12.
  • the information captured at this time is not only the information captured from the CCD video camera 23 and the microphone 24, but also the information captured from the Internet 80 via the modem 75 and the magnetic disk. It is also possible to use data read from an interface card 112 from an optical disk 122, an optical disk 122, a magneto-optical disk 123, a semiconductor memory 124, or the like.
  • step S2 proceed to step S2, where the shaker program 54D is set as a shake target.
  • the user designates one of the five shake buttons 281-1 to 281-5.
  • a predetermined scenario is preliminarily supported for each of the shakers 2 281-1 through 281-5.
  • the scenario can be changed. Will choose.
  • the sharer program 54D executes processing for storing the designated one.
  • the scenario shown in Figure 26A corresponds to the selection button 281-1-1.
  • This scenario consists of four scenes, Scene 1 to Scene 4.
  • Scenes 1 to 4 each have a length of time T1 to T4.
  • an animation effect is added to scene 1 and monochrome color adjustment processing is performed to scene 2.
  • a transition is added between scene 1 and scene 2.
  • music Ml is supported in this scenario.
  • the Chez Power Program 54D randomly selects predetermined image information from the material information of the material clips displayed in the material tray 201 and sets scene 1 to scene Execute the process assigned to 4. As a result, the editing process according to the prepared scenario is automatically performed by the shell program 54D.
  • Figure 26B shows the scenario corresponding to selection button 281-1-2.
  • This scenario is composed of five scenes, scene 1 to scene 5, and the length of each scene is T 11 to T 15.
  • Scene 2 has Sepi A random effect is added to scene 3 and a transition is added between scenes 4 and 5.
  • the music is M2.
  • step S4 the share program 54D executes a process of storing a loop when specified. That is, the user operates the loop button 282 on the assumption that the scenario obtained by editing is continuously and repeatedly reproduced. When this operation is performed, in step S 4, The program 54D remembers it.
  • the scenario corresponding to select button 281-1 is basically configured as shown in Figure 26A, but the scene when the loop button 282 is not operated is To be more precise, it is configured as shown in FIG. 27A, for example.
  • a fade-in part SC 1 is formed at the beginning of scene 1 (SC 1)
  • a fade-out part SC 4 is formed in the last scene 4 (SC 4).
  • SC 1 the beginning of scene 1
  • SC 4 the last scene 4
  • a silent part Ml is formed.
  • the result becomes as shown in FIG. 27B. That is, the playback is started by the feed-in part SC 1 ′, and after the scene 1, the scene 2, the scene 3, and the scene 4 are reproduced, the reproduction is started by the SC 4 ′ of the feed-out part. The second playback ends. Subsequently, the reproduction of the image of the fade-in scene SC1, SC1 is started again, and the scene 1, scene 2, scene 3, and scene 4 are reproduced again, and the fade-out portion SC 4, is displayed again. In the music, at the boundary portion A between the first playback and the second playback, a silent portion M1, is played. Therefore, the viewer can easily recognize that the reproduction has been completed once at the boundary portion A. On the other hand, if the loop button 282 is operated after the selection button 281-1 is selected, a scenario as shown in Fig. 27C is selected.
  • This scenario consists of four scenes, Scene 1 to Scene 4, but the beginning of Scene 1 and the end of Scene 4 play Scene 1 after Scene 4.
  • the change occurs, for example, when switching between scene 1 and scene 2, or switching between scene 2 and scene 3, or even switching between scene 3 and scene 4, the scene It changes, but the structure is such that one scenario is not recognized as completed. That is, the configuration is such that it can be recognized that the screen is simply switched.
  • the share program 54D corresponds to the selection buttons 2 8 1—1 to 2 8 1—5, corresponding to the scenario in which it is assumed that playback is not performed repeatedly and continuously, and the playback is performed repeatedly in succession.
  • the scenario has two scenarios that assume that If the loop button 282 is not operated, the former is selected, and if it is operated, the latter is selected.
  • step S5 the sharing program 54D determines whether or not the shake pot 285 has been operated, and if not, returns to step S1 and repeatedly executes the subsequent processing. I do. If it is determined that the shake button 285 has been operated, the process proceeds to step S6, and the share program 54D determines whether a loop has been designated, that is, whether the loop button 282 has been operated. Is determined. If it is determined that a loop is specified, the process proceeds to step S7, and the program 54 D is set to the selected one of the selected buttons 281-1-1 to 281-1-5. Select the scenario for the corresponding loop. On the other hand, if it is determined in step S6 that the loop is not specified, in step S8, the share program 54D is selected by the selection buttons 2 8 1 1 1 to 2 8 1- From 5, select the non-loop scenario corresponding to the selected one.
  • step S9 After the processing of step S7 or step S8, proceed to step S9, and The program 54D assigns an ID (identification number) to each of the material clips 211 displayed in the material tray 201. Then, in step S10, the share program 54D selects one of the material clips with a random number. In other words, one material crib is selected by randomly selecting one ID from the IDs allocated in the process of step S9.
  • step S11 the sharing program 54D converts the material clip selected in the processing of step S10 to the one in the scenario selected in the processing of step S7 or step S8.
  • One scene in this case, the first scene.
  • step S12 it is determined whether or not the process of associating the material cribs with all scenes has been completed. If the process has not been completed, the process returns to step S10, and the subsequent processes are repeatedly executed. In this way, for example, predetermined material clips are associated with scene 1, scene 2, scene 3, and scene 4 shown in FIG. 26A, respectively.
  • step S12 determines whether the association processing for all scenes has been completed.
  • step S14 the share program 54D determines whether the length of the scene selected in step S13 is shorter than the length of the material clip associated with the scene. . If the length of the selected scene is shorter than the length of the associated material clip, proceed to step S15, and the share program 54D will correspond to the scene in the material clip.
  • the part to be determined is determined by random numbers. For example, if the length of the material clip is 5 seconds and the corresponding scene is 1 second, which one of the 5 seconds of the image will correspond to that scene from 1 It is determined by generating numbers up to 5 with random numbers.
  • step S14 when it is determined in step S14 that the length of the selected scene is not shorter than the length of the associated material clip, the process proceeds to step S16, and the shell-cabrogram 5 4D Performs a process to extend the length of the material clip to match the length of the scene. For example, if the length of the material clip is 1 second and the length of the scene is 5 seconds, increasing the length of the material clip by 5 times (1/5 In other words, by playing back at slow speed, the length of the material clip and the length of the scene are corresponded.
  • step S17 the shell program 54D determines whether an effect is specified for the scene in the scenario. I do. For example, if the current scene to be processed is scene 1 in Fig. 28A, this scene 1 has an animation effect specified. In such a case, the process proceeds to step S18, and the share program 54D determines whether the effect has been determined. In other words, the effect is specified in the case where the effect has already been determined such as the animation effect as in the case of scene 1 in FIG. 26A, or in the case where scene 3 in FIG. 26B is used. In some cases, it is designated as a random effect, as in.
  • step S19 the sharing program 54D generates a random number from among 24 effects prepared in advance, for example. Determines one effect.
  • step S 18 If it is determined in step S 18 that the effect has already been determined, or if the effect has been determined in step S 19, the process proceeds to step S 20, where the program is executed. D associates the determined effect with the material crib corresponding to the scene.
  • Step S 1 7 when it is determined that Effects scene is not specified in c then Step S 2 1 are omitted step process of S 1 8 to Step S 2 0 is not required, shell
  • the cover program 54D determines whether a transition is specified. If a transition has been specified, the process proceeds to step S22, where the share program 54D sets a transition between the next material clip.
  • the process proceeds to step S22, where the share program 54D sets a transition between the next material clip.
  • the processing in step S22 is unnecessary and is skipped.
  • step S23 the sharing program 54D determines whether a text has been captured. That is, as described above, when performing the text shake, the text to be processed is taken in in step S2. In this case, the process proceeds to step S24, and the share program 54D randomly determines whether or not to shake the text in the scene to be processed.
  • step S25 the shaker program 54D determines whether or not it has been determined that text shaking has been performed.
  • One text is selected at random from the existing text. For example, as shown in FIG. 22, when three texts are captured, one of them is selected as the one corresponding to the scene to be processed.
  • step S27 the shell program 54D randomly determines a text insertion position.
  • a text insertion position there are five insertion positions for text at the center, upper right, upper left, lower left, lower right, and lower right of the screen, and one position is randomly determined from these five positions.
  • step S25 If it is determined in step S25 that text shaking is not to be performed, steps S26 and S27 are skipped. If it is determined in step S23 that the text has not been captured, the processes in steps S24 to S27 are skipped.
  • step S28 it is determined whether or not processing has been completed for all scenes. If processing has not been completed for all scenes, the process returns to step S13 to return to step S13. Thus, the same processing as that described above is performed. If it is determined in step S28 that the processing for all the scenes has been completed, the process proceeds to step S29, where the shell program 54D outputs an image corresponding to the edited scenario to the output tray 291, Display on image track 301. At this time, the image of the first frame of each scene is displayed on the image display section 301A of the image track 301, and the transition exists on the transition display section 301B. In this case, the image corresponding to the transition (see Figure 19) is displayed.
  • the above processing is schematically described as shown in FIG.
  • the material clips CL1 to CL5 are designated as the material clips.
  • one scenario is determined by the operation of the selection button 281 specified by the user.
  • This scenario is composed of n scenes SC 1 to SCn in this example.
  • scene SC 3 is subjected to a sepia color adjustment, and scene SC is set to a random effect, and scene SC is set to S UB> n ⁇ / SUB>.
  • Sepia color adjustment is performed.
  • between scenes SC2 and SC3, between scenes SC3 and SC4 between scenes SC and SC ⁇ SUB> n ⁇ / SUB>, In each case, a transition is formed.
  • the length of scene SC 1 is 2 seconds
  • the length of scene SC 2 is 2.2 seconds
  • the length of scene SC 3 is 4.0 seconds
  • the length of scene SC is SUB> n-3 / SUB>
  • One second the length of scene SC is 5 seconds
  • the length of scene SC is 3 seconds.
  • the music corresponding to this scene is also determined in advance.
  • the Shaker Program 54D randomly selects a predetermined one of the five material clips CL1 to CL5, and sets the scenes SC1 to SC and SUB> n ⁇ / SUB>. For example, if the material clip CL5 is assigned to scene SC, then the length of scene SC, SUB> n-3, is 1 second.
  • the length of the material clip CL5 is one second or more. Therefore, in this case, the part of the playback time of the material clip CL5 between t1 and t4, which is 1 second between the randomly selected times t2 and t3, is Assigned to scene SC ⁇ SUB> n-3 ⁇ SUB>.
  • the user can automatically obtain predetermined edited image information only by specifying the material clip.
  • the assignment of material clips is determined at random, so even if the same material clip is selected, basically different editing results will be obtained.
  • the shared program 54D will execute the edited scenario (a modified version of the previously prepared scenario). ) Display the image corresponding to on the playback screen 2 2 1. Thus, the user can confirm the editing result.
  • a window 401 shown in FIG. 23 is displayed.
  • the user can save the information obtained as a result of editing in a predetermined format by selecting a predetermined item from the items displayed in the window 401.
  • the Shaker Program 54D will actually apply the editing information to the selected material clip and execute the rendering process.
  • an image to which a predetermined effect is given is actually formed, and the image is stored in a specified storage medium, for example, the hard disk 67.
  • the rendering process takes a relatively long time.
  • the actual rendering process is not executed, and the file and editing information of the material clip selected as the editing target, for example, as shown in Fig. 24 Information is stored. Therefore, the saving process can be completed in a shorter time than when the rendering process is performed.
  • the rendering processing is not actually performed, but only the editing information shown in FIG. 24 is created.
  • a scenario having a length of 30 seconds can be edited in a short time of at most about 10 seconds.
  • the program for executing the above-described processing was previously installed in a hard disk 67 as a recording medium built in the personal computer 1 and a ROM 70 as a semiconductor memory. It can be provided to the user in a state.
  • the program may be a magnetic disk 1 2 1 such as a floppy disk, an optical disk 1 2 2 such as a CD-ROM (Compact Disk-Read Only Disk), a magneto-optical disk 1 2 3, a semiconductor memory 1 2 4 etc. It can be temporarily or permanently stored in a storage medium and provided as package software.
  • a magnetic disk 1 2 1 such as a floppy disk
  • an optical disk 1 2 2 such as a CD-ROM (Compact Disk-Read Only Disk)
  • magneto-optical disk 1 2 3 a semiconductor memory 1 2 4 etc. It can be temporarily or permanently stored in a storage medium and provided as package software.
  • the program can be wirelessly transferred from the download site to a personal computer overnight via a satellite for digital satellite broadcasting,
  • the data can be transferred to the personal computer 1 via a network such as a network or an internet connection by wire, and stored in the built-in hard disk 67 or the like in the personal computer 1.
  • the medium means a broad concept including all the above-described media.
  • the steps of describing the program provided by the medium may be performed in chronological order in the order described, or may be performed in parallel or individually, even if not necessarily performed in chronological order. This includes the processing executed in the first step.
  • system refers to an entire device including a plurality of devices.
  • INDUSTRIAL APPLICABILITY According to the present invention, predetermined image information is selected from the image information, and the selected image information is made to correspond to the scene. Therefore, the editing process can be performed quickly and easily.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Processing Or Creating Images (AREA)

Description

明細書 情報処理装置及び処理方法並びにプログラム格納媒体 技術分野 本発明は、 情報処理装置及び処理方法並びにプログラム格納媒体に関し、 特に、 画像データの編集を目的とする情報処理装置及び処理方法並びにプログラム格納 媒体に関する。 背景技術 パーソナルコンピュータは、 機能の向上に伴い、 テキス トデータだけでなく、 画像データも編集することができるようになつている。
パーソナルコンピュータを用いて画像デ一タを編集するには、 パーソナルコン ビュー夕が有する操作機能をユーザが学習しなければならず、 学習したとしても、 目的の編集結果を得るには時間がかかってしまっている。 発明の開示 本発明の目的は、 従来のパーソナルコンビュータ等の情報処理装置が有する問 題点を解決し、 簡単且つ迅速に画像データの編集を行うことができる新規な情報 処理装置及び処理方法並びにプログラム格納媒体を提供することにある。
本発明に係る情報処理装置は、 複数のシーンで構成されるシナリォデータを記 億する記憶媒体と、 記憶媒体に記憶されたシナリォデータを構成する複数のシー ン各々に編集対象である複数の画像をそれそれ任意に対応させる対応付け手段と を備える。
ここで、 複数のシーンは、 それそれ異なる所定の長さにすることができる。 そ して、 シーンの長さに合わせて、 対応付け手段で対応付けされた画像を修正する 修正手段をさらに設けるようにすることができる。
シナリォデ一夕に基づいて、 対応付け手段で対応付けされた複数の画像を連続 して再生する再生手段をさらに設けるようにすることができる。
再生手段は、 シーンに対応付けされた所定の特殊効果情報に基づいて、 複数の 画像に特殊効果情報を適用して再生するようにすることができる。
シーンに対して複数の特殊効果情報の中から対応付ける特殊効果情報を任意に 決定する決定手段をさらに備え、 再生手段は、 決定手段の決定結果に基づいて複 数の画像に特殊効果情報を適用して再生するようにすることができる。
対応付け手段は、 複数のシナリオデ一夕の中から選択されたシナリオデータの 複数のシーンに対して、 編集対象である複数の画像を任意に対応付けるようにす ることができる。
編集対象となる画像を登録する登録手段と、 編集対象である複数の画像に関す る情報を一覧表示する画像情報表示手段と、 複数のシーンの順番に従って、 対応 付け手段で対応付けられた複数の画像に関する情報を並べて表示する出力情報表 示手段をさらに設けるようにすることができる。
対応付け手段は、 繰り返し連続再生を前提とする第 1のシナリオと、 繰り返し 再生を前提としない第 2のシナリオのうち、 ュ一ザからの指令に対応するシナリ ォを用いて対応付けを行うようにすることができる。
また、 本発明に係る情報処理方法は、 シナリオデータを構成する複数のシーン の各々に対して編集対象である複数の画像を任意に対応付ける対応付け処理ステ ッブと、 シーン各々の長さに合わせて、 対応付けされた画像各々を修正する修正 処理ステップと、 シナリオデータに基づいて、 複数の画像を連続して再生する再 生処理ステップとを含む。
シーンに対して複数の特殊効果情報の中から対応付ける特殊効果情報を任意に 決定する決定処理ステップをさらに含むようにすることができる。
編集対象である複数の画像に関する情報を一覧表示する画像情報表示処理ステ ッブと、 複数のシーンの順番に従って、 対応付け処理ステップで対応付けられた 複数の画像に関する情報を並べて表示する出力情報表示処理ステップとをさらに 含むようにすることができる。 本発明に係る格納媒体に格納されるプログラムは、 シナリォデータを構成する 複数のシーンの各々に対して編集対象である複数の画像を任意に対応付ける対応 付け処理ステップと、 シーン各々の長さに合わせて、 対応付けされた画像各々を 修正する修正処理ステップと、 シナリオデータに基づいて、 複数の画像を連続し て再生する再生処理ステップとを含む。
シーンに対して複数の特殊効果情報の中から対応付ける特殊効果情報を任意に 決定する決定処理ステツプをさらに含むようにすることができる。
編集対象である複数の画像に関する情報を一覧表示する画像情報表示処理ステ ッブと、 複数のシーンの順番に従って、 対応付け処理ステップで対応付けられた 複数の画像に関する情報を並べて表示する出力情報表示処理ステップとをさらに 含むようにすることができる。
本発明に係る情報処理装置及び処理方法並びにプログラムにおいては、 取得さ れたシーンに画像情報が対応付けされる。
本発明の更に他の目的、 本発明によって得られる具体的な利点は、 以下に説明 される実施例の説明から一層明らかにされるであろう。 図面の簡単な説明 図 1は、 本発明を適用したパーソナルコンピュー夕の外観を示す斜視図であり、 図 2は、 その平面図であり、 図 3は、 その左側側面図であり、 図 4は、 その右側 側面図であり、 図 5は、 その正面図であり、 図 6は、 その底面図である。
図 7は、 図 1に示すパーソナルコンピュータの内部の構成例を示すプロック図 である。
図 8は、 図 1に示すパーソナルコンピュータに設けられた L C Dの表示例を示 す図である。
図 9は、 図 8に示す素材トレイの部分の表示例を示す図である。
図 1 0は、 図 7に示す C C Dビデオカメラから取り込んだ画像の表示例を示す 図である。
図 1 1は、 図 8に示す素材トレイに取り込む画像ファイルの例を示す図である, 図 1 2は、 図 8に示す再生画面のト リ ミングの例を示す図である。
図 1 3は、 図 8に示す出力トレイのクリ ッブの並び替えを説明する図である。 図 1 4は、 図 8に示すポリュームボタンが操作された場合のウイン ドウの表示 例を示す図である。
図 1 5は、 図 8に示す色調ポタンが操作された場合のウイン ドウの表示例を示 す図である。
図 1 6は、 図 8に示す再生速度ボタンが操作された場合の表示例を示す図であ る。
図 1 7は、 図 8に示す特殊効果トレイのテキス トウイン ドウの表示例を示す図 である。
図 1 8は、 図 8に示す特殊効果トレィのェフエク トウィ ン ドウの表示例を示す 図である。
図 1 9は、 図 8に示す特殊効果トレイのトランジシヨンウィン ドウの表示例を 示す図である。
図 2 0は、 図 8に示す出力トレイのトランジションを適用した場合の表示例を 示す図である。
図 2 1は、 ワイプ効果を説明する表示例を示す図である。
図 2 2は、 図 8に示す特殊効果トレイのシェ一カウィン ドウの表示例を示す図 である。
図 2 3は、 図 8に示す出力ボタンを操作した場合に表示されるウイ ン ドウの表 示例を示す図である。
図 2 4は、 簡易保存の編集情報の例を示す図である。
図 2 5 A乃至図 2 5 Cは、 シェ一力処理を説明するフローチヤ一トである。 図 2 6 A及び図 2 6 Bは、 シーンの構成を説明する図である。
図 2 7 A乃至図 2 7 Dは、 連続して繰り返し再生することを前提とする、 シ一 ンの構成を説明する図である。
図 2 8は、 シェ一力処理を説明する図である。 発明を実施するための最良の形態 以下、 本発明に係る情報処理装置を図面を参照して説明する。 この情報処理装 置は、 携帯型のパーソナルコンピュータとして構成されたものであり、 図 1乃至 図 6に示すように構成されている。 このパーソナルコンピュータ 1は、 小型のノ —ト型のパーソナルコンビユー夕として構成され、 図 1及び図 2に示すように、 本体 2 と、 本体 2に対して開閉自在に取り付けられた表示部 3とを備えている。 ここで、 図 1は、 パーソナルコンピュータ 1の表示部 3を本体 2に対して開い た状態を示す外観斜視図であり、 図 2は、 その平面図であり、 図 3は、 表示部 3 を本体 2に対して閉塞した状態を示す左側側面図であり、 図 4は、 表示部 3を本 体 2に対して 1 8 0度開いた状態を示す右側側面図であり、 図 5は、 その正面図 であり、 図 6は、 その底面図である。
本体 2には、 各種の文字や記号などを入力するとき操作されるキ一ボ一ド 4、 マウス力一ソルを移動させるときなどに操作されるスティ ック式ポインティ ング デバイス 5が、 その上面に設けられている。 また、 本体 2の上面には、 音を出力 するスピーカ 8— 1 , 8— 2と、 表示部 3に設けられている C C Dビデオカメラ 2 3で撮像するとき操作されるシャツタポタン 1 0がさらに設けられている。 表示部 3は、 ヒンジ 9— 1, 9— 2により、 本体 2に開閉自在に結合されてい る。 本体 2の一方のヒンジ 9一 1 と他方のヒンジ 9 一 2 との間には、 電池 7が着 脱自在に装着されている。
表示部 3の先端側の両側には、 図 1示すように、 一対のッメ 1 3— 1 , 1 3— 2が設けられている。 本体 2側には、 図 3に示すように、 表示部 3が本体 2に対 して閉塞した状態に回動されたとき、 ヅメ 1 3— 1 , 1 3— 2が係合する係合孔 6— 1 , 6 - 2が設けられている。
表示部 3の先端側には、 撮像部 2 2に隣接してマイクロホン 2 4が取り付けら れている。 マイクロホン 2 4は、 図 6に示すように、 表示部 3の背面側から入射 される音も集音できるように構成されている。
本体 2の一方の側面には、 図 3に示すように、 排気孔 1 1が設けられ、 本体 2 の前面側の下部にも、 図 5に示すように、 吸気孔 1 4が設けられている。 さらに、 本体 4の排気孔 1 1が設けられた一方の側面には、 図 3に示すように、 PCMCIA (Personal Computer Memory Card International Association) が規定する規格 に準拠したカード、 すなわち、 P Cカードを挿入するためのスロッ ト 1 2が設け られている。
表示部 3の正面には、 図 1及び図 2に示すように、 画像を表示する L CD (Li quid Crystal Display) 2 1が設けられ、 その上端部には、 撮像部 2 2が、 表示 部 3に対して回動自在に設けられている。 この撮像部 2 2は、 L C D 2 1の正面 方向と、 その反対側の背面方向との間の 1 80度の範囲の任意の位置に回動する ように構成されている。 撮像部 2 2には、 C C Dビデオカメラ 2 3が取り付けら れている。
本体 2のキ一ボード 4が設けられる面側の前端側には、 電源ランプ PL、 電池ラ ンブ BL、 メ ヅセージランプ ML、 その他の LEDよりなるランプが設けられている。 ま た、 本体 2の表示部 3が連結される後端側には、 図 1に示すように、 シャツタポ タン 1 0に隣接して電源スィ ツチ 40が設けられている。 さらに、 本体 2の前端 面には、 図 5に示すように、 C C Dビデオカメラ 2 3のフォーカスを調整する調 整リ ング 2 5が設けられ、 さらに、 本体 2の底面側には、 図 6に示すように、 体 2に装着される増設メモリの装着部が設けられている。 この装着部は、 通常は、 蓋 2 6によって覆われている。
次に、 パーソナルコンピュータ 1の内部の構成について図 7を参照して説明す る。
パーソナルコンピュータ 1の内部には、 中央処理装置 (CPU (Central Proc essing Unit) ) 5 1が収納配置されている。 CPU 5 1は、 例えば、 インテル (Intel) 社製のペンティアム (Pentium: 商標) プロセッサ等で構成され、 ホス トバス 52に接続されている。 ホス トバス 52には、 さらに、 ブリ ッジ 53、 レヽ わゆる、 ノースブリ ッジが接続されている。 ブリ ッジ 53は、 AGP (Accelera ted Graphics Port) 50 有し、 P C I (Peripheral Component Interconnect/ Interface)バス 5 6に接続されている。
プリッジ 53は、 例えば、 ィンテル社製の AGP Host Bridge Control lerである 400 B Xなどで構成されており、 CPU 5 1及び R AM(Random- Access Memor y) 54 (いわゆる、 メインメモリ) 等を制御する。 さらに、 ブリ ッジ 53は、 A GP 50を介して、 ビデオコン トローラ 57を制御する。 なお、 このプリッジ 5 3とブリ ッジ (いわゆる、 サウスブリ ッジ (PCI- ISA Bridge) ) 58とで、 いわ ゆるチヅブセッ トが構成されている。
ブリッジ 53は、 さらに、 キャッシュメモリ 5 5とも接続されている。 キヤヅ シュメモリ 55は、 SRAM (Static RAM) など R AM 54に比較して、 より高 速に書き込み又は読み出しの動作を実行できるメモリで構成され、 CPU5 1が 使用するプログラム又はデータを一時的に記憶する。
なお、 CPU 5 1は、 その内部にキヤッシュメモリ 5 5に比較して、 より高速 に動作できるメモリで、 CPU 5 1自身が制御するキャッシュメモリを有する。
RAM 54は、 例えば、 DRAM (Dynamic RAM) で構成され、 C P U 5 1が実 行するプログラム又は CPU 5 1の動作に必要なデータを記憶する。 具体的には、 例えば、 RAM 54は、 起動が完了した時点において、 HDD 67からロードさ れた、 電子メールプログラム 54A、 オートパイロッ トプログラム 54 B、 オペ レ一ティ ングプログラム (O S) 54 C、 シェ一カブログラム 54 D、 キヤプチ ャプログラム 54 E、 その他のアプリケ一シヨンプログラム 54 F1乃至 54 Fn 3t3teする。
電子メールプログラム 54Aは、 モデム 75を介して電話回線 7 6などの通信 回線を介して電子通信文であるいわゆる eメールを授受するプログラムである。 電子メールプログラム 54 Aは、 着信メール取得機能を有している。 この着信メ ール取得機能は、 インタ一ネッ トサ一ビスプロバイダ 77が備えるメールサーバ 78に対して、 そのメールボックス 7 9内に使用者宛のメールが着信しているか どうかを確認して、 使用者宛のメールがあれば取得する処理を実行する。
オートパイロッ トプログラム 54 Bは、 予め設定された複数の処理 (又はブ□ グラム) などを、 予め設定された順序で順次起動して、 処理するプログラムであ る。
O S (Operating System) 54 Cは、 例えばマイクロソフ ト社のいわゆるウイ ンドウズ (Windows) 9 5 (商標) 若しくはウィ ン ドウズ 98 (商標) 又はアップ ルコンピュータ社のいわゆるマック〇 S (商標) 等に代表されるコンピュータの 基本的な動作を制御するプログラムである。 シェ一カブログラム 54Dは、 自動編集処理を実行するプログラムである。 キ ャブチヤプログラム 54 Eは、 CCDビデオカメラ 2 3による撮像画像の取り込みを 制御するプログラムである。
ビデオコントロ一ラ 57は、 AGP 50を介してプリ ヅジ 53に接続されてお り、 AGP 50及びブリ ッジ 5 3を介して C P U 5 1から供給されるデータ (ィ メ一ジデータ又はテキス トデ一夕など) を受信して、 受信したデータに対応する イメージデ一夕を生成するか、 又は受信したデータをそのまま、 内蔵するビデオ メモリ (図示せず) に記憶する。 ビデオコン トローラ 57は、 表示部 3の L CD 2 1に、 ビデオメモリに記憶されているイメージデータに対応する画像を表示さ せる。 また、 ビデオコン トローラ 5 7は、 C C Dビデオカメラ 2 3から供給され たビデオデ一夕を P C Iバス 5 6を介して、 RAM54に供給する。
P C Iバス 5 6には、 サゥン ドコン トローラ 64が接続されている。 サゥン ド コン トローラ 64は、 マイクロホン 24から音声に対応する信号を取り込み、 音 声に対応するデ一夕を生成して、 RAM 54に出力する。 また、 サウン ドコント ローラ 64は、 スピーカ 8を駆動して、 スビ一力 8に音声を出力させる。
また、 P C Iバス 5 6にはモデム 7 5が接続されている。 モデム 7 5は、 公衆 電話回線 7 6及びィンタ一ネッ トサ一ビスプロバイダ 77を介して、 インタ一ネ ヅ ト等の通信ネッ トワーク 80又はメールサーバ 7 8に所定のデータを送信する とともに、 通信ネッ トワーク 80又はメールサーバ Ί 8から所定のデータを受信 する。
P C力一ドスロ ヅ トインタ一フエ一ス 1 1 1は、 P C Iバス 5 6に接続され、 スロッ ト 1 2に装着されたィンタ一フェースカード 1 1 2から供給されたデータ を、 CPU 5 1又は RAM 54に供給するとともに、 CPU5 1から供給された データをインタ一フェースカード 1 1 2に出力する。 ドライブ 1 1 3は、 P C力 一ドスロッ トインタ一フェース 1 1 1及びイン夕一フェース力一ド 1 1 2を介し て、 P C Iパス 5 6に接続されている。
ドライブ 1 1 3は、 必要に応じて装着される磁気ディスク 1 2 1、 光ディスク 1 22、 光磁気ディスク 1 23、 又は半導体メモリ 1 24に記録されているデ一 夕を読み出し、 読み出したデ一タをィン夕ーフェースカード 1 1 2、 P Cカード スロッ トイン夕一フェース 1 1 1、 及び P C Iバス 56を介して、 RAM54に 供給する。
また、 P C Iバス 5 6にはブリッジ 58、 いわゆる、 サウスプリ ヅジも接続さ れている。 ブリ ッジ 58は、 例えば、 インテル社製の P I I X 4 E (商標) など で構成されており、 I D E (Integrated Drive Electronics) コン トローラ/コ ンフィギユレ一シヨンレジスタ 59、 タイマ回路 60、 I DEインターフェース 6 1、 及び U S Bィンタ一フェース 68等を内蔵している。 ブリ ヅジ 5 8は、 I D Eバス 6 2に接続されるデバイス、 又は I S A/E I O (Industry Standard Architecture / Extended Input Output) ノ、'ス 63若しくは I/Oィ ン夕一フエ —ス 6 9を介して接続されるデバイスの制御等、 各種の I /O (Input / Outpu t) を制御する。
I DEコントローラ /コンフィギュレーションレジスタ 59は、 図示はしない が、 いわゆるブライマリ I DEコン トローラとセカンダリ I DEコン トローラと の 2つの I DEコントロ一ラ及びコンフィギュレーションレジスタ (configurat ion register) 等から構成されている。
ブライマリ I DEコン トローラには、 I DEバス 62を介して、 HDD 67が 接続されている。 また、 セカンダリ I D Eコン トローラには、 他の I D Eバスに、 図示しない CD— ROMドライブ又は HDDなどの、 いわゆる I DEデバイスが 装着されたとき、 その装着された I D Eデバイスが電気的に接続される。
なお、 HDD 67には、 電子メールプログラム 67 A、 オートパイロッ トプロ グラム 67 B、 〇 S 67 C、 アプリケーションプログラムとしてシエーカブログ ラム 67 D、 キヤブチヤプログラム 67 E、 その他の複数のアプリケーションプ ログラム 67 F1乃至 67 Fn等が記録されている。 HDD 67に記録されている 電子メールプログラム 67 A、 オートパイロッ トプログラム 67 B、 0 S 67 C, シェ一カブログラム 67 D、 キヤプチャプログラム 67 E、 及びアプリケーショ ンプログラム 67 F1乃至 67 Fn等は、 起動 (ブートァヅプ) 処理の過程で R A M 54に順次供給されてロードされる。
USBインタ一フェース 68は、 US Bポート 1 07を介して、 接続されてい る GPSアンテナ 1 0 6から疑似雑音コードを受信して、 受信した疑似雑音コ一 ドを P C Iバス 5 6を介して、 RAM54に送信する。
タイマ回路 60は、 各種プログラムからの要求に対応して、 現在時刻を示すデ —タを P C Iバス 56を介して、 CPU 5 1に供給する。
I S A/E I 0バス 63には、 さらに、 I /0インターフエ一ス 69が接続さ れている。 この I /0インタ一フェース 69は、 ェンべデイ ッ トコントローラか ら構成され、 その内部において、 ROM70、 RAM7 1、 及び CPU 72が相 互に接続されている。
ROM70は、 I EE E 1 394インタ一フエ一スブログラム 7 0 A、 LED 制御プログラム 70 B、 タツチパッ ド入力監視プログラム 70 C、 キー入力監視 プログラム 7 0 D及びウェイクァ ヅブプログラム 7 0 E等を予め記憶している。
I E E E 1 394イン夕一フエースプログラム 7 0 Aは、 I EE E 1 394ポ —ト 1 0 1を介して、 I EE E 1 394で規定される規格に準拠するデータ (パ ケッ トに格納されているデータ) を送信するとともに受信する。 LED制御プロ グラム 7 0 Bは、 電源ランプ P L、 電池ランプ B L、 必要に応じてメ ッセージラ ンプ ML、 又はその他の LEDよりなるランプの点灯の制御を行う。 夕ツチパヅ ド入力監視プログラム 70 Cは、 利用者の操作に対応したタヅチパヅ ド 33から の入力を監視するプログラムである。
キー入力監視プログラム 70 Dは、 キーボード 4又はその他のキ一スィツチか らの入力を監視するプログラムである。 ウェイクアッププログラム 70 Eは、 ブ リッジ 58のタイマ回路 6 0から供給される現在時刻を示すデータに基づいて、 予め設定された時刻になったかどうかをチエツクして、 設定された時刻になった とき、 所定の処理又はプログラム等を起動するために、 パーソナルコンピュータ 1を構成する各チップの電源を管理するプログラムである。
ROM 70には、 さらに B I O S (Basic Input/Output System (基本入出力シ ステム) ) 70 Gが書き込まれている。 B I O S 70 Gは、 O S又はアブリケ一 ションプログラムと周辺機器 (タヅチパヅ ド 33、 キ一ポード 4又は HDD 67 等) との間で、 データの受け渡し、 すなわちデータの入出力を制御する。
RAM 7 1は、 L E D制御、 タヅチパヅ ド入カスティタス、 キ一入カスティ夕 ス、 若しくは設定時刻用の各レジス夕、 又は I E E E 1 3 94 I Fレジス夕等 を、 レジスタ 7 1 A乃至 7 1 Fとして有している。 例えば、 LED制御レジスタ は、 電子メールプログラム 54 Aが起動されたとき、 所定の値が格納され、 格納 されている値に対応して、 メッセ一ジランプ M Lの点灯が制御される。 キー入力 ステイタスレジスタは、 所定の操作キーフラグが格納される。 設定時刻レジス夕 は、 使用者によるキーポ一ド 4などの操作に対応して所定の時刻が設定される。 この I /0インターフェース 69は、 図示を省略したコネクタを介して、 タヅ チパヅ ド 3 3、 キーポード 4、 I E E E 1 394ポ一ト 1 0 1及びシャヅタボタ ン 1 0等が接続され、 スティ ヅク式ポインティ ングデバイス 5、 夕ツチパッ ド 3 3、 キ一ボード 4、 又はシャツ夕ポタン 1 0それそれに対する操作に対応した信 号を I S A/E I〇バス 6 3に出力する。 また、 I /〇インタ一フェース 69は、 I E EE 1 394ポート 1 0 1を介して、 接続されている機器とのデ一夕の送受 信を制御する。 さらに、 I /〇イン夕一フェース 6 9には、 電源ランプ P L、 電 池ランプ B L、 メッセ一ジランプ ML、 電源制御回路 73及びその他の LEDよ りなるランプが接続されている。
電源制御回路 73は、 内蔵電池 74又は AC電源に接続されており、 各ブロッ クに、 必要な電源を供給するとともに、 内蔵電池 74又は周辺装置のセカン ド電 池の充電のための制御を行う。 また、 I /0インタ一フエ一ス 69は、 電源をォ ン又はオフするとき操作される電源スィ ヅチ 40を監視している。
I /0インターフェース 69は、 電源がオフの状態でも、 内部に設けられた電 源により、 I EEE 1 394インタ一フエ一スブログラム 7 0 A乃至ウェイクァ ッププログラム 70 Eを実行する。 すなわち、 I EEE 1 394イン夕一フエ一 スプログラム 7 O A乃至ウェイクアッププログラム 7 0 Eは、 常時動作している t 図 8は、 シェ一カブログラム 54 Dを起動した場合に、 L CD 2 1に表示され る画像の表示例を表している。 図 8に示すように、 画面の左上方には、 素材トレ ィ 2 0 1が表示される。 素材トレイ 2 0 1には、 読み込みボタン 2 1 1が表示さ れている。 この読み込みポタン 2 1 1は、 ユーザが所定の画像情報を編集しょう とした場合に、 その編集対象とする情報を読み込もうとする時、 ユーザにより操 作される。 この操作は、 スティ ック式ポインティングデバイス 5を操作すること で行われる。 なお、 素材トレィ 2 0 1は、 図 9に拡大して示されている。 例えば、 ユーザがキヤブチヤプログラム 54 Eを起動すると、 ビデオコント口 ーラ 57は、 CCDビデオカメラ 2 3により撮像された画像を LCD2 1に出力し、 表 示させる。 図 1 0は、 このようにして表示された画像の例を表している。
ユーザが所定のタイ ミングでシャッタ一ボタン 1 0を操作すると、 ビデオコン トロ一ラ 57は、 その時 LCD 2 1に表示されている静止画又は動画データを RAM 54に供給し記憶させる。 この画像データはまた、 必要に応じて、 RAM54か らハードディスク 67に供給されて記録される。
ュ一ザは、 このようにして、 RAM 54又はハードディスク 67に記憶された 画像デ一夕を読み出し、 読み込みボタン 2 1 1を操作することで、 その画像デ一 夕を編集対象の画像である素材クリ ヅプとして R AM 54に記憶させることがで きる。 このようにしてシエイク対象とされた画像データは、 素材トレィ 20 1に 素材クリ ップ 2 1 2として表示される。 図 9に拡大して示されているように、 素 材クリ ップ 2 1 2の右側には、 その素材ク リヅプのタイ トル、 動画と静止画の区 別並びに再生時間が表示されている。 スクロ一ルバ一 2 1 3は、 素材クリッブ 2 1 2の数が多くなり、 素材トレィ 20 1の範囲内にすべてを表示できなくなつた 場合に、 素材クリ ップ 2 1 2をスクロールさせるときにユーザにより操作される。 なお、 編集の対象である素材クリッブとすることが可能なファイルは、 図 1 1 に示すような. MOV, .AVIといった拡張子を有する動画、 .BMP, .GIF, .JPG, .PNG, .PCTといった拡張子を有する静止画、 又は .WAV, .AIFといった拡張子を有する 音楽とすることができる。
素材トレィ 2 0 1の右側には、 図 8に示すように、 再生画面 2 2 1が表示され ている。 ユーザにより、 スティ ヅク式ポィンティ ングデバイス 5が操作され、 素 材トレイ 20 1に表示されている素材クリ ップ 2 1 2のうち、 所定のものが指定 され、 再生ボタン 23 1が操作されると、 その指定された画像が、 再生画面 22 1に再生表示される。 この時、 再生が進むにつれて、 再生位置表示ボタン 2 35 は、 左側から右側に再生位置に応じて、 その表示位置が移動する。
図 1 2にも示すように、 ポインタ 2 34 Lにより開始点を指定し、 ポインタ 2 34 Rにより、 終了点を指定することで、 動画像の所定の範囲を ト リ ミングする ことができる。 ト リ ミングされた場合、 そのファイルのうちの、 ト リ ミングされ た画像データだけが、 実質的な編集対象の画像とされる。
指定範囲再生ボタン 2 3 2が操作されると、 このようにして ト リ ミングされた 範囲だけが再生画面 2 2 1 に表示される。 巻戻しボ夕ン 2 3 6が操作された場合、 再生画面 2 2 1の表示画像が時間的に、 新しい画像から古い画像の方向に巻戻し 表示される。 早送りボタン 2 3 7が操作された場合には、 再生画面 2 2 1に表示 されている画像が早送りされる。
ス ト一リ再生モ一ドの状態でモードボタン 2 3 3が操作されると、 モ一ドが編 集モードに変更され、 編集モードの状態において、 モードポタン 2 3 3が操作さ れると、 モードは、 ス トーリ再生モードに変更される。
編集モードにおいて、 例えば、 再生ボタン 2 3 1が操作されると、 その時素材 トレィ 2 0 1の中から指定されている素材クリ ヅプ 2 1 2が再生画面 2 2 1に表 示されるが、 ス ト一リ再生モードが設定されている状態において、 再生ボタン 2 3 1が操作されると、 後述するように、 出力トレィ 2 9 1に表示されている、 自 動又は手動で編集されたス ト一リ (シナリオ) が、 始めから終わりまで再生され る。
自動編集ではなく、 マニュアルで編集処理を行うとき、 ユーザは、 素材トレィ 2 0 1に表示されている素材クリ ヅプ 2 1 2の中から、 所定のものを選択し、 図 1 3に示す画像トラック 3 0 1上の複数の画像表示部 3 0 1 Aの任意の位置にド ラヅグアン ドドロップすることで、 所望のス 卜一リのシナリオを作成する。 一旦 所定の画像表示部 3 0 1 Aにドラヅグアン ド ドロッブした素材ク リ ヅブとしての 画像は、 さらに他の位置の画像表示部 3 0 1 A上にドラッグアン ド ドロッブする ことで移動させることが可能である。
ユーザは、 素材トレィ 2 0 1上に音楽ファイルが存在する場合には、 その音楽 ファイルのアイコン、 すなわち当該アイコンで指定された素材クリ ップ 2 1 2を 出力トレイ 2 9 1上の BGMトラック 3 0 2に ドラッグアン ド ドロップすることで、 その音声を BGMとして対応させることができる。 BGMトラック 3 0 2上の音楽情報 が割り当てられた長さは、 その音楽情報の長さに対応している。 従って、 その音 楽情報の長さが短い場合には、 さらに別の音楽情報を BGMドラヅグ 3 0 2上にドラ ヅグアンド ドロップすることで割り当てることができる。 再生画面 2 2 1の右側には、 ボリュームボタン 2 4 1、 色調ポタン 2 4 2及び 再生速度ボタン 2 4 3が表示されている。 ボリュームボタン 2 4 1が操作される と、 図 1 4に示すようなウイン ドウ 3 3 1がボリュ一ムポタン 2 4 1の下に表示 される。 ユーザは、 調整バ一 3 3 2を操作することで、 編集対象とされている音 声の出力時の音量を調整することができる。
色調ボタン 2 4 2が操作されると、 図 1 5に示すようなウィ ン ドウ 3 4 1が、 色調ポタン 2 4 2の下に表示される。 この例においては、 ユーザは、 調整バ一 3 4 2を操作することで、 X線、 ハイコン トラス ト、 そのまま、 セピア、 又はモノ クロのうちのいずれかの色調を選択することができる。
再生速度ボタン 2 4 3が操作されると、 図 1 6に示すようなウィン ドウ 3 5 1 が再生速度ボタン 2 4 3の下に表示される。 ユーザは、 調整バ一 3 5 2を操作す ることで、 画像の再生速度を速く し、 あるいは遅くするなどの調整をすることが できる。
再生速度ボ夕ン 2 4 3の下側には、 エフェク ト表示ボタン 2 4 4が表示されて いる。 ュ一ザは、 後述する図 1 Ίに表示されている選択ボタンアイコン 3 6 4、 又は図 1 8に表示されている選択ボタンアイコン 3 6 2を、 エフェク ト表示ポタ ン 2 4 4に ドラッグアン ド ドロップすることで、 そのエフェク トを、 再生画面 2 2 1に表示されている素材に対して、 割り当てることができる。
ボリュームポタン 2 4 1乃至エフェク 卜表示ボタン 2 4 4の右側には、 特殊効 果トレイ 2 6 1が表示されている。 この特殊効果トレイ 2 6 1には、 タグ 2 7 1 一 1乃至 2 7 1— 4が表示されている。
タグ 2 7 1— 2が選択されると、 図 1 7に示されるように、 テキス トウィンド ゥが表示される。 このウィ ン ドウには、 編集対象とされている画像 3 6 1が表示 される。 フォントボタン 3 6 2は、 エフェク トを付与するテキス トのフォントを 選択するとき操作される。 テキス ト入力ウィン ドウ 3 6 3には、 ユーザがキーボ —ド 4を操作することで入力したテキス トが表示される。 選択ポ夕ンアイコン 3 6 4は、 テキス ト (文字列) に対して付加するエフェク トを選択するとき操作さ れる。 スクロールバー 3 6 5は、 選択ボタンアイコン 3 6 4をスクロールさせる とき操作される。 選択ボタンアイコン 3 6 4のうち、 所定のものをエフェク ト表示ポ夕ン 2 4 4 上にドラッグアン ド ド口ヅプすることで、 テキス ト入力ウインドウ 3 6 3にその 時入力表示されているテキス 卜に対して、 選択ボタンアイコン 3 6 4で選択した テキス トエフェク ト、 例えばテキス トアニメ一ションを付加することができる。 選択ボタンアイコン 3 6 4をエフェク ト表示ボタン 2 4 4にドラッグアンド ドロ ッブした後、 再生ポタン 2 3 1 を操作すると、 選択したテキス トエフェク トを付 加した圃像が、 再生画面 2 2 1に直ちに表示される。 このようにして、 ユーザは、 テキス トエフェク トをリアルタイムで確認することができる。
図 1 7の例においては、 「斜め合体」 のテキス トアニメーションが再生画面 2 2 1 に表示されている。
図 1 8は、 タグ 2 7 1— 3が選択された場合の表示例を表している。 この夕グ 2 7 1 - 3が選択されると、 同図に示すように、 エフェク トウィ ン ドウが表示さ れる。 このウィ ン ドウには、 編集対象とされている画像 3 8 1が表示されるとと もに、 その下方にアニメーションエフェク トを選択するための選択ポタンアイコ ン 3 6 2が表示される。 スクロ一ルバ一 3 6 3は、 選択ボタンアイコン 3 6 2を スクロールさせるとき操作される。
この場合にも、 選択ボタンアイコン 3 6 2のうち、 所定のものをエフェク ト表 示ボタン 2 4 4上にドラッグアン ド ドロヅブすることで、 所定のァ二メーシヨン エフェク トを選択することができる。 この選択を行った後、 再生ボタン 2 3 1が 操作されると、 再生画面 2 2 1にアニメーションエフェク トが付加された画像が リアルタイムで表示される。 図 1 8の例においては、 「ときめき」 のアニメ一シ ヨンエフェク トが表示されている。
図 1 9は、 タグ 2 7 1— 4が選択された場合の表示例を表している。 この場合、 同図に示すように、 トランジシヨンウィン ドウが表示される。 このウィンドウに は、 選択ポタンアイコン 3 9 1が表示され、 ユーザは、 複数の選択ボタンアイコ ン 3 9 1の中から所定のものを選択することができる。 この選択が行われた場合、 表示部 3 9 3にその選択されたトランジシヨンに対応する模式的な画像が表示さ れる。 スクロ一ルバ一 3 9 2が操作された場合、 選択ボタンアイコン 3 9 1がス クロールされる。 ユーザは、 所定の選択ポタンアイコン 3 9 1 を選択した後、 それを図 2 0に示 す画像トラック 3 0 1のトランジション表示部 3 0 1 Bに ドラッグアン ドドロヅ ブすることで、 その前後に隣接する画像表示部 3 0 1 Aに表示されている画像 (素材ク リ ヅプ) に対して トランジションを付加することができる。
例えば、 ワイプのトランジシヨンが設定された場合、 図 2 1 に示すように、 図 の左側に表示されている画像が徐々に右側に移動しながら、 次第に右側に表示さ れている画像を隠すようにして、 トランジションが行われる。
タグ 2 7 1 - 1が選択されると、 図 2 2に拡大して示されているように、 自動 編集のためのシヱ一力ウイ ン ドウが表示される。 このシヱ一カウィ ン ドウには選 択ボタン 2 8 1— 1乃至 2 8 1— 5が表示されている。 この選択ボタン 2 8 1— 1乃至 2 8 1一 5には、 それそれ、 所定のス ト一リのシナリオが予め対応されて いる。 各シナリオには、 それそれ予め設定された所定の音楽が対応されており、 その音楽は、 図 2 2の最も左側の選択ポ夕ン 2 8 1— 1に対応するものが最もテ ンポの遅いものとされ、 最も右側の選択ボタン 2 8 1— 5に対応するものが、 最 も速く激しいものとされている。 それらの間の選択ボタン 2 8 1— 2乃至 2 8 1 一 4に対応する音楽は、 それそれ、 その中間のテンポの音楽とされている。
具体的には、 選択ボタン 2 8 1— 1 にはアンビエン ト音楽 (環境音楽) が、 選 択ポタン 2 8 1— 2にはピアノ曲が、 選択ボタン 2 8 1— 3にはジャズ音楽が、 選択ボタン 2 8 1—4にはヒッブホッブ音楽が、 そして選択ボタン 2 8 1— 5に はテクノ調音楽が、 それそれ対応付けられている。
従って、 これらの音楽に対応して、 選択ボタン 2 8 1— 1に対応するシナリオ を構成するシーンの数は比較的少ないもの (シーンの変化数が少ないもの) とさ れている。 これに対して、 選択ボ夕ン 2 8 1— 5に対応されているシナリオは、 そのシーン数が多いもの (シーンの変化の回数が多いもの) とされている。 なお、 選択ボ夕ン 2 8 1— 1乃至 2 8 1— 5に対応しているシナリオの長さは、 全て同 一とされ、 この例においては、 3 0秒とされている。
ループボタン 2 8 2は、 自動編集により生成する 3 0秒のシナリオが、 繰り返 し再生されることを前提とするものとするとき、 ユーザにより操作される。 テキ ストシェイクボタン 2 8 3は、 テキス ト (文字) をシェイクする時、 ユーザによ り操作される。 このテキス トシェイクボタン 2 8 3が操作されると、 ウィンドウ 2 8 4が表示され、 ユーザは、 このウィ ンドウ 2 8 4に、 キ一ボード 4を操作す ることで、 編集対象とする文字列を入力することができる。 この例においては、 「頑張ろう」 、 「順子ちやん」 、 「ハッピー ! ! 」 の 3つの文字列が入力表示さ れている。
シェイクボタン 2 8 5は、 シェイク (自動編集) を開始するとき、 ユーザによ り操作される。
出力ボタン 3 0 4が操作されると、 図 2 3に示すようなウィ ン ドウ 4 0 1が表 示される。 ユーザは、 このウィ ン ドウ 4 0 1から所望の項目を選択する。 これに より、 出力トレィ 2 9 1に表示された (手動又は自動で編集された) 情報の保存 の形態を選択することができる。 そのうちの、 例えば、 「簡易保存する」 が選択 された場合、 使用された画像を含むファイルと、 その画像の編集情報が保存され る。 この編集情報とは、 例えば、 図 2 4に示すような情報である。 図 2 4におい て、 最も左側のフレーム数は、 そのシナリオを構成する各シーンの始まるタイ ミ ングを表している。 図 2 4の例においては、 シナリォが 1 0個のシーンで構成さ れており、 その最初のシーンは第 6 フ レームから始まることが表されている。 次のアニメーションエフェク トは、 そのシーンに対応されているアニメ一ショ ンエフェク トの処理を表している。 アニメーションエフェク トとしては、 2 0個 のエフェク 卜が用意されているため、 0乃至 1 9の値がそのエフェク トを表して おり、 その値の 9 9は、 アニメーションエフェク トが適用されていないことを表 している。 また、 その値の一 1は 2 0個のアニメーションエフェク トの中から、 ランダムに所定のものを選択することを表す。
その次のトランジシヨンは、 8個の トランジシヨンのうち、 いずれのトランジ シヨンであるのかを表している。 その値の 9 9は、 トランジシヨンが適用されて いないことを表す。 さらにその次の値は、 トランジシヨンのタイ ミングを表して いる。
色調エフェク トは、 0乃至 2 3の値が 2 4種類の色調のうちのいずれであるの かを表している。 その値の一 1は、 2 4種類の色調の中から所定のものをランダ ムに選択することを表している。 その値の 9 9は、 色調のエフェク トが適用され ないことを表している。
最後の値は、 黒マッ トを背景に使うか否かを表しており、 その値の 1は、 黒マ ッ トを背景として使用することを表し、 その値の 0は、 使用しないことを表して いる。
これに対して、 図 2 3に示す、 「通常のム一ビ一として保存する」 が選択され た場合、 各シーンに割り当てられた画像に、 図 2 4に示すような編集情報を実際 に適用して、 そのようなエフェク 卜が付与された画像データが実際に生成される (レンダリングされる) 。 従って、 この処理には、 「簡易保存する j の場合に比 ベて、 長い時間がかかる。 換言すれば、 「簡易保存する j を選択することで、 保 存時間を短い時間とすることができる。
次に、 図 2 5 A乃至図 2 5 Cのフローチャートを参照して、 シェ一力処理 (自 動編集処理) について説明する。 なお、 以下の処理は、 特に、 説明しない限り、 基本的にシェ一力プログラム 5 4 Dにより実行される。 最初にステップ S 1にお いて、 指定されたファイルを素材クリ ッブとして読み込み処理が実行される。 す なわち、 上述したように、 ユーザは、 キヤブチヤプログラム 5 4 Eを起動して、 C C Dビデオカメラ 2 3より取り込まれた画像デ一夕のファイルや、 マイクロホ ン 2 4から入力された音声データのファイルのうち、 所定のものを指定して、 読 み込みポタン 2 1 1 を操作することで、 そのファイルを自動編集処理の対象 (素 材クリッブ) として指定する。 この指定処理が行われたとき、 シェ一カブログラ ム 5 4 Dは、 指定されたファイルを素材ク リッブとして記憶し、 そのファイルの 最初のフレームの画像を処理し、 素材クリ ヅブ 2 1 2 として、 素材トレィ 2 0 1 に表示させる。 指定された情報が音声情報である場合、 素材クリ ップ 2 1 2 とし ては、 予め用意された音声情報であることを表す画像が表示される。
なお、 この時取り込まれる情報は、 C C Dビデオカメラ 2 3やマイクロホン 2 4から取り込まれたものだけでなく、 インタ一ネッ ト 8 0から、 モデム 7 5を介 して取り込まれたものや、 磁気ディスク 1 2 1、 光ディスク 1 2 2、 光磁気ディ スク 1 2 3、 半導体メモリ 1 2 4などより、 イ ンターフェースカード 1 1 2を介 して取り込まれたものとすることも可能である。
次に、 ステップ S 2に進み、 シエーカブログラム 5 4 Dは、 シェイク対象とし P
19 て、 テキス トが入力されていれば、 その入力されたテキス トを取り込む処理を実 行する。 すなわち、 ユーザは、 自動編集処理を行うとき、 タグ 2 7 1— 1を操作 して、 シェイカ一ウィ ンドウを表示させる (図 2 2参照) 。 そして、 テキス トシ エイクを行う場合、 ユーザは、 さらに、 テキス トシェイクボタン 2 8 3を操作す る。 これにより、 図 2 2に示すように、 ウィ ンドウ 2 8 4が表示される。 この時、 ユーザは、 キーボード 4を操作して、 シェイクすべきテキストを入力する。 シェ —カブログラム 5 4 Dはこのテキス トを取り込み、 ウィン ドウ 2 8 4に表示させ る。
また、 ユーザは、 5つのシェイカ一ボタン 2 8 1— 1乃至 2 8 1— 5から 1つ を指定する。 上述したように、 シエイカーボ夕ン 2 8 1— 1乃至 2 8 1— 5には、 それそれ所定のシナリオが予め対応されており、 このシェイカ一ボタン 2 8 1を 選択することで、 そのシナリオを選択することになる。 そこで、 シェ一カブログ ラム 5 4 Dは、 ステップ S 3において、 シェイカ一ポタン 2 8 1— 1乃至 2 8 1 一 5のうち、 所定のものが指定されたら、 それを記憶する処理を実行する。
例えば、 選択ポタン 2 8 1— 1には、 図 2 6 Aに示すようなシナリオが対応さ れている。 このシナリオは、 シーン 1乃至シーン 4の 4つのシーンにより構成さ れている。 シーン 1乃至シーン 4は、 それそれ時間 T 1乃至 T 4の長さを有して いる。 そして、 この例の場合、 シーン 1 には、 アニメーション効果が付加され、 シーン 2には、 モノクロの色調整処理が行われる。 そしてシーン 1 とシーン 2の 間には、 トランジシヨンが付加される。 さらにこのシナリオには、 音楽 M lが対 応されている。
その詳細は後述するが、 シェ一力プログラム 5 4 Dは、 素材トレィ 2 0 1に表 示された素材クリップの画像情報の中から所定のものをランダムに選択して、 シ —ン 1乃至シーン 4に割り当てる処理を実行する。 その結果、 この予め用意され たシナリオに沿った編集処理が、 シェ一カブログラム 5 4 Dにより、 自動的に行 われることになる。
図 2 6 Bは、 選択ポタン 2 8 1— 2に対応されているシナリオを表している。 このシナリオは、 シーン 1乃至シーン 5の 5つのシーンにより構成されており、 それそれのシーンの長さは、 T 1 1乃至 T 1 5とされている。 シーン 2にはセピ ァ色、 シーン 3にはランダム効果、 シーン 4とシーン 5の間にはトランジシヨン が付加されている。 そして、 音楽は、 M 2 とされている。
図示は省略するが、 このようなシナリォが選択ボタン 2 8 1— 3乃至 2 8 1— 5にも対応され、 予め用意されている。
ステップ S 4において、 シェ一カブログラム 5 4 Dは、 ループが指定されたら 記憶する処理を実行する。 すなわち、 ユーザは、 編集して得られたシナリオを連 続して繰り返し再生することを前提とするとき、 ループポタン 2 8 2を操作する この操作が行われたとき、 ステップ S 4において、 シェ一力プログラム 5 4 Dは、 それを記憶する。
例えば、 選択ボタン 2 8 1 - 1 に対応されているシナリオは、 基本的に図 2 6 Aに示すように構成されているのであるが、 ループボタン 2 8 2が操作されない 場合のシーンは、 より正確には、 例えば図 2 7 Aに示すように構成されている。 このとき、 シーンは、 連続して繰り返し再生しないことを前提とする。 すなわち、 シーン 1 ( SC 1 ) の冒頭には、 フェードインする部分 SC 1 , が形成されており、 最後のシーン 4 ( SC 4 ) には、 フェードアウトする部分 SC 4, が形成されている < また、 音楽 M lにも、 その最後には、 無音部分 M l , が形成されている。
従って、 図 2 7 Aに示すように構成されているシナリオに基づいて編集された 情報を、 敢えて連続して繰り返し再生すると、 図 2 7 Bに示すようになる。 すな わち、 フヱ一ドインの部分 SC 1 ' により再生が開始され、 シーン 1、 シーン 2、 シーン 3、 シーン 4が再生された後、 フヱ一ドアウ トの部分 SC 4, により、 1回 目の再生が終了する。 そしてそれに続いて、 再び、 フェードイ ンのシーン SC 1, の画像の再生が開始され、 シーン 1、 シーン 2、 シーン 3、 シーン 4と再生され、 再びフェードアウ ト部分 SC 4, が表示される。 音楽も、 1回目の再生と 2回目の 再生の境界部分 Aにおいては、 無音部分 M 1, が再生される。 従って、 視聴者は、 境界部分 Aにおいて、 一旦再生が終了したことを容易に認識することができる。 これに対して、 選択ポタン 2 8 1— 1 が選択された後、 さらにループボタン 2 8 2も操作された場合には、 図 2 7 Cに示すようなシナリオが選択される。
このシナリオは、 シーン 1乃至シーン 4の 4つのシーンにより構成されている が、 シーン 1の先頭と、 シーン 4の最後は、 シーン 4に続けて、 シーン 1が再生 されたとしても、 その変化が、 例えば、 シーン 1 とシーン 2との切り替え、 ある いはシーン 2とシーン 3の切り替え、 さらには、 シーン 3とシーン 4の切り替え のタイ ミングと同様に、 シーンは変わるが、 1つのシナリオが終了したと認識さ れないような構成とされている。 すなわち、 単に、 画面が切り替えられたに過ぎ ないと認識され得るような構成とされている。
同様に、 音楽 M 1の先頭から終端部までの再生に続けて、 再び音楽 M lを連続 して再生したとしても、 その部分において、 シーンが終了したと認識されないよ うな構成とされている。
その結果、 図 2 7 Dに示すように、 シーン 1乃至シーン 4に続けて、 再びシー ン 1乃至シーン 4が連続して再生されたとしても、 その境界部分 Aにおいて、 視 聴者が 1回目の再生が終了し、 2回目の再生が開始されたと、 直感的に認識する 可能性は少ない。
このように、 シェ一カブログラム 5 4 Dは、 選択ボタン 2 8 1— 1乃至 2 8 1 — 5に対応して、 連続して繰り返し再生されないことを前提とするシナリオと、 連続して繰り返し再生することを前提とするシナリォの 2つのシナリオを有して いる。 そして、 ループボタン 2 8 2が操作されない場合、 前者が選択され、 操作 された場合、 後者が選択される。
次に、 ステップ S 5において、 シェ一力プログラム 5 4 Dはシェイクポタン 2 8 5が操作されたか否かを判定し、 操作されていない場合、 ステップ S 1 に戻り、 それ以降の処理を繰り返し実行する。 シエイクポ夕ン 2 8 5が操作されたと判定 された場合、 ステップ S 6に進み、 シェ一カブログラム 5 4 Dは、 ループが指定 されているか否か、 すなわち、 ループポタン 2 8 2が操作されたか否かを判定す る。 ループが指定されていると判定された場合、 ステップ S 7に進み、 シェ一力 プログラム 5 4 Dは、 選択ポ夕ン 2 8 1— 1乃至 2 8 1— 5のうち、 操作された ものに対応するループ用のシナリオを選択する。 これに対して、 ステップ S 6に おいて、 ループが指定されていないと判定された場合、 ステップ S 8において、 シェ一カブログラム 5 4 Dは、 選択ボタン 2 8 1一 1乃至 2 8 1— 5のうち、 選 択されたものに対応する非ループ用のシナリオを選択する。
ステヅブ S 7、 又はステップ S 8の処理の後、 ステップ S 9に進み、 シェ一力 プログラム 5 4 Dは、 素材トレィ 2 0 1に表示されている素材クリ ヅプ 2 1 2の それそれに、 I D (識別番号) を割り当てる。 そしてステップ S 1 0において、 シェ一カブログラム 5 4 Dは、 素材ク リップのうちの 1つを乱数で選択する。 換 言すれば、 ステップ S 9の処理で割り当てた I Dの中から 1つの I Dをランダム に選択することで、 1つの素材クリッブが選択される。
ステップ S 1 1において、 シェ一力プログラム 5 4 Dは、 ステップ S 1 0の処 理で選択された素材クリ ヅプをステップ S 7、 又はステップ S 8の処理で選択さ れたシナリオ中の 1つのシーン (今の場合、 最初のシーン) に対応させる。
ステップ S 1 2において、 全てのシーンに対する素材クリッブの対応付け処理 が終了したか否かが判定され、 まだ終了していない場合、 ステップ S 1 0に戻り、 それ以降の処理が繰り返し実行される。 このようにして、 例えば、 図 2 6 Aに示 すシーン 1、 シーン 2、 シーン 3、 シーン 4に対して、 それそれ所定の素材クリ ッブが対応付けされる。
ステヅブ S 1 2において、 全てのシーンに対する対応付け処理が終了したと判 定された場合、 ステップ S 1 3に進み、 シェ一カブログラム 5 4 Dは、 1つのシ —ンを選択する。 例えば、 ここで、 先頭のシーンが選択される。 ステップ S 1 4 において、 シェ一カブログラム 5 4 Dは、 ステップ S 1 3で選択されたシーンの 長さが、 そのシーンに対応付けられた素材クリ ッブの長さより短いか否かを判定 する。 選択されたシーンの長さが対応づけられた素材ク リ ップの長さより短い場 合には、 ステヅプ S 1 5に進み、 シェ一力プログラム 5 4 Dは、 素材クリヅブの 中のシーンに対応させる部分を乱数で决定する。 例えば、 素材クリ ッブの長さが 5秒であり、 対応するシーンの長さが 1秒である場合、 5秒間のうちの、 どの 1 秒間の画像をそのシーンに対応させるかが、 1から 5までの数字を乱数で発生さ せて決定される。
一方、 ステップ S 1 4において、 選択されたシーンの長さが対応づけられた素 材クリップの長さより短くないと判定された場合、 ステップ S 1 6に進み、 シェ —カブログラム 5 4 Dは、 素材ク リ ッブの長さをシーンの長さに合うように延長 する処理を実行する。 例えば、 素材ク リ ッブの長さが 1秒であり、 シーンの長さ が 5秒であるような場合、 素材クリ ッブの長さを 5倍に延長することで ( 1 / 5 倍の速度で再生することで) 、 すなわち、 スローモーション再生させることで、 素材クリ ッブの長さとシーンの長さが対応される。
ステップ S 1 5、 又はステップ S 1 6の処理の後、 ステップ S 1 7に進み、 シ ェ一カブログラム 5 4 Dは、 そのシナリオでは、 そのシーンにエフェク トが指定 されているか否かを判定する。 例えば、 今、 処理対象とされているシーンが、 図 2 8 Aにおけるシーン 1である場合、 このシーン 1には、 アニメーション効果が 指定されている。 このような場合、 ステップ S 1 8に進み、 シェ一カブログラム 5 4 Dは、 エフェク トが決定されているか否かを判定する。 すなわちエフェク ト の指定には、 図 2 6 Aのシーン 1における場合のように、 エフェク トがアニメ一 シヨン効果というように、 既に決定されている場合と、 例えば、 図 2 6 Bのシー ン 3における場合のように、 ランダム効果として指定されている場合がある。 ラ ンダム効果の場合、 エフェク トを付加することは決められているが、 どのエフェ ク トを適用するのかはまだ決定されていない。 したがって、 このような場合には、 ステップ S 1 9に進み、 シェ一力プログラム 5 4 Dは、 予め用意されている、 例 えば、 2 4個のエフェク トの中から、 乱数を発生させ、 1つのエフェク トを決定 する。
ステップ S 1 8で、 エフェク トが既に決定されていると判定された場合、 また はステップ S 1 9で、 エフェク トが決定された場合、 ステップ S 2 0に進み、 シ ェ一カブログラム 5 4 Dは、 シーンに対応された素材クリッブに対して、 決定さ れたエフェク トを対応させる。
ステップ S 1 7において、 シーンにエフェク トが指定されていないと判定され た場合、 ステップ S 1 8乃至ステップ S 2 0の処理は不要であるので省略される c 次にステップ S 2 1において、 シェ一カブログラム 5 4 Dは、 トランジシヨン の指定がなされているか否かを判定する。 トランジションの指定が成されている 場合には、 ステップ S 2 2に進み、 シェ一カブログラム 5 4 Dは、 次の素材クリ ッブとの間にトランジシヨンを設定する。 これにより、 例えば、 現在処理対象と されているシーンと次に処理対象とされているシーンの画面が切り替えられる時、 例えば、 図 2 1に示すようなワイプ効果が付与されて、 画面が切り替えられるこ とになる。 ステヅブ S 2 1 において、 トランジシヨンの指定がないと判定された場合、 ス テツブ S 2 2の処理は、 不要であるので、 スキップされる。
ステップ S 2 3において、 シェ一力プログラム 5 4 Dは、 テキストが取り込ま れているか否かを判定する。 すなわち、 上述したように、 テキス 卜シェイクを行 う場合には、 ステヅプ S 2において、 その対象とされるテキス トが取り込まれて いる。 この場合、 ステップ S 2 4に進み、 シェ一カブログラム 5 4 Dは、 今、 処 理対象とされているシーンにおいて、 テキス トをシェイクするか否かをランダム に決定する。 ステップ S 2 5において、 シエーカブログラム 5 4 Dは、 テキスト シエイクをすると決定されたか否かを判定し、 テキス トシェイクをすると決定さ れたと判定された場合、 ステップ S 2 6に進み、 取り込まれているテキス トの中 から 1つのテキス トをランダムに選択する。 例えば、 図 2 2に示すように、 3つ のテキス トが取り込まれている場合、 そのうちの 1つのテキス トが今処理対象と されているシーンに対応されるものとして選択される。
次に、 ステップ S 2 7において、 シェ一カブログラム 5 4 Dは、 テキス トの挿 入位置をランダムに決定する。 この例の場合、 テキス トの挿入位置は、 画面の中 央、 右上、 左上、 左下、 右下の 5つとされており、 この 5つの位置から、 1つの 位置がランダムに決定される。
ステップ S 2 5において、 テキス トシェイクをしないと判定された場合、 ステ ッブ S 2 6 とステップ S 2 7の処理はスキップされる。 また、 ステップ S 2 3に おいて、 テキス トが取り込まれていないと判定された場合には、 ステップ S 2 4 乃至ステップ S 2 7の処理はスキヅブされる。
次にステップ S 2 8において、 全てのシーンに対する処理が終了したか否かが 判定され、 まだ全てのシーンに対する処理が終了していない場合には、 ステヅプ S 1 3に戻り、 次のシーンに対して、 上述した場合と同様の処理が実行される。 ステップ S 2 8において、 全てのシーンに対する処理が終了したと判定された 場合、 ステヅプ S 2 9に進み、 シェ一カブログラム 5 4 Dは、 編集したシナリオ に対応する画像を出力トレイ 2 9 1の画像トラック 3 0 1に表示させる。 この時、 画像トラック 3 0 1の画像表示部 3 0 1 Aには、 各シーンの先頭のフレームの画 像が表示され、 トランジシヨン表示部 3 0 1 Bには、 トランジシヨンが存在する 場合には、 そのトランジシヨンに対応する画像 (図 1 9参照) が表示される。 以上の処理を、 模式的に説明すると、 図 2 8に示すようになる。
すなわち、 この例の場合、 素材クリ ップとして、 素材クリップ CL 1乃至 CL 5が、 指定されている。 また、 ユーザが指定した選択ボタン 2 8 1の操作により、 1つ のシナリオが決定されている。 このシナリオは、 この例の場合、 シーン SC 1乃至 SCnの n個のシーンで構成されている。 このうちシーン SC 3は、 セピア色の色調整 が行われ、 シーン SCく SUB>n- 1く/ SUB>には、 ランダム効果が付与され、 シーン SCく S UB>n</SUB>は、 セピア色の色調整が行われる。 また、 シーン SC 2 と SC 3の間、 シ —ン SC 3と SC 4の間、 シーン SCく SUB>n- lく/ SUB>とシーン SCく SUB>n</SUB>の間には、 それそれ、 トランジシヨンが形成される。 シーン SC 1の長さは 2秒、 シーン SC 2 の長さは 2 . 2秒、 シーン SC 3の長さは 4 . 0秒、 シーン SCく SUB>n- 3く/ SUB>の長 さは 1秒、 シーン SCく SUB>n_lく/ SUB>の長さは 5秒、 シーン SCく SUB>n</SUB>の長さ は 3秒とされている。 また、 このシーンに対応する音楽も予め決定されている。 これらは既に、 シエーカブログラム 5 4 Dにより予め用意されているものである。 これに対して、 シェ一力プログラム 5 4 Dは、 5個の素材ク リ ッブ CL 1乃至 CL 5の中から所定のものをランダムに選択し、 各シーン SC 1乃至 SCく SUB>n</SUB>に 割り当てる。 そして、 例えば、 シーン SCく SUB>n- 3く/ SUB>に素材クリ ッブ CL 5が割 り当てられた場合、 シーン SCく SUB>n-3く /SUB>の長さは 1秒であるのに対して、 素 材クリップ CL 5の長さは、 1秒以上存在する。 そこで、 この場合、 素材クリ ッブ CL 5の再生時刻が t 1から t 4までの間のうちの、 ランダムに選択された時刻 t 2から t 3までの間の 1秒の長さの部分がシーン SCく SUB>n-3く/ SUB>に割り当てら れる。
このようにして、 ユーザは素材クリ ッブを指定するだけで、 自動的に、 所定の 編集処理された画像情報を得ることができる。 素材クリ ップの割り当ては、 ラン ダムに決定されるため、 同一の素材クリ ッブを選択したとしても、 基本的には異 なる編集結果が得られることになる。
出力トレィ 2 9 1に編集結果が表示された状態において、 再生ボタン 2 3 1が 操作されると、 シェ一力プログラム 5 4 Dは、 その編集されたシナリオ (予め用 意したシナリオを修正したもの) に対応する画像を再生画面 2 2 1 に表示させる。 ユーザは、 これにより、 編集結果を確認することができる。
再生画面 2 2 1で確認を行った後、 ユーザが出力ボタン 3 0 4を操作すると、 図 2 3に示すようなウィ ン ドウ 4 0 1が表示される。 ユーザは、 このウィンドウ 4 0 1に表示された項目の中から、 所定の項目を選択することで、 編集の結果得 られた情報を所定の形式で保存することができる。
「通常のムービーとして保存する」 が選択された場合、 シエーカブログラム 5 4 Dは、 選択された素材ク リップに編集情報を実際に適用して、 レンダリング処 理を実行する。 その結果、 実際に、 例えば、 所定の効果が付与された画像が形成 され、 その画像が指定された記憶媒体、 例えば、 ハードディスク 6 7に記憶され る。
しかしながら、 レンダリング処理には、 比較的長い時間がかかる。 これに対し て、 「簡易保存する」 が選択された場合には、 実際のレンダリング処理は実行さ れず、 編集対象として選択された素材クリ ッブのファイルと編集情報、 例えば図 2 4に示すような情報が保存される。 したがって、 レンダリング処理する場合に 比べて、 保存処理を短い時間で完了することが可能となる。
なお、 図 2 5 A乃至図 2 5 Cのフローチャートに示す処理においても、 実際に レンダリング処理が行われるのではなく、 図 2 4に示すような編集情報が作成さ れるだけの処理である。 その結果、 例えば、 3 0秒の長さのシナリオをせいぜい 1 0秒程度の短い時間で編集することが可能となる。
上記した処理を実行するプログラムは、 図 7に示すように、 パーソナルコンビ ュ一タ 1 に内蔵されている記録媒体としてのハ一ドディスク 6 7や半導体メモリ としての R O M 7 0に予めインス トールした状態でユーザに提供することができ る。
あるいはまた、 プログラムは、 フロッピ一ディスクなどの磁気ディスク 1 2 1、 C D - R O M ( Compact D isk-Read Only Di sk) などの光ディスク 1 2 2、 光磁気 ディスク 1 2 3、 半導体メモリ 1 2 4などの記録媒体に、 一時的あるいは永続的 に格納してパヅケージソフ トウエアとして提供することができる。
さらに、 プログラムは、 ダウンロードサイ トから、 デジタル衛星放送用の人工 衛星を介して、 パーソナルコンビュ一夕 1に無線で転送したり、 口一カルエリア ネッ トワーク、 イン夕一ネッ トといったネヅ トワークを介して、 パーソナルコン ビュ一タ 1 に有線で転送し、 パーソナルコンピュータ 1において、 内蔵するハー ドディスク 6 7などに格納させることができる。
本発明において、 媒体とは、 上述した全ての媒体を含む広義の概念を意味する ものである。
また、 本発明において、 媒体により提供されるプログラムを記述するステップ は、 記載された順序に沿って時系列的に行われる処理はもちろん、 必ずしも時系 列的に処理されなく とも、 並列的あるいは個別に実行される処理をも含むもので ある。
なお、 上述した説明において、 システムとは、 複数の装置により構成される装 置全体を表すものである。 産業上の利用可能性 本発明は、 画像情報のうち、 所定のものを選択し、 シーンに対応させるように したので、 迅速且つ簡単に、 編集処理を行うことが可能となる。

Claims

請求の範囲
1 . 複数のシーンで構成されるシナリォデ一夕を記憶する記憶手段と、
上記記憶手段に記憶されたシナリォデータを構成する上記複数のシーン各々に 編集対象である複数の画像をそれそれ任意に対応させる対応付け手段とを備える ことを特徴とする情報処理装置。
2 . 上記複数のシーンは、 それそれ異なる所定の長さであることを特徴とする請 求の範囲第 1項記載の情報処理装置。
3 . さらに、 上記シーンの長さに合わせて、 上記対応付け手段で対応付けされた 上記画像を修正する修正手段を備えることを特徴とする請求の範囲第 1項記載の 情報処理装置。
. さらに、 上記シナリオデータに基づいて、 上記対応付け手段で対応付けされ た複数の上記画像を連続して再生する再生手段を備えることを特徴とする請求の 範囲第 3項記載の情報処理装置。
5 . 上記再生手段は、 上記シーンに対応付けされた所定の特殊効果情報に基づい て、 複数の上記画像に上記特殊効果情報を適用して再生することを特徴とする請 求の範囲第 4項記載の情報処理装置。
6 . 上記シーンに対して複数の特殊効果情報の中から対応付ける特殊効果情報を 任意に決定する決定手段をさらに備え、
上記再生手段は、 上記決定手段の決定結果に基づいて、 複数の上記画像に上記 特殊効果情報を適用して再生することを特徴とする請求の範囲第 4項記載の情報 処理装置。
7 . 上記対応付け手段は、 複数のシナリオデ一夕の中から選択されたシナリオデ —夕の上記複数のシーンに対して、 編集対象である複数の上記画像を任意に対応 付けることを特徴とする請求の範囲第 1項記載の情報処理装置。
8 . さらに、 編集対象となる画像を登録する登録手段と、
編集対象である複数の上記画像に関する情報を一覧表示する画像情報表示手段 と、
複数の上記シーンの順番に従って、 上記対応付け手段で対応付けられた複数の 上記画像に関する情報を並べて表示する出力情報表示手段とをさらに備えること を特徴とする請求の範囲第 1項記載の情報処理装置。
9 . 上記対応付け手段は、 繰り返し連続再生を前提とする第 1のシナリオと、 繰 り返し再生を前提としない第 2のシナリオのうち、 ユーザからの指令に対応する シナリオを用いて対応付けを行うことを特徴とする請求の範囲第 7項記載の情報 処理装置。
1 0 . シナリオデータを構成する複数のシーンの各々に対して編集対象である複 数の画像を任意に対応付ける対応付け処理ステップと、
上記シーン各々の長さに合わせて、 対応付けされた上記画像各々を修正する修 正処理ステップと、
上記シナリオデータに基づいて、 複数の上記画像を連続して再生する再生処理 ステツブとを含むことを特徴とする情報処理方法。
1 1 . さらに、 上記シーンに対して複数の特殊効果情報の中から対応付ける特殊 効果情報を任意に決定する決定処理ステツプを含むことを特徴とする請求の範囲 第 1 0項記載の情報処理方法。
1 2 . さらに、 編集対象である複数の上記画像に関する情報を一覧表示する画像 情報表示処理ステツブと、
複数の上記シーンの順番に従って、 上記対応付け処理ステツプで対応付けられ た複数の上記画像に関する情報を並べて表示する出力情報表示処理ステツプとを 含むことを特徴とする請求の範囲第 1 0項記載の情報処理方法。
1 3 . コンピュータが読み取り可能なプログラムが格納されているプログラム格 納媒体において、
上記プログラムは、
シナリオデータを構成する複数のシーンの各々に対して編集対象である複数の画 像を任意に対応付ける対応付け処理ステツブと、
上記シーン各々の長さに合わせて、 対応付けされた上記画像各々を修正する修 正処理ステップと、
上記シナリオデータに基づいて、 複数の上記画像を連続して再生する再生処理 ステツブとを含むことを特徴とするプログラム格納媒体。
1 4 . さらに、 上記シーンに対して複数の特殊効果情報の中から対応付ける特殊 効果情報を任意に決定する決定処理ステツプをさらに含むことを特徴とする請求 の範囲第 1 0項記載のコンピュータが読み取り可能なプログラムが格納されてい るプログラム格納媒体。
1 5 . さらに、 編集対象である複数の上記画像に関する情報を一覧表示する画像 情報表示処理ステップと、
複数の上記シーンの順番に従って、 上記対応付け処理ステップで対応付けられ た複数の上記画像に関する情報を並べて表示する出力情報表示処理ステップとを さらに含むことを特徴とする請求の範囲第 1 3項記載のコンビュ一夕が読み取り 可能なプログラムが格納されているプログラム格納媒体。
補正書の請求の範囲
[ 2 0 0 1年 6月 1 2曰 (1 2 . 0 6 . 0 1 ) 国際事務局受理:出願当初の請求の範囲 1 1 5は新しい請求の範囲 1— 1 9に置き換えられた。 (3頁) ]
1 . (補正後) 自動編集処理の対象となる素材データを指定する指定手段と、 複数のシーンで構成され、 各シーンの始まる夕イ ミング情報を有する自動編集 用のシナリォデータを記憶するシナリオデ一夕記憶手段と、
上記複数のシーン各々に編集対象である複数の上記素材データをランダムに対 応させる素材データ対応付け手段と
を備える情報処理装置。
2 . (補正後) 上記複数のシーンは、 それそれ異なる所定の長さである
ことを特徴とする請求の範囲第 1項記載の処理装置。
3 . (補正後) 上記シーンの各々の長さに合わせて、 上記素材データ対応付け手 段で対応付けされた上記素材データを夫々修正する修正手段と
を備えることを特徴とする請求の範囲第 1項記載の情報処理装置。
4 . (補正後) 上記シーンの各々の長さに合わせて、 上記素材データ対応付け手 段で対応付けされた上記素材データを夫々修正する修正手段と
を備えることを特徴とする請求の範囲第 2項記載の情報処理装置。
5 . (補正後) 上記シナリオデータ再生時に重ねて表示させる文字列を作成登録 する手段と、
上記登録された文字列を上記複数のシーンの何れかにランダムに対応付ける文 字列対応付け手段と
を備えることを特徴とする請求の範囲第 1項記載の情報処理装置。
6 . (補正後) 上記文字列の表示位置を予め定められた複数の表示位置からラン ダムに選択し設定する表示位置設定手段と
を備えることを特徴とする請求の範囲第 5項記載の情報処理装置。
7 . (補正後) 上記シナリオデータ記憶手段は、 シナリオデータを複数記憶し、 上記複数のシナリォデータの中から何れかを選択可能とするシナリォデータ選 択手段と
を備えることを特徴とする請求の範囲第 2項記載の情報処理装置。
8 . (補正後) シーンに付加するエフェク ト情報を記憶するエフェク ト記憶手段
辅正された用紙 (条約第 19条) と、
上記エフェク トを上記複数のシーンの何れかにランダムに対応付けるエフェク ト対応付け手段と
を特徴とする請求の範囲第 1項記載の情報処理装置。
9 . (補正後) 上記シナリオデータに基づいて、 上記対応付け手段で対応付けさ れた複数の上記素材データを連続して再生する再生手段と
を備えることを特徴とする請求の範囲第 1項記載の情報処理装置。
1 0 . (補正後) 上記素材デ一夕は、 動画デ一夕であることを特徴とする請求の 範囲第 9項記載の情報処理装置。
1 1 . (補正後) 上記素材データは、 静止画像データであることを特徴とする請 求の範囲第 9項記載の情報処理装置。
1 2 . (補正後) 上記素材データは、 音声データであることを特徴とする請求の 範囲第 9項記載の情報処理装置。
1 3 . (補正後) 上記素材データに関する画像を一覧表示する素材データ表示処 理手段と、
上記シナリォデ一夕の各シーンに対応付けられた順番で素材データに関する上 記画像を並べて表示する出力情報表示処理手段と、
を備えることを特徴とする請求の範囲第 1項記載の情報処理装置。
1 4 . (補正後) 複数のシーンで構成され各シーンの始まるタイ ミング情報を有 する自動編集用のシナリォデータの前記シーン各々に、 自動編集処理の対象とな る素材データをランダムに対応させる素材データ対応付け処理ステップと、 上記シーン各々の長さに合わせて、 対応付けされた上記素材データを修正する 修正ステツプと
上記シナリオデ一夕に基づいて、 複数の上記素材データを連続して再生する再 生処理ステツブと
を備える情報処理方法。
1 5 . (補正後) 挿入する文字列を上記複数のシーンの何れかに対応してラング ムに対応付ける文字列対応付け処理ステツブを更に備え、
上記再生処理ステツプは、 上記文字列が対応付けられたシーンの上記素材デ一
補正された用紙 (条約第 19条) 夕の再生時に上記文字列を重ねて表示することを備えることを特徴とする請求の 範囲第 1 4項記載の情報処理方法。
1 6 . (追加) 上記素材データに関する画像を一覧表示する素材データ表示処理 ステップと、
上記シナリォデータの各シーンに対応付けられた順番で素材データに関する上 記画像を並べて表示する出力情報表示処理ステップと
を備えることを特徴とする請求の範囲第 1 4項記載の情報処理方法。
1 7 . (追加) 複数のシーンで構成され各シーンの始まるタイ ミ ング情報を有す る自動編集用のシナリォデータの前記シーン各々に、 自動編集処理の対象となる 素材データをランダムに対応させる素材データ対応付け処理ステップと、 上記シーン各々の長さに合わせて、 対応付けされた上記素材データを修正する 修正処理ステップと、
上記シナリォデータに基づいて、 複数の上記素材データを連続して再生する再 生処理ステップと、
を含むことを特徴とするコンビユー夕が読み取り可能なプログラムが格納され ているプログラム格納媒体。
1 8 . (追加) 挿入する文字列を上記複数のシーンの何れかに対応してランダム に対応付ける文字列対応付け処理ステツブを更に備え、
上記再生処理ステツブは、 上記文字列が対応付けられたシーンの上記素材デー 夕の再生時に上記文字列を重ねて表示することを備えることを特徴とする請求の 範囲第 1 7項記載のコンピュータが読み取り可能なプログラムが格納されている プログラム格納媒体。
1 9 . (追加) 上記素材データに関する画像を一覧表示する素材データ表示処理 ステップと、
上記シナリォデータの各シーンに対応付けられた順番で素材データに関する上 記画像を並べて表示する出力情報表示処理ステツブと
を備えることを特徴とする請求の範囲第 1 7項記載のコンピュータが読み取り 可能なプログラムが格納されているプログラム格納媒体。
補正された用紙 (条約第 19条)
PCT/JP2001/000420 2000-01-26 2001-01-23 Procede et systeme informatique et support d'enregistrement de programmes WO2001056281A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US09/937,463 US7085995B2 (en) 2000-01-26 2001-01-23 Information processing apparatus and processing method and program storage medium
DE60139527T DE60139527D1 (de) 2000-01-26 2001-01-23 Informationsverarbeitungsgerät, verfahren und programmspeichermedium
EP01901518A EP1168838B1 (en) 2000-01-26 2001-01-23 Information processing device and processing method and program storing medium
AU27092/01A AU781859B2 (en) 2000-01-26 2001-01-23 Information processing device and processing method and program storing medium
US11/488,570 US7797620B2 (en) 2000-01-26 2006-07-18 Information processing apparatus and processing method, and program storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000016613 2000-01-26
JP2000-016613 2000-01-26

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US09/937,463 A-371-Of-International US7085995B2 (en) 2000-01-26 2001-01-23 Information processing apparatus and processing method and program storage medium
US11/488,570 Continuation US7797620B2 (en) 2000-01-26 2006-07-18 Information processing apparatus and processing method, and program storage medium

Publications (1)

Publication Number Publication Date
WO2001056281A1 true WO2001056281A1 (fr) 2001-08-02

Family

ID=18543725

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/000420 WO2001056281A1 (fr) 2000-01-26 2001-01-23 Procede et systeme informatique et support d'enregistrement de programmes

Country Status (7)

Country Link
US (1) US7797620B2 (ja)
EP (1) EP1168838B1 (ja)
KR (1) KR100752455B1 (ja)
CN (2) CN101383909B (ja)
AU (1) AU781859B2 (ja)
DE (1) DE60139527D1 (ja)
WO (1) WO2001056281A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2424351A (en) * 2005-03-16 2006-09-20 John W Hannay & Co Ltd Polymorphic Media - Creation and Presentation

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2370709A (en) * 2000-12-28 2002-07-03 Nokia Mobile Phones Ltd Displaying an image and associated visual effect
ATE542366T1 (de) * 2002-12-10 2012-02-15 Sony Ericsson Mobile Comm Ab Effektserzeugung für bildern
AU2003293771A1 (en) * 2002-12-10 2004-06-30 Sony Ericsson Mobile Communications Ab Creating effects for images
US7352952B2 (en) * 2003-10-16 2008-04-01 Magix Ag System and method for improved video editing
US20050132293A1 (en) * 2003-12-10 2005-06-16 Magix Ag System and method of multimedia content editing
JP4165403B2 (ja) * 2004-01-13 2008-10-15 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP5055684B2 (ja) * 2004-05-13 2012-10-24 ソニー株式会社 画像フォルダ切替装置
US20060093309A1 (en) * 2004-10-05 2006-05-04 Magix Ag System and method for creating a photo movie
US20090297120A1 (en) * 2006-09-20 2009-12-03 Claudio Ingrosso Methods an apparatus for creation and presentation of polymorphic media
US20090297121A1 (en) * 2006-09-20 2009-12-03 Claudio Ingrosso Methods and apparatus for creation, distribution and presentation of polymorphic media
WO2008035022A1 (en) * 2006-09-20 2008-03-27 John W Hannay & Company Limited Methods and apparatus for creation, distribution and presentation of polymorphic media
US8423088B2 (en) 2009-07-22 2013-04-16 Microsoft Corporation Aggregated, interactive communication timeline
CN106020604A (zh) * 2016-05-18 2016-10-12 北京金山安全软件有限公司 一种切换文件夹的方法、装置及电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0746462A (ja) * 1992-04-03 1995-02-14 Adobe Syst Inc 映像プログラムを編集する方法と装置
JPH09146918A (ja) * 1995-11-20 1997-06-06 Fujitsu Ltd マルチメディア情報の管理方法及び装置
JPH09270992A (ja) * 1996-04-01 1997-10-14 Olympus Optical Co Ltd 画像編集装置
JPH10200814A (ja) * 1996-11-15 1998-07-31 Hitachi Denshi Ltd 画像編集方法及び画像編集装置並びにコンピュータに画像編集処理動作を実行させるためのプログラムを記録した媒体
JPH10248048A (ja) * 1997-03-05 1998-09-14 Sony Corp 編集装置及び編集方法
JPH11146333A (ja) * 1997-11-04 1999-05-28 Matsushita Electric Ind Co Ltd 動画像編集装置
JP2000050204A (ja) * 1998-05-29 2000-02-18 Hitachi Ltd 映像表示編集処理方法および装置並びに記録媒体
JP2000149045A (ja) * 1998-11-05 2000-05-30 Matsushita Electric Ind Co Ltd タイトル情報の編集及び再生方法と編集装置

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5166804A (en) * 1987-07-04 1992-11-24 Canon Kabushiki Kaisha Reproduction apparatus designating audio and/or video signals to be reproduced
JP2736070B2 (ja) 1988-05-30 1998-04-02 日本放送協会 静止画ファイル編集装置
DE69028940T2 (de) * 1989-03-28 1997-02-20 Matsushita Electric Ind Co Ltd Gerät und Verfahren zur Datenaufbereitung
CA2081762C (en) * 1991-12-05 2002-08-13 Henry D. Hendrix Method and apparatus to improve a video signal
GB2266037B (en) * 1992-03-13 1996-02-14 Quantel Ltd An electronic video processing system
JPH0778804B2 (ja) * 1992-05-28 1995-08-23 日本アイ・ビー・エム株式会社 シーン情報入力システムおよび方法
JP3332166B2 (ja) 1992-09-30 2002-10-07 株式会社日立製作所 動画像の検索装置
JP2548497B2 (ja) 1992-10-09 1996-10-30 松下電器産業株式会社 映像編集装置
GB2273220B (en) * 1992-12-07 1997-01-08 Quantel Ltd A video processing system
US5884028A (en) * 1994-07-29 1999-03-16 International Business Machines Corporation System for the management of multiple time-critical data streams
JP3227070B2 (ja) 1994-11-30 2001-11-12 アルパイン株式会社 車載用ナビゲーション装置
US5659790A (en) * 1995-02-23 1997-08-19 International Business Machines Corporation System and method for globally scheduling multimedia stories
JP2720807B2 (ja) * 1995-02-27 1998-03-04 日本電気株式会社 シナリオ編集装置
US5717438A (en) * 1995-08-25 1998-02-10 International Business Machines Corporation Multimedia document using time box diagrams
JPH0993588A (ja) 1995-09-28 1997-04-04 Toshiba Corp 動画像処理方法
US5966121A (en) * 1995-10-12 1999-10-12 Andersen Consulting Llp Interactive hypervideo editing system and interface
JP2836550B2 (ja) * 1995-11-14 1998-12-14 日本電気株式会社 シナリオ編集装置
GB2311677B (en) * 1996-03-27 2000-06-28 Sony Uk Ltd Script editor
US6215910B1 (en) * 1996-03-28 2001-04-10 Microsoft Corporation Table-based compression with embedded coding
US5801685A (en) * 1996-04-08 1998-09-01 Tektronix, Inc. Automatic editing of recorded video elements sychronized with a script text read or displayed
US6161115A (en) * 1996-04-12 2000-12-12 Avid Technology, Inc. Media editing system with improved effect management
US6628303B1 (en) * 1996-07-29 2003-09-30 Avid Technology, Inc. Graphical user interface for a motion video planning and editing system for a computer
US6154600A (en) * 1996-08-06 2000-11-28 Applied Magic, Inc. Media editor for non-linear editing system
JP3219027B2 (ja) * 1996-08-28 2001-10-15 日本電気株式会社 シナリオ編集装置
JPH1074092A (ja) * 1996-08-30 1998-03-17 Yamaha Corp カラオケ装置
GB2317292B (en) * 1996-09-12 2000-04-19 Discreet Logic Inc Processing image data
US7055100B2 (en) * 1996-09-20 2006-05-30 Sony Corporation Editing system, editing method, clip management apparatus, and clip management method
JPH1098677A (ja) 1996-09-25 1998-04-14 Matsushita Electric Ind Co Ltd 映像情報編集装置
CN1135481C (zh) 1996-09-27 2004-01-21 松下电器产业株式会社 视频数据可择一重放的多媒体流生成方法和光盘创作系统
JP3314633B2 (ja) * 1996-10-18 2002-08-12 ヤマハ株式会社 演奏情報作成装置及び演奏情報作成方法
EP0843311A3 (en) 1996-11-15 2000-01-26 Hitachi Denshi Kabushiki Kaisha Method for editing image information with aid of computer and editing system
US20020110354A1 (en) * 1997-01-09 2002-08-15 Osamu Ikeda Image recording and editing apparatus, and method for capturing and editing an image
US6006241A (en) * 1997-03-14 1999-12-21 Microsoft Corporation Production of a video stream with synchronized annotations over a computer network
DE69833482T2 (de) * 1997-02-18 2006-10-12 Sega Corp. Verfahren und vorrichtung zur bildverarbeitung
US6421726B1 (en) * 1997-03-14 2002-07-16 Akamai Technologies, Inc. System and method for selection and retrieval of diverse types of video data on a computer network
JP3932631B2 (ja) * 1997-03-21 2007-06-20 松下電器産業株式会社 圧縮動画像データカット検出装置
CA2285284C (en) * 1997-04-01 2012-09-25 Medic Interactive, Inc. System for automated generation of media programs from a database of media elements
JP3411184B2 (ja) 1997-05-14 2003-05-26 松下電器産業株式会社 動画エディットシステム
US6571052B1 (en) * 1997-07-11 2003-05-27 Mitsubishi Denki Kabushiki Kaisha Moving picture playback apparatus
JPH11103441A (ja) 1997-09-26 1999-04-13 Matsushita Electric Ind Co Ltd クリップ表示方法とその表示装置
US6400378B1 (en) * 1997-09-26 2002-06-04 Sony Corporation Home movie maker
US6453355B1 (en) * 1998-01-15 2002-09-17 Apple Computer, Inc. Method and apparatus for media data transmission
JPH11289512A (ja) * 1998-04-03 1999-10-19 Sony Corp 編集リスト作成装置
JPH11341350A (ja) * 1998-05-28 1999-12-10 Yamaha Corp マルチメディア情報編集および再生装置、マルチメディア情報再生プログラムを記録した記録媒体ならびにシーケンス情報を記録した記録媒体
US6163510A (en) * 1998-06-30 2000-12-19 International Business Machines Corporation Multimedia search and indexing system and method of operation using audio cues with signal thresholds
US6261186B1 (en) * 1998-07-24 2001-07-17 Nbgs International, Inc. Water amusement system and method
AUPP624698A0 (en) * 1998-09-29 1998-10-22 Canon Kabushiki Kaisha Method and apparatus for multimedia editing
JP3601350B2 (ja) * 1998-09-29 2004-12-15 ヤマハ株式会社 演奏画像情報作成装置および再生装置
JP4207099B2 (ja) * 1998-09-29 2009-01-14 ソニー株式会社 画像編集装置及びその方法
US6195088B1 (en) * 1998-12-04 2001-02-27 France Telecom Method and system for controlling multimedia streams using dynamic prototypes
US6587109B1 (en) * 1998-12-24 2003-07-01 B3D, Inc. System and method for real-time scalability of 3D graphics based on internet bandwidth and CPU speed
US6487565B1 (en) * 1998-12-29 2002-11-26 Microsoft Corporation Updating animated images represented by scene graphs
JP4541476B2 (ja) * 1999-02-19 2010-09-08 キヤノン株式会社 マルチ画像表示システムおよびマルチ画像表示方法
JP3417330B2 (ja) * 1999-03-08 2003-06-16 日本電気株式会社 シナリオ編集装置及びシナリオ編集プログラムを記録した記録媒体
US6621504B1 (en) * 1999-08-06 2003-09-16 Avid Technology, Inc. Editor for effect tree parameters
US6976229B1 (en) * 1999-12-16 2005-12-13 Ricoh Co., Ltd. Method and apparatus for storytelling with digital photographs
GB2359917B (en) * 2000-02-29 2003-10-15 Sony Uk Ltd Media editing
US6597375B1 (en) * 2000-03-10 2003-07-22 Adobe Systems Incorporated User interface for video editing
AU2001251387A1 (en) * 2000-04-07 2001-10-23 Adspace Networks System for electronically distributing, displaying and controlling advertising and other communicative media
US6430582B1 (en) * 2000-04-28 2002-08-06 D4 Media, Inc. Goal seeking engine and method for generating custom media presentations
US6686838B1 (en) * 2000-09-06 2004-02-03 Xanboo Inc. Systems and methods for the automatic registration of devices

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0746462A (ja) * 1992-04-03 1995-02-14 Adobe Syst Inc 映像プログラムを編集する方法と装置
JPH09146918A (ja) * 1995-11-20 1997-06-06 Fujitsu Ltd マルチメディア情報の管理方法及び装置
JPH09270992A (ja) * 1996-04-01 1997-10-14 Olympus Optical Co Ltd 画像編集装置
JPH10200814A (ja) * 1996-11-15 1998-07-31 Hitachi Denshi Ltd 画像編集方法及び画像編集装置並びにコンピュータに画像編集処理動作を実行させるためのプログラムを記録した媒体
JPH10248048A (ja) * 1997-03-05 1998-09-14 Sony Corp 編集装置及び編集方法
JPH11146333A (ja) * 1997-11-04 1999-05-28 Matsushita Electric Ind Co Ltd 動画像編集装置
JP2000050204A (ja) * 1998-05-29 2000-02-18 Hitachi Ltd 映像表示編集処理方法および装置並びに記録媒体
JP2000149045A (ja) * 1998-11-05 2000-05-30 Matsushita Electric Ind Co Ltd タイトル情報の編集及び再生方法と編集装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2424351A (en) * 2005-03-16 2006-09-20 John W Hannay & Co Ltd Polymorphic Media - Creation and Presentation
GB2424351B (en) * 2005-03-16 2009-11-18 John W Hannay & Co Ltd Methods and apparatus for generating polymorphic media presentations

Also Published As

Publication number Publication date
KR20010111283A (ko) 2001-12-17
CN100508560C (zh) 2009-07-01
DE60139527D1 (de) 2009-09-24
US7797620B2 (en) 2010-09-14
AU781859B2 (en) 2005-06-16
EP1168838A1 (en) 2002-01-02
KR100752455B1 (ko) 2007-08-24
CN101383909A (zh) 2009-03-11
AU2709201A (en) 2001-08-07
US20060257098A1 (en) 2006-11-16
CN101383909B (zh) 2013-03-20
CN1363181A (zh) 2002-08-07
EP1168838B1 (en) 2009-08-12
EP1168838A4 (en) 2006-03-08

Similar Documents

Publication Publication Date Title
US7085995B2 (en) Information processing apparatus and processing method and program storage medium
US7797620B2 (en) Information processing apparatus and processing method, and program storage medium
US8701045B2 (en) Information processing apparatus, display control method and program
US8271333B1 (en) Content-related wallpaper
JPH11341350A (ja) マルチメディア情報編集および再生装置、マルチメディア情報再生プログラムを記録した記録媒体ならびにシーケンス情報を記録した記録媒体
JP2003241747A (ja) 情報処理装置およびその制御方法、制御プログラムおよび記録媒体
JP2010250023A (ja) テキスト表示機能付情報処理装置、データ取得方法およびデータ取得プログラム
JP4892074B2 (ja) 電子機器、画像出力方法及びプログラム
JP4305971B2 (ja) 情報処理装置および方法、並びに記録媒体
JP4446140B2 (ja) 情報処理装置および方法、並びにプログラム格納媒体
JP2013058187A (ja) ビデオを製作するために用いられる編集システム
JP4210465B2 (ja) 画像音声記録端末及び情報記録媒体並びにプログラム
KR20030019204A (ko) 휴대형 정보 단말기, 정보 표시 제어 방법, 기록 매체 및프로그램
JP2011119786A (ja) 情報処理装置およびコンテンツ表示制御方法
KR100475056B1 (ko) 이퀄라이저 기능 자동 설정 방법
JP2003046935A (ja) データ編集方法、情報処理装置、サーバ、データ編集プログラムおよび記録媒体
KR100689417B1 (ko) 복수의 파일 연결 재생장치 및 방법
KR101483995B1 (ko) 전자 앨범 및 전자 앨범의 재생 방법
JP4336511B2 (ja) データ転送装置、データ転送システム及びプログラム
JP2012173850A (ja) 情報処理装置および方法
JP5019577B2 (ja) 情報処理装置、編集再生方法およびプログラム
JP2002108357A (ja) ダウンロードシステム、情報処理装置、及び記録媒体
JP2003122607A (ja) 画像情報保存装置
JP2001076162A (ja) 情報処理装置及び方法、媒体
JP2004318516A (ja) マルチメディアデータ検索装置、マルチメディアデータ検索方法、マルチメディアデータ検索プログラム、およびコンピュータ読取可能な記録媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 01800129.7

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AU CN KR SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

WWE Wipo information: entry into national phase

Ref document number: 2001901518

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 09937463

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020017012261

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 27092/01

Country of ref document: AU

WWP Wipo information: published in national office

Ref document number: 1020017012261

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2001901518

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 27092/01

Country of ref document: AU