WO2005015899A1 - 撮影装置及び撮影方法 - Google Patents

撮影装置及び撮影方法 Download PDF

Info

Publication number
WO2005015899A1
WO2005015899A1 PCT/JP2004/007675 JP2004007675W WO2005015899A1 WO 2005015899 A1 WO2005015899 A1 WO 2005015899A1 JP 2004007675 W JP2004007675 W JP 2004007675W WO 2005015899 A1 WO2005015899 A1 WO 2005015899A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
scenario
information
synthesis
video
Prior art date
Application number
PCT/JP2004/007675
Other languages
English (en)
French (fr)
Inventor
Yoshihiro Tsukamoto
Kouji Hatano
Akira Kawamura
Masataka Sugiura
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to JP2005510261A priority Critical patent/JPWO2005015899A1/ja
Priority to US10/543,359 priority patent/US20060120623A1/en
Priority to EP04735101A priority patent/EP1679885A1/en
Publication of WO2005015899A1 publication Critical patent/WO2005015899A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00132Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture in a digital photofinishing system, i.e. a system where digital photographic images undergo typical photofinishing processing, e.g. printing ordering
    • H04N1/00185Image output
    • H04N1/00198Creation of a soft photo presentation, e.g. digital slide-show
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • H04N1/00458Sequential viewing of a plurality of images, e.g. browsing or scrolling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2206/00Systems for exchange of information between different pieces of apparatus, e.g. for exchanging trimming information, for photo finishing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera

Definitions

  • the present invention relates to an apparatus and a method for synthesizing an image obtained by shooting and a scenario image.
  • Chromaki synthesis is known as one of the techniques.
  • a subject is photographed against a background of a specific color (generally blue), and the background of the specific color is made transparent to create an image in which only the subject is extracted.
  • a composite video is created by superimposing the extracted video on another video.
  • Japanese Patent Laid-Open Publication No. 2001-346099 discloses a device for accumulating video so that a composite video by Kuguchi Maki synthesis can be easily created. By storing the actual video shot of the subject with the camera and the shooting status of the camera at the time of shooting in association with each other, it can be used to create composite video as needed in the future.
  • Japanese Patent Laying-Open No. 4-183183 discloses an image signal processing apparatus for synthesizing a singing person's face and figure on a reproduced image of karaoke video software. Disclosure of the invention
  • the device disclosed in Japanese Patent Application Laid-Open No. 2000-344609 is a device for storing captured images and synthesizing the images later.
  • highly accurate video synthesis is required, and it is preferable to edit the video using the above-described device.
  • operability at the time of video synthesis and speedy video synthesis may be required.
  • the apparatus disclosed in Japanese Patent Application Laid-Open No. 4-183183 is based on the assumption that the captured image to be synthesized is the face or figure of a person singing karaoke. Under this assumption, the position where the singer stands is almost constant in front of the screen displaying the lyrics, and it is necessary to obtain an appropriate captured image without adjusting the position and orientation of the video camera for shooting. Can be. Also, the synthesis of the captured images may be performed at the start of the performance, and there is no need to control the synthesis timing.
  • the photographed image to be synthesized is a predetermined object (the face or figure of a person singing karaoke)
  • the synthesis timing is also fixed, such as during playback of karaoke video software. It is not possible to control the target of the shot images to be synthesized and the synthesis timing according to the scenario video to be played.
  • the photographing apparatus of the present invention comprises: photographing means for acquiring a photographed image; reading means for reading out stored data so as to form a scenario image; and synthesizing the photographed image during the scenario image.
  • Storage means for storing synthesis information for synthesizing, and synthesizing means for synthesizing the captured image obtained by the imaging means with the scenario image read by the reading means in accordance with the synthesis information stored in the storage means.
  • display means for displaying the synthesized video obtained by the synthesizing means.
  • the user is displayed on the display unit.
  • the “scenario video” is a video having a concept of time to be combined with a captured image, and is, for example, a moving image, an animation, a slide show, or the like. Scenario images are generally displayed according to scenario information.
  • the scenario information is, for example, information describing what data is output when, where, and how in multimedia data such as moving images, still images, text, or audio.
  • the “captured image” is an image obtained by the capturing means during the reproduction of the scenario video, and is not constituted by data stored in a storage means such as a file in advance.
  • the captured image may be a moving image or a still image.
  • the synthesis information includes information on a time at which the captured image is synthesized in the scenario image.
  • the information on the time is defined, for example, by the time in the scenario video at which the synthesis starts or the time in the scenario video at which the synthesis ends.
  • the synthesis information includes at least one of information on an outer shape of a synthesis area where the captured image is synthesized and information on a position of the synthesis area in an image forming the scenario video.
  • the user can acquire information on the combination area before the time when the captured image is combined with the scenery video.
  • This allows the user to capture the image to be combined with the scenario video in order to capture the position or orientation of the camera or the shooting conditions. Can be changed.
  • the time before the captured image is combined with the scenario video may be before the time when the combining is started or may be the time when the combining is started.
  • the information on the combination area to be presented to the user may be based on at least one of the information on the outer shape and the position in the combination information.
  • the user can predict an image to be combined with the combination area, and can prepare for shooting.
  • a method of presenting information based on the information on the outer shape for example, there is a method of displaying an outline of a synthesis area.
  • the shape and size of the composite area can be presented.
  • Presenting information about the position is effective when combining a part of the captured image in the composite area, and when combining the entire captured image and the entire image forming the scenario image as they are . That is, the position or orientation of the camera may be adjusted so that the position of the object to be combined in the captured image matches the position of the combination area in the image forming the scenario video.
  • the information on the combination area presented to the user may include an image obtained by processing a captured image acquired by the imaging unit in accordance with at least one of information on an outer shape and a position in the combination information.
  • the user can grasp what kind of photographed image is obtained by the photographing means.
  • processing in accordance with the synthesis information means for example, processing such as cutting out and enlarging / reducing a shot image, and by this, grasping what kind of image is displayed when the shot image is fitted into the synthesis area.
  • the captured image can be displayed together with the images constituting the scenario video at the time when the synthesis is started, for example.
  • it can be displayed together with the scenario image that is currently being displayed on the display means, that is, before the time when the synthesis is started.
  • the captured image and the image constituting the displayed scenario image may be displayed in an overlapping manner or may be displayed side by side.
  • the information on the combining area to be presented to the user is obtained by combining the captured image acquired by the imaging unit into an image forming a scenario image in which the combining area appears, according to the combining information. May be included.
  • the user By presenting to the user a composite preview image in which the captured image obtained by the photographing means and the image constituting the scenario image in which the composite area appears, the user is composed in the composite area. It is possible to make a captured image as a desired image. That is, the user can select an image suitable for the combination area and shoot the image by looking at the combination preview image. Also, according to the shape and size of the composite area, it is possible to adjust the zoom ratio of the photographing by the photographing means, and to adjust the brightness of the photographed image in accordance with the background scenery image.
  • the composite preview image may be displayed by suspending the reproduction of the scenario video, or may be displayed on a screen different from the screen on which the scenario video is being reproduced.
  • the image capturing apparatus includes a unit that stops the reproduction of the scenario image by one P at a time when the synthesis of the captured image with the scenario image is started.
  • the image capturing apparatus may be set so that a position of the combination area in an image forming the scenario image moves with time.
  • the composition area can be set to be movable by expressing information on the position of the composition area included in the composition information as a function of time.
  • the imaging device may be set so that the outer shape of the synthesis area changes with time.
  • the outer shape of the combining area can be changed with the passage of time.
  • the image capturing apparatus may further include a unit that notifies a user that the time to start combining the captured image with the scenario image has approached.
  • Means for informing the user include, for example, a configuration for counting down by text, a configuration for providing notification by sound or light, and a configuration for providing notification by slowing down the scenario video playback speed.
  • the “user” includes a person who is a subject as well as a person who performs shooting.
  • the image capturing apparatus may further include means for notifying a user of information regarding the start of synthesis within a predetermined time including a time at which synthesis of the shot image with the scenario image is started.
  • Means for informing the user of information on the start of synthesis can be realized by, for example, a configuration for outputting a sound or a configuration for blinking light within a predetermined time including the synthesis start time. By outputting sound and light before and after the synthesis start time, it is possible to prompt the user to acquire a captured image. Note that even if the user starts shooting a captured image after the synthesis start time has elapsed, the time from the synthesis start time until the user starts shooting is, for example, calculated based on the shot image after the shooting is started. By complementing the power image, an appropriate composite image can be obtained.
  • the “user” includes a person who is a subject as well as a person who shoots.
  • the photographing apparatus may further include means for recording the composite video.
  • the photographing apparatus may further include a unit that records the photographed image acquired by the photographing unit in association with the identification information of the scenario image.
  • the synthesized video can be reproduced by reproducing the captured image with the associated scenario image while synthesizing the captured image.
  • the photographing means may perform photographing based on information on a photographing condition included in the composite information.
  • the shooting conditions include, for example, brightness, presence of photo light, zoom ratio, and color tone (sepia, black and white, color).
  • the imaging device may include an input unit that allows a user to input at least one of a synthesis start instruction and a synthesis end instruction of the captured image and the scenario image.
  • the user can select the timing to start or end the synthesis of the captured image and the scenario image.
  • a compositing start instruction for example, compositing can be started at the stage when the composite video is ready for shooting.
  • a compositing end instruction for example, when it becomes impossible to shoot a composite video, the compositing can be terminated.
  • the user is a person who performs photographing.
  • the imaging apparatus may further include, when the synthesis start instruction is input after the synthesis start time of the captured image defined by the synthesis information has elapsed to the scenario image, the synthesis start is performed from the defined synthesis start time.
  • An image to be synthesized in the synthesis area until an instruction is input may be supplemented by the captured image or the scenario image.
  • an appropriate synthesized image can be created even when a user inputs a synthesis start instruction after the synthesis start time specified by the synthesis information has elapsed.
  • the captured image at the time when the synthesis start instruction is input is added to the synthesis area from the synthesis start time specified by the synthesis information until the synthesis start instruction is input.
  • a method of complementing with a scenario image for example, there is a method of displaying a default scenario image in a synthesis area from a synthesis start time specified by synthesis information until a synthesis start instruction is input.
  • the image capturing apparatus may be configured such that, when the combining end instruction is input before the combining end time of the captured image defined by the combining information with the scenario image, the combining is performed.
  • An image to be synthesized in the synthesis area between the input of the end instruction and the specified synthesis end time may be complemented by the captured image or the scenario video.
  • the captured image at the time when the synthesis end instruction is input is applied to the synthesis area from the input of the synthesis end instruction to the synthesis end time specified by the synthesis information
  • the display means may include a plurality of screens, and may display the scenario image or the composite image on at least one screen.
  • the scenario video or the composite video on one screen and check other information on another screen.
  • the image being photographed by the photographing means can be displayed on another screen.
  • the subject can see the composite video by showing the composite video to the subject.
  • the photographing apparatus may include an irradiation unit that emits light indicating a point or a range to be photographed by the photographing unit.
  • the user can predict a captured image obtained by the image capturing means using light emitted to the subject, and can control the position and orientation of the camera based on the prediction.
  • the photographed image acquired by the photographing unit may be a moving image that is continuously photographed, and the combining unit may combine the scenario image with the moving image.
  • the moving image acquired by the photographing means is converted to a scenery image based on the composite information. Can be synthesized.
  • the captured image obtained by the imaging unit is one or more still images
  • the synthesizing unit includes one of the still images as an image to be synthesized with a scenario video that is continuously read. Use within a predetermined time.
  • the still image acquired by the photographing means can be combined with the scenario image based on the combination information.
  • the predetermined time may be a synthesis time specified by the synthesis information, or may be a part of the synthesis time. If one of the still images is synthesized during a part of the synthesis time, one or more other still images may be synthesized during the remaining synthesis time.
  • the image capturing apparatus includes a partial image extracting unit that extracts a part of a captured image captured by the image capturing unit as a partial image, and the combining unit converts the partial image extracted by the partial image extracting unit into a partial image. It may be combined with a scenario video.
  • a partial image cut out from a captured image can be combined with a scenario image.
  • the composite information stored in the storage unit includes partial image specifying information that specifies a region and a time zone from which the partial image is cut out by the partial image cutting unit.
  • a partial image may be cut out from the captured image based on the partial image specifying information.
  • a partial image cut out from a captured image can be defined in the composite information. For example, it is possible to define a partial image that matches the scenario video.
  • the position of the cutout region of the partial image specified by the partial image specifying information may move as time passes.
  • the position of the partial image to be combined with the scenario video can be moved over time without changing the position and orientation of the camera.
  • the shape of the cutout region of the partial image specified by the partial image specifying information may change over time.
  • the shape of the partial image can be changed over time.
  • the partial image specifying information may include a pair that the partial image should include.
  • the partial image may be specified by the elephant, and the partial image cutout unit may cut out from the photographed image a part where the target object specified by the partial image specifying information is projected as the partial image.
  • the combination information specifies an object to be included in the combination area
  • the combination unit includes a portion of the scenario image on which the object specified by the partial image identification information is displayed. May be used as the combination area, and the photographed image may be combined with the combination area.
  • the photographing apparatus further includes control means for performing a control for temporarily stopping the scenario image after starting reproduction of the data when there is a time to start reproduction at a time when the synthesis of the photographed image is started. You may.
  • the photographing device includes: a preview image storage unit that stores, as a preview image, a scenario image displayed at a time at which the synthesis of the captured images is started; and displays the preview image at a time at which the synthesis of the captured images is started. And control means for performing control for temporarily stopping the scenario image.
  • the scenario video that is displayed at the time when the synthesis starts is stored as a preview image, and the preview image that is stored at the synthesis start time is displayed. Can be displayed easily.
  • control unit may move a position at which reproduction of the scenario video is restarted to a start time of the synthesis.
  • the scenario data of the present invention is used for synthesizing scenario information describing a method of outputting stored data and a captured image obtained by capturing with a scenario video output according to the description of the scenario information. And synthesis information of.
  • the synthesis information is information for synthesizing the captured image with the scenario image, and is, for example, information describing at what timing and at what position the captured image is to be synthesized.
  • Scenario information is information that describes how to output the stored data. In contrast to the scenario information, which data to output is described in advance, the synthetic information does not pre-fix the data to be output in advance, and the data of different captured images each time shooting is performed. Is described. By outputting the captured image obtained by shooting based on the composite information and outputting the stored data based on the scenario information, it is possible to easily combine the scenario image and the captured image.
  • the combination information may include information on a time at which the captured image is combined with the scenario image.
  • the information on the time is defined, for example, by the time in the scenery video at which the synthesis starts or the time in the scenery video at which the synthesis ends.
  • the synthesis information may include at least one of information on an outer shape of a synthesis area where a captured image is synthesized and information on a position of the synthesis area in an image forming the scenario video.
  • the synthesis information may include partial image specifying information for specifying a region and a time zone where a part of the captured image is cut out as a partial image.
  • the position of the cut-out area of the partial image specified by the partial image specifying information may move as time passes.
  • the position of the partial image to be synthesized with the scenario image can be moved over time without changing the position and orientation of the camera.
  • the shape of the cut-out region of the partial image specified by the partial image specifying information may change over time.
  • the shape of the partial image can be changed over time.
  • the partial image specifying information may specify a region and a time zone of the partial image according to an object to be included in the partial image. .
  • the synthesis information may specify a time zone in which the synthesis area and the scenario image include the synthesis area according to an object to be included in the synthesis area in which a captured image is synthesized.
  • the combination region and the time period in which the scenario image includes the combination region are specified by the target object, so that the combination region can be easily specified.
  • the photographing method of the present invention includes a step of reading stored data so as to form a scenario image, a step of acquiring a photographed image, and a step of reading composite information for combining the captured image in the scenario video.
  • the user can shoot while viewing the displayed composite video.
  • the user can capture a desired object by moving a force lens for acquiring a captured image while viewing the displayed composite video.
  • composition while shooting it is possible to realize speedy video composition in which video composition is completed at the end of shooting.
  • the program according to the present invention comprises: a step of reading stored data so as to form a scenario image; and a step of obtaining a captured image; Reading composite information for synthesizing the photographed image to the scenario image, synthesizing the photographed image with the scenario image according to the synthetic information, and displaying the composite image obtained in the synthesizing step. Step and let
  • the computer By causing the computer to execute this program, the computer combines the captured image and the scenario image according to the combination information, and displays the combined image obtained by the combination.
  • the user can shoot while watching the displayed composite video.
  • the user can move the camera for acquiring the photographed image while looking at the displayed composite video, and capture a desired photographing target.
  • by performing composition while shooting it is possible to realize speedy video synthesis in which the video synthesis is completed at the end of shooting.
  • the photographing apparatus of the present invention combines the captured image and the scenario video based on the combination information for combining the captured image with the scenario video, and displays the composite video by the display means. It is possible to shoot while watching the synthesized image displayed on the camera, and to provide an excellent effect that the position and orientation of the imaging device can be adjusted so that the synthesized image is appropriately shot. You can do it.
  • FIG. 1 is a diagram illustrating a configuration of a photographing device according to a first embodiment.
  • FIG. 2 is a diagram showing an example of scenario data.
  • FIG. 3 is a diagram showing an example of a scenario video display.
  • FIG. 4A is a diagram illustrating a recording method of a composite video.
  • FIG. 4B is a diagram explaining a recording method of a composite video.
  • FIG. 5A is a diagram for explaining a composite video recording method.
  • FIG. 5B is a diagram for explaining a composite video recording method.
  • FIG. 6 is a diagram showing a flow of an image synthesizing operation by the imaging device.
  • FIG. 7 is a diagram showing the relationship between the operation of the photographing means, the display contents of the display means, and scenario data.
  • FIG. 8A is a diagram showing an example of a composite preview image.
  • FIG. 8B is a diagram showing an example of a composite video.
  • FIG. 9 is a diagram showing a configuration of a photographing apparatus according to the second embodiment.
  • FIG. 10 is a diagram showing the relationship between the operation of the photographing means, the display contents of the display means, and the scenario data.
  • FIG. 11A is a diagram showing an example of a composite video.
  • FIG. 11B is a diagram showing an example of presentation of a synthesis area.
  • FIG. 12 is a diagram showing a configuration of an imaging device according to the third embodiment.
  • FIG. 13 is a diagram showing a configuration of an imaging device according to the fourth embodiment.
  • FIG. 14 is a diagram showing the relationship between the operation of the photographing means, the display contents of the display means, and the scenario data.
  • FIG. 15 is a diagram showing the relationship between the operation of the photographing means, the display contents of the display means, and the scenario.
  • FIG. 16 is a diagram showing a configuration of an imaging device according to the fifth embodiment.
  • FIG. 17 is a diagram showing the relationship between the operation of the photographing means, the display contents of the display means, and the scenario.
  • FIG. 18 is a diagram showing the relationship between the operation of the photographing means, the display contents of the display means, and the scenario.
  • FIG. 19 is a diagram showing a configuration of an imaging device according to the sixth embodiment.
  • FIG. 20 is a diagram showing an example of scenario data.
  • FIG. 21A is a diagram showing an example of a captured image.
  • FIG. 21B is a diagram showing an example of a partial image.
  • FIG. 22 is a diagram showing an example of composite information.
  • FIG. 23A is a diagram showing an example of a change in the synthesis area.
  • FIG. 23B is a diagram showing an example of a partial image.
  • FIG. 24 is a diagram showing an example of the composite information.
  • FIG. 25 is a diagram showing a configuration of an imaging device according to the seventh embodiment.
  • FIG. 26 is a diagram showing an example of scenario data.
  • FIG. 27A is a diagram illustrating an example of a captured image.
  • FIG. 27B is a diagram showing an example of a partial image.
  • FIG. 28 is a diagram showing an example of scenario data.
  • FIG. 29A is a diagram showing an example of a scenario video.
  • FIG. 29B is a diagram showing a combined area in a scenario image.
  • FIG. 30 is a diagram showing a configuration of a synthesis / reproduction control unit according to the ninth embodiment.
  • Fig. 31A shows an example of a scenario.
  • FIG. 31B is a diagram showing an example of a schedule list.
  • FIG. 32 is a diagram showing a configuration of a synthesis reproduction control unit according to the tenth embodiment.
  • FIG. 33A is a diagram showing an example of scenario data.
  • FIG. 33B is a diagram showing an example of the schedule list.
  • FIG. 34 is a diagram showing a configuration of a synthesis / reproduction control unit according to the eleventh embodiment.
  • FIG. 35A is a diagram showing an example of scenario data.
  • FIG. 35B is a diagram showing an example of a schedule list.
  • FIG. 36 is a diagram showing a display example on each screen when the imaging device has two screens.
  • -FIG. 37 is a diagram showing a display example on each screen when the imaging device has two screens.
  • FIG. 38 is a diagram showing a display example on each screen when the imaging device has two screens.
  • FIG. 39 is a diagram showing an example of the program of the present invention. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 is a diagram illustrating a configuration of an imaging device 10 according to the first embodiment of the present invention.
  • the imaging device 10 according to the first embodiment is a portable imaging device capable of changing an object to be imaged by changing a position or an orientation of a user.
  • portable video cameras and mobile phones with cameras are included.
  • the photographing device 10 includes a scenario storage unit 12 for storing the scenario data, a photographing unit 18 for acquiring the photographed image, and a synthesizing and reproducing unit 2 for reproducing the scenario image and synthesizing the scenario image and the photographed image.
  • a combined playback control unit 22 that controls the combined playback unit 20, and a display unit 24 that displays the combined scenario video.
  • the imaging unit 18 is configured by, for example, a semiconductor device such as a CCD or a CMOS, and has a function of acquiring a digital image.
  • the photographing unit 18 can photograph at least one of a moving image and a still image.
  • the scenario data includes scenario information 14 and synthetic information 16.
  • Scenario information 14 is information describing an output method of entity data to be output.
  • the scenario video reproduced based on the scenario information 14 is a video that changes with time, and corresponds to, for example, a moving image, an animation, a slide show, and the like.
  • the synthesis information 16 is information on the outer shape of the synthesis area for synthesizing the captured image in the scenario video, the position of the synthesis area in the images constituting the scenario video, and the time when the synthesis area appears.
  • the time when the composite area appears is the time at which the captured image should be composited with the scenery video.
  • FIG. 2 is a diagram showing an example of scenario data
  • FIG. 3 is a diagram showing an example of a scenario image and a combination area displayed on a screen by the data shown in FIG.
  • the scenario image may be composed of one medium or may be composed of a plurality of media.
  • the scenario video is composed of media A and media B, and the composite area is located on the media A video.
  • the combining area is an area where the captured image acquired by the capturing unit 18 is combined.
  • the scenario video may include a time zone during which the media is not played during the playback time. For example, in the example shown in FIG.
  • the scenario data has scenario information 14 and synthesis information 16.
  • the scenario information 14 has scenario information 14 a describing the output method of the media A and scenario information 14 b describing the output method of the media B.
  • the respective scenario information 14a and 14b are: i) media identifier, ii) storage location of entity data, iii) information about time to play and display media, and iv) information about area where video is displayed. Including.
  • the scenario information 14a and 14b each include four pieces of information, but may include other information as needed.
  • the media identifier is information for specifying a medium.
  • the storage location of the entity data is information indicating the directory and file name where the entity data of the media is stored.
  • the scenario information 14 has information on the storage location of the entity data, and the entity data is stored separately from the scenario data.
  • the entity data is stored in the “home” directory for both media A and B, but the location where the entity data of each media is stored may be different. With the configuration in which the storage location of the entity data can be designated in this manner, for example, various existing data can be easily used as a scenario image.
  • the information about the time for playing and displaying the media is information for specifying the time for playing the video based on the media.
  • the timing of the playback start and the end of the playback are specified by the elapsed time from the start of the playback of the scenario video, and the playback display time is specified.
  • the media A starts playing at a time T1 seconds after the start of the playback of the scenario video is instructed, and ends playing at a time T2 seconds after the start.
  • the information on the image display area is information on the position and the shape of the image to be displayed based on the media. For example, media A is displayed at the position of coordinates (Xa, Ya), and it can be seen that its shape is rectangular.
  • the scenario information 14 can include information on the time and area for displaying the media. Based on this information, the video of the media is displayed at the specified time and area.
  • the scenario data is described for each media, but other description methods can be adopted.
  • the output method may be described for each scenario video playback time.
  • the composition information 16 will be described.
  • the synthesis information 16 is information for synthesizing the captured image with the scenario video.
  • the synthesis information 16 includes time information on the time at which the synthesis area appears, and area information on the position and outer shape of the synthesis area.
  • the time information is information that defines the time at which the combined area appears in the scenario video by the elapsed time from the start of the playback of the scenario video. In the example shown in FIG.
  • the composite area appears during a period from the time when T5 seconds elapse to the time when T6 seconds elapse from the start of the scenario video playback. That is, this period is a period in which the captured image is combined with the scenario video.
  • the area information is information that defines the position and outer shape of the combined area that appears during the period specified by the time information.
  • the position where the combining area appears is the coordinates (Xc, Yc), and the shape of the combining area is a circle having a radius R.
  • the position at which the combined area appears can be set so that the position of the combined area moves by using the coordinates defining the appearance position as a function of time.
  • the outline of the composite area can be changed as the scenario video playback time elapses by setting the time parameter.
  • the video synthesized in the synthesis area is displayed in a format that overwrites the other video. If the composite area and the media image overlap, the composite area video is displayed with priority. For example, as shown in FIG. 3, when the combining area and the display area of the video of the media A overlap, the combining area is arranged in front of the video of the media A, and the image captured by the imaging unit 18 is displayed. Overwrites the video on media A.
  • the scenario storage unit 12 stores scenario data as described in FIG.
  • the imaging device 10 reads out the scenario data stored in the scenario storage unit 12, reproduces the scenario image on the display unit 24, and combines the image captured by the imaging unit 18 with the scenario image. It has a reproducing section 20 and a synthetic reproducing control section 22 for controlling the synthetic reproducing section 20.
  • the synthesis / reproduction control unit 22 reads out the scenario information 14 and the synthesis information 16 from the scenario storage unit 12 and controls the synthesis / reproduction unit 20 based on these information.
  • the synthesis playback control unit 22 fits the image shot by the shooting unit 18 into the synthesis area in the scenario image based on the synthesis information 16 so that the shot image and the scenario image can be combined. Combine.
  • the image combined at this time may be the entire image acquired by the imaging unit 18 or a part of the acquired image.
  • the images are processed so as to match the size of the synthesis area. For example, cut out the image to be synthesized and scale up or down the Z or captured image to fit the synthesis area.
  • processing is performed by cutting out the portion where the composition area in the scenario video is located from the captured image at the appearance start time of the composition area and using it for composition. Is easy. That is, when the displayed scenario video and the image obtained by the imaging unit 18 are displayed on the display unit 24 in a superimposed manner, a portion overlapping the synthesis area is cut out from the captured image and used for synthesis. This makes it easy to adjust the direction of the imaging device 10 so that the object to be put in the synthesis area is imaged by the imaging unit 18.
  • a portion at a fixed position (for example, the center) of the captured image may be cut out according to the outer shape of the combination area and used for combination.
  • Information regarding the position to be cut out from the captured image may be included in the composite information, and based on this information, the image to be combined with the composite area may be cut out from the captured image.
  • the synthesis playback section 20 plays the scenario video and plays back the synthesis video under the control of the synthesis playback control section 22.
  • the entity data stored in the storage unit not shown in FIG. 1 is read out according to the scenario information, and the read entity data is reproduced.
  • the entity data is not shown in FIG. 1, but may be stored anywhere. It is also possible to store the scenario data together with the scenario data in the scenario storage unit 12.
  • the combining and reproducing unit 20 reads out and reproduces the entity data from the storage location specified by the scenario information. It is also possible to adopt a configuration in which entity data is read out by the synthesis reproduction control section 22 and sent to the synthesis reproduction section 20.
  • the video synthesized by the synthesis and reproduction control unit 22 is recorded.
  • the recording method for the video recording unit 26 may be a method of recording the synthesized video reproduced on the screen as it is, or a method of separately recording the captured image to be synthesized and the scenario image. May be adopted.
  • the composite video can be reproduced as it is by reading the recorded composite video.
  • the identification information of the scenario image to be synthesized with the captured image is associated. For example, as shown in FIG. 4A, i) the combination information identifier is included in the combination information in advance.
  • the identifier “C amera A” is added, indicating that the images captured by Camera A are combined.
  • scenario data may be generated in which the composite information includes the information of the captured image. That is, as shown in FIG. 5A, the combined information includes i) the combined information identifier in advance. Then, when recording the captured image, as shown in FIG. 5B, the captured image captured by the capturing unit 18 is treated as one of the media (media C) constituting the scenario data, and a new scenario data is generated.
  • the media C like the media A or the media B, includes: i) a media identifier, ii) a storage location of the entity data, iii) information on a time for displaying and displaying the media, and iv) information on an area for displaying a video. Including.
  • the recording range a method of recording from the start of reproduction of the scenario video to the end of the reproduction may be employed, or a method of recording a portion of the scenario video in which the combining area appears may be employed.
  • the photographing condition control unit 28 has a function of controlling the photographing conditions and the like of the photographing unit 18.
  • the shooting conditions include, for example, conditions such as brightness, presence / absence of photo light, zoom ratio, and color tone (sepia, black and white, and color).
  • the imaging condition control unit 28 sets the imaging conditions based on the information. Further, the photographing condition control unit 28 can also accept the setting of the photographing condition by the user.
  • Fig. 6 is a diagram showing the flow of the video compositing operation by the photographing device 10.
  • Fig. 7 shows the operation of the photographing unit 18 and the display contents and the scenario data on the display unit 24 when performing the video compositing.
  • the user instructs the photographing device 10 to start reproducing the scenario video (step S1).
  • the instruction to start the reproduction of the scenario video is input to the composite reproduction control unit 22.
  • the combination reproduction control unit 22 controls the combination reproduction unit 20 (step S 2), so that the combination reproduction unit 20 reproduces the scenario video. That is, the synthesizing and reproducing unit 20 reads the scenario information 14 from the entity data storage unit 40, and reproduces the scenario video based on the scenario information 14 (step S3).
  • the entity storage unit 40 may be located anywhere, and is indicated by a dotted line in FIG.
  • a scenario image is generated according to the scenario shown in FIG. That is, the period during which the composite area appears in the scenario video is between time T5 and time T6. As shown in FIG.
  • the synthesis playback control unit 22 manages the appearance timing of the synthesis area based on the synthesis information 16 read from the scenario storage unit 12, while playing back the scenario video by the synthesis playback unit 20. At the appearance timing of the combination area (time T5), the combination reproduction control unit 22 instructs the combination reproduction unit 20 to pause the reproduction of the scenario image (step S4). The composition / playback control unit 22 further instructs the shooting condition control unit 28 to shoot in preview mode (a mode in which a shot image is displayed on the screen without being recorded). The photographing condition control unit 28 controls the photographing unit 18 in accordance with the instruction from the synthesis and reproduction control unit 22 to start photographing in the preview mode (step S4).
  • the shooting condition control unit 28 controls the shooting unit 18 based on the shooting condition. This makes it possible to acquire a captured image that matches the scenario video. For example, if the scenario image color is sepia and the creator of the scenario image thinks that the color of the image to be synthesized is preferably sepia, the synthesis information 16 indicates that the color tone is sepia as a shooting condition. Ah To include The photographing condition control unit 28 controls the photographing unit 18 based on the photographing conditions included in the synthesis information 16 and acquires a photographed image with a color tone of sepia.
  • the image photographed by the photographing unit 18 is sent to the synthesizing / reproducing unit 20, and the photographed image and the scenario video are synthesized by the synthesizing / reproducing unit 20 (step S5). More specifically, the scenario video at time T5 is displayed as a still image on display unit 24. The captured image is combined with the combined area included in the scenery image to create a combined image. This composite video is a composite preview image. As shown in FIG. 7, the playback of the scenario video is paused at time T5, and the composite preview image is displayed on the display unit 24.
  • FIG. 8A and FIG. 8B are diagrams showing examples of the composite preview image. Playback of the scenario video is stopped, and a still image is displayed. The captured image acquired by the imaging unit 18 is displayed in the combination area. When the imaging device 10 is moved, the image acquired by the imaging unit 18 changes, and the image synthesized in the synthesis area changes as shown in FIGS. 8A and 8B.
  • the user adjusts the position and orientation of the photographing device 10, the zoom ratio, the brightness, and the like so that the desired image is included in the synthesis area while watching the synthesis preview image.
  • the scenario image is an image at the moment when the keeper catches the pole.
  • the synthesis area is located at the face of the keeper's face, and the image captured by the imaging unit 18 is fitted into the synthesis area.
  • the captured images are poles and feet, which is not suitable for the video to be combined with the scenario video. Therefore, a face image is shot by moving the shooting device 10 to change the shooting location. This makes it possible to obtain a composite image suitable for a scenario image as shown in FIG. 8B. By displaying the composite preview image in this way, it is possible for the user to adjust the image obtained by the imaging unit 18.
  • the user instructs the imaging device to release the pause.
  • This instruction is given, for example, when the user determines that the desired image in the combining area has been combined.
  • the instruction to release the pause is input to the composite reproduction control unit 22 (step S6).
  • the composite playback control unit 22 instructs the composite playback unit 20 to restart the scenario video playback, and also instructs the shooting condition control unit 28 to perform shooting in the recording mode (step S6).
  • the time of the pause instruction and the time t of the suspension release are It is the same in T5, and the time in the scenario data is stopped. During this time, the real time has elapsed.
  • the image photographed by the photographing unit 18 is sent to the combining and reproducing unit 20 and combined with the scenario image (step S7).
  • a composite video is created by fitting a captured image into a composite area included in the scenario video. Note that, when the image capturing unit 18 captures a moving image, for example, when the subject moves, the image to be fitted in the combining area changes.
  • the composite area in the scenery image is made to move as the scenery image progresses, it is possible to create a composite image in which the position of the captured image to be synthesized moves. Also, when a part of a captured image is cut out and synthesized into a synthesis area, if the cutout position is fixed, the same object is captured as a shot image without moving the imaging device, and the image of the object is captured. It is possible to create a composite image in which the composite area into which the image is fitted moves in the scenario image. Also, when a part of a captured image is cut out and synthesized in the synthesis area, the cut-out position can be moved in accordance with the position of the synthesis area.
  • the composite reproduction unit 20 displays the composite video on the display unit 24.
  • the photographing unit 18 sends the photographed image to the video recording unit 26 and records it in the video recording unit 26 (step S7), as indicated by the dashed arrow in FIG.
  • the captured image is recorded together with the identification information of the scenario video being reproduced.
  • the scenario image can be performed by another method. That is, as shown by the dashed arrow in FIG. 6, instead of the photographed image from the photographing unit 18, the composite video output from the composite reproducing unit 20 is recorded in the video recording unit 26.
  • the synthesis reproduction control unit 22 manages the timing when the appearance of the synthesis area ends based on the synthesis information 16 read from the scenario storage unit 12. Then, at time ⁇ 6 when the combined area disappears from the scenario image, the combined playback control unit 22 instructs the shooting condition control unit 28 to end the shooting. Thereby, the photographing condition control unit 28 terminates the photographing by the photographing unit 18 (step S8).
  • Synthetic playback control unit 22 At the end time T7 of the reproduction of the scenery video, the completion of reproduction of the scenery video is notified to the synthesizing reproduction section 20 (step S9).
  • the scenario data includes synthesis information 16 for synthesizing the captured images.
  • the composite playback unit 20 Under the control of the composite playback control unit 22 based on the composite information 16, the composite playback unit 20 combines the image captured by the imaging unit 18 with the scenario video to create a composite video, and Displayed on display 24. This makes it possible to combine the scenario video and the captured image while shooting. Therefore, the captured image and the scenario image can be quickly synthesized to obtain a synthesized image.
  • the user can view the composite video and can adjust the image to be composited when capturing. That is, by capturing the target to be combined by the photographing unit 18 during the reproduction of the scenario video, the captured image can be combined as it is. Once the shot image has been shot, it can be played back later, the target to be synthesized can be cut out from the shot image, and the scenario video can be played. it can. In particular, for example, when the screen or keypad is limited as in a mobile terminal, it is difficult to play back and edit both the scenario video and the captured image. It is effective to adjust the photographed image by the photographing unit 18.
  • the scenario video playback is restarted in response to a scenario video playback instruction from the user. It may be. Further, a means may be provided for judging the content of the image being photographed, and when it is determined that the photographed image is an image that should enter the synthesis area, the reproduction may be automatically resumed. For example, in the examples shown in Fig. 8 ⁇ and Fig. 8 ⁇ , a routine for recognizing a face is incorporated in the imaging device 10, and when it is determined that a face image has been synthesized in the synthesis area, the scenario video playback is restarted. can do.
  • a configuration in which a captured image to be combined with a combination area is overwritten with a scenario image has been described as a method for combining images, but another combination method is employed. It is also possible.
  • a transparent GIF format capable of specifying a transparent color is used as an image constituting a scenario image
  • the image may be synthesized by superimposing a captured image below the scenario image. As a result, the captured image below is displayed in the transparent color portion of the scenario image.
  • information on the rotation angle of the captured image may be included in the composite information. This makes it possible to compose an image at an angle that matches the scenery image without moving the camera. For example, if you want to combine a captured image with this face in the case of a character whose scenario image stands upside down, include the information on the rotation angle (180 °) of the captured image in the composite information and convert the captured image based on this information. If the composition is rotated and combined, an appropriate image can be combined without having the subject stand upside down or shooting upside down.
  • FIG. 9 is a diagram illustrating a configuration of an imaging device 10 according to the second embodiment.
  • the imaging device 10 according to the second embodiment has the same basic configuration as the imaging device 10 according to the first embodiment, but a combination area presentation unit 3 that presents information on the outer shape of the combination area. The difference is that it further has 0.
  • the synthesis area presentation unit 30 has a function of presenting information on the outer shape of the synthesis area to the user based on the synthesis information 16 before the time when the synthesis area appears.
  • the combining area presenting unit 30 displays, for example, the outline of the combining area as a frame on the scenario image.
  • the frame is a line for making the outline of the synthesis area stand out, and the shape and size of the synthesis area are indicated to the user.
  • FIG. 10 is a diagram showing the operation of the photographing unit 18 and the relationship between the display content on the display unit 24 and the scenario data when performing video synthesis.
  • FIG. 10 a description will be given of an operation of video composition by the imaging device 10 according to the second embodiment.
  • the horizontal axis is the time axis.
  • the user instructs the image capturing apparatus 10 to start reproducing a scenario video.
  • the instruction to start playback is The input of the combined reproduction control section 22 controls the combined reproduction section 20 to start the reproduction of the scenario video.
  • the imaging device 10 reads the scenario information 14 by the combining and reproducing unit 20 and reproduces the scenario video from the start of the reproduction of the scenario video until time T5 is reached.
  • the composite reproduction control unit 22 refers to the composite information 16 and presents information on the outline of the composite area that will appear at time T5 at time Tp before reaching time T5. This is sent to the section 30, and the combined area presenting section 30 displays a frame surrounding the combined area over the screen of the scenario video currently displayed on the display section 24.
  • FIG. 11A is a diagram illustrating an example of a composite video at time T5
  • FIG. 11B is a diagram illustrating an example in which information on the outer shape of the composite area is displayed on a screen.
  • the scenario image at time T5 is an image of a keeper who has caught a pole, and a circular composite area is located at the face.
  • the imaging device 10 displays the information on the outer shape of the combined area on the display unit 24 at the time Tp before the time T5 when the combined area appears.
  • the outline of the combined area is displayed as a frame F overlaid on the scenario image.
  • the imaging device 10 displays information on the outer shape of the combined area from time ⁇ to time ⁇ 5.
  • scenario video reproduction and video synthesis after time # 5 are the same as those of the imaging device 10 of the first embodiment. That is, after time # 5, the composite playback control unit 22 combines the scenario video and the image captured by the capturing unit 18 to create a composite video. Then, the imaging device 10 displays the composite video on the display unit 24 by the composite reproduction unit 20. According to the synthesis information 16 of the scenario data overnight, since there is no synthesis area appearing after time ⁇ 6, the imaging device 10 reproduces only the scenario video by the synthesis reproduction unit 20.
  • the outline of the synthesis area is displayed on the scenario video before the synthesis area appears and the image synthesis is started. Based on this, it is possible to predict an image to be synthesized in the synthesis area. This allows the user to prepare for capturing an image to be combined.
  • the imaging device 10 of the second embodiment is different from the imaging device 10 of the first embodiment.
  • the captured image and the scenario video can be synthesized while being shot, and the video can be synthesized quickly by simple operations.
  • the synthesis / reproduction control unit 22 also sends information on the position where the synthesis area is displayed at the time of the start to the synthesis area presentation unit 30.
  • a frame F indicating the outline of the composite area is displayed at that position in the scenario image. Displaying the position information in advance in this way is effective in an implementation in which the position of the synthesis area in the scenario image at the synthesis start time matches the position of the cutout portion in the captured image.
  • information on the outline of the composite area may be displayed anywhere on the display unit 24.
  • the imaging device 10 has a sub-screen in addition to the screen for reproducing and displaying the scenario video, it is also possible to display information on the outer shape of the synthesis area on the sub-screen.
  • the outline information of the combining area is displayed by the frame F.
  • the outline information may be indicated by a display other than the frame F.
  • the scenario video inside the combined area may be displayed thinner than the others. This also allows the user to know the outline of the composite area.
  • the outline information presented by the composite area presentation unit 30 is indicated by a frame F having the same shape and size as the composite area that actually appears.
  • information relating to only the shape or the size of the composite area may be presented by the composite area presentation unit 30.
  • information on the outer shape of the combining area is displayed.
  • a captured image currently captured by the capturing unit 18 may be displayed.
  • the captured image displayed on the display unit 24 may be the entire image captured by the capturing unit 18 or may be an image of only the combined range of the captured images.
  • the entire captured image is To display over the entire scenario video.
  • the part of the captured image cut out from the captured image is cut out from the currently captured image at the position of the composite area that appears at the start time of the composite area, transparently displayed, and superimposed on the scenario video I do.
  • the user cannot view the scenario image at time T5 that should be displayed together with the combined area before time T5. Therefore, even if information on the outer shape of the combined area is displayed before time T5 as described above, there is a possibility that it may not be clear what to put in the information to match the scenario image.
  • Information on the attributes of the combined area eg, “face” may also be displayed from time T p to time ⁇ 5 (however, the user can ignore this attribute and freely select the shooting target).
  • FIG. 12 is a diagram showing an imaging device 10 according to the third embodiment of the present invention.
  • the image capturing apparatus 10 according to the third embodiment has the same basic configuration as the image capturing apparatus 10 according to the second embodiment, but an evening image indicating that the appearance timing of the combined area is approaching. The difference is that a notification unit 32 is further provided.
  • the timing notification unit 32 detects the approach of the appearance time of the synthesis area based on the information on the appearance time of the synthesis area included in the synthesis information 16 and the elapsed time from the start of the scenario playback.
  • the timing notifying unit 32 may employ a configuration for notifying that the appearance time of the combined area is approaching, for example, by emitting a sound. As the appearance time of the synthesis area approaches, the sound to be generated can be made louder or the sound generation interval can be shortened to notify the approach of the appearance time of the synthesis area.
  • the timing notifying unit 32 informs the user that the appearance time of the combined area is approaching, based on the time ⁇ force ⁇ at which the combined area information is presented.
  • the user can know that the appearance time of the combination area is approaching, and can prepare for shooting an image to be combined.
  • the timing notifying unit 32 may notify that the appearance time of the combined area is approaching by a method other than sound. For example, slow down the playback speed of a video scenario By doing so, it is possible to adopt a configuration that notifies that the appearance timing is approaching, or a configuration that displays a countdown number on the screen. In addition, it may be continued even after the appearance time of the combined area has elapsed, and may be notified immediately after the appearance time. This can prompt the user to shoot an image to be combined. In this case, a configuration may be adopted in which the pitch and volume of the sound are changed at the appearance time.
  • FIG. 13 is a diagram illustrating a configuration of an imaging device 10 according to the fourth embodiment of the present invention.
  • the photographing apparatus 10 according to the fourth embodiment has the same basic configuration as the photographing apparatus 10 according to the second embodiment, but is used for inputting an instruction to start and end video synthesis.
  • the difference is that a combined timing input unit 34 is provided.
  • the timing information input from the composite timing input unit 34 is sent to the composite reproduction control unit 22.
  • the synthesis / playback control unit 22 controls the start or end of synthesis of the captured image and the scenario video based on the timing information from the synthesis timing input unit 34.
  • composition timing input section 34 provided in this way, the start and end of video composition can be input, so that the user can select the video composition timing.
  • the user can start the composition when the image to be combined is ready to be photographed, and can terminate the composition when the image to be combined cannot be photographed.
  • FIG. 14 is a diagram showing the operation of the photographing unit 18 and the relationship between the display contents on the display unit 24 and the scenario video when performing video synthesis.
  • FIG. 14 a description will be given of an operation of video synthesis by the imaging device 10 according to the embodiment.
  • the horizontal axis is the time axis.
  • the user instructs the image capturing apparatus 10 to start reproducing a scenario video.
  • a synthesis area is displayed on the scenario video reproduced on the screen of the imaging device 10.
  • the image being photographed by the photographing unit 18 is displayed in the combining area.
  • the synthesis start instruction has not been input to the synthesis timing input unit 34, the video displayed on the display unit 24 is not recorded.
  • imaging apparatus 10 When a synthesis start instruction is input at time T s, imaging apparatus 10 records the captured image displayed in the synthesis area in video recording unit 26. In addition, the imaging device 10 combines the photographed image (still image) at the time T s with the synthesis region from the appearance time T 5 of the synthesis region to the time T s when the start of the synthesis is instructed to create a synthesized video. And record. Thus, the image of the synthesis area until the synthesis start instruction is input can be complemented by the captured image at time Ts.
  • the method of complementing the synthesis area when the input timing of the synthesis start instruction is later than the appearance timing of the synthesis area has been described.
  • a buffer is provided between the video recording unit 26 and the synthesizing / reproducing unit 20, and the time T s and the time T s stored in the buffer are added to the scenery video from time T 5 to T s Then, the first captured image input to the buffer is synthesized, and the synthesized video obtained there is recorded in the video recording unit 26.
  • a description will be given of a complementing method when a synthesis end instruction is input while a synthesis area still appears.
  • FIG. 15 is a diagram showing the operation of the photographing unit 18 and the relationship between the display contents on the display unit 24 and the scenario image when performing video synthesis.
  • FIG. 15 a description will be given of the operation of video synthesis by the imaging device 10 according to the embodiment.
  • the horizontal axis is the time axis.
  • the user instructs the photographing device to start reproducing the scenario video.
  • the composite area is displayed in the video scenario reproduced on the screen of the imaging device 10.
  • An image captured by the imaging unit 18 is displayed in the combination area.
  • the photographing device 10 records the video synthesized on the screen in the video recording unit 26 after time T5.
  • photographing apparatus 10 terminates recording of the image photographed by photographing section 18.
  • the captured image (still image) at the time Te is combined with the combined area from the time Te instructed to finish combining to the appearance end time T6 of the combined area to create a combined video and recorded.
  • the image of the combined area from when the combining end instruction is input until the display of the combined area disappears at time T6 can be complemented by the captured image at time Te.
  • the captured image is not synthesized in the synthesis area by complementing the image of the synthesis area in the shifted period. Things can be avoided.
  • the image of the combined area is complemented by using the image at the time of starting or finishing the combining of the captured images.
  • the image of the combined area may be complemented by another method. It is also possible to stretch and record the captured image so as to be equal to the length of time during which the combined area appears. For example, if the appearance time of the composite area is 10 seconds and the playback time of the captured image is 5 seconds, the playback speed of the captured image is halved and the length of the image is reduced to the composite area. Can be adjusted to the appearance time of
  • the above-mentioned complementation is performed during playback to avoid the situation where the captured image is not synthesized in the composite area and play the composite video appropriately. can do.
  • FIG. 16 is a diagram illustrating a configuration of an imaging device 10 according to the fifth embodiment.
  • the configuration of the imaging device 10 according to the fifth embodiment is basically the same as that of the imaging device 10 according to the first embodiment, except that a still image is combined with a scenario video.
  • the imaging device 10 according to the fifth embodiment includes a shutter 36.
  • the shutter 36 is connected to the image capturing section 18. When the shutter 36 is pressed, the image capturing section 18 captures a still image at the timing of the pressing as an image to be recorded.
  • FIG. 17 is a diagram showing the relationship between the operation of the photographing unit 18, the display contents on the display unit 24, and the scenario when performing video composition.
  • FIG. 17 a description will be given of an operation of video synthesis by the imaging device 10 of the embodiment.
  • the horizontal axis is the time axis.
  • the user instructs the photographing device to start reproducing the scenario video.
  • the scenario data does not include the combination information, and the scenario video is reproduced.
  • the reproduction of the scenario video is started by the composite reproduction control unit 22 to which the reproduction start instruction is input, controlling the composite reproduction unit 20.
  • the imaging device 10 temporarily stops playing the scenario video.
  • the scenario image at time T5 is displayed on the screen.
  • the scenario video contains a composite area.
  • the composite playback control unit 22 combines the image in the field of view of the photographing unit 18 and the paused scenario video to create a composite video.
  • the synthesizing / reproducing unit 20 displays a video image synthesized under the control of the synthesizing / reproducing control unit 22. This composite video is a composite preview image.
  • Adjust the position or orientation of the imaging device 10 based on the composite preview image Take a still image to be combined.
  • press the shutter button 36 to acquire a still image.
  • the scenario video reproduction may be resumed when the shutter 36 is pressed by the user, or may be resumed after a predetermined time has elapsed from when the scenario video was paused.
  • the composite reproduction control unit 22 composites the scenario video with the still image captured by the capturing unit 18 to create a composite video. Specifically, under the control of the composite playback control unit 22, the composite playback unit 20 performs processing such as clipping or scaling on the acquired still image, and combines the processed image with the composite area in the scenario video. Combine with the area. Then, the imaging device 10 displays the composite video on the display unit 24 by the composite reproduction unit 20. In this case, unlike the case of shooting a moving image, the scenario image proceeds, but the image that fits in the composite area remains a still image.
  • the synthesis / playback control unit 22 controls the synthesis / playback unit 20 so that the captured image is synthesized with the scenario image while the synthesis region appears in the scenario image. That is, from time T5 to time T6, the combining and reproducing unit 20 combines the captured image and the scenario video.
  • the photographing device 10 reproduces the scenario video by the synthesizing reproduction unit 20.
  • the photographing device 10 records the video while the scenario video is being reproduced in the video recording unit 26. From time T5 to time T6, the composite video is recorded by either the method of recording the output from the composite playback unit 20 or the recording of a shot still image. Note that the composite preview image is not recorded.
  • the operation of the imaging device 10 according to the fifth embodiment has been described above.
  • the case of a still image has been described in accordance with the operation example of the first embodiment.
  • the operation example of the second embodiment, the timing notification of the third embodiment, and the fourth It is of course possible to apply the complementing method of the embodiment to the synthesis of still images.
  • the imaging device 10 converts a captured still image with a scenario image. It can be synthesized quickly to obtain a composite image.
  • the user can view the composite video and can adjust the image to be composited when capturing. That is, by capturing the target to be combined by the photographing unit 18 during the reproduction of the scenario video, the captured image can be combined as it is. This makes it possible to easily compose the video without the hassle of playing back the captured image once taken, extracting the target to be combined from the captured image, and synthesizing it at the playback timing of the scenario video. Can be.
  • the screen keypad is limited, such as in a mobile terminal, it is difficult to play back the scenario video and display the captured still image and edit it. However, it is effective to adjust the photographed image by the photographing unit 18 while displaying the image.
  • a still image may be imaged a plurality of times.
  • FIG. 18 is a diagram for explaining video synthesis when a still image is shot a plurality of times.
  • the horizontal axis is the time axis.
  • a combined image is displayed in which the still image captured the first time and the scenario image are combined.
  • a combined image obtained by combining the still image captured with the second shot and the scenario image is displayed.
  • a synthesized video obtained by synthesizing the still image shot with the third shot and the scenario video is displayed until the appearance period of the synthesis area ends.
  • a plurality of still images can be displayed like a slide show in the composite area of the scenario video.
  • the synthesized video obtained by synthesizing the nth shot still image and the scenario video is recorded in the video recording unit 26, but the display unit 2 4 may display an image obtained by synthesizing a preview image in the field of view of the imaging unit 18 with a scenario image. This allows the user to prepare for the next (n + 1) shooting with reference to the displayed preview image while playing back the scenario video.
  • the user may be allowed to select an image to be used for synthesis from a plurality of still images, or a composite video may be created and recorded using the still image captured last. If the still image taken last is synthesized, the shooting is terminated when the best image can be shot, so that the user can create a synthesized image from the still image best shot. Also, for example, in FIG.
  • FIG. 19 is a diagram illustrating an imaging device 10 according to the sixth embodiment of the present invention.
  • the imaging device 10 according to the sixth embodiment has the same basic configuration as the imaging device 10 according to the third embodiment, except that a clipping unit 50 that cuts out a part of a captured image is provided. different.
  • the clipping unit 50 has a function of cutting out a part of the image captured by the image capturing unit 18 as a partial image.
  • the clipping unit 50 cuts out a partial image according to the composite information 16 stored in the scenario storage unit 12.
  • FIG. 20 is a diagram illustrating an example of scenario data stored in the scenario storage unit 12.
  • the scenario data includes scenario information 14 and synthesis information 16 as in the above-described embodiment.
  • the synthesis information 16 includes clipping information for cutting out a partial image from a captured image, in addition to information defining a synthesis area.
  • clipping position for specifying the cutout position from the captured image
  • clipping shape for specifying the cutout shape
  • clicking change for indicating the change of the partial image
  • the basic operation of the photographing apparatus 10 according to the sixth embodiment is the same as the operation of the photographing apparatus 10 according to the above-described embodiment, except that a partial image cut out from the photographed image by the clipping unit 50. Is combined with the scenario video.
  • the operation of the imaging device 10 according to the sixth embodiment will be described.
  • the synthesis / reproduction control unit 22 reads the synthesis information 16 from the scenario storage unit 12 and passes the clipping information included in the synthesis information 16 to the clipping unit 50.
  • the cribing unit 50 receives a photographed image from the photographing unit 18 and cuts out a partial image from the received photographed image. Specifically, the region of the position and the shape specified by the clipping information passed from the synthesis / reproduction control unit 22 is cut out from the captured image as a partial image.
  • FIG. 21A is a diagram illustrating an example of a captured image
  • FIG. 21B is a diagram illustrating an example of a partial image.
  • the clipping shape is described as “ellipse” as in the example shown in FIG. 20
  • the elliptical partial image P shown in FIG. 21B is obtained from the captured image shown in FIG. 21A. It is cut out.
  • the clipping unit 50 passes the partial image cut out from the photographed image to the combining and reproducing unit 20. Further, the combined playback control unit 22 reads the scenario information 14 from the scenario storage unit 12 and passes the read scenario information 14 to the combined playback unit 20. The synthesizing and reproducing unit 20 synthesizes the partial image passed from the clipping unit 50 with the synthesizing area of the scenario video. Then, the combining and reproducing unit 20 sends the combined video to the display unit 24 and the video recording unit 26. The display unit 24 displays the composite video sent from the composite playback unit 20. The video recording unit 26 records the composite video sent from the composite reproduction unit 20.
  • the imaging device 10 according to the sixth embodiment of the present invention has been described above.
  • the imaging device 10 of the sixth embodiment includes a clipping unit 50, and the clipping unit 50 combines a partial image cut out from the captured image with a scenario video, so that a part of the captured image is converted into a scenario image. Can be synthesized.
  • the clipping unit 50 cuts out the partial image according to the clipping information described in the synthesis information 16, it is possible to specify in the synthesis information which part is cut out as the partial image.
  • the clipping information specifies the position and the shape of the partial image to be extracted, but the partial image may be specified in another mode.
  • FIG. 22 is a diagram illustrating another example of the composite information describing the clipping information. As shown in FIG. 22, it is also possible to define a partial image to be cut out as an area linked to the synthesis area.
  • FIG. 23A is a diagram showing a change in the position and shape of the combining region
  • FIG. 23B is a diagram showing a partial image cut out from a captured image (see FIG. 21A) in conjunction with the combining region.
  • the data to be recorded in the video recording unit 26 is a composite video synthesized by the composite playback unit 2.0. It may be recorded in 26.
  • the clipping unit 50 sends the partial image cut out from the photographed image to the synthesizing and reproducing unit 20, while sending the photographed image to the video recording unit 26.
  • the partial image and the scenario image are combined by the combining and reproducing unit 20, the combined image is displayed on the display unit 24, and the captured image is recorded in the image recording unit 26.
  • the i) identifier and i i) storage location of the captured video to be combined are recorded in the combined information of the scenario data.
  • the captured video indicated by the identifier i) recorded in the scenario data is read from the video recording unit 26, and the composite information is reproduced by the composite reproduction unit 20.
  • the composite video can be reproduced.
  • FIG. 25 is a diagram illustrating a configuration of an imaging device 10 according to the seventh embodiment.
  • the imaging device 10 according to the seventh embodiment has the same basic configuration as the imaging device 10 according to the sixth embodiment, but the imaging device 10 according to the seventh embodiment has The difference from the imaging apparatus 10 of the sixth embodiment is that the partial image cut out from the captured image is specified by specifying the type of the object to be included in the image. Accordingly, the seventh embodiment
  • the photographing device 10 further includes an image recognition unit 52.
  • FIG. 26 is a diagram illustrating an example of scenario data according to the seventh embodiment.
  • the scenario data includes scenario information 14 and composite information 16 as in the above-described embodiment.
  • the synthesis information 16 includes clipping information for cutting out a partial image in addition to information for specifying a synthesis area.
  • the clipping information specifies a partial image by specifying an object included in the partial image.
  • clipping target the information of the target for specifying the partial image.
  • FIG. 26 it is described that a portion including the clipping object “face” is cut out from the captured image as a partial image.
  • the image recognizing unit 52 has a function of recognizing the image of the image captured by the image capturing unit 18 and identifying the clipping target displayed in the captured image. Then, the image recognizing unit 52 passes information on the region where the clipping target is displayed to the clipping unit 50.
  • the operation of the imaging device 10 according to the seventh embodiment is basically the same as the operation of the imaging device 10 according to the sixth embodiment, except that a region cut out by the clipping unit 50 is recognized by the image recognition unit. The point to be obtained differs depending on 52.
  • the synthesis / reproduction control unit 22 of the photographing device 10 reads the synthesis information 16 from the scenario data stored in the scenario storage unit 12 and acquires information on a clipping target that specifies a partial image. Then, the synthesis / reproduction control unit 22 passes the information of the clipping target to the image recognition unit 52.
  • the image recognizing unit 52 identifies an area where the object to be clipped is displayed in the image captured by the image capturing unit 18 and passes information on the area to the clipping unit 50.
  • the clipping unit 50 cuts out the area indicated by the information passed from the image recognition unit 52 as a partial image.
  • FIG. 27A is a diagram illustrating an example of a captured image
  • FIG. 27B is a diagram illustrating an example of a partial image. If the object to be clipped is specified as “face” in the composite information 16, the area where “face” is displayed in the captured image shown in FIG. 27A is identified, and as shown in FIG. 27B. Is extracted as a partial image P. In this example, “face” is included.
  • a circular region is cut out as a partial image
  • the shape of the region from which the image including the clipping target is cut out is not limited to a circle. For example, a rectangular area may be cut out, or an area that matches the shape of the clipping target may be cut out.
  • the clipping unit 50 passes the partial image cut out from the photographed image to the combining and reproducing unit 20.
  • the synthesizing and reproducing unit 20 synthesizes the partial image passed from the clipping unit 50 with the synthesizing area of the scenario video.
  • the combining and reproducing unit 20 sends the combined image to the display unit 24 and the image recording unit 26.
  • the display unit 24 displays the composite video sent from the composite playback unit 20.
  • the video recording unit 26 records the composite video sent from the composite playback unit 20.
  • the imaging device 10 of the seventh embodiment specifies a partial image by specifying a clipping target to be included in the partial image, so that the partial image to be clipped can be easily specified. Then, the image recognizing unit 52 of the photographing device 10 can identify the region where the clipping target is displayed, and cut out the region including the clipping target.
  • the image capturing apparatus 10 of the seventh embodiment combines the partial image cut out by the clipping unit 50 with the scenario video, as in the image capturing apparatus 10 of the sixth embodiment. A part of the image can be combined with the scenery image.
  • the imaging apparatus 10 In the imaging apparatus 10 according to the seventh embodiment described above, a configuration is described in which the combined video obtained by combining the scenario video with the partial image cut out from the captured image is recorded in the video recording unit 26.
  • the captured image itself can be recorded in the video recording unit 26 in the same manner as described in the embodiment.
  • the imaging device 10 according to the eighth embodiment has the same basic configuration as the imaging device 10 according to the seventh embodiment (see FIG. 25), but is stored in the scenario storage unit 12.
  • the content of the synthesized information 16 differs.
  • the image recognition unit 52 has a function of identifying a target from a captured image and a target video from a scenario image.
  • FIG. 28 is a diagram illustrating an example of the scenario data stored in the scenario storage unit 12 of the imaging device 10 according to the eighth embodiment.
  • the synthesis reproduction control unit 22 of the photographing device 10 reads the scenario information 14 and the synthesis information 16 from the scenario data stored in the scenario storage unit 12, and determines a target object for specifying the synthesis area. Get information.
  • the combined playback control unit 22 passes the scenario information 14 to the combined playback unit 20.
  • the synthesizing / reproducing unit 20 passes the scenario image to the image recognizing unit 52 together with information on the target for specifying the synthesizing area.
  • the image recognition unit 52 identifies an area in the scenario video where the image of the target object is displayed, and passes information on the area to the synthesis and reproduction control unit 22 as synthesis area information.
  • the image recognizing unit 52 passes the information on the position and the shape of the combining area to the combining and reproducing control unit 22.
  • the combined playback control unit 22 passes the combined area information to the combined playback unit 20.
  • FIG. 29A is a diagram showing an example of a scenario video
  • FIG. 29B is a diagram showing a composite area in the scenario video. If it is specified in the composition information 16 that the composition area includes the target object “ball”, the area where “pole” is displayed is identified in the scenario image shown in FIG. As shown in 29 B, the area including the “pole” is the composite area G.
  • the combining / reproducing unit 20 combines the partial video passed from the clipping unit 50 with the scenario video based on the combining area information passed from the combining / playback controlling unit 22.
  • the process of clipping a part of the captured image as a partial image by the clipping unit 50 is the same as that of the image capturing apparatus 10 according to the seventh embodiment.
  • the synthesizing and reproducing unit 20 sends the synthesized video to the display unit 24 and the video recording unit 26.
  • the display unit 24 displays the composite video sent from the composite playback unit 20.
  • the video recording unit 26 records the composite video sent from the composite playback unit 20.
  • the imaging device 10 according to the eighth embodiment can easily specify a combination area by specifying an object to be included in the combination area.
  • Clipping information may be defined according to the position and shape of the cutout area. Also, clipping information is not always necessary, and the combined information 16 need not include clipping information. In this case, the entire captured image captured by the capturing unit 18 is combined with the combining area specified by the target.
  • the photographing apparatus 10 according to the ninth embodiment has the same basic configuration as the photographing apparatus 10 according to the first embodiment, but differs in the function of the composition and reproduction control unit 22.
  • FIG. 30 is a diagram showing the configuration of the combined reproduction control unit 22 according to the ninth embodiment.
  • the combined playback control unit 22 includes a schedule generation unit 54, a schedule execution unit 56, and a combined playback instruction unit 58.
  • the schedule generation unit 54 has a function of generating a data schedule list based on the scenario information 14 read from the scenario storage unit 12.
  • the schedule execution unit 56 has a function of extracting the schedule at the current time from the schedule list generated by the schedule generation unit 54.
  • the composite reproduction instructing section 58 has a function of instructing the composite reproducing section 20 to perform composite display or reproduction based on the contents of the schedule extracted by the schedule executing section 56.
  • FIG. 31A is a diagram showing an example of scenario data
  • FIG. 31B is a diagram showing a schedule list generated from the scenario data shown in FIG. 31A.
  • t l0s
  • the PAUSE schedule is executed. Add PAUSE schedule to schedule list.
  • the scenario video is paused after the simultaneous playback media is played back, so that the scenario video including the simultaneous playback media can be displayed in the paused state. Therefore, the user can shoot an appropriate image to be combined with the scenario video while viewing the displayed image.
  • the photographing apparatus 10 according to the second embodiment has the same basic configuration as the photographing apparatus 10 according to the first embodiment, but differs in the function of the composition and reproduction control unit 22.
  • FIG. 32 is a diagram showing a configuration of the synthesis / reproduction control unit 22 in the tenth embodiment.
  • the synthetic reproduction control unit 22 according to the tenth embodiment includes a state monitoring unit 60 and a schedule correction unit 62 in addition to the configuration of the synthetic reproduction control unit 22 according to the ninth embodiment.
  • the state monitoring unit 60 has a function of monitoring the operation rate of the CPU, the memory usage, and the operation rate of the device.
  • the schedule correction unit 62 has a function of setting a setup time for media playback based on each state obtained by the state monitoring unit 60.
  • FIG. 33A is a diagram showing an example of scenario data
  • FIG. 33B is a diagram showing a schedule list generated from the scenario data shown in FIG. 33A.
  • the schedule correction unit 62 obtains and calculates the time required for media playback or device startup preparation. Determine setup time based on time.
  • the photographing apparatus 10 according to the eleventh embodiment has the same basic configuration as the photographing apparatus 10 according to the first embodiment, but differs in the function of the composition and reproduction control unit 22.
  • FIG. 34 is a diagram illustrating a configuration of the synthesis / reproduction control unit 22 according to the first embodiment.
  • the combined playback control unit 22 in the first embodiment includes a combined image information generation unit 64 and a combined image generation unit 66 in addition to the configuration of the combination playback control unit 22 in the ninth embodiment.
  • the composite image information generation unit 64 It has a function of determining the start time of the synthesis with reference to the evening, and passing information for generating a synthesized image that is a still image of the scenario video at the start time of the synthesis to the synthesized image generation unit 66.
  • the composite image generation unit 66 has a function of generating a composite image based on the composite image information passed from the composite image information generation unit 64.
  • the composite image generation unit 66 stores the generated composite image in the scenario storage unit 12.
  • the schedule generation unit 54 generates a schedule list describing the pause of the scenario image after displaying the composite image. Further, the schedule generation unit 54 describes, in the schedule list, a process of adjusting the position at which the reproduction of the paused scenario image is resumed to the start time of the synthesis.
  • FIG. 35A is a diagram showing an example of scenario data
  • FIG. 35B is a diagram showing a schedule list generated from the scenario data shown in FIG. 35A.
  • the media (media B) whose playback is started is played back, and the imaging unit 1 is started.
  • the composite image generator: 66 displays the composite image generated by the component, and then describes the schedule list to pause the scenario video.
  • the composite image previously stored in the scenario storage unit 12 is displayed, so that the composite image can be displayed smoothly.
  • a process of adjusting the resume position of the pause of the playback to the start time of the composition (hereinafter, referred to as a PAUSE position correction process) is described as indicated by “SEEK:” in FIG. 35B.
  • the SEEK process is a process of moving the playback position to a designated time, and moves the playback position to the time at which the PAUSE process was performed by the SEEK process.
  • P AUSE position correction is performed to restore the time lag required until the reproduction is actually paused by the P AUSE process.
  • This PAUSE position correction process is not displayed on the screen, but a composite image of the composite image and the captured image displayed in the composite area is displayed on the screen. By doing so, even if it takes time before the playback of the scenario video is paused, the playback of the scenario video can be resumed from the start time of the synthesis.
  • the schedule generation unit 54 in the ninth embodiment or the tenth embodiment may generate a schedule list describing a process of adjusting a resume position of reproduction of a scenario video to a synthesis start time. It is possible.
  • FIGS. 36 to 38 are diagrams showing display examples on each screen when the imaging device 10 has two screens.
  • one screen left side
  • the other screen right side
  • a frame F indicating the outer shape of the combining area is displayed on the scenario video display screen in the same manner as described in the second embodiment.
  • the scenario image is reproduced and displayed on one screen (left side), and the composite image of the scenario image and the current captured image at the appearance time of the composite area is displayed on the other screen (right side).
  • a synthesized preview image that has been synthesized can also be displayed. As a result, the composite preview image can be confirmed before the composite region appears without the need to pause the reproduction of the scenario video as in the first embodiment.
  • the synthesized video is displayed on one screen (left side), and the shooting unit 18 displays the other screen (right side).
  • a captured image can be displayed.
  • the entire captured image can be viewed even during synthesis with the scenario video, so that an appropriate captured image can be obtained.
  • the imaging device 10 has two screens, one screen can be provided on the subject side.
  • the subject By displaying the composite image or the composite preview image on the screen on the subject side and showing the photographed image of the subject synthesized with the scenario image to the subject, the subject itself can grasp what kind of composite image is created. Thus, for example, it is possible to determine what pose the subject should pose.
  • the image captured by the image capturing apparatus 10 is determined by looking at the captured image displayed on the screen.
  • the configuration in which the image captured by the photographing device 10 can be confirmed by other methods may be adopted.
  • an irradiating unit may be provided in the imaging device 10 so that light is emitted to a range of the finder of the imaging device 10.
  • the photographing range can be confirmed by the light emitted to the subject.
  • the photographing apparatus and the photographing method of the present invention have been described.
  • a program for configuring the photographing apparatus or a program for executing the above photographing method is also included in the scope of the present invention.
  • FIG. 39 is a diagram showing an example of the program of the present invention.
  • the program 70 has a scenario data management module 72, a readout module 74, an imaging control module 76, a synthesis reproduction module 78, a display module 80, and a presentation module 82.
  • the computer on which the program 70 is installed is a computer having a photographing unit, for example, a digital camera.
  • the scenario data management module 72 is a module for causing a computer to manage scenario data.
  • the computer has a storage unit similar to the scenario storage unit 12 in the imaging device 10 of the above embodiment.
  • the read module 74 is a module for reading scenario data in a computer.
  • the shooting control module 76 is a module for causing a computer to shoot and obtain a shot image.
  • the photographing control module 76 the computer has the same function as the photographing condition control unit 28 in the photographing apparatus 10 of the above embodiment.
  • the synthesizing and reproducing module 78 is a module for synthesizing the captured image and the scenario video while causing the computer to reproduce the scenario video.
  • the display module 80 is a module for displaying a scenario image or a composite image on a computer.
  • the presentation module 82 is a module for causing a computer to present synthesized information to a user of the computer. By executing the presentation module 82, the imaging device 1 according to the second embodiment described above is executed. Composite territory at 0 The same function as the area presentation unit 30 can be realized.
  • a photographing device similar to the photographing device 10 of the second embodiment can be realized, and a scenario video and a photographed image can be synthesized while photographing.
  • the imaging apparatus of the present invention displays a composite video of a scenario video and a captured image on the display means, so that the user can perform shooting while viewing the composite video displayed on the display means. Also, it has an excellent effect that the position and orientation of the shooting device can be adjusted so that the video to be synthesized is properly shot, and is useful as a device that synthesizes images obtained by shooting with scenario video. It is.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

 撮影装置10は、撮影画像を取得するための撮影部18と、格納されたデータをシナリオ映像を構成するように読み出すための合成再生部20と、前記シナリオ映像中に前記撮影画像を合成するための合成情報を記憶するシナリオ格納部12と、前記合成再生部20により読み出される前記シナリオ映像に、前記撮影部18により取得された撮影画像を、前記シナリオ格納部12に記憶された合成情報に従って合成するための合成再生制御部22と、前記合成再生制御部22により得られる合成映像を表示する表示部24とを備える。

Description

技術分野
撮影により得られる画像と、 シナリオ映像とを合成する装置及び方法に関する。 背景技術
従来から、 二つの映像を合成する技術が提案されている。 この技術の一つとし てクロマキ一合成が知られている。 クロマキ一合成では、 被写体を特定色 (一般 的には青色) の背景で撮影し、 その特定色の背景を透明にすることにより被写体 だけを抜き出した映像を作る。 そして、 抜き出した映像を他の映像に重ねること により合成映像を作成する。
特開 2 0 0 1— 3 4 6 0 9 9号公報は、 ク口マキ一合成による合成映像を容易 に作成できるように映像を蓄積する装置を開示している。 カメラで被写体を撮影 した実写映像と撮影時におけるカメラの撮影状況を対応づけて格納することによ り、 将来必要に応じて合成映像の作成に利用可能としている。
特開平 4ー 1 8 3 1 8 3号公報では、 カラオケ用ビデオソフトの再生画像に、 歌っている人の顔や姿を合成する画像信号処理装置が開示されている。 発明の開示
特開 2 0 0 1— 3 4 6 0 9 9号公報に開示された装置は、 撮影した映像を格納 しておき、 後で映像の合成を行うための装置である。 例えば、 テレビ放送に用い られる映像では、 精度の高い映像合成が求められ、 上記のような装置を利用して 映像を編集することが好ましい。 しかし、 使用する態様によっては、 映像合成の 際の操作容易性やスピーディ一な映像合成が要求される場合がある。
映像合成の際の操作容易性が重視される一例としては、 カメラ付きの携帯電話 で撮影した映像を他の映像と合成する場合がある。 携帯電話は画面の大きさゃキ 一の種類に制限があるので、 一旦撮影した映像を読み出し、 読み出した映像から 所望の箇所を切り出して編集するという作業は面倒である。 また、 携帯電話で撮影した画像を映像合成用の端末に移して処理することも可 能であるが、 編集した合成映像をすぐに見ることができない。
特開平 4— 1 8 3 1 8 3号公報に開示された装置では、 合成する撮影画像とし てカラオケを歌う人の顔や姿を前提としている。 この前提の下では、 歌う人が立 つ位置は、 歌詞を表示する画面の前で概ね一定しており、 撮影用ビデオカメラの 位置や向きを調整しなくても適切な撮影画像を取得することができる。 また、 撮 影画像の合成も演奏の開始と共に行えばよく、 合成タイミングを制御する必要も ない。
このように特開平 4一 1 8 3 1 8 3号公報に記載の画像信号処理装置において は、 合成される撮影画像は、 あらかじめ定められた対象 (カラオケを歌う人の顔 や姿) であり、 合成タイミングもカラオケ用ビデオソフトの再生中というように 固定されている。 再生されるシナリオ映像に合わせて、 合成する撮影画像の対象 やその合成タイミングを制御することができない。
本発明は上記のような背景に鑑み、 撮影しながら映像合成を行える撮影装置お よび撮影方法を提供することを目的とする。 また、 本発明は、 所望のタイミング に適切な撮影画像の合成を行うことができる撮影装置を提供することを目的とす る。
本発明の撮影装置は、 撮影画像を取得するための撮影手段と、 格納されたデ一 タをシナリオ映像を構成するように読み出すための読出手段と、 前記シナリオ映 像中に前記撮影画像を合成するための合成情報を記憶する記憶手段と、 前記読出 手段により読み出される前記シナリォ映像に、 前記撮影手段により取得された撮 影画像を、 前記記憶手段に記憶された合成情報に従って合成する合成手段と、 前 記合成手段により得られる合成映像を表示する表示手段と、 を備える。
このように記憶手段に記憶された合成情報に従つて、 撮影画像とシナリォ映像 とを合成し、 合成して得られた合成映像を表示手段によって表示する構成により、 ユーザは表示手段に表示される合成映像を見ながら撮影を行うことができる。 例 えば、 適切な撮影画像を取得できるように撮影装置の位置や向きの調整を行うこ とや、 シナリオ映像にふさわしい撮影対象を選択することが可能となる。 すなわ ち、 表示手段に表示される合成映像を見ながら、 撮影装置を動かして所望の撮影 対象を捉えることができる。 また、 撮影しながら合成を行うことにより、 撮影の 終了とともに映像合成が完了するというスピ一ディ一な映像合成を実現できる。 なお、 「シナリオ映像」 とは、 撮影画像と合成される時間の概念を持つ映像であ り、 例えば、 動画、 アニメ一シヨン、 スライドショ一などである。 シナリオ映像 は、 一般的には、 シナリオ情報に従って表示等される。 ここで、 シナリオ情報と は、 例えば、 動画、 静止画、 テキスト、 または音声などのマルチメディアデ一夕 のうち、 どのデータを、 いつ、 どこに、 どのように出力するかを記述した情報で ある。 「撮影画像」 は、 シナリオ映像の再生中に撮影手段により取得される画像 であり、 ファイルなどの格納手段にあらかじめ格納されたデータにより構成され るものではない。 撮影画像は、 動画でもよいし、 静止画でもよい。
前記合成情報は、 前記撮影画像が前記シナリォ映像中に合成される時間に関す る情報を含む。
この構成により、 合成情報に基づいて、 撮影画像とシナリオ映像とが合成され る時間を規定することができる。 時間に関する情報は、 例えば、 合成を開始する シナリオ映像中の時刻または合成を終了するシナリオ映像中の時刻により規定さ れる。
前記合成情報は、 前記撮影画像が合成される合成領域の外形に関する情報と前 記合成領域の前記シナリオ映像を構成する画像中の位置に関する情報のうち少な くとも一つを含む。
この構成により、 撮影画像が合成される合成領域を規定することができる。 合 成領域に撮影画像をはめ込むことにより、 撮影画像とシナリォ映像との合成を行 える。 なお、 撮影手段により撮影した画像の全体を合成領域に合成してもよいし、 撮影した画像の一部を合成領域に合成してもよい。
上記撮影装置は、 前記合成情報に基づいて、 前記撮影画像が前記シナリオ映像 中に合成される時刻以前に、 前記合成領域に関する情報を、 前記撮影手段に対す る制御を行なうべきユーザに提示する手段をさらに備えてもよい。
この構成により、 ユーザは撮影画像がシナリォ映像中に合成される時刻以前に 合成領域に関する情報を取得できる。 これにより、 ユーザは、 シナリオ映像に合 成すべき画像を撮影するために、 撮影手段であるカメラの位置や向き又は撮影条 件の変更等を行うことができる。 なお、 撮影画像がシナリオ映像中に合成される 時刻以前とは、 合成が開始される時刻より前でもよいし、 合成が開始される時刻 でもよい。 合成が開始される時刻に合成領域に関する情報を提示する場合には、 ユーザがカメラを制御する時間を確保するため、 シナリオ映像の再生を一時停止 することが好ましい。
前記ユーザに提示する合成領域に関する情報は、 前記合成情報のうち外形およ び位置に関する情報の少なくとも一方に基づくものであってもよい。
この構成により、 ユーザは、 合成領域に合成ざれるべき画像を予測することが でき、 撮影準備を行うことができる。 外形に関する情報に基づく情報の提示には、 例えば、 合成領域の輪郭を表示する方法がある。 これにより、 合成領域の形状お よび大きさを提示できる。 位置に関する情報の提示は、 撮影画像の一部を合成領 域に合成する場合であつて、 かつ撮影画像の全体とシナリォ映像を構成する画像 の全体をそのまま重ね合わせて合成する場合に有効である。 すなわち、 撮影画像 の中の合成すべき対象物の位置とシナリオ映像を構成する画像の中の合成領域の 位置とがー致するようにカメラの位置または向きを調整すればよい。
前記ユーザに提示する合成領域に関する情報は、 前記撮影手段により取得され た撮影画像を、 前記合成情報のうち外形および位置に関する情報の少なくとも一 方に従って加工して得られた画像を含んでもよい。
このように撮影画像を提示することにより、 ュ一ザは、 撮影手段によってどの ような撮影画像が得られているかを把握できる。 これにより、 例えば、 合成が開 始される時刻以前に、 合成されるべき撮影対象にピントを合わせておくことがで きる。 ここで、 合成情報に従って加工するとは、 例えば、 撮影画像の切り出し、 拡大縮小等の処理であり、 これにより撮影画像を合成領域にはめ込むとどのよう な画像となって表示されるかを把握することができる。 また、 撮影画像は、 例え ば、 合成が開始される時刻においてシナリオ映像を構成する画像と共に表示する こともできる。 あるいは、 表示手段に現在表示中の、 すなわち合成が開始される 時刻より前のシナリオ映像と共に表示することもできる。 後者の場合は、 撮影画 像と表示中のシナリオ映像を構成する画像とを重ねて表示してもよいし、 並べて 表示してもよい。 前記ユーザに提示する合成領域に関する情報は、 前記撮影手段により取得され た撮影画像を、 該合成領域が出現することになつているシナリォ映像を構成する 画像中に、 前記合成情報に従つて合成して得られた画像を含んでもよい。
このように撮影手段により取得された撮影画像と合成領域が出現することにな つているシナリオ映像を構成する画像とを合成した合成プレビュー画像をユーザ に提示することにより、 ユーザは合成領域に合成される撮影画像を所望の画像と することが可能となる。 すなわち、 ユーザは、 合成プレビュー画像を見ることに より、 合成領域にふさわしい画像を選択し、 撮影することができる。 また、 合成 領域の形状、 大きさに応じて、 撮影手段による撮影のズーム率を調節したり、 背 景となるシナリォ映像に合わせて撮影画像の明るさを調節したりすることもでき る。 合成プレビュー画像は、 シナリオ映像の再生を一時停止して表示することと してもよいし、 シナリォ映像再生中の画面とは異なる画面に表示することとして もよい。
上記撮影装置は、 前記シナリォ映像へ前記撮影画像の合成を開始する時刻に、 前記シナリオ映像の再生を一 P寺停止する手段を備える。
このようにシナリォ映像の再生を一時停止することにより、 ユーザが撮影手段 であるカメラを制御する時間を確保できる。
上記撮影装置は、 前記合成領域の前記シナリォ映像を構成する画像中における 位置が、 時間の経過に伴って移動するように設定してもよい。
この構成により、 カメラの位置や向きを変えなくてもシナリオ映像を構成する 画像中での合成領域の位置を時間の経過に伴って移動させることができる。 例え ば、 合成情報に含まれる合成領域の位置に関する情報を時間の関数で表すことに より、 合成領域を移動可能に設定できる。
上記撮影装置は、 前記合成領域の外形が、 時間の経過に伴って変化するように 設定してもよい。
この構成により、 合成領域の外形を時間の経過に伴って変化させることができ る。 例えば、 合成情報に合成領域の外形の情報として複数の形状の情報を含め、 それぞれの形状情報を時間に関連付けておくことにより、 合成領域の外形が変化 するように設定できる。 上記撮影装置は、 前記シナリォ映像へ前記撮影画像の合成を開始する時刻が近 づいたことをュ一ザに知らせる手段をさらに備えてもよい。
この構成により、 ュ一ザは合成すべき画像を撮影する準備を行うことができる。 ユーザに知らせる手段としては、 例えば、 文字によってカウントダウンする構成、 音や光により知らせる構成、 シナリオ映像の再生速度を遅くして知らせる構成な どがある。 ここで、 「ユーザ」 には、 撮影を行う人のほか、 被写体となる人も含 まれる。
上記撮影装置は、 前記シナリオ映像へ前記撮影画像の合成を開始する時刻を含 む所定時間内において、 合成開始に関する情報をユーザに知らせる手段をさらに 備えてもよい。
この構成により、 ュ一ザが合成がまもなく開始されること、 または合成が開始 されたことを知ることができ、 合成すべき撮影画像を取得することができる。 合 成開始に関する情報をユーザに知らせる手段は、 例えば、 合成開始時刻を含む所 定時間内において、 音を出力する構成や、 光を点滅させる構成によって実現でき る。 合成開始時刻の前後で音や光を出力することで、 撮影画像を取得することを ュ一ザに促すことができる。 なお、 合成開始時刻が経過した後に、 ユーザが撮影 画像の撮影を開始した場合でも、 合成開始時刻からユーザが撮影を開始するまで の時間については、 例えば、 撮影開始後の撮影画像によって、 合成すべき画像を 補完することにより、 適切な合成映像を得ることが可能である。 ここで、 「ユー ザ」 には、 撮影を行う人のほか、 被写体となる人も含まれる。
上記撮影装置は、 前記合成映像を記録する手段をさらに備えてもよい。
この構成により、 撮影しながら合成した合成映像を後でそのまま再生すること ができる。
上記撮影装置は、 前記撮影手段により取得された撮影画像を前記シナリォ映像 の識別情報に関連付けて記録する手段をさらに備えてもよい。
この構成により、 関連付けられたシナリォ映像に撮影画像を合成しながら再生 することで合成映像を再生可能となる。 一つのシナリォ映像に対して複数の撮影 画像を記録しておけば、 一つのシナリオ映像から複数の異なる合成映像を再生す ることもできる。 前記撮影手段が、 前記合成情報に含まれる撮影条件に関する情報に基づいて撮 影してもよい。
この構成により、 合成領域に合成されるべき映像の内容に合った映像を撮影す ることができる。 撮影条件には、 例えば、 明るさ、 フォトライトの有無、 ズーム 率、 色調 (セピア、 白黒、 カラ一) などがある。
上記撮影装置は、 前記撮影画像と前記シナリォ映像との合成開始指示または合 成終了指示の少なくとも一方をユーザに入力させる入力手段を備えてもよい。 この構成により、 撮影画像とシナリォ映像との合成開始または合成終了のタイ ミングをユーザが選択可能となる。 合成開始指示を入力させる構成を採用すれば、 例えば、 合成映像の撮影準備ができた段階で合成を開始することができる。 また、 合成終了指示を入力させる構成を採用すれば、 例えば、 合成映像の撮影ができな くなつた場合には、 合成を終了することができる。 ここで、 ユーザとは撮影を行 う人である。
上記撮影装置は、 前記合成情報により規定された前記撮影画像の前記シナリォ 映像への合成開始時刻の経過後に前記合成開始指示が入力された場合には、 前記 規定された合成開始時刻から前記合成開始指示が入力されるまでの間に前記合成 領域に合成される画像を前記撮影画像または前記シナリオ映像によって補完して もよい。
この構成により、 合成情報により規定された合成開始時刻の経過後に、 ユーザ により合成開始指示が入力された場合にも適切な合成映像を作成できる。 撮影画 像で補完する方法としては、 例えば、 合成開始指示が入力された時点における撮 影画像を、 合成情報により規定された合成開始時刻から合成開始指示が入力され るまでの期間の合成領域に適用する方法、 または、 撮影画像の再生速度を遅くし て、 合成情報により規定された合成時間の長さに撮影画像を引き延ばす方法があ る。 シナリオ映像で補完する方法としては、 例えば、 合成情報により規定された 合成開始時刻から合成開始指示が入力されるまで、 合成領域にデフォルトのシナ リォ映像を表示する方法がある。
上記撮影装置は、 前記合成情報により規定された前記撮影画像の前記シナリォ 映像への合成終了時刻の前に前記合成終了指示が入力された場合には、 前記合成 終了指示が入力されてから前記規定された合成終了時刻までの間に前記合成領域 に合成される画像を前記撮影画像または前記シナリオ映像によって補完してもよ い。
この構成により、 合成情報により規定された合成終了時刻の前に合成終了指示 が入力された場合にも適切な合成映像を作成できる。 撮影画像で補完する方法と しては、 例えば、 合成終了指示が入力された時点での撮影画像を、 合成終了指示 が入力されてから合成情報により規定された合成終了時刻までの合成領域に適用 する方法、 または、 撮影画像の再生速度を遅くして、 合成情報により規定された 合成時間の長さに撮影画像を引き延ばす方法がある。 シナリォ映像で補完する方 法としては、 例えば、 合成終了指示の入力時から合成情報により規定された合成 終了時刻まで合成領域にデフォルトのシナリオ映像を表示する方法がある。 前記表示手段は複数画面からなり、 少なくとも一の画面で前記シナリォ映像ま たは前記合成映像を表示してもよい。
この構成により、 一の画面でシナリオ映像または合成映像を表示しつつ、 他の 画面でそれ以外の情報を確認することができる。 例えば、 撮影手段によって撮影 中の画像を他の画面に表示することが可能となる。 これにより、 合成されるべき 撮影対象に前もってピントを合わせ、 適切な撮影画像を取得できる。 また、 撮影 手段が捉えている画像をプレビュー画像として他の画面に表示することも可能で ある。 また、 画面の一つを被写体側に設ければ、 被写体に合成映像を見せること により、 被写体が合成映像を確認できる。
上記撮影装置は、 前記撮影手段により撮影されるべき点もしくは範囲を示す光 を照射する照射手段を備えてもよい。
この構成により、 被写体に照射された光によって、 ユーザは撮影手段により得 られる撮影画像を予想することができ、 この予想に基づいてカメラの位置や向き を制御することができる。
上記撮影装置において、 前記撮影手段により取得される撮影画像は連続的に撮 影される動画であり、 前記合成手段は、 前記シナリオ映像に前記動画を合成して もよい。
このように撮影手段により取得した動画を、 合成情報に基づいてシナリォ映像 に合成することができる。
上記撮影装置において、 前記撮影手段により取得される撮影画像は 1枚以上の 静止画であり、 前記合成手段は、 連続して読み出されるシナリオ映像に合成する 画像として前記静止画のうちの 1枚を所定時間内使用する。
このように撮影手段により取得した静止画を、 合成情報に基づいてシナリォ映 像に合成することができる。 なお、 所定時間とは、 合成情報により規定される合 成時間であってもよいし、 合成時間のうちの一部の時間でもよい。 合成時間のう ちの一部において静止画のうちの 1枚を合成する場合には、 静止画のうちの他の 1枚または複数枚を残りの合成時間において合成してもよい。
上記撮影装置は、 前記撮影手段により撮影した撮影画像の一部を部分画像とし て切り出す部分画像切出手段を備え、 前記合成手段は、 前記部分画像切出手段に より切り出された部分画像を前記シナリォ映像に合成してもよい。
この構成により、 撮影画像から切り出した部分画像をシナリォ映像に合成する ことができる。
上記撮影装置において、 前記記憶手段に記憶された合成情報は、 前記部分画像 切出手段にて部分画像を切り出す領域および時間帯を特定する部分画像特定情報 を含み、 前記部分画像切出手段は、 前記部分画像特定情報に基づいて前記撮影画 像から部分画像を切り出してもよい。
この構成により、 撮影画像から切り出す部分画像を合成情報に規定することが できる。 例えば、 シナリオ映像に合った部分画像を規定することが可能である。 上記撮影装置において、 前記部分画像特定情報によって特定された前記部分画 像の切出領域の位置は、 時間の経過に伴って移動してもよい。
この構成により、 カメラの位置や向きを変えなくても、 シナリオ映像に合成す る部分画像の位置を時間の経過に伴って移動させることができる。
上記撮影装置において、 前記部分画像特定情報によって特定された前記部分画 像の切出領域の形状は、 時間の経過に伴って変化してもよい。
この構成により、 部分画像の形状を時間の経過に伴って変化させることができ る。
上記撮影装置において、 前記部分画像特定情報は、 前記部分画像が含むべき対 象物によって部分画像を特定し、 前記部分画像切出手段は、 前記部分画像特定情 報にて特定された対象物が映つた部分を前記部分画像として前記撮影画像から切 り出してもよい。
この構成により、 対象物によって部分画像を特定するので、 シナリオ映像に合 つた部分画像を容易に特定できる。
上記撮影装置において、 前記合成情報は、 前記合成領域が含むべき対象物を特 定し、 前記合成手段は、 前記シナリオ映像のうち前記部分画像特定情報にて特定 された対象物が表示された部分を前記合成領域とし、 前記合成領域に前記撮影画 像を合成してもよい。
この構成により、 対象物によって合成領域を特定するので、 容易に合成領域を 特定できる。
上記撮影装置は、 前記撮影画像の合成を開始する時刻に再生を開始するデ一夕 があるときに、 そのデータの再生を開始した後に、 前記シナリオ映像を一時停止 する制御を行う制御手段を備えてもよい。
この構成により、 合成を開始する時刻にシナリオ映像の再生を一時停止する前 に、 同時刻に開始されるデータの再生を開始するので、 一時停止した状態で、 合 成の開始時刻におけるシナリオ映像を表示できる。
上記撮影装置は、 前記撮影画像の合成を開始する時刻に表示されるシナリオ映 像をプレビュー画像として記憶するプレビュー画像記憶手段と、 前記撮影画像の 合成を開始する時刻に、 前記プレビュー画像を表示し、 前記シナリオ映像を一時 停止する制御を行う制御手段とを備えてもよい。
この構成により、 合成を開始する時刻に表示されるシナリオ映像をプレビュー 画像として記憶し、 合成開始時刻に記憶されたプレビュー画像を表示するので、 一時停止した状態で、 合成開始時刻におけるシナリォ映像のプレビューを容易に 表示できる。
上記撮影装置において、 前記制御手段は、 前記シナリオ映像の再生を再開する 位置を前記合成の開始時刻に移動してもよい。
この構成により、 シナリオ映像再生の一時停止までに要した処理時間によらず、 合成の開始時刻からシナリォ映像の再生を再開することができる。 本発明のシナリオデ一夕は、 格納されたデータの出力方法を記述したシナリオ 情報と、 撮影により取得される撮影画像を、 前記シナリオ情報の記述にしたがつ て出力されるシナリオ映像に合成するための合成情報と、 を有する。
この構成により、 格納されたデ一夕に基づいて出力されるシナリオ映像と、 撮 影された撮影画像との合成を容易に行える。 合成情報は、 撮影画像をシナリオ映 像に合成するための情報であり、 例えば、 撮影画像を、 どのタイミングで、 どの 位置に合成するかを記述する情報である。 シナリオ情報は、 格納されたデータの 出力方法を記述する情報である。 シナリオ情報がどのデータを出力するかをあら かじめ記述しているのに対し、 合成情報では、 出力すべきデ一夕をあらかじめ固 定しておらず、 撮影の都度異なる撮影画像のデ一タを出力することを記述する。 撮影により取得された撮影画像を合成情報に基づいて出力し、 格納されたデータ をシナリォ情報に基づいて出力することにより、 シナリォ映像と撮影画像との合 成を容易に行える。
前記合成情報は、 前記撮影画像が前記シナリォ映像中に合成される時間に関す る情報を含んでもよい。
この構成により、 合成情報に基づいて、 撮影画像とシナリオ映像とが合成され る時間を規定することができる。 時間に関する情報は、 例えば、 合成を開始する シナリォ映像中の時刻または合成を終了するシナリォ映像中の時刻により規定さ れる。
前記合成情報は、 撮影画像が合成される合成領域の外形に関する情報と前記合 成領域の前記シナリオ映像を構成する画像中の位置に関する情報のうち少なくと も一つを含んでもよい。
この構成により、 撮影画像が合成される合成領域を規定することができる。 合 成領域に撮影画像をはめ込むことにより、 撮影画像とシナリォ映像との合成を行 える。 なお、 撮影手段により撮影した画像の全体を合成領域に合成してもよいし、 撮影した画像の一部を合成領域に合成してもよい。
上記シナリオデータにおいて、 前記合成情報は、 前記撮像画像の一部を部分画 像として切り出す領域および時間帯を特定する部分画像特定情報を含んでもよい。 この構成により、 シナリォ映像に合成するために撮影画像から切り出す部分画 像を規定することができる。
前記部分画像特定情報によって特定された前記部分画像の切出領域の位置は、 時間の経過に伴って移動してもよい。
この構成により、 カメラの位置や向きを変えなくてもシナリォ映像に合成する 部分画像の位置を時間の経過に伴って移動させることができる。
前記部分画像特定情報によって特定された前記部分画像の切出領域の形状は、 時間の経過に伴つて変化してもよい。
この構成により、 部分画像の形状を時間の経過に伴つて変化させることができ る。
前記部分画像特定情報は、 部分画像が含むべき対象物によつて前記部分画像の 領域および時間帯を特定してもよい。 .
この構成により、 対象物によって部分画像を特定するので、 シナリオ映像に合 つた部分画像を容易に特定できる。
上記シナリオデータにおいて、 前記合成情報は、 撮影画像が合成される合成領 域が含むべき対象物によって前記合成領域およびシナリォ映像が合成領域を含む 時間帯を特定してもよい。
この構成により、 対象物によって合成領域およびシナリォ映像が合成領域を含 む時間帯を特定するので、 容易に合成領域を特定することができる。
本発明の撮影方法は、 格納されたデータをシナリォ映像を構成するように読み 出すステップと、 撮影画像を取得するステップと、 前記シナリオ映像中に前記撮 影画像を合成するための合成情報を読み出すステップと、 前記シナリオ映像に、 前記撮影画像を、 前記合成情報に従って合成するステップと、 前記合成するステ ップにおいて得られる合成映像を表示するステップと、 を備える。
このように合成情報に従って、 撮影画像とシナリオ映像とを合成し、 合成して 得られた合成映像を表示することにより、 ユーザは表示される合成映像を見なが ら撮影を行うことができる。 例えば、 適切な撮影画像を取得できるように撮影装 置の位置や向きの調整を行うことや、 シナリオ映像にふさわしい撮影対象を選択 することが可能となる。 すなわち、 表示される合成映像を見ながら、 撮影画像を 取得するための力メラを動かして所望の撮影対象を捉えることができる。 また、 撮影しながら合成を行うことにより、 撮影の終了とともに映像合成が完了すると いうスピーディーな映像合成を実現できる。
本発明のプログラムは、 撮影画像とシナリオ映像とを合成するためにコンビュ 一夕に、 格納されたデータをシナリオ映像を構成するように読み出すステップと、 撮影画像を取得するステップと、 前記シナリオ映像中に前記撮影画像を合成する ための合成情報を読み出すステップと、 前記シナリオ映像に、 前記撮影画像を、 前記合成情報に従つて合成するステップと、 前記合成するステップにおいて得ら れる合成映像を表示するステップと、 を実行させる。
このプログラムをコンピュータにより実行させることにより、 コンピュータは、 合成情報に従って、 撮影画像とシナリオ映像とを合成し、 合成して得られた合成 映像を表示する。 これにより、 ユーザは表示される合成映像を見ながら撮影を行 うことができる。 例えば、 適切な撮影画像を取得できるように撮影装置の位置や 向きの調整を行うことや、 シナリオ映像にふさわしい撮影対象を選択することが 可能となる。 すなわち、 表示される合成映像を見ながら、 撮影画像を取得するた めのカメラを動かして所望の撮影対象を捉えることができる。 また、 撮影しなが ら合成を行うことにより、 撮影の終了とともに映像合成が完了するというスピー ディ一な映像合成を実現できる。
本発明の撮影装置は、 シナリォ映像に撮影画像を合成するための合成情報に基 づいて撮影画像とシナリォ映像とを合成し、 表示手段によつて合成映像を表示す るので、 ユーザは表示手段に表示される合成映像を見ながら撮影を行うことがで き、 また、 合成される映像が適切に撮影されるように、 撮影装置の位置や向きを 調整できるというすぐれた効果を提供することができるものである。 図面の簡単な説明
第 1図は、 第 1の実施の形態の撮影装置の構成を示す図である。
第 2図は、 シナリオデータの例を示す図である。
第 3図は、 シナリオ映像の表示の例を示す図である。
第 4 A図は、 合成映像の記録方式について説明する図である。
第 4 B図は、 合成映像の記録方式について説明する図である。 第 5 A図は、 合成映像の記録方式について説明する図である。
第 5 B図は、 合成映像の記録方式について説明する図である。
第 6図は、 撮影装置による映像合成の動作の流れを示す図である。
第 7図は、 撮影手段の動作および表示手段の表示内容とシナリォデータとの閧 係を示す図である。
第 8 A図は、 合成プレビュー画像の例を示す図である。
第 8 B図は、 合成映像の例を示す図である。
第 9図は、 第 2の実施の形態の撮影装置の構成を示す図である。
第 1 0図は、 撮影手段の動作および表示手段の表示内容とシナリオデータとの 関係を示す図である。
第 1 1 A図は、 合成映像の例を示す図である。
第 1 1 B図は、 合成領域の提示例を示す図である。
'第 1 2図は、 第 3の実施の形態の撮影装置の構成を示す図である。
第 1 3図は、 第 4の実施の形態の撮影装置の構成を示す図である。
第 1 4図は、 撮影手段の動作および表示手段の表示内容とシナリオデータとの 関係を示す図である。
第 1 5図は、 撮影手段の動作および表示手段の表示内容とシナリオデ一夕との 関係を示す図である。
第 1 6図は、 第 5の実施の形態の撮影装置の構成を示す図である。
第 1 7図は、 撮影手段の動作および表示手段の表示内容とシナリオデ一夕との 関係を示す図である。
第 1 8図は、 撮影手段の動作および表示手段の表示内容とシナリオデ一夕との 関係を示す図である。
第 1 9図は、 第 6の実施の形態の撮影装置の構成を示す図である。
第 2 0図は、 シナリオデータの例を示す図である。
第 2 1 A図は、 撮影画像の例を示す図である。
第 2 1 B図は、 部分画像の例を示す図である。
第 2 2図は、 合成情報の例を示す図である。
第 2 3 A図は、 合成領域の変動の例を示す図である。 第 2 3 B図は、 部分画像の例を示す図である。
第 2 4図は、 合成情報の例を示す図である。
第 2 5図は、 第 7の実施の形態の撮影装置の構成を示す図である。
第 2 6図は、 シナリオデータの例を示す図である。
第 2 7 A図は、 撮影画像の例を示す図である。
第 2 7 B図は、 部分画像の例を示す図である。
第 2 8図は、 シナリオデータの例を示す図である。
第 2 9 A図は、 シナリオ映像の例を示す図である。
第 2 9 B図は、 シナリォ映像中の合成領域を示す図である。
第 3 0図は、 第 9の実施の形態の合成再生制御部の構成を示す図である。 第 3 1図 Aは、 シナリオデ一夕の例を示す図である。
第 3 1図 Bは、 スケジュールリストの例を示す図である。
第 3 2図は、 第 1 0の実施の形態の合成再生制御部の構成を示す図である。 第 3 3図 Aは、 シナリオデータの例を示す図である。
第 3 3図 Bは、 スケジュールリストの例を示す図である。
第 3 4図は、 第 1 1の実施の形態の合成再生制御部の構成を示す図である。 第 3 5図 Aは、 シナリオデータの例を示す図である。
第 3 5図 Bは、 スケジュールリストの例を示す図である。
第 3 6図は、 撮影装置が二画面有する場合のそれぞれの画面での表示例を示す 図である。 - 第 3 7図は、 撮影装置が二画面有する場合のそれぞれの画面での表示例を示す 図である。
第 3 8図は、 撮影装置が二画面有する場合のそれぞれの画面での表示例を示す 図である。 ' , 第 3 9図は、 本発明のプログラムの例を示す図である。 発明を実施するための最良の形態
以下、 本発明の実施の形態について図面を用いて説明する。 図 1は、 本発明の第 1の実施の形態の撮影装置 1 0の構成を示す図である。 第 1の実施の形態の撮影装置 1 0は、 ュ一ザが位置や向きを変えることにより、 撮 影の対象を変えることができる携帯型の撮影装置である。 例えば、 携帯型のビデ ォカメラや、 カメラ付携帯電話などが含まれる。 撮影装置 1 0は、 シナリオデ一 夕を格納するシナリォ格納部 1 2と、 撮影画像を取得する撮影部 1 8と、 シナリ ォ映像の再生およびシナリオ映像と撮影画像との合成を行う合成再生部 2 0と、 合成再生部 2 0を制御する合成再生制御部 2 2と、 合成されたシナリオ映像を表 示する表示部 2 4とを備えている。 撮影部 1 8は、 例えば、 C C Dや CMO Sな どの半導体素子により構成され、 デジタル画像を取得する機能を有する。 撮影部 1 8は、 動画および静止画の少なくとも一方を撮影可能である。
撮影装置 1 0の詳細な説明に先立って、 撮影装置 1 0において合成されるシナ リオデ一夕について説明する。 シナリオデ一夕は、 シナリオ情報 1 4と合成情報 1 6を含む。 シナリオ情報 1 4は、 出力すべき実体デーダの出力方法を記述した 情報である。 シナリオ情報 1 4に基づいて再生されるシナリオ映像は、 時間と共 に変化する映像であり、 例えば、 動画、 アニメ一シヨン、 スライドショ一などが これに該当する。 合成情報 1 6は、 撮影画像をシナリオ映像中に合成するための 合成領域の外形、 シナリオ映像を構成する画像中における合成領域の位置、 およ び合成領域が出現する時間に関する情報である。 合成領域が出現する時間は、 シ ナリォ映像に撮影画像が合成されるべき時間である。
図 2はシナリオデータの例を示す図、 図 3は図 2に示すデータにより画面に表 示されるシナリオ映像および合成領域の例を示す図である。 シナリオ映像は、 一 のメディアにより構成されてもよいし、 複数のメディアにより構成されてもよい。 図 3では、 シナリオ映像は、 メディア Aとメディア Bとからなり、 合成領域がメ ディア Aの映像上に位置する。 合成領域は、 撮影部 1 8により取得される撮影画 像が合成される領域である。 なお、 シナリオ映像は、 再生時間中にメディアが再 生されない時間帯を含んでいてもよい。 例えば、 図 2に示す例において、 T 2く T 3の場合には、 メディァ Aが再生される時間帯とメディア Bが再生される時間 帯とが重ならず、 時刻 T 2〜T 3の間は再生されるメディアが存在しないが、 そ のようなシナリオ映像も本発明の範囲に含まれる。 図 2に示す例では、 シナリォデータは、 シナリォ情報 1 4と合成情報 1 6とを 有する。 シナリオ情報 1 4は、 メディア Aの出力方法を記述したシナリオ情報 1 4 aとメディア Bの出力方法を記述したシナリオ情報 1 4 bとを有する。 それぞ れのシナリオ情報 1 4 a、 1 4 bは、 i ) メディア識別子、 i i ) 実体データの 格納場所、 i i i ) メディアを再生表示する時間に関する情報、 i v) 映像を表 示する領域に関する情報を含む。 ここでは、 シナリオ情報 1 4 a、 1 4 bがそれ ぞれ 4つの情報を含むが、 必要に応じて他の情報を含んでもよい。
メディア識別子は、 メディアを特定するための情報である。 実体データの格納 場所は、 メディァの実体データが格納されたディレクトリおよびファイル名を示 す情報である。 ここでは、 シナリオ情報 1 4は、 実体デ一夕の格納場所に関する 情報を有し、 実体データはシナリオデータとは別に格納されている。 また、 図 2 では、 メディア Aおよびメディア Bともに、 「h o m e」 のディレクトリに実体 データが格納されているが、 それぞれのメディァの実体デ一夕が格納される場所 は異なってもよい。 このように実体デ一夕の格納場所を指定できる構成により、 例えば、 既存のさまざまなデータをシナリオ映像として容易に利用可能となる。 メディァを再生表示する時間に関する情報は、 そのメディァに基づいて映像を再 生する時間を特定する情報である。 ここでは、 シナリオ映像の再生開始が指示さ れてからの経過時間により再生開始および再生終了のタイミングが規定され、 再 生表示時間が特定されている。 例えば、 メディア Aは、 シナリオ映像の再生開始 が指示されてから T 1秒経過した時刻に再生が開始され、 T 2秒経過した時刻で 再生が終了することが分かる。 映像を表示する領域に関する情報は、 そのメディ ァに基づく映像を表示する位置および形状に関する情報である。 例えば、 メディ ァ Aは、 座標 (X a, Y a ) の位置に表示され、 その形状は矩形であることが分 かる。
このようにシナリオ情報 1 4は、 そのメディアを表示する時間と領域に関する 情報を有することができる。 これらの情報に基づいて、 指定された時間および領 域にそのメディアの映像を表示する。 なお、 ここでは、 シナリオデータは、 メデ ィァごとに記述されているが、 そのほかの記述方法を採用することも可能である。 例えば、 シナリオ映像の再生時間ごとに出力方法を記述してもよい。 次に、 合成情報 1 6について説明する。 合成情報 1 6は、 シナリオ映像に撮影 画像を合成するための情報である。 合成情報 1 6は、 合成領域が出現する時間に 関する時間情報と、 合成領域の位置および外形に関する領域情報とを含んでいる。 時間情報は、 シナリオ映像中に合成領域が出現する時間を、 シナリオ映像の再生 開始時からの経過時間によって規定する情報である。 図 2に示す例では、 シナリ ォ映像再生開始から T 5秒経過時点から T 6秒経過時点までの期間に合成領域が 出現する。 すなわち、 この期間がシナリオ映像に撮影画像を合成する期間である。 領域情報は、 時間情報によって規定される期間に出現する合成領域の位置および 外形を規定する情報である。 図 2に示す例では、 合成領域の出現する位置は座標 (X c、 Y c ) であり、 合成領域の形状は半径 Rの円である。 なお、 合成領域が 出現する位置については、 出現位置を規定する座標を時間の関数とすることによ り、 合成領域の位置が移動するように設定することも可能である。 また、 合成領 域の外形についても、 時間のパラメータを設定することにより、 シナリオ映像の 再生時間の経過に伴って外形を変化させることができる。
合成領域に合成される映像は、 他の映像を上書きする形式で表示される。 合成 領域とメディァの映像が重なった場合には、 合成領域の映像が優先して表示され る。 例えば、 図 3に示すように、 合成領域とメディア Aの映像の表示領域が重な つた場合には、 合成領域はメディア Aの映像より前面に配置され、 撮影部 1 8に より撮影された画像によってメディア Aの映像を上書きする。
図 1に戻って、 撮影装置 1 0の構成について説明する。
シナリオ格納部 1 2は、 図 2で説明したようなシナリオデータを格納している。 撮影装置 1 0は、 シナリオ格納部 1 2に格納されたシナリオデ一夕を読み出して 表示部 2 4にシナリォ映像を再生し、 かつ撮影部 1 8により撮影された画像をシ ナリオ映像に合成する合成再生部 2 0と、 合成再生部 2 0を制御する合成再生制 御部 2 2とを有する。
合成再生制御部 2 2は、 シナリォ格納部 1 2からシナリォ情報 1 4および合成 情報 1 6を読み出し、 これらの情報に基づいて合成再生部 2 0を制御する。 合成 再生制御部 2 2は、 撮影部 1 8により撮影された画像を、 合成情報 1 6に基づい てシナリォ映像中の合成領域にはめ込むことにより、 撮影画像とシナリォ映像を 合成する。 このとき合成される画像は、 撮影部 1 8により取得した画像の全体で もよいし、 取得した画像の一部でもよい。 撮影部 1 8により取得した画像を合成 する際には、 合成領域の大きさに合うように画像を加工する。 例えば、 合成領域 に合うように、 合成すべき画像の切出し、 および Zまたは撮影画像の拡大縮小を 行う。 また、 撮影部 1 8により取得した画像の一部を合成に用いる場合には、 合 成領域の出現開始時刻においてシナリオ映像中の合成領域が位置する部分を撮影 画像から切り出して合成に用いると処理が簡単である。 すなわち、 表示されるシ ナリオ映像と、 撮影部 1 8により取得された画像とを表示部 2 4上で重ねて表示 したときに、 合成領域と重なる部分を撮影画像から切り出して合成に用いる。 こ れにより、 合成領域に入れるべき対象が撮影部 1 8によって撮影されるように撮 影装置 1 0の向きを調整しやすい。 また、 合成領域の出現する位置にかかわらず、 撮影画像の決まった位置 (例えば、 中央) の部分を合成領域の外形に合わせて切 り出して合成に用いるようにしてもよい。 撮影画像から切り出す位置に関する情 報を合成情報に含め、 この情報に基づいて、 合成領域に合成すべき画像を撮影画 像から切り出してもよい。
合成再生部 2 0は、 合成再生制御部 2 2の制御に基づいて、 シナリオ映像の再 生および合成映像の再生を行う。 シナリオ映像の再生は、 シナリオ格納部 1 2に 格納されたシナリォ情報に基づいて、 図 1に示さない格納部に格納された実体デ 一夕をシナリオ情報に従って読み出し、 読み出した実体データを再生する。 実体 データは、 図 1には示さないが、 どこに格納されていてもよい。 シナリオ格納部 1 2にシナリオデータと共に格納しておくことも可能である。 合成再生部 2 0は、 シナリオ情報により指定された格納場所から実体デ一夕を読み出して再生する。 なお、 合成再生制御部 2 2によって実体データを読み出し、 合成再生部 2 0に送 る構成とすることも可能である。
映像記録部 2 6には、 合成再生制御部 2 2により合成された映像が記録される。 ここで、 映像記録部 2 6への記録方式は、 画面に再生された合成映像をそのまま 記録する方式を採用してもよいし、 合成すべき撮影画像とシナリォ映像とを別々 に記録する方式を採用してもよい。 前者の方式を採用した場合には、 記録された 合成映像を読み出せばそのまま合成映像を再生できる。 後者の方式を採用する場合には、 撮影画像が合成されるシナリォ映像の識別情 報を関連付けておく。 例えば、 図 4 Aに示すように、 あらかじめ合成情報に i ) 合成情報識別子を含めておく。 ここでは、 「C a m e r a A」 という識別子が付 され、 C a m e r a Aで撮影された撮影画像が合成されることを示している。 そ して、 撮影画像を記録する際には、 図 4 Bに示すように、 撮影部 1 8により撮影 された撮影画像のデ一夕を格納した場所に関する情報 (ディレクトリおよびファ ィル名) をシナリオデータに関連付ける。 再生する際には、 記録された撮影画像 を読み出すと共にシナリオ映像を読み出す。 そして、 そのシナリオ映像の合成情 報に従って、 読み出した撮影画像を合成し、 その合成映像を表示することで合成 映像の再生を行える。
また、 合成情報に撮影画像の情報を含めたシナリオデータを生成してもよい。 すなわち、 '図 5 Aに示すように、 あらかじめ合成情報に i ) 合成情報識別子を含 めておく。 そして、 撮影画像を記録する際には、 図 5 Bに示すように、 撮影部 1 8により撮影した撮影画像をシナリオデータを構 するメディァの一つ (メディ ァ C) として取り扱い、 新たなシナリオデータを生成する。 メディア Cも、 メデ ィァ Aまたはメディア Bと同様に、 i ) メディア識別子、 i i ) 実体データの格 納場所、 i i i ) メディアを再生表示する時間に関する情報、 i v) 映像を表示 する領域に関する情報を含む。
また、 記録する範囲についても、 シナリオ映像の再生開始から再生終了まで記 録する方式を採用してもよいし、 合成領域が出現するシナリオ映像の部分を記録 する方式を採用してもよい。
撮影条件制御部 2 8は、 撮影部 1 8の撮影条件等を制御する機能を有する。 撮 影条件には、 例えば、 明るさ、 フォトライトの有無、 ズーム率、 色調 (セピア、 白黒、 カラー) などの条件がある。 合成情報 1 6に、 合成されるべき画像の撮影 条件の情報が含まれている場合には、 撮影条件制御部 2 8はその情報に基づいて 撮影条件を設定する。 また、 撮影条件制御部 2 8は、 ユーザによる撮影条件の設 定を受け付けることも可能である。
図 6は撮影装置 1 0による映像合成の動作の流れを示す図、 図 7は映像合成を 行う際の、 撮影部 1 8の動作および表示部 2 4での表示内容とシナリオデータと の関係を示す図である。 なお、 図 7においては、 横軸は時間軸を示し、 右に行く に従って時間が経過していることを示す。
まず、 ユーザが撮影装置 1 0に対してシナリオ映像の再生開始を指示する (ス テツプ S 1 ) 。 シナリオ映像再生開始の指示は、 合成再生制御部 2 2に入力され る。 合成再生制御部 2 2が合成再生部 2 0を制御することにより (ステップ S 2 ) 、 合成再生部 2 0がシナリオ映像の再生を行う。 すなわち、 合成再生部 2 0 は実体データ格納部 4 0からシナリォ情報 1 4を読み出し、 シナリォ情報 1 4に 基づいてシナリオ映像を再生する (ステップ S 3 ) 。 実体デ一夕格納部 4 0はど こにあってもよく、 図 6では点線で示している。 ここでは、 図 2に示すシナリオ デ一夕に従ってシナリオ映像が 生されるものとする。 すなわち、 シナリオ映像 中に合成領域が出現する期間は時刻 T 5から時刻 T 6の間である。 図 7に示すよ うに、 時刻 T Oから時刻 T 5までの間は、 シナリオデータに合成情報が含まれて おらず、 シナリオ映像が再生されるだけである。 なお、 メディア Aおよびメディ ァ Bは、 時刻 t = 0から時刻 t =T 7まで再生されるものとする。 すなわち、 メ ディァ Aの開始時刻 T 1とメディァ Bの開始時刻 T 3は t = 0、 メディァ Aの終 了時刻 T 2とメディア Bの終了時刻 T 4は t = T 7であるとする。
合成再生制御部 2 2は、 合成再生部 2 0によってシナリオ映像を再生する一方 で、 シナリオ格納部 1 2から読み出した合成情報 1 6に基づいて、 合成領域の出 現タイミングを管理する。 合成領域の出現タイミング (時刻 T 5 ) になると、 合 成再生制御部 2 2は合成再生部 2 0に対してシナリォ映像再生の一時停止を指示 する (ステップ S 4 ) 。 合成再生制御部 2 2は、 さらに撮影条件制御部 2 8に対 し、 プレビューモード (撮影画像を記録せずに画面に表示するモ一ド) での撮影 を指示する。 撮影条件制御部 2 8は、 合成再生制御部 2 2からの指示に従って、 撮影部 1 8を制御し、 プレビューモードでの撮影を開始する (ステップ S 4 ) 。 このとき、 合成情報 1 6に撮影条件に関する情報が含まれている場合には、 撮 影条件制御部 2 8がその撮影条件に基づいて撮影部 1 8を制御する。 これにより、 シナリオ映像に合った撮 画像を取得できる。 例えば、 シナリオ映像の色調がセ ピアである場合に、 合成される画像の色調もセピアであることが好ましいとシナ リオ映像の作成者が考えれば、 合成情報 1 6に撮影条件として色調がセピアであ ることを含ませる。 撮影条件制御部 2 8は、 合成情報 1 6に含まれる撮影条件に より撮影部 1 8を制御し、 色調がセピアの撮影画像を取得する。
撮影部 1 8によって撮影された画像は合成再生部 2 0に送られ、 合成再生部 2 0によって撮影画像とシナリオ映像とが合成される (ステップ S 5 ) 。 より詳し くは、 表示部 2 4には時刻 T 5におけるシナリオ映像が静止画として表示される。 シナリォ映像中に含まれる合成領域に撮影画像が合成され、 合成映像が作られる。 この合成映像が合成プレビュー画像である。 図 7に示すように、 シナリオ映像の 再生が時刻 T 5で一時停止され、 表示部 2 4に合成プレビュー画像が表示される。 図 8 A及び図 8 Bは、 合成プレビュー画像の例を示す図である。 シナリオ映像 の再生は停止されており、 静止画像が表示される。 合成領域には、 撮影部 1 8に より取得された撮影画像が表示される。 撮影装置 1 0を動かすと、 撮影部 1 8に より取得する画像が変わり、 図 8 A及び図 8 Bに示すように合成領域に合成され る画像が変化する。
ュ一ザは、 合成プレビュー画像を見ながら、 合成領域に所望の画像が入るよう に撮影装置 1 0の位置や向き、 ズーム率、 または明るさ等を調整する。 例えば、 図 8 A及び図 8 Bに示す例では、 シナリォ映像は、 キーパーがポ一ルをキヤツチ する瞬間の映像である。 合成領域は、 キーパーの顔の部分に位置し、 撮影部 1 8 による撮影画像が合成領域にはめ込まれる。 図 8 Aでは、 撮影画像がポールと足 であり、 シナリオ映像に合成される映像としては、 ふさわしくない。 そこで、 撮 影装置 1 0を動かして撮影箇所を変えることにより、 顔の画像を撮影する。 これ により、 図 8 Bに示すようにシナリォ映像にふさわしい合成映像を得ることがで きる。 このように合成プレビュー画像を表示することにより、 ユーザが撮影部 1 8により取得する画像を調整することが可能となる。
次に、 ユーザが撮影装置に対して一時停止解除の指示を行う。 この指示は、 例 えば、 ユーザが合成領域の所望の画像を合成できたと判断した場合になされる。 一時停止解除の指示は、 合成再生制御部 2 2に入力される (ステップ S 6 ) 。 合 成再生制御部 2 2は、 シナリォ映像再生の再開を合成再生部 2 0に指示するとと もに、 撮影条件制御部 2 8に対して記録モードでの撮影を指示する (ステップ S 6 ) 。 図 7に見られるように、 一時停止指示の時刻と一時停止解除の時刻 tはと もに T 5で同じであり、 シナリオデータ内の時刻が停止している。 なお、 この間、 実時間は経過している。
撮影部 1 8によって撮影された画像は、 合成再生部 2 0に送られ、 シナリオ映 像と合成される (ステップ S 7 ) 。 具体的には、 シナリオ映像に含まれる合成領 域に、 撮影画像がはめ込まれることにより、 合成映像が作成される。 なお、 撮影 部 1 8が動画を撮影する場合、 例えば被写体が動けば、 合成領域の中にはめ込ま れる画像が変化することとなる。
シナリォ映像中の合成領域がシナリォ映像の進行に伴つて移動するように作ら れている場合には、 合成される撮影画像の位置が移動する合成映像を作成できる。 また、 撮影画像の一部を切り出して合成領域に合成する場合に、 その切り出す位 置を一定とすれば、 撮影装置を動かさないで同じ対象物を撮影画像として捉えつ つ、 その対象物の画像がはめ込まれる合成領域がシナリォ映像中を移動するとい う合成映像を作成することができる。 また、 撮影画像の一部を切り出して合成領 域に合成する場合に、 その切り出す位置を合成領域の位置に合わせて移動させる ことも可能である。
そして、 合成再生部 2 0は、 合成映像を表示部 2 4に表示する。 また、 撮影部 1 8は、 図 6中破線矢印で示すように、 撮影画像を映像記録部 2 6に送り、 映像 記録部 2 6に記録する (ステップ S 7 ) 。 このとき、 再生中のシナリオ映像の識 別情報と共に撮影画像を記録する。 シナリォ映像と撮影画像とを関連付けておく ことにより、 合成映像を再生する際には、 撮影画像とその撮影画像に関連付けら れたシナリオ映像とを合成し、 撮影時に画面に表示された合成映像を再生できる。 なお、 映像記録部 2 6への記録は、 別の方式でも可能である。 すなわち、 図 6 中破線矢印で示すように、 撮影部 1 8からの撮影画像ではなく、 合成再生部 2 0 から出力される合成映像を映像記録部 2 6に記録する。
合成再生制御部 2 2は、 シナリォ格納部 1 2から読み出した合成情報 1 6に基 づいて、 合成領域の出現が終了するタイミングを管理する。 そして、 シナリオ映 像中から合成領域がなくなる時刻 Τ 6になると、 合成再生制御部 2 2は、 撮影条 件制御部 2 8に対して、 撮影終了を指示する。 これにより、 撮影条件制御部 2 8 は撮影部 1 8による撮影を終了させる (ステップ S 8 ) 。 合成再生制御部 2 2は、 シナリォ映像の再生の終了時刻 T 7になると、 シナリォ映像の再生終了を合成再 生部 2 0に知らせる (ステップ S 9 ) 。
以上、 第 1の実施の形態の撮影装置 1 0の動作例について説明した。
第 1の実施の形態の撮影装置 1 0においては、 シナリオデ一夕が、 撮影画像を 合成するための合成情報 1 6を有している。 合成情報 1 6に基づく合成再生制御 部 2 2の制御により、 合成再生部 2 0が、 撮影部 1 8によつて撮影した画像とシ ナリオ映像とを合成して合成映像を作り、 合成映像を表示部 2 4に表示する。 こ れにより、 撮影しながらシナリオ映像と撮影画像を合成することができる。 従つ て、 撮影した画像とシナリオ映像とをスピーディーに合成し、 合成映像を得るこ とができる。
また、 合成すべき画像の撮影中に表示部 2 4に合成映像を表示するので、 ユー ザは合成映像を見ることができ、 合成すべき画像を撮影時に調整することができ る。 すなわち、 シナリオ映像の再生中に撮影部 1 8により合成すべき対象を撮影 することにより、 撮影した画像をそのまま合成できる。 いったん撮影した撮影画 像を後で再生し、 撮影画像から合成すべき対象を切り出し、 シナリオ映像の再生 夕イミングに合わせて画像を合成するという手間がなく、 容易に映像の合成を行 うことができる。 特に、 例えば携帯端末のように画面やキーパッドに制限がある 場合には、 シナリオ映像と撮影画像の両方を再生し、 編集するのは困難なので、 シナリォ映像を表示部 2 4に表示する一方で、 撮影部 1 8により撮影画像を調整 する方法が有効である。
なお、 上記した実施の形態では、 ュ一ザからのシナリオ映像再生の指示によつ てシナリォ映像の再生を再開するが、 シナリォ映像を一時停止した時点から所定 の時間が経過した後に再開することとしてもよい。 また、 撮影中の画像の内容を 判断する手段を備え、 撮影画像が合成領域に入るべき画像であると判断したとき に、 自動的に再生を再開してもよい。 例えば、 図 8 Αおよび図 8 Βに示す例では、 撮影装置 1 0に顔を認識するルーチンを組み込んでおき、 合成領域に顔の画像が 合成されたと判定したときに、 シナリオ映像の再生を再開することができる。 また、 上記実施形態では、 画像の合成方法として、 合成領域に合成される撮影 画像をシナリオ映像に上書きする構成について説明したが、 他の合成方法を採用 することも可能である。 例えば、 シナリオ映像を構成する画像として透明色を指 定可能な透過 G I Fフォーマツトを用いる場合には、 シナリオ映像の下に撮影画 像を重ねることにより、 画像を合成してもよい。 これにより、 シナリオ映像の透 明色の部分には、 下にある撮影画像が表示されることになる。
また、 合成情報に撮影画像の回転角度の情報を含めてもよい。 これにより、 力 メラを動かさなくてもシナリォ映像に合った角度の画像を合成することが可能と なる。 例えば、 シナリオ映像が逆立ちしたキャラクタ一で、 この顔の部分に撮影 画像を合成したい場合、 合成情報に撮影画像の回転角度 (1 8 0 ° ) の情報を 含め、 この情報に基づいて撮影画像を回転して合成する構成とすれば、 被写体に 逆立ちしてもらったり、 カメラを逆さにして撮影しなくても、 適切な画像を合成 することができる。
図 9は、 第 2の実施の形態の撮影装置 1 0の構成を示す図である。 第 2の実施 の形態の撮影装置 1 0は、 第 1の実施の形態の撮影装置 1 0と基本的な構成は同 じであるが、 合成領域の外形の情報を提示する合成領域提示部 3 0をさらに備え ている点が異なる。 合成領域提示部 3 0は、 合成情報 1 6に基づいて、 合成領域 が出現する時刻より前に、 合成領域の外形の情報をユーザに提示する機能を有す る。 具体的には、 合成領域提示部 3 0は、 例えば、 合成領域の外形を枠としてシ ナリオ映像に重ねて表示する。 枠とは、 合成領域の輪郭を目立たせるための線で あり、 これにより、 合成領域の形状とその大きさがユーザに示される。
図 1 0は、 映像合成を行う際の、 撮影部 1 8の動作および表示部 2 4での表示 内容とシナリオデータとの関係を示す図である。 図 1 0を参照しながら、 第 2の 実施の形態の撮影装置 1 0による映像合成の動作について説明する。 なお、 図 1 0も図 7と同様に、 横軸を時間軸としている。
まず、 ユーザが撮影装置 1 0に対してシナリオ映像の再生開始を指示する。 こ こでは、 図 2に示すシナリオデータに従ってシナリオ映像の再生がなされるもの とする。 すなわち、 シナリオ映像中に合成領域が出現する期間は時刻 T 5から時 刻 T 6の間である。 また、 メディア Aおよびメディア Bは、 時刻 t = 0から時刻 t =T 7まで再生されるものとする。 図 1 0に示すように、 時刻 T Oから時刻 T 5までの間は、 シナリオデータに合成情報が含まれていない。 再生開始の指示が 入力された合成再生制御部 2 2が合成再生部 2 0を制御することによりシナリオ 映像の再生が開始される。
撮影装置 1 0は、 シナリオ映像の再生開始から時刻 T 5に達するまでは、 合成 再生部 2 0によってシナリオ情報 1 4を読み出してシナリオ映像を再生する。 合 成再生制御部 2 2は、 合成情報 1 6を参照し、 時刻 T 5に達する前の時刻 T pに おいて、 時刻 T 5に出現することになる合成領域の外形の情報を合成領域提示部 3 0に送り、 合成領域提示部 3 0は、 表示部 2 4に現在表示されているシナリオ 映像の画面に重ねて合成領域を囲む枠を表示する。
図 1 1 Aは時刻 T 5における合成映像の例を示す図、 図 1 1 Bは合成領域の外 形の情報を画面に表示した例を示す図である。 図 1 1 Aに示すように、 時刻 T 5 におけるシナリォ映像はポールをキャッチしたキーパーの映像であり、 その顔の 部分に円形の合成領域が位置する。 撮影装置 1 0は、 この合成領域の外形の情報 を、 合成領域が出現する時刻 T 5より前の時刻 T pの時点において表示部 2 4に 表示する。 すなわち、 図 1 1 Βに示すように、 合成領域の外形を枠 Fとしてシナ リオ映像に重ねて表示する。 そして、 撮影装置 1 0は、 この合成領域の外形の情 報を時刻 Τ ρから時刻 Τ 5までの間表示する。
時刻 Τ 5以降のシナリオ映像再生および映像合成の動作は、 第 1の実施の形態 の撮影装置 1 0と同様である。 すなわち、 時刻 Τ 5以降、 合成再生制御部 2 2は シナリオ映像と撮影部 1 8による撮影画像とを合成し、 合成映像を作る。 そして、 撮影装置 1 0は、 合成再生部 2 0によって、 表示部 2 4に合成映像を表示する。 シナリオデ一夕の合成情報 1 6によれば、 時刻 Τ 6以降に出現する合成領域は存 在しないので、 撮影装置 1 0は、 合成再生部 2 0によってシナリオ映像を再生の みを行う。
以上、 第 2の実施の形態の撮影装置 1 0の動作例について説明した。
第 2の実施の形態の撮影装置 1 0では、 合成領域が出現して映像合成が開始さ れる前に、 シナリオ映像に合成領域の外形を表示するので、 ユーザは、 合成領域 の外形の情報に基づいて、 合成領域に合成すべき画像を予測することができる。 これにより、 ユーザは、 合成すべき画像の撮影準備をすることができる。
また、 第 2の実施の形態の撮影装置 1 0は、 第 1の実施の形態の撮影装置 1 0 と同様に、 撮影した画像とシナリオ映像とを撮影しながら合成することができ、 簡易な操作でスピ一ディ一に映像合成を行うことができる。
上記した第 2の実施の形態では、 図 1 1 Bに示すように、 出現時点において合 成領域が表示される位置の情報も合成再生制御部 2 2が合成領域提示部 3 0へ送 つて、 シナリオ映像中のその位置に、 合成領域の外形を示す枠 Fを表示している。 このように位置の情報を前もって表示するのは、 合成開始時刻におけるシナリオ 映像中の合成領域の位置と、 撮影画像中の切り出す部分の位置を一致させる実装 の場合に有効である。 他の実装の場合、 合成領域の外形の情報は表示部 2 4のど こに表示してもよい。 また、 撮影装置 1 0が、 シナリオ映像を再生表示する画面 のほかにサブ画面を有する場合には、 サブ画面に合成領域の外形の情報を表示す ることも可能である。
また、 上記した第 2の実施の形態では、 合成領域の外形の情報を枠 Fで表示し ているが、 枠 F以外の表示により外形の情報を示してもよい。 例えば、 枠を表示 せずに、 合成領域の内部のシナリオ映像を他より薄く表示してもよい。 これによ つても、 ユーザは合成領域の輪郭を知ることができる。
また、 上記した第 2の実施の形態では、 合成領域提示部 3 0により提示される 外形の情報は、 実際に出現することとなる合成領域と形状および大きさが等しい 枠 Fで示しているが、 合成領域の形状のみ、 または大きさのみに関する情報を合 成領域提示部 3 0により提示することとしてもよい。
また、 上記した第 2の実施の形態では、 合成領域の外形の情報を表示している が、 これに加えて現在撮影部 1 8が捉えている撮影画像を表示してもよい。 この ように撮影部 1 8が捉えている撮影画像を表示することにより、 映像合成に先立 つて、 適切な画像を撮影できるように撮影部 1 8め位置や向きまたはズーム率な どを調整しておくことができる。
なお、 現在再生中のシナリォ映像と共に撮影部 1 8による撮影画像を一つの表 示部 2 4に表示する方式としては、 例えば、 撮影画像を透過処理してシナリオ映 像上に表示する方式がある。 また、 表示部 2 4に表示する撮影画像は、 撮影部 1 8により撮影される画像の全体でもよいし、 撮影画像のうちの合成される範囲の みの画像であってもよい。 前者の場合は、 例えば、 撮影画像の全体を透過処理し てシナリオ映像の全体に重ねて表示する。 後者の場合は、 合成領域の開始時刻に 出現する合成領域の位置に、 撮影画像から切り出される撮影画像の部分を現在撮 影中の撮影画像から切り出し、 透過処理してシナリオ映像上に重ねて表示する。 これにより、 実際に合成される撮影画像をュ一ザが知ることができると共に、 枠 を表示しなくてもユーザは合成領域の外形や位置を知ることができる。
なお、 第 2'の実施の形態では、 第 1の実施の形態と異なり、 合成領域と共に表 示されるはずの時刻 T 5におけるシナリオ映像を、 時刻 T 5より前にユーザが見 ることができない。 したがって、 時刻 T 5より前に上述したように合成領域の外 形の情報が表示されても、 そこに何を入れればシナリォ映像と合うのか分からな い可能性がある。 合成領域の属性 (例えば 「顔」 等) の情報も時刻 T pから時刻 Τ 5に表示してもよい (ただし、 ユーザはこの属性を無視して自由に撮影対象を 選ぶことができる) 。
図 1 2は、 本発明の第 3の実施の形態の撮影装置 1 0を示す図である。 第 3の 実施の形態の撮影装置 1 0は、 第 2の実施の形態の撮影装置 1 0と基本的な構成 は同じであるが、 合成領域の出現のタイミングが近づいたことを知らせる夕イミ ング報知部 3 2をさらに備えている点が異なる。
タイミング報知部 3 2は、 合成情報 1 6に含まれる合成領域が出現する時間に 関する情報とシナリォ再生開始からの経過時間とに基づいて、 合成領域の出現時 刻の接近を検知する。 タイミング報知部 3 2は、 例えば、 音を発することにより、 合成領域の出現時刻が近づいていることを報知する構成を採用できる。 合成領域 の出現時刻が近づくにつれて、 発生させる音を大きくする、 あるいは音の発生間 隔を短くすることにより、 合成領域の出現時刻の接近を知らせることができる。 図 1 0に示す例で説明すると、 例えば、 タイミング報知部 3 2は、 合成領域情報 を提示する時刻 Τ ρ力 ^ら、 合成領域の出現時刻が近づいていることをユーザに知 らせる。
これにより、 ユーザは合成領域の出現時刻が近づいていることを知ることがで きるので、 合成すべき画像を撮影する準備を整えることができる。
なお、 タイミング報知部 3 2は、 音以外の方法によって、 合成領域の出現時刻 が近づいていることを報知してもよい。 例えば、 映像シナリオの再生速度を遅く することにより、 出現タイミングが近づいたことを知らせる構成、 または画面に カウントダウンの数字を表示する構成を採用することもできる。 また、 合成領域 の出現時刻が経過した後も継続して、 出現時刻の直後であることを知らせてもよ い。 これにより、 ユーザに合成すべき画像の撮影を促すことができる。 なお、 こ の際、 出現時刻を境に音の高さや音量を変化させる構成としてもよい。
図 1 3は、 本発明の第 4の実施の形態の撮影装置 1 0の構成を示す図である。 第 4の実施の形態に係る撮影装置 1 0は、 第 2の実施の形態の撮影装置 1 0と基 本的な構成は同じであるが、 映像合成の開始および終了の指示を入力するための 合成タイミング入力部 3 4を備えている点が異なる。 合成タイミング入力部 3 4 から入力されたタイミング情報は、 合成再生制御部 2 2に送られる。 合成再生制 御部 2 2は、 合成タイミング入力部 3 4からのタイミング情報に基づいて、 撮像 画像とシナリオ映像との合成開始または合成終了タイミングを制御する。
•このように合成タイミング入力部 3 4を備え、 映像合成の開始および終了の指 示を入力可能とした構成により、 ユーザが映像合成のタイミングを選択すること ができる。 例えば、 ユーザは、 合成すべき画像の撮影準備が整った時点で合成を 開始することができ、 また合成すべき画像を撮影できなくなった場合には、 合成 を終了することができる。
第 4の実施の形態の撮影装置 1 0では、 映像合成の開始と終了のタイミングを ユーザが決定することができるので、 決定されたタイミングが合成情報に基づく 合成領域が出現するタイミングと異なる場合がある。 この点について説明する。 図 1 4は、 映像合成を行う際の、 撮影部 1 8の動作および表示部 2 4での表示 内容とシナリオ映像との関係を示す図である。 図 1 4を参照しながら、 実施の形 態の撮影装置 1 0による映像合成の動作について説明する。 なお、 図 1 4も図 7 と同様に、 横軸を時間軸としている。
まず、 ユーザが撮影装置 1 0に対してシナリオ映像の再生開始を指示する。 こ こでは、 図 2に示すシナリオデータに従ってシナリオ映像が再生されるものとす る。 すなわち、 シナリオ映像中に合成領域が出現する期間は時刻 T 5から時刻 T 6の間である。 また、 メディア Aおよびメディア Bは、 時刻 t = 0から時刻 t = T 7まで再生されるものとする。 図 1 4に示すように、 時刻 T Oから時刻 T 5ま での間は、 シナリオデ一夕に合成情報が含まれておらず、 シナリオ映像が再生さ れる。 すなわち、 再生開始の指示が入力された合成再生制御部 2 2が合成再生部 2 0を制御することによりシナリォ映像の再生が開始される。
時刻 T 5に達すると、 撮影装置 1 0の画面に再生されるシナリオ映像には合成 領域が表示される。 合成領域には、 撮影部 1 8によって撮影中の画像が表示され る。 ただし、 この時点では、 合成タイミング入力部 3 4に合成開始指示が入力さ れていないので、 表示部 2 4に表示されている映像は記録されない。
時刻 T sに合成開始指示が入力されると、 撮影装置 1 0は、 合成領域に表示さ れる撮影画像を映像記録部 2 6に記録する。 また、 撮影装置 1 0は、 合成領域の 出現時刻 T 5から合成開始が指示された時刻 T sまでの合成領域に、 時刻 T sに おける撮影画像 (静止画像) を合成して合成映像を作成し、 記録する。 これによ り、 合成開始指示が入力されるまでの合成領域の映像を、 時刻 T sにおける撮影 画像によって補完することができる。
以上、 合成開始指示の入力タイミングが合成領域の出現タイミングより遅くな つた場合の合成領域の補完方法について説明した。 なお、 記録時に補完を行う場 合には、 映像記録部 2 6と合成再生部 2 0との間にバッファを設け、 バッファに 蓄積された時刻 T 5〜 T sのシナリォ映像に、 時刻 T sでバッファに入力される 最初の撮影画像を合成し、 そこで得られた合成映像を、 映像記録部 2 6に記録す る。 次に、 合成領域がまだ出現しているときに合成終了指示が入力された場合の 補完方法について説明する。
図 1 5は、 映像合成を行う際の、 撮影部 1 8の動作および表示部 2 4での表示 内容とシナリオ映像との関係を示す図である。 図 1 5を参照しながら、 実施の形 態の撮影装置 1 0による映像合成の動作について説明する。 なお、 図 1 5も図 7 と同様に、 横軸を時間軸としている。
まず、 ユーザが撮影装置に対してシナリオ映像の再生開始を指示する。 ここで は、 図 2に示すシナリオデータに従ってシナリオ映像の再生がなされるものとす る。 すなわち、 シナリオ映像中に合成領域が出現する期間は時刻 T 5から時刻 T 6の間である。 また、 メディア Aおよびメディア Bは、 時刻 t = 0から時刻 t = T 7まで再生されるものとする。 図 1 4に示すように、 時刻 T Oから時刻 T 5ま での間は、 シナリオデ一夕に合成情報が含まれておらず、 シナリオ映像が再生さ れる。 すなわち、 再生開始の指示が入力された合成再生制御部 2 2が合成再生部 2 0を制御することによりシナリォ映像の再生が開始される。
' 時刻 T 5に達すると、 撮影装置 1 0の画面に再生される映像シナリオには合成 領域が表示される。 合成領域には、 撮影部 1 8により撮影される画像が表示され る。 撮影装置 1 0は、 時刻 T 5以降、 画面に合成されている映像を映像記録部 2 6に記録する。
. 合成領域の出現期間の終点である時刻 T 6より前の時刻 T eに合成終了指示が 入力されると、 撮影装置 1 0は撮影部 1 8により撮影された画像の記録を終了す る。 合成終了を指示された時刻 T eから合成領域の出現終了時刻 T 6までの合成 領域に、 時刻 T eにおける撮影画像 (静止画像) を合成して合成映像を作成し、 記録する。 これにより、 合成終了指示が入力されてから時刻 T 6に合成領域の表 示が消えるまでの合成領域の映像を、 時刻 T eにおける撮影画像によって補完す ることができる。
このように合成開始指示または合成終了指示の入力タイミングが合成領域の出 現期間とずれた場合に、 ずれた期間における合成領域の画像を補完することによ り、 合成領域に撮影画像が合成されない事態を回避できる。
上記した実施の形態では、 撮影画像の合成開始時点または合成終了時点の画像 を用いて合成領域の画像を補完することとしたが、 他の方法により合成領域の画 像を補完してもよい。 撮像した画像を合成領域が出現する時間の長さに等しくな るように引き延ばして記録することも可能である。 例えば、 合成領域が出現する 時間が 1 0秒なのに対し、 撮影された画像の再生時間が 5秒だった場合には、 撮 影された画像の再生速度を半分にし、 画像の長さを合成領域の出現時間に合わせ ることができる。
また、 撮影画像とシナリオ映像を別々に記録しておく場合には、 再生時に上記 したような補完を行うことにより、 合成領域に撮影画像が合成されない事態を回 避し、 適切に合成映像を再生することができる。
なお、 上記では、 合成開始または合成終了の指示が、 合成領域の出現期間とず れた場合に、 合成情報に記述された出現期間に合わせて合成を行う例を説明した が、 合成開始または合成終了の指示に合わせて合成を行ってもよい。 この場合、 合成開始指示入力前または合成終了指示入力後であって、 合成領域の出現期間内 である期間は、 合成領域を空白にして表示するのではなく、 合成領域により隠れ るはずであつたシナリォ映像をそのまま表示するようにすればよい。
図 1 6は、 第 5の実施の形態の撮影装置 1 0の構成を示す図である。 第 5の実 施の形態の撮影装置 1 0の構成は、 第 1の実施の形態の撮影装置 1 0と基本的な 構成は同じであるが、 シナリオ映像に静止画像を合成する点が異なる。 第 5の実 施の形態の撮影装置 1 0は、 シャッター 3 6を備えている。 シャッター 3 6は撮 影部 1 8と接続されており、 シャッター 3 6が押下されると、 撮影部 1 8は、 そ の押下タイミングにおける静止画像を記録すべき画像として撮影する。
図 1 7は、 映像合成を行う際の、 撮影部 1 8の動作および表示部 2 4での表示 内容とシナリオデ一夕との関係を示す図である。 図 1 7を参照しながら、 実施の 形態の撮影装置 1 0による映像合成の動作について説明する。 なお、 図 1 7も図 7と同様に、 横軸を時間軸としている。
まず、 ユーザが撮影装置に対してシナリオ映像の再生開始を指示する。 ここで は、 図 2に示すシナリオデータに従ってシナリオ映像の再生がなされるものとす る。 すなわち、 シナリオ映像中に合成領域が出現する期間は時刻 T 5から時刻 T 6の間である。 また、 メディア Aおよびメディア Bは、 時刻 t = 0から時刻 t = T 7まで再生されるものとする。 図 1 4に示すように、 時刻 T Oから時刻 T 5ま での間は、 シナリオデータに合成情報が含まれておらず、 シナリオ映像が再生さ れる。 すなわち、 再生開始の指示が入力された合成再生制御部 2 2が合成再生部 2 0を制御することによりシナリォ映像の再生が開始される。
時刻 T 5において、 撮影装置 1 0はシナリオ映像の再生を一時停止する。 この とき、 画面には時刻 T 5におけるシナリオ映像が表示される。 シナリオ映像には 合成領域が含まれている。 合成再生制御部 2 2が撮影部 1 8の視野に写っている 画像と、 一時停止されたシナリオ映像を合成して合成映像を作る。 合成再生部 2 0は、 合成再生制御部 2 2の制御に基づいて合成された映像を表示する。 この合 成映像が合成プレビュー画像である。
合成プレビュー画像に基づいて撮影装置 1 0の位置または向きなどを調整し、 合成する静止画像を撮影する。 所望の画像が合成領域に表示された時点でシャッ 夕一 3 6を押下し、 静止画像を取得する。 静止画像を取得した後に、 シナリオ映 像の再生を再開する。 シナリオ映像再生の再開は、 ユーザによりシャッター 3 6 が押下された時点で再生を再開してもよいし、 シナリォ映像を一時停止した時点 から所定の時間が経過した後に再開してもよい。
シナリオ映像の再生が再開されると、 合成再生制御部 2 2はシナリオ映像と撮 影部 1 8により撮影した静止画像とを合成し、 合成映像を作る。 具体的には、 合 成再生制御部 2 2の制御により合成再生部 2 0は、 取得した静止画像に対して切 出しまたは拡大縮小などの加工を行い、 加工した画像をシナリオ映像中の合成領 域に合成する。 そして、 撮影装置 1 0は、 合成再生部 2 0によって、 表示部 2 4 に合成映像を表示する。 この場合、 動画を撮影する場合と異なり、 シナリオ映像 は進行するが、 合成領域にはめ込まれる画像は静止画像のままとなる。 ただし、. 合成情報の中の位置情報が時間の関数となっている場合、 同じ静止画像のはめ込 まれた合成画像がシナリォ映像の進行と共に移動することは動画の場合と同様で ある。 合成再生制御部 2 2は、 シナリオ映像に合成領域が出現している間は、 撮 影画像をシナリオ映像に合成するように合成再生部 2 0を制御する。 すなわち、 時刻 T 5から時刻 T 6までの間は、 合成再生部 2 0が撮影画像とシナリオ映像の 合成を行う。
シナリオデータの合成情報 1 6によれば、 時刻 T 6以降に出現する合成領域は 存在しない。 撮影装置 1 0は、 合成再生部 2 0によってシナリオ映像を再生する。 撮影装置 1 0は、 シナリオ映像が再生されている間の映像を映像記録部 2 6に 記録する。 時刻 T 5から時刻 T 6については、 合成再生部 2 0からの出力を記録 するか、 撮影した静止画像を記録するかのいずれかの方式により、 合成映像を記 録する。 なお、 合成プレビュー画像は記録しない。
以上、 第 5の実施の形態の撮影装置 1 0の動作について説明した。 なお、 ここ では、 第 1の実施の形態の動作例に沿って静止画像の場合を説明したが、 第 2の 実施の形態の動作例や、 第 3の実施の形態のタイミング報知、 第 4の実施の形態 の補完方法を静止画像の合成に応用することももちろん可能である。
第 5の実施の形態の撮影装置 1 0は、 撮影した静止画像とシナリオ映像とをス ピ—ディーに合成し、 合成映像を得ることができる。
また、 合成すべき画像の撮影中に表示部 2 4に合成映像を表示するので、 ユー ザは合成映像を見ることができ、 合成すべき画像を撮影時に調整することができ る。 すなわち、 シナリオ映像の再生中に撮影部 1 8により合成すべき対象を撮影 することにより、 撮影した画像をそのまま合成できる。 これにより、 いったん撮 影した撮影画像を後で再生し、 撮影画像から合成すべき対象を切り出し、 シナリ ォ映像の再生タイミングに合わせて合成するという手間がなく、 容易に映像の合 成を行うことができる。 特に、 例えば携帯端末のように画面ゃキ一バッドに制限 がある場合には、 シナリオ映像と再生すると共に撮影した静止画像を表示し、 編 集するのは困難なので、 シナリオ映像を表示部 2 4に表示する一方で、 撮影部 1 8により撮影画像を調整する方法が有効である。
上記した第 5の実施の形態の撮影装置 1 0において、 静止画像を複数回撮影す :ることとしてもよい。
図 1 8は、 静止画像を複数回撮影する場合の映像合成について説明するための 図である。 なお、 図 1 8も図 7と同様に、 横軸を時間軸としている。 図 1 8に示 すように、 1回目の撮影後 2回目の撮影がなされるまでは、 1回目に撮影した静 止画像とシナリオ映像とを合成した合成映像を表示する。 そして、 2回目の撮影 後 3回目の撮影がなされるまでは、 2回目に撮影された静止画像とシナリォ映像 とを合成した合成映像を表示する。 そして、 3回目の撮影後、 合成領域の出現期 間が終了するまでは、 3回目に撮影された静止画像とシナリオ映像とを合成した 合成映像を表示する。 これにより、 複数の静止画像をシナリオ映像の合成領域の 中でスライドショーのように表示することができる。
なお、 n回目の撮影後、 n + 1回目の撮影がなされるまでの間、 n回目の撮影 静止画像とシナリオ映像を合成した合成映像を映像記録部 2 6に記録するが、 表 示部 2 4には、 撮影部 1 8の視野に写っているプレビュー画像をシナリオ映像に 合成して得られる映像を表示してもよい。 これにより、 ユーザは、 シナリオ映像 の再生を進行させながら、 表示されたプレビュー画像を参考にして、 次回 (n + 1回目) の撮影準備を行うことができる。
なお、 静止画像を複数回撮影する場合に、 必ずしもすべての静止画像を利用し なければならないわけではない。 例えば、 複数の静止画像の中から合成に用いる 画像をユーザに選択させてもよいし、 最後に撮影した静止画像を用いて合成映像 を作成して記録することとしてもよい。 最後に撮影された静止画像を合成するこ ととすれば、 最も良く撮影できた時点で撮影を終了することにより、 ユーザが最 も良く撮影できた静止画像により合成映像を作成できる。 また、 例えば、 図 1 8 において、 合成シーン終了後に、 バッファに蓄積された撮影 1〜 3の静止画像の 中から、 撮影 2の静止画像をュ一ザが選択したとすると、 選択時 T 6またはシナ リォ映像の再生終了時 T 7で、 時刻 T 5〜時刻 T 6のシナリォ映像に、 撮影 2の 静止画像を合成し、 そこで得られた合成映像を映像記録部 2 6に記録する。 ある いは、 撮影時には撮影 1〜3の静止画像をシナリオ映像とは別に (ただし、 シナ リオ映像の識別情報を関連付けて) 日央像記録部 2 6に記録しておき、 再生時にュ —ザがその中から選んだ静止画像をシナリオ映像に合成しながら再生してもよい。 図 1 9は、 本発明の第 6の実施の形態の撮影装置 1 0を示す図である。 第 6の 実施の形態の撮影装置 1 0は、 第 3の実施の形態の撮影装置 1 0と基本的な構成 は同じであるが、 撮影画像の一部を切り出すクリッピング部 5 0を備える点が異 なる。
クリッピング部 5 0は、 撮影部 1 8によって撮影された撮影画像の一部を部分 画像として切り出す機能を有する。 クリッピング部 5 0は、 シナリオ格納部 1 2 に格納された合成情報 1 6に従って、 部分画像の切出しを行う。
図 2 0は、 シナリォ格納部 1 2に格納されたシナリォデータの例を示す図であ る。 シナリオデータは、 上述した実施の形態と同様に、 シナリオ情報 1 4と合成 情報 1 6とを含んでいる。 合成情報 1 6は、 合成領域を規定する情報に加えて、 撮影画像から部分画像を切り出すためのクリッピング情報を含んでいる。 図 2 0 に示す例では、 撮影画像からの切出し位置を特定する 「クリッピング位置」 、 切 出し形状を規定する 「クリッピング形状」 、 および部分画像の変化を示す 「クリ ッビング変化」 の各情報が記述されている。
次に、 第 6の実施の形態の撮影装置 1 0の動作について説明する。 第 6の実施 の形態の撮影装置 1 0の基本的な動作は、 上記した実施の形態の撮影装置 1 0の 動作と同じであるが、 クリッピング部 5 0にて撮影画像から切り出した部分画像 をシナリオ映像に合成する点が異なる。 以下、 第 6の実施の形態の撮影装置 1 0 の動作について説明する。
まず、 合成再生制御部 2 2は、 シナリォ格納部 1 2から合成情報 1 6を読み出 し、 合成情報 1 6に含まれるクリッビング情報をクリッピング部 5 0に渡す。 ク リツビング部 5 0は、 撮影部 1 8から撮影画像を受け取り、 受け取った撮影画像 から部分画像を切り出す。 具体的には、 合成再生制御部 2 2から渡されたクリッ ビング情報によって特定された位置および形状の領域を部分画像として撮影画像 から切り出す。
図 2 1 Aは撮影画像の例を示す図、 図 2 1 Bは部分画像の例を示す図である。 図 2 0に示す例のように、 クリッピング形状が 「楕円」 と記述されている場合に は、 図 2 1 Aに示す撮影画像から、 図 2 1 Bに示すような楕円形の部分画像 Pが 切り出される。
クリッピング部 5 0は、 撮影画像から切り出した部分画像を合成再生部 2 0に 渡す。 また、 合成再生制御部 2 2は、 シナリオ格納部 1 2からシナリオ情報 1 4 を読み出し、 読み出したシナリオ情報 1 4を合成再生部 2 0に渡す。 合成再生部 2 0は、 シナリオ映像の合成領域にクリッピング部 5 0から渡された部分画像を 合成する。 そして、 合成再生部 2 0は、 合成した映像を表示部 2 4および映像記 録部 2 6に送る。 表示部 2 4は、 合成再生部 2 0から送られた合成映像を表示す る。また、 映像記録部 2 6は合成再生部 2 0から送られた合成映像を記録する。 以上、 本発明の第 6の実施の形態の撮影装置 1 0について説明した。
第 6の実施の形態の撮影装置 1 0はクリッピング部 5 0を備え、 クリッピング 部 5 0にて撮影画像から切り出した部分画像をシナリオ映像に合成するので、 撮 影画像の一部をシナリォ映像に合成することができる。
また、 クリッピング部 5 0は、 合成情報 1 6に記述されたクリッピング情報に 従って部分画像を切り出すので、 どの部分を部分画像として切り出すかを合成情 報に規定しておくことができる。
なお、 上記した第 6の実施の形態では、 クリッピング情報は切り出すべき部分 画像の位置および形状を特定しているが、 別の態様によって部分画像を特定して よい。 図 2 2は、 クリッピング情報を記述した合成情報の他の例を示す図である。 図 2 2に示すように切り出すべき部分画像を合成領域に連動する領域として規定す ることも可能である。
図 2 3 Aは合成領域の位置および形状の変化を示す図、 図 2 3 Bは合成領域に 連動して撮影画像 (図 2 1 A参照) から切り出される部分画像を示す図である。 切り出される部分画像を合成領域に連動すると規定した場合、 図 2 3 Aに示すよ うに合成領域 Gが矩形から円形に形状を変えながら移動すると、 この変動に連動 して、 図 2 1 Aに示す撮影画像から切り出される部分画像は、 図 2 3 Bに示す部 分画像 Pのように変動する。 この構成により、 撮影画像から切り出される部分画 像が合成領域に連動するので、 あたかも合成領域から撮影画像を視いているかの ような合成映像が得られる。 これにより、 合成されるコンテンツの表現能力を向 上できる。
また、 上記した第 6の実施の形態では、 映像記録部 2 6に記録するデータが合 成再生部 2. 0にて合成された合成映像である例について説明したが、 撮影映像を 映像記録部 2 6に記録することとしてもよい。 この場合、 クリッピング部 5 0は、 撮影画像から切り出した部分画像を合成再生部 2 0に送る一方で、 撮影画像を映 像記録部 2 6に送る。 これにより、 合成再生部 2 0にて部分画像とシナリオ映像 が合成され、 表示部 2 4に合成映像が表示されると共に、 撮影された映像が映像 記録部 2 6に記録される。 このときシナリオデ一夕の合成情報には、 図 2 4に示 されるように、 合成される撮影映像の i ) 識別子および i i ) 格納場所が記録さ れる。 図 2 4に示す合成情報 1 6を用いて合成映像を再生するときには、 シナリ ォデータに記録された i ) 識別子が示す撮影映像を映像記録部 2 6から読み出し、 合成再生部 2 0にて合成情報 1 6を用いてシナリオ映像に合成しつつ再生するこ とにより、 合成映像を再現できる。
図 2 5は、 第 7の実施の形態の撮影装置 1 0の構成を示す図である。 第 7の実 施の形態の撮影装置 1 0は、 基本的な構成は第 6の実施の形態の撮影装置 1 0と 同じであるが、 第 7の実施の形態の撮影装置 1 0では、 撮影画像に含まれるべき 対象物の種類を指定することによつて撮影画像から切り出す部分画像を規定する 点が第 6の実施の形態の撮影装置 1 0と異なる。 これに伴い、 第 7の実施の形態 の撮影装置 1 0は、 画像認識部 5 2をさらに備えている。
図 2 6は、 第 7の実施の形態のシナリオデータの例を示す図である。 シナリオ データは、 上述した実施の形態と同様に、 シナリオ情報 1 4と合成情報 1 6を含 んでいる。 合成情報 1 6は、 合成領域を特定する情報に加えて、 部分画像を切り 出すためのクリッピング情報を含んでいる。 クリッピング情報は、 部分画像に含 まれる対象物を特定することによって部分画像を特定している。 以下、 部分画像 を特定するための対象物の情報を 「クリッピング対象物」 という。 図 2 6に示す 例では、 クリッピング対象物 「顔」 を含む部分を部分画像として撮影画像から切 り出すことが記述されている。
図 2 5に戻って、 画像認識部 5 2は、 撮影部 1 8にて撮影された撮影画像の画 像認識を行って撮影画像中に表示されたクリッビング対象物を識別する機能を有 する。 そして、 画像認識部 5 2は、 クリッピング対象物が表示された領域の情報 をクリッピング部 5 0に渡す。
次に、 第 7の実施の形態の撮影装置 1 0の動作について説明する。 第 7の実施 の形態の撮影装置 1 0の動作は、 基本的には第 6の実施の形態の撮影装置 1 0の 動作と同じであるが、 クリッピング部 5 0にて切り出す領域を画像認識部 5 2に よって求める点が異なる。
まず、 撮影装置 1 0の合成再生制御部 2 2は、 シナリオ格納部 1 2に格納され たシナリオデータから合成情報 1 6を読み出し、 部分画像を特定するクリツピン グ対象物の情報を取得する。 そして、 合成再生制御部 2 2は、 画像認識部 5 2に クリッピング対象物の情報を渡す。
画像認識部 5 2は、 撮影部 1 8にて撮影された撮影画像中で、 クリッビング対 象物が表示された領域を識別し、 その領域の情報をクリッビング部 5 0に渡す。 クリッピング部 5 0は、 画像認識部 5 2から渡された情報で示される領域を、 部 分画像として切り出す。
図 2 7 Aは撮影画像の例を示す図、 図 2 7 Bは部分画像の例を示す図である。 合成情報 1 6にてクリッピング対象物が 「顔」 と指定された場合には、 図 2 7 A に示す撮影画像中で 「顔」 が表示された領域を識別し、 図 2 7 Bに示すように 「顔」 を含む領域が部分画像 P として切り出される。 この例では、 「顔」 を含 む円形の領域を部分画像として切り出しているが、 クリッピング対象物を含む画 像を切り出す領域の形状は、 円形に限られない。 例えば、 矩形の領域を切り出し てもよいし、 クリッピング対象物の形状に合った領域を切り出してもよい。
そして、 クリッピング部 5 0は、 撮影画像から切り出した部分画像を合成再生 部 2 0に渡す。 合成再生部 2 0は、 シナリオ映像の合成領域にクリッピング部 5 0から渡された部分画像を合成する。 そして、 合成再生部 2 0は、 合成した映像 を表示部 2 4および映像記録部 2 6に送る。 表示部 2 4は、 合成再生部 2 0から 送られた合成映像を表示する。 また、 映像記録部 2 6は、 合成再生部 2 0から送 られた合成映像を記録する。
第 7の実施の形態の撮影装置 1 0は、 部分画像に含まれるべきクリッピング対 象物を指定することによつて部分画像を特定するので、 切り出すべき部分画像を 容易に特定できる。 そして、 撮影装置 1 0の画像認識部 5 2が、 クリッピング対 象物が表示された領域を識別し、 クリッビング対象物が含まれた領域を切り出す ことが可能となる。
また、 第 7の実施の形態の撮影装置 1 0は、 第 6の実施の形態の撮影装置 1 0 と同様に、 クリッピング部 5 0にて切り出した部分画像をシナリオ映像に合成す るので、 撮影画像のうちの一部をシナリォ映像に合成することができる。
なお、 上記した第 7の実施の形態の撮影装置 1 0では、 シナリオ映像に撮影画 像から切り出した部分画像を合成した合成映像を映像記録部 2 6に記録する構成 について説明したが、 第 6の実施の形態にて説明したのと同様に撮影画像そのも のを映像記録部 2 6に記録することも可能である。
次に、 本発明の第 8の実施の形態の撮影装置 1 0について説明する。 第 8の実 施の形態の撮影装置 1 0は、 基本的な構成は第 7の実施の形態の撮影装置 1 0と 同じであるが (図 2 5参照) 、 シナリオ格納部 1 2に格納された合成情報 1 6の 内容が異なる。 また、 画像認識部 5 2は、 撮影画像から対象物を識別すると共に、 シナリオ映像から対象物を識別する機能を有する。
図 2 8は、 第 8の実施の形態の撮影装置 1 0のシナリオ格納部 1 2に記憶され たシナリオデータの例を示す図である。 シナリオデータの合成情報 1 6には、 合 成領域が含むべき対象物を指定することによつて合成領域が規定されている。 こ の例では、 時刻 t = X b〜Y bにおいて、 シナリオ映像中で 「ポール」 が表示さ れる領域を合成領域として特定している。 なお、 合成情報 1 6において、 部分画 像は、 第 7の実施の形態と同様に部分画像が含むべきクリッピング対象物 「ポ一 ル」 によって特定されている。
次に、 第 8の実施の形態の撮影装置 1 0の動作について説明する。
まず、 撮影装置 1 0の合成再生制御部 2 2は、 シナリオ格納部 1 2に格納され たシナリオデータからシナリオ情報 1 4および合成情報 1 6を読み出し、 合成領 域を特定するための対象物の情報を取得する。 次に、 合成再生制御部 2 2は、 合 成再生部 2 0にシナリォ情報 1 4を渡す。 合成再生部 2 0は、 合成領域を特定す るための対象物の情報と共にシナリォ映像を画像認識部 5 2に渡す。 画像認識部 5 2は、 シナリオ映像中で、 対象物の画像が表示された領域を識別し、 その領域 の情報を合成領域情報として合成再生制御部 2 2に渡す。 例えば、 画像認識部 5 2は、 合成領域の位置および形状の情報を合成再生制御部 2 2に渡す。 そして、 合成再生制御部 2 2は、 合成再生部 2 0に合成領域情報を渡す。
図 2 9 Aはシナリオ映像の例を示す図、 図 2 9 Bはシナリオ映像中の合成領域 を示す図である。 合成情報 1 6にて合成領域が対象物 「ボール」 を含むと指定さ れた場合には、 図 2 9 Aに示すシナリオ映像のうちで 「ポール」 が表示された領 域が識別され、 図 2 9 Bに示すように 「ポール」 を含む領域が合成領域 Gとなる。 合成再生部 2 0は、 合成再生制御部 2 2から渡された合成領域情報に基づいて、 クリッピング部 5 0から渡された部分映像をシナリオ映像に合成する。 なお、 ク リッピング部 5 0によって撮影画像の一部を部分画像として切り出す処理は、 第 7の実施の形態の撮影装置 1 0と同じである。 そして、 合成再生部 2 0は、 合成 した映像を表示部 2 4および映像記録部 2 6に送る。 表示部 2 4は、 合成再生部 2 0から送られた合成映像を表示する。 また、 映像記録部 2 6は、 合成再生部 2 0から送られた合成映像を記録する。
第 8の実施の形態の撮影装置 1 0は、 合成領域に含まれるべき対象物を指定す ることによつて合成領域を容易に特定できる。
なお、 上記した第 8の実施の形態では、 撮影画像から切り出す部分画像を対象 物によって規定する例について説明したが、 第 6の実施の形態で説明したように、 切出し領域の位置および形状によってクリッピング情報を規定してもよい。 また、 クリッビング情報は必ずしも必要ではなく、 合成情報 1 6にクリッピング情報を 含まなくてもよい。 この場合、 撮影部 1 8にて撮影した撮影画像の全体が、 対象 物によって特定される合成領域に合成される。
' 次に、 本発明の第 9の実施の形態の撮影装置 1 0について説明する。 第 9の実 施の形態の撮影装置 1 0は、 基本的な構成は第 1の実施の形態の撮影装置 1 0と 同じであるが、 合成再生制御部 2 2の機能が異なる。
図 3 0は、 第 9の実施の形態における合成再生制御部 2 2の構成を示す図であ る。 図 3 0に示すように合成再生制御部 2 2は、 スケジュール生成部 5 4、 スケ ジュール実行部 5 6および合成再生指示部 5 8を有する。 スケジュール生成部 5 4は、 シナリォ格納部 1 2から読み出したシナリォ情報 1 4に基づいてデータの スケジュールリストを生成する機能を有する。 'スケジュール実行部 5 6は、 スケ ジュール生成部 5 4にて生成されたスケジュールリストから現在時刻におけるス ケジュールを抽出する機能を有する。 合成再生指示部 5 8は、 スケジュール実行 部 5 6にて抽出されたスケジュールの内容に基づいて、 合成再生部 2 0に合成表 示または再生を指示する機能を有する。
図 3 1 Aはシナリオデータの例を示す図、 図 3 1 Bは図 3 1 Aに示すシナリオ データから生成されるスケジュールリス卜を示す図である。 第 9の実施の形態で は、 合成の開始時刻 (この例では、 t = l 0 s ) にシナリオ映像の再生の一時停 止をする処理を記述したスケジュール (以下、 PAUSEスケジュールという) を 生成する。 なお、 合成の開始時刻に再生が開始されるメディア (以下、 同時刻再 生メディアという) がある場合は、 同時刻再生メディアの再生を実行した後に PAUSEスケジュールが実行される、 という順序になるように PAUSEスケジュ ールをスケジュールリストに追加する。
これにより、 同時刻再生メディアの再生を行った後にシナリオ映像を一時停止 するので、 一時停止した状態で同時刻再生メディアを含んだシナリオ映像を表示 することができる。 従って、 ユーザは表示された画像を見ながら、 シナリオ映像 に合成すべき適切な画像を撮影することができる。
次に、 本発明の第 1 0の実施の形態の撮影装置 1 0について説明する。 第 1 0 の実施の形態の撮影装置 1 0は、 基本的な構成は第 1の実施の形態の撮影装置 1 0と同じであるが、 合成再生制御部 2 2の機能が異なる。
図 3 2は、 第 1 0の実施の形態における合成再生制御部 2 2の構成を示す図で ある。 第 1 0の実施の形態における合成再生制御部 2 2は、 第 9の実施の形態に おける合成再生制御部 2 2の構成に加えて、 状態監視部 6 0およびスケジュール 補正部 6 2を有する。 状態監視部 6 0は、 C P Uの稼働率、 メモリの使用状況お よびデバイスの稼働率を監視する機能を有する。 スケジュール補正部 6 2は、 状 態監視部 6 0にて得られた各状態に基づいてメディァ再生のセットアップ時間を 設定する機能を有する。
図 3 3 Aはシナリオデータの例を示す図、 図 3 3 Bは図 3 3 Aに示すシナリオ データから生成されるスケジュールリストを示す図である。 第 1 0の実施の形態 では、 状態監視部 6 0の監視により得られた状態に基づいて、 スケジュール補正 部 6 2がメディアの再生、 またはデバイスの起動の準備に要する時間を求め、 求 めた時間に基づいてセットアップ時刻を決定する。 図 3 3 Bに示す例では、 メデ ィァ Bの再生開始時刻は時刻 t = 1 0 sからであるが、 再生を行うまでに準備の 時間を要するため時刻 t = 8 . 5 sからセットアップを行うことがスケジュール リストに記述されている。 また、 撮影部 1 8による撮影開始時刻は 1 0 sからで あるが撮影部 1 8を起動するまでに準備の時間を要するため時刻 t = 7 . 5 sか らセットアップを行うことがスケジュ一ルリストに記述されている。
このように、 スケジュール補正部 6 2がセットアップ時刻を設定することによ り、 シナリォデ一夕に規定されたメディァの再生開始時刻またはデバイスの起動 開始時刻から円滑に処理を開始させることができる。
次に、 本発明の第 1 1の実施の形態の撮影装置 1 0について説明する。 第 1 1 の実施の形態の撮影装置 1 0は、 基本的な構成は第 1の実施の形態の撮影装置 1 0と同じであるが、 合成再生制御部 2 2の機能が異なる。
図 3 4は、 第 1 1の実施の形態における合成再生制御部 2 2の構成を示す図で ある。 第 1 1の実施の形態における合成再生制御部 2 2は、 第 9の実施の形態に おける合成再生制御部 2 2の構成に加えて、 合成イメージ情報生成部 6 4および 合成イメージ生成部 6 6を有する。 合成イメージ情報生成部 6 4は、 シナリオデ 一夕を参照して合成の開始時刻を求め、 合成の開始時刻におけるシナリオ映像の スチルイメージである合成イメージを生成するための情報を合成イメージ生成部 6 6に渡す機能を有する。 合成イメージ生成部 6 6は、 合成イメージ情報生成部 6 4から渡された合成イメージ情報に基づいて合成イメージを生成する機能を有 する。 合成イメージ生成部 6 6は、 生成された合成イメージをシナリオ格納部 1 2に格納する。
スケジュール生成部 5 4は、 合成イメージの表示した後にシナリオ映像の一時 停止を記述したスケジュールリストを生成する。 さらに、 スケジュール生成部 5 4は、 一時停止されたシナリォ映像の再生を再開する位置を合成の開始時刻に調 整する処理をスケジュールリストに記述する。
図 3 5 Aはシナリオデータの例を示す図、 図 3 5 Bは図 3 5 Aに示すシナリオ データから生成されるスケジュールリストを示す図である。 図 3 5 Bに 「p r e v l m g」 と示されるように、 合成の開始時刻 (この例では、 時刻 t = 1 0 s ) において、 再生が開始されるメディア (m e d i a B) の再生を行い、 撮影部 1 8を起動した後、 合成イメージ生成部: 6 6にて生成された合成イメージを表示し、 その後シナリオ映像の一時停止を行うことがスケジュールリストに記述されてい る。 これにより、 あらかじめシナリオ格納部 1 2に格納された合成イメージが表 示されるので、 合成イメージを円滑に表示できる。 また、 スケジュールリストに は、 図 3 5 Bに 「S E E K:」 と示されるように、 再生の一時停止の再開位置を合 成の開始時刻に調整する処理 (以下 PAUSE位置補正処理という) が記述されて いる。 S E E K処理は、 指定された時刻に再生位置を移動する処理であり、 S E E K処理によって P AU S E処理を行つた時刻に再生位置を移動する。 これによ り、 P AU S E処理によって実際に再生が一時停止されるまでに要した時間分の ずれを元に戻す P AU S E位置補正が行われる。 この PAUSE位置補正処理は画 面上には表示されず、 画面には合成イメージと合成領域に表示される撮影画像と の合成映像が表示される。 こうすることで、 シナリオ映像の再生が一時停止され るまでに時間を要した場合にも、 合成の開始時刻からシナリオ映像の再生を再開 できる。
なお、 本実施の形態において説明した S E E K処理は、 他の実施の形態におい ても、 一時停止後のシナリオ映像を再開する場合に適用できる。 例えば、 第 9の 実施形態または第 1 0の実施の形態におけるスケジュール生成部 5 4が、 シナリ ォ映像の再生の再開位置を合成の開始時刻に調整する処理を記述したスケジユー ルリストを生成することも可能である。
以上、 本発明の撮影装置 1 0および撮影方法について、 実施の形態を挙げて詳 細に説明したが、 本発明は、 上記した実施の形態に限定されるものではない。 撮影装置 1 0は、 複数の画面を備えてもよい。 図 3 6〜図 3 8は、 撮影装置 1 0が二画面有する場合のそれぞれの画面での表示例を示す図である。 例えば、 図 3 6に示すように、 一方の画面 (左側) でシナリオ映像を再生表示し、 他方の画 面 (右側) で撮影部 1 8が捉えている撮影画像を表示することができる。 これに より、 撮影部 1 8が何を撮影しているのか把握でき、 合成領域にはめ込む映像を 適切に捉えることができる。 なお、 この例では、 シナリオ映像の表示画面には、 第 2の実施の形態で説明したのと同搽に合成領域の外形を示す枠 Fを表示してい る。 '
また、 図 3 7に示すように、 一方の画面 (左側) でシナリオ映像を再生表示し、 他方の画面 (右側) で合成領域の出現時刻におけるシナリオ映像と現在の撮影画 像との合成画像を合成した合成プレビュー画像を表示することもできる。 これに より、 第 1の実施の形態のようにシナリオ映像の再生を一時停止しなくても、 合 成領域の出現前に合成プレビュー画像を確認できる。
また、 シナリオ映像と撮影画像との合成中においては、 図 3 8に示すように、 . 一方の画面 (左側) で合成映像を表示し、 他方の画面 (右側) で撮影部 1 8によ る撮影画像を表示することができる。 これにより、 シナリオ映像との合成中にお いても撮影画像の全体を見ることができるので、 適切な撮影画像を取得できる。 さらに、 撮影装置 1 0が二画面有する場合には、 一方の画面を被写体側に設け ることも可能である。 被写体側の画面に合成映像または合成プレビュー画像を表 示して被写体にシナリォ映像に合成された自身の撮影画像を見せることにより、 どのような合成映像が作成されるのか被写体自身が把握できる。 これにより、 例 えば、 被写体はどのようなポーズをとればよいか判断できる。
上記実施形態では、 画面に表示される撮影画像を見て撮影装置 1 0に写る画像 を確認し、 撮影装置 1 0の位置、 向きまたはズーム率等を調整する撮影装置 1 0 について説明したが、 その他の方法で撮影装置 1 0に写る画像を確認可能とする 構成を採用してもよい。 例えば、 撮影装置 1 0に照射部を設け、 撮影装置 1 0の フアインダ一に収まっている範囲に光を照射することとしてもよい。 これにより、 表示部 2 4でシナリオ映像を見ながら、 被写体に照射される光によって撮影範囲 を確認できる。
また、 上記実施形態では、 本発明の撮影装置および撮影方法について説明した が、 上記撮影装置を構成するためのプログラムまたは上記撮影方法を実行するた めのプログラムも本発明の範囲に含まれる。
図 3 9は、 本発明のプログラムの一例を示す図である。 図 3 9に示すように、 プログラム 7 0は、 シナリオデータ管理モジュール 7 2、 読出モジュール 7 4、 撮影制御モジュール 7 6、 合成再生モジュール 7 8、 表示モジュール 8 0、 提示 モジュール 8 2を有する。 このプログラム 7 0がインス] ルされるコンピュー タとしては、 撮影部を有するコンピュータであり、 例えば、 デジタルカメラであ る。
シナリオデータ管理モジュール 7 2は、 コンピュータにシナリオデータを管理 させるためのモジュールである。 シナリオデータ管理モジュール 7 2を実行する ことにより、 上記の実施の形態の撮影装置 1 0におけるシナリオ格納部 1 2と同 様の格納部をコンピュータが有することになる。 読出モジュール 7 4は、 シナリ ォデ一タをコンピュ一夕に読み出させるためのモジュールである。 撮影制御モジ ユール 7 6は、 コンピュータに撮影を行わせ、 撮影画像を取得するためのモジュ —ルである。 撮影制御モジュール 7 6を実行することにより、 コンピュータは上 記の実施の形態の撮影装置 1 0における撮影条件制御部 2 8と同様の機能を有す る。 合成再生モジュール 7 8は、 コンピュータにシナリオ映像を再生させると共 に、 撮影画像とシナリオ映像を合成させるためのモジュールである。 表示モジュ —ル 8 0は、 コンピュータにシナリオ映像または合成映像を表示させるためのモ ジュールである。 提示モジュール 8 2は、 コンピュータに合成情報を、 コンビュ 一夕のユーザに対して提示させるためのモジュールである、 提示モジュール 8 2 を実行することにより、 上記の第 2の実施の形態の撮影装置 1 0における合成領 域提示部 3 0と同じ機能を実現できる。
このプログラム 7 0を実行することにより、 第 2の実施の形態の撮影装置 1 0 と同様の撮影装置を実現でき、 撮影しながらシナリオ映像と撮影画像を合成する ことができる。 産業上の利用性
以上のように、 本発明の撮影装置は、 シナリオ映像と撮影画像との合成映像を 表示手段によつて表示するので、 ユーザは表示手段に表示される合成映像を見な がら撮影を行うことができ、 また、 合成される映像が適切に撮影されるように、 撮影装置の位置や向きを調整できるというすぐれた効果を有し、 撮影により得ら れる画像をシナリオ映像に合成する装置等として有用である。

Claims

請求の範囲
1 . 撮影画像を取得するための撮影手段と、
格納されたデータをシナリオ映像を構成するように読み出すための読出手段と、 前記シナリオ映像中に前記撮影画像を合成するための合成情報を記憶する記憶 手段と、
前記読出手段により読み出される前記シナリォ映像に、 前記撮影手段により取 得された撮影画像を、 前記記憶手段に記憶された合成情報に従って合成する合成 手段と、
前記合成手段により得られる合成映像を表示する表示手段と、
を備えることを特徴とする撮影装置。
2 . 前記合成情報は、 前記撮影画像が前記シナリォ映像中に合成される時間に 関する情報を含む請求項 1に記載の撮影装置。
3 . 前記合成情報は、 前記撮影画像が合成される合成領域の外形に関する情報 と前記合成領域の前記シナリォ映像を構成する画像中の位置に関する情報のうち 少なくとも一つを含む請求項 2に記載の撮影装置。
4. 前記合成情報に基づいて、 前記撮影画像が前記シナリオ映像中に合成され る時刻以前に、 前記合成領域に関する情報を、 前記撮影手段に対する制御を行な うべきユーザに提示する手段をさらに備えることを特徴とする請求項 3に記載の
5 . 前記ユーザに提示する合成領域に関する情報は、 前記合成情報のうち外形 および位置に関する情報の少なくとも一方に基づくものであることを特徴とする 請求項 4に記載の撮影装置。
6 . 前記ユーザに提示する合成領域に関する情報は、 前記撮影手段により取得 された撮影画像を、 前記合成情報のうち外形および位置に関する情報の少なくと も一方に従って加工して得られた画像を含むことを特徴とする請求項 4に記載の
7 . 前記ユーザに提示する合成領域に関する情報は、 前記撮影手段により取得 された撮影画像を、 該合成領域が出現することになつている前記シナリォ映像を 構成する画像に、 前記合成情報に従って合成して得られた画像を含むことを特徴 とする請求項 4に記載の撮影装置。
8 . 前記シナリオ映像へ前記撮影画像の合成を開始する時刻に、 前記シナリオ 映像の再生を一時停止する手段を備えることを特徴とする請求項 4に記載の撮影
9 . 前記合成領域の前記シナリオ映像を構成する画像中における位置が、 時間 の経過に伴って移動することを特徴とする請求項 3に記載の撮影装置。
1 0 . 前記合成領域の外形が、 時間の経過に伴って変化することを特徴とする 請求項 3に記載の撮影装置。
1 1 . 前記シナリォ映像へ前記撮影画像の合成を開始する時刻が近づいたこと をユーザに知らせる手段をさらに備えることを特徴とする請求項 2に記載の撮影
1 2 . 前記シナリオ映像へ前記撮影画像の合成を開始する時刻を含む所定時間 内において、 合成開始に関する情報をユーザに知らせる手段をさらに備えること を特徴とする請求項 2に記載の撮影装置。
1 3 . 前記合成映像を記録する手段をさらに備えることを特徴とする請求項 1
4. 前記撮影手段により取得された撮影画像を前記シナリォ映像の識別情報 :関連付けて記録する手段をさらに備えることを特徴とする請求項 1に記載の撮
1 5 . 前記撮影手段が、 前記合成情報に含まれる撮影条件に関する情報に基づ いて撮影することを特徴とする請求項 1に記載の撮影装置。
1 6 . 前記撮影画像と前記シナリォ映像との合成開始指示または合成終了指示 の少なくとも一方をユーザに入力させる入力手段を備えることを特徴とする請求 項 3に記載の撮影装置。
1 7 . 前記合成情報により規定された前記撮影画像の前記シナリォ映像への合 成開始時刻の経過後に前記合成開始指示が入力された場合には、 前記規定された 合成開始時刻から前記合成開始指示が入力されるまでの間に前記合成領域に合成 される画像を前記撮影画像または前記シナリォ映像によって補完することを特徴 とする請求項 1 6に記載の撮影装置。
1 8 . 前記合成情報により規定された前記撮影画像の前記シナリォ映像への合 成終了時刻の前に前記合成終了指示が入力された場合には、 前記合成終了指示が 入力されてから前記規定された合成終了時刻までの間に前記合成領域に合成され る画像を前記撮影画像または前記シナリォ映像によって補完することを特徴とす る請求項 1 6に記載の撮影装置。
1 9. 前記表示手段は複数画面からなり、 少なくとも一の画面で前記シナリオ 映像または前記合成映像を表示することを特徴とする請求項 1に記載の撮影装置。
2 0. 前記撮影手段により撮影されるべき点もしくは範囲を示す光を照射する 照射手段を備えることを特徴とする請求項 1に記載の撮影装置。
2 1 . 前記撮影手段により取得される撮影画像は連続的に撮影される動画であ り、 前記合成手段は、 前記シナリオ映像に前記動画を合成する、 ことを特徴とす る請求項 1に記載の撮影装置。
2 2 . 前記撮影手段により取得される撮影画像は 1枚以上の静止画であり、 前 記合成手段は、 前記シナリオ映像に合成する画像として前記静止画のうちの 1枚 を所定時間内使用することを特徴とする請求項 1に記載の撮影装置。
2 3 . 前記撮影手段により撮影した撮影画像の一部を部分画像として切り出す 部分画像切出手段を備え、
前記合成手段は、 前記部分画像切出手段により切り出された部分画像を前記シ ナリォ映像に合成することを特徴とする請求項 1に記載の撮影装置。
2 4. 前記記憶手段に記憶された合成情報は、 前記部分画像切出手段にて部分 画像を切り出す領域および時間帯を特定する部分画像特定情報を含み、
前記部分画像切出手段は、 前記部分画像特定情報に基づいて前記撮影画像から 部分画像を切り出すことを特徴とする請求項 2 3に記載の撮影装置。
2 5 . 前記部分画像特定情報によって特定された前記部分画像の切出領域の位 置は、 時間の経過に伴って移動することを特徴とする請求項 2 4に記載の撮影装
2 6 . 前記部分画像特定情報によって特定された前記部分画像の切出領域の形 状は、 時間の経過に伴って変化することを特徴とする請求項 2 4に記載の撮影装
2 7 . 前記部分画像特定情報は、 前記部分画像が含むべき対象物によって部分 画像を特定し、 前記部分画像切出手段は、 前記部分画像特定情報にて特定された対象物が映つ た部分を前記部分画像として前記撮影画像から切り出すことを特徴とする請求項 2 4に記載の撮影装置。
2 8 . 前記合成情報は、 前記合成領域が含むべき対象物によって合成領域を特 定し、
前記合成手段は、 前記シナリオ映像のうち前記部分画像特定情報にて特定され た対象物が表示された部分を前記合成領域とし、 前記合成領域に前記撮影画像を 合成することを特徴とする請求項 1に記載の撮影装置。
2 9 . 前記撮影画像の合成を開始する時刻に再生を開始するデータがあるとき に、 そのデータの再生を開始した後に、 前記シナリオ映像を一時停止する制御を 行う制御手段を備えることを特徴とする請求項 8に記載の撮影装置。
3 0 . 前記撮影画像の合成を開始する時刻に表示されるシナリオ映像をプレビ ユー画像として記憶するプレビュー画像記憶手段と、
' 前記撮影画像の合成を開始する時刻に、 前記プレビュー画像を表示し、 前記シ ナリオ映像を一時停止する制御を行う制御手段と、
を備えることを特徴とする請求項 8に記載の撮影装置。
3 1 . 前記制御手段は、 前記シナリオ映像の再生を再開する位置を、 前記合成 を開始する時刻に移動することを特徵とする請求項 2 9または 3 0に記載の撮影
3 2 . 格納されたデータの出力方法を記述したシナリオ情報と、
撮影により取得される撮影画像を、 前記シナリオ情報の記述にしたがって出力 されるシナリォ映像に合成するための合成情報と、
を有するシナリオデータ。
3 3 . 前記合成情報は、 前記撮影画像が前記シナリォ映像中に合成される時間 に関する情報を含む請求項 3 2に記載のシナリオデータ。
3 4 . 前記合成情報は、 撮影画像が合成される合成領域の外形に関する情報と 前記合成領域の前記シナリォ映像を構成する画像中の位置に関する情報のうち少 なくとも一つを含む請求項 3 2に記載のシナリオデータ。
3 5 . 前記合成情報は、 前記撮影画像の一部を部分画像として切り出す領域お よび時間帯を特定する部分画像特定情報を含むことを特徴とする請求項 3 2に記 載のシナリオデータ。
3 6 . 前記部分画像特定情報によって特定された前記部分画像の切出領域の位 置は、 時間の経過に伴って移動することを特徴とする請求項 3 5に記載のシナリ ォ ·5 "―夕。
3 7 . 前記部分画像特定情報によって特定された前記部分画像の切出領域の形 状は、 時間の経過に伴って変化することを特徴とする請求項 3 5に記載のシナリ ォ: J "一タ。
3 8 . 前記部分画像特定情報は、 部分画像が含むべき対象物によつて前記部分 画像の領域および時間帯を特定することを特徴とする請求項 3 5に記載のシナリ ォデータ。
3 9 . 前記合成情報は、 撮影画像が合成される合成領域が含むべき対象物によ つて前記合成領域およびシナリォ映像が合成領域を含む時間帯を特定することを 特徴とする請求項 3 2に記載のシナリオデ一夕。
4 0 . 格納されたデ一夕をシナリオ映像を構成するように読み出すステップと、 撮影画像を取得するステップと、 前記シナリオ映像中に前記撮影画像を合成するための合成情報を読み出すステ ップと、
前記シナリオ映像に、 前記撮影画像を、 前記合成情報に従って合成するステツ プと、
前記合成するステップにおいて得られる合成映像を表示するステツプと、 を備えることを特徴とする撮影方法。
4 1 . 撮影画像とシナリオ映像とを合成するためにコンピュータに、
格納されたデータをシナリォ映像を構成するように読み出すステツプと、 撮影画像を取得するステツプと、
前記シナリオ映像中に前記撮影画像を合成するための合成情報を読み出すステ ップと、
前記シナリオ映像に、 前記撮影画像を、 前記合成情報に従って合成するステツ プと、
前記合成するステップにおいて得られる合成映像を表示するステップと、 を実行させることを特徴とするプログラム。
PCT/JP2004/007675 2003-08-11 2004-05-27 撮影装置及び撮影方法 WO2005015899A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005510261A JPWO2005015899A1 (ja) 2003-08-11 2004-05-27 撮影装置及び撮影方法
US10/543,359 US20060120623A1 (en) 2003-08-11 2004-05-27 Photographing system and photographing method
EP04735101A EP1679885A1 (en) 2003-08-11 2004-05-27 Photographing system and photographing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-291100 2003-08-11
JP2003291100 2003-08-11

Publications (1)

Publication Number Publication Date
WO2005015899A1 true WO2005015899A1 (ja) 2005-02-17

Family

ID=34131628

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/007675 WO2005015899A1 (ja) 2003-08-11 2004-05-27 撮影装置及び撮影方法

Country Status (6)

Country Link
US (1) US20060120623A1 (ja)
EP (1) EP1679885A1 (ja)
JP (1) JPWO2005015899A1 (ja)
KR (1) KR20060059862A (ja)
CN (1) CN1748410A (ja)
WO (1) WO2005015899A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007110660A (ja) * 2005-09-13 2007-04-26 Sony Corp 情報処理装置および方法、並びにプログラム
JP2008538675A (ja) * 2005-04-19 2008-10-30 マイクロソフト コーポレーション メディアタイムライン処理インフラストラクチャ
JP2009135724A (ja) * 2007-11-30 2009-06-18 Sanyo Electric Co Ltd 画像合成装置
EP2200286A2 (en) * 2005-07-27 2010-06-23 Sharp Kabushiki Kaisha Video synthesis device and program
JP2011015279A (ja) * 2009-07-03 2011-01-20 Olympus Imaging Corp デジタルカメラ及び動画像再生方法
US7978957B2 (en) 2005-09-13 2011-07-12 Sony Corporation Information processing apparatus and method, and program
JP2012094103A (ja) * 2010-02-24 2012-05-17 Dainippon Printing Co Ltd 画像表示システム
JP2017046162A (ja) * 2015-08-26 2017-03-02 隆正 光信 合成動画作成システム、合成動画作成補助システム及び合成動画作成プログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090142001A1 (en) * 2007-11-30 2009-06-04 Sanyo Electric Co., Ltd. Image composing apparatus
US8666191B2 (en) 2011-03-02 2014-03-04 Canon Kabushiki Kaisha Systems and methods for image capturing
US20140111640A1 (en) * 2012-10-19 2014-04-24 Candid Color Systems, Inc. Method of sending and processing event images
CN103150761A (zh) * 2013-04-02 2013-06-12 乐淘奇品网络技术(北京)有限公司 通过网页高速逼真3d渲染进行物品设计定制的方法
JP2015032952A (ja) * 2013-08-01 2015-02-16 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
EP3345160A4 (en) 2015-09-02 2019-06-05 Thumbroll LLC CAMERA SYSTEM AND METHOD OF ALIGNING IMAGES AND PRESENTING A SERIES OF ALIGNED IMAGES
WO2017168949A1 (ja) 2016-03-29 2017-10-05 ソニー株式会社 情報処理装置、撮像装置、画像再生装置、および方法とプログラム
CN109474787B (zh) * 2018-12-28 2021-05-14 维沃移动通信有限公司 一种拍照方法、终端设备及存储介质
CN115883751A (zh) * 2021-09-28 2023-03-31 北京字跳网络技术有限公司 一种视频生成方法、装置、设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06243023A (ja) * 1993-02-12 1994-09-02 Nec Corp シナリオ編集装置
JPH08305720A (ja) * 1995-05-01 1996-11-22 Nippon Telegr & Teleph Corp <Ntt> マルチメディアデータ管理方法及び装置
JPH11196362A (ja) * 1997-01-10 1999-07-21 Casio Comput Co Ltd 撮像装置および撮像画像加工方法
WO1999067949A1 (fr) * 1998-06-22 1999-12-29 Fuji Photo Film Co., Ltd. Imageur et procede
JP2001223876A (ja) * 2000-02-07 2001-08-17 Fuji Photo Film Co Ltd 画像出力装置
JP2001285784A (ja) * 2000-01-26 2001-10-12 Sony Corp 情報処理装置および方法、並びにプログラム格納媒体
JP2002084457A (ja) * 2000-09-07 2002-03-22 Sony Corp 画像処理装置及び方法、並びに記録媒体
JP2002368978A (ja) * 2001-06-07 2002-12-20 Mitsubishi Electric Corp 映像信号編集装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US154158A (en) * 1874-08-18 Improvement in apparatus for drawing water from the ocean
US5045876A (en) * 1988-08-03 1991-09-03 Canon Kabushiki Kaisha Camera with flash device
US5148477A (en) * 1990-08-24 1992-09-15 Board Of Regents Of The University Of Oklahoma Method and apparatus for detecting and quantifying motion of a body part
US6343987B2 (en) * 1996-11-07 2002-02-05 Kabushiki Kaisha Sega Enterprises Image processing device, image processing method and recording medium
US6621524B1 (en) * 1997-01-10 2003-09-16 Casio Computer Co., Ltd. Image pickup apparatus and method for processing images obtained by means of same
JP3736706B2 (ja) * 1997-04-06 2006-01-18 ソニー株式会社 画像表示装置及び方法
JP2001309212A (ja) * 2000-04-21 2001-11-02 Ricoh Co Ltd デジタルカメラ
WO2003025859A1 (fr) * 2001-09-17 2003-03-27 National Institute Of Advanced Industrial Science And Technology Dispositif d'interface
US7203338B2 (en) * 2002-12-11 2007-04-10 Nielsen Media Research, Inc. Methods and apparatus to count people appearing in an image

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06243023A (ja) * 1993-02-12 1994-09-02 Nec Corp シナリオ編集装置
JPH08305720A (ja) * 1995-05-01 1996-11-22 Nippon Telegr & Teleph Corp <Ntt> マルチメディアデータ管理方法及び装置
JPH11196362A (ja) * 1997-01-10 1999-07-21 Casio Comput Co Ltd 撮像装置および撮像画像加工方法
WO1999067949A1 (fr) * 1998-06-22 1999-12-29 Fuji Photo Film Co., Ltd. Imageur et procede
JP2001285784A (ja) * 2000-01-26 2001-10-12 Sony Corp 情報処理装置および方法、並びにプログラム格納媒体
JP2001223876A (ja) * 2000-02-07 2001-08-17 Fuji Photo Film Co Ltd 画像出力装置
JP2002084457A (ja) * 2000-09-07 2002-03-22 Sony Corp 画像処理装置及び方法、並びに記録媒体
JP2002368978A (ja) * 2001-06-07 2002-12-20 Mitsubishi Electric Corp 映像信号編集装置

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008538675A (ja) * 2005-04-19 2008-10-30 マイクロソフト コーポレーション メディアタイムライン処理インフラストラクチャ
US8736698B2 (en) 2005-07-27 2014-05-27 Sharp Kabushiki Kaisha Video synthesizing apparatus and program
EP2200290A3 (en) * 2005-07-27 2010-10-06 Sharp Kabushiki Kaisha Video synthesis device and program
US9100619B2 (en) 2005-07-27 2015-08-04 Sharp Kabushiki Kaisha Video synthesizing apparatus and program
EP2200290A2 (en) 2005-07-27 2010-06-23 Sharp Kabushiki Kaisha Video synthesis device and program
US8836803B2 (en) 2005-07-27 2014-09-16 Sharp Kabushiki Kaisha Video synthesizing apparatus and program
EP2200286A3 (en) * 2005-07-27 2010-10-06 Sharp Kabushiki Kaisha Video synthesis device and program
US8836804B2 (en) 2005-07-27 2014-09-16 Sharp Kabushiki Kaisha Video synthesizing apparatus and program
US8687121B2 (en) 2005-07-27 2014-04-01 Sharp Kabushiki Kaisha Video synthesizing apparatus and program
EP2200286A2 (en) * 2005-07-27 2010-06-23 Sharp Kabushiki Kaisha Video synthesis device and program
US8743228B2 (en) 2005-07-27 2014-06-03 Sharp Kabushiki Kaisha Video synthesizing apparatus and program
JP2007110660A (ja) * 2005-09-13 2007-04-26 Sony Corp 情報処理装置および方法、並びにプログラム
JP4600766B2 (ja) * 2005-09-13 2010-12-15 ソニー株式会社 情報処理装置および方法、並びにプログラム
US7978957B2 (en) 2005-09-13 2011-07-12 Sony Corporation Information processing apparatus and method, and program
JP2009135724A (ja) * 2007-11-30 2009-06-18 Sanyo Electric Co Ltd 画像合成装置
JP2011015279A (ja) * 2009-07-03 2011-01-20 Olympus Imaging Corp デジタルカメラ及び動画像再生方法
JP2012094103A (ja) * 2010-02-24 2012-05-17 Dainippon Printing Co Ltd 画像表示システム
JP2017046162A (ja) * 2015-08-26 2017-03-02 隆正 光信 合成動画作成システム、合成動画作成補助システム及び合成動画作成プログラム

Also Published As

Publication number Publication date
CN1748410A (zh) 2006-03-15
EP1679885A1 (en) 2006-07-12
KR20060059862A (ko) 2006-06-02
US20060120623A1 (en) 2006-06-08
JPWO2005015899A1 (ja) 2007-10-04

Similar Documents

Publication Publication Date Title
JP5568178B2 (ja) ビデオの要約方法
US8970717B2 (en) Photographing apparatus
US7483061B2 (en) Image and audio capture with mode selection
WO2005015899A1 (ja) 撮影装置及び撮影方法
JP4479829B2 (ja) 撮像装置及び撮像方法
JP4986886B2 (ja) 撮像装置、画像再生装置、撮影制御方法及び画像再生方法
WO2022267915A1 (zh) 一种视频处理方法、装置、设备及存储介质
JP2009058834A (ja) 撮像装置
KR101425950B1 (ko) 사진의 소리 열을 생성하기 위한 방법 및 그러한 소리 열을 생성하고 재생하기 위한 장치
JP2010283412A (ja) 撮影装置、撮影方法および再生方法
JP2007325152A (ja) 撮像装置及びそのプログラム
JP5126392B2 (ja) 再生制御装置及び再生制御方法並びにプログラム
JP2005260749A (ja) 電子カメラ、及び電子カメラの制御プログラム
JP2010232813A (ja) 映像編集プログラムおよび映像編集装置
JP4911287B2 (ja) 画像再生装置及びそのプログラム
JP2019140568A (ja) 画像処理装置
JP2007267308A (ja) 画像再生装置
JP5628992B2 (ja) カメラ、カメラの制御方法、表示制御装置、および表示制御方法
JP2010034933A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6020665B2 (ja) 再生制御装置、再生制御方法及びプログラム
JP2005117370A (ja) デジタルカメラ
JP2011044819A (ja) カメラ、および動画再生用プログラム
JP2004266535A (ja) 音声記録再生機器
JP2016220258A (ja) 画像再生装置、画像再生方法及び画像再生プログラム
JP2015122686A (ja) 情報処理装置、撮影装置、制御方法、及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2005510261

Country of ref document: JP

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004735101

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2006120623

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10543359

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020057014735

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 20048040323

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020057014735

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 10543359

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2004735101

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2004735101

Country of ref document: EP