WO2001054400A1 - Image synthesizing device, recorded medium, and program - Google Patents

Image synthesizing device, recorded medium, and program Download PDF

Info

Publication number
WO2001054400A1
WO2001054400A1 PCT/JP2001/000462 JP0100462W WO0154400A1 WO 2001054400 A1 WO2001054400 A1 WO 2001054400A1 JP 0100462 W JP0100462 W JP 0100462W WO 0154400 A1 WO0154400 A1 WO 0154400A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
synthesizing
synthesis
unit
combining
Prior art date
Application number
PCT/JP2001/000462
Other languages
French (fr)
Japanese (ja)
Inventor
Yasushi Waki
Takakazu Shiomi
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to AU27102/01A priority Critical patent/AU2710201A/en
Priority to EP01901545A priority patent/EP1170942A4/en
Priority to US09/937,240 priority patent/US6888577B2/en
Publication of WO2001054400A1 publication Critical patent/WO2001054400A1/en

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/395Arrangements specially adapted for transferring the contents of the bit-mapped memory to the screen
    • G09G5/397Arrangements specially adapted for transferring the contents of two or more bit-mapped memories to the screen simultaneously, e.g. for mixing or overlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/67Circuits for processing colour signals for matrixing

Definitions

  • Image synthesis device recording medium and program
  • the present invention relates to an image display device that combines and outputs a plurality of images.
  • Digital television is equipped with an image synthesizing device as a mechanism for realizing this technology.
  • the image synthesizing device performs a predetermined inter-pixel operation on the image F and the image G by using a pixel f (x, y) of the image F and a pixel g (x, y) in the image G corresponding to the pixel. To output an image H with pixel h (x, y).
  • the ⁇ synthesis operation is an operation in which the weighted average of the pixel f (x, y) and the pixel g (x, y) is set to the pixel h (x, y), and the weight coefficient for the pixel g (x, y) is calculated.
  • Equation 1 It is expressed as In (Equation 1), 'water' represents the product.
  • the weighting coefficient ⁇ is called an ⁇ value, transparency, or a rendering coefficient, and takes a value from 0 to].
  • each pixel is represented by RGB (red, green, blue) components of color display, so the above formula is performed for each component.
  • the image synthesizing device has a 0SD plane which is a memory area for developing a still image and a video plane which is a memory area for expanding a moving image in frame units.
  • a 0SD plane which is a memory area for developing a still image
  • a video plane which is a memory area for expanding a moving image in frame units.
  • FIG. 1A is a conceptual diagram illustrating a state in which an image of the 0SD plane 2502 and an image of the video plane 2501 are combined and a combined image 2503 is output.
  • composition 1 a combining operation in order from the lower layer.
  • the amount of calculation of the ⁇ synthesis operation required for synthesizing a plurality of images is enormous, and it is extremely difficult to perform real-time synthesis every time a frame of a moving image is updated.
  • the speed of the synthesis process can be increased, but the cost of hardware is increased and many planes for image development are used. There is a problem that it becomes necessary. DISCLOSURE OF THE INVENTION.
  • a first object of the present invention is to provide an image synthesizing apparatus, a recording medium, and a program for synthesizing in real time in accordance with a reproduction rate of a moving image, that is, performing a synthesizing process at high speed.
  • Akira has a second object to provide an image synthesizing apparatus, a recording medium, and a program with a reduced memory for image development.
  • an image synthesizing apparatus is an image synthesizing apparatus that generates a synthesized image by synthesizing a moving image and a plurality of still images, wherein the synthesis information includes an image synthesis order, First acquisition means for acquiring the combination information for obtaining a combination ratio of each image before combination with the combination image and the plurality of still images; and combining the plurality of still images based on the combination information.
  • First combining means for generating one combined still image, calculating means for calculating a combining ratio of the moving image to the combined image based on the combining information, and acquiring each frame constituting the moving image It is characterized by comprising a second acquisition unit, and a second combination unit that combines the frames and the combined still image using the combination ratio of the moving image.
  • the image synthesizing apparatus of the present invention first synthesizes a plurality of still images and calculates the synthesizing ratio of the moving image, and then synthesizes the moving image with each frame.
  • the calculation load is light and the processing speed is high.
  • images can be combined and displayed in real time according to the playback rate of moving images.
  • the synthesis information further includes, for each of the images, a coefficient corresponding to the image and operation information indicating a synthesis operation using the coefficient.
  • the image synthesizing apparatus can synthesize a plurality of still images and moving images in which coefficients and calculation information are specified.
  • the image synthesizing device includes a first frame buffer for storing an image, and a second frame buffer for storing each frame constituting the moving image, wherein the first synthesizing unit includes: The plurality of still images obtained by the first obtaining unit are read out in accordance with the image synthesis order, and the stored contents of the first frame buffer are read out using the coefficients and the operation information.
  • the first frame buffer replaces the storage contents of the first frame buffer with the result of the synthesis.
  • the second acquisition unit stores the acquired frames in the second frame buffer, (2)
  • the synthesizing means synthesizes each frame stored in the second frame buffer with the content stored in the first frame buffer using a synthesizing ratio of the moving image, and stores the synthesized image in the second frame buffer.
  • the image synthesizing apparatus can synthesize a plurality of still images and moving images using only two frame buffers, that is, the first frame buffer and the second frame buffer.
  • the first synthesizing means includes a coefficient and an operation corresponding to the moving image, after synthesizing the still image immediately before the moving image in the image synthesizing order and before synthesizing the still image immediately after the moving image. Using the information, a combining operation is performed on the image stored in the first frame buffer, and the result of the combining operation replaces the contents of the first frame buffer.
  • the image synthesizing apparatus has a screen for image display, and the synthesizing by the first synthesizing unit, the obtaining by the second obtaining unit, and the synthesizing by the second synthesizing unit are performed in parallel, and The two-frame buffer outputs the result to the screen at the same time as storing the result of synthesis by the second synthesis means.
  • the state during the synthesis is displayed on the screen, so that a state in which nothing is displayed until the synthesis is completed can be eliminated.
  • the combination information is characterized by further including, for each of the plurality of images, a combination coefficient indicating a combination ratio with respect to a combination result of the image and an image other than the image.
  • the image synthesizing device can synthesize a plurality of still images and moving images in which the synthesis ratio of each of the plurality of images and another image and the overlapping order are specified.
  • the image compositing order represents an order in which images are superimposed, and the compositing coefficient represents, for each of the plurality of images, a compositing ratio of the image to a composite result from the rearmost image to the image in the image compositing order.
  • a calculating unit that calculates a combining ratio of the moving image with respect to the synthesized image from the alpha value corresponding to the moving image and all the images positioned in front of the moving image.
  • the image synthesizing device can synthesize a still image and a moving image in which the alpha value and the superposition order are defined.
  • An image in which the alpha value is specified has the advantage that the layout can be flexibly changed compared to an image in which the composition ratio of the entire image is specified in advance. Therefore, an image synthesizing apparatus that performs image synthesizing using an alpha value has an effect that it can support EPG display of various layouts.
  • the image synthesizing apparatus may further include: an exchanging means for exchanging the order of two images adjacent to each other in the superimposing order; and a synthesizing result when the synthesizing is performed before and after the exchanging is the same.
  • Updating means for obtaining and updating an alpha value corresponding to the two images after the replacement, wherein the first combining means, the calculating means, and the second combining means are provided after the replacement by the replacement means. Each process is performed using the order and the alpha value updated by the updating unit.
  • the moving image located in the middle layer is replaced so as to be located in the upper layer, a plurality of still images are synthesized in order from the lowest layer, and the moving image is synthesized last. Compositing can be performed by the procedure, and the calculation amount is small and the load is light.
  • the image synthesizing apparatus has a storage unit for storing the plurality of still images acquired by the first acquiring unit, and each of the plurality of still images has the same or less number of pixels as the synthesized image.
  • Image data and the corresponding pixel data Wherein the first synthesizing means, the calculating means and the second synthesizing means are superimposed portions of the respective images determined by the ray information. Perform each processing for.
  • the image synthesizing apparatus has a storage unit for storing the plurality of still images acquired by the first acquiring unit, wherein each of the plurality of still images is represented in a vector data format, and The means converts the vector data into pixel data and then synthesizes. .
  • An image synthesizing apparatus for synthesizing a still image and a synthetic image to generate a synthetic image, the synthesizing information including an image synthesizing order, wherein the synthesizing information for obtaining a synthesizing ratio of each image before synthesizing to the synthetic image.
  • a first obtaining unit that obtains the plurality of still images; a first obtaining unit that generates the one combined still image by combining the plurality of still images based on the combining information; and Calculating means for obtaining a synthesis ratio of each of the plurality of moving images with respect to the synthesized image, a second obtaining means for obtaining each frame constituting each of the plurality of moving images, A second synthesizing unit that synthesizes each frame of each of the plurality of moving images and the synthesized still image by using a synthesis ratio of each image.
  • the amount of synthesis of a plurality of moving images and a plurality of still images can be reduced.
  • the image synthesizing device of the present invention is an image synthesizing device for synthesizing a moving image and a plurality of still images to generate a synthesized image, wherein: a first obtaining means for obtaining the plurality of still images; First synthesizing means for synthesizing the still images to generate one synthesized still image, second obtaining means for obtaining each frame forming the moving image, and each frame forming the moving image and the synthesized still image. Second combining means for combining the still image and the still image.
  • FIG. 1A is a conceptual diagram illustrating a state in which images of the 0SD plane 2502 and the video plane 2501 are combined and a combined image 2503 is output.
  • FIG. 1B shows a state in which components of a still image and a moving image are superimposed.
  • FIG. 2 is a block diagram showing a configuration of the image synthesizing apparatus according to Embodiment 1 of the present invention.
  • FIG. 3A shows a composite image 201.
  • FIG. 3B shows the components that make up the composite image 201.
  • FIG. 4 is a diagram for explaining the structure of an image file.
  • Figure 5 shows an example of an index file.
  • FIG. 6 shows the structure of moving image data.
  • FIG. 7 shows the pixel data of the moving image data 501 in an image.
  • FIG. 8 shows the data structure of the first composite image data.
  • FIG. 9 is a flowchart showing a processing procedure of the first forming process.
  • FIG. 10 is a flowchart illustrating a processing procedure of the second synthesis.
  • FIG. 11 is a diagram illustrating the flow of the operation of the image synthesizing apparatus 100 according to the present embodiment when displaying an EPG.
  • FIG. 12 shows a component group including N + 1 moving image components or still image components.
  • FIG. 13 is a program describing the operation of the present invention in a C language style.
  • FIG. 14 shows a program obtained by modifying FIG.
  • FIG. 15 is a block diagram illustrating a configuration of an image composition device according to Embodiment 2 of the present invention.
  • FIG. 16 is a flowchart illustrating a processing procedure of the fourth synthesis processing.
  • FIG. 17 is a diagram illustrating the flow of the operation of the image synthesizing apparatus 200 of the present embodiment when displaying an EPG.
  • FIG. 18 is a diagram for explaining the replacement of the overlapping order of two adjacent components.
  • Figure 19 shows how a moving image component is replaced with a still image component so that it is at the top layer.
  • FIG. 20 is a block diagram illustrating a configuration of an image composition device according to Embodiment 3 of the present invention.
  • FIG. 21 is a flowchart showing the processing procedure of the seventh synthesis.
  • FIG. 22 is a block diagram illustrating a configuration of an image composition device according to Embodiment 4 of the present invention.
  • Figure 23 (a) shows an example of an index file
  • FIG. 23 (b) shows the correspondence between operation types and numbers.
  • FIG. 24 is a flowchart showing the procedure of combining by the ninth combining unit 4108.
  • FIG. 25 shows the Porter Duff ⁇ combination operation according to the operation type.
  • - Figure 26 shows the Porter Duff synthesis operation according to the operation type.
  • FIG. 27 shows Porter Duff a combination operation according to the operation type. .
  • FIG. 28 is a flowchart showing a procedure of synthesis by the tenth synthesis unit 4109.
  • FIG. 29 shows Porter-Duff synthesis operation according to the operation type. .
  • FIG. 30 shows a Porter-Duff synthesis operation according to the operation type.
  • FIG. 31 is a program describing the operation of the present embodiment in a C language style. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 2 is a block diagram showing a configuration of the image synthesizing apparatus according to Embodiment 1 of the present invention.
  • the image synthesizing apparatus 100 includes an input unit 101, a control unit 102, an EPG generation unit 103, an image holding unit 104, a video reproduction unit 105, a video plane 106, a 0SD plane 107, a first synthesis unit 108, and a second synthesis unit. It comprises a unit 109, a third combining unit 110, and an output unit 111.
  • the input unit 101 has a remote controller, front panel buttons, and the like, and receives instructions from the user when these are operated.
  • Specific instructions include an on / off instruction for the image synthesizing apparatus 100, a channel switching instruction, and an on / off instruction for an EPG (Electronic Program Guide) display.
  • the instruction to turn on / off the image synthesizing apparatus 100 indicates that the power of the image synthesizing apparatus 100 is turned on when it is on, and that the power is turned off when it is off, and that the EPG display is on. When off, indicates that the EPG screen is not displayed. ⁇ '.
  • the EPG is a system that displays a program table of a broadcast program, information on the content of the broadcast program, and the like on a television screen.
  • EPG display refers to the state in which a program guide or the like is displayed on the TV screen.
  • a user can search for a program genre and a performer name on an EPG display screen, or easily make a recording reservation using an EPG-compatible VCR.
  • the image synthesizing apparatus 100 displays a synthetic image 201 shown in FIG. 3A as an example.
  • the composite image 201 of FIG. It consists of 203 and 204.
  • the component 202 is a still image representing a program guide
  • the component 203 is a moving image representing the content of the broadcast program of one channel itself
  • the component 204 is a still image representing the program name of the component 203.
  • the components 202 and 204 are generated by the EPG generation unit 103 based on the EPG information transmitted from the broadcasting station.
  • the image synthesizing apparatus 100 displays the component 202, displays the component 203 at the lower right position of the component 202 at a rate of several tens of frames per second, and outputs the component 203.
  • the component 204 is displayed in the upper left position of.
  • the image synthesizing apparatus 100 of the present embodiment has a function of generating and displaying a synthesized image in which a plurality of components including a plurality of still images and one moving image are combined.
  • the control unit 102 controls all the components of the image synthesizing device 100. More specifically, when the image synthesizing apparatus 10.0 is instructed to be turned on, the video reproducing unit 105 reproduces a broadcast program. When the channel switching is instructed, the video reproduction unit 105 reproduces a broadcast program different from the one currently being reproduced. When the ON of the EPG display is instructed, the EPG generation unit 103, the video reproduction unit 105, the first synthesis unit 108, the second synthesis unit 109, and the third synthesis unit 11, 10, and the like are controlled to generate the synthesized image 201. Generate. The processing related to the EPG display will be described later. .
  • EPG generation section 103 acquires and holds EPG information broadcast from a broadcasting station.
  • the EPG information includes layout information such as the display size and display position of the component, the overlapping order of the components, and the still image information of the still image component.
  • the still image information corresponds to the image content of the still image component, and includes text, graphics data, and the like.
  • EPG raw The generating unit 103 generates a plurality of image files and one index file based on the EPG information, and stores them in the image holding unit 104. Further, the EPG generation unit 103 extracts the display size and the display position of the component of the moving image constituting the EPG display screen from the EPG information, and outputs the same to the video reproduction unit 105.
  • the image file corresponds to the components 202, 203, and 204 in FIG. 3B, and is composed of the display size, display position, and image data of the component.
  • the image data is generated based on the still image information.
  • the index file is for managing a plurality of image files, and is composed of a plurality of pieces of image information.
  • One image information corresponds to one image file.
  • the plurality of pieces of image information are arranged in the index file in the same order as the components in FIG. 3A.
  • the image information includes an image type and a storage position.
  • the image type indicates whether the image of the image file is a still image or a moving image.
  • the storage position indicates the position of the head of the image file in the image holding unit 104.
  • Figure 4 is a diagram for explaining the structure of an image file.
  • the first line indicates the display position
  • the second line indicates the display size
  • the third and subsequent lines indicate the image data.
  • the image data consists of a set of pixel data corresponding to all pixels of the component.
  • the pixel data is composed of an RGB component indicating the color of the pixel and an ⁇ value indicating the transparency of the pixel. That is, the ⁇ value indicates the synthesis ratio of the image to the synthesis result from the rearmost image to the image.
  • the storage position 302 described on the left side of the image file 301 indicates the storage position of each data with reference to the case where the head position of the image file 301 is “0000”.
  • the third line is the pixel data corresponding to the pixel at the coordinate position (0, 0)
  • the fourth line is the pixel data corresponding to the pixel at the coordinate position (1, 0).
  • the cell data, the fifth row is the pixel data corresponding to the pixel at the coordinate position (2, 0).
  • the coordinate position (0, 0) indicates the coordinate position of the upper left corner of the component.
  • pixel data corresponds to pixels from left to right and from top to bottom of the component.
  • the display position is the coordinate position of the component on the composite image 201, and is represented by ⁇ and ⁇ coordinates of the upper left corner of the component with the origin at the upper left corner of the composite image 201.
  • the display size consists of the height ⁇ and width W of the component rectangle, where height ⁇ and width W are expressed in pixels. .
  • Each of the RGB components takes a value from 0 to 255. If all three components are 0, the color of the pixel is black, and if all three are 255, the color is white.
  • the ⁇ value takes a value from 0 to 255, and indicates the transparency when that pixel is superimposed on another pixel, that is, how much the pixel in the lower layer transmits through the pixel in the upper layer.
  • ⁇ 255 It takes a value of ⁇ 255, and when the ⁇ value is 0, pixel ⁇ is transparent and 100% transparent to pixel B. A value of 255 makes pixel A opaque, does not transmit pixel B, and 'fills' 100% of pixel A. If the value is 128, pixel A transmits pixel B approximately 50%, that is, pixel A and pixel B are mixed by approximately 50%.
  • pixels A, B, and C are represented by RGB components, and the composition result is calculated for each component.
  • the EPG generation unit 103 sets the values of the image files of the components 202, 203, and 204 as follows. That is, the EPG generation unit 103 sets the ⁇ values of all the pixels in the component 202 to 255. This is because the component 202 is the lowest layer component in the composite image 201. Also, the EPG generation unit 103 Set the ⁇ value of all pixels at to 192. For the value of component 204, set the character part to 255 and the other parts to 64. '
  • Figure 4 shows the correspondence between the content of image data and one component. As shown in the figure, starting from the upper left of the component 303, it corresponds to pixel data from left to right and from top to bottom one pixel at a time.
  • the EPG generation unit 103 generates the above-described image file. However, for moving image components, an image file is generated by setting all RGB components to 0. That is, the EPG generation unit 103 determines the display position, the display size, and the ⁇ value for the image file of the moving image component, and generates an image file in which the RGB components are not determined. This is because the moving image components correspond to broadcast programs and are sent in real time from the broadcasting station, so the RGB components are not determined when the image file is generated.
  • the RGB components of the image file corresponding to the components of the moving image are determined by a video playback unit 105 described later.
  • Figure 5 is Indekkusufu 'aisle 410 of ⁇ drawing showing an example of an index file is composed of the image information 421, 422 and 423 represent the Align order superimposed on the same order. That is, the image information 421 corresponds to the lowest layer component 202 shown in FIG. 3 (b), the image information 422 corresponds to the next layer component 203, and the image information 423 corresponds to the highest layer component 204. I will respond.
  • the value on the side of column 41 1 indicates the image type of the component, “0” indicates a still image, and “1” indicates a moving image.
  • the value in column 412 indicates the storage location of the image file.
  • the images 430, 440, and 450 correspond to the components 202, 203, and 204, respectively, and are images of the image data in the respective image files.
  • image 440 corresponds to component 203. All the RGB components of the image data are 0.
  • the image holding unit 104 is configured by a memory, a hard disk, or the like, and holds the image file and the index file generated by the EPG generation unit 103.
  • the video reproduction unit 105 receives a broadcast program from a broadcast station, performs decoding and the like, reproduces a moving image of several tens of frames / second, and sequentially stores the moving image data in the video plane 106.
  • the video playback unit 105 determines the layout of the video for the composite image 201 based on the display position and display size input from the EPG playback unit 103, and corresponds to the layout on the video plane 106.
  • the R, G, and B components of the video are stored in the area where
  • the video plane 106 is configured by a memory or the like, and holds moving image data stored by the video reproduction unit 105 and a synthesized ⁇ value stored by a second synthesis unit 109 described later.
  • the composite ⁇ value indicates the transparency of one pixel among all pixels when a plurality of pixels are overlapped and synthesized, and is calculated using the ⁇ value of each pixel. That is, the composite ⁇ value held by the video playback unit 105 represents the transparency of the pixels of the moving image component among all the pixels to be superimposed when all the components are superimposed and synthesized.
  • FIG. 6 shows the structure of moving image data.
  • the moving image data 501 is a set of pixel data
  • the pixel data includes an RGB component and a combined ⁇ value.
  • An image 502 is a diagram for illustrating a correspondence relationship between pixel data and a pixel position on a screen.
  • FIG. 7 illustrates pixel data of the moving image data 501 in an image.
  • an image 600 corresponding to the moving image data 501 includes an area 601 corresponding to the component 203 and an area 602 other than the area 601.
  • Image 600 has the same height and width as composite image 201.
  • the video plane 106 receives the RGB components of the area 601 from the video playback unit 105 and the combined ⁇ value from the second combining unit 109.
  • the video plane 106 holds 0 as the RGB components and the composite value of the area 602 in advance.
  • RGB component of area 601 Is updated at several tens of frames / second in accordance with the playback rate of the video playback unit 105.
  • the 0SD plane 107 is configured by a memory or the like, and holds the first combined image data output by the first combining unit 108.
  • FIG. 8 shows the data structure of the first composite image data.
  • the first composite image data 701 is composed of a set of RGB components, and corresponds to a result obtained by combining components 202 and 204, that is, a result obtained by combining still image components.
  • the composition will be described later.
  • An image 702 shows the correspondence between the RGB components of the first combined image data 701 and the pixel positions on the screen. As shown in the figure, the RGB components of the first composite image data 701 are arranged in order from left to right and from top to bottom of the image 702. Image 702 has the same height and width in pixels as composite image 201.
  • the first combining unit 108 combines the image data of the plurality of image files held in the image holding unit 104 to generate first combined image data, and stores the first combined image data in the 0SD plane 107. This process is referred to as the first synthesis process.
  • FIG. 9 is a flowchart illustrating a processing procedure of the first synthesis processing.
  • the first synthesizing unit 108 initializes the 0SD plane 107 (Step S800). Specifically, all the RGB component areas of the 0SD plane 107 are set to 0. '
  • the first synthesizing unit 108 repeats the processing of steps S801 to S807, and performs processing of synthesizing the components of the still image in order from the lower layer to the component of the upper layer.
  • the first combining unit 108 reads out image information i from the index file of the image holding unit 104 (Step S801).
  • i indicates a number assigned to components in ascending order, such as 0, 1, 2, 2, ... in order from the lower layer to the component of the upper layer for convenience in this flow chart.
  • the image information and the image file corresponding to the component i which are variables, are called the image information i and the image file i, respectively.
  • the first synthesizing unit 108 extracts the image file i stored in the storage position indicated by the image information i from the image holding unit 104 (Step S802). ⁇ The first synthesizing unit 108 reads the display size and the display position of the image file i, and sets an overlapping range of the component i of the image file on the screen (step S803).
  • the first synthesizing unit 108 determines whether the image type indicated by the image information i is a moving image or a still image (step S804).
  • the first synthesizing unit 108 performs an ⁇ synthesis operation on the RGB components of the image file i and the RGB components in the overlapping range of the 0SD plane 107 (step S805).
  • the formula for this combination operation is shown below.
  • R (x, y) a (x, y) * Ri (x, y) + (1-a (x, y)) * R (x, y)
  • G (x, y) ai (x, y) * Gi (x, y) + (1- «i (x, y)) * G (x, y)
  • B (x, y) "i (x, y) * Bi (x, y) + (1-(x, y)) * B (x, y)
  • R (x, y) on the left side is obtained by adding the value obtained by weighting,) with £ ⁇ and the value obtained by weighting R (x, y) held in the 0SD plane 107 with 11 ⁇ i.
  • the first combining unit 108 stores the newly obtained R (x, y :), G (x, y), and B (x, y) in the OSD plane 107.
  • the first synthesizing unit 108 calculates the ⁇ value of the image file i and the RGB component of the overlapping range of the 0SD plane 107. Then, the following calculation is performed (step S806). The formula is shown below. (Equation 3)
  • R (x, y) (l- «i (x, y)) * R (x, y)
  • R (x, y :), G (x, y), and B (x, y) on the left side are the newly obtained RGB components
  • a xj) is the ⁇ value of the image file i
  • R (x, y), G (x, y), and B (x, y) are RGB components held within the overlapping range of the 0SD plane 107.
  • the newly obtained R (x, y) is obtained by weighting R (x, y) obtained so far with 1-i (x, y).
  • G (x, y) and B (x, y) The same applies to G (x, y) and B (x, y).
  • Equation 3 is the same as (Equation 2) except that the first term on the right side of the equation is set to 0. Since the first term on the right side of each expression in step S805 weights the RGB component of the image file with a, it means that in the case of each expression in S806, no weighting is applied to the RGB component of the moving image. .
  • the first combining unit 108 stores the R (x, y), G (x, y), and B (x, y) calculated in step S805 or S806 in the 0SD plane 107. 'In this way, the first synthesizing unit 108 finishes the first synthesizing process after processing all image files (step S807).
  • the result of synthesizing the components of the still image is stored in the 0SD plane 107.
  • the second combining unit 109 performs a second combining process of calculating a combined value for the moving image component and storing the combined value in the video plane 106.
  • FIG. 10 is a flowchart illustrating a processing procedure of the second synthesis.
  • the second synthesizing unit 109 initializes the area of the synthesized ⁇ value of the video plane 106 (Step S900). Specifically, the area for the composite value of all pixels of the video plane 106 is set to zero. As a result of the processing in FIG. 10, this composite value area holds the composite value for the moving image component. Things.
  • the second synthesis unit 109 repeats the processing of steps S901 to S907.
  • the second synthesizing unit 109 reads out image information i from the index file of the image holding unit 104 (Step S901). Where i is, for convenience, sequentially from the lower layer to the upper layer components in this flowchart.
  • a variable indicating the number assigned to each component in ascending order such as 0, 1, 2,...
  • image information i and image file i are referred to as image information i and image file i, respectively. I do.
  • the initial value of i is 0, and the increment is 1.
  • the second synthesizing unit 109 reads the display size and the display position of the image file i, and sets the overlapping range of the component i on the screen (step S903).
  • the second combining unit 109 determines whether the image type indicated by the image information i is a moving image or a still image (step S904).
  • the second combining unit 109 calculates a new combined ⁇ value using the oi i of the image file i and the combined ⁇ value in the overlapping range of the video plane 106 (step S905). .
  • the second synthesizing unit 109 stores the newly obtained a (x, y) in the video plane 106. On the other hand, if it is determined in step S904 that the image type indicated by the image information i is a moving image, the second combining unit 109 performs the following calculation (step S906).
  • a (x, y) ai (x, y)
  • (x, y) on the left side is the newly calculated composite value
  • a i (x, y) on the right side is the ⁇ value of the image layer i.
  • tt i (x, y) is directly used as (x, y).
  • the first combining unit 109 stores the ⁇ (x, y) calculated in step S905 or step S906 in the video plane 106.
  • the second synthesizing unit 109 finishes the second synthesizing process after processing all image files (step S907).
  • the composite value for the video component is finally stored in the video plane 106.
  • the third synthesis unit 110 Upon receiving a normal reproduction instruction from the control unit 102, the third synthesis unit 110 outputs the R, G, and B components held in the video plane 106 to the output unit 111. Further, when receiving an EPG display instruction from the control unit 102, the third synthesis unit 110 receives the R, G, B components of the moving image data stored in the video plane 106 and the first synthesized image stored in the 0SD plane 107. The third synthesis is performed to synthesize the RGB components of the data, and the synthesized image of the synthesis result is output to the output unit 111.
  • the third synthesis processing is represented by the following equation.
  • R (x, y) (x, y) * Rv (x, y) + R. (x, y)
  • G (x, y) a (x, y) * Gv (x, y) + G. (x, y)
  • B (x, y) «(x, y) * Bv (x, y) + B 0 (x, y)
  • R (x, y :), G (x, y), and B (x, y) are the R, G, and B components of each pixel output to the output unit 111 as a result of the third synthesis.
  • a (x, y), Rv (x, y), Gv (x, y), Bv (x, y) are the composite values of the moving image data stored in the video plane 106 and R, G , B components, and Ro (x, y), Go (x, y), and Bo (x, y) are the R, G, and B components of the first composite image data.
  • the third synthesis unit 110 calculates the value obtained by multiplying the R, G, and B components of the image data held in the video plane 106 by the synthesis a value, and the first synthesized image data held in the 0SD plane 107.
  • the processing of adding the R, G, and B components is performed for each frame of video playback.
  • the output unit 111 is configured by a CRT or the like, and receives the R, G, and B components output by the third synthesis unit 110 and displays them on a screen.
  • FIG. 11 is a diagram illustrating the flow of the operation of the image synthesizing apparatus 100 according to the present embodiment when displaying an EPG.
  • the input unit 101 receives an instruction to display an EPG (step S1001)
  • the instruction is transmitted to each unit via the control unit 102.
  • the EPG generation unit 103 Upon receiving the instruction, the EPG generation unit 103 generates an image file and an index file based on the broadcast EPG information, and stores the image file and the index file in the image holding unit 104. Further, the EPG generation unit 103 notifies the video reproduction unit 105 of the display position and display size of the moving image component acquired at the time of generating the image file (Step S1002).
  • the first synthesizing unit 108 synthesizes the RGB components within the overlapping range of the still image components stored in the image holding unit 104, and stores the synthesized RGB components in the 0SD plane 107 (step S1003).
  • the second synthesizing unit 109 calculates the value of the image file stored in the image holding unit 104 Then, a composite ⁇ value for the moving image component is calculated based on the video and stored in the video plane 106 (step S1004).
  • the video playback unit 105 plays back the moving image, and stores the moving image data in the video plane 106 in the layout indicated by the display size and display position notified from the EPG generation unit 103 (step S1005).
  • the third combining unit 110 weights the RGB components of the moving image component with the combined ⁇ value, adds the RGB components of the first combined image data thereto, and outputs the RGB components of the combined image obtained after the addition. (Step S1006).
  • the output unit 111 displays the RGB components of the synthesized image from the third synthesis unit 110 (Step S1007)
  • step S1003, step S1004, step S1005, and step S1006 are performed in parallel.
  • the processing in step S1006 is performed at the same rate as the reproduction of the moving image in step S1005.
  • the following describes capture of the feature of the present invention, that is, the synthesis of a moving image and a still image.
  • FIG. 12 shows a component group composed of +1 moving image components or still image components.
  • the ⁇ , G, and ⁇ components of the image obtained as a result of superimposing these component groups are given by the following equations (Equation 7).
  • represents the composition ratio of the component i to the image that is the final composition result, and is also referred to as contribution. That is, j3i is the composite ⁇ value.
  • the operation of combining the components of the still image other than the component of the moving image using values and adding the component of the moving image to the result is performed.
  • the still image component exists as an image file with the display size and display position, and is synthesized on the 0SD plane at the time of synthesis. Therefore, the still image component is efficiently synthesized with a small memory capacity of 107-SD planes. be able to.
  • composition of these components is performed sequentially in the order of superimposition, including moving images and still images, it is necessary to calculate the composition ratio for each pixel of all components and store it in memory. is there. This requires a lot of memory and is inefficient.
  • the formula for calculating the composition ratio requires a large number of multiplications if performed independently one by one.
  • N + 1 of the Component for 1) / 2 multiplications are required, the ⁇ ⁇ 2 of the order of calculation.
  • the first synthesizing unit 108 is in charge of adding the terms of components other than the moving image
  • the second synthesizing unit 109 is in charge of calculating the degree of contribution of the moving image.
  • the third combining unit 110 is responsible for adding the last moving image.
  • FIG. 13 is a program describing the operation of the present invention in a C language style. This program focuses on one pixel.
  • R, G, and B represent the RGB components of one pixel on the OSD plane, and represents the composite ⁇ value of the moving image corresponding to this pixel.
  • Gi, Bi, ⁇ i are the RGB component and a value of the i-th component added to the OSD plane.
  • R v , G v , and B v are the RGB components of the moving image.
  • the first to fourth lines indicate the initialization process.
  • Lines 5 to 17 show the addition of still images, and the rest show addition of moving images.
  • Lines 7, 8, 9, 12, 13, and 14 indicate the operations performed by the first synthesis unit 108.
  • the composition formula of the moving image is equivalent to calculating assuming that the .RGB component of the moving image is 0.
  • the tenth and fifteenth lines are calculations performed by the second synthesizing unit 109 to calculate the synthesized value of the moving image.
  • the fifth, sixth, eleventh, sixteenth, and seventeenth lines are processes common to the first combining unit 108 and the second combining unit 109.
  • the 18th, 19th, and 20th rows are operations performed by the third synthesis unit 110.
  • lines 18, 19, and 20 are executed in parallel in different threads, and may be an endless loop.
  • Figure 14 shows a program that achieves this.
  • programl and progr-am2 split the program in Figure 13, and program2 makes the output a permanent loop.
  • These two programs can be processed in parallel. When parallel processing is performed, it is possible to display the state in the middle of superposition and the process of superimposition.
  • FIG. 15 is a block diagram showing the configuration of the image composition device according to the second embodiment of the present invention.
  • the image synthesizing apparatus 200 includes an input unit 101, a control unit 1500, an EPG generation unit 103, an image holding unit 104, a video reproduction unit 105, a video plane 106, a 0SD plane 1501, a fourth synthesis unit 1502, and a fifth It consists of a synthesis unit 1503 and an output unit 111.
  • these constituent elements those having the same reference numerals as those of the image synthesizing apparatus 100 have the same functions, and therefore the description thereof will be omitted.
  • the control unit 1500 controls all the components of the image composition device 200. More specifically, when the image synthesis device 200 is instructed to be turned on, the video reproduction unit 105 reproduces a broadcast program. When the channel switching is instructed, the video reproduction unit 105 reproduces a broadcast program different from the one currently being reproduced. When the ON of the EPG display is instructed, it controls the EPG generating unit 103, the video reproducing unit 105, the fourth synthesizing unit 1502, the fifth synthesizing unit 1503, and the like to generate a synthesized image.
  • the 0SD plane 1501 is composed of a memory or the like, and holds RGB components and values output by the fourth synthesis unit 1502.
  • the 0SD plane 1501 holds RGB components and values corresponding to pixels on the screen.
  • the fourth combining unit 1502 Upon receiving an instruction from the control unit 1500, the fourth combining unit 1502 combines the image data of the plurality of image files held in the image holding unit 104, and finally generates the fourth combined image data. , Stored in the 0DS plane 1501. This processing is called the fourth synthesis processing.
  • FIG. 16 is a flowchart showing a processing procedure of the fourth synthesis processing.
  • the fourth synthesizing unit 1502 sets 0 to all areas of the RGB component of the 0SD plane 1501 and sets 0 to all areas of the synthesized value of the video plane 106 (steps S1600 and S1601). ).
  • the fourth compositing unit 1502 repeats the processing of steps S1602 to S1612, composites the components of the still image in order from the lower layer to the component of the upper layer, and generates the 0SD plane 1501. Processing to calculate the composite value for the video component and store it in the video plane 106 I do.
  • the fourth synthesizing unit 1502 reads out image information i from the index file of the image holding unit 104 (Step S1602).
  • i indicates the number assigned to each component in ascending order from 0 to 1 in the order from the lower layer to the upper layer for convenience in this flow chart.
  • the image information and image file corresponding to component i, which are variables, are called image information i and image file i, respectively.
  • the initial value of i is 0, and the increment is 1.
  • the fourth synthesizing unit 1502 extracts the image file i stored in the storage position indicated by the image information i from the image holding unit 104 (Step S1603).
  • the fourth synthesizing unit 1502 reads the display size and display position of the image file i, and sets a range of superimposition on the screen of the component i of the image file i (step S1604).
  • the fourth synthesizing unit 1502 determines whether the image type indicated by the image information i is a moving image or a still image (step S1605).
  • the fourth combining unit 1502 copies the ⁇ value of the image file i to the video plane 106 (step S1611).
  • step S1605 If it is determined in step S1605 that the image type indicated by the image information i is a still image, the fourth combining unit 1502 determines whether or not all the combined ⁇ values held in the video plane 106 are 0. (Step S1606). That is, in this case, the process branches depending on whether or not there is a moving image in a lower layer than the still image.
  • step S1606 when it is determined that the combined ⁇ values held in the video plane 106 are all 0, the fourth combining unit 1502 copies the value of the image file i to the 0SD plane 1501 (step S1609). ).
  • step S1606 if the composite values held in the video plane 106 are not all 0, that is, at least one is If not, the fourth synthesizing unit 1502 obtains a new ⁇ value by the calculation of (Equation 8) using the synthesized value held in the video plane 106 and the value of the image file i, and stores it in the 0SD plane 1501 ( Step S1607).
  • aosd (x, y) on the left side is the newly obtained ⁇ value
  • ⁇ i (x, y) on the right side is the ⁇ value of the image file i
  • a v (x, y) is the video plane 106. This is the retained composite ⁇ value.
  • the fourth combining unit 1502 calculates the combined ⁇ value for the moving image by (Equation 9), and stores it in the area of the combined ⁇ value of the video plane 106 (Step S1608) c (Equation 9)
  • a v (x, y) on the left side is a composite value newly stored in the video plane 106
  • ⁇ ⁇ ( ⁇ ; ⁇ ) on the right side is a composite value stored in the video plane 106 before this storage.
  • ai (x, y) is the ⁇ value of image file i.
  • the fourth combining unit 1502 performs a combining operation of the RGB component of the image file i and the RGB component in the overlapping range of the .0SD plane 1501, using the ⁇ value set in the 0SD plane 1501 in step S1607 or step S1609. And stores the result in the 0SD plane 1501 (step S1610).
  • the equation is shown in (Equation 10).
  • R (x, y) a 0S d ( ⁇ , y) * Ri (x, y) + (l- flr os d (x, y)) * R (x, y)
  • G (x, y) 0S d (x, y) * Gi (x, y) + (l- a 0 sd (x, y)) * G (x, y)
  • B (x, y) «osd (x, y) * Bi (x, y) + (1-or 0 sd (x, y)) * B (x, y)
  • R (x, y), G (x, y), and B (x, y) on the left side are RGB components to be newly obtained, and! 3 ⁇ 4), 0,), 8 ⁇ ) and 03 (1 are the RGB components and ⁇ values held in the 0SD plane 1501, and Ri (x, y), Gi (x, y), Bi ( x, y) is the RGB component of image file i.
  • the fourth synthesis unit 1502 performs the processing from step S1602 to step S1612 on all the image files, and ends the fourth synthesis processing (step S1612).
  • the fifth synthesizing unit 1503 outputs the R, G, and B components held in the video plane 106 to the output unit 111 when receiving a normal reproduction instruction from the control unit 1500. Further, when receiving the EPG display instruction from the control unit 1500, the fifth synthesizing unit 1503 stores the H, G, B components and the synthesized ⁇ value of the moving image data stored in the video plane 106, and the fifth stored in the 0SD plane 1501. (4) A fifth synthesis for synthesizing the RGB components of the synthesized image data and is performed, and the resultant synthesized image is output to the output unit 111.
  • the fifth synthesis processing is represented by the following equation.
  • R (x, y) ⁇ ( ⁇ , y) * RV (x, y) + R 0 (x, y)
  • G (x, y) a (x, y) * G v (x, y) + G 0 (x, y).
  • B (x, y) a (x, y) * B v (x, y) + B 0 (x, y)
  • R (x, y), G (x, y), and B (x, y) are the R, G, and B components of each pixel output to the output unit Ill as a result of the fifth synthesis.
  • the fifth combining unit 1503 combines with the fourth combined image data every time a frame is updated.
  • FIG. 17 is a diagram illustrating the flow of the operation of the image synthesizing apparatus 200 of the present embodiment when displaying an EPG.
  • the contents of the rectangles indicate the operation of each component, and the arrows indicate the flow of data.
  • the operation at the same step number as in FIG. 11 means the same operation as that in FIG.
  • the input unit 101 receives an EPG display instruction (step S1001)
  • the instruction is transmitted to each unit through the control unit 1500.
  • the EPG generation unit 103 Upon receiving the instruction, the EPG generation unit 103 generates an image file and an index file based on the broadcast EPG information, and stores the generated image file and the index file in the image holding unit 104.
  • the EPG generation unit 103 notifies the video reproduction unit 105 of the display position and display size of the moving image component acquired at the time of generating the image file (step S1002).
  • the fourth synthesizing unit # 502 synthesizes the RGB components within the overlapping range of the still image components stored in the image holding unit 104, and stores them in the 0SD plane 1501. Further, the fourth combining unit 150 calculates a combined value for a moving image and stores the combined value in the video plane 106 (step S1701).
  • the video reproducing unit 105 reproduces the moving image, and stores the moving image data in the video plane 106 in the layout indicated by the display size and the display position notified from the EPG generating unit 103 (Step S1005).
  • the fifth synthesizing unit 1503 weights the RGB components of the moving image component with the synthesized ⁇ value, adds the RGB components of the fourth synthesized image data thereto, and outputs the RGB components of the synthesized image obtained after the addition. (Step S1702).
  • the output unit 111 displays the RGB components of the synthesized image from the fifth synthesis unit 1503 (Step S1007)
  • step S1702 the processing in step S1702 is performed in step S1005 and step S1701. Is performed in parallel.
  • the synthesizing method according to the present embodiment is performed by changing the overlapping order of two adjacent components.
  • the values of the two components after the replacement are updated by the equations shown in steps S1607 and S1608 of FIG. 16 so that the synthesis result before the replacement is the same as the synthesis result after the replacement.
  • the fourth synthesizing unit 1502 efficiently calculates values necessary for replacing adjacent components and synthesizes them into the 0SD plane 1501, as shown in the flowchart of FIG.
  • the fifth combining unit 1503 combines the 0SD plane 1501 and the ⁇ video plane 106.
  • FIG. 20 is a block diagram illustrating a configuration of an image composition device according to Embodiment 3 of the present invention.
  • the image synthesizing device 300 includes an input unit 101, a control unit 2000, an EPG generation unit 2003, an image holding unit 104, a video reproduction unit 2001, a video plane 2002, It comprises an OSD plane 107, a sixth synthesis unit 2004, a seventh synthesis unit 2Q05, an eighth synthesis unit 2006, and an output unit 111.
  • the image synthesizing device 300 synthesizes a plurality of moving image components and a plurality of still image components.
  • those having the same reference numerals as those of the image synthesizing apparatus 100 and the image synthesizing apparatus 200 have the same functions, and thus the description thereof will be omitted, and the explanation will be focused on the elements having different numbers.
  • the control unit 2000 controls all the components of the image synthesizing device 300. More specifically, when the image synthesizing device 300 is turned on, the video reproducing unit 2001 reproduces a broadcast program. When the channel switching is instructed, the video reproducing unit 2001 reproduces a broadcast program different from the one currently being reproduced. When the ON of the EPG display is instructed, the EPG generating unit 2003, the video reproducing unit 2001, the sixth synthesizing unit 2004, the #th synthesizing unit 2005, and the eighth synthesizing unit 2006 are controlled to generate a synthetic image.
  • the video playback unit 2001 includes a plurality of playback units, that is, a first playback unit, a second playback unit,..., And an N-th playback unit. Each playback unit receives a broadcast program from a broadcast station. Then, decoding is performed, and a moving image of several tens of frames / second is reproduced, and the moving image data is stored in the video plane 2002 while being overwritten and updated in frame units. At the time of storage, the video playback unit 2001 determines the layout of the moving image with respect to the final composite image based on the display position and display size input from the EPG playback unit 2.003, and determines the layout on the video plane 2002. The .R, G, and B components of the video are stored in the area corresponding to.
  • the video plane 2002 has a plurality of planes inside, that is, a first plane, a second plane, and an N-th plane.
  • Each plane includes a memory and the like, and each plane corresponds to a plurality of reproduction units of the video reproduction unit 2001. Then, the moving image data stored by the playback unit and the composite ⁇ value stored by the seventh synthesis unit 2005 are retained.
  • the EPG generation unit 2003 acquires EPG information for displaying an EPG, which includes a plurality of moving image components and still image components, from a broadcast station. A plurality of image files and one index file are generated based on the information, and stored in the image holding unit 104. In addition, the display size and display position of a plurality of moving image components constituting the EPG display screen are extracted from the EPG information and output to the video playback unit 2001.
  • the EPG generation unit 2003 is the same as the EPG generation unit 103 except that it supports a plurality of moving image components.
  • the sixth combining unit 2004 combines the image data of the plurality of image files held in the image holding unit 104 to generate sixth combined image data, and stores the sixth combined image data in the 0SD plane 107.
  • This process is called a sixth synthesis process.
  • This process is almost the same as the first combining process shown in FIG. 9 of the first embodiment, except that the process of step S806 is performed a plurality of times corresponding to a plurality of moving images.
  • the seventh combining unit 2005 Upon receiving an instruction from the control unit 2000, the seventh combining unit 2005 calculates a combined ⁇ value for each of the plurality of video components, and performs a seventh combining process of storing the combined ⁇ values in the corresponding planes of the video plane 2002. .
  • FIG. 21 is a flowchart illustrating the procedure of the seventh combining process.
  • the seventh synthesizing unit 2005 initializes the area of the synthesized ⁇ value of the video plane 2002 (step S2100). Specifically, 0 is set in the area for the combined ⁇ value of all pixels in each plane of the video plane 2002. This composite value area eventually holds the composite a value.
  • the seventh combining unit 2005 repeats the processing of steps S2101 to S2107.
  • the seventh synthesizing unit 2005 reads image information i from the index file of the image holding unit 104 (Step S2101).
  • i is a number assigned to components in ascending order, such as 0, 1, 2, 2,... From the lower layer to the upper layer for convenience in this flowchart.
  • the image information and the image file corresponding to the component i, which are variables, are called the image information i and the image file i, respectively.
  • the seventh synthesizing unit 2005 retrieves the image file stored in the storage position indicated by the image information i from the image holding unit 104 (Step S2102).
  • the seventh synthesizing unit 2005 reads the display size and the display position of the image file i, and sets an overlapping range of the component i of the image file on the screen (step S2103).
  • the seventh synthesizing unit 2005 determines whether the image type indicated by the image information i is a moving image or a still image (step S2104).
  • the seventh synthesizing unit 2005 copies the ⁇ value of the image file i into the ⁇ value area of the k-th plane of the video plane 2002 (step S2105). When this is made into the formula, it becomes (Formula 16)
  • the seventh combining unit 2005 calculates a combined ' ⁇ value region of the m-th plane other than the k-th plane,
  • m (x, y) (1- «i (x, y)) * Perform the calculation of P (x, y) and update the value of / S n (x, y).
  • iS x. Y) indicates a value stored in the area of the composite value of the m-th plane, and m takes a value from 1 to N excluding k (step S2106).
  • step S2105 and step S2106 are equivalent to the operation of 1 in (Equation 7), and each moving image component for the final synthesized result image is calculated.
  • the composition ratio of the components, that is, the composition ⁇ value, is calculated.
  • the seventh combining unit 2005 ends the seventh combining process after performing the process for all the image files (step S2107).
  • each plane of the video plane 2002 stores a composite value for each moving image component.
  • the eighth synthesis unit 2006 Upon receiving an EPG display instruction from the control unit 2000, the eighth synthesis unit 2006 performs an eighth synthesis process of synthesizing each RGB component of each plane of the video plane 2002 and each of the 0SD planes 107, and generates a resultant synthesized image. Output to the output unit 111.
  • the composition by the eighth composition unit 2006 is expressed by the following equation.
  • R (x, y) (x, y) * Rvi (x, y)
  • G (x, y) ⁇ i (x, y) * Gvi (x, y)
  • R (x, y), Ci (x, y), and B (x, y) are the G and B components of each pixel output to the output unit 111, and! ⁇
  • R vl (x, y), G vl (x, y), and 'B vl (x, y) are the combined alpha value and RGB of the video data stored in the first plane of the video plane 2002.
  • I8 2 (x, y), R v2 (x, y), G v2 (x, y), B v2 (x, y) are the moving images stored in the second plane of the video plane 2002.
  • a synthetic ⁇ Ne ⁇ Pi RGB components of the image data i3 N (x, y) , R vN (x, y), G vN (x, y), B vN (x, y) is.
  • video plane 2002 R. (x, y), G. (x, y), B. (x, y) are the OSD planes. This is the RGB component stored in 107.
  • the EPG generation unit 2003 performs the process of step S1002, and the EPG generation unit 2003 notifies the video reproduction unit 2001 of the display positions and display sizes of a plurality of moving image components instead of one moving image component.
  • step S1003 is performed by the sixth synthesis unit 2004.
  • step S1004 is performed by the seventh synthesizing unit 2005, and the seventh synthesizing unit 2005 calculates a synthesized value corresponding to each of the plurality of moving image components and stores the calculated value in the video plane 2002.
  • the video playback unit 2001 performs the process of step S1005, and the video playback unit 2001 plays back a plurality of moving images and stores them in the video plane 2002. Further, the processing of step S1006 is performed by the eighth compositing unit 2006, and the eighth compositing unit 2006 computes the weighted RGB components of the plurality of moving image components with their composite values and the RGB components of the sixth composite image data. Are added, and the RGB components of the composite image obtained after the addition are output to the output unit 111 (step S1006).
  • the eighth synthesizing unit 2006 continues synthesizing and outputting each plane of the video plane '2002 and the 0SD plane 107 until the stop instruction is given, and outputs the video reproducing unit 2001, the sixth synthesizing unit 2004, and Processing is performed in parallel with the processing of the seventh combining unit 2005.
  • FIG. 22 is a block diagram illustrating a configuration of an image composition device according to Embodiment 4 of the present invention.
  • an image synthesizing device 400 includes an input unit 101, a control unit 4102, an EPG generation unit 4103, an image holding unit 4104, a video playback unit 105, a video plane 106, a 0SD plane 107, a ninth synthesis unit 4108, and a tenth synthesis unit.
  • Part 4109, third synthesis part 110 It is composed of an output unit 111 and performs image synthesis using Porter-Duff operation.
  • the Porter-Duff operation is described in, for example, r Composing ltng Digital Images J (SI GGRAPH 84, 253-259.), Co-authored by ⁇ . Porter and T. Duff. Note that, also in the present embodiment, description will be given with reference to FIGS. 3A and 3B as necessary.
  • the Porter-Duff operation specifies one or two types of operation rules for combining a source pixel and a destination pixel.
  • the source and destination pixels have RGB components and 'values.
  • the definition of the ⁇ value is different from the ⁇ value of the first to third embodiments.
  • the values used in the first to third embodiments are defined between two images, whereas the ⁇ value used in the porter-duff operation of the present embodiment is the ⁇ value for each image. Is defined.
  • the image resulting from the composite operation of two images with ⁇ values also has a value. When the image resulting from the synthesis is actually displayed on the screen, a value obtained by multiplying the RGB value of the image by the ⁇ value is output.
  • the image synthesizing apparatus 400 of the present embodiment performs image synthesis using eight types of useful calculations out of the 12 types of calculation rules.
  • the eight calculation rules are "CLEAR”, “SRG”, “SRC-0VER”, “DST-0VER”, “SRC-1 IN”, “DST-1 IN”, “SRC_0UT” and “DST-0UT”. is there.
  • SRC-0VERJ overlays the source on the destination.
  • DST-0VERJ overlays the destination on the source and replaces the destination with the resulting RGB components.
  • r SRC_INJ replaces the destination with the source part that overlaps the destination.
  • DST-0UTJ replaces the destination with a destination that does not overlap the source.
  • the control unit 4102 controls all the components of the image composition device 400. More specifically, when the image synthesis device 400 is instructed to be turned on, the video reproduction unit 105 reproduces a broadcast program. When the channel switching is instructed, the video reproducing unit 105 reproduces a broadcast program different from the one currently being reproduced. When the ON of the EPG display is instructed, the EPG generation unit 4103, the video reproduction unit 105, the ninth synthesis unit 4108, the tenth synthesis unit 4109, the third synthesis unit 110, and the like are controlled to generate a synthesized image.
  • the EPG generation unit 4103 acquires and holds EPG information broadcasted from a broadcasting station, generates a plurality of image files and one index file based on the EPG information, and stores the image files. Stored in section 4104. Further, the EPG generation unit 4103 extracts the display size and the display position of the component of the moving image constituting the EPG display screen from the EPG information, and outputs the same to the video reproduction unit 105.
  • the image holding unit 4104 holds a plurality of image files and one index file.
  • the index file is for managing a plurality of image files and is composed of a plurality of image information.
  • One image information corresponds to one image file.
  • the plurality of pieces of image information are arranged in the index file in the same order as the components are superimposed.
  • Image information The report includes an image type, a calculation type, and a storage location.
  • the image type indicates whether the image of the image file is a still image or a moving image.
  • the calculation type indicates which of the 12 types of calculation specified in the Pouffer Duff is used.
  • the storage position indicates the head position of the image file in the image holding unit 4104.
  • FIG. 23 (a) shows an example of the index file.
  • the index file 4410 shown in the figure is composed of image information 4421, 442, and 4423, and indicates the order of superposition of components in the same order. That is, the image information 4421 corresponds to the component of the lowest layer, the image information 4422 corresponds to the component of the next layer, and the image information 4423 corresponds to the component of the highest layer.
  • the value on the column 41 1 side indicates the image type of the component, “0” indicates a still image, and “1” indicates a moving image.
  • the value in column 413 indicates the type of operation.
  • Figure 23 (b) shows the relationship between the values that can be entered in column 413 and the operation type.
  • the images 430, 440, and 450 correspond to the components 202, 203, and 204, respectively, and represent the image data in the respective image files.
  • the image 440 indicates that all the RGB components of the image data corresponding to the component 203 are 0.
  • the value is set for all images, so image 430 is the bottom component, but any alpha value is set for each pixel .
  • the image holding unit 4104 holds a plurality of image files and one index file.
  • the ninth combining unit 4108 Upon receiving an instruction from the control unit 4102, the ninth combining unit 4108 combines the image data of the plurality of image files held in the image holding unit 4104 to generate ninth combined image data, and stores it in the 0SD plane 107. I do. This processing is performed in the ninth synthesis Called processing.
  • FIG. 24 is a flowchart showing the procedure of the synthesis by the ninth synthesis unit 4108.
  • Step S4802 The ninth combining section 4108 reads out the image file i stored in the storage location indicated by the image information i and the operation type indicated by the image information i.
  • Step S4805 According to the operation type read in step S4802, the porter duff alpha synthesis operation shown in FIG. 25 is performed for each pixel.
  • Step S4806 The RGB components of the moving image are set to 0, and the calculation shown in FIG. 26 is performed in pixel units according to the type of calculation.
  • Step S4807 The ⁇ value shown in FIG. 27 is calculated for each pixel according to the operation type.
  • FIGS. 25, 26, and 27 show equations for only eight operations that are said to be significant in the Porter-Duff operation.
  • the tenth combining unit 4109 Upon receiving an instruction from the control unit 4102, the tenth combining unit 4109 generates an ⁇ value of the video plane 106 for the OSD plane 107 from the image data stored in the image holding unit 4104, and Store in 6.
  • FIG. 28 is a flowchart showing the procedure of combining by the tenth combining unit 4109.
  • Step S1202 The tenth combining unit 4109 reads the image file i stored in the storage location indicated by the image information i and the operation type indicated by the image information i.
  • Step S4905 The tenth combining section 4109 performs the calculation shown in FIG. 29 on a pixel basis according to the calculation type. Basically, since a still image is drawn on the moving image, the components of the moving image are weakened. In the table of Fig. 29, is the composite value of each pixel of the video plane 106, and ⁇ is the value of each pixel superimposed on the video plane 106 of the extracted image file, and these values are theoretical values. Top Take between 0 and 1. As an actual implementation method, the value is represented by a value such as 0 to 255 or 0 to 15.
  • Step S4906 The tenth combining section 4109 performs the calculation shown in FIG. 30 on a pixel basis according to the calculation type.
  • the ninth combining section 4108 and the tenth combining section 4109 operate in synchronization.
  • Steps S1202, S903, S904, and S907 may be synchronized using the processing results of steps S4802, S803, S804, and S807 as they are.
  • Steps S4905 and S4906 must be completed before step S807.
  • the image synthesizing apparatus 400 can perform image synthesizing by Powell-Duff operation, and can reduce the memory and the number of times of multiplication similarly to the first embodiment.
  • FIG. 31 is a program describing the operation of the present embodiment in a C language style. This program focuses on only one pixel.
  • R, G, B, and a represent the R, G, B, and value of one pixel on the OSD plane, and av represents the composite a value of the video plane corresponding to this pixel.
  • Lines 5 to 5 are the initialization process.
  • the eighth, 1-1, and 14th lines are operations performed by the ninth combining unit 4108.
  • the 9th and 12th lines are the operations assigned to the tenth combining unit 4109, which calculates the contribution (
  • the 16th, 17th, and 18th rows are the operations performed by the third synthesis unit 110.
  • the 16th, 17th, and 18th lines are performed in parallel by another thread, and may be in a permanent loop.
  • the specific calculation on the eighth line is shown in FIG. 26, and the specific calculation on the 11th line is shown in FIG.
  • the specific operation on the ninth line is shown in FIG. 30, and the specific operation on the 12th line is shown in FIG. here 29 and 29 correspond to v in FIG.
  • the specific calculation on the 14th line is shown in FIG.
  • the image synthesizing apparatus 400 performs the synthesis of a plurality of still images and the calculation of the synthesis ratio of a moving image in accordance with the calculation type of the Porter-duff calculation determined for each image.
  • Each frame of the moving image is combined with the combined still image according to the type. This eliminates the need to combine multiple still images and moving image frames each time a moving image frame is updated, reducing the computational load and increasing the processing speed. As a result of the higher processing speed, images can be combined and displayed in real time according to the playback rate of the moving image.
  • the image can be synthesized in real time, each time an image of one frame is expanded in the frame buffer, the image of the frame is synthesized with the synthesized still image. The effect is that the capacity of the frame buffer can be reduced.
  • the image synthesizing apparatus of the present invention has been described based on the embodiments, but the present invention is not limited to the above embodiments. That is,
  • the combined ⁇ value of the moving image component is held in the video plane 106, 1501, but when there is one moving image component, it is held in the 0SD plane 107, 1501. It may be configured as follows.
  • pixel data in a memory or the like is R,
  • G, B are stored in this order, but are not limited to this order, and may be stored in, for example, the order of B, G, B or the order of .alpha., B, G, R. Also, values for all pixels may be stored for each component of R, G, ⁇ , and not for each pixel.
  • R, G, ⁇ , and ⁇ are 1 byte each, that is, R, G, and ⁇ are 256 gradations from 0 to 255, and a total of about 1.670 million colors Can be expressed.
  • R, G, and ⁇ are 256 gradations from 0 to 255, and a total of about 1.670 million colors Can be expressed.
  • the data length of R, G, B may be expressed in 4 bits each, so-called high color.
  • the YUV component may be used instead of the RGB component. Good.
  • the image holding units 104 and 4104 hold pixel data as image data of the still image component, but hold vector data, that is, data composed of graphic elements such as mathematical expressions, straight lines, points, and circles,
  • vector data that is, data composed of graphic elements such as mathematical expressions, straight lines, points, and circles
  • a computer program for causing a general-purpose computer or a device having a program execution function or the like to execute the operation procedure of each component of the image synthesis devices 100, 200, 300, and 400 may be used.
  • the computer program corresponding to the image synthesizing apparatus 400 of the fourth embodiment eliminates the need for eight types of arithmetic units corresponding to the eight types of operations of Porter Duff, and all eight types are provided in one processor that executes the computer program. Has the effect that the calculation of (1) can be performed.
  • this computer program can be recorded on a recording medium or distributed and distributed via various communication channels.
  • Such recording media include an IC card, an optical disk, a flexible disk, and a ROM.
  • the third synthesizing unit 110 is configured to perform the above-described addition processing for each frame of video playback, that is, to perform the addition processing in synchronization with frame playback. It is not necessary, and the configuration may be such that the addition process is performed asynchronously. The same applies to the fifth synthesis unit 1503 and the eighth synthesis unit 2006. Industrial applicability
  • An image display device that combines and outputs a plurality of images, and is particularly used for a television that receives digital broadcasts.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Studio Circuits (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

An image synthesizing device (100) for synthesizing an image by combining a time-varying image and still image, comprising first acquiring means (103) for acquiring synthesization information including the image combining order for determining the combination ratios of the images before the synthesization to the synthesized image and acquiring the still images, first synthesizing means (108) for combining the still images according to the synthesization information to create a synthesized still image, calculating means (109) for determining the combination ratio of the time-varying image to the synthesized image according to the synthesization information, second acquiring means (105) for acquiring each frame constituting the time-varying image, and second synthesizing means (110) for combining the frames and the synthesized still image at the combination ratio of the time-varying image, whereby a synthesized image is created in real time in accordance with the reproduction rate of the time-varying image.

Description

明 細 書  Specification
画像合成装置、 記録媒体及びプログラム 技術分野  Image synthesis device, recording medium and program
本発明は、 複数の画像を合成して出力する画像表示装置に関する。 背景技術  The present invention relates to an image display device that combines and outputs a plurality of images. Background art
近年、 ディジタル放送が開始され、 ディジタルテレビにおいては、 放 送局より放送されるデータに基づいて静止画像を生成し、 これと放送番 組の動画像とを重ね合わせて表示する技術が実現されている。  In recent years, digital broadcasting has started. In digital television, a technology has been realized in which a still image is generated based on data broadcasted from a broadcasting station, and the still image is superimposed on a moving image of a broadcast program. I have.
ディジタルテレビは、 この技術を実現する機構としてその内部に画像 合成装置を備える。  Digital television is equipped with an image synthesizing device as a mechanism for realizing this technology.
画像合成装置は、 画像 Fと画像 Gについて、 画像 Fの画素 f (x,y)とこ の画素に対応する画像 G中の画素 g(x,y)とを用いて所定の画素間演算を 行って画素 h(x,y)をもつ画像 Hを出力する。  The image synthesizing device performs a predetermined inter-pixel operation on the image F and the image G by using a pixel f (x, y) of the image F and a pixel g (x, y) in the image G corresponding to the pixel. To output an image H with pixel h (x, y).
この画素間演算の手法の 1つに α合成演算がある。 α合成演算は、 画 素 f(x,y)と画素 g(x,y)との加重平均を画素 h(x,y)とする演算であり、 画素 g(x,y)に対する重み係数を αとするとき、  One of the methods of this inter-pixel operation is an α-combining operation. The α synthesis operation is an operation in which the weighted average of the pixel f (x, y) and the pixel g (x, y) is set to the pixel h (x, y), and the weight coefficient for the pixel g (x, y) is calculated. When α
(数 1) h(x, y) = a* g(x, y) + (1 - α) * f(x, y)  (Equation 1) h (x, y) = a * g (x, y) + (1-α) * f (x, y)
と表される。 (数 1 ) において '水' は積を表す。 重み係数 αは、 α値、 透明度、 又はプレンデイ ング係数等と呼ばれ、 0~】の値をとる。 It is expressed as In (Equation 1), 'water' represents the product. The weighting coefficient α is called an α value, transparency, or a rendering coefficient, and takes a value from 0 to].
値が 0のとき画素 g(x,y)は完全に透明になり画素 f(x,y)がそのまま 合成結果の画素 hとなる。 また α値が 1のとき画素 g(x,y)は完全に不透 明となり、 画素 g(x, y)がそのまま合成結果の画素 ίι (X, y)となる。 また 値が 0.5のとき、 画素 h(x,y)は画素 g(x,y)と画素 f(x,y)とがそれぞれ 半分ずつの割合で混合された値となる。 このようにな値の加減により、 画像の重なりを表現することができる。 実際のハードウヱァ構成におい ては各画素をカラー表示の RGB (赤緑青) 成分で表したものを扱うので、 成分毎に上式の演算を行う。 When the value is 0, the pixel g (x, y) becomes completely transparent and the pixel f (x, y) becomes the pixel h of the synthesized result. When the α value is 1, the pixel g (x, y) is completely opaque, and the pixel g (x, y) becomes the pixel ίι (X, y) as the synthesis result. When the value is 0.5, pixel h (x, y) is a value obtained by mixing pixel g (x, y) and pixel f (x, y) at half the ratio. By adjusting these values, The overlapping of images can be expressed. In the actual hardware configuration, each pixel is represented by RGB (red, green, blue) components of color display, so the above formula is performed for each component.
画像合成装置は、 静止画像と動画像とをリアルタイムに合成するため に、 静止画像を展開するためのメモリ領域である 0SDプレーンと、 動画 像をフレーム単位に展開するためのメモリ領域であるビデオプレーンと を有し、 ビデオプレーンのフレームが更新されるたびにこれら 2つの領 域の画像を α合成演算により合成して出力する。 図 1 (a) は、 0SDプレ ーン 2502とビデオプレーン 2501の画像が合成されて合成画像 2503が出 力される様子を表す概念図である。 ところで最近のディジタル放送においては、例えば図 1 (b)のように、 放送番組である動画像 2512を再生しつつ、その同一画面上で放送番組の タイ トルゃテレビ欄等の複数の静止画像 251 1、 2513、 2514、 2515を重ね 合わせて表示するといつた、 より多彩な表現が求められている。  In order to synthesize a still image and a moving image in real time, the image synthesizing device has a 0SD plane which is a memory area for developing a still image and a video plane which is a memory area for expanding a moving image in frame units. Each time the frame of the video plane is updated, the images of these two areas are synthesized and output by the α synthesis operation. FIG. 1A is a conceptual diagram illustrating a state in which an image of the 0SD plane 2502 and an image of the video plane 2501 are combined and a combined image 2503 is output. By the way, in recent digital broadcasting, for example, as shown in FIG. 1 (b), while reproducing a moving image 2512 as a broadcast program, a plurality of still images such as a title of a broadcast program and a TV column are displayed on the same screen. When 1, 2513, 2514, and 2515 are superimposed and displayed, more diverse expressions are required.
動画像と複数の静止画像を合成するには、 理論上は、 下位層から順番 に (数 1 ) の a合成演算を行えばよい。 しかし現実には、 複数の画像の 合成にかかる α合成演算の演算量は膨大であるので、 動画像のフレーム が更新されるたびにリアルタィムに合成を行うことは極めて困難である。 各画像に対応するプレーンと、 α合成演算を行う複数のハードウェア を用意することで合成処理を高速にすることもできるが、 ハードウェア のコス トがかかり、 また、 画像展開用の多くのプレーンが必要になると いう問題がある。 発明の開示 . '  To combine a moving image and a plurality of still images, theoretically, it is sufficient to perform the (composition 1) a combining operation in order from the lower layer. However, in reality, the amount of calculation of the α synthesis operation required for synthesizing a plurality of images is enormous, and it is extremely difficult to perform real-time synthesis every time a frame of a moving image is updated. By preparing a plane corresponding to each image and a plurality of hardware that performs the α synthesis operation, the speed of the synthesis process can be increased, but the cost of hardware is increased and many planes for image development are used. There is a problem that it becomes necessary. DISCLOSURE OF THE INVENTION.
上記目的を達成するため、 本発明は、 動画像の再生レートに合わせて リアルタイムに合成する、すなわち合成処理を高速に行う画像合成装置、 記凝媒体及びプログラムを提供することを第 1 の目的とする。 また本発 明は、 画像展開用のメモリを少なく した画像合成装置、 記録媒体及ぴプ 口グラムを提供することを第 2の目的とする。 In order to achieve the above object, a first object of the present invention is to provide an image synthesizing apparatus, a recording medium, and a program for synthesizing in real time in accordance with a reproduction rate of a moving image, that is, performing a synthesizing process at high speed. I do. Again Akira has a second object to provide an image synthesizing apparatus, a recording medium, and a program with a reduced memory for image development.
. 目的を達成するために本発明の画像合成装置は、 動画像と複数の静止 画像とを合成して合成画像を生成する画像合成装置であって、 画像合成 順序を含む合成情報であって、 前記合成画像に対する合成前の各画像の 合成比率を求めるための前記合成情報と前記複数の静止画像とを取得す る第 1取得手段と、 前記合成情報に基づいて前記複数の静止画像を合成 して 1つの合成静止画像を生成する第 1合成手段と、 前記合成情報に基 づいて前記合成画像に対する前記動画像の合成比率を求める算出手段と、 前記動画像を構成する各フ レームを取得する第 2取得手段と、 前記動画 像の合成比率を用いて前記各フ レームと前記合成静止画像とを合成する 第 2合成手段とを備えることを特徴とする。  In order to achieve the object, an image synthesizing apparatus according to the present invention is an image synthesizing apparatus that generates a synthesized image by synthesizing a moving image and a plurality of still images, wherein the synthesis information includes an image synthesis order, First acquisition means for acquiring the combination information for obtaining a combination ratio of each image before combination with the combination image and the plurality of still images; and combining the plurality of still images based on the combination information. First combining means for generating one combined still image, calculating means for calculating a combining ratio of the moving image to the combined image based on the combining information, and acquiring each frame constituting the moving image It is characterized by comprising a second acquisition unit, and a second combination unit that combines the frames and the combined still image using the combination ratio of the moving image.
この構成によれば本発明の画像合成装置は、 先に複数の静止画像の合 成と動画像の合成比率の算出を行っておいてから、 動画像の各フ レーム との合成を行うので、 従来のようにフ レーム毎に複数の静止画像と動画 像の合成を毎回行う必要がなく計算にかかる負荷が軽く処理速度も速く なる。 さらに処理速度が速くなる結果、 動画像の再生レートに合わせて リアルタイムで画像を合成して表示することができる。  According to this configuration, the image synthesizing apparatus of the present invention first synthesizes a plurality of still images and calculates the synthesizing ratio of the moving image, and then synthesizes the moving image with each frame. Unlike the conventional method, it is not necessary to combine a plurality of still images and moving images for each frame each time, and the calculation load is light and the processing speed is high. As a result of the higher processing speed, images can be combined and displayed in real time according to the playback rate of moving images.
前記合成情報は、 さらに、 前記各画像について、 当該画像に対応する 係数と当該係数を用いた合成演算を示す演算情報とを含むことを特徴と する。  The synthesis information further includes, for each of the images, a coefficient corresponding to the image and operation information indicating a synthesis operation using the coefficient.
この構成によれば、 画像合成装置は、 上記効果に加えて、 係数と演算 情報とが規定された複数の静止画像と動画像とを合成することができる。 前記画像合成装置は、画像を格納するための第 1 フ レームパッフ ァと、 前記動画像を構成する各フレームを格納するための第 2 フ レームパッフ ァとを有し、 前記第 1合成手段は、 前記第 1取得手段により取得された 複数の静止画像を前記画像合成順序に従って読み出し、 前記係数と前記 演算情報とを用いて前記第 1 フ レームバッファの記億内容と読み出され た各画像との合成を行い、 その合成の結果で前記第 1 フレームバッファ の記憶内容を置き換え、 前記第 2取得手段は、 取得した前記各フレーム を前記第 2 フ レームバッファに格納し、 前記第 2合成手段は、 前記第 2 フレームバッファに格納された各フレームと前記第 1 フレームバッファ の記憶内容とを前記動画像の合成比率を用いて合成し、 前記第 2フ レー ムバッファに格納する。 According to this configuration, in addition to the above-described effects, the image synthesizing apparatus can synthesize a plurality of still images and moving images in which coefficients and calculation information are specified. The image synthesizing device includes a first frame buffer for storing an image, and a second frame buffer for storing each frame constituting the moving image, wherein the first synthesizing unit includes: The plurality of still images obtained by the first obtaining unit are read out in accordance with the image synthesis order, and the stored contents of the first frame buffer are read out using the coefficients and the operation information. The first frame buffer replaces the storage contents of the first frame buffer with the result of the synthesis.The second acquisition unit stores the acquired frames in the second frame buffer, (2) The synthesizing means synthesizes each frame stored in the second frame buffer with the content stored in the first frame buffer using a synthesizing ratio of the moving image, and stores the synthesized image in the second frame buffer.
この構成によれば、 画像合成装置は、 第 1 フレー厶バッファと第 2フ レームバッファという 2つのフレームバッファのみで複数の静止画像及 ぴ動画像の合成を行うことができる。  According to this configuration, the image synthesizing apparatus can synthesize a plurality of still images and moving images using only two frame buffers, that is, the first frame buffer and the second frame buffer.
前記第 1合成手段は、 前記画像合成順序において前記動画像の 1つ前 の静止画像の合成後、 かつ動画像の 1つ後の静止画像の合成前に、 前記 動画像に対応する係数及び演算情報を用いて、 前記第 1 フレームバッフ ァに記憶される画像に対する合成演算を行い、 前記合成演算の結果で前 記第 1 フレームバッファの内容を置き換える。  The first synthesizing means includes a coefficient and an operation corresponding to the moving image, after synthesizing the still image immediately before the moving image in the image synthesizing order and before synthesizing the still image immediately after the moving image. Using the information, a combining operation is performed on the image stored in the first frame buffer, and the result of the combining operation replaces the contents of the first frame buffer.
この構成によれば、 間に動画像が入った複数の静止画像及び動画像の 合成を、 正確な合成比率により合成することができる。  According to this configuration, it is possible to combine a plurality of still images and a moving image including a moving image therebetween with an accurate combining ratio.
前記画像合成装置は、 画像表示用の画面を有し、 前記第 1合成手段に よる合成、 前記第 2取得手段による取得及び前記第 2合成手段による合 成は、 並行して行われ、 前記第 2フレームバッファは、 前記第 2合成手 段による合成結果の.格納と同時に前記画面への出力を行う。  The image synthesizing apparatus has a screen for image display, and the synthesizing by the first synthesizing unit, the obtaining by the second obtaining unit, and the synthesizing by the second synthesizing unit are performed in parallel, and The two-frame buffer outputs the result to the screen at the same time as storing the result of synthesis by the second synthesis means.
この構成によれば、 合成途中の状態が画面に表示されるので、 合成が 終了するまで何も表示されないという状態をなくすことができる。  According to this configuration, the state during the synthesis is displayed on the screen, so that a state in which nothing is displayed until the synthesis is completed can be eliminated.
前記合成情報は、 さらに、 前記複数の画像それぞれについて、 当該画 像と当該画像以外の画像との合成結果に対する合成比率を示す合成係数 を含むことを特徴とする。  The combination information is characterized by further including, for each of the plurality of images, a combination coefficient indicating a combination ratio with respect to a combination result of the image and an image other than the image.
この構成によれば、 画像合成装置は、 複数の画像それぞれと他の画像 との合成比率と、 重ね合わせ順序とが規定された複数の静止画像及び動 画像を合成することができる。 前記画像合成順序は画像を重ね合わせる順序を表し、前記合成係数は、 前記複数の画像それぞれについて、 前記画像合成順序における最背面の 画像から当該画像までの合成結果に対する当該画像の合成比率を表すァ ルファ値であり、 前記算出手段は、 前記動画像と前記動画像より前面に 位置する画像全てとに対応するアルフ ァ値とから、 前記合成画像に対す る前記動画像の合成比率を算出する。 According to this configuration, the image synthesizing device can synthesize a plurality of still images and moving images in which the synthesis ratio of each of the plurality of images and another image and the overlapping order are specified. The image compositing order represents an order in which images are superimposed, and the compositing coefficient represents, for each of the plurality of images, a compositing ratio of the image to a composite result from the rearmost image to the image in the image compositing order. A calculating unit that calculates a combining ratio of the moving image with respect to the synthesized image from the alpha value corresponding to the moving image and all the images positioned in front of the moving image.
この構成によれば、 画像合成装置は、 アルフ ァ値と重ね合わせ順序と が規定された静止画像及び動画像を合成することができる。 アルファ値 が規定された画像は、 全体の画像に対する合成比率が予め規定された画 像と比べると、 柔軟にレイアウ ト変更できるという利点がある。 よって アルファ値を用いた画像合成を行う画像合成装置は、 多様なレイァゥ ト の EPG表示に対応できるという効果がある。  According to this configuration, the image synthesizing device can synthesize a still image and a moving image in which the alpha value and the superposition order are defined. An image in which the alpha value is specified has the advantage that the layout can be flexibly changed compared to an image in which the composition ratio of the entire image is specified in advance. Therefore, an image synthesizing apparatus that performs image synthesizing using an alpha value has an effect that it can support EPG display of various layouts.
前記画像合成装置は、 さらに、 前記重ね合わせ順序において隣り合う 2つの画像の順序を入替える入替え手段と、 入替え後と入替え前とで、 合成が行われた場合の合成結果が互いに同じになるよう、 入替え後の 2 つの画像に対応するアルファ値を求めて更新する更新手段とを備え、 前 記第 1合成手段、 前記算出手段及び前記第 2合成手段は、 前記入替え手 段による入替え後の順序と前記更新手段による更新後のアルファ値とを 用いて各処理を行う。  The image synthesizing apparatus may further include: an exchanging means for exchanging the order of two images adjacent to each other in the superimposing order; and a synthesizing result when the synthesizing is performed before and after the exchanging is the same. Updating means for obtaining and updating an alpha value corresponding to the two images after the replacement, wherein the first combining means, the calculating means, and the second combining means are provided after the replacement by the replacement means. Each process is performed using the order and the alpha value updated by the updating unit.
この構成によれば複数の画像の順番を入替えても、 正確な合成比率に According to this configuration, even if the order of a plurality of images is changed, an accurate composition ratio can be obtained.
.よる画像合成が可能となる。 ' Enables image synthesis. '
またこの構成を利用して、 中間層に位置する動画像を上位層に位置す るよう入替えれば、 最下位層から順に複数の静止画像を先に合成し、 最 後に動画像を合成するという手順により合成が行えることとなり、 計算 量が少なく、 負荷が軽くなる。  Also, by using this configuration, if the moving image located in the middle layer is replaced so as to be located in the upper layer, a plurality of still images are synthesized in order from the lowest layer, and the moving image is synthesized last. Compositing can be performed by the procedure, and the calculation amount is small and the load is light.
前記画像合成装置は、 前記第 1取得手段が取得する前記複数の静止画 像を記憶するための記憶部を有し、 前記複数の静止画像それぞれは、 前 記合成画像と同じか又は少ない画素数の画像データと、 当該画素データ の前記合成画像上でのレイァゥ トを示すレイァゥ ト情報とからなり、 前 記第 1合成手段、 前記算出手段及び前記第 2合成手段は、 前記レイァゥ ト情報より定まる前記各画像どうしの重ね合わせ部分についてそれぞれ の処理を行う。 The image synthesizing apparatus has a storage unit for storing the plurality of still images acquired by the first acquiring unit, and each of the plurality of still images has the same or less number of pixels as the synthesized image. Image data and the corresponding pixel data Wherein the first synthesizing means, the calculating means and the second synthesizing means are superimposed portions of the respective images determined by the ray information. Perform each processing for.
前記画像合成装置は、 前記第 1取得手段が取得する前記複数の静止画 像を記憶するための記憶部を有し、 前記複数の静止画像それぞれは、 ベ クタデータ形式で表され、 前記第 1合成手段は、 ベクタデータを画素デ 一夕に変換してから合成を行う。。  The image synthesizing apparatus has a storage unit for storing the plurality of still images acquired by the first acquiring unit, wherein each of the plurality of still images is represented in a vector data format, and The means converts the vector data into pixel data and then synthesizes. .
この構成によれば、 静止画像のデータをピクセルデ "夕よりもデ一ダ 量の小さいベクタデータとするので、 メモリ容量がさらに小さくなる。 本発明の画像合成装置は、 複数の動画像と複数の静止画像とを合成し て合成画像を生成する画像合成装置であって、 画像合成順序を含む合成 情報であって、 前記合成画像に対する合成前の各画像の合成比率を求め るための前記合成情報と前記複数の静止画像とを取得する第 1取得手段 と、 前記合成情報に基づいて前記複数の静止画像を合成して 1つの合成 静止画像を生成する第 1合成手段と、 前記合成情報に基づいて前記合成 画像に対する前記複数の動画像それぞれの合成比率を求める算出手段と、 前記複数の動画像それぞれを構成する各フレームを取得する第 2取得手 段と、 前記複数の動画像それぞれの合成比率を用いて、 前記複数の動画 像それぞれの各フレームと前記合成静止画像とを合成する第 2合成手段 とを備える。  According to this configuration, since the data of the still image is vector data having a smaller amount of data than the pixel data, the memory capacity is further reduced. An image synthesizing apparatus for synthesizing a still image and a synthetic image to generate a synthetic image, the synthesizing information including an image synthesizing order, wherein the synthesizing information for obtaining a synthesizing ratio of each image before synthesizing to the synthetic image. A first obtaining unit that obtains the plurality of still images; a first obtaining unit that generates the one combined still image by combining the plurality of still images based on the combining information; and Calculating means for obtaining a synthesis ratio of each of the plurality of moving images with respect to the synthesized image, a second obtaining means for obtaining each frame constituting each of the plurality of moving images, A second synthesizing unit that synthesizes each frame of each of the plurality of moving images and the synthesized still image by using a synthesis ratio of each image.
この構成によれば、 複数の動画像と複数の静止画像との合成を計算量 少なくすることができる。  According to this configuration, the amount of synthesis of a plurality of moving images and a plurality of still images can be reduced.
また、 本発明の画像合成装置は、 動画像と複数の静止画像とを合成し て合成画像を生成する画像合成装置であって、 前記複数の静止画像を取 得する第 1取得手段と、 前記複数の静止画像を合成して 1つの合成静止 画像を生成する第 1合成手段と、 前記動画像を構成する各フレームを取 得する第 2取得手段と、 前記動画像を構成する各フレームと前記合成静 止画像とを合成する第 2合成手段とを備える。 Also, the image synthesizing device of the present invention is an image synthesizing device for synthesizing a moving image and a plurality of still images to generate a synthesized image, wherein: a first obtaining means for obtaining the plurality of still images; First synthesizing means for synthesizing the still images to generate one synthesized still image, second obtaining means for obtaining each frame forming the moving image, and each frame forming the moving image and the synthesized still image. Second combining means for combining the still image and the still image.
この構成によれば、 表示画 と同じ画素数に相当する静止画像用のメ モリを静止画像の枚数分用意する必要がないので、 メモリ容量を小さく できる。  According to this configuration, it is not necessary to prepare the memory for the still image corresponding to the same number of pixels as the display image by the number of still images, so that the memory capacity can be reduced.
またこの構成によれば、 複数の静止画像を先に合成し、 後に動画像を 合成するので、 動画像のフレーム単位に毎回複数の静止画像と動画像の 合成を行う必要がなぐ、 計算量が少なくなる。 図面の簡単な説明  Further, according to this configuration, since a plurality of still images are first synthesized and a moving image is synthesized later, it is not necessary to synthesize a plurality of still images and moving images every frame unit of the moving image, and the amount of calculation is reduced. Less. BRIEF DESCRIPTION OF THE FIGURES
図 1 (a)は、 0SDプレーン 2502とビデオプレーン 2501 の画像が合成さ れて合成画像 2503が出力される様子を表す概念図である。  FIG. 1A is a conceptual diagram illustrating a state in which images of the 0SD plane 2502 and the video plane 2501 are combined and a combined image 2503 is output.
図 1 (b)は、静止画像及び動画像のコンポーネントが重畳されている様 子を示す。  FIG. 1B shows a state in which components of a still image and a moving image are superimposed.
図 2は、 本発明の実施形態 1 に係る画像合成装置の構成を示すブロッ ク図である。  FIG. 2 is a block diagram showing a configuration of the image synthesizing apparatus according to Embodiment 1 of the present invention.
図 3 (a)は.、 合成画像 201 を示す。  FIG. 3A shows a composite image 201.
図 3 (b)は、 合成画像 201 を構成するコンポーネントを示す。  FIG. 3B shows the components that make up the composite image 201.
図 4は、 画像ファイルの構造を説明するための図である。 ' 図 5は、 インデックスファイルの一例を示す。  FIG. 4 is a diagram for explaining the structure of an image file. 'Figure 5 shows an example of an index file.
図 6は、 動画像データの構造を示す。  FIG. 6 shows the structure of moving image data.
図 7は、 動画像データ 501のピクセルデータをィメージ的に示す。 図 8は、 第 1合成画像データのデータ構造を示す。  FIG. 7 shows the pixel data of the moving image data 501 in an image. FIG. 8 shows the data structure of the first composite image data.
図 9は、 第 1合.成処理の処理手順を示すフローチヤートである。  FIG. 9 is a flowchart showing a processing procedure of the first forming process.
図 10は、 第 2合成の処理手順を示すフローチャートである。  FIG. 10 is a flowchart illustrating a processing procedure of the second synthesis.
図 1 1 は、本実施形態の画像合成装置 100の EPG表示時における動作の 流れを説明する図である。  FIG. 11 is a diagram illustrating the flow of the operation of the image synthesizing apparatus 100 according to the present embodiment when displaying an EPG.
図 12は、 N+1枚の動画像コンポーネント又は静止画像コンポ一ネント からなるコンポーネント群を示す。 図 13は、 本発明の演算を C言語風に記述したプログラムである。 図 14は、 図 13を変形させたプログラムを示す。 FIG. 12 shows a component group including N + 1 moving image components or still image components. FIG. 13 is a program describing the operation of the present invention in a C language style. FIG. 14 shows a program obtained by modifying FIG.
図 15は、本発明の実施形態 2に係る画像合成装置の構成を示すプロッ ク図である。  FIG. 15 is a block diagram illustrating a configuration of an image composition device according to Embodiment 2 of the present invention.
図 16は、 第 4合成処理の処理手順を示すフローチャートである。 図 17は、本実施形態の画像合成装置 200の EPG表示時における動作の 流れを説明する図である。  FIG. 16 is a flowchart illustrating a processing procedure of the fourth synthesis processing. FIG. 17 is a diagram illustrating the flow of the operation of the image synthesizing apparatus 200 of the present embodiment when displaying an EPG.
図 18は、隣り合う 2枚のコンポーネン トの重ね合わせ順序を入替えを 説明する図である。  FIG. 18 is a diagram for explaining the replacement of the overlapping order of two adjacent components.
図 19は、動画像のコンポーネントが最上位層にく るように静止画像の コンポーネントと入替える様子を示す。  Figure 19 shows how a moving image component is replaced with a still image component so that it is at the top layer.
図 20は、本発明の実施形態 3に係る画像合成装置の構成を示すブロッ ク図である。  FIG. 20 is a block diagram illustrating a configuration of an image composition device according to Embodiment 3 of the present invention.
図 21 は、.第 7合成の処理手順を示すフローチヤ一トである。  FIG. 21 is a flowchart showing the processing procedure of the seventh synthesis.
図 22は、本発明の実施形態 4に係る画像合成装置の構成を示すプロッ ク図である。  FIG. 22 is a block diagram illustrating a configuration of an image composition device according to Embodiment 4 of the present invention.
図 23 (a)は、 インデックスファイルの一例を示す  Figure 23 (a) shows an example of an index file
図 23 (b)は、 演算種別と番号との対応を示す。  FIG. 23 (b) shows the correspondence between operation types and numbers.
図 24 .は、 第 9合成部 4108による合成の手順を示すフローチャートで ある。  FIG. 24 is a flowchart showing the procedure of combining by the ninth combining unit 4108.
図 25は、 演算種別に応じたポーターダフ α合成演算を示す。 - 図 26は、 演算種別に応じたポーターダフ 合成演算を示す。  FIG. 25 shows the Porter Duff α combination operation according to the operation type. -Figure 26 shows the Porter Duff synthesis operation according to the operation type.
図 27は、 演算種別に応じたポーターダフ a合成演算を示す。 .  FIG. 27 shows Porter Duff a combination operation according to the operation type. .
図 28は、第 10合成部 4109による合成の手順を示すフローチヤ一トで ある。  FIG. 28 is a flowchart showing a procedure of synthesis by the tenth synthesis unit 4109.
図 29は、 演算種別に応じたポーターダフ 合成演算を示す。.  FIG. 29 shows Porter-Duff synthesis operation according to the operation type. .
図 30は、 演算種別に応じたポーターダフ 合成演算を示す。  FIG. 30 shows a Porter-Duff synthesis operation according to the operation type.
図 31 は、 本実施形態の演算を C言語風に記述したプログラムである。 発明を実施するための最良の形態 FIG. 31 is a program describing the operation of the present embodiment in a C language style. BEST MODE FOR CARRYING OUT THE INVENTION
以下、 本発明の実施の形態について、 図面を用いて説明する。  Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<実施形態 1 >  <First embodiment>
<構成 > <Configuration>
図 2は、 本発明の実施形態 1 に係る画像合成装置の構成を示すプロッ ク図である。  FIG. 2 is a block diagram showing a configuration of the image synthesizing apparatus according to Embodiment 1 of the present invention.
同図において画像合成装置 100は、 入力部 101、 制御部 102、 EPG生成 部 103、 画像保持部 104、 ビデオ再生部 1 05、 ビデオプレーン 106、 0SD プレーン 107、 第 1合成部 108、 第 2合成部 109、 第 3合成部 1 10、 出力 部 1 1 1から構成される。  In the figure, the image synthesizing apparatus 100 includes an input unit 101, a control unit 102, an EPG generation unit 103, an image holding unit 104, a video reproduction unit 105, a video plane 106, a 0SD plane 107, a first synthesis unit 108, and a second synthesis unit. It comprises a unit 109, a third combining unit 110, and an output unit 111.
入力部 101 は、 リ..モートコントローラゃフロン トパネルボタン等を有 し、 これらが操作されることによりユーザからの指示を受付ける。 具体 的な指示としては、 画像合成装置 100のオン/オフ指示、 チャンネル切 替え指示、 EPG (El ectron i c Program Gu i de, 電子番組ガイ ド) 表示のォ ン/オフ指示等がある。ここで画像合成装置 100のオン/オフ指示とは、 オンのとき画像合成装置 100の電源投入、 オフのとき電源切断を示し、 EPG表示のオン Zオフとは、 オンのとき EPG画面の表示、 オフのとき EPG 画面の非表示を示す。 ·' .  The input unit 101 has a remote controller, front panel buttons, and the like, and receives instructions from the user when these are operated. Specific instructions include an on / off instruction for the image synthesizing apparatus 100, a channel switching instruction, and an on / off instruction for an EPG (Electronic Program Guide) display. Here, the instruction to turn on / off the image synthesizing apparatus 100 indicates that the power of the image synthesizing apparatus 100 is turned on when it is on, and that the power is turned off when it is off, and that the EPG display is on. When off, indicates that the EPG screen is not displayed. · '.
ここで EPGとは、 テレビ画面に放送番組の番組表や放送番組の内容に 関する情報等を表示するシステムである。 EPG 表示とは、 番組表等がテ レビ画面に表示されている状態をいう。 EPG の応甩例として、 例えばュ —ザは、 EPG 表示画面上で番組のジャンルゃ出演者名による検索を行つ たり、 また EPG対応のビデオデッキにより簡単に録画予約を行う.ことも できる。  Here, the EPG is a system that displays a program table of a broadcast program, information on the content of the broadcast program, and the like on a television screen. EPG display refers to the state in which a program guide or the like is displayed on the TV screen. As an application example of EPG, for example, a user can search for a program genre and a performer name on an EPG display screen, or easily make a recording reservation using an EPG-compatible VCR.
画像合成装置 100は、 EPG表示がオンのとき、 一例として図 3 (a)に示 す合成画像 201 を表示する。  When the EPG display is on, the image synthesizing apparatus 100 displays a synthetic image 201 shown in FIG. 3A as an example.
図 3 (a)の合成画像 201 は、 図 3 (b)に示すように、 コンポ一ネント 202、 203、 204から構成される。 コンポーネント 202は、 番組表を表す静止画 像であり、 コンポーネント 203は、 1つのチャンネルの放送番組の内容 そのものを表す動画像であり、 コンポーネント 204は、 コンポーネント 203の番組名を表す静止画像である。 コンポーネント 202及び 204は、 放送局より送信される EPG情報に基づいて EPG生成部 1 03により生成さ れる。 As shown in FIG. 3 (b), the composite image 201 of FIG. It consists of 203 and 204. The component 202 is a still image representing a program guide, the component 203 is a moving image representing the content of the broadcast program of one channel itself, and the component 204 is a still image representing the program name of the component 203. The components 202 and 204 are generated by the EPG generation unit 103 based on the EPG information transmitted from the broadcasting station.
このように画像合成装置 100 は、 EPG表示がオンの間、 コンポーネン ト 202を表示し、コンポ一ネント 202の右下の位置にコンポーネン ト 203 を数十フ レーム毎秒のレートで表示し、 コンポーネント 203の左上の位 置にコンポーネント 204を表示する。  As described above, while the EPG display is on, the image synthesizing apparatus 100 displays the component 202, displays the component 203 at the lower right position of the component 202 at a rate of several tens of frames per second, and outputs the component 203. The component 204 is displayed in the upper left position of.
このように本実施形態の画像合成装置 1 00は、 複数の静止画像と 1つ の動画像とからなる複数のコンポーネントを組み合わせた合成画像を生 成して表示する機能を持つ。  As described above, the image synthesizing apparatus 100 of the present embodiment has a function of generating and displaying a synthesized image in which a plurality of components including a plurality of still images and one moving image are combined.
以後、 必要に応じて図 3 ( a) ( b) を使って説明するものとする。 なお、 静止画像コンポーネント及び動画像コンポーネントは、 特に区別する必 要がない場合には、 単にコンポーネントと呼ぶこととする。  Hereafter, explanation will be made with reference to Figs. 3 (a) and (b) as necessary. Note that a still image component and a moving image component are simply referred to as components unless it is necessary to distinguish them.
制御部 1 02は、 画像合成装置 1 00の構成要素全てを制御する。 より具 体的には、 画像合成装置 10.0 のオンが指示されると、 ビデオ再生部 105 に放送番組を再生させる.。 チャンネル切替えが指示されると、 ビデオ再 生部 105 に現在再生中のものとは別の放送番組を再生させる。 EPG表示 のオンが指示されると、 EPG生成部 103、 ビデオ再生部 105、. 第 1合成部 108、第 2合成部 109及び第 3合成部 1 1 ,0等を制御して合成画像 201 を生 成させる。 この EPG表示に関する処理については後述する。 .  The control unit 102 controls all the components of the image synthesizing device 100. More specifically, when the image synthesizing apparatus 10.0 is instructed to be turned on, the video reproducing unit 105 reproduces a broadcast program. When the channel switching is instructed, the video reproduction unit 105 reproduces a broadcast program different from the one currently being reproduced. When the ON of the EPG display is instructed, the EPG generation unit 103, the video reproduction unit 105, the first synthesis unit 108, the second synthesis unit 109, and the third synthesis unit 11, 10, and the like are controlled to generate the synthesized image 201. Generate. The processing related to the EPG display will be described later. .
EPG生成部 103は、 放送局より放送される' EPG情報を取得して保持す る。 EPG 情報は、 コンポーネントの表示サイズ、 表示位置、 コンポ一ネ ントの重ね合わせ順序等のレイアウ ト情報及び静止画像コンポーネント の静止画像情報等を含む。 静止画像情報は、 静止画像コンポーネントの 画像内容に相当し、 テキス トやグラフイ ツクスデータ等を含む。 EPG 生 成部 103は、 EPG情報に基づいて複数の画像フアイルと 1 つのインデッ クスファイルとを生成し、 画像保持部 1 04に格納する。 さらに EPG生成 部 103は、 EPG情報から EPG表示画面を構成する動画像のコンポーネン トの表示サイズ及び表示位置を抽出し、 ビデオ再生部 105に出力する。 画像フアイルは、 図 3 (b)のコンポーネント 202、 203、 204に対応し、 コンポーネントの表示サイズ、表示位置及び画像データから構成される。 静止画像コンポーネントの場合、 画像データは、 静止画像情報に基づい て生成される。 EPG generation section 103 acquires and holds EPG information broadcast from a broadcasting station. The EPG information includes layout information such as the display size and display position of the component, the overlapping order of the components, and the still image information of the still image component. The still image information corresponds to the image content of the still image component, and includes text, graphics data, and the like. EPG raw The generating unit 103 generates a plurality of image files and one index file based on the EPG information, and stores them in the image holding unit 104. Further, the EPG generation unit 103 extracts the display size and the display position of the component of the moving image constituting the EPG display screen from the EPG information, and outputs the same to the video reproduction unit 105. The image file corresponds to the components 202, 203, and 204 in FIG. 3B, and is composed of the display size, display position, and image data of the component. In the case of a still image component, the image data is generated based on the still image information.
インデックスファイルは、 複数の画像フアイルを管理するためのもの で、 複数の画像情報から構成される。 1つの画像情報が 1つの画像ファ ィルに対応している。 複数の画像情報は、 インデヅクスファイル内にお いて図 3 (a)のコンポーネン トの重ね合わせ順序と同じ順序に配列され る。 画像情報は、 画像種別と格納位置とから構成される。 画像種別は、 画像ファィルの画像が静止画像であるか動画像であるかを示す。 格納位 置は、 画像保持部 1 04における画像ファイルの先頭の位置を示す。  The index file is for managing a plurality of image files, and is composed of a plurality of pieces of image information. One image information corresponds to one image file. The plurality of pieces of image information are arranged in the index file in the same order as the components in FIG. 3A. The image information includes an image type and a storage position. The image type indicates whether the image of the image file is a still image or a moving image. The storage position indicates the position of the head of the image file in the image holding unit 104.
次に、 図 4及ぴ図 5を用いて画像ファイル及ぴインデックスファイル の具体例を示す。  Next, specific examples of the image file and the index file will be described with reference to FIGS.
図 4は、 画像ファイルの構造を説明するための図である'。  Figure 4 is a diagram for explaining the structure of an image file.
同図の画像ファイル 301 は、 1行目が表示位置、 2行目が表示サイズ、 3 行目以降が画像データを示す。 画像データは、 コンポーネントの全ピ クセルに対応するピクセルデータの集合からなり、 ピクセルデータは、 ピクセルの色を示す RGB成分及びピクセルの透明度を表す α値から構成 される。 すなわち α値は、 最背面の画像から当該画像までの合成結果に 対する当該画像の合成比率を表す。 画像フアイル 301の左側に表記され ている格納位置 302ほ、 画像ファイル 301の先頭位置を 「0000」 とした 場合を基準とする各データの格納位置を示す。  In the image file 301 shown in the figure, the first line indicates the display position, the second line indicates the display size, and the third and subsequent lines indicate the image data. The image data consists of a set of pixel data corresponding to all pixels of the component. The pixel data is composed of an RGB component indicating the color of the pixel and an α value indicating the transparency of the pixel. That is, the α value indicates the synthesis ratio of the image to the synthesis result from the rearmost image to the image. The storage position 302 described on the left side of the image file 301 indicates the storage position of each data with reference to the case where the head position of the image file 301 is “0000”.
.画像フアイル 301 において、 3行目は座標位置(0 , 0)のピクセルに対応 するピクセルデータ、 4行目は座標位置(1 , 0)のピクセルに対応するピク セルデータ、 5行目は座標位置(2, 0)のピクセルに対応するピクセルデー タである。 ここにおいて座標位置(0, 0)は、 当該コンポーネントの左上隅 の座標位置を指す。 このようにピクセルデータは、 コンポーネントの左 から右、 上から下の順にピクセルと対応する。 In the image file 301, the third line is the pixel data corresponding to the pixel at the coordinate position (0, 0), and the fourth line is the pixel data corresponding to the pixel at the coordinate position (1, 0). The cell data, the fifth row is the pixel data corresponding to the pixel at the coordinate position (2, 0). Here, the coordinate position (0, 0) indicates the coordinate position of the upper left corner of the component. Thus, pixel data corresponds to pixels from left to right and from top to bottom of the component.
表示位置は、 合成画像 201上でのコンポーネントの座標位置であり、 合成画像 201 の左上隅を原点として、 コンポーネントの左上隅の Χ, Υ座 標で表される。  The display position is the coordinate position of the component on the composite image 201, and is represented by Χ and Υ coordinates of the upper left corner of the component with the origin at the upper left corner of the composite image 201.
表示サイズは、 コンポーネントの矩形の高さ Η及び幅 Wとからなり、 高さ Η及び幅 Wはピクセル単位で表される。 .  The display size consists of the height Η and width W of the component rectangle, where height Η and width W are expressed in pixels. .
RGB成分はそれぞれ 0〜255の値をとり、 3つの成分がいずれも 0の場 合はそのピクセルの色は黒になり、 いずれも 255の場合は白になる。 α値は、 0〜255の値をとり、 そのピクセルを他のピクセルの上に重ね 合わせる場合の透明度、 つまり下位層のピクセルがどのく らいの割合で 上位層のピクセルを透過するかを表す。  Each of the RGB components takes a value from 0 to 255. If all three components are 0, the color of the pixel is black, and if all three are 255, the color is white. The α value takes a value from 0 to 255, and indicates the transparency when that pixel is superimposed on another pixel, that is, how much the pixel in the lower layer transmits through the pixel in the upper layer.
より具体的には、 ピクセル Βに対してピクセル Αを 値で合成する場 合、 合成結果のピクセル Cは、 C= ( o; A+ (255- c B) /255となる。 α値は 0 More specifically, when pixel Α is combined with pixel 値 by value, pixel C of the combined result is C = (o; A + (255−cB) / 255. Α value is 0
〜255の値をとり、 α値が 0の場合ピクセル Αは透明となり、 ピクセル B を 100%透過する。 また 値が 255のときピクセル Aは不透明となり、 ピクセル Bを透過せず、 ピクセル Aの 1 00%の塗つぶし 'となる'。 またな値 が 128の場合ピクセル Aはピクセル Bを約 50%透過し、 すなわちピクセ ル Aとピクセル Bと.が約 50%ずつ混合された色となる。 It takes a value of ~ 255, and when the α value is 0, pixel Α is transparent and 100% transparent to pixel B. A value of 255 makes pixel A opaque, does not transmit pixel B, and 'fills' 100% of pixel A. If the value is 128, pixel A transmits pixel B approximately 50%, that is, pixel A and pixel B are mixed by approximately 50%.
実際にはピクセル A、 B及び Cは RGB成分で表され、成分別に合成結果 が算出される。  In practice, pixels A, B, and C are represented by RGB components, and the composition result is calculated for each component.
EPG生成部 1 03は、 コンポーネント 202、 203、 204それぞれの画像フ アイルの 値を次のようにセッ 卜するものとする。 すなわち EPG生成部 103は、 コンポーネント 202 における全ピクセルの α値を 255にセッ ト する。 これはコンポーネント 202が合成画像 201 において最下位層のコ ンポーネントだからである。また EPG生成部 103は、コンポ一ネント 203 における全ピクセルの α値を 192にセッ トする。またコンポーネン ト 204 の 値については、 文字部分には 255をセッ ト し、 それ以外の部分は 64 にセッ トする。 ' The EPG generation unit 103 sets the values of the image files of the components 202, 203, and 204 as follows. That is, the EPG generation unit 103 sets the α values of all the pixels in the component 202 to 255. This is because the component 202 is the lowest layer component in the composite image 201. Also, the EPG generation unit 103 Set the α value of all pixels at to 192. For the value of component 204, set the character part to 255 and the other parts to 64. '
なお、 RGB 成分及び 値の値の詳細な決定方法等については、 公知技 術であり本発明の特徴部分ではないので説明を省略する。  Note that a detailed method of determining the RGB component and the value of the value is a well-known technique and is not a characteristic part of the present invention, and thus the description thereof is omitted.
図 4に画像データの内容と 1つのコンポーネントとの対応関係を示す。 同図に示すように、 コンポーネント 303の左上を開始点として左から右 に、 かつ上から下に 1 ピクセルずつピクセルデータと対応する。  Figure 4 shows the correspondence between the content of image data and one component. As shown in the figure, starting from the upper left of the component 303, it corresponds to pixel data from left to right and from top to bottom one pixel at a time.
EPG生成部 103 は、 以上に示す画像フ ァイルを生成する。 ただし、 動 画像のコンポーネントについては、 全 RGB成分に 0をセッ ト して画像フ ァィルを生成する。 つまり EPG生成部 1 03は、 動画像コンポ一ネントの 画像フアイルについては、 表示位置、 表示サイズ及ぴ α値を確定し、 RGB 成分については未確定のままにした画像ファイルを生成する。 これは動 画像のコンポーネントは、 放送番組に相当し、 放送局より リアルタイム に送られてく るものなので、 画像ファイル生成時には RGB成分が確定し ないからである。 動画像のコンポーネントに対する画像ファイルの RGB 成分は、 後述するビデオ再生部 1 05により確定される。  The EPG generation unit 103 generates the above-described image file. However, for moving image components, an image file is generated by setting all RGB components to 0. That is, the EPG generation unit 103 determines the display position, the display size, and the α value for the image file of the moving image component, and generates an image file in which the RGB components are not determined. This is because the moving image components correspond to broadcast programs and are sent in real time from the broadcasting station, so the RGB components are not determined when the image file is generated. The RGB components of the image file corresponding to the components of the moving image are determined by a video playback unit 105 described later.
図 5は、 インデックスファイルの一例を示す ό 同図のィンデックスフ 'アイル 410は、 画像情報 421、 422及び 423から構成され、 同順に重ね合 わせ順序を表す。 すなわち画像情報 421 は図 3 ( b ) に示す最下位層の コンポーネント 202に対応し、 画像情報 422はその次の層のコンポーネ 'ント 203に対応し、 画像情報 423は最上位層のコンポーネント 204に対 応する。 列 41 1側の値は、 コンポーネン トの画像種別を示し、 「0」 が静 止画像、 「1」 が動画像を示す。 列 412側の値は、 画像ファイルの格納位 置を示す。 Figure 5 is Indekkusufu 'aisle 410 of ό drawing showing an example of an index file is composed of the image information 421, 422 and 423 represent the Align order superimposed on the same order. That is, the image information 421 corresponds to the lowest layer component 202 shown in FIG. 3 (b), the image information 422 corresponds to the next layer component 203, and the image information 423 corresponds to the highest layer component 204. I will respond. The value on the side of column 41 1 indicates the image type of the component, “0” indicates a still image, and “1” indicates a moving image. The value in column 412 indicates the storage location of the image file.
また画像 430、 440、 450 は、 それぞれコンポーネント 202、 203、 204 に対応し、 それぞれの画像ファィル中の画像データをィメージ的に示し たものである。 ここにおいて画像 440は、 コンポーネント 203に対応す る画像データの全ての RGB成分が 0であることを示している。 The images 430, 440, and 450 correspond to the components 202, 203, and 204, respectively, and are images of the image data in the respective image files. Here, image 440 corresponds to component 203. All the RGB components of the image data are 0.
画像保持部 104 は、 メモリやハードディスク等で構成され、 EPG生成 部 103が生成した画像フアイル及びインデックスフアイルを保持する。  The image holding unit 104 is configured by a memory, a hard disk, or the like, and holds the image file and the index file generated by the EPG generation unit 103.
ビデオ再生部 1 05は、 放送局からの放送番組を受信して復号等を行う て、数十フレーム/秒の動画像を再生し、その動画像データをビデオプレ ーン 106に逐次格納する。 格納の際、 ビデオ再生部 105は、 EPG再生部 1 03 より入力される表示位置及び表示サイズに基づいて合成画像 201 に 対する映像のレイアウ トを確定し、 ビデオプレーン 1 06上の当該配置に 対応する領域に映像の R、 G、 B成分を格納する。  The video reproduction unit 105 receives a broadcast program from a broadcast station, performs decoding and the like, reproduces a moving image of several tens of frames / second, and sequentially stores the moving image data in the video plane 106. At the time of storage, the video playback unit 105 determines the layout of the video for the composite image 201 based on the display position and display size input from the EPG playback unit 103, and corresponds to the layout on the video plane 106. The R, G, and B components of the video are stored in the area where
ビデオプレーン 106は、 メモリ等で構成され、 ビデオ再生部 105より 格納される動画像データと、 後述の第 2合成部 1 09より格納される合成 α値とを保持する。 合成 α値は、 複数のピクセルどう しを重ね合わせ合 成する場合における、 全体のピクセルの中での 1つのピクセルの透明度 を表し、 各ピクセルの α値を用いて算出される。 つまり、 ビデオ再生部 1 05 が保持する合成 α値は、 すべてのコンポーネントを重ね合わせ合成 する場合における、 重ね合わせる全ピクセルの中での動画像コンポ一ネ ントのピクセルの透明度を表す。  The video plane 106 is configured by a memory or the like, and holds moving image data stored by the video reproduction unit 105 and a synthesized α value stored by a second synthesis unit 109 described later. The composite α value indicates the transparency of one pixel among all pixels when a plurality of pixels are overlapped and synthesized, and is calculated using the α value of each pixel. That is, the composite α value held by the video playback unit 105 represents the transparency of the pixels of the moving image component among all the pixels to be superimposed when all the components are superimposed and synthesized.
図 6は、 動画像データの構造を示す。 同図に示すように、 動画像デー 夕 501 は、 ピクセルデータの集合であり、 ピクセルデータは、 RGB成分 と合成 α値とからなる。 画像 502は、 ピクセルデータと画面上のピグセ ル位置との対応関係を示すための図である。  FIG. 6 shows the structure of moving image data. As shown in the figure, the moving image data 501 is a set of pixel data, and the pixel data includes an RGB component and a combined α value. An image 502 is a diagram for illustrating a correspondence relationship between pixel data and a pixel position on a screen.
図 7は、 動画像データ 501 のピクセルデータをイメージ的に示す。 同 図に示すように動画像データ 501 に相当する画像 600は、 コンポ一ネン ト 203に対応する領域 601 と、 それ以外の領域 602とから構成される。 画像 600は、合成画像 201 と同じ高さ及び幅を持つ。ビデオプレーン 106 は、 領域 601 の RGB成分をビデオ再生部 105から与えられ、 合成 α値を 第 2合成部 1 09 より与えられる。 またビデオプレーン 106は、 領域 602 の RGB成分及び合成 値として予め 0を保持する。 領域 601 の RGB成分 は、ビデオ再生部 105の再生レートにあわせて数十フレーム/秒で更新さ れる。 FIG. 7 illustrates pixel data of the moving image data 501 in an image. As shown in the figure, an image 600 corresponding to the moving image data 501 includes an area 601 corresponding to the component 203 and an area 602 other than the area 601. Image 600 has the same height and width as composite image 201. The video plane 106 receives the RGB components of the area 601 from the video playback unit 105 and the combined α value from the second combining unit 109. The video plane 106 holds 0 as the RGB components and the composite value of the area 602 in advance. RGB component of area 601 Is updated at several tens of frames / second in accordance with the playback rate of the video playback unit 105.
0SDプレーン 107は、 メモリ等で構成され、 第 1合成部 108により出 力される第 1合成画像データを保持する。  The 0SD plane 107 is configured by a memory or the like, and holds the first combined image data output by the first combining unit 108.
図 8は、 第 1合成画像データのデータ構造を示す。 第 1合成画像デー 夕 701 は、 RGB成分の集合からなり、 コンポーネント 202 と 204 とが合 成された結果、 すなわち、 静止画のコンポーネントどうしが合成された 結果に相当する。 合成については後述する。  FIG. 8 shows the data structure of the first composite image data. The first composite image data 701 is composed of a set of RGB components, and corresponds to a result obtained by combining components 202 and 204, that is, a result obtained by combining still image components. The composition will be described later.
画像 702は、 第 1合成画像データ 701 の RGB成分と、 画面上のピクセ ル位置との対応関係を示す。同図の通り、第 1合成画像データ 701 の RGB 成分は、 画像 702の左から右、 かつ上から下の方向に順に配列される。 画像 702は、 合成画像 201 と同じピクセル単位の高さ及び幅を持つ。 第 1合成部 1 08は、 画像保持部 104に保持されている複数の画像ファ ィルの画像データを合成して第 1合成画像データを生成し 0SDプレーン 107に格納する。 この処理 ¾第 1合成処理と呼ぶ。  An image 702 shows the correspondence between the RGB components of the first combined image data 701 and the pixel positions on the screen. As shown in the figure, the RGB components of the first composite image data 701 are arranged in order from left to right and from top to bottom of the image 702. Image 702 has the same height and width in pixels as composite image 201. The first combining unit 108 combines the image data of the plurality of image files held in the image holding unit 104 to generate first combined image data, and stores the first combined image data in the 0SD plane 107. This process is referred to as the first synthesis process.
図 9は、 第 1合成処理の処理手順を示すフローチャートである。  FIG. 9 is a flowchart illustrating a processing procedure of the first synthesis processing.
まず、 第 1合成部 108は、 0SDプレーン 107を初期化する (ステップ S800)。 具体的には、 0SDプレーン 107の RGB成分の領域をすベて 0にセ ッ ト.する。 '  First, the first synthesizing unit 108 initializes the 0SD plane 107 (Step S800). Specifically, all the RGB component areas of the 0SD plane 107 are set to 0. '
次.に、第 1合成部 108は、 ステップ S801 ~ S807の処理を繰り返して、 下位層から上位層のコンポーネントへと順番に、 静止画像のコンポーネ ントどう しを合成する処理を行う。  Next, the first synthesizing unit 108 repeats the processing of steps S801 to S807, and performs processing of synthesizing the components of the still image in order from the lower layer to the component of the upper layer.
まず第 1合成部 108は、 画像保持部 104のインデックスファイルから 画像情報 i を読み出す (ステップ S801 )。 ここで i は、 本フローチヤ一 トにおいて便宜的に下位層から上位層のコンポ ネン トへと順番に 0, 1 , 2, . . .というように昇順にコンポ一ネン トに割り振った番号を示す 変数であり、 コンポーネント i に対応する画像情報及び画像ファイルを それぞれ画像情報 i及び画像フアイル i と呼ぶこととする。 本フローチ ヤートにおいて iの初期値は 0、 増分は 1 とする。 First, the first combining unit 108 reads out image information i from the index file of the image holding unit 104 (Step S801). Here, i indicates a number assigned to components in ascending order, such as 0, 1, 2, 2, ... in order from the lower layer to the component of the upper layer for convenience in this flow chart. The image information and the image file corresponding to the component i, which are variables, are called the image information i and the image file i, respectively. Book float In the yat, the initial value of i is 0, and the increment is 1.
次に第 1合成部 108は、 画像情報 i に示される格納位置に格納された 画像フアイル i を画像保持部 104より取り出す (ステップ S802)。 · 第 1合成部 108は、 画像フアイル i の表示サイズ及ぴ表示位置を読み 出し、 当該画像フ ァイルのコンポーネント iの画面上での重ね合わせ範 囲を設定する (ステップ S803)。  Next, the first synthesizing unit 108 extracts the image file i stored in the storage position indicated by the image information i from the image holding unit 104 (Step S802). · The first synthesizing unit 108 reads the display size and the display position of the image file i, and sets an overlapping range of the component i of the image file on the screen (step S803).
第 1合成部 108は、 画像情報 i に示される画像種別が動画像であるか 静止画像であるかを判別する (ステップ S804)。  The first synthesizing unit 108 determines whether the image type indicated by the image information i is a moving image or a still image (step S804).
判別の結果、 静止画像である場合、 第 1合成部 108は、 画像フ ァイル i の RGB成分と 0SDプレーン 107の重ね合わせ範囲の RGB成分との α合 成演算を行う (ステップ S805)。 この 合成演算の式を以下に示す。  If the result of the determination is that the image is a still image, the first synthesizing unit 108 performs an α synthesis operation on the RGB components of the image file i and the RGB components in the overlapping range of the 0SD plane 107 (step S805). The formula for this combination operation is shown below.
(数 2)  (Equation 2)
R(x, y) = a (x, y) * Ri (x, y) + ( 1 - a (x, y)) * R(x, y)  R (x, y) = a (x, y) * Ri (x, y) + (1-a (x, y)) * R (x, y)
G(x, y) =ai(x, y) * Gi (x, y) + (1 - «i (x, y)) * G(x, y) G (x, y) = ai (x, y) * Gi (x, y) + (1-«i (x, y)) * G (x, y)
B(x, y) ="i(x, y) * Bi (x, y) + (1 - (x, y))* B(x, y) B (x, y) = "i (x, y) * Bi (x, y) + (1-(x, y)) * B (x, y)
この式において左辺の R(x,y:)、 G(x,y)、 B(x, y)は新しぐ求める RGB成 分であり、 Ri(x,y)、 Gi(x,y)、 (x, y)及び α; (x, y)は画像ファイル i'の RGB成分及び 値であり、 右辺の R(x,y;)、 G(x,y), B(x, y)は OSDプレー ン 107の重ね合わせ範囲内に保持されている RGB成分である。 つまり左 辺の R(x,y)は、 , )を£^で重み付けした値と、 0SDプレーン 107に 保持されている R(x,y)を 1一《iで重み付けした値とを加算して得られ る。 G(x,y)、 B(x,y)についても同様である。 第 1合成部 108は、 新たに 得られた R(x,y:)、 G(x,y)、 B(x, y)を OSDプレーン 107に格納する。 一方、 ステップ S804において、 画像情報 i に示される画像種別が動画 像であると判別した場合、 第 1合成部 108は、 画像ファイル iの α値と 0SDプレーン 107の重ね合わせ範囲の RGB成分とを用いて以下の演算を 行う (ステップ S806)。 その式を以下に示す。 (数 3) In this equation, R (x, y :), G (x, y), B (x, y) on the left side are the RGB components to be newly obtained, and Ri (x, y), Gi (x, y) , (X, y) and α; (x, y) are the RGB components and values of the image file i ', and R (x, y;), G (x, y), B (x, y) on the right side Are the RGB components held within the overlap range of the OSD plane 107. In other words, R (x, y) on the left side is obtained by adding the value obtained by weighting,) with £ ^ and the value obtained by weighting R (x, y) held in the 0SD plane 107 with 11 <i. Is obtained. The same applies to G (x, y) and B (x, y). The first combining unit 108 stores the newly obtained R (x, y :), G (x, y), and B (x, y) in the OSD plane 107. On the other hand, if it is determined in step S804 that the image type indicated by the image information i is a moving image, the first synthesizing unit 108 calculates the α value of the image file i and the RGB component of the overlapping range of the 0SD plane 107. Then, the following calculation is performed (step S806). The formula is shown below. (Equation 3)
R(x,y) = (l-«i(x,y))*R(x,y)  R (x, y) = (l- «i (x, y)) * R (x, y)
G(x,y) = (l-"i(x,y))*G(x,y) G (x, y) = (l- "i (x, y)) * G (x, y)
B(x,y) = (l-«i(x,y))*B(x,y) B (x, y) = (l- «i (x, y)) * B (x, y)
この式において左辺の R(x,y:)、 G(x,y), B(x,y)は新しく求める RGB成 分であり、 a xj)は画像フアイル iの α値であり、右辺 R(x,y)、 G(x,y)、 B(x,y)は 0SDプレーン 107の重ね合わせ範囲内に保持されている RGB成 分である。 つまり新しく求める R(x,y)は、 それまでに求められている R(x,y)を 1— i(x,y)で重み付けることで得られる。 G(x,y)、 B(x,y)に ついても同様である。 In this equation, R (x, y :), G (x, y), and B (x, y) on the left side are the newly obtained RGB components, a xj) is the α value of the image file i, and R (x, y), G (x, y), and B (x, y) are RGB components held within the overlapping range of the 0SD plane 107. In other words, the newly obtained R (x, y) is obtained by weighting R (x, y) obtained so far with 1-i (x, y). The same applies to G (x, y) and B (x, y).
(数 3) は (数 2) の式の右辺第 1項を 0とおいたものと同じである。 ステップ S805の各式の右辺第 1項は、画像ファィルの RGB成分に aを 重み付けするものであるから、 S806の各式の場合、 動画像の RGB成分に 対する の重み付けを加えないことを意味する。  (Equation 3) is the same as (Equation 2) except that the first term on the right side of the equation is set to 0. Since the first term on the right side of each expression in step S805 weights the RGB component of the image file with a, it means that in the case of each expression in S806, no weighting is applied to the RGB component of the moving image. .
第 1 合成部 108 は、 ステップ S805 またはステップ S806 で算出した R(x,y)、 G(x,y)、 B(x,y)を 0SDプレーン 107に格納する。 ' このようにして、 第 1合成部 108は、 すべての画像ファイルについて 処理を行ったら第 1合成処理を終了する (ステップ S807)。  The first combining unit 108 stores the R (x, y), G (x, y), and B (x, y) calculated in step S805 or S806 in the 0SD plane 107. 'In this way, the first synthesizing unit 108 finishes the first synthesizing process after processing all image files (step S807).
以上の処理により、 0SDプレーン 107 には静止画像のコンポ一ネント を合成した結果が保持されることとなる。  By the above processing, the result of synthesizing the components of the still image is stored in the 0SD plane 107.
第 2合成部 109は、 動画像コンポーネント用の合成 値を算出し、 ビ デォプレーン 106に格納する第 2合成処理を行う  The second combining unit 109 performs a second combining process of calculating a combined value for the moving image component and storing the combined value in the video plane 106.
図 10は、 第 2合成の処理手順を示すフローチャートである。  FIG. 10 is a flowchart illustrating a processing procedure of the second synthesis.
まず、 第 2合成部 109は、 ビデオプレーン 106の合成 α値の領域を初 期化する (ステップ S900)。 具体的にはビデオプレーン 106の全ピクセ ルの合成 値用の領域を 0にセッ トする。 この合成 値の領域は、 図 10 の処理の結果、 動画像コンポーネント用の合成な値を保持することとな . るものである。 First, the second synthesizing unit 109 initializes the area of the synthesized α value of the video plane 106 (Step S900). Specifically, the area for the composite value of all pixels of the video plane 106 is set to zero. As a result of the processing in FIG. 10, this composite value area holds the composite value for the moving image component. Things.
次に、第 2合成部 109は、 ステップ S901 から S907の処理を繰り返す。 まず第 2合成部 109は、 画像保持部 104のイ ンデックスファイルから 画像情報 i を読み出す (ステップ S901)。 ここで i は、 本フローチヤ一 トにおいて便宜的に下位層から上位層のコンポーネン トへと順番に Next, the second synthesis unit 109 repeats the processing of steps S901 to S907. First, the second synthesizing unit 109 reads out image information i from the index file of the image holding unit 104 (Step S901). Where i is, for convenience, sequentially from the lower layer to the upper layer components in this flowchart.
0, 1 , 2, . . .というように昇順にコンポーネントに割り振った番号を示す 変数であり、 コンポーネン ト i に対応する画像情報及び画像ファイルを それぞれ画像情報 i及び画像フ ァイル i と呼ぶこととする。 本フローチ ャ一 トにおいて i の初期値は 0、 増分は 1 とする。 A variable indicating the number assigned to each component in ascending order, such as 0, 1, 2,..., And the image information and image file corresponding to component i are referred to as image information i and image file i, respectively. I do. In this flowchart, the initial value of i is 0, and the increment is 1.
次に第 2合成部 109は、 画像情報 i に示される格納位置に格納された 画像ファィルを画像保持部 104より取り出す (ステップ S902)。  Next, the second synthesizing unit 109 extracts the image file stored in the storage position indicated by the image information i from the image holding unit 104 (Step S902).
第 2合成部 109は、 画像フアイル i の表示サイズ及ぴ表示位置を読み 出し、 コンポーネント i の画面上での重ね合わせ範囲を設定する (ステ ップ S903)。  The second synthesizing unit 109 reads the display size and the display position of the image file i, and sets the overlapping range of the component i on the screen (step S903).
第 2合成部 109は、 画像情報 i に示される画像種別が動画像であるか 静止画像であるかを判別する (ステップ S904)。  The second combining unit 109 determines whether the image type indicated by the image information i is a moving image or a still image (step S904).
判別の結果、 静止画像である場合、 第 2合成部 109は、 画像ファイル iの oi iとビデオプレーン 106の重ね合わせ範囲における合成 α値とを用 いて新しい合成 α値を算出する(ステツプ S905)。 この式を以下に示す. (数 4) a(x, y) = (1 - \ (x, y)) * α(χ, y) この式において左辺め α (x, y)は新しく求める合成 α値であり、 i (x, y)は画像フアイル i の α値であり、 右辺の a (x,y)は、 ビデオプレー ン 106の重ね合わせ範囲に保持されている合成 α値である。  If the result of the determination is that the image is a still image, the second combining unit 109 calculates a new combined α value using the oi i of the image file i and the combined α value in the overlapping range of the video plane 106 (step S905). . This equation is shown below. (Equation 4) a (x, y) = (1-\ (x, y)) * α (χ, y) In this equation, the left-hand side α (x, y) is a newly obtained composition i (x, y) is the α value of the image file i, and a (x, y) on the right side is the composite α value held in the overlapping range of the video plane 106.
第 2合成部 109は、新たに得られた a (x,y)をビデオプレーン 106に格 納する。 一方、 ステップ S904において、画像情報 i に示される画像種別が動画 像であると判別と判別した場合、 第 2合成部 109は、 以下の演算を行う (ステップ S906)。 The second synthesizing unit 109 stores the newly obtained a (x, y) in the video plane 106. On the other hand, if it is determined in step S904 that the image type indicated by the image information i is a moving image, the second combining unit 109 performs the following calculation (step S906).
(数 5)  (Equation 5)
a(x,y) = ai(x,y) ごの式において左辺の (x,y)は新しく求める合成 値であり、右辺の a i (x, y)は画像ラアイル i の α値である。 つまり tt i (x, y)をそのまま、 新しく求める (x,y)としている。 第 合成部 1 09は、 ステツプ S905またはステップ S906で算出した α (x, y)をビデオプレーン 106に格納する。  In the equation a (x, y) = ai (x, y), (x, y) on the left side is the newly calculated composite value, and a i (x, y) on the right side is the α value of the image layer i. In other words, tt i (x, y) is directly used as (x, y). The first combining unit 109 stores the α (x, y) calculated in step S905 or step S906 in the video plane 106.
このようにして、 第 2合成部 109は、 すべての画像ファイルについて 処理を行ったら第 2合成処理を終了する (ステップ S907)。 その結果、. ビデオプレーン 106に.は、 最終的には動画像コンポーネント用の合成な 値が格納される。  In this way, the second synthesizing unit 109 finishes the second synthesizing process after processing all image files (step S907). As a result, the composite value for the video component is finally stored in the video plane 106.
第 3合成部 1 10は、 制御部 102から通常の再生指示を受けるとビデオ プレーン 106に保持される R、 G、 B成分を出力部 1 1 1 に出力する。 また 第 3合成部 1 10は、 制御部 102から EPG表示の指示を受けると、 ビデオ プレーン 106に記憶される動画像データの R、 G、 B成分と 0SDプレーン 107に記憶される第 1合成画像データの RGB成分とを合成する第 3合成 を行って、 合成結果の合成画像を出力部 1 1 1 に出力する。  Upon receiving a normal reproduction instruction from the control unit 102, the third synthesis unit 110 outputs the R, G, and B components held in the video plane 106 to the output unit 111. Further, when receiving an EPG display instruction from the control unit 102, the third synthesis unit 110 receives the R, G, B components of the moving image data stored in the video plane 106 and the first synthesized image stored in the 0SD plane 107. The third synthesis is performed to synthesize the RGB components of the data, and the synthesized image of the synthesis result is output to the output unit 111.
第 3合成処理は次の式によって表される。  The third synthesis processing is represented by the following equation.
(数 6)  (Equation 6)
R(x,y) = (x,y)*Rv(x,y) + R。(x,y) R (x, y) = (x, y) * Rv (x, y) + R. (x, y)
G(x, y) = a(x, y) * Gv (x, y) + G。 (x, y) G (x, y) = a (x, y) * Gv (x, y) + G. (x, y)
B(x,y) = «(x,y)*Bv(x,y) + B0(x,y) ここにおいて R(x,y:)、 G(x,y)、 B(x,y)は、第 3合成の結果、 出力部 111 に出力される各ピクセルの R、G、B成分であり、 a (x,y)、Rv(x,y)、Gv(x,y)、 Bv(x,y)は、 ビデオプレーン 106に格納されている動画像データの合成 値及び R、 G、 B成分であり、 Ro(x,y)、 Go(x,y)、 Bo(x,y)は第 1合成画像 データの R、 G、 B成分である。 B (x, y) = «(x, y) * Bv (x, y) + B 0 (x, y) Here, R (x, y :), G (x, y), and B (x, y) are the R, G, and B components of each pixel output to the output unit 111 as a result of the third synthesis. a (x, y), Rv (x, y), Gv (x, y), Bv (x, y) are the composite values of the moving image data stored in the video plane 106 and R, G , B components, and Ro (x, y), Go (x, y), and Bo (x, y) are the R, G, and B components of the first composite image data.
つまり第 3合成部 110は、 ビデオプレーン 106に保持されている ®画 像データの R、 G、 B成分に合成 a値をかけた値と、 0SDプレーン 107 に 保持されている第 1合成画像データの R、 G、 B成分とを加算する処理を ビデオ再生のフ レーム毎に行う。  That is, the third synthesis unit 110 calculates the value obtained by multiplying the R, G, and B components of the image data held in the video plane 106 by the synthesis a value, and the first synthesized image data held in the 0SD plane 107. The processing of adding the R, G, and B components is performed for each frame of video playback.
出力部 111は、 CRT等で構成され、 第 3合成部 110が出力する R、 G、 B 成分を受取って画面上に表示する。  The output unit 111 is configured by a CRT or the like, and receives the R, G, and B components output by the third synthesis unit 110 and displays them on a screen.
く動作 > Operation>
以上のように構成された画像合成装置 100について以下にその動作を 説明する。  The operation of the image synthesizing apparatus 100 configured as described above will be described below.
図 11 は、本実施形態の画像合成装置 100の EPG表示時における動作の 流れを説明する図である。  FIG. 11 is a diagram illustrating the flow of the operation of the image synthesizing apparatus 100 according to the present embodiment when displaying an EPG.
同図において矩形の内容は各構成部の動作を示し、 矢印はデータの流 れを.示す。  In the figure, the contents of the rectangle indicate the operation of each component, and the arrows indicate the flow of data.
入力部 101が、 EPG表示の指示を受け付けると (ステップ S1001)、 制 御部 102 を通じてその指示が各部に伝えられる。 その指示を受けた EPG 生成部 103は、 放送されてくる EPG情報を基に画像ファィル及ぴィンデ ックスフアイルを生成して画像保持部 104に格納する。 さらに EPG生成 部 103は、 画像フアイル生成時に取得した動画像コンポーネントの表示 位置及び表示サイズをビデオ再生部 105に通知する (ステップ S1002)。 第 1合成部 108は、 画像保持部 104に格納される静止画像コンポーネ ントどう しの重ね合わせ範囲内の RGB成分を合成し、 0SD プレーン 107 に格納する (ステップ S1003)。  When the input unit 101 receives an instruction to display an EPG (step S1001), the instruction is transmitted to each unit via the control unit 102. Upon receiving the instruction, the EPG generation unit 103 generates an image file and an index file based on the broadcast EPG information, and stores the image file and the index file in the image holding unit 104. Further, the EPG generation unit 103 notifies the video reproduction unit 105 of the display position and display size of the moving image component acquired at the time of generating the image file (Step S1002). The first synthesizing unit 108 synthesizes the RGB components within the overlapping range of the still image components stored in the image holding unit 104, and stores the synthesized RGB components in the 0SD plane 107 (step S1003).
第 2合成部 109は、 画像保持部 104に格納される画像フ ァイルの 値 を基に動画像コンポーネント用の合成 α値を算出しビデオプレーン 106 に格納する (ステップ S1004)。 The second synthesizing unit 109 calculates the value of the image file stored in the image holding unit 104 Then, a composite α value for the moving image component is calculated based on the video and stored in the video plane 106 (step S1004).
ビデオ再生部 105は、 動画像を再生し、 EPG生成部 103より通知され た表示サイズ及び表示位置が示すレイアウ トで動画像データをビデオプ レーン 106に格納する (ステップ S1005)。  The video playback unit 105 plays back the moving image, and stores the moving image data in the video plane 106 in the layout indicated by the display size and display position notified from the EPG generation unit 103 (step S1005).
第 3合成部 110は、 動画像コンポーネン トの RGB成分を合成 α値で重 み付け、 それに第 1合成画像データの RGB成分を加算し、 加算後に得ら れる合成画像の RGB成分を出力部 111 に出力する(ステップ S1006)。  The third combining unit 110 weights the RGB components of the moving image component with the combined α value, adds the RGB components of the first combined image data thereto, and outputs the RGB components of the combined image obtained after the addition. (Step S1006).
出力部 111 は、 第 3合成部 110からの合成画像の RGB成分を表示する (ステップ S1007)  The output unit 111 displays the RGB components of the synthesized image from the third synthesis unit 110 (Step S1007)
同図においてステップ S1003とステップ S1004とステップ S1005とス テツプ S1006の処理は並行して行われる。またステツプ S1006の処理は、 ステップ S1005における動画像の再生と同じレートで行われる。  In the figure, the processes of step S1003, step S1004, step S1005, and step S1006 are performed in parallel. The processing in step S1006 is performed at the same rate as the reproduction of the moving image in step S1005.
<捕捉説明 > <Capture explanation>
以下に、 本発明.の特徴部分である動画像と静止画像の合成について、 捕捉説明する。  The following describes capture of the feature of the present invention, that is, the synthesis of a moving image and a still image.
図 12は、 +1枚の動画像コンポーネント又は静止画像コンポーネン ト からなるコンポ一ネント群を示し、 各コンポーネントは同図に示す R、 G、 B 成分及びな値を'持つものとする。 ただし最下層のコンポーネントの α 値は《0=1. 0 とする。 これらのコンポーネント群を重ね合わせた結果 得ら.れる画像の β、 G、 Β成分は次式(数 7)で与えられる。  FIG. 12 shows a component group composed of +1 moving image components or still image components. Each component has the R, G, B components and values shown in FIG. However, the α value of the lowermost component is << 0 = 1.0. The β, G, and Β components of the image obtained as a result of superimposing these component groups are given by the following equations (Equation 7).
(数 7) (Equation 7)
R = ∑ i*Ri) R = ∑ i * Ri)
i=0to N  i = 0to N
G = ∑ ( i*Gi)  G = ∑ (i * Gi)
i=0to N  i = 0to N
B = ∑ i *Bi)  B = ∑ i * Bi)
i=0to N  i = 0to N
ただし は、 However,
βί = ί Π …① βί = ί ①… ①
i=i+lto N  i = i + lto N
ここにおいて β ;は、最終的な合成結果である画像に対するコンポーネ ント iの合成比率を表し、 貢献度とも呼ぶ。 すなわち j3iは、 合成 α値で ある。 Here, β ; represents the composition ratio of the component i to the image that is the final composition result, and is also referred to as contribution. That is, j3i is the composite α value.
本発明は、 これらコンポーネン ト中の 1つが動画像である場合、 動画 像のコンポーネン ト以外の静止画像のコンポーネントどう しを 値を用 いて合成し、 この結果に動画像のコンポーネントを加えるという演算を 実現している。 静止画像コンポーネントは、 表示サイズ及び表示位置を もつ画像フアイルとして存在し、 合成する際に 0SDプレーン上で合成す るので、 0SDプレーン 107—枚という少ないメモリ容量で効率的に静止 画コンポーネントを合成することができる。  According to the present invention, when one of these components is a moving image, the operation of combining the components of the still image other than the component of the moving image using values and adding the component of the moving image to the result is performed. Has been realized. The still image component exists as an image file with the display size and display position, and is synthesized on the 0SD plane at the time of synthesis. Therefore, the still image component is efficiently synthesized with a small memory capacity of 107-SD planes. be able to.
これにより静止画像用の 0SDプレーン 1枚と動画像用のビデオプレー ン 1枚という少ないメモリで効率的に処理を行うことができる。  This enables efficient processing with a small memory of one 0SD plane for still images and one video plane for moving images.
もしこれらのコンポーネントの合成を、 動画像も静止画像も含めて重ね 合わせの順番に順次に行うとすると、 全コンポーネントの各ピクセルに ついての合成比率を計算してメモリ上に保持しておく必要がある。 これ は非常に多くのメモリを必要とし非効率的である。 If the composition of these components is performed sequentially in the order of superimposition, including moving images and still images, it is necessary to calculate the composition ratio for each pixel of all components and store it in memory. is there. This requires a lot of memory and is inefficient.
また合成比率の計算式も、 1 つずつ独立に行うと多ぐの乗算を必要と する。 N+1のコンポ一ネントでは、 1)/2回の乗算が必要となり、 ΝΛ2 のオーダーの計算となる。 Also, the formula for calculating the composition ratio requires a large number of multiplications if performed independently one by one. In the N + 1 of the Component for, 1) / 2 multiplications are required, the Ν Λ 2 of the order of calculation.
. 本発明では、 これらの問題を解決し、 メモリを必要としない逐次計算 と、 乗算の回数を Nのオーダーで済ませることを実現している。 本実施 の形態の構成要素と演算の関係は、 第 1合成部 108が動画像以外のコン ポーネントの項の加算を担当し、 第 2合成部 109が動画像の貢献度の計 算を担当し、 第 3合成部 110が最後の動画像の加算を担当する。 In the present invention, these problems are solved and the sequential calculation that does not require memory is performed. And realize that the number of multiplications is on the order of N. Regarding the relationship between the components and the operation of the present embodiment, the first synthesizing unit 108 is in charge of adding the terms of components other than the moving image, and the second synthesizing unit 109 is in charge of calculating the degree of contribution of the moving image. The third combining unit 110 is responsible for adding the last moving image.
図 13は、 本発明の演算を C言語風に記述したプログラムである。 この プログラムは 1つのピクセルに焦点をあてている。 R、 G、 Bは OSD プレ ーン上の 1つのピクセルの RGB成分を表し、 はこのピクセルに対応す る動画像の合成 α値を表す。 、 Gi、 Bi、 《iは、 OSD プレーンに加算さ れる i 番目のコンポーネントの RGB成分及ぴ a値である。 Rv、 Gv、 Bvは 動画像の RGB成分である。 FIG. 13 is a program describing the operation of the present invention in a C language style. This program focuses on one pixel. R, G, and B represent the RGB components of one pixel on the OSD plane, and represents the composite α value of the moving image corresponding to this pixel. , Gi, Bi, << i are the RGB component and a value of the i-th component added to the OSD plane. R v , G v , and B v are the RGB components of the moving image.
1行目から 4行目までが初期化処理を示す。 5行目から 1 7行目が静 止画像の加算、 残りが動画像の加算である。 7、 8、 9、 1 2、 1 3、 1 4行目が第 1合成部 1 0 8により行われる演算を示す。 ここで、 動画 像の合成式は、 動画像の. RGB成分が 0であるとして計算するのと同等で ある。 1 0、 1 5行目は第 2合成部 1 0 9により行われる演算で、 動画 像の合成 値を計算している.。 5、 6、 1 1、 1 6、 1 7行目は第 1合 成部 1 0 8と第 2合成部 1 0 9とに共通の処理である。 1 8、 1 9、 2 0行目が第 3合成部 1 1 0により行われる演算である。 ここで 1 8、 1 9、 2 0行目は別のスレッ ドで並行して行われ、 永久ループであっても よい。  The first to fourth lines indicate the initialization process. Lines 5 to 17 show the addition of still images, and the rest show addition of moving images. Lines 7, 8, 9, 12, 13, and 14 indicate the operations performed by the first synthesis unit 108. Here, the composition formula of the moving image is equivalent to calculating assuming that the .RGB component of the moving image is 0. The tenth and fifteenth lines are calculations performed by the second synthesizing unit 109 to calculate the synthesized value of the moving image. The fifth, sixth, eleventh, sixteenth, and seventeenth lines are processes common to the first combining unit 108 and the second combining unit 109. The 18th, 19th, and 20th rows are operations performed by the third synthesis unit 110. Here, lines 18, 19, and 20 are executed in parallel in different threads, and may be an endless loop.
図 14は、 これを実現したプログラムを表す。 programl と progr-am2は、 図 13のプログラムを分割し、 program2は出力を永久ループにしている。 この 2つのプログラムを並列処理することができる。並列処理した場合、 重ね合わせの途中の状態、 重ね合わせていく過程を表示させることがで きる。  Figure 14 shows a program that achieves this. programl and progr-am2 split the program in Figure 13, and program2 makes the output a permanent loop. These two programs can be processed in parallel. When parallel processing is performed, it is possible to display the state in the middle of superposition and the process of superimposition.
く実施形態 2 > Embodiment 2>
く構成〉 Configuration>
図 15は、本発明の実施形態 2に係る画像合成装置の構成を示すブロッ ク図である。 FIG. 15 is a block diagram showing the configuration of the image composition device according to the second embodiment of the present invention. FIG.
同図において画像合成装置 200は、 入力部 101、 制御部 1500、 EPG生 成部 103、 画像保持部 1 04、 ビデオ再生部 105、 ビデオプレーン 106、 0SD プレーン 1501、 第 4合成部 1502、 第 5合成部 1503、 出力部 1 1 1 から構 成される。 これらの構成要素のうち、 画像合成装置 1 00と同じ符号のも のは機能が同じであるので説明を省略し、 以下画像合成装置 100 と異な る符号のものを中心に説明する。  In the figure, the image synthesizing apparatus 200 includes an input unit 101, a control unit 1500, an EPG generation unit 103, an image holding unit 104, a video reproduction unit 105, a video plane 106, a 0SD plane 1501, a fourth synthesis unit 1502, and a fifth It consists of a synthesis unit 1503 and an output unit 111. Among these constituent elements, those having the same reference numerals as those of the image synthesizing apparatus 100 have the same functions, and therefore the description thereof will be omitted.
制御部 1500は、 画像合成装置 200の構成要素全てを制御する。 より具 体的には、 画像合成装置 200 のオンが指示されると、 ビデオ再生部 105 に放送番組を再生させる。 チャンネル切替えが指示されると、 ビデオ再 生部 105 に現在再生中のものとは別の放送番組を再生させる。 EPG表示 のオンが指示されると、. EPG生成部 103、 ビデオ再生部 1 05、 第 4合成部 1502及び第 5合成部 1503等を制御して合成画像を生成させる。  The control unit 1500 controls all the components of the image composition device 200. More specifically, when the image synthesis device 200 is instructed to be turned on, the video reproduction unit 105 reproduces a broadcast program. When the channel switching is instructed, the video reproduction unit 105 reproduces a broadcast program different from the one currently being reproduced. When the ON of the EPG display is instructed, it controls the EPG generating unit 103, the video reproducing unit 105, the fourth synthesizing unit 1502, the fifth synthesizing unit 1503, and the like to generate a synthesized image.
0SDプレーン 1501 は、 メモリ等で構成され、 第 4合成部 1502により 出力される RGB成分及び 値を保持する。 0SDプレーン 1501 は、 画面の ピクセルに対応する RGB成分及びな値を保持する。  The 0SD plane 1501 is composed of a memory or the like, and holds RGB components and values output by the fourth synthesis unit 1502. The 0SD plane 1501 holds RGB components and values corresponding to pixels on the screen.
第 4合成部 1 502は、制御部 1500から指示を受けると、画像保持部 104 に保持されている複数の画像フ ァイルの画像データを合成し、 最終的に は第 4合成画像データを生成し、 0DSプレーン 1501 に格納する。 この処 理を第 4合成処理と呼ぶ。  Upon receiving an instruction from the control unit 1500, the fourth combining unit 1502 combines the image data of the plurality of image files held in the image holding unit 104, and finally generates the fourth combined image data. , Stored in the 0DS plane 1501. This processing is called the fourth synthesis processing.
図 16は、 第 4合成処理の処理手順を示すフローチヤートである。 まず、 第 4合成部 1502は、 0SDプレーン 1501 の RGB成分の領域すベ てに 0をセッ ト し、 ビデオプレーン 106の合成 値の領域すべてに 0を セッ トする (ステップ S 1600、 ステップ S 1601)。  FIG. 16 is a flowchart showing a processing procedure of the fourth synthesis processing. First, the fourth synthesizing unit 1502 sets 0 to all areas of the RGB component of the 0SD plane 1501 and sets 0 to all areas of the synthesized value of the video plane 106 (steps S1600 and S1601). ).
次に、 第 4合成部 1502は、 ステップ S 1602〜S 161 2の処理を繰り返し て、 下位層から上位層のコンポーネントへと順番に、 静止画像のコンポ 一ネントどう しを合成して 0SDプレーン 1501 に格納し、また動画像コン ポーネント用の合成 値を算出し、 ビデオプレーン 1 06に格納する処理 を行う。 Next, the fourth compositing unit 1502 repeats the processing of steps S1602 to S1612, composites the components of the still image in order from the lower layer to the component of the upper layer, and generates the 0SD plane 1501. Processing to calculate the composite value for the video component and store it in the video plane 106 I do.
まず第 4合成部 1502は、画像保持部 104のインデックスファイルから 画像情報 i を読み出す (ステップ S1602)。 ここで i は、 本フローチヤ一 トにおいて便宜的に下位層から上位層のコンポーネン トへと順番に 0, 1 , 2, . . .というよう.に昇順にコンポ一ネン トに割り振った番号を示す 変数であり、 コンポーネン ト i に対応する画像情報及び画像ファイルを それぞれ画像情報 i及び画像フアイル i と呼ぶこととする。 本フローチ ヤートにおいて i の初期値は 0、 増分は 1 とする。  First, the fourth synthesizing unit 1502 reads out image information i from the index file of the image holding unit 104 (Step S1602). Here, i indicates the number assigned to each component in ascending order from 0 to 1 in the order from the lower layer to the upper layer for convenience in this flow chart. The image information and image file corresponding to component i, which are variables, are called image information i and image file i, respectively. In this flowchart, the initial value of i is 0, and the increment is 1.
そして第 4合成部 1502は、画像情報 i に示される格納位置に格納され た画像フ ァイル i を画像保持部 104より取り出す (ステップ S1603)。 第 4合成部 1502は、画像フアイル iの表示サイズ及び表示位置を読み 出し、 当該画像フ ァイルのコンポーネント i の画面上での重ね合わせ範 囲を設定する (ステップ S1604)。  Then, the fourth synthesizing unit 1502 extracts the image file i stored in the storage position indicated by the image information i from the image holding unit 104 (Step S1603). The fourth synthesizing unit 1502 reads the display size and display position of the image file i, and sets a range of superimposition on the screen of the component i of the image file i (step S1604).
第 4合成部 1502は、画像情報 i に示される画像種別が動画像であるか 静止画像であるかを判別する (ステップ S1605)。  The fourth synthesizing unit 1502 determines whether the image type indicated by the image information i is a moving image or a still image (step S1605).
判別の結果、 画像情報 i に示される画像種別が動画像であると判別し た場合、 第 4合成部 1502 は、 画像フアイル i の α値をビデオプレーン 106 に複写する (ステップ S161 1)。  As a result of the determination, when it is determined that the image type indicated by the image information i is a moving image, the fourth combining unit 1502 copies the α value of the image file i to the video plane 106 (step S1611).
ステップ S1605における判別の結果、 画像情報 i に示される画像種別 が静止画像であると判別した場合、第 4合成部 1502は、 ビデオプレーン 106 に保持されている合成 α値がすべて 0であるか否かを判別する (ス テツ.プ S 1606)。すなわちここでは当該静止画像より下位層に動画像があ るか否かによって異なる処理に分岐するようにしている。  If it is determined in step S1605 that the image type indicated by the image information i is a still image, the fourth combining unit 1502 determines whether or not all the combined α values held in the video plane 106 are 0. (Step S1606). That is, in this case, the process branches depending on whether or not there is a moving image in a lower layer than the still image.
ステップ S1606における判別の結果、 ビデオプレーン 106に保持され ている合成 α値がすべて 0であると判別した場合、第 4合成部 1502は、 画像フアイル i の 値を 0SDプレーン 1501 に複写する(ステップ S1609)。 ステップ S1606における判別の結果、 ビデオプレーン 106に'保持され ている合成 値がすべて 0でない場合、 すなわち少なく とも 1つは 0で ない場合、第 4合成部 1502はビデオプレーン 106に保持されている合成 値と画像フ ァイル i の 値とを用いて (数 8) の計算により新しい α 値を求め、 0SDプレーン 1501 に格納する (ステップ S1607)。 As a result of the determination in step S1606, when it is determined that the combined α values held in the video plane 106 are all 0, the fourth combining unit 1502 copies the value of the image file i to the 0SD plane 1501 (step S1609). ). As a result of the determination in step S1606, if the composite values held in the video plane 106 are not all 0, that is, at least one is If not, the fourth synthesizing unit 1502 obtains a new α value by the calculation of (Equation 8) using the synthesized value held in the video plane 106 and the value of the image file i, and stores it in the 0SD plane 1501 ( Step S1607).
(数 8)  (Equation 8)
«i(x,y) «I (x, y)
"osd(X,y) =  "osd (X, y) =
l-av(x,y)*(l-«i(x,y)) la v (x, y) * (l- «i (x, y))
この式において左辺の aosd(x,y)は新しく求める α値であり、 右辺 α i(x,y)は画像フアイル i の α値であり、 av(x,y)は、 ビデオプレーン 106 に保持されている合成 α値である。 In this equation, aosd (x, y) on the left side is the newly obtained α value, α i (x, y) on the right side is the α value of the image file i, and a v (x, y) is the video plane 106. This is the retained composite α value.
· さらに第 4合成部 1502は、 (数 9) により動画像用の合成 α値を算出 し、 ビデオプレーン 106の合成 α値の領域に格納する (ステップ S1608)c (数 9) · Further, the fourth combining unit 1502 calculates the combined α value for the moving image by (Equation 9), and stores it in the area of the combined α value of the video plane 106 (Step S1608) c (Equation 9)
«v(x,y) ="v(x,y)*(l-"i(x,y)) «V (x, y) =" v (x, y) * (l- "i (x, y))
この式において左辺の av(x,y)は新しく ビデオプレーン 106 に格納する 合成 値であり、右辺の αν;γ)は、 この格納の前にビデオプレーン 106 に保持されていた合成 ά値であり、 a i(x,y)は画像フアイル iの α値で め In this equation, a v (x, y) on the left side is a composite value newly stored in the video plane 106, and α ν; γ) on the right side is a composite value stored in the video plane 106 before this storage. ai (x, y) is the α value of image file i.
第 4合成部 1502は、 ステップ S1607又はステップ S1609において 0SD プレーン 1501 にセッ トされた α値を用いて、画像フアイル iの RGB成分- と.0SDプレーン 1501の重ね合わせ範囲における RGB成分との 合成演算 を行い、 結果を 0SDプレーン 1501 に格納する(ステツプ S1610)。 その演 算式を (数 10)に示す。  The fourth combining unit 1502 performs a combining operation of the RGB component of the image file i and the RGB component in the overlapping range of the .0SD plane 1501, using the α value set in the 0SD plane 1501 in step S1607 or step S1609. And stores the result in the 0SD plane 1501 (step S1610). The equation is shown in (Equation 10).
(数 10)  (Number 10)
R(x, y) = a0Sd (χ, y) *Ri(x,y)+(l- flrosd (x, y)) * R(x, y) R (x, y) = a 0S d (χ, y) * Ri (x, y) + (l- flr os d (x, y)) * R (x, y)
G(x, y) = 0Sd (x, y) * Gi (x, y) + (l- a0sd (x, y)) * G(x, y) G (x, y) = 0S d (x, y) * Gi (x, y) + (l- a 0 sd (x, y)) * G (x, y)
B(x, y) = «osd (x, y) * Bi (x, y) + (1 - or0sd (x, y)) * B(x, y) この式において左辺の R(x,y)、 G(x,y), B(x,y)は新しく求める RGB成 分であり、右辺の!¾ )、0 , )、8 ^)及ぴ£¾ 03(1は 0SDプレーン 1501 に保持されている RGB成分及び α値であり、 Ri(x,y)、 Gi(x,y)、 Bi(x,y) は画像ファイル i の RGB成分である。 B (x, y) = «osd (x, y) * Bi (x, y) + (1-or 0 sd (x, y)) * B (x, y) In this equation, R (x, y), G (x, y), and B (x, y) on the left side are RGB components to be newly obtained, and! ¾), 0,), 8 ^) and 03 (1 are the RGB components and α values held in the 0SD plane 1501, and Ri (x, y), Gi (x, y), Bi ( x, y) is the RGB component of image file i.
このようにして第 4合成部 1502は、すべての画像フアイルに対してス テツプ S1602からステップ S1612の処理を行って第 4合成処理を終了す る (ステップ S1612)。  In this way, the fourth synthesis unit 1502 performs the processing from step S1602 to step S1612 on all the image files, and ends the fourth synthesis processing (step S1612).
第 4合成処理の終了後には、 0SDプレーン 1501 に静止画像のコンポーネ ントをすベて合成した結果が保持され、 ビデオプレーン 106の合成 α値 の領域に動画像のコンポーネントの合成 α値が保持されることとなる。 第 5合成部 1503は、 制御部 1500から通常の再生指示を受けるとビデ ォプレーン 106に保持される R、 G、 B成分を出力部 111 に出力する。 また第 5合成部 1503は、制御部 1500から EPG表示の指示を受けると、 ビデオプレーン 106に記憶される動画像データの H、 G、 B成分及び合成 α値と 0SDプレーン 1501に記憶される第 4合成画像データの RGB成分と を合成する第 5合成を行って、結果の合成画像を出力部 111 に出力する。 第 5合成処理は次の式によって表される。 After the fourth compositing process is completed, the result of compositing all the components of the still image in the 0SD plane 1501 is retained, and the composite α value of the moving image component is retained in the composite α value area of the video plane 106. The Rukoto. The fifth synthesizing unit 1503 outputs the R, G, and B components held in the video plane 106 to the output unit 111 when receiving a normal reproduction instruction from the control unit 1500. Further, when receiving the EPG display instruction from the control unit 1500, the fifth synthesizing unit 1503 stores the H, G, B components and the synthesized α value of the moving image data stored in the video plane 106, and the fifth stored in the 0SD plane 1501. (4) A fifth synthesis for synthesizing the RGB components of the synthesized image data and is performed, and the resultant synthesized image is output to the output unit 111. The fifth synthesis processing is represented by the following equation.
(数 11)  (Equation 11)
R(x, y) = α(χ, y) * R V (x, y) + R0 (x, y) R (x, y) = α (χ, y) * RV (x, y) + R 0 (x, y)
G(x, y) = a(x, y) *Gv(x, y) + G0 (x, y) . G (x, y) = a (x, y) * G v (x, y) + G 0 (x, y).
B(x, y) = a(x,y)*Bv (x, y) + B0 (x, y) B (x, y) = a (x, y) * B v (x, y) + B 0 (x, y)
ここにおいて R(x,y)、 G(x,y)、 B(x,y)は、第 5合成の結果、 出力部. Ill に出力される各ピクセルの R、G、B成分であり、 (x,y)、Rv(x,y)、Gv(x,y)、 Bv(x,y)は、 ビデオプレーン 106に格納されている動画像データの合成 α 値及び R、 G、 B成分であり、 Ro(x,y)、 Go(x, y)、. Bo(x, y)は第 4合成画像 データの R、 G、 B成分である。 このように第 5合成部 1503は、フレームが更新される度に第 4合成画 像データとの合成を行う。 Here, R (x, y), G (x, y), and B (x, y) are the R, G, and B components of each pixel output to the output unit Ill as a result of the fifth synthesis. (X, y), R v (x, y), G v (x, y), B v (x, y) are the combined α value of the moving image data stored in the video plane 106 and R, G , B components, and Ro (x, y), Go (x, y), .Bo (x, y) are the R, G, B components of the fourth composite image data. In this way, the fifth combining unit 1503 combines with the fourth combined image data every time a frame is updated.
<動作 > <Operation>
以上のように構成された画像合成装置 200について以下にその動作を 説明する。  The operation of the image synthesizing apparatus 200 configured as described above will be described below.
図 17は、本実施形態の画像合成装置 200の EPG表示時における動作の 流れを説明する図である。 同図において矩形の内容は各構成部の動作を 示し、 矢印はデータの流れを示す。 なお、 同図において図 11 と同じステ ップ番号における動作は、図 11のものと同じ動作であることを意味する。 入力部 101が、 EPG表示の指示を受け付けると (ステップ S1001)、 制 御部 1500を通じてその指示が各部に伝えられる。その指示を受けた EPG 生成部 103は、 放送されてく る EPG情報を基に画像ファィル及びィンデ ックスフアイルを生成して画像保持部 104に格納する。 さらに EPG生成 部 103は、.画像フアイル生成時に取得した動画像コンポ一ネントの表示 位置及び表示サイズをビデオ再生部 105に通知する (ステップ S1002)。 第 4合成部〗502は、画像保持部 104に格納される静止画像コンポ一ネ ントどう しの重ね合わせ範囲内の RGB成分を合成し、 0SDプレーン 1501 に格納する。 また第 4合成部 150 は、動画像用の合成 値を算出してビ デォプレーン 106に格納する (ステップ S1701)。  FIG. 17 is a diagram illustrating the flow of the operation of the image synthesizing apparatus 200 of the present embodiment when displaying an EPG. In the figure, the contents of the rectangles indicate the operation of each component, and the arrows indicate the flow of data. Note that, in this figure, the operation at the same step number as in FIG. 11 means the same operation as that in FIG. When the input unit 101 receives an EPG display instruction (step S1001), the instruction is transmitted to each unit through the control unit 1500. Upon receiving the instruction, the EPG generation unit 103 generates an image file and an index file based on the broadcast EPG information, and stores the generated image file and the index file in the image holding unit 104. Further, the EPG generation unit 103 notifies the video reproduction unit 105 of the display position and display size of the moving image component acquired at the time of generating the image file (step S1002). The fourth synthesizing unit # 502 synthesizes the RGB components within the overlapping range of the still image components stored in the image holding unit 104, and stores them in the 0SD plane 1501. Further, the fourth combining unit 150 calculates a combined value for a moving image and stores the combined value in the video plane 106 (step S1701).
ビデオ再生部 105は、 動画像を再生し、 EPG生成部 103 より通知され た表示サイズ及び表示位置が示すレイアウ トで動画像データをビデオプ レーン 106 に格納する (ステップ S1005)。  The video reproducing unit 105 reproduces the moving image, and stores the moving image data in the video plane 106 in the layout indicated by the display size and the display position notified from the EPG generating unit 103 (Step S1005).
第 5合成部 1503は、動画像コンポーネン トの RGB成分を合成 α値で重 み付け、 それに第 4合成画像データの RGB成分を加算し、 加算後に得ら れる合成画像の RGB成分を出力部 111 に出力する(ステップ S1702)。 . 出力部 111 は、第 5合成部 1503からの合成画像の RGB成分を表示する (ステップ S1007)  The fifth synthesizing unit 1503 weights the RGB components of the moving image component with the synthesized α value, adds the RGB components of the fourth synthesized image data thereto, and outputs the RGB components of the synthesized image obtained after the addition. (Step S1702). The output unit 111 displays the RGB components of the synthesized image from the fifth synthesis unit 1503 (Step S1007)
同図においてステツプ S1702の処理は、ステツプ S1005、ステップ S1701 と並行して行われる。 In the figure, the processing in step S1702 is performed in step S1005 and step S1701. Is performed in parallel.
<補足説明 >  <Supplemental explanation>
本実施形態で示す合成方法は、 図 18に示すように、 隣り合う 2枚のコ ンポーネントの重ね合わせ順序を入替えて合成する。 このとき入替え前 の合成結果と入替え後の合成結果とが同じになるように、 入替え後の 2 枚のコンポーネントのな値を図 16のステップ S1607、 S 1608に示す式で 更新する。  As shown in FIG. 18, the synthesizing method according to the present embodiment is performed by changing the overlapping order of two adjacent components. At this time, the values of the two components after the replacement are updated by the equations shown in steps S1607 and S1608 of FIG. 16 so that the synthesis result before the replacement is the same as the synthesis result after the replacement.
すなわち、 入替え後の 2枚のコンポーネントのうち下位層のコンポ一 ネント i の a値を i +1,、上位層のコンポーネント i +1 のな値を a i'とす ると、 それぞれの α値は次式 (数 12) で表される。  That is, assuming that the a value of component i in the lower layer of the two replaced components is i +1 and the value of component i +1 in the upper layer is a i ', the α value of each component is Is expressed by the following equation (Equation 12).
(数 12)  (Number 12)
' ai+i 'ai + i
= αι = «i (l - ai+i )  = αι = «i (l-ai + i)
ここで (数 12) は以下のようにして.求められる。 Here, (Equation 12) is obtained as follows.
入替え前のコンポーネント i及ぴコンポーネント i + 1 の 値をそれぞ れ a i、 a i +1 とすると、 最終的な合成画像に対するコ.ンポ一ネント i及 ぴコンポーネント i + 1それぞれの貢献度 |3 i及び |3 i + 1 は(数 7)より (数 13)  Assuming that the values of component i and component i + 1 before replacement are ai and ai + 1, respectively, the contribution of component i and component i + 1 to the final composite image | 3 i and | 3 i + 1 are obtained from (Equation 7) (Equation 13)
Figure imgf000031_0001
となる。
Figure imgf000031_0001
Becomes
一方、 最終的な合成画像に対する入替え後のコンポーネント i + 1及ぴコ ンポーネント iそれぞれの貢献度 j3 i+1,及び |3 i,を(数 7)を用いて表すと、 (数 14) ¾+1 '= no- ^j) …③ On the other hand, when the contributions j3 i + 1 and | 3 i of the component i + 1 and the component i after replacement with respect to the final composite image are expressed using (Equation 7), ¾ +1 '= no- ^ j)… ③
j=i+2 to N  j = i + 2 to N
i '二 n - ^j) …④  i 'two n-^ j)… ④
j=i+2toN となる。  j = i + 2toN.
入替え前と入替え後とで合成結果が同じになるためには、 (数 13)と (数 14)とにおいて①と④、 ②と③がそれぞれ同値になればよい。 すなわ ち  In order for the combined result to be the same before and after the exchange, it is sufficient that (Equation 13) and (Equation 14) have the same values for (1), (2), (2) and (3). That is,
(数 15)
Figure imgf000032_0001
(Number 15)
Figure imgf000032_0001
i+i * n(i- «j) = n(i- «j)  i + i * n (i- «j) = n (i-« j)
j=i+2 to N j=i+2to N これらの式を 、 a i +1 'について解く と、 (数 12) が得られる。 j = i + 2 to N j = i + 2to N Solving these equations for a i +1 'gives (Equation 12).
この法則を利用し、図 19に示すように動画像のコンポーネントが最上 " 位層にく るように静止画像のコンポーネントと入替えていく ことにより, 静止画像コンポーネントすべてを動画像コンポーネントよりも先に合成 - し、 最後に動画像を合成することを実現している。  By using this rule, all the still image components are synthesized before the moving image components by replacing the components of the moving image with the components of the still image so that the components of the moving image are at the topmost layer as shown in Fig. 19. -Finally, it is possible to combine moving images.
第 4合成部 1502は、隣り合うコンポーネントの入替えに必要な 値の 計算と 0SDプレーン 1501への合成を図 16のフローチャートに示したよ うに、 効率的に行っている。 第 5合成部 1503は、 0SDプレーン 1501 と- ビデオプレーン 106との合成を行っている。  The fourth synthesizing unit 1502 efficiently calculates values necessary for replacing adjacent components and synthesizes them into the 0SD plane 1501, as shown in the flowchart of FIG. The fifth combining unit 1503 combines the 0SD plane 1501 and the −video plane 106.
<実施形態 3〉  <Embodiment 3>
<構成 >  <Configuration>
図 20は、本発明の実施形態 3に係る画像合成装置の構成を示すプロッ ク図である。  FIG. 20 is a block diagram illustrating a configuration of an image composition device according to Embodiment 3 of the present invention.
同図において画像合成装置 300は、 入力部 101、 制御部 2000、 EPG生 成部 2003、 画像保持部 104、 ビデオ再生部 2001、 ビデオプレーン 2002、 OSDプレーン 107、 第 6合成部 2004、 第 7合成部 2Q05、 第 8合成部 2006 及び出力部 11 1 から構成される。 この構成により画像合成装置 300は、 複数の動画像コンポーネントと複数の静止画像コンポ一ネントとの合成 を行う。 これらの構成要素のうち、 画像合成装置 100及び画像合成装置 200 と同じ符号のものは機能が同じであるので説明を省略し、 異なる符 号のものを中心に説明する。 In the figure, the image synthesizing device 300 includes an input unit 101, a control unit 2000, an EPG generation unit 2003, an image holding unit 104, a video reproduction unit 2001, a video plane 2002, It comprises an OSD plane 107, a sixth synthesis unit 2004, a seventh synthesis unit 2Q05, an eighth synthesis unit 2006, and an output unit 111. With this configuration, the image synthesizing device 300 synthesizes a plurality of moving image components and a plurality of still image components. Among these constituent elements, those having the same reference numerals as those of the image synthesizing apparatus 100 and the image synthesizing apparatus 200 have the same functions, and thus the description thereof will be omitted, and the explanation will be focused on the elements having different numbers.
制御部 2000は、 画像合成装置 300の構成要素全てを制御する。 より具 体的には、 画像合成装置 300のオンが指示されると、 ビデオ再生部 2001 に放送番組を再生させる。 チャンネル切替えが指示されると、 ビデオ再 生部 2001 に現在再生中のものとは別の放送番組を再生させる。 EPG表示 のオンが指示されると、 EPG生成部 2003、 ビデオ再生部 2001、 第 6合成 部 2004、第 Ί合成部 2005及び第 8合成部 2006等を制御して合成画像を 生成させる。  The control unit 2000 controls all the components of the image synthesizing device 300. More specifically, when the image synthesizing device 300 is turned on, the video reproducing unit 2001 reproduces a broadcast program. When the channel switching is instructed, the video reproducing unit 2001 reproduces a broadcast program different from the one currently being reproduced. When the ON of the EPG display is instructed, the EPG generating unit 2003, the video reproducing unit 2001, the sixth synthesizing unit 2004, the #th synthesizing unit 2005, and the eighth synthesizing unit 2006 are controlled to generate a synthetic image.
ビデオ再生部 2001 は、 内部に複数の再生部、 すなわち第 1再生部、 第 2再生部、 . . .、 第 N再生部を有し、 各再生部がそれぞれ放送局からの放 送番組を受信して復号等を行って、数十フレーム/秒の動画像を再生し、 その動画像データをビデオプレーン 2002 にフレーム単位で上書き更新 しながら格納する。 格納の際、 .ビデオ再生部 2001 は、 EPG再生部 2.003 より入力される表示位置及び表示サイズに基づいて最終的な合成画像に 対する動画像のレイアウ トを確定し、ビデオプレーン 2002上の当該配置 に対応する領域に映像の. R、 G、 B成分を格納する。  The video playback unit 2001 includes a plurality of playback units, that is, a first playback unit, a second playback unit,..., And an N-th playback unit. Each playback unit receives a broadcast program from a broadcast station. Then, decoding is performed, and a moving image of several tens of frames / second is reproduced, and the moving image data is stored in the video plane 2002 while being overwritten and updated in frame units. At the time of storage, the video playback unit 2001 determines the layout of the moving image with respect to the final composite image based on the display position and display size input from the EPG playback unit 2.003, and determines the layout on the video plane 2002. The .R, G, and B components of the video are stored in the area corresponding to.
ビデオプレーン 2002は、 内部に複数のプレーン、すなわち第 1 プレー ン、 第 2プレーン 第 Nプレーンを有し、 各プレーンはメモリ等か ら構成され、 それぞれがビデオ再生部 2001の複数の再生部に対応し、再 生部より格納される動画像データと、第 7合成部 2005より格納される合 成 α値とを保持する。  The video plane 2002 has a plurality of planes inside, that is, a first plane, a second plane, and an N-th plane. Each plane includes a memory and the like, and each plane corresponds to a plurality of reproduction units of the video reproduction unit 2001. Then, the moving image data stored by the playback unit and the composite α value stored by the seventh synthesis unit 2005 are retained.
EPG生成部 2003は、複数の動画像コンポーネントと静止画像コンポ一 ネントとからなる EPG表示のための EPG情報を放送局より取得し、 EPG 情報に基づいて複数の画像フアイルと 1つのインデックスファイルとを 生成し、 画像保持部 104に格納する。 また EPG情報から EPG表示画面を 構成する複数の動画像コンポーネントの表示サイズ及び表示位置を抽出 し、 ビデオ再生部 2001 に出力する。 The EPG generation unit 2003 acquires EPG information for displaying an EPG, which includes a plurality of moving image components and still image components, from a broadcast station. A plurality of image files and one index file are generated based on the information, and stored in the image holding unit 104. In addition, the display size and display position of a plurality of moving image components constituting the EPG display screen are extracted from the EPG information and output to the video playback unit 2001.
EPG生成部 2003は、複数の動画像コンポーネントに対応していること 以外は、 EPG生成部 103と同様である。  The EPG generation unit 2003 is the same as the EPG generation unit 103 except that it supports a plurality of moving image components.
第 6合成部 2004は、画像保持部 104に保持されている複数の画像ファ ィルの画像データを合成して第 6合成画像データを生成し、 0SDプレー ン 107に格納する。 この処理を第 6合成処理と呼ぶ。 この処理は、 実施 形態 1の図 9に示す第 1合成処理とほぼ同様で、 ただし、 ステップ S806 の処理を複数の動画像に対応して複数回行うところが実施形態 1 とは異 なっている。  The sixth combining unit 2004 combines the image data of the plurality of image files held in the image holding unit 104 to generate sixth combined image data, and stores the sixth combined image data in the 0SD plane 107. This process is called a sixth synthesis process. This process is almost the same as the first combining process shown in FIG. 9 of the first embodiment, except that the process of step S806 is performed a plurality of times corresponding to a plurality of moving images.
第 7合成部 2005は、 制御部 2000から指示を受けると、 複数の動画像 コンポーネン トそれぞれのための合成 α値を算出し、 ビデオプレーン 2002のそれぞれ対応するプレーンに格納する第 7合成処理を行う。  Upon receiving an instruction from the control unit 2000, the seventh combining unit 2005 calculates a combined α value for each of the plurality of video components, and performs a seventh combining process of storing the combined α values in the corresponding planes of the video plane 2002. .
図 21 は、 第 7合成の処理手順を示すフローチャートである。  FIG. 21 is a flowchart illustrating the procedure of the seventh combining process.
まず、 第 7合成部 2005は、 ビデオプレーン 2002の合成 α値の領域を 初期化する (ステップ S2100)。 具体的にはビデオプレーン 2002の各プ レーンにおける全ピクセルの合成 α値用の領域に 0をセッ トする。 この 合成 値の領域は、 最終的に合成 a値を保持することとなる。  First, the seventh synthesizing unit 2005 initializes the area of the synthesized α value of the video plane 2002 (step S2100). Specifically, 0 is set in the area for the combined α value of all pixels in each plane of the video plane 2002. This composite value area eventually holds the composite a value.
次に、第 7合成部 2005は、 ステップ S2101 から S2107の処理を繰り返 す。  Next, the seventh combining unit 2005 repeats the processing of steps S2101 to S2107.
まず第 7合成部 2005は、画像保持部 104のインデックスフアイルから 画像情報 i を読み出す (ステップ S2101 )。 ここで i は、 本フローチヤ一 トにおいて便宜的に下位層から上位層のコンポーネン トへと順番に. 0, 1 , 2, . . .というように昇順にコンポーネン トに割り振 όた番号を示す 変数であり、 コンポーネント i に対応する画像情報及び画像フアイルを それぞれ画像情報 i及び画像フアイル i と呼ぶこととする。 本フローチ ヤートにおいて i の初期値は 0、 増分は 1 とする。 First, the seventh synthesizing unit 2005 reads image information i from the index file of the image holding unit 104 (Step S2101). Here, i is a number assigned to components in ascending order, such as 0, 1, 2, 2,... From the lower layer to the upper layer for convenience in this flowchart. The image information and the image file corresponding to the component i, which are variables, are called the image information i and the image file i, respectively. Book float In the yat, the initial value of i is 0, and the increment is 1.
次に第 7合成部 2005は、画像情報 i に示される格納位置に格納.された 画像ファィルを画像保持部 104より取り出す (ステップ S2102)。  Next, the seventh synthesizing unit 2005 retrieves the image file stored in the storage position indicated by the image information i from the image holding unit 104 (Step S2102).
第 7合成部 2005は、画像フアイル i の表示サイズ及び表示位置を読み 出し、 肖該画像ファイルのコンポーネント iの画面上での重ね合わせ範 囲を設定する (ステップ S2103)。  The seventh synthesizing unit 2005 reads the display size and the display position of the image file i, and sets an overlapping range of the component i of the image file on the screen (step S2103).
第 7合成部 2005は、画像情報 i に示される画像種別が動画像であるか 静止画像であるかを判別する (ステップ S2104)。  The seventh synthesizing unit 2005 determines whether the image type indicated by the image information i is a moving image or a still image (step S2104).
判別の結果、 動画像である場合、 第 7合成部 2005は、 画像フアイル i の α値をビデオプレーン 2002 の第 k プレーンの α値の領域に複写する (ステップ S2105)。 これを式にすると (数 16) となる  If the result of the determination is that the video is a moving image, the seventh synthesizing unit 2005 copies the α value of the image file i into the α value area of the k-th plane of the video plane 2002 (step S2105). When this is made into the formula, it becomes (Formula 16)
(数 16) (Number 16)
k(x,y) = o¾(x,y) (数 16) において |3 k (x,y)はビデオプレーン 2002 の第 k プレーンの合 成 α値の領域に格納される値を示し、 α ; (χ, γ)は画像ファイル i の α値 である。 この kの値は 1から Νの値をとり、 ステップ S2105の処理が繰 り返される度に 1ずつインクリメントされる。 In k (x, y) = o¾ (x, y) (Equation 16), | 3 k (x, y) indicates the value stored in the area of the composite α value of the k-th plane of the video plane 2002. ; (χ, γ) is the α value of image file i. The value of k takes a value from 1 to Ν, and is incremented by 1 each time the process of step S2105 is repeated.
その後、第 7合成部 2005は、第 kプレーン以外の第 mプレーンの合成' α値の領域に対して、  After that, the seventh combining unit 2005 calculates a combined 'α value region of the m-th plane other than the k-th plane,
. (数 17) (Number 17)
?m (x, y) = ( 1 - «i (x, y)) * P (x, y) の計算を行って /S n (x,y)の値を更新する。 ここで iS x. y)は、 第 m プレ —ンの合成 '値の領域に格納される値を示し、 mは kを除く 1 から Nの 値をとる (ステップ S2106)。 ? m (x, y) = (1-«i (x, y)) * Perform the calculation of P (x, y) and update the value of / S n (x, y). Here, iS x. Y) indicates a value stored in the area of the composite value of the m-th plane, and m takes a value from 1 to N excluding k (step S2106).
すなわちステップ S2105及びステップ S2106の演算は、 (数 7) の①の 演算と同等であり、 最終的な合成結果の画像に対する各動画像コンポ一 ネン トの合成比率、 すなわち合成 α値を算出している。 That is, the operations in step S2105 and step S2106 are equivalent to the operation of ① in (Equation 7), and each moving image component for the final synthesized result image is calculated. The composition ratio of the components, that is, the composition α value, is calculated.
このようにして、第 7合成部 2005は、 すべての画像フアイルについて 処理を行ったら第 7合成処理を終了する (ステップ S2107)。 その結果、 ビデオプレーン 2002の各プレーンには、それぞれの動画像コンポーネン ト用の合成な値が格納される。  In this way, the seventh combining unit 2005 ends the seventh combining process after performing the process for all the image files (step S2107). As a result, each plane of the video plane 2002 stores a composite value for each moving image component.
第 8合成部 2006は、 制御部 2000から EPG表示の指示を受けると、 ビ デォプレーン 2002の各プレーンと 0SDプレーン 107との各 RGB成分を合 成する第 8合成処理を行い、 結果の合成画像を出力部 111 に出力する。 動画像コンポーネントが N枚ある場合、第 8合成部 2006による合成は 次式で表される。  Upon receiving an EPG display instruction from the control unit 2000, the eighth synthesis unit 2006 performs an eighth synthesis process of synthesizing each RGB component of each plane of the video plane 2002 and each of the 0SD planes 107, and generates a resultant synthesized image. Output to the output unit 111. When there are N moving image components, the composition by the eighth composition unit 2006 is expressed by the following equation.
(数 18)  (Number 18)
R(x,y) = (x,y)*Rvi(x,y) R (x, y) = (x, y) * Rvi (x, y)
+ ^2(x,y)*Rv2(x,y)+- + ?N (x, y)*RvN (x, y)+R0 (x, y)+ ^ 2 (x, y) * Rv2 (x, y) +-+? N (x, y) * RvN (x, y) + R 0 (x, y)
G(x,y) = ^i(x,y)*Gvi(x,y) G (x, y) = ^ i (x, y) * Gvi (x, y)
+ ^2(x,y)*GV2(x,y)+' + N (X, y)*GvN (x, y)+G0 (x, y)+ ^ 2 (x, y) * G V 2 (x, y) + '+ N (X, y) * GvN (x, y) + G 0 (x, y)
B(x,y) = (x5y)*Bvi(x,y) B (x, y) = (x 5 y) * B v i (x, y)
+ ^2(x,y)*Bv2(x,y)+- + N (X, y)*BVN (x, y) + B0 (x, y) + ^ 2 (x, y) * Bv2 (x, y) +-+ N (X, y) * B V N (x, y) + B 0 (x, y)
ここにおいて R(x,y)、 Ci(x,y)、 B(x,y)は、 出力部 111 に出力される各 ピクセルの G、 B成分であり、 ! ^)、 Rvl(x,y)、 Gvl(x,y)、'Bvl(x, y) は、ビデオプレーン 2002の第 1プレーンに格納されている動画像データ の合成 α値及び RGB成分であり、 i82(x,y)、 Rv2(x,y)、 Gv2(x,y), Bv2(x, y) は、ビデオプレーン 2002の第 2プレーンに格納されている動画像データ の合成 α値及ぴ RGB成分であり、 i3N(x, y)、 RvN(x,y)、 GvN(x,y)、 BvN(x, y) は、.ビデオプレーン 2002の第 Nプレーンに格納されている動画像データ の合成 "値及び RGB成分であり、 R。(x,y)、 G。(x,y)、 B。(x, y)は OSDプレ —ン 107に格納されている RGB成分である。 Here, R (x, y), Ci (x, y), and B (x, y) are the G and B components of each pixel output to the output unit 111, and! ^), R vl (x, y), G vl (x, y), and 'B vl (x, y) are the combined alpha value and RGB of the video data stored in the first plane of the video plane 2002. I8 2 (x, y), R v2 (x, y), G v2 (x, y), B v2 (x, y) are the moving images stored in the second plane of the video plane 2002. a synthetic α Ne及Pi RGB components of the image data, i3 N (x, y) , R vN (x, y), G vN (x, y), B vN (x, y) is. video plane 2002 R. (x, y), G. (x, y), B. (x, y) are the OSD planes. This is the RGB component stored in 107.
<動作 > 以上のように構成された画像合成装置 300は、図 11 に示す画像合成装 置 100の動作の流れとほぼ同じである。 <Operation> The operation of the image synthesizing device 300 configured as described above is almost the same as the flow of the operation of the image synthesizing device 100 shown in FIG.
ただし以下の点で異なっている。  However, they differ in the following points.
すなわちステツプ S1002の処理を EPG生成部 2003が行い、 EPG生成部 2003は、 1つの動画像コンポーネントのではなく複数の動画像コンポ一 ネン卜の表示位置及び表示サイズをビデオ再生部 2001 に通知する。  That is, the EPG generation unit 2003 performs the process of step S1002, and the EPG generation unit 2003 notifies the video reproduction unit 2001 of the display positions and display sizes of a plurality of moving image components instead of one moving image component.
またステップ S1003の処理を第 6合成部 2004が行う。  The process of step S1003 is performed by the sixth synthesis unit 2004.
またステップ S 1004の処理を第 7合成部 2005が行い、第 7合成部 2005 は、 複数の動画像コンポ一ネントそれぞれに対応する合成 値を算出し てビデオプレーン 2002に格納する。  The process of step S1004 is performed by the seventh synthesizing unit 2005, and the seventh synthesizing unit 2005 calculates a synthesized value corresponding to each of the plurality of moving image components and stores the calculated value in the video plane 2002.
またステップ S1005の処理をビデオ再生部 2001が行い、ビデオ再生部 2001 は、 複数の動画像を再生してビデオプレーン 2002に格納する。 さらにステップ S1006の処理を第 8合成部 2006が行い、 第 8合成部 2006は、複数の動画像コンポーネントの RGB成分をそれぞれの合成な値 で重み付けた値と、 第 6合成画像データの RGB成分とを加算し、 加算後 に得られる合成画像の RGB 成分を出力部 11 1 に出力する(ステップ S1006)。  The video playback unit 2001 performs the process of step S1005, and the video playback unit 2001 plays back a plurality of moving images and stores them in the video plane 2002. Further, the processing of step S1006 is performed by the eighth compositing unit 2006, and the eighth compositing unit 2006 computes the weighted RGB components of the plurality of moving image components with their composite values and the RGB components of the sixth composite image data. Are added, and the RGB components of the composite image obtained after the addition are output to the output unit 111 (step S1006).
このようにして第 8合成部 2006は、停止の指示があるまでビデオプレ ーン' 2002の各プレーンと 0SDプレーン 107とを合成して出力しつづけ、 ビデオ再生部 2001、第 6合成部 2004及び第 7合成部 2005の処理と並行 して処理を行う。  In this way, the eighth synthesizing unit 2006 continues synthesizing and outputting each plane of the video plane '2002 and the 0SD plane 107 until the stop instruction is given, and outputs the video reproducing unit 2001, the sixth synthesizing unit 2004, and Processing is performed in parallel with the processing of the seventh combining unit 2005.
く実施形態 4> Embodiment 4>
く構成〉 Configuration>
図 22は、本発明の実施形態 4に係る画像合成装置の構成を示すブロッ ク図である。  FIG. 22 is a block diagram illustrating a configuration of an image composition device according to Embodiment 4 of the present invention.
同図において画像合成装置 400は、 入力部 101、 制御部 4102、 EPG生 成部 4103、 画像保持部 4104、 ビデオ再生部 105、 ビデオプレーン 106、 0SDプレーン 107、 第 9合成部 4108、 第 10合成部 4109、 第 3合成部 110、 出力部 1 1 1から構成され、 ポーターダフ演算を用いた画像合成を行う。 ポーターダフ演算については、 例えば、 τ. Porter および T. Duff 共著 の r Composi t i ng Di gi tal ImagesJ (SI GGRAPH 84, 253〜259.)に記述され ている。 なお、 本実施形態においても、 必要に応じて図 3 (a) (b) を使 つて説明するものとする。 In the figure, an image synthesizing device 400 includes an input unit 101, a control unit 4102, an EPG generation unit 4103, an image holding unit 4104, a video playback unit 105, a video plane 106, a 0SD plane 107, a ninth synthesis unit 4108, and a tenth synthesis unit. Part 4109, third synthesis part 110, It is composed of an output unit 111 and performs image synthesis using Porter-Duff operation. The Porter-Duff operation is described in, for example, r Composing ltng Digital Images J (SI GGRAPH 84, 253-259.), Co-authored by τ. Porter and T. Duff. Note that, also in the present embodiment, description will be given with reference to FIGS. 3A and 3B as necessary.
ここでポーターダフ演算について簡単に説明しておく。  Here, the porter-duff operation will be briefly described.
ポーターダフ演算は、 ソースのピクセルとデスティネーションのピク セルとを結合するための 1 2種類の演算規則を規定したものである。 ソ ースのピクセルとデスティネーションのピクセルは、 RGB 成分と ' 値と を持つ。 ただしこの α値の定義は、 実施形態 1 ~ 3の α値とは異なる。 実施形態 1〜 3で使用される な値は、 2つの画像間に定義されるもので あつたのに対し、 本実施形態のポーターダフ演算に使用される α値は、 各画像に対して α値が定義されている。 ポーターダフ演算では、 α値を 持つ 2つの画像を合成演算した結果の画像も 値を持つ。 この合成結果 の画像を、 実際に画面に表示する場合、 当該画像の RGB値に α値をかけ 合わせた値が出力される。  The Porter-Duff operation specifies one or two types of operation rules for combining a source pixel and a destination pixel. The source and destination pixels have RGB components and 'values. However, the definition of the α value is different from the α value of the first to third embodiments. The values used in the first to third embodiments are defined between two images, whereas the α value used in the porter-duff operation of the present embodiment is the α value for each image. Is defined. In the Porter-Duff operation, the image resulting from the composite operation of two images with α values also has a value. When the image resulting from the synthesis is actually displayed on the screen, a value obtained by multiplying the RGB value of the image by the α value is output.
本実施形態の画像合成装置 400は、 1 2種類の演算規則のうち有用な 8種類の演算を用いて画像合成を行う。 8種類の演算規則は、 「CLEAR」、 「SRG」、 「SRC— 0VER」、 「DST— 0VER」、 「SRC一 I N」、 「DST一 IN」、 「SRC_0UT」 及 び 「DST— 0UT」 である。  The image synthesizing apparatus 400 of the present embodiment performs image synthesis using eight types of useful calculations out of the 12 types of calculation rules. The eight calculation rules are "CLEAR", "SRG", "SRC-0VER", "DST-0VER", "SRC-1 IN", "DST-1 IN", "SRC_0UT" and "DST-0UT". is there.
「CLEAR」 は、 デステイネ一シヨンの RGB成分及び α値の両方をクリァ する。ソースとデスティネーションのどちらも入力として使用されない。 本実施形態においてはデステイネーシヨンは 0SDプレーン 107に保持さ れている画像に相当し、 ソースは画像フアイル i の画像に相当する。  “CLEAR” clears both the RGB component and α value of the destination. Neither the source nor the destination is used as input. In the present embodiment, the destination corresponds to the image held in the 0SD plane 107, and the source corresponds to the image of the image file i.
「SBC」 は、 ソースをデスティネーションにコピーする  "SBC" copies source to destination
「SRC— 0VERJ は、 ソースをデスティネーションの上に重ね合わせる。 「DST— 0VERJ は、 デスティネーションをソースの上に重ね合わせ、 そ の結果生成された RGB成分によりデスティネーションを置き換える。 r SRC_INJ は、 デスティネーションと重なり合うソース部分によりデ スティネーシヨンを置き換える。 "SRC-0VERJ overlays the source on the destination. DST-0VERJ overlays the destination on the source and replaces the destination with the resulting RGB components. r SRC_INJ replaces the destination with the source part that overlaps the destination.
「DST_IN」 は、 ソースと重なり合うデスティネーショ ン部分によりデ スティ ネーシ ヨ ンを置き換える。  “DST_IN” replaces the destination with the destination part that overlaps the source.
「SRC_0UT」 は、 デスティネーションとは重ならないソース部分により デスティネーシ ョ ンを置き換える。  “SRC_0UT” replaces the destination with a source part that does not overlap with the destination.
「DST— 0UTJ は、 ソースとは重ならないデスティネーション部分により デスティネーショ ンを置き換える。  "DST-0UTJ replaces the destination with a destination that does not overlap the source.
以下、 他の実施形態とは異なる符号の構成要素について説明する。 Hereinafter, components having reference numerals different from those of the other embodiments will be described.
制御部 41 02は、画像合成装置 400の構成要素全てを制御する。 より具 体的には、 画像合成装置 400のオンが指示されると、 ビデオ再生部 105 に放送番組を再生させる。 チャ ンネル切替えが指示されると、 ビデオ再 生部 105 に現在再生中のものとは別の放送番組を再生させる。 EPG表示 のオンが指示されると、 EPG生成部 4103、 ビデオ再生部 105、 第 9合成 部 4108、第 10合成部 4109及び第 3合成部 1 10等を制御して合成画像を 生成させる。  The control unit 4102 controls all the components of the image composition device 400. More specifically, when the image synthesis device 400 is instructed to be turned on, the video reproduction unit 105 reproduces a broadcast program. When the channel switching is instructed, the video reproducing unit 105 reproduces a broadcast program different from the one currently being reproduced. When the ON of the EPG display is instructed, the EPG generation unit 4103, the video reproduction unit 105, the ninth synthesis unit 4108, the tenth synthesis unit 4109, the third synthesis unit 110, and the like are controlled to generate a synthesized image.
EPG生成部 4103は、 実施形態 1 と同様に、 放送局より放送される EPG 情報を取得して保持し、 EPG情報に基づいて複数の画像フアイルと 1 つ のインデックスフアイルとを生成し、 画像保持部 4104に格納する。 さら に EPG生成部 4103は、 EPG情報から EPG表示画面を構成する動画像のコ ンポ一ネントの表示サイズ及び表示位置を抽出し、 ビデオ再生部 105に 出力する。  As in the first embodiment, the EPG generation unit 4103 acquires and holds EPG information broadcasted from a broadcasting station, generates a plurality of image files and one index file based on the EPG information, and stores the image files. Stored in section 4104. Further, the EPG generation unit 4103 extracts the display size and the display position of the component of the moving image constituting the EPG display screen from the EPG information, and outputs the same to the video reproduction unit 105.
画像保持部 4104は、複数の画像フアイルと 1つのインデックスフアイ ルとを保持する。  The image holding unit 4104 holds a plurality of image files and one index file.
インデックスファイルは、 複数の画像ファイルを管理するためのもの で、 複数の画像情報から構成される。 1つの画像情報が 1つの画像ファ ィルに対応している。 複数の画像情報は、 インデックスファイル内にお いてコンポーネントの重ね合わせ順序と同じ順序に配列される。 画像情 報は、 画像種別と演算種別と格納位置とから構成される。 画像種別は、 画像ファィルの画像が静止画像であるか動画像であるかを示す。 演算種 別は、 ポー夕ダフに規定される 1 2種類の演算のうち、 どの演算を用い るかを表す。格納位置は、画像保持部 4104における画像フアイルの先頭 の位置を示す。 The index file is for managing a plurality of image files and is composed of a plurality of image information. One image information corresponds to one image file. The plurality of pieces of image information are arranged in the index file in the same order as the components are superimposed. Image information The report includes an image type, a calculation type, and a storage location. The image type indicates whether the image of the image file is a still image or a moving image. The calculation type indicates which of the 12 types of calculation specified in the Pouffer Duff is used. The storage position indicates the head position of the image file in the image holding unit 4104.
図 23 (a) は、 イ ンデックスフ ァイルの一例を示す。 同図のイ ンデッ . クスファイル 4410は、 画像情報 4421、 442 及び 4423から構成され、 同 順にコンポーネン トの重ね合わせ順序を表す。 すなわち画像情報 4421 が最下位層のコンポーネントに対応し、画像情報 4422がその次の層のコ ンポーネントに対応し、画像情報 4423が最上位層のコンポ一ネントに対 応する。 列 41 1側の値は、 コンポーネントの画像種別を示し、 「0」 が静 止画像、 「1」 が動画像を示す。 列 413の値は演算種別を示す。 列 413に 入り得る値と演算種別との関係を図 2 3 ( b ) に示す。 例えば行 44 2 2列 4 1 3に格納されている 「3」 は演算 「S R C O V E R」 を、 行 44 2 3列 4 1 3、行 44 2 1列 4 1 3に格納されている「2」は演算「S R C」 を表す。 列 412側の値は、 画像ファイルの格納位置を示す。  FIG. 23 (a) shows an example of the index file. The index file 4410 shown in the figure is composed of image information 4421, 442, and 4423, and indicates the order of superposition of components in the same order. That is, the image information 4421 corresponds to the component of the lowest layer, the image information 4422 corresponds to the component of the next layer, and the image information 4423 corresponds to the component of the highest layer. The value on the column 41 1 side indicates the image type of the component, “0” indicates a still image, and “1” indicates a moving image. The value in column 413 indicates the type of operation. Figure 23 (b) shows the relationship between the values that can be entered in column 413 and the operation type. For example, “3” stored in row 44 2 2 column 4 1 3 calculates the operation “SRCOVER”, and “2” stored in row 44 2 3 column 4 13 and row 44 2 1 column 4 13 Represents the operation "SRC". The value in column 412 indicates the storage location of the image file.
また画像 430、 440、 450 は、 それぞれコンポーネント 202、 203、 204 に対応し、 それぞれの画像ファ -ィル中の画像データをイメージ的に示し . たものである。 ここにおいて画像 440は、 ,コンポーネント 203に対応す る画像データの全ての RGB成分が 0であることを示している。 ポーター ダ.フ演算では、 全ての画像に対して 値がセッ.トされるため、 画像 4 3 0は一番下のコンポーネントであるが、 各ピクセルに対して任意の α値 がセッ トされる。  The images 430, 440, and 450 correspond to the components 202, 203, and 204, respectively, and represent the image data in the respective image files. Here, the image 440 indicates that all the RGB components of the image data corresponding to the component 203 are 0. In the Porter-Duff operation, the value is set for all images, so image 430 is the bottom component, but any alpha value is set for each pixel .
画像保持部 4104は、複数の画像フアイルと 1つのイ ンデックスフアイ ルとを保持する。  The image holding unit 4104 holds a plurality of image files and one index file.
第 9合成部 4108は、制御部 4102から指示を受けると、画像保持部 4104 • に保持されている複数の画像ファィルの画像データを合成して第 9合成 画像データを生成し 0SDプレーン 107に格納する。 この処理を第 9合成 処理と呼ぶ。 Upon receiving an instruction from the control unit 4102, the ninth combining unit 4108 combines the image data of the plurality of image files held in the image holding unit 4104 to generate ninth combined image data, and stores it in the 0SD plane 107. I do. This processing is performed in the ninth synthesis Called processing.
図 24は、 第 9合成部 4108による合成の手順を示すフローチヤ一トで める。  FIG. 24 is a flowchart showing the procedure of the synthesis by the ninth synthesis unit 4108.
伺図において、 図 9と同じステップ番号のステップでは同じ処理が行 われる。 以下、 図 9とは異なるステップ番号の処理について説明する。 ステップ S4802:第 9合成部 4108は、 画像情報 i に示される格納位置 に格納された画像フアイル i及び画像情報 i に示される演算種別を読み 出す。  In the inquiry diagram, the same process is performed in steps having the same step numbers as those in FIG. Hereinafter, processing of step numbers different from those in FIG. 9 will be described. Step S4802: The ninth combining section 4108 reads out the image file i stored in the storage location indicated by the image information i and the operation type indicated by the image information i.
ステップ S4805: ステップ S4802で読み出した演算種別に応じて、 ピ クセル単位に図 25に示すポーターダフアルファ合成演算を行う。  Step S4805: According to the operation type read in step S4802, the porter duff alpha synthesis operation shown in FIG. 25 is performed for each pixel.
ステップ S4806 :動画像の RGB成分を 0とおいて、 演算種別に応じて、. ピクセル単位に図 26に示す演算を行 。  Step S4806: The RGB components of the moving image are set to 0, and the calculation shown in FIG. 26 is performed in pixel units according to the type of calculation.
ステップ S4807:演算種別に応じて、 ピクセル単位に図. 27に示す α値 の計算を行う。  Step S4807: The α value shown in FIG. 27 is calculated for each pixel according to the operation type.
なお、 図 25、 図 26、 図 27はポーターダフ演算の中で意味があるとい われている 8演算のみについて式を示している。  Note that FIGS. 25, 26, and 27 show equations for only eight operations that are said to be significant in the Porter-Duff operation.
第 10合成部 4109 は、 制御部 4102 から指示を受けると、 画像保持部 4104 に格納されている画像データから O S Dプレーン 1 0 7に対する ビデオプレーン 1 0 6の α値を生成し、 ビデオプレーン 1 0 6に格納す る。  Upon receiving an instruction from the control unit 4102, the tenth combining unit 4109 generates an α value of the video plane 106 for the OSD plane 107 from the image data stored in the image holding unit 4104, and Store in 6.
図 28は.、第 10合成部 4109による合成の手順を示すフローチャートで ある。  FIG. 28 is a flowchart showing the procedure of combining by the tenth combining unit 4109.
同図において、図 10と同じステップ番号のステップでは同じ処理が行 われる。 よって以下、 図 10とは異なるステップ番号の処理について説明 . する。  In the figure, the same processing is performed in steps having the same step numbers as those in FIG. Therefore, the process of step numbers different from those in FIG. 10 will be described below.
ステップ' S1202:第 10合成部 4109は、 画像情報 i に示される格納位 置に格納された画像フアイル i及び画像情報 i に示される演算種別を読 み出す。 ステップ S4905: 第 10合成部 4109は、 演算種別に応じて、 ピクセル 単位に図 29に示す演算を行う。基本的に、動画像の上に静止画像が描画 されるので、 動画像の成分が弱められる事になる。 図 29の表中、 はビ デォプレーン 1 0 6の各ピクセルの合成 値、 《 iは、 取り出した画像 ファイルのビデオプレーン 1 0 6上に重ね合わせられる各ピクセルの 値であり、 これらの 値は理論上 0から 1の間を取る。 実際の実現方法 として、 値が 0〜2 5 5や 0〜 1 5などの値で表現する。 Step S1202: The tenth combining unit 4109 reads the image file i stored in the storage location indicated by the image information i and the operation type indicated by the image information i. Step S4905: The tenth combining section 4109 performs the calculation shown in FIG. 29 on a pixel basis according to the calculation type. Basically, since a still image is drawn on the moving image, the components of the moving image are weakened. In the table of Fig. 29, is the composite value of each pixel of the video plane 106, and << is the value of each pixel superimposed on the video plane 106 of the extracted image file, and these values are theoretical values. Top Take between 0 and 1. As an actual implementation method, the value is represented by a value such as 0 to 255 or 0 to 15.
ステップ S4906: 第 10合成部 4109は、 演算種別に応じて、 ピクセル 単位に図 30 に示す演算を行う。 なお、 第 9合成部 4108 と第 10合成部 4109は同期して動作する。 ステップ S 1202、 S 903、 S 904、 S 907はス テツプ S 4802、 S 803、 S 804、 S 807 の処理結果をそのまま利用して同 期をとつてもよい。 また、 ステップ S 4905及びステップ S 4906は、 ステ ップ S 807の前に終了しなければならない。  Step S4906: The tenth combining section 4109 performs the calculation shown in FIG. 30 on a pixel basis according to the calculation type. The ninth combining section 4108 and the tenth combining section 4109 operate in synchronization. Steps S1202, S903, S904, and S907 may be synchronized using the processing results of steps S4802, S803, S804, and S807 as they are. Steps S4905 and S4906 must be completed before step S807.
以上のような構成により画像合成装置 400は、 ポー夕一ダフ演算によ る画像合成を行うことができ、 実施形態 1 と同様にメモリを小さく し、 乗算回数を少なくすることができる。  With the above-described configuration, the image synthesizing apparatus 400 can perform image synthesizing by Powell-Duff operation, and can reduce the memory and the number of times of multiplication similarly to the first embodiment.
図 31 は、本実施形態の演算を C言語風に記述したプログラムである。 このプログラムは 1つのピクセルだけに焦点をあてている。 R , G , B、 aは O S Dプレーン上の 1つのピクセルの R , G , B、 値を表し, a νはこのピクセルに対応するビデオプレーンの合成 a値を表す。 FIG. 31 is a program describing the operation of the present embodiment in a C language style. This program focuses on only one pixel. R, G, B, and a represent the R, G, B, and value of one pixel on the OSD plane, and av represents the composite a value of the video plane corresponding to this pixel.
1.行目から 5行目までが初期化処理である。 8、 1- 1、 1 4行目が第 9合成部 4108が受け持つ演算である。 9、 1 2行目が第 10合成部 4109 が受け持つ演算で、 動画像の貢献度 (|8値)、 すなわち合成 α値を計算し ている。 1 6 , 1 7 , 1 8行目が第 3合成部 1 1 0が受け持つ演算であ る。 ここで 1 6 , 1 7 , 1 8行目は別のスレッ ドで平行して行い、 永久 ループしていてもよい。ここで 8行目の具体的な演算は図 26で示され、 1 1行目の具体的な演算は図 25で示ざれる。 また、 9行目の具体的な演 算は図 30で示され、 1 2行目の具体的な演算は図 29で示される。 ここ で図 29, 29 のなは図 31 中の vに相当する。 1 4行目の具体的な演算 は図 27で示される。 1. Lines 5 to 5 are the initialization process. The eighth, 1-1, and 14th lines are operations performed by the ninth combining unit 4108. The 9th and 12th lines are the operations assigned to the tenth combining unit 4109, which calculates the contribution (| 8 value) of the moving image, that is, the combined α value. The 16th, 17th, and 18th rows are the operations performed by the third synthesis unit 110. Here, the 16th, 17th, and 18th lines are performed in parallel by another thread, and may be in a permanent loop. Here, the specific calculation on the eighth line is shown in FIG. 26, and the specific calculation on the 11th line is shown in FIG. Further, the specific operation on the ninth line is shown in FIG. 30, and the specific operation on the 12th line is shown in FIG. here 29 and 29 correspond to v in FIG. The specific calculation on the 14th line is shown in FIG.
以上のように、 実施形態 4の画像合成装置 400は、 各画像に定められ たポーターダフ演算の演算種別に応じて、 複数の静止画像の合成と動画 像の合成比率の算出と行い、 その後、 演算種別に応じて動画像の各フレ ームと合成された静止画像との合成を行う。 これにより動画像のフレー ムが更新される度に、 複数の静止画像と動画像のフレームとの合成を行 う必要がなくなり、計算にかかる負荷が軽くなり、処理速度も速くなる。 処理速度が速くなる結果、 動画像の再生レートに合わせてリアルタイム に画像を合成して表示することができる。 さらにリアルタイムで合成を 行えることにより、 フレームバッファに 1つのフレームの画像が展開さ れる度に当該フ レームの画像と合成された静止画像との合成を行うので、 動画像のフ レーム展開用のフ レームバッファの容量を小さくすることが できるという効果がある。  As described above, the image synthesizing apparatus 400 according to the fourth embodiment performs the synthesis of a plurality of still images and the calculation of the synthesis ratio of a moving image in accordance with the calculation type of the Porter-duff calculation determined for each image. Each frame of the moving image is combined with the combined still image according to the type. This eliminates the need to combine multiple still images and moving image frames each time a moving image frame is updated, reducing the computational load and increasing the processing speed. As a result of the higher processing speed, images can be combined and displayed in real time according to the playback rate of the moving image. In addition, since the image can be synthesized in real time, each time an image of one frame is expanded in the frame buffer, the image of the frame is synthesized with the synthesized still image. The effect is that the capacity of the frame buffer can be reduced.
以上、本発明の画像合成装置について実施形態に基づいて説明したが、 本発明は上記実施形態に限らない。 すなわち、  As described above, the image synthesizing apparatus of the present invention has been described based on the embodiments, but the present invention is not limited to the above embodiments. That is,
( 1 ) 実施形態 1、 2において、 動画像コンポーネントの合成 α値は、 ビデオプレーン 106、. 1501 に保持されるが、 動画像コンポ一ネントが 1 つの場合、 0SDプレーン 107、 1501 に保持されるよう構成してもよい。 ( 2 ) 実施形態 1〜 4において、 メモリ等においてピクセルデータは、 R、 (1) In the first and second embodiments, the combined α value of the moving image component is held in the video plane 106, 1501, but when there is one moving image component, it is held in the 0SD plane 107, 1501. It may be configured as follows. (2) In the first to fourth embodiments, pixel data in a memory or the like is R,
G、 B、 の順に格納されているが、 この順に限らず、 例えば 、 B、 G、 B の順や. α、 B、 G、 R の順等で格納されてもよい。 またピクセル毎ではな く、 R、 G、 Β、 の各成分毎に全ピクセルに対する値が格納されてもよい。G, B, are stored in this order, but are not limited to this order, and may be stored in, for example, the order of B, G, B or the order of .alpha., B, G, R. Also, values for all pixels may be stored for each component of R, G, Β, and not for each pixel.
( 3 ) R、 G、 Β、 αのデータ長は各 1バイ ト、 つまり R、 G、 Βは 0から 2 5 5の 2 5 6階調であり、 合計で約 1 6 7 0万色を表現できる。 しかし(3) The data length of R, G, Β, and α is 1 byte each, that is, R, G, and で are 256 gradations from 0 to 255, and a total of about 1.670 million colors Can be expressed. However
R、 G、 B、 のデータ長を各 4ビッ トで表現した、 いわゆるハイカラーに してもよい。 The data length of R, G, B, may be expressed in 4 bits each, so-called high color.
( 4 ) 実施形態 1〜4において RGB成分のかわりに YUV成分を用いても よい。 (4) In the first to fourth embodiments, the YUV component may be used instead of the RGB component. Good.
( 5 ) 画像保持部 104、 4104は、 静止画像コンポーネントの画像データ として、 ピクセルデータを保持するが、 ベクタデータ、 すなわち数式や 直線、 点、 円などの図形要素によって構成されるデータを保持し、 第 1 合成部 108が画像データどうしの合成を行う際にピクセルデータに展開 するよう構成してもよい。 この構成により、 画像保持部 104、 4104のメ モリ容量をより小さぐすることができる。  (5) The image holding units 104 and 4104 hold pixel data as image data of the still image component, but hold vector data, that is, data composed of graphic elements such as mathematical expressions, straight lines, points, and circles, When the first combining unit 108 combines image data, the first combining unit 108 may develop the pixel data. With this configuration, the memory capacity of the image holding units 104 and 4104 can be further reduced.
( 6 ) 画像合成装置 100、 200、 300及び 400の各構成要素の動作手順を、 汎用のコンピュータ又はプログラム実行機能を有する機器等に実行させ るためのコンピュータプログラムにしてもよい。  (6) A computer program for causing a general-purpose computer or a device having a program execution function or the like to execute the operation procedure of each component of the image synthesis devices 100, 200, 300, and 400 may be used.
特に実施形態 4の画像合成装置 400に対応するコンピュータプロダラ ムは、 ポーターダフの 8種類の演算に対応する 8種類の演算器を不要に し、 当該コンピュータプログラムを実行する 1つのプロセッサに 8種類 全ての演算を行わせることができるという効果がある。  Particularly, the computer program corresponding to the image synthesizing apparatus 400 of the fourth embodiment eliminates the need for eight types of arithmetic units corresponding to the eight types of operations of Porter Duff, and all eight types are provided in one processor that executes the computer program. Has the effect that the calculation of (1) can be performed.
またこのコンピュータプログラムを、 記録媒体に記録し又は各種通信 路等を介して、 流通させ頒布することもできる。 このような記録媒体に は I Cカード、 光ディスク、 フレキシブルディスク、 R O M等がある。 Further, this computer program can be recorded on a recording medium or distributed and distributed via various communication channels. Such recording media include an IC card, an optical disk, a flexible disk, and a ROM.
( 7 ) 第 3合成部 1 10は、 ビデオ再生のフレーム毎に上述の加算処理を 行うよう構成されており、 すなわちフレームの再生と同期して加算処理 を行うよう構成されているが、 同期させる必要はなく、 非同期に加算 理を行うよう構成されていてもよい。 第 5.合成部 1503及び第 8合成部 2006についても同様である。 産業上の利用可能性 (7) The third synthesizing unit 110 is configured to perform the above-described addition processing for each frame of video playback, that is, to perform the addition processing in synchronization with frame playback. It is not necessary, and the configuration may be such that the addition process is performed asynchronously. The same applies to the fifth synthesis unit 1503 and the eighth synthesis unit 2006. Industrial applicability
複数の画像を合成して出力する画像表示装置に関し、 特にデジタル放 送を受信するテレビに用いる。  An image display device that combines and outputs a plurality of images, and is particularly used for a television that receives digital broadcasts.

Claims

請 求 の 範 囲  The scope of the claims
1 .  1.
動画像と複数の静止画像とを合成して合成画像を生成する画像合成装 置であって、  An image synthesizing apparatus for synthesizing a moving image and a plurality of still images to generate a synthetic image,
画像合成順序を含む合成情報であって、 前記合成画像に対する合成前 の各画像の合成比率を求めるための前記合成情報と前記複数の静止画像 とを取得する第 1取得手段と、  First obtaining means for obtaining synthesis information for obtaining a synthesis ratio of each image before synthesis with respect to the synthesis image and the plurality of still images, the synthesis information including an image synthesis order;
前記合成情報に基づいて前記複数の静止画像を合成して 1つの合成静 止画像を生成する第 1合成手段と、  First combining means for combining the plurality of still images based on the combining information to generate one combined still image;
前記合成情報に基づいて前記合成画像に対する前記動画像の合成比率 を求める算出手段と、  Calculating means for calculating a synthesis ratio of the moving image to the synthesized image based on the synthesis information;
前記動画像を構成する各フレームを取得する第 2取得手段と、' 前記動画像の合成比率を用いて前記各フレームと前記合成静止画像と を合成する第 2合成手段と  A second acquisition unit for acquiring each frame constituting the moving image; and a second combining unit for combining each frame and the combined still image using a combination ratio of the moving image.
を備えることを特徴とする画像合成装置。  An image synthesizing apparatus comprising:
2. 2.
前記合成情報は、 さらに、 前記各画像について、 当該画像に対応する 係数と当該係数を用いた合成演算を示す演算情報とを含む  The synthesis information further includes, for each image, a coefficient corresponding to the image and operation information indicating a synthesis operation using the coefficient.
ことを特徴とする請求範囲第 1項に記載の画像合成装置。  2. The image synthesizing device according to claim 1, wherein:
3. 3.
前記画像合成装置は、  The image composition device,
画像を格納するための第 1 フ レームバッファと、  A first frame buffer for storing images,
前記動画像を構成する各フレームを格納するための第 2フレームバッ ファとを有し、  A second frame buffer for storing each frame constituting the moving image,
前記第 1合成手段は、  The first combining means includes:
前記第 1取得手段により取得された複数の静止画像を前記画像合成順 序に従って読み出し、 前記係数と前記演算情報とを用いて前記第 1 フレ ームバッファの記憶内容と読み出された各画像との合成を行い、 その合 成の結果で前記第 1 フ レームバッファの記憶内容を置き換え、 The plurality of still images acquired by the first acquiring means are combined in the image synthesis order. The stored contents of the first frame buffer are combined with the read contents of the first frame buffer using the coefficients and the calculation information, and the combined contents are stored in the first frame buffer. Replace
前記第 2取得手段は、  The second acquisition means,
取得した前記各フ レームを前記第 2 フ レームパッフ ァに格納し、 前記第 2合成手段は、 Each of the obtained frames is stored in the second frame buffer, and the second synthesizing means includes:
前記第 2 フ レームバッ フ ァに格納された各フレームと前記第 1 フ レー ムバッファの記憶内容とを前記動画像の合成比率を用いて合成し、 前記 第 2 フ レームバッフ ァに格納する  Each frame stored in the second frame buffer and the content stored in the first frame buffer are synthesized using the synthesis ratio of the moving image, and the resultant is stored in the second frame buffer.
ことを特徴とする請求の範囲第 2項に記載の画像合成装置。  3. The image synthesizing device according to claim 2, wherein:
4. Four.
前記第 1合成手段は、 前記画像合成順序において前記動画像の 1つ前 の静止画像の合成後、 かつ動画像の 1つ後の静止画像の合成前に、 前記 動画像に対応する係数及び演算情報を用いて、 前記第 1 フ レームバッフ ァに記憶される画像に対する合成演算を行い、 前記合成演算の結果で前 記第 1 フ レームバッフ ァの内容を置き換える  The first synthesizing means includes a coefficient and an operation corresponding to the moving image, after synthesizing the still image immediately before the moving image in the image synthesizing order and before synthesizing the still image immediately after the moving image. Using the information, a combining operation is performed on the image stored in the first frame buffer, and the result of the combining operation replaces the contents of the first frame buffer.
ことを特徴とする請求の範囲第 3項に記載の画像合成装置。 5.  4. The image synthesizing device according to claim 3, wherein: Five.
前記画像合成装置は、 画像表示用の画面を有し、 前記第 1合成手段に よる合成、 前記第 2取得手段による取得及び前記第 2合成手段による合 成は、 並行して行われ、  The image synthesizing device has a screen for image display, and the synthesizing by the first synthesizing unit, the obtaining by the second obtaining unit, and the synthesizing by the second synthesizing unit are performed in parallel.
前記第 2フ レームバッフ ァは、 前記第 2合成手段による合成結果の格 納と同時に前記画面への出力を行う  The second frame buffer outputs to the screen at the same time as storing the synthesis result by the second synthesis means.
ことを特徴とする請求の範囲第 3項に記載の画像合成装置。 前記合成情報は、 さらに、 前記複数の画像それぞれについて、 当該画 像と当該画像以外の画像との合成結果に対する合成比率を示す合成係数 を含む 4. The image synthesizing device according to claim 3, wherein: The synthesis information further includes, for each of the plurality of images, a synthesis coefficient indicating a synthesis ratio with respect to a synthesis result of the image and an image other than the image.
ことを特徴とする請求の範囲第 1項に記載の画像合成装置。  2. The image synthesizing device according to claim 1, wherein:
7. 7.
前記画像合成装置は、  The image composition device,
画像を格納するための第 1 フ レームバッフ ァと、  A first frame buffer for storing images,
前記動画像を構成する各フレームを格納するための第 2フレームパッ ファを有し、  A second frame buffer for storing each frame constituting the moving image,
前記第 1合成手段は、  The first combining means includes:
前記第 1取得手段により取得された複数の静止画像を前記画像合成順 序に従って読み出し、 前記合成係数を用いて前記第 1 フ レームバッファ の記憶内容と読み出された各画像との合成を行い、 その合成の結果で前 記第 1 フ レームバッフ ァの記憶内容を置き換え、  Reading the plurality of still images obtained by the first obtaining means in accordance with the image synthesis order; synthesizing the storage contents of the first frame buffer with each read image using the synthesis coefficient; The result of the synthesis replaces the stored contents of the first frame buffer,
前記第 2取得手段は、  The second acquisition means,
取得した前記各フ レームを前記第 2 フ レームバッフ ァに格納し、 前記第 2合成手段は、 Each of the obtained frames is stored in the second frame buffer, and the second synthesizing means includes:
前記第 2 フ レームバッファに格納された各フ レームと前記第 1 フ レー ムパッファの記憶内容とを前記動画像の合成比率を用いて合成し、 前記 第 2 フ .レームバッファに格納する . .  Combining each frame stored in the second frame buffer with the stored contents of the first frame buffer using the combination ratio of the moving image, and storing the synthesized frame in the second frame buffer.
ことを特徴とする請求の範囲第 6項に記載の画像合成装置。  7. The image synthesizing device according to claim 6, wherein:
8. 8.
前記第 1合成手段は、 前記画像合成順序において前記動画像の 1つ前 の静止画像の合成後、 かつ動画像の 1つ後の静止画像の合成前に、 前記 動画像に対応する合成係数を用いて、 前記第 1 フレームバッファに記億 される画像に対する合成演算を行い、 前記合成演算の結果で前記第 1 フ レームバッファの内容を置き換える The first synthesizing unit, after synthesizing the still image immediately before the moving image in the image synthesizing order, and before synthesizing the still image immediately after the moving image, calculates a synthesizing coefficient corresponding to the moving image. To perform a compositing operation on the image stored in the first frame buffer, and use the result of the compositing operation to generate the first frame. Replace the contents of the frame buffer
ことを特徴とする請求の範囲第 7項に記載の画像合成装置。  8. The image synthesizing device according to claim 7, wherein:
9. 9.
前記画像合成装置は、 画像表示用の画面を有し、  The image combining device has a screen for displaying an image,
前記第 1合成手段による合成、 前記第 2取得手段による取得及び前記 第 2合成手段による合成は、 並行して行われ、  The combining by the first combining unit, the acquisition by the second acquiring unit, and the combining by the second combining unit are performed in parallel,
前記第 2フレームパッファは、 前記第 2合成手段による合成結果の格 納と同時に前記画面への出力を行う  The second frame buffer outputs to the screen simultaneously with storage of the synthesis result by the second synthesis means.
ことを特徴とする請求の範囲第 7項に記載の画像合成装置。  8. The image synthesizing device according to claim 7, wherein:
10. Ten.
前記画像合成順序は画像を重ね合わせる順序を表し、前記合成係数は、 前記複数の画像それぞれについて、 前記画像合成順序における最背面の 画像から当該画像までの合成結果に対する当該画像の合成比率を表すァ ルファ値であり、  The image combining order represents an order of superimposing images, and the combining coefficient represents, for each of the plurality of images, a combining ratio of the image to a combining result from the rearmost image to the image in the image combining order. Lufa value,
前記算出手段は、 前記動画像と前記動画像より前面に位置する画像全 てとに対応するアルファ値から、 前記合成画像に対する前記動画像の合 成比率を算出する ——' ·  The calculating means calculates a composition ratio of the moving image with respect to the composite image from alpha values corresponding to the moving image and all images located in front of the moving image.
ことを特徴とする請求の範囲第 6項に記載の画像合成装置。  7. The image synthesizing device according to claim 6, wherein:
1 1 . 1 1.
前記画像.合成装置は、  The image.
画像を格納するための第 1 フ レームバッフ ァと、  A first frame buffer for storing images,
前記動画像を構成する各フレームを格納するための第 2 フ レームパッ ファとを有し、  A second frame buffer for storing each frame constituting the moving image,
前記第 1合成手段は、  The first combining means includes:
前記第 1取得手段により取得された複数の静止画像から前記画像合成 順序が示す最背景から最前景の方向へと順番に 1つの静止画像を読み出 し、 前記アルファ値を用いて前記第 1 フレームバッファの記憶内容と読 み出された各画像との合成を行い、 その合成の結果で前記第 1 フレーム バッフ ァの記憶内容を置き換え、 The image synthesis from a plurality of still images acquired by the first acquisition means; One still image is read in order from the foreground to the foreground indicated by the order, and the stored contents of the first frame buffer are combined with each read image using the alpha value. Replacing the stored contents of the first frame buffer with the result of the synthesis;
前記第 2取得手段は、  The second acquisition means,
取得した前記各フ レームを前記第 2フレームバッファに格納し、 前記第 2合成手段は、 Each of the acquired frames is stored in the second frame buffer, and the second synthesizing unit includes:
前記第 2フレームバッファに格納された各フレームと前記第 1 フ レー ムバッファの記憶内容とを前記動画像の合成比率を用いて合成し、 前記 第 2 フ レームバッファに格納する  The respective frames stored in the second frame buffer and the contents stored in the first frame buffer are synthesized using the synthesis ratio of the moving image, and the resultant is stored in the second frame buffer.
ことを特徴とする請求の範囲第 10項に記載の画像合成装置。  11. The image synthesizing device according to claim 10, wherein:
12. 12.
前記第 1合成手段は、 前記画像合成順序において前記動画像の 1つ前の 静止画像の合成後、 かつ動画像の 1つ後の静止画像の合成前に、 前記動 画像のアルファ値を用いて、 前記第 1 フレームバッファに記憶される画 像に対する合成演算を行い、 前記合成演算の結果で前記第 1 フ レームパ ッファの内容を置き換える -. The first synthesizing unit uses the alpha value of the moving image after synthesizing the still image immediately before the moving image in the image synthesizing order and before synthesizing the still image immediately after the moving image in the image synthesizing order. Perform a combining operation on the image stored in the first frame buffer, and replace the contents of the first frame buffer with the result of the combining operation.
ことを特徴とする請求の範囲第 1 1項に記載の画像合成装置。  12. The image synthesizing device according to claim 11, wherein:
13. 13.
前記画像合成装置は、 画像表示用の画面を有し、:  The image synthesizing device has a screen for displaying an image, and includes:
前記第 1合成手段による合成、 前記第 2取得手段による取得及び前記 第 2合成手段による合成は、 並行して行われ、  The combining by the first combining unit, the acquisition by the second acquiring unit, and the combining by the second combining unit are performed in parallel,
前記第 2フ レームバッファは、 前記第 2合成手段による合成結果の格 納と同時に前記画面への出力を行う  The second frame buffer stores the result of synthesis by the second synthesis means and outputs the result to the screen at the same time.
ことを特徴とする請求の範囲第 1 1項に記載の画像合成装置。 12. The image synthesizing device according to claim 11, wherein:
14. 14.
前記画像合成装置は、 さらに、  The image synthesizing device further comprises:
前記重ね合わせ順序において隣り合う 2つの画像の順序を入替える入 替え手段と、  Replacement means for replacing the order of two adjacent images in the superposition order;
入替え後と入替え前とで、 合成が行われた場合の合成結果が互いに同 じになるよう、 入替え後の 2つの画像に対応するアルファ値を求めて更 新する更新手段と  An updating means for obtaining and updating an alpha value corresponding to the two images after the replacement so that the combined result when the composition is performed before and after the replacement is the same as each other.
を備え、  With
前記第 1合成手段、 前記算出手段及び前記第 2合成手段は、 前記入替 え手段による入替え後の順序と前記更新手段による更新後のアルフ ァ値 とを用いて各処理を行う  The first synthesizing unit, the calculating unit, and the second synthesizing unit perform each process using the order after the replacement by the replacing unit and the alpha value after the updating by the updating unit.
ことを特徴とする請求の範囲第 10項に記載の画像合成装置。 15..  11. The image synthesizing device according to claim 10, wherein: 15 ..
前記入替え手段は、  The replacement means,
アルファ値が [i]で前記順序が下位から数えて i番目の画像 i と、ァ ルファ値が で前記順序が下位から数えて i + 1番目の画像 i +1との 順序を入替え、 ·.  The order of the i-th image i whose alpha value is [i] and the order is counted from the lower order, and the order of the i-th image i +1 whose alpha value is and the order is counted from the lower order are interchanged.
前記更新手段は、 入替え後に i番目となる画像 i + 1 に対するアル.ファ 値を a [i] * - a [i + 1] )とし、入替え後に i + 1番目となる画像 i に対する アルフ ァ値を α [ 1 ]ノ(1 - a a [i + 1 ] ) )とする  The updating means sets an alpha value for the i-th image i + 1 after the replacement as a [i] *-a [i + 1]) and an alpha value for the i + 1-th image i after the replacement. Is α [1] ノ (1-aa [i + 1]))
ことを特徴とする請求の範囲第 14項に記載の画像合成装置。  15. The image synthesizing device according to claim 14, wherein:
16. 16.
前記画像合成装置は、  The image composition device,
前記第 1取得手段が取得する前記複数の静止画像を記憶するための記 憶部を有し、  A storage unit for storing the plurality of still images acquired by the first acquisition unit,
前記複数の静止画像それぞれは、 前記合成画像と同じか又は少ない画 素数の画像データと、 当該画素データの前記合成画像上でのレイァゥ ト を示すレイアウ ト情報とからなり、 Each of the plurality of still images is the same or less than the composite image. It is composed of image data of prime numbers and layout information indicating a layout of the pixel data on the composite image,
前記第 1合成手段、 前記算出手段及び前記第 2合成手段は、 前記レイ ァゥ ト情報より定まる前記各画像どうしの重ね合わせ部分についてそれ それの処理を行う  The first synthesizing unit, the calculating unit, and the second synthesizing unit perform respective processes on a superimposed portion of the respective images determined from the ray information.
ことを特徴とする請求の範囲第 1項に記載の画像合成装置。  2. The image synthesizing device according to claim 1, wherein:
17. 17.
前記画像合成装置は、  The image composition device,
前記第 1.取得手段が取得する前記複数の静止画像を記憶するための記 憶部を有し、  A storage unit for storing the plurality of still images acquired by the first acquisition unit,
前記複数の静止画像それぞれは、 ベクタデータ形式で表され、 前記第 1合成手段は、 ベクタデータを画素データに変換してから合成 を行う  Each of the plurality of still images is represented in a vector data format, and the first synthesizing unit converts the vector data into pixel data and then synthesizes
ことを特徴とする請求の範囲第 1項に記載の画像合成装置。  2. The image synthesizing device according to claim 1, wherein:
18. 18.
複数の動画像と複数の静止画像とを合成しで合成画像を生成する画像 合成装置であって、  An image synthesizing device that generates a synthesized image by synthesizing a plurality of moving images and a plurality of still images,
画像合成順序を含む合成情報であって、 前記合成画像に対する合成前 の各画像の合成比率を求めるための前記合成情報と前記複数の静止画像 とを取得する第 1取得手段と、  First obtaining means for obtaining synthesis information for obtaining a synthesis ratio of each image before synthesis with respect to the synthesis image and the plurality of still images, the synthesis information including an image synthesis order;
前記合成情報に基づいて前記複数の静止画像を合成して 1つの合成静 止画像を生成する第 1合成手段と、  First combining means for combining the plurality of still images based on the combining information to generate one combined still image;
前記合成情報に基づいて前記合成画像に対する前記複数の動画像それ それの合成比率を求める算出手段と、  Calculating means for calculating a combination ratio of the plurality of moving images with respect to the combined image based on the combination information;
前記複数の動画像それぞれを構成する各フレームを取得する第 2取得 手段と、 A second acquisition for acquiring each frame constituting each of the plurality of moving images Means,
前記複数の動画像それぞれの合成比率を用いて、 前記複数の動画像そ れそれの各フ レームと前記合成静止画像とを合成する第 2合成手段とを 備える  A second synthesizing unit for synthesizing each of the plurality of moving images and each frame thereof with the synthesized still image using a synthesizing ratio of each of the plurality of moving images.
ことを特徴とする画像合成装置。  An image synthesizing device, characterized in that:
19. 19.
動画像と複数の静止画像とを合成して合成画像を生成する画像合成装 置であつて、  An image synthesizing apparatus for synthesizing a moving image and a plurality of still images to generate a synthesized image,
前記複数の静止画像を取得する第 1取得手段と、  First acquisition means for acquiring the plurality of still images,
前記複数の静止画像を合成して 1つの合成静止画像を生成する第 1合 成手段と、  First synthesizing means for synthesizing the plurality of still images to generate one synthesized still image;
前記動画像を構成する各フ レームを取得する第 2取得手段と、 前記動画像を構成する各フレームと前記合成静止画像とを合成する第 2合成手段とを備える  A second acquisition unit that acquires each frame that constitutes the moving image; and a second combination unit that combines each frame that constitutes the moving image with the combined still image.
ことを特徴とする画像合成装置。  An image synthesizing device, characterized in that:
20. 20.
動画像と複数の静止画像とを合成して合成画像を生成する.処理をコン ピュータに行わせるためのプログラムを記録したコンピュー夕読み取り 可能な記録媒体であって、 当該プログラムはコンピュー夕に、  A computer-readable recording medium that stores a program for causing a computer to perform a process by combining a moving image and a plurality of still images to generate a composite image.
画像合成順序を含む合成情報であって、 前記合成画像に対する合成前 の各画像の合成比率を求めるための前記合成情報と前記複数の静止画像 とを取得する第 1取得ステップと、  A first obtaining step of obtaining synthesis information for obtaining a synthesis ratio of each image before synthesis with respect to the synthesis image and the plurality of still images, which is synthesis information including an image synthesis order;
前記合成情報に基づいて前記複数の静止画像を合成して 1つの合成静 止画像を生成する第 1合成ステップと、  A first combining step of combining the plurality of still images based on the combining information to generate one combined still image;
前記合成情報に基づいて前記合成画像.に対する前記動画像の合成比率 を求める算出ステップと、 前記動画像を構成する各フレームを取得する第 2取得ステップと、 前記動画像の合成比率を用いて前記各フレームと前記合成静止画像と を合成する.第 2合成 テップとを実行させる A calculating step of calculating a synthesis ratio of the moving image to the synthesized image based on the synthesis information; A second obtaining step of obtaining each frame constituting the moving image; and synthesizing the respective frames and the synthesized still image using a synthesizing ratio of the moving image.
ことを特徴とする記録媒体。  A recording medium characterized by the above-mentioned.
21. twenty one.
動画像と複数の静止画像とを合成して合成画像を生成する処理をコン ピュータに実行させるためのプログラムであって、  A program for causing a computer to execute a process of combining a moving image and a plurality of still images to generate a combined image,
画像合成順序を含む合成情報であって、 前記合成画像に対する合成前 の各画像の合成比率を求めるための前記合成情報と前記複数の静止画像 とを取得する第 1取得ステップと、  A first obtaining step of obtaining synthesis information including an image synthesis order and obtaining the synthesis information and the plurality of still images for obtaining a synthesis ratio of each image before synthesis with respect to the synthesis image;
前記合成情報に基づいて前記複数の静止画像を合成して 1つの合成静 止画像を生成する第 1合成ステップと、  A first combining step of combining the plurality of still images based on the combining information to generate one combined still image;
前記合成情報に基づいて前記合成画像に対する前記動画像の合成比率 を求める算出ステップと、  A calculating step of calculating a composite ratio of the moving image to the composite image based on the composite information;
前記動画像を構成する各フレームを取得する第 2取得ステップと、 前記動画像の合成比率を用いて前記各フレームと前記合成静止画像と を合成する第 2合成ステップと - " からなるプログラム η , A second acquisition step of acquiring each frame constituting the moving image, a second combining step of combining the said synthetic still image and the respective frame with the mixing ratio of the moving image - program of "eta,
PCT/JP2001/000462 2000-01-24 2001-01-24 Image synthesizing device, recorded medium, and program WO2001054400A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
AU27102/01A AU2710201A (en) 2000-01-24 2001-01-24 Image composting apparatus, recording medium and program
EP01901545A EP1170942A4 (en) 2000-01-24 2001-01-24 Image synthesizing device, recorded medium, and program
US09/937,240 US6888577B2 (en) 2000-01-24 2001-01-24 Image compositing device, recording medium, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000014493 2000-01-24
JP2000-14493 2000-01-24

Publications (1)

Publication Number Publication Date
WO2001054400A1 true WO2001054400A1 (en) 2001-07-26

Family

ID=18541942

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/000462 WO2001054400A1 (en) 2000-01-24 2001-01-24 Image synthesizing device, recorded medium, and program

Country Status (5)

Country Link
US (1) US6888577B2 (en)
EP (1) EP1170942A4 (en)
CN (1) CN1197351C (en)
AU (1) AU2710201A (en)
WO (1) WO2001054400A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102959947A (en) * 2010-07-06 2013-03-06 松下电器产业株式会社 Screen synthesising device and screen synthesising method

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0007974D0 (en) * 2000-04-01 2000-05-17 Discreet Logic Inc Processing image data
JP2003233366A (en) * 2002-02-13 2003-08-22 Nec Access Technica Ltd Display composing circuit and portable electronic equipment
MXPA05005133A (en) * 2002-11-15 2005-07-22 Thomson Licensing Sa Method and apparatus for composition of subtitles.
US8737810B2 (en) * 2002-11-15 2014-05-27 Thomson Licensing Method and apparatus for cropping of subtitle elements
JP2005038263A (en) * 2003-07-16 2005-02-10 Canon Inc Image processor, image processing method, recording medium, and program
KR100545855B1 (en) * 2003-09-22 2006-01-24 삼성전자주식회사 Driving circuit for data display and driving method for data display using same
JP2005123775A (en) * 2003-10-15 2005-05-12 Sony Corp Apparatus and method for reproduction, reproducing program and recording medium
CN100440944C (en) * 2003-11-11 2008-12-03 精工爱普生株式会社 Image processing device, image processing method, program thereof, and recording medium
WO2005071660A1 (en) * 2004-01-19 2005-08-04 Koninklijke Philips Electronics N.V. Decoder for information stream comprising object data and composition information
JP2005221853A (en) * 2004-02-06 2005-08-18 Nec Electronics Corp Controller driver, mobile terminal, and display panel driving method
MXPA06009473A (en) * 2004-02-23 2006-12-14 Matsushita Electric Ind Co Ltd Display processing device.
JP4422513B2 (en) * 2004-03-10 2010-02-24 富士通株式会社 Image display device, image display method, image display program, and computer-readable recording medium recording image display program
US7250983B2 (en) * 2004-08-04 2007-07-31 Trident Technologies, Inc. System and method for overlaying images from multiple video sources on a display device
US20060050153A1 (en) * 2004-09-07 2006-03-09 Boll David W Imaging system and method
KR101019482B1 (en) * 2004-09-17 2011-03-07 엘지전자 주식회사 Apparatus for changing a channel in Digital TV and Method for the same
US7477785B2 (en) 2004-11-19 2009-01-13 Microsoft Corporation Fuzzy image comparator
US7620248B2 (en) * 2004-11-19 2009-11-17 Microsoft Corporation System and method for validating graphical components of images
EP1832109A2 (en) * 2004-12-24 2007-09-12 Matsushita Electric Industrial Co., Ltd. Data processing apparatus and data processing method
CN101120589A (en) * 2005-01-18 2008-02-06 松下电器产业株式会社 Image synthesis device
US8074248B2 (en) 2005-07-26 2011-12-06 Activevideo Networks, Inc. System and method for providing video content associated with a source image to a television in a communication network
US9294728B2 (en) * 2006-01-10 2016-03-22 Imagine Communications Corp. System and method for routing content
JP2007228167A (en) * 2006-02-22 2007-09-06 Funai Electric Co Ltd Panel type video display device and liquid crystal television
JP4786712B2 (en) * 2006-04-25 2011-10-05 三菱電機株式会社 Image composition apparatus and image composition method
EP2632165B1 (en) 2007-01-12 2015-09-30 ActiveVideo Networks, Inc. Interactive encoded content system including object models for viewing on a remote device
US9826197B2 (en) 2007-01-12 2017-11-21 Activevideo Networks, Inc. Providing television broadcasts over a managed network and interactive content over an unmanaged network to a client device
JP4780053B2 (en) * 2007-07-23 2011-09-28 ソニー株式会社 Image processing apparatus, image processing method, and program
KR20090011518A (en) 2007-07-26 2009-02-02 엘지전자 주식회사 Apparatus and method for displaying
FR2921189B1 (en) * 2007-09-18 2015-11-20 Thales Sa DEVICE FOR TEMPORARILY PRESENTING DATA ON A DISPLAY SCREEN
JP5408906B2 (en) * 2008-05-28 2014-02-05 キヤノン株式会社 Image processing device
CN101800042A (en) * 2009-02-06 2010-08-11 中兴通讯股份有限公司 Method and device for simultaneously displaying multimedia application and other application during concurrence
KR20100137655A (en) * 2009-06-23 2010-12-31 삼성전자주식회사 Method and apparatus for displaying electrical program guide
US9565466B2 (en) * 2010-03-26 2017-02-07 Mediatek Inc. Video processing method and video processing system
CN103039078B (en) * 2010-04-20 2015-09-23 熵敏通讯股份有限公司 The system and method for user interface is shown in three dimensional display
AU2011315950B2 (en) 2010-10-14 2015-09-03 Activevideo Networks, Inc. Streaming digital video between video devices using a cable television system
US8963799B2 (en) * 2011-01-11 2015-02-24 Apple Inc. Mirroring graphics content to an external display
EP2695388B1 (en) 2011-04-07 2017-06-07 ActiveVideo Networks, Inc. Reduction of latency in video distribution networks using adaptive bit rates
US8724029B2 (en) * 2011-05-26 2014-05-13 Adobe Systems Incorporated Accelerating video from an arbitrary graphical layer
JP5806007B2 (en) * 2011-06-15 2015-11-10 オリンパス株式会社 Imaging device
KR101946861B1 (en) * 2011-09-21 2019-02-13 삼성전자주식회사 Method and apparatus for synchronizing media data of multimedia broadcast service
WO2013106390A1 (en) 2012-01-09 2013-07-18 Activevideo Networks, Inc. Rendering of an interactive lean-backward user interface on a television
US9800945B2 (en) 2012-04-03 2017-10-24 Activevideo Networks, Inc. Class-based intelligent multiplexing over unmanaged networks
US9123084B2 (en) 2012-04-12 2015-09-01 Activevideo Networks, Inc. Graphical application integration with MPEG objects
US10521250B2 (en) 2012-09-12 2019-12-31 The Directv Group, Inc. Method and system for communicating between a host device and user device through an intermediate device using a composite video signal
US9535722B2 (en) * 2012-09-12 2017-01-03 The Directv Group, Inc. Method and system for communicating between a host device and a user device through an intermediate device using a composite graphics signal
US9137501B2 (en) 2012-09-12 2015-09-15 The Directv Group, Inc. Method and system for communicating between a host device and user device through an intermediate device using syntax translation
CN103974006A (en) * 2013-01-29 2014-08-06 北京哲朗科技有限公司 High-performance OSD design
WO2014145921A1 (en) 2013-03-15 2014-09-18 Activevideo Networks, Inc. A multiple-mode system and method for providing user selectable video content
US9219922B2 (en) 2013-06-06 2015-12-22 Activevideo Networks, Inc. System and method for exploiting scene graph information in construction of an encoded video sequence
US9294785B2 (en) 2013-06-06 2016-03-22 Activevideo Networks, Inc. System and method for exploiting scene graph information in construction of an encoded video sequence
WO2014197879A1 (en) * 2013-06-06 2014-12-11 Activevideo Networks, Inc. Overlay rendering of user interface onto source video
KR20150033162A (en) * 2013-09-23 2015-04-01 삼성전자주식회사 Compositor and system-on-chip having the same, and driving method thereof
US9788029B2 (en) 2014-04-25 2017-10-10 Activevideo Networks, Inc. Intelligent multiplexing using class-based, multi-dimensioned decision logic for managed networks
EP3059972A1 (en) * 2015-02-19 2016-08-24 Alcatel Lucent Methods and devices for transmission of interactive content
WO2016138621A1 (en) * 2015-03-02 2016-09-09 华为技术有限公司 Image processing method and apparatus, and electronic terminal
US10021363B2 (en) * 2015-10-16 2018-07-10 Novatek Microelectronics Corp. Method and apparatus for processing source image to generate target image
KR102488333B1 (en) * 2016-04-27 2023-01-13 삼성전자주식회사 Electronic eevice for compositing graphic data and method thereof
US10565964B2 (en) * 2017-04-24 2020-02-18 Intel Corporation Display bandwidth reduction with multiple resolutions
US10109039B1 (en) * 2017-04-24 2018-10-23 Intel Corporation Display engine surface blending and adaptive texel to pixel ratio sample rate system, apparatus and method
JP2019207635A (en) * 2018-05-30 2019-12-05 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Mobile body, image generating method, program, and recording medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08163437A (en) * 1994-12-07 1996-06-21 Matsushita Electric Ind Co Ltd Video synthesis circuit
JP2000194354A (en) * 1998-12-25 2000-07-14 Toshiba Corp Multi-window picture display device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5351067A (en) * 1991-07-22 1994-09-27 International Business Machines Corporation Multi-source image real time mixing and anti-aliasing
KR100616258B1 (en) * 1996-05-06 2007-04-25 코닌클리케 필립스 일렉트로닉스 엔.브이. Simultaneously displaying a graphic image and a video image
JP3685277B2 (en) * 1996-07-24 2005-08-17 ソニー株式会社 Image display control apparatus and method
JP3742167B2 (en) * 1996-12-18 2006-02-01 株式会社東芝 Image display control device
US6621932B2 (en) * 1998-03-06 2003-09-16 Matsushita Electric Industrial Co., Ltd. Video image decoding and composing method and video image decoding and composing apparatus
US6208354B1 (en) * 1998-11-03 2001-03-27 Ati International Srl Method and apparatus for displaying multiple graphics images in a mixed video graphics display
US6570579B1 (en) * 1998-11-09 2003-05-27 Broadcom Corporation Graphics display system
US6362854B1 (en) * 1999-11-16 2002-03-26 Media 100 Inc. Effecting video transitions between video streams with a border

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08163437A (en) * 1994-12-07 1996-06-21 Matsushita Electric Ind Co Ltd Video synthesis circuit
JP2000194354A (en) * 1998-12-25 2000-07-14 Toshiba Corp Multi-window picture display device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1170942A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102959947A (en) * 2010-07-06 2013-03-06 松下电器产业株式会社 Screen synthesising device and screen synthesising method
US9047846B2 (en) 2010-07-06 2015-06-02 Panasonic Intellectual Property Corporation Of America Screen synthesising device and screen synthesising method

Also Published As

Publication number Publication date
CN1365571A (en) 2002-08-21
EP1170942A1 (en) 2002-01-09
EP1170942A4 (en) 2007-03-07
CN1197351C (en) 2005-04-13
AU2710201A (en) 2001-07-31
US6888577B2 (en) 2005-05-03
US20020171765A1 (en) 2002-11-21

Similar Documents

Publication Publication Date Title
WO2001054400A1 (en) Image synthesizing device, recorded medium, and program
US5912710A (en) System and method for controlling a display of graphics data pixels on a video monitor having a different display aspect ratio than the pixel aspect ratio
US8204357B2 (en) Reproducing device, reproducing method, reproducing program and recording medium
US8698840B2 (en) Method and apparatus for processing video and graphics data to create a composite output image having independent and separate layers of video and graphics display planes
US6763175B1 (en) Flexible video editing architecture with software video effect filter components
JP3177221B2 (en) Method and apparatus for displaying an image of an interesting scene
US5448315A (en) System and method of interactively forming and editing digital user-arranged video streams in real-time from a plurality of simultaneously-displayed digital source video streams
US8306399B1 (en) Real-time video editing architecture
EP1703744A2 (en) Apparatus and method for stereoscopic image recording/reproduction and display
US7623140B1 (en) Method and apparatus for processing video and graphics data to create a composite output image having independent and separate layers of video and graphics
US7006156B2 (en) Image data output device and receiving device
JPH087567B2 (en) Image display device
JP2007522732A (en) Changing the aspect ratio of the image displayed on the screen
JP2001285749A (en) Image synthesizer, recording medium and program
JP4215423B2 (en) Image data output device
KR100273786B1 (en) Image processing apparatus
US8063916B2 (en) Graphics layer reduction for video composition
JPH11146275A (en) Image processing display device
JPH11143441A (en) Device and method for controlling image display
JP5033098B2 (en) Image display device, image display method, and image display program
JPH08328519A (en) Image output device for multidisplay
JP2007158983A (en) Apparatus and method of reproduction, recording method, video display apparatus and recording medium
JPH10124039A (en) Graphic display device
JPH04198987A (en) Image processor
JPH0259795A (en) Multi-video system

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 01800667.1

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AU CN US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE ES FR GB IT

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 09937240

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 27102/01

Country of ref document: AU

WWE Wipo information: entry into national phase

Ref document number: 2001901545

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2001901545

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2001901545

Country of ref document: EP