WO2007129367A1 - 画像合成装置および画像合成方法 - Google Patents

画像合成装置および画像合成方法 Download PDF

Info

Publication number
WO2007129367A1
WO2007129367A1 PCT/JP2006/308653 JP2006308653W WO2007129367A1 WO 2007129367 A1 WO2007129367 A1 WO 2007129367A1 JP 2006308653 W JP2006308653 W JP 2006308653W WO 2007129367 A1 WO2007129367 A1 WO 2007129367A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
data
unit
smoothing
generated
Prior art date
Application number
PCT/JP2006/308653
Other languages
English (en)
French (fr)
Inventor
Yasunori Tsubaki
Atsushi Tanaka
Toshiyuki Hagiwara
Manami Naitou
Original Assignee
Mitsubishi Denki Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Denki Kabushiki Kaisha filed Critical Mitsubishi Denki Kabushiki Kaisha
Priority to EP06732313A priority Critical patent/EP2012301A4/en
Priority to CN2006800543622A priority patent/CN101427302B/zh
Priority to PCT/JP2006/308653 priority patent/WO2007129367A1/ja
Priority to JP2008514316A priority patent/JP4786712B2/ja
Priority to US12/298,294 priority patent/US20090122081A1/en
Publication of WO2007129367A1 publication Critical patent/WO2007129367A1/ja
Priority to HK09108374.0A priority patent/HK1130557A1/xx

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/18Use of a frame buffer in a display terminal, inclusive of the display panel
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports

Definitions

  • the present invention relates to an image composition device for moving images and performing effective display.
  • An advantage of content display using a computer is that content replacement is very easy.
  • an image memory for storing pixel values constituting a plurality of images, a key plane for storing a composition ratio between the pixel values, and composition between the pixel values by the composition ratio And generating a display start address for reading the pixel value and the composition ratio from the image memory and the key plane to the image composition means.
  • Display control means a scroll register holding an address value different from the display start address, and the display start address
  • Patent Document 1 Japanese Patent Laid-Open No. 5-313645
  • the conventional image synthesizing apparatus is configured as described above, it is possible to move the image only with the accuracy of the integer pixel unit in the display device during one period of the vertical synchronization signal when moving the image.
  • the vertical sync signal is moved with an accuracy of an integer pixel unit per cycle, the transition time that can be set only for the time when the transition effect is completed is limited, and it becomes difficult to operate at the desired transition time. There was a problem.
  • the present invention has been made to solve the above-described problems, and controls the movement of an image with accuracy in units of decimal pixels (hereinafter referred to as subpixels) for each period of a vertical synchronization signal. It is an object of the present invention to provide an image composition device that can set transition time more flexibly by responding to the movement of an image with sub-pixel accuracy.
  • An image composition device includes a transition information calculation unit that calculates the number of moving pixels as transition information of a transition image, and truncates the decimal points of the number of moving pixels calculated by the transition information calculation unit.
  • the composition ratio based on the number of moving pixels of the image data in the transition image corresponding to the number of moving pixels rounded down and the image data in the transition image corresponding to the number of rounded moving pixels rounded up to the next decimal point of the number of moving pixels
  • an image composition unit for outputting the synthesized data synthesized in step (b).
  • FIG. 1 is a block diagram showing a configuration of an image composition device according to Embodiment 1 of the present invention.
  • FIG. 2 is an explanatory diagram showing an outline of a scroll effect of image data in the image composition device according to Embodiment 1 of the present invention.
  • FIG. 3 is a flowchart showing a processing procedure of the image composition device according to Embodiment 1 of the present invention. It is.
  • FIG. 4 is a block diagram showing a configuration of an image composition device according to Embodiment 2 of the present invention.
  • FIG. 5 is an explanatory diagram showing an outline of the scroll effect of image data in the image composition device according to Embodiment 2 of the present invention.
  • FIG. 6 is an explanatory view showing a screen change due to a scroll effect of image data in the image composition device according to Embodiment 2 of the present invention.
  • ⁇ 7 A flowchart showing a processing procedure of the image composition device according to the second embodiment of the present invention.
  • FIG. 9 is an explanatory diagram showing how image data is changed in each part of the image composition device according to Embodiment 2 of the present invention.
  • FIG. 10 is an explanatory diagram showing a change in luminance value of image data in each part of the image composition device according to Embodiment 2 of the present invention.
  • FIG. 11 is a block diagram showing a configuration of an image composition device according to Embodiment 3 of the present invention.
  • ⁇ 12] A block diagram showing a configuration of an image composition device including an output selection unit according to Embodiment 3 of the present invention.
  • FIG. 14 is an explanatory diagram showing a change in image data in each part of the image composition device according to Embodiment 3 of the present invention.
  • FIG. 15 is an explanatory diagram showing changes in luminance values of image data in each part of the image composition device according to Embodiment 3 of the present invention.
  • FIG. 16 is a block diagram showing a configuration of an image composition device according to Embodiment 4 of the present invention.
  • ⁇ 17] is a flowchart showing the processing procedure of the image composition device according to Embodiment 4 of the present invention.
  • FIG. 18 is a block diagram showing a configuration of an image composition device according to Embodiment 5 of the present invention. ⁇ 19] A flowchart showing the processing procedure of the image composition device according to the fifth embodiment of the present invention. Is.
  • FIG. 20 is a block diagram showing a configuration of an image composition device according to Embodiment 6 of the present invention.
  • FIG. 21 is a flowchart showing a processing procedure of the image composition device according to the sixth embodiment of the present invention.
  • FIG. 22 is a block diagram showing a configuration of an image composition device according to Embodiment 7 of the present invention.
  • FIG. 23 is a flowchart showing a processing procedure of the image composition device according to the seventh embodiment of the present invention.
  • FIG. 24 is an explanatory diagram showing a screen change due to a slide-in effect of image data in the image composition device according to the embodiment of the present invention.
  • FIG. 25 is an explanatory diagram showing a screen change due to a slide-out effect of image data in the image composition device according to the embodiment of the present invention.
  • FIG. 26 is an explanatory diagram showing a screen change due to a wipe effect of image data in the image composition device according to the embodiment of the present invention.
  • FIG. 27 is an explanatory view showing a screen change due to the modification (1) of the wipe effect of the image data in the image composition device according to the embodiment of the present invention.
  • FIG. 28 is an explanatory view showing a screen change due to a modification (2) of the wipe effect of the image data in the image composition device according to the embodiment of the present invention.
  • FIG. 1 is a block diagram showing a configuration of an image composition device according to Embodiment 1 of the present invention.
  • This image synthesizing apparatus transitions one image by a designated transition effect, and includes a transition information calculating unit 2 and an image synthesizing unit 30.
  • the image synthesis unit 30 includes image generation units 3a and 3b, an image interpolation synthesis unit 4 and an output control unit 5, and includes image generation units 3a and 3b and an image interpolation synthesis unit 4.
  • the transition information given from the transition information calculation unit 2 to the image generation units 3a and 3b and the image interpolation / synthesis unit 4 is the number of moving pixels mv of the image.
  • the moving image prime number indicates the number of pixels in which the moving force of the image moved by the transition effect is moved. If the drawing timing is synchronized with the vertical sync signal, it will occur every 16 66 mm when the refresh rate is 60 Hz.
  • an image file 1 holds image data, includes image data 11 to be changed, and gives image data 11 as an input to the image generation units 3a and 3b.
  • a buffer can be set for image file 1, extract the necessary image data 11 and store it in the buffer!
  • the necessary image data 11 may be extracted and stored in advance in the buffer, or a buffer may be installed. If this is not possible, the sequential image data 11 may be output from the image file 1 to the image composition unit 30.
  • the transition information calculation unit 2 calculates the moving pixel number mv of the image.
  • the image generation unit 3a calculates the first rendering source of the image data 11 of the image file 1 calculated based on the number of moving pixels rounded down after the decimal point of the number of moving pixels obtained from the transition information calculation unit 2 An area part is obtained as an input, and is output as the first drawing destination area part of the generated data 12a calculated based on the cut-off moving prime as with the first drawing source area, and the decimal point of the number of moving pixels Based on the number of rounded movement pixels that are rounded down, the second drawing source area portion of the image data 11 of image file 1 calculated as follows is obtained as input, and the rounded moving pixels are obtained in the same manner as this second drawing source area.
  • the generated data 12a calculated based on the number is output as the second drawing destination area portion.
  • the generated data 12a is read if the image data 11 is read and generated and stored when the buffer can be built in the image generating unit 3a. Output while generating.
  • the image generation unit 3b calculates the first rendering source of the image data 11 of the image file 1 calculated based on the number of moving pixels rounded up after the decimal point of the number of moving pixels obtained from the transition information calculation unit 2
  • the area part is obtained as an input, and is output as the first drawing destination area part of the generated data 12b calculated based on the round-up moving prime as with the first drawing source area, and the decimal point of the number of moving pixels Based on the number of moving pixels rounded up
  • the second drawing source region portion of the image data 11 of the image file 1 to be calculated is obtained as an input, and the second generation data 12b is calculated based on the number of rounded moving pixels in the same manner as the second drawing source region. Is output as the drawing destination area.
  • the generated data 12b is read if the image data 11 is read and generated and stored when the buffer can be built in the image generating unit 3b, and is output when the buffer cannot be built. Output while generating.
  • the image interpolation synthesis unit 4 synthesizes the generation data 12a and 12b of the image generation units 3a and 3b based on a later-described synthesis ratio f calculated based on the number of moving pixels mv of the image obtained from the transition information calculation unit 2.
  • interpolated composite data 13 is generated.
  • This interpolated composite data 13 shall be output after the generated data 12a and 12b are read and combined and stored if a buffer can be built in the image generation unit 4, and read if it cannot be built in. It is assumed that it is output while sequentially synthesizing with.
  • the interpolated synthesized data 13 becomes synthesized data 31 that is the output of the image synthesizing unit 30.
  • the output controller 5 receives the synthesized data 31 and outputs it to an external display device (not shown) for display at every drawing timing.
  • the transition information calculation unit 2 updates the number of moving pixels as transition information, and the image composition device repeats the above operation.
  • FIG. 2 shows an outline of the transition effect of scrolling to the left with the right force as method (A) and method (B).
  • the method (A) is a method in which the left end rectangular area cut out from the image data 11 having the same size between the image data 11 and the generated data 12a is pasted as the right end rectangular area of the generated data 12a.
  • the method (B) is sufficiently large in the horizontal direction with respect to the effective area to be synthesized by the input image data 11, and is cut out while appropriately setting the drawing source area and pasted directly into the drawing destination area. It is a method.
  • the left edge region is cut out and pasted in combination with the (A) method
  • the drawing source area of one image data 11 and the drawing destination area of the generation data 12a are divided into two parts and generated in two stages.
  • one generation data that can be accessed in the subsequent stage is obtained by using the drawing source area portion of the plurality of image data in the previous stage as an input and obtaining the corresponding drawing destination area portion.
  • FIG. 3 is a flowchart showing the processing procedure of the image composition device according to Embodiment 1 of the present invention. The processing procedure of the image composition apparatus will be described with reference to FIG.
  • the transition information calculation unit 2 calculates the number mv of moving pixels in the image of the initial pre-transition force.
  • the moving pixel number mv can be obtained by increasing LVZT to the moving pixel number in the previous drawing when the movement is performed at a constant speed.
  • L is the total number of moving pixels of the image
  • T is the transition time
  • V is the update interval time of the display image of the display device.
  • the moving pixel number mv calculated here is notified to the image generation units 3a and 3b together with area calculation formula information for obtaining a drawing source area and a drawing destination area for each image based on a preset transition effect.
  • the image interpolation / synthesis unit 4 is notified to calculate the composition ratio.
  • step ST2 in both the method (A) and method (B) in FIG. 2, the image generation unit 3a determines the number mv of moving pixels given from the transition information calculation unit 2 and the first drawing source area for each image data. Then, from the region calculation formula information for obtaining the first drawing destination region, the cut-off moving image prime number mv-a in the image generation unit 3a is calculated by the following equation (1).
  • floor (mv) indicates a numerical function for rounding down the moving pixel number mv to an integer.
  • Step ST3 is executed only in the case of the method (A) described above.
  • the image generation unit 3 a sets the second rendering source region for the image data 11 of the image file 1 and the generated data 12 a for the calculated moving pixel number mv ⁇ a. 2 drawing destination area is obtained and the second drawing source area of image data 11 is obtained. The minutes are input and output to the second drawing destination area portion of the generated data 12a.
  • the second drawing source area corresponds to the left-end rectangular area cut out from the image data 11 in step ST2, and the second drawing destination area corresponds to the right-end rectangular area for the generated data 12a. .
  • step ST4 in both the method (A) and method (B) in FIG. 2, the image generation unit 3b determines the number mv of moving pixels given from the transition information calculation unit 2 and the first rendering source area for each image data. Then, from the area calculation formula information for obtaining the first drawing destination area, the rounded-up moving picture prime mv-b in the image generation unit 3b is calculated by the following formula (2).
  • ceil (mv) indicates a numerical function for rounding up the moving pixel number mv to an integer.
  • Step ST5 is executed only in the case of method (A) described above.
  • the image generation unit 3b performs the second drawing source region for the image data 11 of the image file 1 and the generated data 12b for the calculated round-up moving pixel number mv ⁇ b.
  • the second drawing destination area is obtained, the second drawing source area portion of the image data 11 is input, and the second drawing destination area portion is output to the generation data 12b.
  • the second drawing source area corresponds to the left-end rectangular area cut out from the image data 11 in step ST4, and the second drawing destination area corresponds to the right-end rectangular area with respect to the generated data 12b.
  • step ST2 to step ST5 described here the application order of the processes may be switched as long as each drawing source area and drawing destination area correspond correctly.
  • step ST6 the image interpolation / synthesis unit 4 uses the number mv of moving pixels obtained from the transition information calculation unit 2 to calculate the synthesis ratio f according to the following equation (3).
  • I '(x, y) is the brightness value of the coordinate (x, y) in the interpolated composite data 13
  • I (x, y) is the raw value
  • the luminance value of the coordinates (X, y) in the generated data 12a, I (x, y) is the locus in the generated data 12b
  • the reference notation is based on the assumption that the data is stored with the built-in key, but the reference notation without the built-in buffer can be expressed as the following equation (5).
  • I '(X, y) (1 -f) -Kx + floor dnv), y) + f' I (x + ceil (mv), y) (5)
  • I (x, y) is the image Indicates the luminance value of coordinates (x, y) in data 11. However, when the right end of the image is reached as shown in Fig. 2, when connecting from the left end of the image, the X coordinate x + floor (mv) and x + ceil (mv) in the above equation (5) are the remainder values for the image width. .
  • the interpolated synthesized data 13 becomes synthesized data 31 that is an output of the image synthesizing unit 30.
  • step ST7 the output control unit 5 displays the generated composite data 31 on the screen of the display device in synchronization with the drawing timing.
  • an image can be physically moved only with an accuracy of an integer pixel unit for each vertical synchronization signal.
  • the image synthesizer that has a setting limit, when moving a decimal pixel (sub pixel) that represents not only an integer but also a decimal point, the image data moved by rounding off the decimal point of the number of pixels to be moved It is possible to control the movement of the image with the precision of the decimal pixel (sub-pixel) unit by creating the image data moved by rounding up and synthesizing them with the composition ratio f of the value after the decimal point. Thus, the effect of canceling the transition time setting restriction can be obtained.
  • the image data 11 is directly referred to from the image file 1 for each drawing, but the image data 11 is used as an image notifier before the start of transition. -The same effect can be obtained by storing and reading out the image buffer power at the time of drawing.
  • the generated data 12a and 12b of the image generating units 3a and 3b and the interpolated combined data 13 of the image interpolating / combining unit 4 may also be configured to store and read out buffers without providing direct output. . Even when the input image file 1 is given in a compressed format, the compression may be canceled at the reference stage of the image data 11, or the compression may be canceled and stored in the buffer. It's okay!
  • the transition effect includes a slide-in effect and a slide-out effect, which will be described later. These are basically methods for setting the drawing source area and the drawing destination area. Can be applied to the image composition apparatus of the present invention.
  • FIG. 4 is a block diagram showing the configuration of the image composition device according to Embodiment 2 of the present invention.
  • This image synthesizer changes two images with a specified transition effect.
  • a configuration range including the image generation units 3a and 3b and the image interpolation / synthesis unit 4 is referred to as an image synthesis unit 30.
  • the same reference numerals in the first embodiment of the present invention denote the same or equivalent ones.
  • the difference between the configuration of FIG. 1 in the first embodiment is that the image file 1 becomes two image files la and lb and is input to the image generation units 3a and 3b, respectively.
  • the method (B) in FIG. 2 of the first embodiment is an example in which the image is larger than the display range.
  • the image is divided into two images, respectively. A description will be given on the case where a drawing source region is obtained and pasted together.
  • the transition information given from the transition information calculation unit 2 to the image generation units 3a and 3b and the image interpolation / synthesis unit 4 is the number of moving pixels mv of the image. To do.
  • the image files la and lb contain image data l la and l ib, and Image data l la and l ib are given as input to the generators 3a and 3b.
  • This image data l la, 11 b is extracted from the image file la, lb if it can be installed, then stored and output, and if the nota cannot be installed, it is output from the image file la, lb. It is assumed that output is performed while sequentially extracting.
  • the transition information calculation unit 2 calculates the number of moving pixels mv of the image corresponding to the transition information indicating the progress of the transition effect.
  • the image generation unit 3a calculates the drawing source region portion of the image data 11a of the image file la calculated based on the number of moving pixels rounded down by rounding down the number of moving pixels obtained from the transition information calculation unit 2. Obtained as input and output as the drawing destination area portion of the generated data 12a calculated based on the number of cut-off moving pixels as with the drawing source area, and also calculated as the image file lb calculated based on the number of cut-off moving pixels The drawing source area portion of the image data l ib is obtained as an input, and is output as the drawing destination area portion of the generated data 12a calculated based on the number of cut-off moving pixels.
  • the generated data 12a is read when the image data l la and l ib are read and generated and stored when the buffer can be built in the image generating unit 3a, and is read when the buffer cannot be built in. It is assumed that the data is output while being generated sequentially.
  • the image generation unit 3b is configured to calculate an image file la calculated based on the number of moving pixels rounded up by rounding up the number of moving pixels obtained from the transition information calculation unit 2.
  • the drawing source area part of the image data 11a is obtained as an input, and it is output as the drawing destination area part of the generated data 12b calculated based on the number of rounding movement pixels in the same way as the drawing source area.
  • the image data calculated by lb The image data l ib
  • the drawing source area part of ib is obtained as an input, and the drawing data area of the generated data 12b is calculated based on the number of pixels to be rounded up in the same way as the drawing source area.
  • This generated data 12b is generated when the image data generation unit 3b has a built-in buffer, reads and generates the image data l la and l ib, stores them, and outputs them. Shall be read and output while being sequentially generated.
  • the image interpolation synthesis unit 4 synthesizes the generated data 12a and 12b based on the synthesis ratio f calculated based on the number of moving pixels mv of the image corresponding to the transition information obtained from the transition information calculation unit 2. Interpolated composite data 13 is then output.
  • This interpolated composite data 13 becomes composite data 31 that is the output of the image compositing unit 30, as shown in the block diagram of FIG.
  • the output control unit 5 receives the synthesized data 31 and outputs it to an external display device (not shown) for display at every drawing timing.
  • the transition information calculation unit 2 updates the number of moving pixels as transition information, and the image composition device repeats the above operation.
  • FIG. 6 is a diagram showing a screen change due to the scroll effect of the image data.
  • the scroll effect refers to an effect in which the previously displayed image appears to be pushed out of the screen by the next displayed image.
  • the image data 1 la, the image data 1 lb, and the display device have the same resolution of 320 ⁇ 48.
  • the drawing source area of the image data 11a is (0, 0) (320, 48) at the start of the transition, and there is no drawing source area of the image data l ib
  • the drawing source area of the image data 11a changes to (n, 0) (320, 48)
  • the drawing source area of the image data l ib changes to (0, 0) (n, 48).
  • the drawing destination area of the image data 11a is (0, 0) one (320—n, 48), and the drawing destination area of the image data l ib is (320—n, 0) (320, 48). .
  • the process is repeated until the area of the drawing source area and the drawing destination area of the image data 11a becomes zero.
  • the image data 11a appears to be pushed out to the left by the image data l ib.
  • the coordinates of a region are shown, they are written as (a, b)-(c, d), which is (a, b) in the upper left coordinate and (c, d) in the lower right coordinate. Indicates a rectangular area.
  • FIG. 7 is a flow chart showing the processing procedure of the image composition device according to Embodiment 2 of the present invention. The processing procedure of the image composition apparatus will be described with reference to FIG.
  • step ST11 as in step ST1 of FIG.
  • the information calculation unit 2 calculates the number of moving pixels mv of the image of the pre-transition force and is set in advance!
  • the area calculation formula information for obtaining the drawing source area and the drawing destination area for each image and the calculated moving picture prime number of the image mv is notified to the image generation units 3a and 3b.
  • Step ST12 to step ST15 are the first drawing source area, first drawing destination area, second drawing source area, and second drawing in step ST2 to step ST5 in FIG. This corresponds to processing in which the destination area is changed to the drawing source area, the drawing destination area, the drawing source area of the image data Lib, and the drawing destination area of the image data 11a according to the second embodiment of the present invention.
  • the application order of the processes may be switched.
  • step ST12 the image generation unit 3a moves the number of moving pixels mv given by the transition information calculation unit 2 and the area calculation formula information for obtaining the drawing source area and the drawing destination area for each image data.
  • the number of pixels mv—a is calculated by the above equation (1) to obtain the drawing source area a of the image data 11a of the image file la and the drawing destination area a of the generated data 12a, and the image data 11a of the image file la
  • the drawing source area a is input and output as the drawing destination area a of the generated data 12a.
  • step ST13 the image generation unit 3a obtains the number mv of moving pixels given from the transition information calculation unit 2 and the area calculation formula information for obtaining the drawing source area and the drawing destination area for each image data.
  • the number of pixels mv—a is calculated according to the above equation (1) to obtain the drawing data area b of the image data l ib of the image file lb and the drawing destination area b of the generated data 12a, and the image data 1 lb of the image file lb
  • the drawing source area b of is input, and the generated data 12a is output as the drawing destination area b.
  • step ST14 the image generation unit 3b moves the number mv of movement pixels given from the transition information calculation unit 2 and the area calculation formula information for obtaining the drawing source region and the drawing destination region for each image data in the image generation unit 3b.
  • the number of pixels mv ⁇ b is calculated by the above equation (2) to obtain the drawing source area a of the image data 11a of the image file la and the drawing destination area a of the generation data 12b, and the image data 11a of the image file la
  • the drawing source area a is input, and is output as the drawing destination area a of the generated data 12b.
  • step ST15 the image generation unit 3b performs the movement given by the transition information calculation unit 2.
  • Image of the image file lb by calculating the number of pixels mv and the area calculation formula information for obtaining the drawing source area and the drawing destination area for each image data by calculating the moving pixel number mv-b in the image generator 3b by the above formula (2).
  • the drawing source area b of the data l ib and the drawing destination area b of the generated data 12b are obtained, and the drawing source area b of the image data 1 lb of the image file lb is input and output as the drawing destination area b of the generated data 12b. .
  • FIG. 8 is a diagram for explaining the relationship between the image data l la and l ib and the generation data 12a and 12b.
  • the drawing source area a cut out from the image data 11a is used as the drawing destination area for each of the generated data 12a and 12b. This shows that processing is performed for outputting to the a portion and outputting the drawing source region b portion cut out from the image data l ib to the respective drawing destination regions b portion of the generated data 12a and 12b.
  • the image generation unit 3a extracts the image data 11a of the drawing source region (7, 0)-(320, 48) from the image file la. Read and write to the drawing destination area (0, 0) one (313, 48) of the generated data 12a. Further, the image generation unit 3a reads the image data l ib of the drawing source area (0, 0)-(7, 48) from the image file lb, and draws the drawing destination area (313, 0)-( 320, 48).
  • the image generation unit 3b reads the image data 11a of the drawing source area (8, 0) (320, 48) from the image file la and draws the drawing destination area (0, 0) (312) of the generation data 12b. , 48). In addition, the image generation unit 3b reads the image data l ib of the drawing source area (0, 0)-(8, 48) from the image file lb, and draws the generated data 12b (312, 0)-(320, 4 Write to 8).
  • step ST16 as in step ST6 of FIG. 3 of the first embodiment, the image interpolation / synthesis unit 4 uses the number of moving pixels mv obtained from the transition information calculation unit 2 to calculate the above equation (3).
  • the generated data 12a and the generated data 12b are blended by the above formula (4) using the composite ratio f calculated by the above, and output as the interpolated composite data 13.
  • This interpolated synthesized data 13 becomes synthesized data 31 that is the output of the image synthesizing unit 30 shown in the block diagram of FIG.
  • step ST17 the same as step ST7 of FIG.
  • the output control unit 5 displays the composite data 31 on the screen of the display device in synchronization with the drawing timing.
  • the image data input when the number of moving pixels mv 7. 466. Changes in the results output from each processing unit will be described in order.
  • the image data 11a and the image data l ib move in the same manner. Therefore, here, when one image data is changed in the same manner as in the second embodiment of the present invention, although the change is shown, the same applies to the two cases, and the pixels in the adjacent areas of the two images are mixed at the boundary.
  • FIG. 9 shows how the image data changes in each part of the image composition device according to Embodiment 2 of the present invention in terms of luminance values.
  • FIG. 10 is a graph showing the luminance values shown in FIG. 9, and shows changes in luminance values in a certain region in the horizontal direction, which is the traveling direction.
  • Figures 10 (a) ⁇ (b), (c), and (d) correspond to Figures 9 (a), (b), (c), and (d), respectively.
  • Fig. 9 (a) and Fig. 10 (a) showing the graph are examples of image data 1 la (l ib) of the image file la (lb).
  • the image data is shown.
  • the image data is moved by 7 pixels in the horizontal direction.
  • the image data is shown. Here, the image data is moved 8 pixels in the horizontal direction.
  • the upper part of Fig. 9 (d) is the ideal image data that takes decimal coordinates, but the pixel values that are actually output are the lower values that take integer coordinates.
  • I (x, y) represents the luminance value of the coordinates (x, y) in the ideal data.
  • the display device has a physical restriction of the same luminance value within the rectangle of one pixel, and the luminance value of the pixel at the horizontal coordinate i in the display device is expressed by the following equation (7).
  • I (i) indicates the luminance value displayed on the pixel whose horizontal coordinate value is i!
  • the size of one pixel depends on the display device, and the luminance value of the image data is also constant at i ⁇ x ⁇ i + l.
  • I ( ⁇ 7) corresponds to the image data of the generated data 12a that is shifted by the number of pixels rounded down to the moving pixel number mv
  • I (x ⁇ 8) is the decimal point of the moving pixel number mv
  • the image data of the generated data 12b shifted by the number of pixels rounded up, and 0.466...
  • the composite ratio f after the decimal point corresponds to the composite ratio f after the decimal point. Therefore, the image data of the brightness value ⁇ (i)
  • the data is approximate image data with respect to ideal image data, but when displayed on a display device, it corresponds to image data moved with an accuracy of a fractional pixel (sub-pixel) unit.
  • an image can be physically moved only with an accuracy of an integer pixel unit for each vertical synchronization signal.
  • an image synthesizer with limited settings, when moving fractional pixels (subpixels) that represent not only an integer but also a decimal point, the image data moved by cutting off the decimal point of the number of pixels to be moved It is possible to control the movement of the image with the precision of decimal pixel (sub-pixel) by creating the image data moved by rounding up and synthesizing them with the composition ratio f of the value after the decimal point. If the transition time setting limit can be resolved, the! / ⁇ ⁇ effect can be obtained.
  • Embodiment 2 of the present invention the image data directly read from each image file la, lb for each drawing is stored in the image buffer before the start of the transition. The same effect can be obtained by storing and reading out the image buffer power at the time of drawing.
  • each processing unit is provided with an output buffer.
  • all of the image generation units 3a and 3b and the image interpolation / synthesis unit 4 are provided pixel by pixel. It is obvious that the same effect can be obtained even if a part is calculated and output to the output control unit 5. For example, when all the processes are calculated together, the equation (5) is obtained. [0072] Embodiment 3.
  • a line having a width of 1 pixel perpendicular to the moving direction of image data or a luminance difference from the surroundings is large.
  • the brightness around the area changes periodically each time it is drawn, and visually the size of lines and points also appears to change periodically. May significantly affect the quality of body transition effects.
  • Embodiment 3 of the present invention when image data l la and l ib are obtained as input from image files la and lb, the image data l la and l ib are smoothed to obtain image data l
  • An image synthesizer that reduces this problem by reducing the luminance difference between adjacent pixels in the moving direction by blurring la and l ib in the moving direction will be described.
  • FIG. 11 is a block diagram showing a configuration of an image composition device according to Embodiment 3 of the present invention.
  • This image synthesizer transitions two images with a specified transition effect.
  • the composition range including the composition unit 4 is defined as an image composition unit 30.
  • the same reference numerals in the first embodiment and the second embodiment denote the same or equivalent ones.
  • the difference between the configuration of FIG. 4 in Embodiment 2 above is that the image data l la and l ib of the image files la and lb are smoothed by the smoothing processing units 7a and 7b.
  • the force is also input to the image generation units 3a and 3b.
  • FIG. 12 is a block diagram showing a modified example of the configuration of the image composition device according to Embodiment 3 of the present invention.
  • This image synthesizing apparatus outputs immediately after the image interpolation / synthesis unit 4 with respect to the interpolation / synthesis data 13 which is the output of the image interpolation / synthesis unit 4 in the broken line portion corresponding to the image synthesis unit 30 in FIG.
  • the selection unit 8 is provided so that the synthesized data 31 selected from the interpolated synthesized data 13 and the image data 11a and ib can be displayed.
  • the transition information given from the transition information calculation unit 2 to the image generation units 3a and 3b and the image interpolation / synthesis unit 4 is the movement of the image.
  • the number of pixels is mv.
  • a drawing timing information storage unit 6 updates and stores drawing timing information that is an identification value of a drawing timing when the output control unit 5 outputs image data to the display device.
  • the transition effect storage unit 10 outputs transition effect information.
  • the transition information calculation unit 2 acquires the drawing timing information from the drawing timing information storage unit 6, acquires the transition effect information from the transition effect storage unit 10, and if the transition effect involves pixel movement, the acquired drawing timing From the information, the number of moving pixels mv corresponding to the transition information indicating the progress of the transition effect at the next drawing is calculated.
  • the parameter control unit 18 generates a smoothing parameter based on the type of transition effect obtained from the transition information calculation unit 2.
  • the image files la and lb include image data l la and l ib and give the image data l la and l ib as inputs to the smoothing processing units 7a and 7b.
  • the smoothing processing units 7a and 7b use the smoothing parameters from the parameter control unit 18 with respect to the moving direction of the image according to the image data lla and lib obtained from the image files la and lb. Therefore, smoothing processing is performed only in the traveling direction, and smoothed data 14a and 14b are output.
  • the smoothed data 14a and 14b are read out after the image data l la and l ib are smoothed and stored when the buffer can be built in the smoothing processing units 7a and 7b. When it cannot be built in, it is read and output while sequentially smoothing.
  • the image generating unit 3a obtains, as an input, the rendering source region portion of the smoothed data 14a calculated based on the number of moving pixels rounded down by rounding down the number of moving pixels obtained from the transition information calculating unit 2.
  • the generated data 12a calculated based on the number of cut-off movement pixels is output as the drawing destination area, and the smoothing data 14b calculated based on the number of cut-off movement pixels 14b
  • the part is obtained as an input, and is output as the drawing destination area part of the generated data 12a calculated based on the number of moving pixels to be cut off, similarly to the drawing source area.
  • the image generation unit 3b receives, as an input, the rendering source region portion of the smoothed image data 14a calculated based on the rounded up moving pixel number obtained by rounding up the number of moving pixels obtained from the transition information calculating unit 2 As with the drawing source area, the generated data 12b calculated based on the number of rounding movement pixels is output as the drawing destination area, and the smoothing data 14b calculated based on the number of rounding movement pixels is drawn.
  • the region portion is obtained as an input, and is output as the drawing destination region portion of the generated data 12b calculated based on the number of rounding movement pixels, in the same manner as the drawing source region.
  • the image interpolation synthesis unit 4 synthesizes the generated data 12a and 12b based on the synthesis ratio f calculated from the transition information obtained from the transition information calculation unit 2 and outputs the synthesized data 12 as the interpolation synthesis data 13.
  • the output selection unit 8 selects and outputs any one of the image data 11a, the image data Lib, and the interpolated synthesized data 13.
  • the data output from the output selection unit 8 is combined data 31 that is an output of the image combining unit 30 as shown in the block diagram of FIG.
  • the interpolation composition data 13 that is the output of the image interpolation composition unit 4 is the composition data that is the output of the image composition unit 30. 31.
  • the output control unit 5 receives the composite data 31 output from the image composition unit 30, outputs it to a display device (not shown) at each drawing timing, displays it, and displays that the display has been completed. Notify the imming information storage unit 6.
  • the transition information calculation unit 2 updates the number of moving pixels as transition information, and the image composition device repeats the above operation.
  • the transition information calculation unit 2 incorporates the transition effect information storage function of the transition effect storage unit 10. In some cases, it is possible to omit the transition effect storage unit 10 without providing it, similarly to the configuration of the image composition apparatus of the first embodiment and the second embodiment.
  • the right force left scroll effect between the image data 11a and the image data l ib is set to 5 as in the second embodiment.
  • Second The process when the transition time is performed will be described.
  • the transition information given from the transition information calculation unit 2 to the image generation units 3a and 3b is calculated by the number of moving pixels mv of the image data and the transition effect storage unit 10
  • the transition effect information given to Part 2 is shown.
  • the transition effect information indicates the type of transition effect, transition time, and area calculation formula information. Examples of transition effects include scrolling, slide-in, slide-out, and wipe described later.
  • FIG. 13 is a flowchart showing the processing procedure of the image composition device according to Embodiment 3 of the present invention.
  • the processing procedure of the image composition apparatus based on FIG. 12 will be described with reference to FIG.
  • the drawing timing information storage unit 6 updates drawing timing information after drawing at an arbitrary drawing time during transition.
  • the output time t to the display device in 5 is used as drawing timing information.
  • the drawing time t before the first drawing is t.
  • the time is used as the drawing timing information.
  • the transition time is the number of times of drawing and the generation of the vertical synchronization signal. The number of times may be calculated, or conversely, the number of times of drawing and the number of times of vertical sync signal generation may be used as the unit of drawing timing information from the transition time.
  • step ST22 the transition information calculation unit 2 acquires the drawing timing information from the drawing timing information storage unit 6, acquires the transition effect information from the transition effect storage unit 10, and the transition effect is a pixel. 3 is obtained from the drawing timing information in the same manner as in step ST1 of FIG. 3 in the first embodiment, the moving pixel number mv in the next drawing.
  • the moving pixel number mv is obtained by the following equation (9) when the movement is performed at a constant speed.
  • p indicates the rate of transition progression with a transition time of 100%.
  • t indicates the relative drawing scheduled time from the transition start time to be drawn next, and is obtained by the following equation (11).
  • t is the number of times of drawing and the number of vertical synchronization signals generated the next time
  • T is the number of times of drawing within the transition time.
  • the total number of vertical synchronization signals may be generated.
  • step ST23 the parameter control unit 18 is based on the type of transition effect acquired from the transition information calculation unit 2, and the smoothness indicating the degree of sharpness degradation due to the smoothing processing in the smoothing processing units 7a and 7b. ⁇ Generate parameters.
  • This smoothness parameter includes a spatial filter composed of MXN pixel areas that are smoothed in the advancing direction of each image depending on the type of transition effect, or the degree of sharpness degradation to generate the filter to be used. A value indicating can be used.
  • the 1 ⁇ 3 spatial filter shown in the following equation (13), in which the rows and columns of the spatial filter are inverted, is a linear filter with a small smoothing effect in the horizontal direction.
  • a spatial filter is used as a smoothing filter.
  • A is a matrix formula set according to the type of transition effect in the parameter control unit 18, and in Embodiment 3 of the present invention, the parameter control unit 18 That is, based on the transition direction of the transition effect, the sky shown in the above formula (12) or the above formula (13) Select the interval filter as a smooth filter.
  • any filter can be used in the same way as long as it can obtain the same or similar effect regardless of the magnitude of the effect. It is not limited to numerical values.
  • the filter used by the smoothing processing units 7a and 7b are smoothed in the traveling direction even in other directions. The same effect can be obtained if
  • the parameter control unit 18 gradually increases the smoothing effect at the start of the transition based on the transition information, then makes it constant, and gradually decreases the smoothing effect before the end of the transition. As a result, it is possible to avoid sudden blurring of the image as soon as the transition starts, and to realize a transition effect with less subtle pixel (sub-pixel) accuracy.
  • step ST24 the smoothing processing unit 7a convolves the image data 11a of the image file la with the following equation (14) based on the smoothing parameter obtained from the parameter control unit 18. Smoothing and output smoothness data 14a.
  • ⁇ (x, y) ⁇ A (i, j)-I (x + y + j) (1 4)
  • I (x, y) is the coordinates of the image data output from the smoothing processor 7a
  • the degree value, I (x, y) is the coordinates of the image data of the image file la input to the smoothing processor 7a.
  • the luminance value of (X, y), S is a rectangular area centered at (0, 0) that satisfies the following equation (15). i and j are expressed as follows.
  • a (i, j) represents the value of j row i column of determinant A which is a smoothing parameter obtained from the parameter control unit 18.
  • step ST25 the smoothing processing unit 7b performs image data of the image file lb based on the smoothing parameter obtained from the parameter control unit 18 in the same manner as the smoothing processing unit 7a.
  • l ib is smoothed by convolution as in the above equation (14), and smoothed data 14b is output.
  • the image data l ib of the image file lb is smoothed only in the traveling direction.
  • step ST26 to step ST29 the input to the image generation units 3a and 3b is received from the image data la and lb of the image files la and lb in step ST12 to step ST15 in FIG. This corresponds to the processing changed to the smoothed data 14a and 14b output from the smoothing processing units 7a and 7b.
  • the application order of these four steps may be switched as long as each drawing source area and drawing destination area correspond correctly.
  • step ST26 the image generation unit 3a obtains the number mv of moving pixels given from the transition information calculation unit 2 and the area calculation formula information for obtaining the drawing source area and the drawing destination area for each image data.
  • the smoothing data when the number of moving pixels in mv—a is floor (mv) 14 The drawing source area a of 4a and the drawing destination area a of the generated data 12a are obtained, and the drawing source area a of the smoothed data 14a is Obtained as input and output as the drawing destination area a of the generated data 12a.
  • step ST27 the image generation unit 3a obtains the number mv of moving pixels given from the transition information calculation unit 2 and region calculation formula information for obtaining the drawing source region and the drawing destination region for each image data.
  • the smoothing data 14 when the a is floor (mv) and the rendering source area b of the generated data 12a and the rendering destination area b of the generated data 12a are obtained, and the rendering source area b of the smoothed data 14b is Obtained as input and output as the drawing destination area b of the generated data 12a.
  • step ST28 the image generation unit 3b moves the image generation unit 3b from the number mv of movement pixels given from the transition information calculation unit 2 and the area calculation formula information for obtaining the drawing source area and the drawing destination area for each image.
  • the drawing source area b of the smoothed data 14b and the drawing destination area b of the generated data 12b are obtained, and the drawing source area b of the smoothed data 14b is input. Obtained and output as the drawing destination area b of the generated data 12b.
  • step ST29 the image generation unit 3b moves the image generation unit 3b based on the moving pixel number mv given from the transition information calculation unit 2 and the area calculation formula information for obtaining the drawing source area and the drawing destination area for each image.
  • the drawing source area a of the smoothed data 14a and the drawing destination area a of the generated data 12b are obtained, and the drawing source area a of the smoothed data 14a is input. Obtained and output as the drawing destination area a of the generated data 12b.
  • step ST30 the image interpolation / synthesis unit 4 calculates the synthesis ratio f based on the number of moving pixels obtained from the transition information calculation unit 2 in the same manner as in the second embodiment. Based on the ratio f, the generated data 12a and 12b are blended and output as interpolated composite data 13.
  • step ST32 the output control unit 5 displays the composite data 31 output from the output selection unit 8 on the screen of a display device (not shown) in synchronization with the vertical synchronization signal, and the display is completed. This is notified to the drawing timing information storage unit 6.
  • FIG. 14 shows how the image data changes in each part of the image composition device according to Embodiment 3 of the present invention in terms of luminance values.
  • FIG. 15 is a graph showing the luminance values shown in FIG. 14, and shows changes in luminance values in a certain region in the horizontal direction as the traveling direction.
  • Figures 15 (a), (b), (c), (d), and (e) correspond to Figures 14 (a), (b), (c), (d), and (e), respectively.
  • Fig. 14 (a) and Fig. 15 (a) which is indicated by a white circle in the graph, show an example of the image data 11a (lib) of the image file la (lb).
  • Fig. 14 (b) and Fig. 15 (b), which is indicated by a black circle in the graph, show the smoothness obtained by smoothing the image data 1 la (1 lb) by V smoothing processing unit 7a (7b). ⁇ Data 14a (14b) is shown. Since the determinant, which is the smoothing parameter used here, is a movement in the horizontal direction, the determinant shown in the above equation (12) is used.
  • the upper part of FIG. 14 (e) is ideal image data having decimal coordinates, but the pixel value actually output is the lower part having integer coordinates.
  • the luminance value ( ⁇ , y) of the later interpolated composite data is obtained.
  • FIG. 15 (c) and FIG. 15 according to the third embodiment of the present invention, sub-pixels (sub-pixels) (Cell) Luminance changes occur when compared to images that have moved and integer pixels! As shown in Fig. 15 (c) and Fig. 15 (e), Fig. 10 (b) and Fig. 10 (d) of the second embodiment, Fig. 15 (e) and Fig. 15 of the second embodiment. From the comparison with 10 (d), the luminance change in the third embodiment of the present invention is significantly smaller than that in the second embodiment, and accordingly, the periodic luminance change during the movement of the image. The effect of reducing is obtained.
  • the number of moving pixels per cycle of the vertical synchronization signal is not limited to an integer, and the image effect time can be set freely, and between adjacent pixels in the traveling direction. It is possible to realize an image synthesizing apparatus that reduces the deterioration of the quality of the transition effect caused by the periodic luminance change in the pixel having a large luminance change.
  • the drawing timing information storage unit 6 since the drawing timing information storage unit 6 is provided, it is not affected by the previously drawn contents, so even if drawing does not end within one cycle of the vertical synchronization signal and waits for the next vertical synchronization signal. Since it is possible to display as planned, it is possible to realize an image composition device that completes the transition effect within the transition time. Furthermore, by providing the transition effect storage unit 10, it is possible to realize an image composition device capable of performing different transition effects each time an image transitions.
  • an image can be physically moved only with an accuracy of an integer pixel unit for each vertical synchronization signal.
  • an image synthesizer with limited settings, when moving fractional pixels (subpixels) that represent not only an integer but also a decimal point, the image data moved by cutting off the decimal point of the number of pixels to be moved It is possible to control the movement of the image with the precision of decimal pixel (sub-pixel) by creating the image data moved by rounding up and synthesizing them with the composition ratio f of the value after the decimal point. If the transition time setting limit can be resolved, the! / ⁇ ⁇ effect can be obtained.
  • the smoothing processing units 7a and 7b smooth the image data by convolving the smoothness parameter with the image data, and both adjacent pixels in the moving direction of each pixel. By reducing the contrast between them, it is possible to reduce the periodic large luminance change that occurs when sub-pixels are moved.
  • the output selection unit 8 is added as in the image synthesizing apparatus in FIG. 12, so that the images before and after the start of the image transition effect are stopped. so If the high-quality image of the original image can be displayed, the effect can be obtained.
  • Embodiment 3 of the present invention the force of reading the image data l la and l ib from the image files la and lb each time drawing is performed. It is clear that the same effect can be obtained by reading out l ib and storing it in the image buffer and reading out the image data l la and l ib from the image buffer every time drawing is performed.
  • the smoothing parameters of the smoothing processing units 7a and 7b do not change during the transition, the image data l la and l ib are read out from the compulsory image files la and lb, and the smoothing processing unit 7a 7b, the smoothed data 14a and 14b smoothed by the smoothing buffer respectively are stored in the smoothing buffer, and the smoothing buffer power is also read out each time drawing is performed.
  • FIG. 16 is a block diagram showing a configuration of an image composition device according to Embodiment 4 of the present invention.
  • This image synthesizer transitions two images with a specified transition effect, and includes image files la and lb, transition information calculation unit 2, image generation units 3a and 3b, image interpolation and synthesis unit 4, output control unit 5, A drawing timing information storage unit 6, smoothing processing units 7a and 7b, and a parameter control unit 18 are provided, and image generation units 3a and 3b, a parameter control unit 18, smoothing processing units 7a and 7b, and an image interpolation / synthesis unit 4 are provided.
  • the included composition range is set as the image composition unit 30.
  • the same reference numerals in the first to third embodiments indicate the same or equivalent ones.
  • the difference between the configuration of Fig. 11 in the third embodiment is that the smoothing processing target of the smoothing processing units 7a and 7b is the image data 1 before being input to the image generating units 3a and 3b.
  • the generation data 12a and 12b are generated by the image generation units 3a and 3b from la and l ib. Also
  • the transition effect storage unit 10 is also deleted in the configuration power, but may be added to the configuration in the same manner as in the third embodiment.
  • the transition given from the transition information calculation unit 2 to the image generation units 3a and 3b and the image interpolation / synthesis unit 4 The information is the moving pixel count mv of the image.
  • the drawing timing information storage unit 6 is similar to FIG. 11 of the third embodiment.
  • the output control unit 5 updates and stores the drawing timing information, which is the identification value of the drawing timing when the image data is output to the display device.
  • the transition information calculation unit 2 acquires drawing timing information from the drawing timing information storage unit 6.
  • the number mv of moving pixels corresponding to the transition information indicating the progress of the transition effect at the next drawing is calculated from the acquired drawing timing information.
  • the meter controller 18 generates a smoothness parameter based on the type of transition effect specified in advance.
  • the image files la and lb and the image generation units 3a and 3b have the same configuration as that shown in Fig. 4 of the second embodiment.
  • the smoothing processing units 7a and 7b are configured so that the generated data 12a and 12b output from the image generating units 3a and 3b can only move in the traveling direction according to the smoothing parameter from the parameter control unit 18 with respect to the moving direction of the image. Smoothing data 14a and 14b are output.
  • the image interpolation synthesis unit 4 synthesizes the smoothed data 14 a and 14 b based on the synthesis ratio f calculated from the transition information obtained from the transition information calculation unit 2 and outputs the interpolation synthesis data 13.
  • This interpolated synthesized data 13 becomes synthesized data 31 that is the output of the image synthesizing unit 30, as shown in the block diagram of FIG.
  • the output control unit 5 receives the synthesized data 31 in the same way as in FIG. Output to an external display device (not shown) for each display.
  • the transition information calculation unit 2 updates the number of moving pixels as transition information, and the image composition device repeats the above operation.
  • FIG. 17 is a flowchart showing the processing procedure of the image composition device according to Embodiment 4 of the present invention. The processing procedure of the image composition apparatus will be described with reference to FIG.
  • step ST41 is similar to the processing of step ST21 shown in FIG. 13 of the third embodiment, and after the drawing at an arbitrary drawing time t is completed during the transition, the drawing timing information storage unit 6 performs the drawing timing. Update information.
  • step ST42 the transition information calculation unit 2 acquires the drawing timing information from the drawing timing information storage unit 6, and the acquired drawing timing information power indicates the progress of the transition effect at the next drawing.
  • the moving pixel number mv corresponding to the transition information shown is calculated.
  • step ST43 as in the process of step ST23 shown in FIG. 13 of the third embodiment, the parameter control unit 18 generates a smoothing parameter based on the type of transition effect specified in advance.
  • Steps ST44 and ST45 are performed in steps ST12 and ST45 shown in FIG.
  • step ST46 the smoothing processing unit 7a convolves the generated data 12a with the smoothing parameter obtained from the parameter control unit 18 by the following equation (14). And output smoothness data 14a.
  • the generated data 12a is smoothed only in the traveling direction.
  • step ST49 based on the smoothing parameter obtained from the parameter control unit 18, the smoothing processing unit 7b performs smoothing by convolving the image synthesis data 12b as shown in the above equation (14). To output smoothness data 14b. This process The composition data 12b is smoothed only in the traveling direction.
  • steps ST44, ST45 and steps ST47, ST48 may be switched in order of application if the respective drawing source areas and drawing destination areas correspond correctly. Then, after the generation data 12a and 12b are generated by the image generation units 3a and 3b, the smoothed data 14a and 12b obtained by smoothing the generation data 12a and 12b in steps ST46 and ST49 in the smoothing processing units 7a and 7b, respectively. 14b may be generated.
  • step ST50 the image interpolation / synthesis unit 4 calculates the synthesis ratio f based on the moving picture prime number mv obtained from the transition information calculation unit 2 in the same manner as in the second embodiment, and calculates the calculated sum. Based on the composition ratio f, the smoothed data 14a and 14b are blended to output the interpolated composite data 13.
  • step ST51 is the same as the processing in step ST17 shown in Fig. 7 of the second embodiment.
  • the number of moving pixels per cycle of the vertical synchronization signal is not limited to an integer, and the image effect time can be set freely and between adjacent pixels in the moving direction. It is possible to realize an image composition device that reduces quality deterioration caused by periodic luminance changes in pixels with large luminance changes.
  • an image can be physically moved only with an accuracy of an integer pixel unit for each vertical synchronization signal.
  • an image synthesizer with limited settings, when moving fractional pixels (subpixels) that represent not only an integer but also a decimal point, the image data moved by cutting off the decimal point of the number of pixels to be moved It is possible to control the movement of the image with the precision of decimal pixel (sub-pixel) by creating the image data moved by rounding up and synthesizing them with the composition ratio f of the value after the decimal point. If the transition time setting limit can be resolved, the! / ⁇ ⁇ effect can be obtained.
  • the smoothing processing units 7a and 7b perform the smoothing parameter By smoothing the image data into the image data and reducing the contrast between both adjacent pixels in the moving direction of each pixel, the large and periodic luminance change that occurs during sub-pixel movement is reduced. The effect that it can be obtained.
  • output selecting unit 8 may be added to image synthesizing unit 30 in FIG. 16 in the same manner as the image synthesizing device in FIG. 12 in Embodiment 3 above. In the state in which the image before and after the start of the transition effect of the image is stopped, the high-quality image of the original image can be displayed, and the effect is obtained.
  • Embodiment 4 of the present invention image data is also read out for each drawing, but the image data is read from the image files la and lb. It is clear that the same effect can be obtained even if the image buffer power is stored in the memory and the image data is read every time the image is drawn.
  • the image synthesizing device when the smoothing processing units 7a and 7b are located at positions different from the constituent positions of the image synthesizing device according to the third embodiment and the fourth embodiment will be described. To do.
  • FIG. 18 is a block diagram showing a configuration of an image composition device according to Embodiment 5 of the present invention.
  • This image synthesizer transitions two images with a specified transition effect.
  • a drawing timing information storage unit 6, a smoothing processing unit 7, and a parameter control unit 18 are provided, and a configuration range including the image generation units 3a and 3b, the image interpolation / synthesis unit 4, the meter control unit 18 and the smoothing processing unit 7 is provided.
  • the image composition unit 30 is assumed.
  • the same reference numerals in the first to fourth embodiments indicate the same or equivalent ones.
  • the image composition apparatus shown in FIG. 18 has smoothing processing units 7a and 7b as one smoothing processing unit 7 from the image composition apparatus shown in FIG. Is moved immediately after the image interpolation / synthesis unit 4.
  • the difference in configuration of the third embodiment from Fig. 11 is that the interpolated synthesized data 13 of the image interpolating and synthesizing unit 4 of the third embodiment is used as synthesized data 31 output by the image synthesizing unit 30.
  • the changed smoothing processing unit 7 compensates for this.
  • the smoothing data 14 obtained by performing smoothing processing on the intercomposition data 13 is output as the composite data 31.
  • the drawing timing information storage unit 6, the transition information calculation unit 2, and the parameter control unit 18 have the same configuration as that of the fourth embodiment shown in FIG.
  • the image files la and lb, the image generation units 3a and 3b, and the image interpolation / synthesis unit 4 have the same configuration as that shown in FIG.
  • the smoothing processing unit 7 receives the interpolated composite data 13 and performs smoothing processing only in the traveling direction based on the smoothing parameter with respect to the moving direction of the image, and outputs the smoothed data 14 To help.
  • the smoothed data 14 becomes composite data 31 that is an output of the image composition unit 30.
  • the output control unit 5 outputs the image data stored in the composite data 31 to the display device at each drawing timing, and notifies the drawing timing information storage unit 6 that the display has been completed.
  • the specifications of the display device connected to the image composition device according to the fifth embodiment of the present invention and the transition effects described in the fifth embodiment of the present invention are the same as those in the second embodiment.
  • FIG. 19 is a flowchart showing the processing procedure of the image composition device according to Embodiment 5 of the present invention. The processing procedure of the image composition apparatus will be described with reference to FIG.
  • step ST61 performs the same process as the process of step ST21 shown in FIG. 13 in the third embodiment, and after the drawing at an arbitrary drawing time t is completed during the transition, the drawing timing information storage unit 6 Update drawing timing information.
  • step ST62 is the same as the processing in step ST22 shown in Fig. 13 of the third embodiment.
  • steps ST63 and ST64 is the same as the processing in steps ST12 and ST13 shown in FIG.
  • steps ST65 and ST66 is the same as step ST14 shown in FIG. Performs the same processing as ST15.
  • step ST67 is the same as the processing in step ST16 shown in Fig. 7 of the second embodiment.
  • step ST68 the parameter control unit 18 generates a smoothing parameter based on the type of transition effect designated in advance.
  • step ST69 the smoothing processing unit 7 performs smoothing by convolving the interpolated synthesized data 13 as shown in the above equation (14) based on the smoothing parameters obtained from the parameter control unit 18! And output smoothness data 14.
  • step ST70 the output control unit 5 displays the smoothness data 14 on the screen of the display device in synchronization with the vertical synchronization signal, and notifies the drawing timing information storage unit 6 that the display has been completed.
  • the number of moving pixels per cycle of the vertical synchronization signal is not limited to an integer, and the time of image effect can be set freely, and between adjacent pixels in the traveling direction. It is possible to realize an image composition device that reduces quality deterioration caused by periodic luminance changes in pixels with large luminance changes.
  • an image can be physically moved only with an accuracy of an integer pixel unit for each vertical synchronization signal.
  • an image synthesizer with limited settings, when moving fractional pixels (subpixels) that represent not only an integer but also a decimal point, the image data moved by cutting off the decimal point of the number of pixels to be moved It is possible to control the movement of the image with the precision of decimal pixel (sub-pixel) by creating the image data moved by rounding up and synthesizing them with the composition ratio f of the value after the decimal point. And eliminate the transition time setting limitation If you can do it!
  • the smoothing processing unit 7 convolves the smoothing parameter with the image data so as to smooth the image data and to move both the moving directions of the respective pixels. By reducing the contrast between adjacent pixels, it is possible to reduce the periodic large luminance change that occurs when sub-pixels are moved.
  • Embodiment 5 of the present invention by replacing the input of the interpolated synthesized data 13 with the smoothed data 14, the state before and after the start of the image transition effect is stopped. In this state, if a high-quality image of the original image can be displayed, the effect can be obtained.
  • output selecting unit 8 may be added to image synthesizing unit 30 in FIG. 18 as in the image synthesizing apparatus in FIG. 12 in Embodiment 3 above. In the state where the images before and after the start of the transition effect of the image are stopped, a high-quality image of the original image can be displayed, and the effect is obtained.
  • the image data is read from the image files la and lb every time drawing is performed.
  • Image data is read from the image files la and lb. It is clear that the same effect can be obtained even if the image data is stored in the buffer and the image buffer power is read every time drawing is performed.
  • smoothing processing is not performed by matrix convolution, but smoothing is performed by image drawing processing and combining processing using a plurality of smoothing image generation units and smoothing combining units. A case where processing is performed will be described.
  • FIG. 20 is a block diagram showing the configuration of the smoothing processing units 7a and 7b of the image composition device according to Embodiment 6 of the present invention.
  • This image synthesizer transitions two images with a specified transition effect.
  • Other configurations other than the smoothing processing units 7a and 7b including the portions not shown in the drawings after the image generating units 3a and 3b are as follows. Assume that the configuration is the same as in FIG. 12 of the third embodiment.
  • the smoothness parameter force given by the parameter control unit 18 is assumed to be a spatial filter constituted by the pixel area force of MXN as in the third embodiment.
  • MXN smooth image generator 151pq and smooth image combiner 17a I have.
  • the smoothing processing unit 7b includes MXN smoothing image generation units 152pq and a smoothing synthesis unit 17b. Note that p is the corresponding row number of the smoothing filter that is the smoothing parameter, q is the column number, and 0 ⁇ p ⁇ M—l and 0 ⁇ q ⁇ N—l.
  • the smoothing image generation unit 15 lpq obtains as input the drawing source region portion of the image data 11a of the image file la calculated based on the smoothness parameter from the parameter control unit 18, and similarly to the drawing source region.
  • the smoothing image data 16 calculated based on the smoothing parameters is output as the drawing destination area portion of lpq.
  • the smoothing image generating unit 152pq obtains the drawing source area portion of the image data 1 lb of the image file lb calculated based on the smoothing parameter from the parameter control unit 18 as an input. Similarly to the area, the image is output as the drawing destination area of the smoothing image data 162pq calculated based on the smoothing parameter.
  • the smoothed color synthesizing unit 17a outputs smoothed synthesized data 19a obtained by synthesizing the smoothed image data 161pq based on the synthesis ratio obtained by calculating the smoothing parameter force.
  • the smoothed image synthesizing unit 17b outputs smoothed synthesized data 19b synthesized based on the synthesis ratio obtained by calculating the smoothed image data 162pq from the smoothed parameters.
  • FIG. 21 is a flowchart showing the processing procedure of the image composition device according to Embodiment 6 of the present invention. The processing procedure of the image composition apparatus will be described with reference to FIG.
  • step ST81 to step ST83 is the same as the processing from step ST21 to step ST23 shown in FIG. 13 of the third embodiment.
  • step ST81 after drawing at an arbitrary drawing time t is completed during the transition, the drawing timing information storage unit 6 updates the drawing timing information as in the third embodiment.
  • step ST82 the transition information calculation unit 2 acquires the drawing timing information from the drawing timing information storage unit 6 in the same manner as in the third embodiment, and the transition video prime number mv at the next drawing time is obtained. calculate.
  • step ST83 the parameter control unit 18 obtains the type of transition effect and the number of moving pixels from the transition information calculation unit 2 and generates a smoothing parameter, as in the third embodiment.
  • step ST84 the smoothing wrinkle image generating unit 151pq determines the number of pixels based on the smoothing parameter obtained from the parameter control unit 18 of the image data 1 la of the image file la (p-floor ( M / 2)) pixels, the image data when moving in the vertical direction (q—floor (N / 2)) pixels) Image data 1 la
  • the drawing source area and drawing destination area of la are obtained, respectively. This obtains the drawing source area portion of the image data 11a and outputs it as the drawing destination area portion of the smoothing image data 16 lpq. Process all combinations of P and q (M X N ways).
  • the smoothing image generating unit 152pq determines the number of pixels (in the horizontal direction (p--) based on the smoothing parameter obtained from the parameter control unit 18 from the image data 1 lb of the image file lb. floor (M / 2)) pixels, moving vertically (q—floor (N / 2)) pixels) Image data in lb Image data l ib
  • the drawing source area and drawing destination area are obtained.
  • the drawing source area portion of each image data 1 lb is acquired and output as the drawing destination area portion of the smoothing image buffer 162pq. Process all combinations of P and q (M X N ways).
  • step ST84 and step ST85 include the corresponding steps omitted in the drawing due to the values of p and q, and if the drawing source area and the drawing destination area correspond correctly, the application order of the processes is switched. Ok.
  • the smoothness parameter is a 3 X 1 matrix
  • the reference range is moved by 1 pixel, 0 pixel, and +1 pixel, respectively, only in the horizontal direction without vertical movement, as follows: Smoothing image data 161pq and 162pq are output.
  • the smooth wrinkle image generating unit 15100 acquires the image data 11a from the image file la, outputs the smoothed wrinkle image data 16100 shifted by one pixel to the left, and the smoothing image generating unit 15 110 obtains the image data 11a from the image file la and outputs the image data 16110 for smoothing as it is, and the smoothing image generation unit 15120 obtains the image data 1 la from the image file la and proceeds to the right.
  • the smoothing image data 16120 moved by one pixel is output.
  • the smoothing image generating unit 15200 obtains the image data l ib from the image file lb, outputs the smoothing image data 16200 shifted by one pixel to the left, and performs smoothing.
  • the image generation unit 15210 acquires the image file lb force image data l ib and outputs the image data 16210 for smoothness as it is, and the image generation unit 15220 for smoothness generates the image data l from the image file lb. ib is acquired, and smoothed image data 16220 shifted by one pixel to the right is output.
  • step ST86 the smoothing / compositing unit 17a performs all smoothing using the component value A (p, q) corresponding to the number of moving pixels from which the smoothing image data 161pq has moved from the original image as a combining ratio.
  • the image data 11a of the image file la is smoothed only in the traveling direction.
  • the output of the smoothed wrinkle composite data 19a is as shown in the following equation (16).
  • I (X, y) is the luminance value of the coordinates (X, y) of the smoothed ⁇ composite data 19a, and I (x , y)
  • 1 lij indicates the luminance value of the coordinates (x, y) of the image data for smoothness 16 lij.
  • S shall satisfy the following equation (17).
  • step ST87 the smoothing / synthesizing unit 17b performs all the smoothing using the component value A (p, q) corresponding to the number of moving pixels from which the smoothing image data 162pq has moved from the original image as a composition ratio.
  • the image data 162pq is blended and written to the smoothed color composite data 19b. This By the processing, the image data l ib of the image file lb is smoothed only in the traveling direction.
  • the output of the smoothed wrinkle synthesized data 19b is as shown in the following equation (18).
  • step ST88 to step ST91 is performed by applying the input to the image generation units 3a and 3b output from the smoothing processing units 7a and 7b to the step ST26 force of step ST29 in FIG. This corresponds to the processing in which data 14a and 14b are changed to smoothed synthesized data 19a and 19b.
  • the application order of these four steps may be switched as long as each drawing source area and drawing destination area correspond correctly.
  • step ST88 the image generation unit 3a obtains the number mv of moving pixels given from the transition information calculation unit 2 and the area calculation formula information for obtaining the drawing source area and the drawing destination area for each image data.
  • the number of moving pixels in mv—a is floor (mv)
  • the rendering source area a of the smoothed composite data 19a and the rendering destination area a of the generated data 12a are obtained, and the rendering source area of the smoothed composite data 19a
  • the a part is obtained as an input, and is output as the drawing destination area a part of the generated data 12a.
  • step ST89 the image generation unit 3a obtains the number mv of moving pixels given from the transition information calculation unit 2 and region calculation formula information for obtaining the drawing source region and the drawing destination region for each image data.
  • the number of moving pixels in mv—a is floor (mv)
  • the rendering source area b of the smoothed composite data 19b and the rendering destination area b of the generated data 12a are obtained, and the rendering source area of the smoothed composite data 19b
  • the part b is obtained as an input, and is output as the part b to which the generated data 12a is drawn.
  • step ST90 the image generation unit 3b moves from the transition information calculation unit 2.
  • the drawing of the smoothed synthesized data 19b when the number of moving pixels mv-b in the image generator 3b is ceil (mv) The drawing area b of the original area b and the generated data 12b is obtained, the drawing area b of the smoothed synthesized data 19b is obtained as an input, and is output as the drawing area b of the generated data 12b.
  • step ST91 the image generation unit 3b moves the number mv of movement pixels given from the transition information calculation unit 2 and the area calculation formula information for obtaining the drawing source area and the drawing destination area for each image data in the image generation unit 3b.
  • the drawing source area a of the smoothing synthesis data 19a and the drawing destination area a of the generated data 12b are obtained, and the drawing source area a of the smoothing synthesis data 19a is obtained. Obtained as input and output as the drawing destination area a of the generated data 12b.
  • step ST92 to step ST94 is the same as the processing from step ST30 to step ST32 shown in Fig. 13 of the third embodiment.
  • the number of moving pixels per cycle of the vertical synchronization signal is not limited to an integer, and the image effect time can be set freely and between adjacent pixels in the traveling direction. It is possible to realize an image composition device that reduces quality deterioration caused by periodic luminance changes in pixels with large luminance changes.
  • an image can be physically moved only with an accuracy of an integer pixel unit for each vertical synchronization signal.
  • an image synthesizer with limited settings, when moving fractional pixels (subpixels) that represent not only an integer but also a decimal point, the image data moved by cutting off the decimal point of the number of pixels to be moved It is possible to control the movement of the image with the precision of decimal pixel (sub-pixel) by creating the image data moved by rounding up and synthesizing them with the composition ratio f of the value after the decimal point. If the transition time setting limit can be resolved, the! / ⁇ ⁇ effect can be obtained.
  • the smoothing processing units 7a and 7b draw the image data lla and lib of the image files la and lb calculated based on the smoothing parameters.
  • Smoothing image data 161pq, 1 calculated based on the smoothing parameters using the original region as input
  • By smoothing the image data and lowering the contrast between adjacent pixels in the moving direction of each pixel it is possible to reduce the periodic large luminance change that occurs when moving sub-pixels. An effect is obtained.
  • output selecting unit 8 may be added to image synthesizing unit 30 in FIG. 20 as in the image synthesizing apparatus in FIG. 12 in the third embodiment. In the state in which the images before and after the start of the transition effect of the crossover are stopped, a high-quality image of the original image can be displayed.
  • Embodiment 6 of the present invention the force of reading the image data l la and l ib from the image files la and lb each time drawing is performed. It is clear that the same effect can be obtained by reading out l ib and storing it in the image buffer and reading out the image data 11a and 1 lb each time drawing is performed from the image buffer.
  • Embodiment 6 of the present invention if the smoothness parameter is fixed, the image data l la and l ib are obtained from the image files la and lb in advance, and the smoothing processing unit 7a, If the smoothed synthesized data 19a and 19b smoothed by 7b are stored in the buffer and the buffer power is read out each time rendering is performed, the same effect can be obtained.
  • the smoothing process only needs to be performed at the start of the transition, so that the process at the time of drawing can be made lighter.
  • FIG. 22 is a block diagram showing the configuration of the image composition device according to Embodiment 7 of the present invention. This image synthesizer transitions two images with a specified transition effect.
  • the composition range including the timing information storage unit 6 and the parameter control unit 18 and including the image generation unit 3pq, the image interpolation synthesis unit 4 and the parameter control unit 18 is referred to as an image synthesis unit 30.
  • the same reference numerals in the first to fourth embodiments indicate the same or equivalent ones.
  • the difference in configuration from FIG. 4 in the second embodiment is that the interpolated synthesized data 13 of the image interpolating / combining unit 4 in the second embodiment, which is the synthesized data output from the image synthesizing unit 30,
  • the image interpolating / synthesizing unit 4 obtains the smoothing parameters obtained from the parameter control unit 18 to output the interpolating / synthesizing data 13 in which the smoothing process and the interpolating / synthesizing process are collectively performed. It is to have done.
  • the image generation unit 3pq is a rendering source of the image data 11a of the image file 1a calculated based on the transition information obtained from the transition information calculation unit 2 and the smoothness parameter obtained from the parameter control unit 18.
  • the area part is input and output as the drawing destination area part of the generated data 12pq calculated based on the transition information and smoothing parameters in the same way as the drawing source area, and similarly calculated based on the transition information and smoothness parameters
  • the drawing source area of the image data l ib of the image file lb to be input is input and output as the drawing destination area of the generated data 12pq calculated based on the transition information and smoothing parameters in the same way as the drawing source area.
  • This generated data 12pq is read when the image data l la and l ib are read and generated and stored if the buffer can be built in the image generator 3pq, and is read if the buffer cannot be built in. It is assumed that the data is output while being generated sequentially.
  • p is the corresponding row number of the smoothing filter, which is the smoothing parameter
  • q is the column number
  • the image interpolation synthesis unit 4 includes the transition information obtained from the transition information calculation unit 2 and the parameter control unit. Based on the synthesis ratio calculated from the smoothness parameter obtained from 18, the generated data 12p q is synthesized and the interpolated synthesized data 13 is output.
  • the parameter control unit 18 generates a smoothing parameter based on the type of transition effect obtained from the transition information calculation unit 2, and gives the generated smoothness parameter to the image generation unit 3 pq and the image interpolation synthesis unit 4.
  • the other image files la, lb, transition information calculation unit 2, output control unit 5, and drawing timing information storage unit 6 are the same as those shown in FIG. 16 of the fourth embodiment.
  • the specifications of the display device connected to the image composition device according to Embodiment 7 of the present invention and the transition effects described in Embodiment 7 of the present invention are the same as in Embodiment 2 above.
  • the smoothing parameter configured by the parameter control unit 18 in the seventh embodiment of the present invention is an M ⁇ N filter.
  • the transition effect is the effect of moving the image in the horizontal direction, as in Embodiment 3 above, so that image generation unit 3pq is (M + 1) Provide XN.
  • image generation unit 3pq is (M + 1) Provide XN.
  • M X (N + 1) image generation units are provided.
  • FIG. 23 is a flowchart showing the processing procedure of the image composition device according to the seventh embodiment of the present invention.
  • step ST101 to step ST103 is the same as the processing from step ST41 to step ST43 shown in FIG.
  • step ST101 after drawing at an arbitrary drawing time t is completed during the transition, the drawing timing information storage unit 6 updates the drawing timing information as in the fourth embodiment.
  • step ST102 the transition information calculation unit 2 acquires the drawing timing information from the drawing timing information storage unit 6 in the same manner as in the fourth embodiment, and the transition video prime number mv at the next drawing time is obtained. calculate.
  • step ST103 the parameter control unit 18 obtains the smoothing parameter by obtaining the type of transition effect and the number of moving pixels from the transition information calculation unit 2, as in the fourth embodiment.
  • step ST104 the image generation unit 3pq determines that the number of moving pixels of the transition effect in the horizontal direction is floor (mv) — floo r (M / 2) Find each drawing source area of the image file la and the drawing destination area of the generated data 12pq when + p pixels are shifted by q—floor (NZ2) pixels in the vertical direction, and the image data 1 la of the image file la The drawing source area is obtained as input and output as the drawing destination area of the generated data 12pq.
  • step ST105 the image generation unit 3pq determines that the number of moving pixels of the transition effect in the horizontal direction is floor (mv) -floo r (M / 2) Find each drawing source area of the image file lb and the drawing data area of the generated data 12pq when + p pixels are shifted by q—floor (NZ2) pixels in the vertical direction, and draw the image data lib of the image file lb The original area is obtained as an input and output as the drawing destination area of the generated data 12pq.
  • step ST104 and step ST105 include the corresponding steps omitted on the drawing due to the values of p and q, and if the drawing source area and the drawing destination area correspond correctly, the application order of the processes is switched. Ok.
  • step ST106 the image interpolation synthesizer 4 synthesizes the generated moving image prime mv obtained from the transition information calculator 2 and the smoothed parameter force obtained from the parameter controller 18 for each generated data 12pq. Using the ratio f, each generated data 12pq is blended and written to the interpolated composite data 13.
  • composition ratio f with respect to the generated data 12pq is obtained based on the following equation (19).
  • composition ratio f is the same as that used in the above equation (3).
  • the image generating unit 310 draws each rendering source area of the image files la and lb when the moving pixel number is floor (mv).
  • the drawing destination area is obtained, the drawing source area part is obtained as an input, and the drawing destination area part of the generated data 1210 is output.
  • the image generation unit 320 draws each of the image files la and lb when the moving pixel number is floor (mv) + 1, based on the moving pixel number mv given by the transition information calculating unit 2.
  • the original area and the drawing destination area are obtained, the drawing source area portion is obtained as an input, and is output as the drawing destination area of the generated data 1220.
  • the image generation unit 330 draws each of the image files la and lb when the number of moving pixels is floor (mv) + 2, based on the number mv of moving pixels given from the transition information calculation unit 2.
  • the original area and the drawing destination area are obtained, the drawing source area portion is obtained as an input, and the generated data 1230 is output as the drawing destination area.
  • the image interpolation synthesis unit 4 uses the number mv of moving pixels obtained from the transition information calculation unit 2 and the synthesis ratio of the smoothness data obtained from the parameter control unit 18 1200, 1210, 1220, 1230 f 1, f 2, f 3, f are calculated based on the following equation (20).
  • the image interpolation / synthesis unit 4 synthesizes the generated data 1200, 1210, 1220, and 1230 based on the following equation (21), and outputs the resultant data as the interpolation synthesis data 13.
  • I '(x, y) f ⁇ ⁇ (x, y) + f ⁇ ⁇ (x, y) + f ⁇ ⁇ (x, y) + f ⁇ ⁇ (x, y) (21)
  • I ( ⁇ , y) indicates the brightness value of the input generated data 12qp coordinates
  • ⁇ (x, y) indicates the output image interpolation composite data 13 coordinates Indicates the luminance value
  • step ST107 the output control section 5 displays the interpolation composite data 13 on the screen of the display device in synchronization with the vertical synchronization signal.
  • the number of moving pixels per cycle of the vertical synchronizing signal is not limited to an integer, and the time of image effect can be set freely and between adjacent pixels in the traveling direction. It is possible to realize an image composition device that reduces quality deterioration caused by periodic luminance changes in pixels with large luminance changes.
  • the vertical synchronization signal is physically accurate only in units of integer pixels.
  • image compositing device that has a setting restriction on the transition time of an image because the image cannot be moved
  • image data moved by rounding up and a plurality of image data moved up, down, left, and right around these are created, and each coefficient of smoothing filter corresponding to each and moving pixel that is transition information
  • a ratio that is less than the decimal point of the number it is possible to eliminate the transition time setting limitation by simultaneously performing movement and averaging processing with sub-pixel accuracy.
  • image data to lower the contrast by smoothing I spoon, there is an advantage that it is possible to reduce the periodic large luminance change occurring during the decimal pixel (subpixel) movement.
  • output selecting unit 8 may be added to image synthesizing unit 30 in FIG. 22 as in the image synthesizing device in FIG. 12 in the third embodiment. If the image before and after the start of the transition effect of the image is stopped, a high-quality image of the original image is displayed. If the image can be displayed, the effect is obtained.
  • the image data l la and l ib are read from the image files la and lb every time rendering is performed. It is clear that the same effect can be obtained even if 1 la and l ib are read out and stored in the image buffer, and the image data l la and l ib are read from the image buffer every time drawing is performed.
  • the generated data, the interpolated combined data, the smoothed data, the smoothing image data, and the smoothed wrinkled combined data are transmitted to the image generating unit, the image interpolation combined, and the like. Even if the data is stored in the memory, the smoothing processor, the smoothing image generator, and the smoothing / synthesizing unit, they are stored, read, output, and the input data is not processed in sequence without outputting the buffer. However, it is clear that the same effect can be obtained.
  • the image generation units 3a and 3b and the image interpolation composition unit 4 calculate each drawing source region, each drawing destination region, and the composition ratio! /
  • the transition information calculation unit 2 performs each drawing source area, each drawing destination area, and the calculation of the composition ratio !, the image generation units 3a and 3b, and the image interpolation synthesis unit 4 need the number of moving pixels or each It is clear that the same effect can be obtained even if each drawing source region is given a composition ratio.
  • the parameter control unit 18 further determines the direction in which the smoothness is applied based on only the type of transition effect, and the moving pixel.
  • the smoothness processing unit uses the same smoothness parameter in the image to generate smoothness in the input image data. For pixels that have a small brightness difference from surrounding pixels that are not necessary, adjust the smoothness parameter so that the degree of smoothness is reduced, and use different smoothness parameters on a pixel-by-pixel basis. It is clear that the image quality during the transition effect can be further improved.
  • transition effect storage unit 10 may be incorporated in transition information calculation unit 2, but as another configuration, transition effect storage unit 10 includes transition information calculation. It is clear that the same effect can be obtained even if it is given directly to each processing part without giving transition effect information via part 2.
  • the transition effect storage unit 10 is provided, so that each time an image transitions. It is also clear that an image composition device capable of performing different transition effects can be realized. Furthermore, in the first embodiment and the second embodiment, even when the drawing timing information storage unit 6 is provided, the image composition apparatus can be realized as in the third to seventh embodiments. Is also obvious.
  • the parameter control unit 18 moves in the smoothing processing units 7a and 7b in the fourth embodiment and the fifth embodiment. Transition effect with different number of moving pixels for each of image data l la and l ib of image files la and lb by using different smoothness parameters of smoothing processing units 7a and 7b for each same region of displacement of the number of pixels Can be realized.
  • the smoothing processing units 7a and 7b use the smoothing parameter for each of the image files la and lb on which smoothing is performed, so that the image data la and lb of the image files la and 1 Transition effects with different number of moving pixels can be realized for each lb.
  • the parameter control unit 18 calculates each drawing destination region of the image data l la and l ib from the transition information obtained from the transition information calculation unit 2, or obtains each drawing destination region from the transition information calculation unit.
  • image data 1 lb is drawn, and the smoothing parameters in each pixel are set so that only the pixels are smoothed in the traveling direction.
  • the smoothing processing units 7a and 7b By performing the processing, it is possible to realize a transition effect that moves every sub-pixel in the slide-in.
  • FIG. 24 is a diagram showing a screen change due to the slide-in effect of sliding in from the image data 11 a to the image data 1 lb from right to left.
  • Slide-in refers to the effect that the next displayed image appears to be inserted on top of the previously displayed image. It is assumed that the resolution of the image data 11a, the image data 1 lb, and the display device are all the same, 320 ⁇ 48, as in the scroll example in the second embodiment.
  • the drawing source area of the image data 11a is (0, 0) (320, 48) at the start of the transition, and there is no drawing source area of the image data l ib But as the transition progresses Accordingly, the drawing source area of the image data 11a changes to (0, 0) one (320—n, 48), and the drawing source area of the image data l ib changes to (0, 0) (n, 48). At this time, the drawing destination area of the image data 11a is (0, 0) — (320—n, 48), and the drawing destination area of the image data l ib is (320—n, 0) (320, 48). . The process is repeated until the area of the drawing destination area and the drawing destination area of the image data 11a becomes zero. Thus, it appears that the image data l ib is newly inserted on the image data 11a.
  • FIG. 25 is a diagram showing a screen change due to a slide-out effect in which the right force slides left from the image data 11a to the image data l ib.
  • Slide-out refers to the effect that the previously displayed image is pulled out in any direction and the next displayed image appears. It is assumed that the resolution of the image data 1 la, the image data 1 lb, and the display device is the same and is 320 ⁇ 48 as in the scroll example in the second embodiment.
  • the drawing source area of the image data 11a is (0, 0) (320, 48) at the start of the transition, and there is no drawing source area of the image data l ib
  • the drawing source area of the image data 11a changes to (n, 0) — (320, 48)
  • the drawing source area of the image data l ib changes to (320—n, 0)-(320, 48).
  • the drawing destination area of the image data 11a is (0, 0) one (320—n, 48)
  • the drawing destination area of the image data l ib is (320—n, 0) (320, 48).
  • the process is repeated until the area of the drawing destination area and the drawing destination area of the image data 11a becomes zero.
  • the image data 11a is pulled out from the screen, and the image data l ib appears to have the lower force.
  • FIG. 26 is a diagram showing a screen change due to a wipe effect of wiping from image data 11a to image data 1 lb from right to left. Wipe refers to the effect of appearing to repaint the previously displayed image with the next displayed image.
  • the resolution of the image data 11a, the image data I ib, and the display device is the same and is 320 ⁇ 48.
  • the drawing source area of the image data 11a is (0, 0) (320, 48) at the start of the transition, and the drawing source area of the image data 1 lb is not
  • the drawing source area of the image data 1 la is (0, 0) — (320—n, 48)
  • the drawing source area of the image data l ib is (320—n, 0) one (320, 48) and change.
  • the drawing destination area of the image data 11a is (0, 0) one (320-n, 48)
  • the drawing destination area of the image data l ib is (320—n, 0)-(320, 48).
  • the process is repeated until the area of the drawing destination area and the drawing destination area of the image data 11a becomes zero. As a result, it seems that the image data 11a is gradually repainted by the image data l ib.
  • the number of moving pixels indicating transition progress which is transition information, indicates the number of rows repainted by the image data l ib.
  • Embodiment 2 to Embodiment 7 described above the transition effect between two images has been described as an example. However, as in Embodiment 1 described above, the end force of one image is also reduced. Scroll through, scroll through one or more images repeatedly, or display three or more images Even if the transition is made continuously, in the case of the second embodiment, the fourth embodiment and the fifth embodiment, the number of image files is equal to the number of images, and in the case of the third embodiment, only the number of images.
  • An image file and a smoothing processing unit are provided, and the image generation units 3a and 3b obtain a rendering source region and a rendering destination region corresponding to the transition effect for each image data and output data, and perform smoothing. Similar effects can be obtained.

Abstract

 遷移情報計算部2は画像の遷移効果の移動画素数を計算し、画像生成部3aは切り捨て移動画素数により計算した画像ファイル1a,1bの描画元領域を読み出し、切り捨て移動画素数により計算した画像生成バッファ12aの描画先領域に書き込み、画像生成部3bは切り上げ移動画素数により計算した画像ファイル1a,1bの描画元領域を読み出し、切り上げ移動画素数により計算した画像生成バッファ12bの描画先領域に書き込み、画像補間合成部4は移動画素数により計算した合成比率に基づき画像生成バッファ12a,12bの各画像データを合成して補間合成バッファ13に書き込む。

Description

明 細 書
画像合成装置および画像合成方法
技術分野
[0001] この発明は画像の移動を行い効果的な表示を行う画像合成装置に関するものであ る。
背景技術
[0002] 近年、表示装置の薄型化や表示装置'コンピュータの価格の低下や性能の向上に 伴い、大勢の人々の目に触れる施設や屋外で様々な表示装置にアイキャッチあるい は宣伝広告用の文章、画像、映像といったマルチメディアコンテンツを表示している 例を街中でもよく見かけるようになつている。
[0003] コンピュータを使用したコンテンツ表示の利点としては、コンテンツの入れ替えが非 常に容易であることが挙げられる。また、コンテンツの表示時間等を設定一つで自由 に変えることや、コンテンツの切り替え方法等をプログラムにより自由に設定することも 可能であり、コンテンツの提示方法の幅を容易に拡げることができるという利点もある
[0004] このような表示システムの一例としては、店舗の看板等で使用される表示装置に広 告ゃ宣伝文を提示するシステムが挙げられる。上記システムでは、多くの静止画像を 次々と切り替えたり、表示装置以上に高解像度の画像をスクロールして見せたり、長 い宣伝文を画像に変換し、これを移動させながら表示し、画像に効果を与えることで 、限られた面積の表示装置上に多くの画像を提示することを可能にし、さらに、より人 目を引くことも可能になる。
[0005] 従来の画像合成装置として、複数の画像を構成する画素値を記憶する画像メモリと 、上記画素値間の合成比率を記憶するキープレーンと、上記合成比率により上記画 素値間の合成を行!、上記画素値間の合成値を出力する画像合成手段と、上記画像 メモリと上記キープレーンから上記画像合成手段に、上記画素値及び上記合成比率 を読み出すための表示開始アドレスを発生する表示制御手段と、上記表示開始アド レスとは異なるアドレス値を保持するスクロールレジスタと、上記表示開始アドレスと上 記スクロールレジスタの保持するアドレスを切り替えるアドレス切り替え手段とを備え、 スクロール処理中の 2画像間の境界を任意の形状にするものがある。(例えば、特許 文献 1)
[0006] 特許文献 1 :特開平 5— 313645号公報
[0007] 従来の画像合成装置は以上のように構成されているので、画像を移動する際に垂 直同期信号 1周期の間に表示装置における整数画素単位の精度でのみ動かすこと が可能であるが、垂直同期信号 1周期毎に整数画素単位の精度で動かすため、遷 移効果が完了する時間のみに設定可能な遷移時間が制限されてしまい、所望の遷 移時間での運用が困難になるという課題があった。
[0008] この発明は上記のような課題を解決するためになされたもので、垂直同期信号 1周 期毎に小数画素(以下、サブピクセルと 、う)単位の精度での画像の移動を制御し、 画像の小数画素(サブピクセル)単位の精度での移動に対応することで、遷移時間を より柔軟に設定できる画像合成装置を得ることを目的とする。
発明の開示
[0009] この発明に係る画像合成装置は、遷移画像の遷移情報としての移動画素数を計算 する遷移情報計算部と、上記遷移情報計算部で計算された上記移動画素数の小数 点以下を切り捨てた切捨て移動画素数に対応した上記遷移画像中の画像データと 上記移動画素数の小数点以下を切り上げた切上げ移動画素数に対応した上記遷移 画像中の画像データとを上記移動画素数に基づく合成比率で合成した合成データ を出力する画像合成部とを備えたものである。
[0010] この発明により、小数画素(サブピクセル)単位の精度での画像の移動を制御する ことが可能となり、遷移時間の設定制限を解消することができるという効果が得られる 図面の簡単な説明
[0011] [図 1]この発明の実施の形態 1に係る画像合成装置の構成を示すブロック図である。
[図 2]この発明の実施の形態 1に係る画像合成装置における画像データのスクロール 効果の概要を示す説明図である。
[図 3]この発明の実施の形態 1に係る画像合成装置の処理手順を示すフローチャート である。
[図 4]この発明の実施の形態 2に係る画像合成装置の構成を示すブロック図である。
[図 5]この発明の実施の形態 2に係る画像合成装置における画像データのスクロール 効果の概要を示す説明図である。
[図 6]この発明の実施の形態 2に係る画像合成装置における画像データのスクロール 効果による画面変化を示す説明図である。
圆 7]この発明の実施の形態 2に係る画像合成装置の処理手順を示すフローチャート である。
圆 8]この発明の実施の形態 2に係る画像合成装置の画像生成部の処理を説明する 説明図である。
[図 9]この発明の実施の形態 2に係る画像合成装置の各部における画像データの変 化の様子を示す説明図である。
[図 10]この発明の実施の形態 2に係る画像合成装置の各部における画像データの 輝度値の変化の様子を示す説明図である。
[図 11]この発明の実施の形態 3に係る画像合成装置の構成を示すブロック図である。 圆 12]この発明の実施の形態 3に係る出力選択部を備えた画像合成装置の構成を 示すブロック図である。
圆 13]この発明の実施の形態 3に係る画像合成装置の処理手順を示すフローチヤ一 トである。
[図 14]この発明の実施の形態 3に係る画像合成装置の各部における画像データの 変化の様子を示す説明図である。
[図 15]この発明の実施の形態 3に係る画像合成装置の各部における画像データの 輝度値の変化の様子を示す説明図である。
[図 16]この発明の実施の形態 4に係る画像合成装置の構成を示すブロック図である。 圆 17]この発明の実施の形態 4に係る画像合成装置の処理手順を示すフローチヤ一 トである。
[図 18]この発明の実施の形態 5に係る画像合成装置の構成を示すブロック図である。 圆 19]この発明の実施の形態 5に係る画像合成装置の処理手順を示すフローチヤ一 トである。
[図 20]この発明の実施の形態 6に係る画像合成装置の構成を示すブロック図である。
[図 21]この発明の実施の形態 6に係る画像合成装置の処理手順を示すフローチヤ一 トである。
[図 22]この発明の実施の形態 7に係る画像合成装置の構成を示すブロック図である。
[図 23]この発明の実施の形態 7に係る画像合成装置の処理手順を示すフローチヤ一 トである。
[図 24]この発明の実施の形態に係る画像合成装置における画像データのスライドィ ン効果による画面変化を示す説明図である。
[図 25]この発明の実施の形態に係る画像合成装置における画像データのスライドァ ゥト効果による画面変化を示す説明図である。
[図 26]この発明の実施の形態に係る画像合成装置における画像データのワイプ効果 による画面変化を示す説明図である。
[図 27]この発明の実施の形態に係る画像合成装置における画像データのワイプ効果 の変形例(1)による画面変化を示す説明図である。
[図 28]この発明の実施の形態に係る画像合成装置における画像データのワイプ効果 の変形例(2)による画面変化を示す説明図である。
発明を実施するための最良の形態
[0012] 以下、この発明をより詳細に説明するために、この発明を実施するための最良の形 態について、添付の図面に従って説明する。
[0013] 実施の形態 1.
図 1は、この発明の実施の形態 1に係る画像合成装置の構成を示すブロック図であ る。この画像合成装置は、 1つの画像を指定の遷移効果によって遷移させるもので、 遷移情報計算部 2と画像合成部 30からなる。画像合成部 30は、画像生成部 3a、 3b 、画像補間合成部 4及び出力制御部 5を備え、画像生成部 3a、 3bおよび画像補間 合成部 4からなる。
[0014] この発明の実施の形態 1では、遷移情報計算部 2から画像生成部 3a、 3bおよび画 像補間合成部 4に与えられる遷移情報は、画像の移動画素数 mvとする。ここで、移 動画素数とは遷移効果によって移動する画像が遷移開始時の位置力 移動した画 素数を示す。また、描画タイミングは、垂直同期信号と同期するものとすれば、リフレ ッシュレートが 60Hzのとき、 16. 66 · · ·ミリ禾少毎に生じることになる。
[0015] 次に画像合成装置の動作について説明する。
図 1において、画像ファイル 1は画像データを保持するものであり、遷移させる画像 データ 11を含んでおり、画像生成部 3a、 3bへの入力として画像データ 11を与える。 例えば画像ファイル 1にバッファを設置できる場合には必要な画像データ 11を抽出 してバッファに蓄えてお!、て出力するようにしてもよ!、し、画像合成部 30にバッファを 設置できる場合には必要な画像データ 11を抽出して予めノ ッファに蓄えておいても よいし、またバッファを設置できない場合には画像ファイル 1から画像合成部 30に逐 次画像データ 11を出力してもよい。
遷移情報計算部 2は、画像の移動画素数 mvを計算する。
[0016] 画像生成部 3aは、遷移情報計算部 2より得られる移動画素数の小数点以下を切り 捨てた切り捨て移動画素数に基づいて計算される画像ファイル 1の画像データ 11の 第 1の描画元領域部分を入力として得て、この第 1の描画元領域と同様に切り捨て移 動画素数に基づいて計算される生成データ 12aの第 1の描画先領域部分として出力 し、同様に移動画素数の小数点以下を切り捨てた切り捨て移動画素数に基づ 、て 計算される画像ファイル 1の画像データ 11の第 2の描画元領域部分を入力として得 て、この第 2の描画元領域と同様に切り捨て移動画素数に基づいて計算される生成 データ 12aの第 2の描画先領域部分として出力する。この生成データ 12aは、画像生 成部 3a内部にバッファを内蔵できる場合には画像データ 11を読み込んで生成して 蓄えてから出力するものとし、ノ ッファを内蔵できな 、場合には読み込んで逐次生成 しながら出力するものとする。
[0017] 画像生成部 3bは、遷移情報計算部 2より得られる移動画素数の小数点以下を切り 上げた切り上げ移動画素数に基づいて計算される画像ファイル 1の画像データ 11の 第 1の描画元領域部分を入力として得て、この第 1の描画元領域と同様に切り上げ移 動画素数に基づいて計算される生成データ 12bの第 1の描画先領域部分として出力 し、同様に移動画素数の小数点以下を切り上げた切り上げ移動画素数に基づいて 計算される画像ファイル 1の画像データ 11の第 2の描画元領域部分を入力として得 て、この第 2の描画元領域と同様に切り上げ移動画素数に基づいて計算される生成 データ 12bの第 2の描画先領域部分として出力する。この生成データ 12bは、画像生 成部 3b内部にバッファを内蔵できる場合には画像データ 11を読み込んで生成して 蓄えてから出力するものとし、ノ ッファを内蔵できな 、場合には読み込んで逐次生成 しながら出力するものとする。
[0018] 画像補間合成部 4は、遷移情報計算部 2より得られる画像の移動画素数 mvにより 計算した後述の合成比率 fに基づいて、画像生成部 3a、 3bの生成データ 12a、 12b を合成して補間合成データ 13を生成する。この補間合成データ 13は、画像生成部 4 内部にバッファを内蔵できる場合には生成データ 12a、 12bを読み込んで合成して 蓄えてから出力するものとし、ノ ッファを内蔵できな 、場合には読み込んで逐次合成 しながら出力するものとする。
この補間合成データ 13は、図 1のブロック図に示されるように、画像合成部 30の出 力である合成データ 31となる。
[0019] 出力制御部 5は、合成された合成データ 31を受け取り、描画タイミング毎に外部の 表示装置 (図示せず)へ出力して表示させる。
遷移情報計算部 2は遷移情報である移動画素数を更新し、画像合成装置は上記 動作を繰り返す。
[0020] ここで、例えば、図 2は、右力 左にスクロールする遷移効果の概要を (A)方式、(B )方式として示している。(A)方式は、画像データ 11と生成データ 12aのサイズが等 しぐ画像データ 11から切り取った左端矩形領域を生成データ 12aの右端矩形領域 として貼り合わす方式である。また、(B)方式は、入力される画像データ 11が合成す る有効な領域に対して水平方向に十分大きくて、描画元領域を適宜設定しながら切 り出してそのまま描画先領域に貼り付ける方式である。これらは画像データ 11と生成 データ 12aのサイズの違 ヽによる代表的なスクロール実現方式である 1S (B)方式で 画像の右端に達したとき、 (A)方式と組み合わせて左端領域を切り出して貼り合わせ ることも可能である。(B)方式を採る場合、 1枚の画像データ 11の描画元領域、生成 データ 12aの描画先領域をそれぞれ 2つに分断して 2段階で生成するため、後述の 通りフローチャートの説明が一部異なってくる。
[0021] このように、画像生成部 3a、 3bでは、前段の複数の画像データの描画元領域部分 を入力として、対応する描画先領域部分に得ることで、後段でアクセス可能な 1つの 生成データ 12a、 12bを構成し出力する。
[0022] 図 3は、この発明の実施の形態 1に係る画像合成装置の処理手順を示すフローチ ヤートである。本図に沿って画像合成装置の処理手順を説明する。
[0023] ステップ ST1にお 、て、遷移情報計算部 2は初期の遷移前力 の画像の移動画素 数 mvを計算する。例えば、移動画素数 mvは、移動が一定速度で行われる場合に、 前の描画の際の移動画素数に LVZTを増加させることで得られる。なお、 Lは画像 の総移動画素数、 Tは遷移時間、 Vは表示装置の表示画像の更新間隔時間をそれ ぞれ示す。ここで計算された移動画素数 mvは、予め設定されている遷移効果に基 づ 、て画像毎の描画元領域及び描画先領域を求める領域計算式情報とともに画像 生成部 3a、 3bに通知され、また合成比率を計算するために画像補間合成部 4に通 知される。
[0024] ステップ ST2において、図 2の(A)方式、(B)方式ともに、画像生成部 3aは、遷移 情報計算部 2より与えられる移動画素数 mvと画像データ毎の第 1の描画元領域及び 第 1の描画先領域を求める領域計算式情報から画像生成部 3aにおける切り捨て移 動画素数 mv— aを次の式(1)により計算する。
mv― a=floor、mv) (1)
ここで、 "floor (mv) "は、移動画素数 mvを切り捨て整数化する数値関数を示す。
[0025] 次に、計算された切り捨て移動画素数 mv— aのときの画像ファイル 1の画像データ 11に対応する第 1の描画元領域と生成データ 12aに対応する第 1の描画先領域を 求め、画像データ 11の第 1の描画元領域部分を入力とし、生成データ 12aの第 1の 描画先領域部分に出力する。
[0026] ステップ ST3は先に説明した (A)方式の場合のみ実行するものとする。ステップ ST 3において、ステップ ST2と同様に、画像生成部 3aは、計算された切り捨て移動画素 数 mv— aのときの画像ファイル 1の画像データ 11に対する第 2の描画元領域と生成 データ 12aに対する第 2の描画先領域を求め、画像データ 11の第 2の描画元領域部 分を入力とし、生成データ 12aの第 2の描画先領域部分に出力する。第 2の描画元 領域は、ステップ ST2にお ヽて画像データ 11に対して切り取られた左端矩形領域に 相当し、また第 2の描画先領域は、生成データ 12aに対する右端矩形領域に相当す る。
[0027] ステップ ST4において、図 2の (A)方式、(B)方式ともに、画像生成部 3bは、遷移 情報計算部 2より与えられる移動画素数 mvと画像データ毎の第 1の描画元領域及び 第 1の描画先領域を求める領域計算式情報から画像生成部 3bにおける切り上げ移 動画素数 mv— bを次の式 (2)により計算する。
mv― b = ceiUmv) (2)
ここで、 "ceil (mv) "は、移動画素数 mvを切り上げ整数化する数値関数を示す。
[0028] 次に、計算された切り上げ移動画素数 mv—bのときの画像ファイル 1の画像データ 11に対応する第 1の描画元領域と生成データ 12bに対応する第 1の描画先領域を 求め、画像データ 11の第 1の描画元領域部分を入力とし、生成データ 12bの第 1の 描画先領域部分に出力する。
[0029] ステップ ST5は先に説明した (A)方式の場合のみ実行するものとする。ステップ ST 5において、ステップ ST4と同様に、画像生成部 3bは、計算された切り上げ移動画素 数 mv—bのときの画像ファイル 1の画像データ 11に対する第 2の描画元領域と生成 データ 12bに対する第 2の描画先領域を求め、画像データ 11の第 2の描画元領域部 分を入力とし、生成データ 12bの第 2の描画先領域部分に出力する。第 2の描画元 領域は、ステップ ST4にお ヽて画像データ 11に対して切り取られた左端矩形領域に 相当し、また第 2の描画先領域は、生成データ 12bに対する右端矩形領域に相当す る。
[0030] ここで説明したステップ ST2からステップ ST5は、それぞれの描画元領域と描画先 領域が正しく対応すれば処理の適用順序が入れ替わっても構わない。
[0031] ステップ ST6にお 、て、画像補間合成部 4は、遷移情報計算部 2より得られる移動 画素数 mvを用いて、次の式 (3)により合成比率 fを計算する。
f = mv― floor (mv) 3)
[0032] 次に、画像補間合成部 4は、計算した合成比率 fを用いて、次の式 (4)により、生成 データ 12aと生成データ 12bを入力としてブレンドし、補間合成データ 13を出力する I' (X, y) = (1 -f) ·Ι (x, y) +f-I (x, y) (4)
a b
ここで、 I' (x, y)は補間合成データ 13における座標 (x, y)の輝度値、 I (x, y)は生
a
成データ 12aにおける座標(X, y)の輝度値、 I (x, y)は生成データ 12bにおける座
b
標 (X, y)の輝度値を示す。
[0033] また、上記式(4)においては、生成データ 12aの I (x, y)、 12bの I (x, y)はバッフ
a b
ァを内蔵して蓄えられたことを前提とした場合の参照の表記であるが、バッファを内蔵 しな 、場合の参照の表記としては、次式(5)のように示せる。
I' (X, y) = (1 -f) -Kx + floor dnv) , y) +f 'I (x + ceil (mv) , y) (5) ここで、 I (x, y)は画像データ 11における座標 (x, y)の輝度値を示す。ただし、図 2 のように画像の右端に達すると画像の左端から連結する場合、上記式(5)の X座標で ある x+ floor (mv)および x+ ceil (mv)は画像幅に対する剰余値とする。
[0034] この発明の実施の形態 1では、図 1のブロック図に示すように、この補間合成データ 13は、画像合成部 30の出力である合成データ 31となる。
[0035] 最後に、ステップ ST7において、出力制御部 5は生成された合成データ 31を描画 タイミングに同期して表示装置の画面に表示させる。
その後、最初のステップ ST1に戻って、遷移情報計算部 2は遷移情報に相当する 移動画素数 mvを更新し、ステップ ST6までの処理を移動画素数が mv=Lになるま で繰り返す。
[0036] 以上のように、この発明の実施の形態 1によれば、物理的には垂直同期信号毎に 整数画素単位の精度でしか画像を移動させることができな 、ため、画像の遷移時間 に設定制限があった画像合成装置において、整数だけではなく小数点以下を表現し た数値の小数画素(サブピクセル)移動する際に、移動する画素数の小数点以下を 切り捨てた分移動した画像データと、切り上げた分移動した画像データを作成し、こ れらを小数点以下の値の合成比率 fで合成することにより、小数画素(サブピクセル) 単位の精度での画像の移動を制御することが可能となり、遷移時間の設定制限を解 消することができるという効果が得られる。 [0037] なお、この発明の実施の形態 1においては、描画毎に画像ファイル 1から画像デー タ 11を直接参照するものとして説明しているが、遷移開始前に画像データ 11を画像 ノ ッファにー且格納しておき、描画の際に画像バッファ力も読み出すようにしても同 様の効果が得られる。また、同様に画像生成部 3a、 3bの生成データ 12a、 12bや画 像補間合成部 4の補間合成データ 13についても、直接出力せずにそれぞれバッファ を設けて格納して読み出す構成としても構わない。また、入力される画像ファイル 1が 圧縮形式で与えられた場合でも、画像データ 11の参照段階で圧縮を解除してもよい し、あら力じめ圧縮を解除してバッファに格納してぉ ヽても構わな!/、。
[0038] また、遷移効果は、図 2で示したスクロール効果の他に、後述するスライドイン効果 、スライドアウト効果なども挙げられるが、これらは基本的に描画元領域と描画先領域 の設定方法を変更することで、この発明の画像合成装置に適用することができる。
[0039] 実施の形態 2.
図 4は、この発明の実施の形態 2に係る画像合成装置の構成を示すブロック図であ る。この画像合成装置は、 2つの画像を指定の遷移効果によって遷移させるもので、 画像ファイル la、 lb、遷移情報計算部 2、画像生成部 3a、 3b、画像補間合成部 4及 び出力制御部 5を備え、画像生成部 3a、 3bおよび画像補間合成部 4を含む構成範 囲を画像合成部 30とする。なお、図において、この発明の実施の形態 1における同 一符号は同一または相当のものを示す。
[0040] 図 4において、上記実施の形態 1における図 1との構成の違いは、画像ファイル 1が 画像ファイル la、 lbの 2つとなって、それぞれ画像生成部 3a、 3bに入力されることに ある。これは、例えば上記実施の形態 1の図 2の(B)方式は、画像が表示範囲より大 きい例であつたが、図 5に示すように、その画像が 2つの画像に分割され、それぞれ 力 描画元領域を得て貼り合わせる場合として説明を行う。
この発明の実施の形態 2では、上記実施の形態 1と同様に、遷移情報計算部 2から 画像生成部 3a、 3bおよび画像補間合成部 4に与えられる遷移情報は、画像の移動 画素数 mvとする。
[0041] 次に画像合成装置の動作について説明する。
図 4において、画像ファイル la、 lbは、画像データ l la、 l ibを含んでおり、画像生 成部 3a、 3bへの入力として画像データ l la、 l ibを与える。この画像データ l la、 11 bは、ノ ッファを設置できる場合には画像ファイル la、 lbから抽出して蓄えてから出 力するものとし、ノ ッファを設置できない場合には画像ファイル la、 lbから逐次抽出 しながら出力するものとする。
遷移情報計算部 2は遷移効果の進行を示す遷移情報に相当する画像の移動画素 数 mvを計算する。
[0042] 画像生成部 3aは、遷移情報計算部 2より得られる移動画素数の小数点以下を切り 捨てた切り捨て移動画素数に基づいて計算される画像ファイル laの画像データ 11a の描画元領域部分を入力として得て、描画元領域と同様に切り捨て移動画素数に基 づいて計算される生成データ 12aの描画先領域部分として出力し、同様に切り捨て 移動画素数に基づいて計算される画像ファイル lbの画像データ l ibの描画元領域 部分を入力として得て、切り捨て移動画素数に基づいて計算される生成データ 12a の描画先領域部分として出力する。この生成データ 12aは、画像生成部 3a内部にバ ッファを内蔵できる場合には画像データ l la、 l ibを読み込んで生成して蓄えてから 出力するものとし、ノ ッファを内蔵できない場合には読み込んで逐次生成しながら出 力するものとする。
[0043] 画像生成部 3bは、画像生成部 3aと同様に、遷移情報計算部 2より得られる移動画 素数の小数点以下を切り上げた切り上げ移動画素数に基づいて計算される画像ファ ィル laの画像データ 11aの描画元領域部分を入力として得て、描画元領域と同様に 切り上げ移動画素数に基づいて計算される生成データ 12bの描画先領域部分として 出力し、同様に切り上げ移動画素数に基づいて計算される画像ファイル lbの画像デ ータ l ibの描画元領域部分を入力として得て、描画元領域と同様に、切り上げ移動 画素数に基づいて計算される生成データ 12bの描画先領域部分として出力する。こ の生成データ 12bは、画像生成部 3b内部にバッファを内蔵できる場合には画像デー タ l la、 l ibを読み込んで生成して蓄えてから出力するものとし、ノ ッファを内蔵でき ない場合には読み込んで逐次生成しながら出力するものとする。
[0044] 画像補間合成部 4は、遷移情報計算部 2より得られる遷移情報に相当する画像の 移動画素数 mvにより計算した合成比率 fに基づいて、生成データ 12a、 12bを合成 して補間合成データ 13を出力する。
この補間合成データ 13は、図 4のブロック図に示されるように、画像合成部 30の出 力である合成データ 31となる。
出力制御部 5は、合成された合成データ 31を受け取り、描画タイミング毎に外部の 表示装置 (図示せず)へ出力して表示させる。
遷移情報計算部 2は遷移情報である移動画素数を更新し、画像合成装置は上記 動作を繰り返す。
[0045] また、この発明の実施の形態 2では、具体的な説明の際に、一例として、画像デー タ 1 laと画像データ 1 lb間で右力 左のスクロール効果を 5秒の遷移時間で行う場合 の処理につ!ヽて処理手順を説明する。
図 6は、画像データのスクロール効果による画面変化を示す図であり、ここでは、画 像データ 1 laから画像データ 1 lbへ右力 左にスクロールする場合を示して 、る。ス クロール効果とは、前に表示されていた画像が次に表示される画像によって画面から 押し出されるように見える効果を示す。
[0046] なお、この発明の実施の形態 2で用いる例では、画像データ 1 laと画像データ 1 lb と表示装置の解像度は全て同一で 320 X 48であるものとする。例えば、遷移する際 に右力 左にスクロールする場合、画像データ 11aの描画元領域が遷移開始時は(0 , 0) (320, 48)であり、画像データ l ibの描画元領域はないが、遷移が進むにつ れ画像データ 11aの描画元領域が(n, 0) (320, 48)、画像データ l ibの描画元 領域が(0, 0) (n, 48)と変化する。なお、その際、画像データ 11aの描画先領域 は(0, 0)一(320— n, 48)、画像データ l ibの描画先領域は(320— n, 0) (320 , 48)となる。そして、画像データ 11 aの描画元領域と描画先領域の面積が 0となるま で繰り返される。これによつて、画像データ 11aが画像データ l ibに左へ押し出され ていくように見える。なお、以降、領域の座標を示す場合、 (a, b) - (c, d)と記すが、 これは左上座標が (a, b)であり、右下座標が(c, d)である矩形領域を示す。
[0047] 図 7は、この発明の実施の形態 2に係る画像合成装置の処理手順を示すフローチ ヤートである。本図に沿って画像合成装置の処理手順を説明する。
[0048] ステップ ST11において、上記実施の形態 1の図 3のステップ ST1と同様に、遷移 情報計算部 2は遷移前力 の画像の移動画素数 mvを計算し、予め設定されて!、る 画像毎の描画元領域及び描画先領域を求める領域計算式情報と計算した画像の移 動画素数 mvを画像生成部 3a、 3bに通知する。
[0049] ステップ ST12からステップ ST15は、上記実施の形態 1の図 3のステップ ST2から ステップ ST5における第 1の描画元領域、第 1の描画先領域、第 2の描画元領域、第 2の描画先領域を、この発明の実施の形態 2の画像データ 11aの描画元領域、描画 先領域、画像データ l ibの描画元領域、描画先領域に変更した処理に相当する。こ れら 4つのステップは、それぞれの描画元領域と描画先領域が正しく対応すれば処 理の適用順序が入れ替わっても構わな 、。
[0050] ステップ ST12において、画像生成部 3aは、遷移情報計算部 2より与えられる移動 画素数 mvと画像データ毎の描画元領域及び描画先領域を求める領域計算式情報 力 画像生成部 3aにおける移動画素数 mv— aを上記式(1)により計算して画像ファ ィル laの画像データ 11aの描画元領域 aと生成データ 12aの描画先領域 aを求め、 画像ファイル laの画像データ 11 aの描画元領域 a部分を入力とし、生成データ 12a の描画先領域 a部分として出力する。
[0051] ステップ ST13において、画像生成部 3aは、遷移情報計算部 2より与えられる移動 画素数 mvと画像データ毎の描画元領域及び描画先領域を求める領域計算式情報 力 画像生成部 3aにおける移動画素数 mv— aを上記式(1)により計算して画像ファ ィル lbの画像データ l ibの描画元領域 bと生成データ 12aの描画先領域 bを求め、 画像ファイル lbの画像データ 1 lbの描画元領域 b部分を入力とし、生成データ 12a の描画先領域 b部分として出力する。
[0052] ステップ ST14において、画像生成部 3bは、遷移情報計算部 2より与えられる移動 画素数 mvと画像データ毎の描画元領域及び描画先領域を求める領域計算式情報 力も画像生成部 3bにおける移動画素数 mv—bを上記式(2)により計算して画像ファ ィル laの画像データ 11aの描画元領域 aと生成データ 12bの描画先領域 aを求め、 画像ファイル laの画像データ 11 aの描画元領域 a部分を入力とし、生成データ 12b の描画先領域 a部分として出力する。
[0053] ステップ ST15において、画像生成部 3bは、遷移情報計算部 2より与えられる移動 画素数 mvと画像データ毎の描画元領域及び描画先領域を求める領域計算式情報 力も画像生成部 3bにおける移動画素数 mv—bを上記式(2)により計算して画像ファ ィル lbの画像データ l ibの描画元領域 bと生成データ 12bの描画先領域 bを求め、 画像ファイル lbの画像データ 1 lbの描画元領域 b部分を入力とし、生成データ 12b の描画先領域 b部分として出力する。
[0054] 図 8は画像データ l la、 l ibと生成データ 12a、 12bの生成データの関係を説明す る図である。ここで、移動画素数 mvから計算された mv— a、 mv—bに基づいて、画 像データ 11aからそれぞれ切り出した描画元領域 a部分を生成データ 12a、 12bのそ れぞれの描画先領域 a部分へ出力し、また画像データ l ibからそれぞれ切り出した 描画元領域 b部分を生成データ 12a、 12bのそれぞれの描画先領域 b部分へ出力す る処理が行われることを示して 、る。
[0055] 例えば、移動画素数 mvが 7. 466 · · '画素の場合、画像生成部 3aは、画像フアイ ル laから描画元領域(7, 0) - (320, 48)の画像データ 11aを読み出し、生成デー タ 12aの描画先領域 (0, 0)一(313, 48)に書き込む。また、画像生成部 3aは、画像 ファイル lbから描画元領域 (0, 0) - (7, 48)の画像データ l ibを読み出し、生成デ ータ 12aの描画先領域(313, 0) - (320, 48)に書き込む。
[0056] 同様に、画像生成部 3bは、画像ファイル laから描画元領域(8, 0) (320, 48)の 画像データ 11aを読み出し、生成データ 12bの描画先領域 (0, 0) (312, 48)に 書き込む。また、画像生成部 3bは、画像ファイル lbから描画元領域 (0, 0) - (8, 48 )の画像データ l ibを読み出し、生成データ 12bの描画先領域(312, 0) - (320, 4 8)に書き込む。
[0057] ステップ ST16において、上記実施の形態 1の図 3のステップ ST6と同様に、画像 補間合成部 4は、遷移情報計算部 2より得られる移動画素数 mvを用いて、上記式(3 )により計算される合成比率 fを用いて、上記式 (4)により、生成データ 12aと生成デ ータ 12bとをブレンドし、補間合成データ 13として出力する。
この補間合成データ 13は、図 4のブロック図に示される画像合成部 30の出力であ る合成データ 31となる。
[0058] 最後に、ステップ ST17において、上記実施の形態 1の図 3のステップ ST7と同様 に、出力制御部 5は合成データ 31を描画タイミングに同期して表示装置の画面に表 示させる。
[0059] その後、最初のステップ ST11に戻って、遷移情報計算部 2は遷移情報に相当する 移動画素数 mvを更新し、ステップ ST17までの処理を移動画素数が mv=Lになるま で繰り返す。
[0060] 次に、図 9及び図 10に基づいて、この発明の実施の形態 2に係る画像合成装置に おいて、移動画素数 mv= 7. 466 · · ·のときに入力された画像データの各処理部か ら出力される結果の変化を順に説明する。なお、この発明の実施の形態 2では、画像 データ 11aと画像データ l ibが同様に移動するため、ここでは 1つの画像データをこ の発明の実施の形態 2の場合と同様に遷移する際の変化を示すが、 2つの場合も同 様であり、境界では 2つの画像の隣接領域の画素が混ざり合うものとする。
[0061] 図 9はこの発明の実施の形態 2に係る画像合成装置の各部における画像データの 変化の様子を輝度値で示している。また、図 10は図 9に示された輝度値をグラフで示 したものであり、進行方向である水平方向のある領域の輝度値の変化を示している。 図 10 (a)ゝ (b)、(c)、(d)は、それぞれ図 9 (a)、(b)、(c)、(d)と対応している。
[0062] 図 9 (a)とそれをグラフで示した図 10 (a)は画像ファイル la (lb)の画像データ 1 la ( l ib)の例を示している。
図 9 (b)とそれをグラフで示した図 10 (b)は画像生成部 3aにおいて画像ファイル la (lb)から遷移された生成データ 12aで、切り捨て移動画素数 mv—a = 7のときの画 像データを示し、ここでは、画像データが水平方向に 7画素移動している。
図 9 (c)とそれをグラフで示した図 10 (c)は画像生成部 3bにおいて画像ファイル la (lb)から遷移された生成データ 12bで、切り上げ移動画素数 mv—b = 8のときの画 像データを示し、ここでは、画像データが水平方向に 8画素移動している。
図 9 (d)とそれをグラフで示した図 10 (d)は画像補間合成部 4により補間合成された 移動画素数 mv= 7. 466 · · ·のときの補間合成データ 13を示している。ここで、図 9 ( d)の上段は小数座標をとる理想画像データであるが、実際に出力される画素値は整 数座標をとる下段の値が出力される。
[0063] これを図 10のグラフで説明すると、移動画素数 mv= 7. 466 · · ·に基づいて、上記 式(3)により合成比率 f=0.466···を計算し、図 10 (a)の画像データから、図 10(b )に示す生成データの輝度値 I (X, y)と図 10(c)に示す生成データの輝度値 I (X, y
a b
)と計算した合成比率 fを用いて、上記式 (4)により図 10 (d)に示すブレンド後の補間 合成データの輝度値 Γ (X, y)が求められる。
[0064] 図 10(d)において、白い丸で示す点は移動画素数 mv= 7.466· ··のときの補間 合成データの理想データにおける輝度値であり、次の式 (6)により求める。
I、x, y) =l(x— mv, y) (oj
ここで、 I (x, y)は理想データにおける座標 (x, y)の輝度値を示す。
[0065] また、図 10(d)において黒い丸で示す点は移動画素数 mv= 7.466· ··のときの 画像補間合成部 4における補間合成データの輝度値を示し、理想データの輝度値 に対して輝度変化が生じているが、この輝度値の補間合成データが移動画素数 mv =7. 466···のときの合成データとして表示装置に出力される。
[0066] このようにして、垂直同期信号 1周期当たりの移動画素数が整数のみに制限される ことなく、自由に画像効果の時間を設定することのできる柔軟な画像合成装置を実現 できる。
[0067] 表示装置には 1画素の矩形内は同一輝度値という物理的な制約があり、表示装置 における水平座標 iの画素の輝度値は次の式(7)で示される。
[数 1]
Figure imgf000018_0001
ここで、 I (i)は表示装置にお!、て水平座標値が iの画素に表示される輝度値を示 disp
す。また、画像データを拡大縮小することなく表示装置に表示する場合、 1画素の大 きさは表示装置に依存するので、画像データの輝度値も i≤x≤i+lにおいて一定で ある。
[0068] これに対して、画像データを移動画素数 mv= 7.466·· ·画素だけ右力 左に動か した場合、表示装置において画像移動後の水平座標値 iの画素に表示される輝度値 Γ (i)は次の式(8)で求められる。 [数 2]
/»【「 I(x - 7.466...) = (1 - 0.466...) - Ι(χ - 7) + 0.466... · + Ι(χ - 8) ( 8 )
ここで、 I (χ— 7)は移動画素数 mvの小数点以下を切り捨てた画素数だけ移動させ た生成データ 12aの画像データに相当し、 I (x— 8)は移動画素数 mvの小数点以下 を切り上げた画素数だけ移動させた生成データ 12bの画像データに相当し、そして、 0. 466 · · ·は小数点以下の合成比率 fに相当する。よって、輝度値 Γ (i)の画像デ
disp
ータは厳密には理想画像データに対する近似画像データであるが、表示装置に表 示させる場合、小数画素(サブピクセル)単位の精度で移動させた画像データに相当 する。
[0069] 以上のように、この発明の実施の形態 2によれば、物理的には垂直同期信号毎に 整数画素単位の精度でしか画像を移動させることができな 、ため画像の遷移時間に 設定制限があった画像合成装置において、整数だけではなく小数点以下を表現した 数値の小数画素(サブピクセル)移動する際に、移動する画素数の小数点以下を切 り捨てた分移動した画像データと、切り上げた分移動した画像データを作成し、これ らを小数点以下の値の合成比率 fで合成することにより、小数画素(サブピクセル)単 位の精度での画像の移動を制御することが可能となり、遷移時間の設定制限を解消 することができると!/ヽぅ効果が得られる。
[0070] なお、この発明の実施の形態 2においては、描画毎に各画像ファイル la、 lbから直 接画像データを読み出している力 遷移開始前に画像ファイル la、 lbの画像データ を画像バッファに格納しておき、描画の際に画像バッファ力も読み出すようにしても同 様の効果が得られる。
[0071] また、この発明の実施の形態 2においては、各処理部に出力バッファを備えている 力 これを持たずに、 1画素ずつ画像生成部 3a、 3bと画像補間合成部 4の全てある いは一部をまとめて計算して出力制御部 5に出力しても同様の効果が得られることは 、明らかである。例えば、全ての処理をまとめて計算すると、前記式(5)のようになる。 [0072] 実施の形態 3.
上記実施の形態 2にお 、て、小数画素(サブピクセル)単位の精度での移動の際に 、画像データの移動方向に垂直な幅 1画素の線、あるいは、周囲との輝度差の大き な 1画素の点が存在する場合には、描画する度に上記領域の周囲の輝度が周期的 に変動し、視覚的には線や点の大きさも周期的に変動するように見え、これが画像全 体の遷移効果の品質に多大なる影響を与えることがある。そこで、この発明の実施の 形態 3では、画像ファイル la、 lbから画像データ l la、 l ibを入力として得る際に、画 像データ l la、 l ibを平滑ィ匕することにより、画像データ l la、 l ibを移動方向にぼか すことで、移動方向の両隣接画素同士の輝度差を小さくし、この問題を軽減する画 像合成装置について説明する。
[0073] 図 11はこの発明の実施の形態 3に係る画像合成装置の構成を示すブロック図であ る。この画像合成装置は、 2つの画像を指定の遷移効果によって遷移させるもので、 画像ファイル la、 lb、遷移情報計算部 2、画像生成部 3a、 3b、画像補間合成部 4、 出力制御部 5、描画タイミング情報記憶部 6、平滑化処理部 7a、 7b、遷移効果記憶 部 10及びパラメータ制御部 18を備え、パラメータ制御部 18、平滑化処理部 7a、 7b、 画像生成部 3a、 3bおよび画像補間合成部 4を含む構成範囲を画像合成部 30とする 。なお、図において、上記実施の形態 1および上記実施の形態 2における同一符号 は同一または相当のものを示す。
[0074] 図 11において、上記実施の形態 2における図 4との構成の違いは、画像ファイル la 、 lbの画像データ l la、 l ibを平滑ィ匕処理部 7a、 7bで平滑ィ匕して力も画像生成部 3 a、 3bに入力するようにした構成にある。
[0075] また、図 12はこの発明の実施の形態 3に係る画像合成装置の構成の変形例を示 すブロック図である。この画像合成装置は、先に説明した図 11の画像合成部 30に相 当する破線部の画像補間合成部 4の出力である補間合成データ 13に対して、画像 補間合成部 4の直後に出力選択部 8を設けて、補間合成データ 13と画像データ 11a 、 l ibから選択した合成データ 31を表示できるようにした構成にしたものである。
[0076] この発明の実施の形態 3では、上記実施の形態 2と同様に、遷移情報計算部 2から 画像生成部 3a、 3bおよび画像補間合成部 4に与えられる遷移情報は、画像の移動 画素数 mvとする。
[0077] 次に画像合成装置の動作について出力選択部 8を設けている図 12に基づいて説 明する。
図 12において、描画タイミング情報記憶部 6は、出力制御部 5が表示装置に画像 データを出力した描画タイミングの識別値である描画タイミング情報を更新して記憶 する。
遷移効果記憶部 10は、遷移効果情報を出力する。
遷移情報計算部 2は、描画タイミング情報記憶部 6から描画タイミング情報を取得し 、遷移効果記憶部 10より遷移効果情報を取得し、遷移効果が画素の移動を伴う場 合は、取得した描画タイミング情報から次の描画の際の遷移効果の進行を示す遷移 情報に相当する移動画素数 mvを計算する。
パラメータ制御部 18は、遷移情報計算部 2から得られる遷移効果の種類に基づき 平滑化パラメータを生成する。
[0078] 画像ファイル la、 lbは、画像データ l la、 l ibを含んでおり、平滑化処理部 7a、 7b への入力として画像データ l la、 l ibを与える。
[0079] 平滑化処理部 7a、 7bは、画像ファイル la、 lbから得られる画像データ l la、 l ibに っ 、て画像の移動方向に対して、パラメータ制御部 18からの平滑化パラメータによ つて進行方向のみの平滑化処理を行い、平滑化データ 14a、 14bを出力する。この 平滑化データ 14a、 14bは、平滑化処理部 7a、 7b内部にバッファを内蔵できる場合 には画像データ l la、 l ibを読み込んで平滑ィ匕して蓄えてから出力するものとし、バ ッファを内蔵できない場合には読み込んで逐次平滑ィ匕しながら出力するものとする。
[0080] 画像生成部 3aは、遷移情報計算部 2より得られる移動画素数の小数点以下を切り 捨てた切り捨て移動画素数に基づいて計算される平滑化データ 14aの描画元領域 部分を入力として得て、描画元領域と同様に、切り捨て移動画素数に基づいて計算 される生成データ 12aの描画先領域部分として出力し、切り捨て移動画素数に基づ いて計算される平滑化データ 14bの描画元領域部分を入力として得て、描画元領域 と同様に、切り捨て移動画素数に基づいて計算される生成データ 12aの描画先領域 部分として出力する。 [0081] 画像生成部 3bは、遷移情報計算部 2より得られる移動画素数の小数点以下を切り 上げた切り上げ移動画素数に基づいて計算される平滑ィ匕データ 14aの描画元領域 部分を入力として得て、描画元領域と同様に、切り上げ移動画素数に基づいて計算 される生成データ 12bの描画先領域部分として出力し、切り上げ移動画素数に基づ いて計算される平滑化データ 14bの描画元領域部分を入力として得て、描画元領域 と同様に、切り上げ移動画素数に基づいて計算される生成データ 12bの描画先領域 部分として出力する。
[0082] 画像補間合成部 4は、遷移情報計算部 2より得られる遷移情報により計算した合成 比率 fに基づいて、生成データ 12a、 12bを合成して補間合成データ 13として出力す る。
[0083] 出力選択部 8は、遷移情報計算部 2より得られる遷移情報に基づき、画像データ 11 aと画像データ l ibと補間合成データ 13のいずれかを選択して出力する。
この出力選択部 8から出力されるデータは、図 12のブロック図に示されるように、画 像合成部 30の出力である合成データ 31となる。
ここで、出力選択部 8を備えていない図 11に示される画像合成装置の場合は、画 像補間合成部 4の出力である補間合成データ 13が、画像合成部 30の出力である合 成データ 31となる。
[0084] 出力制御部 5は、画像合成部 30から出力された合成データ 31を受け取り、描画タ イミング毎に表示装置(図示せず)へ出力して表示させ、表示が終了したことを描画タ イミング情報記憶部 6に通知する。
遷移情報計算部 2は遷移情報である移動画素数を更新し、画像合成装置は上記 動作を繰り返す。
[0085] なお、この発明の実施の形態 3の画像合成装置に備えられた遷移効果記憶部 10 は、遷移情報計算部 2が遷移効果記憶部 10の遷移効果情報の記憶機能を内蔵して いるときには、上記実施の形態 1および上記実施の形態 2の画像合成装置の構成と 同様に、遷移効果記憶部 10を設けずに省略することが可能である。
[0086] この発明の実施の形態 3では、具体的な説明の際に、一例として、上記実施の形態 2と同様に、画像データ 11aと画像データ l ib間で右力 左のスクロール効果を 5秒 の遷移時間で行う場合の処理にっ 、て処理手順にっ 、て説明する。
[0087] また、この発明の実施の形態 3では、遷移情報計算部 2から画像生成部 3a、 3bに 与えられる遷移情報は、画像データの移動画素数 mvと遷移効果記憶部 10が遷移 情報計算部 2に与える遷移効果情報を示す。ここで、遷移効果情報とは、遷移効果 の種類と遷移時間、領域計算式情報を示す。遷移効果の種類としては、スクロール や後述するスライドイン、スライドアウト、ワイプ等である。
[0088] なお、この発明の実施の形態 3に係る画像合成装置と接続される表示装置の仕様 については、上記実施の形態 2と同様とする。
[0089] 図 13はこの発明の実施の形態 3に係る画像合成装置の処理手順を示すフローチ ヤートである。本図に沿って図 12に基づく画像合成装置の処理手順を説明する。 まず、ステップ ST21において、描画タイミング情報記憶部 6は、遷移中において任 意の描画時刻の描画が終了した後、描画タイミング情報を更新する。例として、この 発明の実施の形態 3では、既に記憶している遷移開始時刻 tと取得した出力制御部
0
5における表示装置への出力時刻 tを描画タイミング情報とする。なお、 1回目の描 画を行う前の描画時刻 tは tである。
n 0
[0090] なお、この例では、描画タイミング情報として時刻を使用して 、るが、表示回数ゃ垂 直同期信号の発生回数を用いた場合でも、遷移時間を描画の回数や垂直同期信号 の発生回数力も計算するか、逆に、遷移時間から描画の回数や垂直同期信号の発 生回数を描画タイミング情報の単位としても良い。
[0091] ステップ ST22にお 、て、遷移情報計算部 2は、描画タイミング情報記憶部 6から描 画タイミング情報を取得し、遷移効果記憶部 10から遷移効果情報を取得し、遷移効 果が画素の移動を伴う場合は、描画タイミング情報から、上記実施の形態 1の図 3の ステップ ST1と同様に、次の描画の際の移動画素数 mvを求める。
[0092] 例えば、移動画素数 mvは、移動が一定速度で行われる場合、次の式(9)により求 める。
mv=p 'L (9)
ここで、 pは遷移時間を 100%とした遷移進行率を示す。例として、遷移進行率 pは次 の式(10)に基づいて計算することができる。 P = t/T (10)
ここで、 tは次に描画される遷移開始時刻からの相対的な描画予定時刻を示し、次の 式(11)により求める。
t=t -t +V (11)
n 0
なお、描画タイミング情報が描画の回数や垂直同期信号の発生回数を単位とする場 合、 tは次に描画されたときの描画回数や垂直同期信号の発生回数、 Tは遷移時間 内における描画や垂直同期信号の総発生回数としても良い。
[0093] ステップ ST23において、パラメータ制御部 18は遷移情報計算部 2から取得した遷 移効果の種類に基づき、平滑化処理部 7a、 7bにおける平滑ィ匕処理による鮮鋭さの 劣化度合いを示す平滑ィ匕パラメータを生成する。この平滑ィ匕パラメータとしては、遷 移効果の種類による各画像の進行方向に平滑化する M X Nの画素領域から構成さ れる空間フィルタ、あるいは、使用するフィルタを生成するための鮮鋭さの劣化度合 いを示す値を使用することができる。
[0094] この発明の実施の形態 3では、水平方向の移動遷移効果であるので、次の式(12) に示す 3 X 1の空間フィルタで、垂直方向への平滑化効果が小さい線形な空間フィ ルタを平滑ィ匕フィルタとして使用する。
A= (0. 25 0. 5 0. 25) (12)
逆に、垂直方向の移動遷移効果の場合は、上記空間フィルタの行と列を反転させた 次の式(13)に示す 1 X 3の空間フィルタで、水平方向に平滑化効果が小さい線形な 空間フィルタを平滑ィ匕フィルタとして使用する。
[数 3]
A 0.5 ( 1 3 )
.25
[0095] ここで、 Aはパラメータ制御部 18において、遷移効果の種類に応じて設定される行 列式であり、この発明の実施の形態 3では、パラメータ制御部 18は、遷移効果の種類 、すなわち、遷移効果の遷移方向に基づき、上記式(12)又は上記式(13)に示す空 間フィルタを平滑ィ匕フィルタとして選択する。なお、上記式(12)又は上記式(13)に 示す空間フィルタ以外に、効果の大小を問わず、同様あるいは近い効果が得られる フィルタであれば、同様に使用することができ、例示した係数値に限るものではない。 また、この発明の実施の形態 3においては、水平方向、垂直方向に移動させる例を 説明したが、他の方向である場合でも、平滑化処理部 7a、 7bの使用するフィルタが 進行方向に平滑化する場合は同様の効果が得られる。
[0096] なお、パラメータ制御部 18は、遷移情報に基づき、遷移開始時は徐々に平滑化効 果を大きくし、その後、一定とし、遷移終了前は徐々に平滑ィ匕効果を小さくすることに より、遷移開始と共に急に画像がぼけるのを避けることができ、より違和感の少ない小 数画素(サブピクセル)単位の精度での遷移効果を実現することができる。
[0097] ステップ ST24において、平滑ィ匕処理部 7aは、パラメータ制御部 18より得られる平 滑化パラメータに基づいて、画像ファイル laの画像データ 1 1aに、次の式(14)のよう に畳み込むことにより平滑化を行い、平滑ィ匕データ 14aを出力する。
^(x, y) = ∑ A(i, j) - I(x + y + j) ( 1 4 ) ここで、 I (x, y)は平滑化処理部 7aより出力される画像データの座標 (x, y)の輝
LPF
度値、 I (x, y)は平滑ィ匕処理部 7aに入力される画像ファイル laの画像データの座標
(X, y)の輝度値、 Sは次の式(15)を満たす (0, 0)を中心とした矩形領域とする。 i、 j は次のように示される。
- floor (M/2)≤i≤ floor (M/2)
かつ
- floor (N/2)≤j≤floor (N/2) ( 15)
A (i, j)はパラメータ制御部 18より得られる平滑化パラメータである行列式 Aの j行 i 列の値を示す。
この処理によって、画像ファイル laの画像データ 1 1aは進行方向にのみ平滑化さ れる。 [0098] ステップ ST25において、平滑ィ匕処理部 7bは、平滑ィ匕処理部 7aと同様にして、パラ メータ制御部 18より得られる平滑ィ匕パラメータに基づいて、画像ファイル lbの画像デ ータ l ibに、上記式(14)のように畳み込むことにより平滑ィ匕を行い、平滑化データ 1 4bを出力する。
この処理によって、画像ファイル lbの画像データ l ibは進行方向にのみ平滑化さ れる。
[0099] ステップ ST26からステップ ST29は、画像生成部 3a、 3bへの入力を、上記実施の 形態 2の図 7のステップ ST12からステップ ST15における画像ファイル la、 lbの画像 データ l la、 l ibから平滑化処理部 7a、 7bが出力する平滑化データ 14a、 14bに変 更した処理に相当する。これら 4つのステップは、それぞれの描画元領域と描画先領 域が正しく対応すれば処理の適用順序が入れ替わっても構わない。
[0100] ステップ ST26において、画像生成部 3aは、遷移情報計算部 2より与えられる移動 画素数 mvと画像データ毎の描画元領域及び描画先領域を求める領域計算式情報 カゝら画像生成部 3aにおける移動画素数 mv— aが floor (mv)のときの平滑ィ匕データ 1 4aの描画元領域 aと生成データ 12aの描画先領域 aを求め、平滑化データ 14aの描 画元領域 a部分を入力として得て、生成データ 12aの描画先領域 a部分として出力す る。
[0101] ステップ ST27において、画像生成部 3aは、遷移情報計算部 2より与えられる移動 画素数 mvと画像データ毎の描画元領域及び描画先領域を求める領域計算式情報 カゝら画像生成部 3aにおける移動画素数 mv— aが floor (mv)のときの平滑ィ匕データ 1 4bの描画元領域 bと生成データ 12aの描画先領域 bを求め、平滑化データ 14bの描 画元領域 b部分を入力として得て、生成データ 12aの描画先領域 b部分として出力す る。
[0102] ステップ ST28において、画像生成部 3bは、遷移情報計算部 2より与えられる移動 画素数 mvと画像毎の描画元領域及び描画先領域を求める領域計算式情報から画 像生成部 3bにおける移動画素数 mv—bが ceil (mv)のときの平滑ィ匕データ 14bの描 画元領域 bと生成データ 12bの描画先領域 bを求め、平滑化データ 14bの描画元領 域 b部分を入力として得て、生成データ 12bの描画先領域 b部分として出力する。 [0103] ステップ ST29において、画像生成部 3bは、遷移情報計算部 2より与えられる移動 画素数 mvと画像毎の描画元領域及び描画先領域を求める領域計算式情報から画 像生成部 3bにおける移動画素数 mv—bが ceil (mv)のときの平滑ィ匕データ 14aの描 画元領域 aと生成データ 12bの描画先領域 aを求め、平滑化データ 14aの描画元領 域 a部分を入力として得て、生成データ 12bの描画先領域 a部分として出力する。
[0104] ステップ ST30において、画像補間合成部 4は、上記実施の形態 2と同様にして、 遷移情報計算部 2より得られる移動画素数に基づ 、て合成比率 fを計算し、計算した 合成比率 fに基づ 、て生成データ 12a、 12bをブレンドして補間合成データ 13として 出力する。
[0105] ステップ ST31において、出力選択部 8は、遷移情報計算部 2より得られる移動画 素数が mv=0の場合は、画像ファイル laの画像データを出力する。また、移動画素 数 mv=Lの場合は、画像ファイル lbの画像データを出力する。一方、それ以外の場 合は、補間合成データ 13の画像データを出力する。この出力選択部 8の出力は、合 成データ 31として出力制御部 5に出力される。
[0106] ステップ ST32において、出力制御部 5は、出力選択部 8から出力された合成デー タ 31を垂直同期信号に同期して表示装置(図示せず)の画面に表示させ、表示が終 了したことを描画タイミング情報記憶部 6に通知する。
その後、ステップ ST21に戻って、再び描画タイミング情報記憶部 6は表示装置へ の描画時刻を更新し、ステップ ST32までの処理を移動画素数が mv=Lになるまで 繰り返す。
[0107] 次に、図 14及び図 15に基づいて、この発明の実施の形態 3に係る画像合成装置 において、移動画素数 mv= 7. 466 · · ·のときに入力された画像データの各処理部 から出力される結果の変化を順に説明する。
[0108] 図 14はこの発明の実施の形態 3に係る画像合成装置の各部における画像データ の変化の様子を輝度値で示している。また、図 15は図 14に示された輝度値をグラフ で示したものであり、進行方向である水平方向のある領域の輝度値の変化を示して いる。図 15 (a)、(b)、(c)、(d)、(e)は、それぞれ図 14 (a)、(b)、(c)、(d)、(e)と対 応している。 [0109] 図 14 (a)とそれをグラフに白い丸で示した図 15 (a)は画像ファイル la (lb)の画像 データ 11a (lib)の例を示している。
図 14(b)とそれをグラフに黒い丸で示した図 15(b)は平滑化処理部 7a (7b)にお Vヽて画像データ 1 la (1 lb)が平滑ィ匕された平滑ィ匕データ 14a (14b)を示す。ここで 使用した平滑化パラメータである行列式は、水平方向への移動であるので、上記式( 12)に示す行列式とする。
図 14(c)とそれをグラフで示した図 15 (c)は画像生成部 3aにおいて平滑ィ匕データ 14a (14b)を切り捨て移動画素数 mv— a = 7のときの遷移された生成データ 12aを 示し、ここでは、画像データが水平方向に 7画素移動している。
図 14(d)とそれをグラフで示した図 15(d)は画像生成部 3bにおいて平滑ィ匕データ 14a (14b)を切り上げ移動画素数 mv— b = 8のときの遷移された生成データ 12bを 示し、ここでは、画像データ 11が水平方向に 8画素移動している。
図 14 (e)とそれをグラフで示した図 15 (e)は画像補間合成部 4により補間合成され た移動画素数 mv=7.466···のときの補間合成データ 13を示している。ここで、図 14 (e)の上段は小数座標をとる理想画像データであるが、実際に出力される画素値 は整数座標をとる下段の値が出力される。
[0110] これを図 15のグラフで説明すると、移動画素数 mv=7.466· · 'に基づいて、上記 式(3)により合成比率 f=0.466···を計算し、図 15(b)の平滑ィ匕データの輝度値か ら図 15 (c)に示す生成データの輝度値 I (X, y)と図 15 (d)に示す生成データの輝度
a
値 I (X, y)と計算した合成比率 fを用いて、上記式 (4)により図 15(e)に示すブレンド b
後の補間合成データの輝度値 (χ, y)が求められる。
[0111] 図 15(e)において、白い丸で示す点は移動画素数 mv= 7.466···のときの補間 合成データの理想データにおける輝度値であり、上記式 (6)により求められる。
また、図 15(e)において黒い丸で示す点は移動画素数 mv= 7.466···のときの 画像補間合成部 4における補間合成データの輝度値を示し、理想データの輝度値 に対して輝度変化が生じているが、この輝度値の補間合成データが移動画素数 mv =7.466···のときの合成データとして表示装置に出力される。
[0112] なお、図 15(c)と図 15 ( より、この発明の実施の形態 3では、小数画素(サブピク セル)移動した画像と整数画素移動した画像と比較すると輝度変化が生じて!/ヽるが、 図 15 (c)と図 15 (e)及び上記実施の形態 2の図 10 (b)と図 10 (d)、また図 15 (e)及 び上記実施の形態 2の図 10 (d)との比較から、この発明の実施の形態 3の方が上記 実施の形態 2よりも輝度変化が大幅に小さくなつており、これに伴い、画像の移動中 における周期的な輝度変化を軽減する効果が得られる。
[0113] このようにして、垂直同期信号 1周期当たりの移動画素数が整数のみに制限される ことなく、自由に画像効果の時間を設定することができ、かつ、進行方向の隣接画素 間で輝度変化が大きな画素における周期的な輝度変化によって生じる遷移効果の 品質劣化を軽減する画像合成装置を実現できる。また、描画タイミング情報記憶部 6 を備えることによって、以前に描画した内容に影響されなくなるため、描画が垂直同 期信号 1周期以内に終了せず、次の垂直同期信号を待ってしまった場合でも、予定 通りの表示を行うことが可能なため、遷移時間内に遷移効果が終了する画像合成装 置を実現できる。さらに、遷移効果記憶部 10を備えることによって、画像の遷移の度 に、異なる遷移効果を行うことが可能な画像合成装置を実現できる。
[0114] 以上のように、この発明の実施の形態 3によれば、物理的には垂直同期信号毎に 整数画素単位の精度でしか画像を移動させることができな 、ため画像の遷移時間に 設定制限があった画像合成装置において、整数だけではなく小数点以下を表現した 数値の小数画素(サブピクセル)移動する際に、移動する画素数の小数点以下を切 り捨てた分移動した画像データと、切り上げた分移動した画像データを作成し、これ らを小数点以下の値の合成比率 fで合成することにより、小数画素(サブピクセル)単 位の精度での画像の移動を制御することが可能となり、遷移時間の設定制限を解消 することができると!/ヽぅ効果が得られる。
[0115] また、この発明の実施の形態 3によれば、平滑化処理部 7a、 7bが平滑ィ匕パラメータ を画像データに畳み込むことで画像データを平滑化して各画素における移動方向の 両隣接画素間のコントラストを下げることにより、小数画素 (サブピクセル)移動の際に 生じる周期的で大きな輝度変化を軽減することができるという効果が得られる。
[0116] さらに、この発明の実施の形態 3によれば、図 12の画像合成装置のように出力選択 部 8を加えることで、画像の遷移効果の開始前及び終了後の画像が停止した状態で は、原画像の高品位な画像を表示することができると 、う効果が得られる。
[0117] なお、この発明の実施の形態 3において、出力選択部 8を備えない図 11の画像合 成装置でも、パラメータ制御部 18において、遷移開始時と遷移終了時の平滑化パラ メータにおけるフィルタの成分値を A (0, 0) = 1、 A (i, j) =0 (i≠0かつ j≠0)とす れば、平滑ィ匕効果は得られないので、同様の効果を得ることができることは明らかで ある。
[0118] また、この発明の実施の形態 3では、描画の度に画像ファイル la、 lbから画像デー タ l la、 l ibを読み出している力 あら力じめ画像ファイル la、 lbから画像データ 11a 、 l ibを読み出して画像バッファに記憶し、画像バッファから描画の度に画像データ l la、 l ibを読み出しても同様の効果が得られることは明らかである。また、同様に、 平滑化処理部 7a、 7bの平滑化パラメータが遷移中変動しない場合に、あら力じめ画 像ファイル la、 lbから画像データ l la、 l ibを読み出し、平滑化処理部 7a、 7bによ つてそれぞれ平滑ィ匕された平滑ィ匕データ 14a、 14bを平滑化バッファに記憶しておき 、描画の度に平滑化バッファ力も平滑ィ匕データ 14a、 14bを読み出すと、同様の効果 が得られるだけでなく、平滑ィ匕処理を遷移開始時のみ行えば良 、のでより処理を軽 くすることがでさる。
[0119] 実施の形態 4.
この発明の実施の形態 4では、上記実施の形態 3における平滑化処理部 7a、 7bを 上記実施の形態 3に係る画像合成装置の構成とは異なる位置に配置した場合の画 像合成装置について説明する。
[0120] 図 16は、この発明の実施の形態 4に係る画像合成装置の構成を示すブロック図で ある。この画像合成装置は、 2つの画像を指定の遷移効果によって遷移させるもので 、画像ファイル la、 lb、遷移情報計算部 2、画像生成部 3a、 3b、画像補間合成部 4、 出力制御部 5、描画タイミング情報記憶部 6、平滑化処理部 7a、 7b及びパラメータ制 御部 18を備え、画像生成部 3a、 3b、パラメータ制御部 18、平滑化処理部 7a、 7bお よび画像補間合成部 4を含む構成範囲を画像合成部 30とする。なお、図において、 上記実施の形態 1から上記実施の形態 3における同一符号は同一または相当のもの を示す。 [0121] 図 16において、上記実施の形態 3における図 11との構成の違いは、平滑化処理 部 7a、 7bの平滑化処理の対象を画像生成部 3a、 3bへの入力前の画像データ 1 la、 l ibから画像生成部 3a、 3bが生成した生成データ 12a、 12bとする構成にある。また
、遷移効果記憶部 10を構成力も削除しているが、上記実施の形態 3と同様に構成に 加えていても構わない。
[0122] この発明の実施の形態 4では、上記実施の形態 1から上記実施の形態 3と同様に、 遷移情報計算部 2から画像生成部 3a、 3bおよび画像補間合成部 4に与えられる遷 移情報は、画像の移動画素数 mvとする。
[0123] 次に画像合成装置の動作について説明する。
図 16において、描画タイミング情報記憶部 6は、上記実施の形態 3の図 11と同様に
、出力制御部 5が表示装置に画像データを出力した描画タイミングの識別値である 描画タイミング情報を更新して記憶する。
遷移情報計算部 2は、描画タイミング情報記憶部 6から描画タイミング情報を取得し
、取得した描画タイミング情報から次の描画の際の遷移効果の進行を示す遷移情報 に相当する移動画素数 mvを計算する。
ノ メータ制御部 18は予め指定された遷移効果の種類に基づき平滑ィ匕パラメータ を生成する。
[0124] 画像ファイル la、 lb及び画像生成部 3a、 3bは、それぞれ上記実施の形態 2の図 4 に示す構成と同一である。
平滑化処理部 7a、 7bは、画像生成部 3a、 3bが出力する生成データ 12a、 12bに っ 、て画像の移動方向に対して、パラメータ制御部 18からの平滑化パラメータによ つて進行方向のみの平滑化処理を行い、平滑化データ 14a、 14bを出力する。
[0125] 画像補間合成部 4は、遷移情報計算部 2より得られる遷移情報により計算した合成 比率 fに基づいて、平滑化データ 14a、 14bを合成して補間合成データ 13を出力す る。
この補間合成データ 13は、図 16のブロック図に示されるように、画像合成部 30の 出力である合成データ 31となる。
出力制御部 5は、図 4と同様に、合成された合成データ 31を受け取り、描画タイミン グ毎に外部の表示装置(図示せず)へ出力して表示させる。
遷移情報計算部 2は遷移情報である移動画素数を更新し、画像合成装置は上記 動作を繰り返す。
[0126] なお、この発明の実施の形態 4に係る画像合成装置に接続される表示装置の仕様 、及びこの発明の実施の形態 4で説明する遷移効果については、上記実施の形態 2 と同様とする。
[0127] 図 17はこの発明の実施の形態 4に係る画像合成装置の処理手順を示すフローチ ヤートである。本図に沿って画像合成装置の処理手順を説明する。
ステップ ST41の処理は、上記実施の形態 3の図 13に示すステップ ST21の処理と 同様に、遷移中において、任意の描画時刻 tの描画が終了した後、描画タイミング情 報記憶部 6は描画タイミング情報を更新する。
[0128] ステップ ST42にお 、て、遷移情報計算部 2は、描画タイミング情報記憶部 6から描 画タイミング情報を取得し、取得した描画タイミング情報力 次の描画の際の遷移効 果の進行を示す遷移情報に相当する移動画素数 mvを計算する。
ステップ ST43において、上記実施の形態 3の図 13に示すステップ ST23の処理と 同様に、パラメータ制御部 18は予め指定された遷移効果の種類に基づき平滑化パ ラメータを生成する。
[0129] ステップ ST44、 ST45の処理は、上記実施の形態 2の図 7に示すステップ ST12、
ST13の処理と同一処理を行う。
ステップ ST46において、平滑ィ匕処理部 7aは、パラメータ制御部 18より得られる平 滑化パラメータに基づ 、て、生成データ 12aに対して上記式( 14)のように畳み込む ことにより平滑ィ匕を行い、平滑ィ匕データ 14aを出力する。この処理によって、生成デ ータ 12aは進行方向にのみ平滑化される。
[0130] ステップ ST47、 ST48の処理は、上記実施の形態 2の図 7に示すステップ ST14、
ST15の処理と同一処理を行う。
ステップ ST49において、平滑ィ匕処理部 7bは、パラメータ制御部 18より得られる平 滑化パラメータに基づ 、て、画像合成データ 12bに対して上記式( 14)のように畳み 込むことにより平滑化を行い、平滑ィ匕データ 14bを出力する。この処理によって、生 成データ 12bは進行方向にのみ平滑化される。
[0131] ここでステップ ST44、 ST45とステップ ST47、 ST48は、それぞれの描画元領域と 描画先領域が正しく対応すれば処理の適用順序が入れ替わっても構わな 、。そして 画像生成部 3a、 3bで生成データ 12a、 12bが生成されてから、平滑化処理部 7a、 7 bにおいてステップ ST46、 ST49で生成データ 12a、 12bをそれぞれ平滑化処理し た平滑化データ 14a、 14bを生成すればよい。
[0132] ステップ ST50にお 、て、画像補間合成部 4は、遷移情報計算部 2より得られる移 動画素数 mvに基づいて上記実施の形態 2と同様に合成比率 fを計算し、計算した合 成比率 fに基づいて平滑ィ匕データ 14a、 14bをブレンドして補間合成データ 13を出 力する。
[0133] ステップ ST51の処理は上記実施の形態 2の図 7に示すステップ ST17の処理と同 一処理を行う。
その後、上記ステップ ST41に戻って再び描画タイミング情報記憶部 6は表示装置 への描画時刻を更新し、ステップ ST51までの処理を移動画素数が mv=Lになるま で繰り返す。
[0134] このようにして、垂直同期信号 1周期当たりの移動画素数が整数のみに制限される ことなく、自由に画像効果の時間を設定することができ、かつ、移動方向の隣接画素 間で輝度変化が大きな画素における周期的な輝度変化によって生じる品質劣化を 軽減する画像合成装置を実現できる。
[0135] 以上のように、この発明の実施の形態 4によれば、物理的には垂直同期信号毎に 整数画素単位の精度でしか画像を移動させることができな 、ため画像の遷移時間に 設定制限があった画像合成装置において、整数だけではなく小数点以下を表現した 数値の小数画素(サブピクセル)移動する際に、移動する画素数の小数点以下を切 り捨てた分移動した画像データと、切り上げた分移動した画像データを作成し、これ らを小数点以下の値の合成比率 fで合成することにより、小数画素(サブピクセル)単 位の精度での画像の移動を制御することが可能となり、遷移時間の設定制限を解消 することができると!/ヽぅ効果が得られる。
[0136] また、この発明の実施の形態 4によれば、平滑化処理部 7a、 7bが平滑ィ匕パラメータ を画像データに畳み込むことで画像データを平滑化して各画素における移動方向の 両隣接画素間のコントラストを下げることにより、小数画素 (サブピクセル)移動の際に 生じる周期的で大きな輝度変化を軽減することができるという効果が得られる。
[0137] さらに、この発明の実施の形態 4によれば、図 16の画像合成部 30に対して上記実 施の形態 3における図 12の画像合成装置と同様に出力選択部 8を加えてもよぐ画 像の遷移効果の開始前及び終了後の画像が停止した状態では、原画像の高品位な 画像を表示することができると 、う効果が得られる。
[0138] なお、この発明の実施の形態 4では、描画の度に画像ファイル力も画像データを読 み出しているが、あらカゝじめ画像ファイル la、 lbから画像データを読み出して画像バ ッファに記憶し、画像バッファ力も描画の度に画像データを読み出しても同様の効果 が得られることは明らかである。
[0139] 実施の形態 5.
この発明の実施の形態 5では、平滑化処理部 7a、 7bが上記実施の形態 3及び上 記実施の形態 4に係る画像合成装置の構成位置とは異なる位置にある場合の画像 合成装置について説明する。
[0140] 図 18はこの発明の実施の形態 5に係る画像合成装置の構成を示すブロック図であ る。この画像合成装置は、 2つの画像を指定の遷移効果によって遷移させるもので、 画像ファイル la、 lb、遷移情報計算部 2、画像生成部 3a、 3b、画像補間合成部 4、 出力制御部 5、描画タイミング情報記憶部 6、平滑化処理部 7及びパラメータ制御部 1 8を備え、画像生成部 3a、 3b、画像補間合成部 4、ノ メータ制御部 18および平滑 化処理部 7を含む構成範囲を画像合成部 30とする。なお、図において、上記実施の 形態 1から上記実施の形態 4における同一符号は同一または相当のものを示す。
[0141] なお、図 18に示す画像合成装置は、上記実施の形態 3の図 11に示す画像合成装 置から平滑化処理部 7a、 7bを 1個の平滑ィ匕処理部 7とし、その位置を画像補間合成 部 4の直後に移動させたものである。
[0142] 図 18において、上記実施の形態 3における図 11との構成の違いは、上記実施の 形態 3の画像補間合成部 4の補間合成データ 13を画像合成部 30が出力する合成 データ 31としていたが、この発明の実施の形態 5では、異動した平滑化処理部 7で補 間合成データ 13を平滑ィ匕処理した平滑ィ匕データ 14を合成データ 31として出力する 構成にしたことにある。
[0143] 次に画像合成装置の動作について説明する。
描画タイミング情報記憶部 6、遷移情報計算部 2及びパラメータ制御部 18は、上記 実施の形態 4の図 16に示す構成と同一である。また、画像ファイル la、 lb、画像生 成部 3a、 3b及び画像補間合成部 4は、上記実施の形態 2の図 4に示す構成と同一 である。
[0144] 平滑ィ匕処理部 7は、補間合成データ 13を入力として、画像の移動方向に対して平 滑化パラメータに基づき、進行方向のみの平滑ィ匕処理を行い、平滑化データ 14を出 力する。
この平滑化データ 14は、図 18のブロック図に示されるように、画像合成部 30の出 力である合成データ 31となる。
出力制御部 5は、合成データ 31に格納された画像データを描画タイミング毎に表 示装置に出力し、表示が終了したことを描画タイミング情報記憶部 6に通知する。
[0145] 次に動作について説明する。
なお、この発明の実施の形態 5に係る画像合成装置に接続される表示装置の仕様 、及び、この発明の実施の形態 5で説明する遷移効果については、上記実施の形態 2と同様とする。
[0146] 図 19は、この発明の実施の形態 5に係る画像合成装置の処理手順を示すフローチ ヤートである。本図に沿って画像合成装置の処理手順を説明する。
ステップ ST61の処理は、上記実施の形態 3の図 13に示すステップ ST21の処理と 同一処理を行い、遷移中において、任意の描画時刻 tの描画が終了した後、描画タ イミング情報記憶部 6は描画タイミング情報を更新する。
[0147] ステップ ST62の処理は、上記実施の形態 3の図 13に示すステップ ST22の処理と 同一処理を行う。
ステップ ST63、 ST64の処理は、上記実施の形態 2の図 7に示すステップ ST12、 ST13の処理と同一処理を行う。
ステップ ST65、 ST66の処理は、上記実施の形態 2の図 7に示すステップ ST14、 ST15の処理と同一処理を行う。
[0148] これらステップ ST63からステップ ST66は、それぞれの描画元領域と描画先領域 が正しく対応すれば処理の適用順序が入れ替わっても構わない。
[0149] ステップ ST67の処理は、上記実施の形態 2の図 7に示すステップ ST16の処理と 同一処理を行う。
[0150] ステップ ST68において、パラメータ制御部 18は予め指定された遷移効果の種類 に基づき平滑化パラメータを生成する。
ステップ ST69において、平滑ィ匕処理部 7は、パラメータ制御部 18より得られる平滑 化パラメータに基づ!/、て、補間合成データ 13に上記式( 14)のように畳み込むことに より平滑化を行い、平滑ィ匕データ 14を出力する。この処理によって、補間合成データ
13は進行方向にのみ平滑化される。
[0151] ステップ ST70において、出力制御部 5は平滑ィ匕データ 14を垂直同期信号に同期 して表示装置の画面に表示させ、表示が終了したことを描画タイミング情報記憶部 6 に通知する。
その後、上記ステップ ST61に戻って、再び描画タイミング情報記憶部 6は表示装 置への描画時刻を更新し、ステップ ST70までの処理を移動画素数が mv=Lになる まで繰り返す。
[0152] このようにして、垂直同期信号 1周期当たりの移動画素数が整数のみに制限される ことなく、自由に画像効果の時間を設定することができ、かつ、進行方向の隣接画素 間で輝度変化が大きな画素における周期的な輝度変化によって生じる品質劣化を 軽減する画像合成装置を実現できる。
[0153] 以上のように、この発明の実施の形態 5によれば、物理的には垂直同期信号毎に 整数画素単位の精度でしか画像を移動させることができな 、ため画像の遷移時間に 設定制限があった画像合成装置において、整数だけではなく小数点以下を表現した 数値の小数画素(サブピクセル)移動する際に、移動する画素数の小数点以下を切 り捨てた分移動した画像データと、切り上げた分移動した画像データを作成し、これ らを小数点以下の値の合成比率 fで合成することにより、小数画素(サブピクセル)単 位の精度での画像の移動を制御することが可能となり、遷移時間の設定制限を解消 することができると!/ヽぅ効果が得られる。
[0154] また、この発明の実施の形態 5によれば、平滑ィ匕処理部 7が平滑ィ匕パラメータを画 像データに畳み込むことで画像データを平滑ィヒして各画素における移動方向の両 隣接画素間のコントラストを下げることにより、小数画素(サブピクセル)移動の際に生 じる周期的で大きな輝度変化を軽減することができるという効果が得られる。
[0155] さらに、この発明の実施の形態 5によれば、補間合成データ 13の入力を平滑化デ ータ 14に替えることで、画像の遷移効果の開始前及び終了後の画像が停止した状 態では、原画像の高品位な画像を表示することができると 、う効果が得られる。
[0156] また、この発明の実施の形態 5によれば、図 18の画像合成部 30に対して上記実施 の形態 3における図 12の画像合成装置のように出力選択部 8を加えてもよぐ画像の 遷移効果の開始前及び終了後の画像が停止した状態では、原画像の高品位な画像 を表示することができると 、う効果が得られる。
[0157] なお、この発明の実施の形態 5では、描画の度に画像ファイル la、 lbから画像デ ータを読み出している力 あらカゝじめ画像ファイル la、 lbから画像データを読み出し て画像バッファに記憶し、画像バッファ力も描画の度に画像データを読み出しても同 様の効果が得られることは明らかである。
[0158] 実施の形態 6.
この発明の実施の形態 6では、行列の畳み込み演算で平滑ィヒ処理を行うのではな ぐ複数の平滑化用画像生成部と平滑化合成部を用いて画像の描画処理と合成処 理で平滑処理を行う場合について説明する。
[0159] 図 20は、この発明の実施の形態 6に係る画像合成装置の平滑ィ匕処理部 7a、 7bの 構成を示すブロック図である。この画像合成装置は、 2つの画像を指定の遷移効果 によって遷移させるもので、画像生成部 3a、 3b以降の図示していない部分を含めた 平滑化処理部 7a、 7b以外のその他の構成は、上記実施の形態 3の図 12と同一構成 をとるちのとする。
[0160] 図 20において、パラメータ制御部 18により与えられる平滑ィ匕パラメータ力 上記実 施の形態 3と同様に、 M X Nの画素領域力 構成される空間フィルタであるとすると、 平滑ィ匕処理部 7aは M X N個の平滑ィ匕用画像生成部 151pqと平滑ィ匕合成部 17aを 備えている。同様に、平滑ィ匕処理部 7bは M X N個の平滑ィ匕用画像生成部 152pqと 平滑ィ匕合成部 17bを備えている。なお、 pは平滑ィ匕パラメータである平滑ィ匕フィルタ の対応する行番号、 qは列番号に対応するものとし、 0≤p≤M—l、 0≤q≤N—lと する。
[0161] 次に画像合成装置の平滑化処理部 7a、 7bの動作について説明する。
平滑化用画像生成部 15 lpqは、パラメータ制御部 18からの平滑ィ匕パラメータに基 づき計算される画像ファイル laの画像データ 11aの描画元領域部分を入力として得 て、描画元領域と同様に、平滑化パラメータに基づいて計算される平滑ィ匕用画像デ ータ 16 lpqの描画先領域部分として出力する。
[0162] 平滑ィ匕用画像生成部 152pqは、パラメータ制御部 18からの平滑ィ匕パラメータに基 づき計算される画像ファイル lbの画像データ 1 lbの描画元領域部分を入力として得 て、描画元領域と同様に、平滑化パラメータに基づいて計算される平滑ィ匕用画像デ ータ 162pqの描画先領域部分として出力する。
[0163] 平滑ィ匕合成部 17aは、上記平滑ィ匕用画像データ 161pqを平滑化パラメータ力も計 算して得た合成比率に基づいて合成した平滑化合成データ 19aを出力する。
同様に、平滑ィ匕合成部 17bは、上記平滑ィ匕用画像データ 162pqを平滑ィ匕パラメ一 タから計算して得た合成比率に基づいて合成した平滑化合成データ 19bを出力する
[0164] なお、この発明の実施の形態 6に係る画像合成装置に接続される表示装置の仕様 、及び、この発明の実施の形態 6で説明する遷移効果については、上記実施の形態 2と同様とする。
[0165] 図 21は、この発明の実施の形態 6に係る画像合成装置の処理手順を示すフローチ ヤートである。本図に沿って画像合成装置の処理手順を説明する。
ステップ ST81からステップ ST83の処理は、上記実施の形態 3の図 13に示すステ ップ ST21からステップ ST23と同一処理を行う。
ステップ ST81において、遷移中において任意の描画時刻 tの描画が終了した後、 描画タイミング情報記憶部 6は、上記実施の形態 3と同様に、描画タイミング情報を更 新する。 [0166] ステップ ST82において、遷移情報計算部 2は、上記実施の形態 3と同様に、描画 タイミング情報記憶部 6から描画タイミング情報を取得し、次に描画される時点での移 動画素数 mvを計算する。
[0167] ステップ ST83において、パラメータ制御部 18は、上記実施の形態 3と同様に、遷 移情報計算部 2から遷移効果の種類と移動画素数を得て平滑化パラメータを生成す る。
[0168] ステップ ST84において、平滑ィ匕用画像生成部 151pqは、画像ファイル laの画像 データ 1 laがパラメータ制御部 18より得られる平滑化パラメータに基づいた画素数( 水平方向に(p— floor (M/2) )画素、垂直方向に(q— floor (N/2) )画素)だけ移 動する際の画像ファイル laの画像データ 1 laの描画元領域と描画先領域を求め、そ れぞれ画像データ 11 aの描画元領域部分を取得し、平滑化用画像データ 16 lpqの 描画先領域部分として出力する。 P、 qの全組合せ (M X N通り)について、それぞれ 処理を行う。
[0169] ステップ ST85において、平滑ィ匕用画像生成部 152pqは、画像ファイル lbの画像 データ 1 lbがパラメータ制御部 18より得られる平滑化パラメータに基づ 、た画素数( 水平方向に(p— floor (M/2) )画素、垂直方向に(q— floor (N/2) )画素)だけ移 動する際の画像ファイル lbの画像データ l ibの描画元領域と描画先領域を求め、そ れぞれ画像データ 1 lbの描画元領域部分を取得し、平滑化用画像バッファ 162pq の描画先領域部分として出力する。 P、 qの全組合せ (M X N通り)について、それぞ れ処理を行う。
[0170] これらステップ ST84とステップ ST85は、 p、 qの値により図面上省略された対応ス テツプを含め、それぞれの描画元領域と描画先領域が正しく対応すれば処理の適用 順序が入れ替わっても構わな 、。
[0171] 例えば、平滑ィ匕パラメータが 3 X 1の行列の場合には、次のように、垂直方向への 移動はなぐ水平方向にのみ 1画素、 0画素、 + 1画素それぞれ移動した参照範囲 の平滑ィ匕用画像データ 161pq、 162pqが出力される。
[0172] 平滑ィ匕用画像生成部 15100は、画像ファイル laから画像データ 11aを取得し、左 へ 1画素移動させた平滑ィ匕用画像データ 16100を出力し、平滑化用画像生成部 15 110は、画像ファイル laから画像データ 11aを取得し、そのまま平滑ィ匕用画像データ 16110を出力し、平滑ィ匕用画像生成部 15120は、画像ファイル laから画像データ 1 laを取得し、右へ 1画素移動させた平滑ィ匕用画像データ 16120を出力する。
[0173] 同様に、平滑ィ匕用画像生成部 15200は、画像ファイル lbから画像データ l ibを取 得し、左へ 1画素移動させた平滑ィ匕用画像データ 16200を出力し、平滑化用画像生 成部 15210は、画像ファイル lb力 画像データ l ibを取得し、そのまま平滑ィ匕用画 像データ 16210を出力し、平滑ィ匕用画像生成部 15220は、画像ファイル lbから画 像データ l ibを取得し、右へ 1画素移動させた平滑ィ匕用画像データ 16220を出力す る。
[0174] ステップ ST86において、平滑ィ匕合成部 17aは、平滑化用画像データ 161pqが原 画像から移動した移動画素数に対応した成分値 A (p, q)を合成比率として、全ての 平滑化用画像データ 16 lpqをブレンドして平滑ィ匕合成データ 19aに書き込む。この 処理によって、画像ファイル laの画像データ 11aは進行方向にのみ平滑ィ匕される。
[0175] なお、平滑ィ匕用画像データ 161pqの合成比率 f は、 f =A (p, q)で求めることが
lpq iPQ
でき、出力される平滑ィ匕合成データ 19aは次の式(16)に示すものとなる。
[数 5]
/| , )= ^ | ' ! 0, )} ( 1 6 ) ここで、 I (X, y)は、平滑ィ匕合成データ 19aの座標 (X, y)の輝度値を示し、 I (x, y)
1 lij は平滑ィ匕用画像データ 16 lijの座標 (x, y)の輝度値を示す。また、 Sは次の式(17) を満たすものとする。
- floor (M/2)≤i≤ (M/2)
かつ
-floor (N/2)≤j≤ (N/2) (17)
[0176] ステップ ST87において、平滑ィ匕合成部 17bは、平滑化用画像データ 162pqが原 画像から移動した移動画素数に対応した成分値 A (p, q)を合成比率として、全ての 平滑化用画像データ 162pqをブレンドして平滑ィ匕合成データ 19bに書き込む。この 処理によって、画像ファイル lbの画像データ l ibは進行方向にのみ平滑ィ匕される。
[0177] なお、平滑ィ匕用画像データ 162pqの合成比率 f は、 f =A (p, q)で求めることが
2pq 2pq
でき、出力される平滑ィ匕合成データ 19bは次の式(18)に示すものとなる。
[数 6] ( ) = ^ {f2,j - l2 (x, y)} ( 1 8 ) ここで、 I (X, y)は、平滑ィ匕合成データ 19bの座標 (X, y)の輝度値を示し、 I (x, y
2 2ij
)は平滑ィ匕用画像データ 162ijの座標 (x, y)の輝度値を示す。また、 Sは上記式(17 )を満たすものとする。
[0178] ステップ ST88からステップ ST91の処理は、平滑化処理部 7a、 7bが出力する画像 生成部 3a、 3bへの入力を、上記実施の形態 3の図 13のステップ ST26力もステップ ST29における平滑化データ 14a、 14bから平滑化合成データ 19a、 19bに変更した 処理に相当する。これら 4つのステップは、それぞれの描画元領域と描画先領域が正 しく対応すれば処理の適用順序が入れ替わっても構わない。
[0179] ステップ ST88において、画像生成部 3aは、遷移情報計算部 2より与えられる移動 画素数 mvと画像データ毎の描画元領域及び描画先領域を求める領域計算式情報 カゝら画像生成部 3aにおける移動画素数 mv— aが floor (mv)のときの平滑ィ匕合成デ ータ 19aの描画元領域 aと生成データ 12aの描画先領域 aを求め、平滑化合成デー タ 19aの描画元領域 a部分を入力として得て、生成データ 12aの描画先領域 a部分と して出力する。
[0180] ステップ ST89において、画像生成部 3aは、遷移情報計算部 2より与えられる移動 画素数 mvと画像データ毎の描画元領域及び描画先領域を求める領域計算式情報 カゝら画像生成部 3aにおける移動画素数 mv— aが floor (mv)のときの平滑ィ匕合成デ ータ 19bの描画元領域 bと生成データ 12aの描画先領域 bを求め、平滑化合成デー タ 19bの描画元領域 b部分を入力として得て、生成データ 12aの描画先領域 b部分と して出力する。
[0181] ステップ ST90において、画像生成部 3bは、遷移情報計算部 2より与えられる移動 画素数 mvと画像データ毎の描画元領域及び描画先領域を求める領域計算式情報 力も画像生成部 3bにおける移動画素数 mv—bが ceil (mv)のときの平滑化合成デ ータ 19bの描画元領域 bと生成データ 12bの描画先領域 bを求め、平滑化合成デー タ 19bの描画元領域 b部分を入力として得て、生成データ 12bの描画先領域 b部分と して出力する。
[0182] ステップ ST91において、画像生成部 3bは、遷移情報計算部 2より与えられる移動 画素数 mvと画像データ毎の描画元領域及び描画先領域を求める領域計算式情報 力も画像生成部 3bにおける移動画素数 mv—bが ceil (mv)のときの平滑化合成デ ータ 19aの描画元領域 aと生成データ 12bの描画先領域 aを求め、平滑化合成デー タ 19aの描画元領域 a部分を入力として得て、生成データ 12bの描画先領域 a部分と して出力する。
[0183] ステップ ST92からステップ ST94の処理は、上記実施の形態 3の図 13に示すステ ップ ST30からステップ ST32と同一処理を行う。
[0184] このようにして、垂直同期信号 1周期当たりの移動画素数が整数のみに制限される ことなく、自由に画像効果の時間を設定することができ、かつ、進行方向の隣接画素 間で輝度変化が大きな画素における周期的な輝度変化によって生じる品質劣化を 軽減する画像合成装置を実現できる。
[0185] 以上のように、この発明の実施の形態 6によれば、物理的には垂直同期信号毎に 整数画素単位の精度でしか画像を移動させることができな 、ため画像の遷移時間に 設定制限があった画像合成装置において、整数だけではなく小数点以下を表現した 数値の小数画素(サブピクセル)移動する際に、移動する画素数の小数点以下を切 り捨てた分移動した画像データと、切り上げた分移動した画像データを作成し、これ らを小数点以下の値の合成比率 fで合成することにより、小数画素(サブピクセル)単 位の精度での画像の移動を制御することが可能となり、遷移時間の設定制限を解消 することができると!/ヽぅ効果が得られる。
[0186] また、この発明の実施の形態 6によれば、平滑化処理部 7a、 7bが、平滑化パラメ一 タに基づき計算される画像ファイル la、 lbの画像データ l la、 l ibの描画元領域部 分を入力とし、平滑化パラメータに基づき計算される平滑ィ匕用画像データ 161pq、 1 62pqの描画先領域部分として出力し、平滑ィ匕用画像データ 161pq、 162pqを平滑 ィ匕パラメータに基づいて計算した合成比率 fに基づいて合成した平滑ィ匕合成データ 19a、 19bを出力することで、画像データを平滑化して各画素における移動方向の両 隣接画素間のコントラストを下げることにより、小数画素(サブピクセル)移動の際に生 じる周期的で大きな輝度変化を軽減することができるという効果が得られる。
[0187] さらに、この発明の実施の形態 6によれば、図 20の画像合成部 30に対して上記実 施の形態 3における図 12の画像合成装置のように出力選択部 8を加えてもよぐ画像 の遷移効果の開始前及び終了後の画像が停止した状態では、原画像の高品位な画 像を表示することができると 、う効果が得られる。
[0188] なお、この発明の実施の形態 6では、上記実施の形態 3における平滑ィ匕処理部 7a 、 7bの内部構成を置き換えたが、上記実施の形態 4及び上記実施の形態 5における 平滑化処理部 7a、 7bの内部構成を同様に置き換えても、同様の効果を得ることがで きることは明らかである。
[0189] また、この発明の実施の形態 6では、描画の度に画像ファイル la、 lbから画像デー タ l la、 l ibを読み出している力 あら力じめ画像ファイル la、 lbから画像データ 11a 、 l ibを読み出して画像バッファに記憶し、画像バッファから描画の度に画像データ 11a, 1 lbを読み出しても同様の効果が得られることは明らかである。
[0190] さらに、この発明の実施の形態 6では、平滑ィ匕パラメータが固定であれば、あらかじ め画像ファイル la、 lbから画像データ l la、 l ibを取得し、平滑化処理部 7a、 7bに よってそれぞれ平滑化された平滑化合成データ 19a、 19bをバッファに記憶しておき 、描画の度にバッファ力も平滑ィ匕合成データ 19a、 19bを読み出すと、同様の効果が 得られるだけでなぐ平滑ィ匕処理を遷移開始時のみ行えば良 、ので描画の際の処 理をより軽くすることができる。
[0191] 実施の形態 7.
この発明の実施の形態 7では、上記実施の形態 3から上記実施の形態 6における 画像生成部、画像補間合成部、平滑化処理部を画像生成部と画像補間合成部のみ を用いて、一度に描画処理と合成処理のみを用いて実現する画像合成装置にっ ヽ て説明する。 [0192] 図 22は、この発明の実施の形態 7に係る画像合成装置の構成を示すブロック図で ある。この画像合成装置は、 2つの画像を指定の遷移効果によって遷移させるもので 、画像ファイル la、 lb、遷移情報計算部 2、画像生成部 3pq、画像補間合成部 4、出 力制御部 5、描画タイミング情報記憶部 6及びパラメータ制御部 18を備え、画像生成 部 3pq、画像補間合成部 4およびパラメータ制御部 18を含む構成範囲を画像合成 部 30とする。なお、図において、上記実施の形態 1から上記実施の形態 4における同 一符号は同一または相当のものを示す。
[0193] 図 22において、上記実施の形態 2における図 4との構成の違いは、画像合成部 30 が出力する合成データとしていた上記実施の形態 2の画像補間合成部 4の補間合成 データ 13に対して、画像補間合成部 4がパラメータ制御部 18から得られる平滑化パ ラメータを得ることで平滑ィ匕処理と補間合成処理までを一括して行った補間合成デ ータ 13を出力する構成にしたことにある。
[0194] 次に画像合成装置の動作について説明する。
図 22において、画像生成部 3pqは、遷移情報計算部 2より得られる遷移情報とパラ メータ制御部 18から得られる平滑ィ匕パラメータに基づいて計算される画像ファイル 1 aの画像データ 11aの描画元領域部分を入力として、描画元領域と同様に遷移情報 と平滑化パラメータに基づいて計算される生成データ 12pqの描画先領域部分として 出力し、同様に、遷移情報と平滑ィ匕パラメータに基づいて計算される画像ファイル lb の画像データ l ibの描画元領域部分を入力として、描画元領域と同様に遷移情報と 平滑化パラメータに基づいて計算される生成データ 12pqの描画先領域部分として 出力する。この生成データ 12pqは、画像生成部 3pq内部にバッファを内蔵できる場 合には画像データ l la、 l ibを読み込んで生成して蓄えてから出力するものとし、バ ッファを内蔵できない場合には読み込んで逐次生成しながら出力するものとする。な お、 pは平滑ィ匕パラメータである平滑ィ匕フィルタの対応する行番号、 qは列番号に対 応するものとし、 0≤p≤M、 0≤q≤N— 1とする。ここでは、水平方向へ移動する遷 移効果を前提として 、るが、垂直方向へ移動する遷移効果をとるときには 0≤ p≤ M 1、 0≤q≤Nとなる。
[0195] 画像補間合成部 4は、遷移情報計算部 2より得られる遷移情報とパラメータ制御部 18より得られる平滑ィ匕パラメータにより計算した合成比率に基づき、生成データ 12p qを合成して補間合成データ 13を出力する。パラメータ制御部 18は、遷移情報計算 部 2から得られる遷移効果の種類に基づき平滑化パラメータを生成し、画像生成部 3 pqと画像補間合成部 4に生成した平滑ィ匕パラメータを与える。その他の画像ファイル la、 lb、遷移情報計算部 2、出力制御部 5及び描画タイミング情報記憶部 6は、上記 実施の形態 4の図 16に示す構成と同一である。
[0196] 次に動作について説明する。
なお、この発明の実施の形態 7に係る画像合成装置に接続される表示装置の仕様 、及び、この発明の実施の形態 7で説明する遷移効果については、上記実施の形態 2と同様とする。なお、この発明の実施の形態 7におけるパラメータ制御部 18で構成 される平滑化パラメータは M X Nのフィルタとする。
[0197] また、この発明の実施の形態 7に係る画像合成装置では、遷移効果は上記実施の 形態 3と同様に、水平方向へ画像が移動する効果であるので、画像生成部 3pqを( M+ 1) X N個備える。一方、垂直方向へ画像が移動する効果の場合には、画像生 成部を M X (N+ 1)個備える。
[0198] 図 23はこの発明の実施の形態 7に係る画像合成装置の処理手順を示すフローチ ヤートである。
ステップ ST101からステップ ST103の処理は、上記実施の形態 4の図 17に示すス テツプ ST41からステップ ST43と同一処理を行う。
ステップ ST101において、遷移中において任意の描画時刻 tの描画が終了した後 、描画タイミング情報記憶部 6は、上記実施の形態 4と同様に、描画タイミング情報を 更新する。
[0199] ステップ ST102において、遷移情報計算部 2は、上記実施の形態 4と同様に、描画 タイミング情報記憶部 6から描画タイミング情報を取得し、次に描画される時点での移 動画素数 mvを計算する。
[0200] ステップ ST103において、パラメータ制御部 18は、上記実施の形態 4と同様に、遷 移情報計算部 2から遷移効果の種類と移動画素数を得て平滑化パラメータを求める [0201] ステップ ST104において、画像生成部 3pqは、遷移情報計算部 2より与えられる移 動画素数 mvに基づいて、遷移効果の移動画素数が、水平方向に floor (mv)— floo r(M/2) +p画素、垂直方向に q— floor (NZ2)画素ずらしたときの画像ファイル la の各描画元領域と生成データ 12pqの描画先領域を求め、画像ファイル laの画像デ ータ 1 laの描画元領域部分を入力として得て、生成データ 12pqの描画先領域部分 として出力する。
[0202] ステップ ST105において、画像生成部 3pqは、遷移情報計算部 2より与えられる移 動画素数 mvに基づいて、遷移効果の移動画素数が、水平方向に floor (mv) -floo r(M/2) +p画素、垂直方向に q— floor (NZ2)画素ずらしたときの画像ファイル lb の各描画元領域と生成データ 12pqの描画先領域を求め、画像ファイル lbの画像デ ータ libの描画元領域部分を入力として得て、生成データ 12pqの描画先領域部分 として出力する。
[0203] これらステップ ST104とステップ ST105は、 p、 qの値により図面上省略された対応 ステップを含め、それぞれの描画元領域と描画先領域が正しく対応すれば処理の適 用順序が入れ替わっても構わな 、。
[0204] ステップ ST106にお 、て、画像補間合成部 4は、遷移情報計算部 2より得られる移 動画素数 mvとパラメータ制御部 18から得られる平滑化パラメータ力も計算した各生 成データ 12pqに対する合成比率 f を用い、各生成データ 12pqをブレンドして補間 合成データ 13に書き込む。
[0205] なお、生成データ 12pqに対する合成比率 f は、次の式(19)に基づいて求められ る。
f =A(-floor(M/2), q-N/2)-(l-f)
0q
f =(A(l-floor(M/2), q-N/2)-(l-f)
lq
+A(-floor(M/2), q-N/2) -f f =A(M-1 -floor (M/2), q-N/2) - (l-f) +A(M-2-floor (M/2)
(M-l)q
, q-N/2) -f
f =A(M-l-floor(M/2), q-N/2) -f (19)
ここで、合成比率 fは上記式(3)で使用したものと同一である。
[0206] 例えば、平滑ィ匕パラメータが 3 X 1の行列の場合を説明する。
画像生成部 300は、遷移情報計算部 2より与えられる移動画素数 mvに基づいて、 移動画素数力 Sfloor (mv)— 1のときの画像ファイル la、 lbの各描画元領域と描画先 領域を求め、それぞれ描画元領域部分を入力として得て、生成データ 1200の描画 先領域部分として出力する。なお、垂直方向のずれは N= lなので、 0画素であるか ら、この計算方法は上記実施の形態 2と同様である。
[0207] 同様に、画像生成部 310は、遷移情報計算部 2より与えられる移動画素数 mvに基 づいて、移動画素数が floor (mv)のときの画像ファイル la、 lbの各描画元領域と描 画先領域を求め、それぞれ描画元領域部分を入力として得て、生成データ 1210の 描画先領域部分として出力する。
[0208] 同様に、画像生成部 320は、遷移情報計算部 2より与えられる移動画素数 mvに基 づいて、移動画素数が floor (mv) + 1のときの画像ファイル la、 lbの各描画元領域 と描画先領域を求め、それぞれ描画元領域部分を入力として得て、生成データ 122 0の描画先領域として出力する。
[0209] 同様に、画像生成部 330は、遷移情報計算部 2より与えられる移動画素数 mvに基 づいて、移動画素数が floor (mv) + 2のときの画像ファイル la、 lbの各描画元領域 と描画先領域を求め、それぞれ描画元領域部分を入力として得て、生成データ 123 0の描画先領域として出力する。
[0210] 画像補間合成部 4は、遷移情報計算部 2より得られる移動画素数 mvとパラメータ制 御咅 18より得られる平滑ィ匕ノラメ一タカら生成データ 1200、 1210、 1220、 1230の 合成比率 f 、 f 、 f 、 f を、次の式(20)に基づいて計算する。
00 10 20 30
f =A (— 1, O) - (l -f)
00
f 二 Α(0, 0) · (1— f) +A (— 1, 0) ·ί
10
f 二 Α(1, 0) ·Α (1— f) +A(0, 0) -f
20
f =A(1, 0) -f
30
f =mv- floor (mv) (20) [0211] 画像補間合成部 4は、生成データ 1200、 1210、 1220、 1230を、次の式(21)に 基づいて合成し、補間合成データ 13として出力する。
I' (x, y) =f ·Ι (x, y) +f ·Ι (x, y) +f ·Ι (x, y) +f ·Ι (x, y) (21)
00 00 10 10 20 20 30 30 ここで、 I (χ, y)は入力された生成データ 12qpの座標の輝度値を示し、 Γ (x, y)は 出力された画像補間合成データ 13の座標の輝度値を示す。
[0212] ステップ ST107において、出力制御部 5は補間合成データ 13を垂直同期信号に 同期して表示装置の画面に表示させる。
その後、ステップ ST101に戻って、再び描画タイミング情報記憶部 6は表示装置へ の描画時刻を更新し、ステップ ST107の処理を移動画素数が mv=Lになるまで繰り 返す。
[0213] このようにして、垂直同期信号 1周期当たりの移動画素数が整数のみに制限される ことなく、自由に画像効果の時間を設定することができ、かつ、進行方向の隣接画素 間で輝度変化が大きな画素における周期的な輝度変化によって生じる品質劣化を 軽減する画像合成装置を実現できる。
[0214] 以上のように、この発明の実施の形態 7によれば、上記実施の形態 3から上記実施 の形態 6と同様に、物理的には垂直同期信号毎に整数画素単位の精度でしか画像 を移動させることができないため画像の遷移時間に設定制限があった画像合成装置 において、小数画素(サブピクセル)移動する際に、移動する画素数の小数点以下を 切り捨てた分移動した画像データと切り上げた分移動した画像データ、及びこれらを 中心に上下左右移動した複数の画像データを作成し、それぞれに対応した平滑ィ匕 ノ メータである平滑ィ匕フィルタの各係数及び遷移情報である移動画素数の小数点 以下の合成比率で合成することで、小数画素(サブピクセル)単位の精度での移動と 平均化処理を同時に実現することにより、遷移時間の設定制限を解消し、かつ、画像 データを平滑ィ匕してコントラストを下げ、小数画素(サブピクセル)移動の際に生じる 周期的で大きな輝度変化を軽減することができるという効果が得られる。
[0215] さらに、この発明の実施の形態 7によれば、図 22の画像合成部 30に対して上記実 施の形態 3における図 12の画像合成装置のように出力選択部 8を加えてもよぐ画像 の遷移効果の開始前及び終了後の画像が停止した状態では、原画像の高品位な画 像を表示することができると 、う効果が得られる。
[0216] なお、この発明の実施の形態 7では、描画の度に画像ファイル la、 lbから画像デ ータ l la、 l ibを読み出している力 あら力じめ画像ファイル la、 lbから画像データ 1 la、 l ibを読み出して画像バッファに記憶し、画像バッファから描画の度に画像デー タ l la、 l ibを読み出しても同様の効果が得られることは明らかである。
[0217] また、上記実施の形態 1から上記実施の形態 7では、生成データ、補間合成データ 、平滑化データ、平滑化用画像データ、平滑ィ匕合成データは、画像生成部、画像補 間合成部、平滑化処理部、平滑化用画像生成部、平滑化合成部にバッファを内蔵し て記憶し、読み出して出力しても、バッファを内蔵せずに入力データを逐次処理しな 力 出力しても同様の効果が得られることは明らかである。
[0218] さらに、上記実施の形態 2から上記実施の形態 7では、画像生成部 3a、 3b、画像補 間合成部 4で各描画元領域 ·各描画先領域 ·合成比率を計算して!/、るが、遷移情報 計算部 2が各描画元領域 ·各描画先領域 ·合成比率の計算までを行!、、画像生成部 3a、 3b、画像補間合成部 4に移動画素数あるいはそれぞれで必要な各描画元領域 •各描画先領域'合成比率を与えても、同様の効果を得られることは明らかである。
[0219] さらに、上記実施の形態 3から上記実施の形態 7では、パラメータ制御部 18におい て、遷移効果の種類のみに基づいて平滑ィ匕を適用する方向を決定している力 さら に移動画素数の変化に応じて、変化が大きい場合は平滑ィ匕の度合いを大きぐ変化 力 、さい場合は小さくなるように、描画の度に平滑ィ匕パラメータを変更することによつ て、よりその効果を高めることも可能である。
[0220] さらに、上記実施の形態 3から上記実施の形態 5では、平滑ィヒ処理部において画 像内で同一の平滑ィ匕パラメータを用いている力 入力された画像データにおいて平 滑ィ匕を必要としないような周囲の画素との輝度差が小さい画素に関しては平滑ィ匕の 度合いを小さくするように平滑ィ匕パラメータを調節することにより、画素単位で平滑ィ匕 ノ メータの使い分けを行うことで、遷移効果中の画質がより向上させられることも明 らかである。
[0221] さらに、上記実施の形態 3から上記実施の形態 6においては、平滑化処理部、画像 生成部と画像補間合成部の各処理部を別々に配置しているが、平滑化処理部 7、画 像生成部 3a、 3bと画像補間合成部 4の全てあるいは一部をまとめて一度に計算して 出力制御部 5に出力しても、同様の効果が得られることは、明らかである。
全てをまとめて計算すると、いずれの実施の形態も次の式(22)と同一式となる。
[数 7]
/' , ) = ( /) ' > . A(i,ゾ.) . I(x + floor(mv) + i,y + j,c) + f - Y A(i, j)■ I(x + ceil(mv) , + j, c)
( 2 2 ) また、このことから、上記実施の形態 3から上記実施の形態 7に係る画像合成装置 は、処理手順は異なる力 全て同様の効果を得ることができることも明らかである。
[0222] さらに、上記実施の形態 3において、遷移効果記憶部 10は遷移情報計算部 2に内 蔵されてもよいことを説明したが、他の構成として遷移効果記憶部 10は遷移情報計 算部 2を経由して遷移効果情報を与えずに直接各処理部に与えても同様の効果が 得られることは明らかである。
[0223] さらに、上記実施の形態 1、上記実施の形態 2では、遷移効果記憶部 10及び描画 タイミング情報記憶部 6を備えな 、画像合成装置につ!、て説明して!/、るが、上記実 施の形態 3から上記実施の形態 7と同様に、描画タイミング情報記憶部 6を備えること によって、以前に描画した内容に影響されなくなるため、描画が垂直同期信号 1周期 以内に終了せず、次の垂直同期信号を待ってしまった場合でも、予定通りの表示を 行うことが可能なため、遷移時間内に遷移効果が終わる画像合成装置を実現できる ことは明らかである。
[0224] さらに、上記実施の形態 1、上記実施の形態 2では、上記実施の形態 3から上記実 施の形態 7と同様に、遷移効果記憶部 10を備えることによって、画像の遷移の度に、 異なる遷移効果を行うことが可能な画像合成装置を実現できることも明らかである。さ らに、上記実施の形態 1、上記実施の形態 2では、描画タイミング情報記憶部 6を備 えた場合でも、上記実施の形態 3から上記実施の形態 7と同様に、画像合成装置を 実現できることも明らかである。
[0225] さらに、上記実施の形態 2から上記実施の形態 6では、遷移効果の一つとして 2枚 の画像間のスクロールを説明したが、その他の表示矩形の位置が変化する一般的な 効果として、スライドイン、スライドアウト等が挙げられる。また、上記以外の遷移効果 であっても、画像生成部 3a、 3bが遷移効果に対応した描画元領域と描画先領域を 各画像データに対して得ることで、小数画素(サブピクセル)毎に移動する遷移効果 を実現することが可能である。
[0226] さらに、画像毎に移動画素数の変位量が異なる場合は、パラメータ制御部 18にお いて、上記実施の形態 4及び上記実施の形態 5では、平滑化処理部 7a、 7bにおい て移動画素数の変位量の同一領域毎に平滑ィ匕処理部 7a、 7bの平滑ィ匕パラメータを 使い分けることで、画像ファイル la、 lbの画像データ l la、 l ib毎に移動画素数の 異なる遷移効果を実現することができる。また、上記実施の形態 3では、平滑化処理 部 7a、 7bが平滑ィ匕を行う画像ファイル la、 lb毎に平滑ィ匕パラメータを使い分けること で、画像ファイル la、 lbの画像データ l la、 1 lb毎に移動画素数の異なる遷移効果 を実現することができる。
[0227] 例えば、スライドインの場合、画像データ 11aが動かず、画像データ l ibがスクロー ルと同様に表示装置の画面に入ってくる。この場合、パラメータ制御部 18が遷移情 報計算部 2より得られる遷移情報から画像データ l la、 l ibの各描画先領域を計算、 あるいは、前記各描画先領域を遷移情報計算部より取得することにより、画像データ 1 lbが描画されて 、る画素のみ進行方向に平滑ィ匕を行うように各画素における平滑 化パラメータを設定し、前記平滑化パラメータに基づいて平滑化処理部 7a、 7bが処 理を行うことにより、スライドインにおける小数画素(サブピクセル)毎に移動する遷移 効果を実現することができる。
[0228] 図 24は画像データ 11 aから画像データ 1 lbへ右から左にスライドインするスライドィ ン効果による画面変化を示す図である。スライドインとは、前に表示されていた画像 の上に、次に表示される画像が新たに差し込まれるように見える効果を示す。なお、 上記実施の形態 2におけるスクロールの例と同様に、画像データ 11aと画像データ 1 lbと表示装置の解像度は、全て同一で 320 X 48であるとする。例えば、遷移する際 に右力 左にスライドインする場合、画像データ 11aの描画元領域が遷移開始時は( 0, 0) (320, 48)であり、画像データ l ibの描画元領域はないが、遷移が進むに つれて画像データ 11aの描画元領域が(0, 0)一(320— n, 48)、画像データ l ibの 描画元領域が(0, 0) (n, 48)と変化する。なお、その際、画像データ 11aの描画 先領域は(0, 0)—(320— n, 48)、画像データ l ibの描画先領域は(320— n, 0) (320, 48)となる。そして、画像データ 11aの描画先領域と描画先領域の面積が 0 となるまで繰り返される。これによつて、画像データ 11aの上に、画像データ l ibが新 たに差し込まれるように見える。
[0229] スライドアウトの場合は、逆に画像データ 11aが描画されている領域のみ平滑化す れば同様の効果を実現できる。
[0230] 図 25は画像データ 11aから画像データ l ibへ右力 左にスライドアウトするスライド アウト効果による画面変化を示す図である。スライドアウトとは、前に表示されていた 画像が任意の方向に引き抜かれ、その下力 次に表示される画像が現れるように見 える効果を示す。なお、上記実施の形態 2におけるスクロールの例と同様に、画像デ ータ 1 laと画像データ 1 lbと表示装置の解像度は、全て同一で 320 X 48であるとす る。例えば、遷移する際に右力も左にスライドアウトする場合、画像データ 11aの描画 元領域が遷移開始時は (0, 0) (320, 48)であり、画像データ l ibの描画元領域 はないが、遷移が進むにつれて画像データ 11aの描画元領域が(n, 0)—(320, 48 )、画像データ l ibの描画元領域が(320— n, 0) - (320, 48)と変化する。なお、そ の際、画像データ 11aの描画先領域は(0, 0)一(320— n, 48)、画像データ l ibの 描画先領域は(320— n, 0) (320, 48)となる。そして、画像データ 11aの描画先 領域と描画先領域の面積が 0となるまで繰り返される。これによつて、画像データ 11a が画面から引き抜かれ、画像データ l ibがその下力も現れたように見える。
[0231] なお、ワイプ効果の場合は、画像データ l la、 l ib共に画像の位置は移動しないた め、画像の移動に伴う輝度変化は生じない。そのため、上記実施の形態 2における 画像合成装置の構成のみで周期的な輝度変化のな 、小数画素(サブピクセル)毎に 移動する遷移効果が実現可能である。
[0232] 図 26は画像データ 11 aから画像データ 1 lbへ右から左にワイプするワイプ効果に よる画面変化を示す図である。ワイプとは、前に表示されていた画像を次に表示され る画像で順に塗り替えていくように見える効果を示す。なお、上記実施の形態 2にお けるスクロールの例と同様に、画像データ 11aと画像データ l ibと表示装置の解像度 は、全て同一で 320 X 48であるとする。例えば、遷移する際に右力 左にワイプする 場合、画像データ 11aの描画元領域が遷移開始時は(0, 0) (320, 48)であり、画 像データ 1 lbの描画元領域はな 、が、遷移が進むにつれて画像データ 1 laの描画 元領域が(0, 0)—(320— n, 48)、画像データ l ibの描画元領域が(320— n, 0) 一 (320, 48)と変化する。なお、その際、画像データ 11aの描画先領域は (0, 0) 一 ( 320-n, 48)、画像データ l ibの描画先領域は(320— n, 0) - (320, 48)となる。 そして、画像データ 11aの描画先領域と描画先領域の面積が 0となるまで繰り返され る。これによつて、画像データ 11aが画像データ l ibによって徐々に塗り替えていくよ うに見える。なお、ワイプの場合、遷移情報である遷移進行を示す移動画素数は、画 像データ l ibにより塗り替えられた行数を示す。
[0233] また、ワイプ効果では、画像内部に開始点を設定して左右へ画像の塗り替えて!/、く 図 27や、開始点を左右両端に設定して内部へ塗り替えていく図 28のような複合変形 例も容易に実現できる。なお、図 27では内部の開始点力も左右に、それぞれ mv— a Z2の移動画素数で塗り替えを行う例として示しているが、左右均等でなくても構わ ず、例えば開始点を境界として左右に異なる移動画素数、合成比率で塗り替えを進 め、左右端に達した時点でその方向の塗り替えを終了するものとする。また、図 28で は左右両端から内部に向力つて、それぞれ mv— aZ2の移動画素数で塗り替えを行 う例として示しているが、左右均等でなくても構わず、例えば交差する終了点を境界 として左右に異なる移動画素数、合成比率で塗り替えを進め、内部の終了点で交差 した時点で塗り替えを終了するものとする。同様に、内部の終了点で左右に分割され た画像を左右からスライドインさせて終了点で結合させ、あるいは内部の開始点から 画像を左右に分離してスライドアウトさせるような複合変形例についても、内部の開始 点または終了点を境界として左右に異なる移動画素数、合成比率で二方向に二系 統の合成を行う t ヽぅ考え方で容易に実現できる。
[0234] さらに、上記実施の形態 2から上記実施の形態 7では、 2つの画像間の遷移効果を 例に挙げて説明したが、上記実施の形態 1のように 1枚の画像の端力も端をスクロー ルで表示したり、 1枚以上の画像を繰り返しスクロールしたり、また 3つ以上の画像を 連続して遷移させたとしても、上記実施の形態 2、上記実施の形態 4及び上記実施の 形態 5の場合は画像数分だけ画像ファイルを、上記実施の形態 3の場合は、画像数 分だけ画像ファイル及び平滑化処理部を備え、画像生成部 3a、 3bが遷移効果に対 応した描画元領域と描画先領域を各画像データや出力データに対して得て平滑ィ匕 を行うことで、同様の効果が得られる。
また、上記実施の形態 1から上記実施の形態 7は、プログラムで、各処理部を実現 することでも同様の効果を得られることは明らかである。

Claims

請求の範囲
[1] 画像の遷移情報として移動画素数を計算する遷移情報計算部と、
画像データに基づき上記遷移情報計算部で計算された上記移動画素数の小数点 以下を切り捨てた切捨て移動画素数に対応した生成データと上記移動画素数の小 数点以下を切り上げた切上げ移動画素数に対応した生成データとを生成し、この生 成データに基づき上記移動画素数から得た合成比率で合成して合成画像データを 出力する画像合成部と
を備えることを特徴とする画像合成装置。
[2] 上記画像合成部は、
上記遷移情報と所望の遷移効果の種類と移動方向に基づく平滑化パラメータを生成 し、
上記画像データに上記平滑化パラメータによる平滑化処理を行い、
この平滑化処理を行った画像データから上記切捨て移動画素数および上記切上げ 移動画素数に対応した生成データを生成し、
この生成データを上記合成比率で合成する
ことを特徴とする請求項 1記載の画像合成装置。
[3] 上記画像合成部は、
上記遷移情報と所望の遷移効果の種類と移動方向に基づく平滑化パラメータを生成 し、
上記画像データから上記切捨て移動画素数および上記切上げ移動画素数に対応し た生成データを生成し、
この生成データに上記平滑化パラメータによる平滑化処理を行い、
この平滑ィヒ処理を行った生成データを上記合成比率で合成する
ことを特徴とする請求項 1記載の画像合成装置。
[4] 上記画像合成部は、
上記遷移情報と所望の遷移効果の種類と移動方向に基づく平滑化パラメータを生成 し、
上記画像データから生成された上記切捨て移動画素数および上記切上げ移動画素 数に対応した生成データを生成し、
この生成データを上記合成比率で合成し、
この合成した生成データに上記平滑化パラメータによる平滑ィ匕処理を行う ことを特徴とする請求項 1記載の画像合成装置。
[5] 上記画像合成部は、
上記切捨て移動画素数から設定される上記画像データに対する描画元領域部分の 画像データを得て、生成する第 1の生成データに対する描画先領域部分の生成デ ータとする第 1の画像生成部と、
上記切上げ移動画素数から設定される上記画像データに対する描画元領域部分の 画像データを得て、生成する第 2の生成データに対する描画先領域部分の生成デ ータとする第 2の画像生成部と、
上記第 1の画像生成部が生成した上記第 1の生成データおよび上記第 2の画像生成 部が生成した上記第 2の生成データを上記合成比率で合成して補間合成データを 生成する画像補間合成部を備え、
上記画像補間合成部が生成した上記補間合成データを上記合成画像データとして 出力することを特徴とする請求項 1記載の画像合成装置。
[6] 上記画像合成部は、
上記遷移情報と所望の遷移効果の種類と移動方向に基づく平滑化パラメータを生成 するパラメータ制御部と、
上記切捨て移動画素数から設定される上記画像データに対する描画元領域部分の 画像データを得て、上記パラメータ制御部が生成した上記平滑化パラメータにより平 滑ィ匕処理を適用した第 1の平滑化画像データを生成する第 1の平滑化処理部と、 上記切捨て移動画素数から設定される上記画像データに対する描画元領域部分の 画像データを得て、上記パラメータ制御部が生成した上記平滑化パラメータにより平 滑ィ匕処理を適用した第 2の平滑ィ匕画像データを生成する第 2の平滑ィ匕処理部を備え 上記第 1の画像生成部および上記第 2の画像生成部は、上記第 1の平滑化処理部 が生成した上記第 1の平滑化データと上記第 2の平滑化処理部が生成した上記第 2 の平滑化データを得て、生成する上記第 1の生成データおよび上記第 2の生成デー タに対する描画先領域部分の生成データとする
ことを特徴とする請求項 5記載の画像合成装置。
[7] 上記画像合成部は、
上記画像情報計算部から得られる遷移情報に基づき、上記画像データと上記補間 合成データのいずれかを選択して出力する出力選択部を備え、
上記出力選択部で選択された出力を合成画像データとする
ことを特徴とする請求項 6記載の画像合成装置。
[8] 上記画像合成部は、
上記遷移情報と所望の遷移効果の種類と移動方向に基づく平滑化パラメータを生成 するパラメータ制御部と、
上記第 1の画像生成部が生成した上記第 1の生成画像データを得て、上記パラメ一 タ制御部が生成した上記平滑ィヒパラメータにより平滑ィヒ処理を適用した第 1の平滑 化データを生成する第 1の平滑化処理部と、
上記第 2の画像生成部が生成した上記第 2の生成画像データを得て、上記パラメ一 タ制御部が生成した上記平滑ィヒパラメータにより平滑ィヒ処理を適用した第 2の平滑 化データを生成する第 2の平滑化処理部を備え、
上記画像補間合成部は、上記第 1の平滑化処理部が生成した上記第 1の平滑化デ ータと上記第 2の平滑ィ匕処理部が生成した上記第 2の平滑ィ匕データ力 上記補間合 成データを生成する
ことを特徴とする請求項 5記載の画像合成装置。
[9] 上記画像合成部は、
上記画像情報計算部から得られる遷移情報に基づき、上記画像データと上記補間 合成データのいずれかを選択して出力する出力選択部を備え、
上記出力選択部で選択された出力を合成画像データとする
ことを特徴とする請求項 8記載の画像合成装置。
[10] 上記画像合成部は、
上記遷移情報と所望の遷移効果の種類と移動方向に基づく平滑化パラメータを生成 するパラメータ制御部と、
上記画像補間合成部が生成した上記補間合成データを得て、上記パラメータ制御 部が生成した上記平滑ィ匕パラメータにより平滑ィ匕処理を適用して平滑ィ匕データを生 成する平滑化処理部を備え、
上記平滑化処理部が生成した上記平滑化データを平滑化された補間合成データと して出力することを特徴とする請求項 5記載の画像合成装置。
[11] 上記画像合成部は、
上記画像情報計算部から得られる遷移情報に基づき、上記画像データと上記補間 合成データのいずれかを選択して出力する出力選択部を備え、
上記出力選択部で選択された出力を合成画像データとする
ことを特徴とする請求項 10記載の画像合成装置。
[12] 画像の遷移情報として移動画素数を計算する遷移情報計算ステップと、
画像データに基づき上記遷移情報計算ステップで計算された上記移動画素数の小 数点以下を切り捨てた切捨て移動画素数に対応した生成データを生成する第 1の生 成ステップと、
上記画像データに基づき上記遷移情報計算ステップで計算された上記移動画素数 の小数点以下を切り上げた切上げ移動画素数に対応した生成データを生成する第 2の生成ステップと、
この第 1と第 2の生成ステップで生成された生成データに基づき上記移動画素数力 得た合成比率で合成して合成画像データを出力する画像合成ステップと を有することを特徴とする画像合成方法。
PCT/JP2006/308653 2006-04-25 2006-04-25 画像合成装置および画像合成方法 WO2007129367A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP06732313A EP2012301A4 (en) 2006-04-25 2006-04-25 DEVICE AND METHOD FOR COMBINING IMAGES
CN2006800543622A CN101427302B (zh) 2006-04-25 2006-04-25 图像合成装置以及图像合成方法
PCT/JP2006/308653 WO2007129367A1 (ja) 2006-04-25 2006-04-25 画像合成装置および画像合成方法
JP2008514316A JP4786712B2 (ja) 2006-04-25 2006-04-25 画像合成装置および画像合成方法
US12/298,294 US20090122081A1 (en) 2006-04-25 2006-04-25 Image compositing apparatus and image compositing method
HK09108374.0A HK1130557A1 (en) 2006-04-25 2009-09-11 Image combining apparatus and image combining method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2006/308653 WO2007129367A1 (ja) 2006-04-25 2006-04-25 画像合成装置および画像合成方法

Publications (1)

Publication Number Publication Date
WO2007129367A1 true WO2007129367A1 (ja) 2007-11-15

Family

ID=38667488

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/308653 WO2007129367A1 (ja) 2006-04-25 2006-04-25 画像合成装置および画像合成方法

Country Status (6)

Country Link
US (1) US20090122081A1 (ja)
EP (1) EP2012301A4 (ja)
JP (1) JP4786712B2 (ja)
CN (1) CN101427302B (ja)
HK (1) HK1130557A1 (ja)
WO (1) WO2007129367A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009072208A1 (ja) * 2007-12-06 2009-06-11 Fujitsu Limited 画像処理装置、画像処理プログラムおよび画像処理方法
WO2009081485A1 (ja) * 2007-12-25 2009-07-02 Fujitsu Limited 画像処理装置、画像処理方法および画像処理プログラム
WO2013146508A1 (ja) * 2012-03-30 2013-10-03 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP2013247486A (ja) * 2012-05-25 2013-12-09 Seiko Epson Corp データ処理装置、表示装置、および、データ処理装置の制御方法
WO2015059818A1 (ja) * 2013-10-25 2015-04-30 発紘電機株式会社 プログラマブル表示器、プログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101901126B (zh) * 2010-07-12 2012-01-04 东北大学 组合式大屏幕流媒体播放的计算机控制方法
JP2013257476A (ja) * 2012-06-14 2013-12-26 Sony Corp 表示装置、画像処理装置、および表示方法
US20140215383A1 (en) * 2013-01-31 2014-07-31 Disney Enterprises, Inc. Parallax scrolling user interface
CN106328045B (zh) * 2015-07-06 2019-07-16 西安诺瓦电子科技有限公司 可编程逻辑器件及其亚像素下采样方法和数据编码电路
US11113578B1 (en) * 2020-04-13 2021-09-07 Adobe, Inc. Learned model-based image rendering

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04116691A (ja) * 1990-09-07 1992-04-17 Video Tron Kk 電子ロールオペーク装置
JPH04301685A (ja) * 1990-11-14 1992-10-26 Philips Gloeilampenfab:Nv 表示方法及び装置
JPH05313645A (ja) 1992-05-06 1993-11-26 Matsushita Electric Ind Co Ltd 画像合成表示装置
JPH0723290A (ja) * 1993-06-30 1995-01-24 Nippon Hoso Kyokai <Nhk> スクロール装置
US5477240A (en) * 1990-04-11 1995-12-19 Q-Co Industries, Inc. Character scrolling method and apparatus
JPH08129374A (ja) * 1994-10-31 1996-05-21 Matsushita Electric Ind Co Ltd スクロール効果装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2119594B (en) * 1982-03-19 1986-07-30 Quantel Ltd Video processing systems
US4849746A (en) * 1986-04-07 1989-07-18 Dubner Computer Systems, Inc. Digital video generator
US4805022A (en) * 1988-02-19 1989-02-14 The Grass Valley Group, Inc. Digital wipe generator
US5359712A (en) * 1991-05-06 1994-10-25 Apple Computer, Inc. Method and apparatus for transitioning between sequences of digital information
US6141018A (en) * 1997-03-12 2000-10-31 Microsoft Corporation Method and system for displaying hypertext documents with visual effects
WO2001054400A1 (en) * 2000-01-24 2001-07-26 Matsushita Electric Industrial Co., Ltd. Image synthesizing device, recorded medium, and program
US6618054B2 (en) * 2000-05-16 2003-09-09 Sun Microsystems, Inc. Dynamic depth-of-field emulation based on eye-tracking
JP2003233809A (ja) * 2002-02-07 2003-08-22 Matsushita Electric Ind Co Ltd 画像合成装置および画像合成方法
JP4484511B2 (ja) * 2003-12-26 2010-06-16 三洋電機株式会社 画像合成装置、画像合成用集積回路、及び画像合成方法
US7460132B2 (en) * 2005-04-28 2008-12-02 Texas Instruments Incorporated System and method for motion adaptive anti-aliasing

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5477240A (en) * 1990-04-11 1995-12-19 Q-Co Industries, Inc. Character scrolling method and apparatus
JPH04116691A (ja) * 1990-09-07 1992-04-17 Video Tron Kk 電子ロールオペーク装置
JPH04301685A (ja) * 1990-11-14 1992-10-26 Philips Gloeilampenfab:Nv 表示方法及び装置
JPH05313645A (ja) 1992-05-06 1993-11-26 Matsushita Electric Ind Co Ltd 画像合成表示装置
JPH0723290A (ja) * 1993-06-30 1995-01-24 Nippon Hoso Kyokai <Nhk> スクロール装置
JPH08129374A (ja) * 1994-10-31 1996-05-21 Matsushita Electric Ind Co Ltd スクロール効果装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2012301A4

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009072208A1 (ja) * 2007-12-06 2009-06-11 Fujitsu Limited 画像処理装置、画像処理プログラムおよび画像処理方法
JP4962573B2 (ja) * 2007-12-06 2012-06-27 富士通株式会社 画像処理装置
US8478063B2 (en) 2007-12-06 2013-07-02 Fujitsu Limited Image processing apparatus and image processing method
WO2009081485A1 (ja) * 2007-12-25 2009-07-02 Fujitsu Limited 画像処理装置、画像処理方法および画像処理プログラム
JP4952796B2 (ja) * 2007-12-25 2012-06-13 富士通株式会社 画像処理装置
US8311356B2 (en) 2007-12-25 2012-11-13 Fujitsu Limited Image processing apparatus and image processing method
WO2013146508A1 (ja) * 2012-03-30 2013-10-03 ソニー株式会社 画像処理装置および方法、並びにプログラム
JPWO2013146508A1 (ja) * 2012-03-30 2015-12-14 ソニー株式会社 画像処理装置および方法、並びにプログラム
US9344643B2 (en) 2012-03-30 2016-05-17 Sony Corporation Image processing apparatus, method and program
JP2013247486A (ja) * 2012-05-25 2013-12-09 Seiko Epson Corp データ処理装置、表示装置、および、データ処理装置の制御方法
WO2015059818A1 (ja) * 2013-10-25 2015-04-30 発紘電機株式会社 プログラマブル表示器、プログラム
CN105612574A (zh) * 2013-10-25 2016-05-25 发纮电机株式会社 可编程显示器、程序
JPWO2015059818A1 (ja) * 2013-10-25 2017-03-09 発紘電機株式会社 プログラマブル表示器、プログラム

Also Published As

Publication number Publication date
EP2012301A4 (en) 2010-09-15
US20090122081A1 (en) 2009-05-14
CN101427302A (zh) 2009-05-06
JP4786712B2 (ja) 2011-10-05
JPWO2007129367A1 (ja) 2009-09-17
HK1130557A1 (en) 2009-12-31
EP2012301A1 (en) 2009-01-07
CN101427302B (zh) 2012-01-11

Similar Documents

Publication Publication Date Title
WO2007129367A1 (ja) 画像合成装置および画像合成方法
US7075535B2 (en) System and method for exact rendering in a zooming user interface
KR100834568B1 (ko) 동화상 표시 장치 및 동화상 표시 방법
WO2018201652A1 (zh) 一种实时虚拟现实加速方法及装置
JP5489470B2 (ja) 画像表示装置及び画像表示方法
JP2007271908A (ja) マルチ画像生成装置
CN110599564A (zh) 图像展示方法、装置、计算机设备和存储介质
US10692420B2 (en) Data processing systems
JP2011023902A (ja) 画像処理装置および画像処理方法
CN102652321B (zh) 图像合成装置以及图像合成方法
JP2008160345A (ja) 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
WO2017217011A1 (ja) 画像処理装置および重畳画像生成方法
JP3770121B2 (ja) 画像処理装置
JP4183082B2 (ja) 3次元画像描画装置および3次元画像描画方法
US20110025917A1 (en) Video processing device
JP4827659B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP3910259B2 (ja) 画像処理装置および方法、並びにレンダリング装置および方法
JP5170472B2 (ja) 画像処理装置およびプログラム
JP4194605B2 (ja) 画像処理装置および方法、並びにレンダリング装置および方法
JP5464261B2 (ja) 画像処理装置およびプログラム
JP2013186247A (ja) 動画表示装置
JP2004056474A (ja) 画像処理装置とそのためのプログラム
JP2008224901A (ja) 画像表示装置、該画像表示装置に用いられる画像拡大/縮小方法及び画像拡大/縮小制御プログラム
JP2004333619A (ja) 画像表示装置
JPH0730745A (ja) 画像合成装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 06732313

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2006732313

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2008514316

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12298294

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200680054362.2

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE