WO2003041403A1 - Video synthesizer - Google Patents

Video synthesizer Download PDF

Info

Publication number
WO2003041403A1
WO2003041403A1 PCT/JP2002/011663 JP0211663W WO03041403A1 WO 2003041403 A1 WO2003041403 A1 WO 2003041403A1 JP 0211663 W JP0211663 W JP 0211663W WO 03041403 A1 WO03041403 A1 WO 03041403A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
still image
data
image
video signal
Prior art date
Application number
PCT/JP2002/011663
Other languages
English (en)
French (fr)
Inventor
Kenjiro Matsubara
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US10/492,533 priority Critical patent/US7280158B2/en
Priority to EP02778071A priority patent/EP1447978A4/en
Publication of WO2003041403A1 publication Critical patent/WO2003041403A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Definitions

  • the present invention relates to a technique for synthesizing a video and a still image.
  • FIG. 1 is a schematic diagram showing the synthesis of an image by the switcher 1.
  • the switcher «1 receives the background image 2 and the telop image 3 to be combined and combines them. More specifically, the switcher device 1 receives a video signal corresponding to the background video 2 via a video cable 4 that transmits the video signal. In addition, the switcher device 1 receives a video signal corresponding to the video for video 3 via the video cable 5 for transmitting the video signal.
  • the switcher 1 combines the two received video signals according to an operation instruction based on a user operation or a control instruction from an external device (not shown) to generate a combined video signal. Output.
  • a video 7 represented by the composite video signal is shown.
  • chroma keying When combining images with a switcher, a technique called chroma keying is mainly used. To explain the outline of the chromaki technology, first, a video signal of a background image 2 and a video signal of a character with a blue background as a telop image 3 are input. Then, a combined image 7 is obtained by combining an image obtained by extracting the non-blue portion of the telop image 3 from the background image 2 and an image obtained by extracting the blue portion from the telop image 3. In image synthesis using chroma keying technology, when a telop image 3 is input to the switcher 11, the video signal of the image having the same size as the screen must be transmitted in an analog format such as a component signal. Was the most.
  • An image synthesizing apparatus is an image synthesizing apparatus for synthesizing an image and a still image, the image synthesizing unit receiving a video signal including an image, and a still image having a display size smaller than the display size of the image. And a communication unit that receives a composite signal including position data indicating a synthesis position of the still image with respect to the video, the still image obtained from the composite signal received by the communication unit, and the position data.
  • a combining unit for combining and outputting the images.
  • the image processing apparatus may further include a change control unit configured to continuously change the position data stored in the storage unit and continuously change a synthesis position of the still image with respect to the video.
  • a change control unit configured to continuously change the position data stored in the storage unit and continuously change a synthesis position of the still image with respect to the video.
  • the storage unit stores a plurality of still images and a plurality of corresponding position data
  • the combining unit combines the video and the plurality of still images based on each of the plurality of position data. May be output.
  • a frame for obtaining the video obtained from the video signal as a frame image may further include an acquisition unit, and the communication unit may output the frame image acquired by the frame acquisition unit.
  • the communication unit may transmit and receive a control command for controlling the operation of the video synthesizing device.
  • the information amount of the video included in the video signal may be compressed.
  • the information amount of the still image included in the composite signal may be compressed.
  • the information amount of the video included in the video signal is compressed, and the information amount of the still image included in the composite signal may not be compressed.
  • the video signal receiving unit may receive a video signal generated based on data recorded on a portable recording medium.
  • the communication unit may receive a composite signal generated based on data recorded on a portable recording medium.
  • At least one of the video signal receiving unit and the communication unit is connected to a network for transmitting data, and may receive at least one of a video signal and a composite signal from the network.
  • the video signal has a portion representing a video, and a blanking portion other than the portion representing the video, and the composite signal is interleaved with a blanking portion of the video signal.
  • the composite signal may be separated from the received video signal and transmitted to a communication unit.
  • the position data of the still image is input together with the data of the still image to be synthesized with the video signal. Since the still image is only a portion displayed on the video signal, the amount of data flowing through the transmission path is reduced, and the cost of the transmission path can be suppressed. Furthermore, since the data amount of the still image is reduced, the amount of memory consumed for holding the still image is also reduced. This can reduce the cost of the device itself.
  • the still image can be moved by changing the position data, the position change / scroll of the still image can be easily performed.
  • a still image can be displayed at an arbitrary position on a video signal based on position data. It is easy to change the display position of the still image, and the ticker text is displayed on the screen.
  • the size of the still image can be limited to the part of the displayed text, compared to using a still image of the entire screen size.
  • the data amount of the still image transmitted to the device is reduced. As a result, the transmission time is shortened and the cost of the transmission line is suppressed.
  • the memory capacity consumed by one image in the device is reduced, it is possible to store many still images while suppressing the cost of the memory.
  • the position data stored in the storage unit can be changed by the program on the device side.
  • the display position of the still image displayed on the video signal can be automatically changed on the device side to move the still image.
  • a plurality of still images can be simultaneously displayed on a video signal.
  • a plurality of still images can be synthesized and output, and even if no video signal is input, synthesis can be performed using only the still images.
  • the image processing apparatus includes the frame acquisition unit that captures the video of the input video signal as a still image, and the captured still image can be output by the communication unit.
  • One scene of a video signal can be captured and saved as a still image, and later used for image synthesis with another still image.
  • the communication unit can transmit and receive the control data of the device.
  • An external device that transmits a still image and its position data to the image synthesizing device can control the image synthesizing device.
  • At least one of the input video signal and the still image is compressed data.
  • compressed data the cost of transmission lines and memory can be further reduced.
  • the input video signal is compressed data
  • the input still image is uncompressed data.
  • the input to the video signal input unit and the input to the communication unit are At least one is performed by a portable recording medium.
  • the captured video and its video can be used for composition at a remote location.
  • At least one of the input to the video signal receiving unit and the input to the communication unit is connected to the wired network or the wireless network, and the video signal and the Receiving at least one of the composite signals.
  • the composite signal is interleaved with a blanking portion of the video signal, and the video signal receiving unit separates the composite signal from the received video signal and transmits the separated composite signal to the communication unit. . Since both the video signal and the composite signal can be obtained from the video signal input unit, the cost of the transmission path can be reduced.
  • FIG. 1 is a schematic diagram showing the synthesis of images by a switcher.
  • FIG. 2 is a block diagram showing a configuration of the first video synthesizing apparatus according to the present embodiment.
  • FIG. 3 is a diagram illustrating an example of a video input to the video synthesizing device.
  • FIG. 4 is a diagram illustrating an example of a still image input to the video synthesizing device.
  • ⁇ - Figure 5 is a diagram showing the data structure of pixel data.
  • FIG. 6 is a schematic diagram illustrating a storage state of a still image in the storage unit.
  • FIG. 7 is an enlarged view of a management area including a still image.
  • FIG. 8 is a diagram showing a synthesized image obtained by synthesizing a video and a still image.
  • FIG. 9A is a diagram showing a management area in which a data area to be read is stored.
  • FIG. 9B is a diagram illustrating a display area including a still image, which is synthesized with a video.
  • FIG. 1 OA is a diagram showing a management area in which a data area to be read is stored.
  • FIG. 10B is a diagram showing a display area including a still image synthesized with a video.
  • Figures 11A and 11B show a still image on the storage area, a still image on the storage area, a still image on the storage area, a still image area to be read out, an area for the input video signal, and a display.
  • FIG. 4 is a diagram showing a still image 40.
  • FIGS. 12A and 12B are diagrams showing a still image area to be read, a still image area to be read, and a still image to be displayed.
  • FIG. 13A and FIG. 13B are diagrams showing a still image area to be read, a still image area to be read, and a still image to be displayed.
  • FIG. 14A and FIG. 14B are diagrams showing a region of a still image to be read and a still image to be displayed.
  • FIG. 15 is a block diagram showing a configuration of the second video synthesizing device according to the present embodiment.
  • FIG. 16 is a diagram illustrating an example of a transmission order of control data.
  • FIG. 2 is a block diagram showing a configuration of the video compositing device 8 according to the present embodiment.
  • the video synthesizing device 8 includes a video signal receiving unit 12, a data communication unit 13, a storage unit 14, and a synthesizing unit 15.
  • the video synthesizing device 8 generates the composite video 16 by synthesizing the video 9 and the still image 1 °.
  • the video signal receiving unit 12 receives the video 9 as a video signal from an external device such as a video deck or a camera, and outputs the video 9 to the synthesizing unit 15.
  • the video 9 may be a moving image or a still image.
  • the data communication unit 13 receives a signal from an external device such as a personal computer (hereinafter, referred to as a PC).
  • the signal is a composite signal including a still image 10 to be combined with the video 9 and position data 11 of the input still image on the video signal.
  • the still image 10 may be a suitable figure as shown, or may be a caption or the like.
  • the still image 10 and its position data will be described later in detail.
  • the video signal and the composite signal are transmitted using an SDI cable or a composite cable.
  • a still image can be input via LAN, USB, IE 1394, and the like.
  • the still image may be input using a storage medium such as a flexible disk or an optical disk.
  • the data communication unit 13 outputs the received composite signal to the storage unit 14.
  • Storage 1 4 receives and stores the composite signal. In addition, if there is an instruction to read out a still image and / or position data included in the composite signal, storage unit 14 reads out and outputs the data.
  • the storage unit 14 is a storage device such as a semiconductor storage device such as a dynamic random access memory (DRAM) and a magnetic storage device such as a hard disk drive (HDD) and a magnetic tape.
  • the synthesizing unit 15 receives the video signal receiving unit 12 and the video 9, and receives the still image data and the position data from the storage unit 14 and synthesizes them.
  • the synthesizing unit 15 outputs the synthesized video (synthesized video 16) as a synthesized video signal.
  • the output composite video 16 is displayed on a display unit (not shown) such as a display.
  • the video signal receiving unit 12 receives a video signal representing the video 9 reproduced on the VCR
  • the data communication unit 13 receives a still image transmitted from a PC and its position data.
  • FIG. 3 is a diagram showing an example of a video input to the video synthesizing device 8 (FIG. 2).
  • the width of the screen on which the image area 17 is displayed is W, and the height is H. These represent the length when a pixel is defined as one unit.
  • pixel data for one line at the top of the area 17 is input. Specifically, pixel data of pixels from the left end (0, 0) to the right end (W-1, 0) are sequentially input. The pixel data at the right end (w-1, 0) is input-, and then-the pixels from the left end pixel to the right end of the next line are input in order.
  • pixel data from (0, 1) to (W-1, 1) is input.
  • pixel data for a total of H lines are sequentially input. Since the video signal receiving section 12 (FIG. 2) receives the video signal based on the above procedure, it is possible to obtain the transmitted video based on the video signal.
  • FIG. 4 is a diagram showing an example of a still image input to the video synthesizing device 8 (FIG. 2).
  • the triangular image in the frame 19 is a still image to be synthesized.
  • the triangular image in the frame 19 is assumed to be synthesized at the position shown in the figure with respect to the area 18 of the video signal.
  • the video synthesizing device 8 (FIG. 2) synthesizes a still image with a video based on the position data.
  • a rectangular area 19 including a triangle is used as a still image in order to simplify the display processing.
  • the region other than the triangle in the rectangle forms a part of the image data of the still image as data representing a transparent portion.
  • the video synthesizing device 8 uses the position data included in the composite signal.
  • the area 18 It was necessary to input a still image of a size.
  • position data since position data is used, it is sufficient to prepare a still image of a minimum required size. As a result, the data amount of the still image to be synthesized can be reduced, and the transmission time can be shortened.
  • the position data 11 of the still image is represented by the upper left coordinates of the rectangular area 19 surrounding the triangle. In the illustrated example, it is (axl, ay1).
  • the composite signal is composed of a signal representing a still image, followed by a signal representing position data. That is, the data communication unit 13 first receives a still image, and then receives position data.
  • the pixel data for the top line of the still image area 19 is input to the data communication unit 13. That is, pixel data of pixels from the left end (aX1, ay1) to the right end (ax2, ay1) are sequentially input.
  • Position data 11 represented by (a X 1, a y 1) is input.
  • the position data has a size of 2 bytes for each of the X coordinate and the Y coordinate. After the X coordinate data is input first, the Y coordinate data is input.
  • the pixel data is composed of luminance data Y, color difference data Pb and Pr, and transmittance pixel data K.
  • FIG. 5 is a diagram showing a data structure of pixel data. As shown in the figure, the pixel data is arranged in the order of ⁇ , Y, Pb, Pr,
  • the luminance data Y and the color difference data Pb, Pr are data representing the color of the pixel.
  • the transmittance data K indicates how transparent the pixel is. Data. If the transmittance K is 0, the pixel will be displayed in its original color when combined with video 9 ( Figure 2). If the transmittance K is not 0, it means that the pixel is displayed in a translucent state. Therefore, when combined with video 9 (Fig. 2), video 9 (Fig. 2) below it can be seen through. When the transmittance K reaches the maximum, the pixels become completely transparent and are synthesized in the same state as when only image 9 (Fig. 2) is displayed. Each of these data is 1 byte and has a value of 0 to 255. Each pixel that composes a still image is often represented by RGB data consisting of the three primary colors of red, green, and blue. In this case, it is converted into Y, Pb, Pr data by the following formula.
  • the transmittance K When synthesizing with video 9 (Fig. 2), the transmittance K can be used as it is. However, depending on the type of still image, it may not have transmittance. In such a case, set the transmittance K to 0 and display the pixels as they are. That is, the image 9 (FIG. 2) is synthesized so that it cannot be seen through.
  • the value of the transmittance K to be set is not limited to zero. The value may be set to a fixed value other than 0, or the value may be automatically changed in the image synthesizing apparatus according to the size and display position of the still image, the elapsed time since the start of displaying the still image, and the like. It may be.
  • the transmittance itself or an instruction to control the transmittance may be input from outside.
  • pixel data may be converted by a program such as an application operating on the PC, and position data may be set.
  • a program such as an application operating on the PC
  • position data may be set.
  • an example is shown in which pixels of a still image are converted into Y, Pb, Pr, and K data and input, but the format of the input pixels is arbitrary.
  • the device for inputting a still image may be a device other than the PC.
  • FIG. 2 shows how a still image is stored in the storage unit 14 (FIG. 2).
  • the still image and its position data received by the data communication unit 13 (FIG. 2) are stored in the storage unit 14.
  • data communication unit 13 (FIG. 2). only the still image of the part actually displayed is received by data communication unit 13 (FIG. 2). Therefore, an image in the same size as the image 9 (FIG. 2) to be combined as in the conventional case is not required, and the memory capacity consumed by the storage unit 14 (FIG. 2) can be greatly reduced.
  • still images The storage capacity required depends on the size of the still image.
  • FIG. 6 is a schematic diagram showing a storage state of a still image in storage unit 14 (FIG. 2).
  • a plurality of still images 21, 22, and 23 are stored in a partial storage area 20 indicating the capacity of one screen.
  • a partial storage area 20 In the partial storage area 20, an area obtained by dividing one screen in the vertical direction by one quarter is set as a minimum management unit.
  • still images can be stored easily without wasting storage areas.
  • the still image 21 and the still image 23 use only one management area because the image height is one-fourth or less of the height of one screen.
  • the still image 22 uses two management areas because the height of the image is not less than 4 and not more than ⁇ of the screen height.
  • a management number is assigned to the management area in order from 1 and used as a start number of the area where each still image is stored. For still image 2 1, start number 1 uses 1 area, for still image 2 2 start number 2 for 2 use area, for still image 2 3 uses 4 start area The number of areas is 1.
  • the start number and the number of used areas are stored in the storage area of the storage unit 14 (FIG. 2) together with the position data.
  • the synthesizing unit 15 (FIG. 2) obtains a still image required for synthesizing using the start number and the number of used areas.
  • Still images are read out in management area units.
  • the entire management area that fits within the screen is to be displayed. Therefore, when the input part such as the still image 21 is a part of the management area and the power is not used, it is necessary to make the other part transparent data.
  • the above-mentioned transmittance K may be set to the maximum value.
  • FIG. 7 is an enlarged view of the management area including the still image 21.
  • the management area includes an area 24 into which the image data of the still image 21 is written, and an area 25 into which the image data of the still image 21 is not written. Since the initial values of the storage elements in the area 25 are not necessarily data representing transparency, when the still image 21 is input and stored in the area 24, the video synthesizing device 8
  • the control unit (not shown) in (FIG. 2) sets the storage element in the area 25 to data representing transparency. This operation is a process that only rewrites the storage area inside the video compositing device 8 (Fig. 2). It can be performed much faster than when inputting complex data.
  • the above-described method for storing a still image is an example, and the order of storage, whether or not to set a management area, the size of the area when set, and the like are arbitrary.
  • the size of the management area is made variable according to the size of data to be stored, such as still image data and position data, and a new address is added to the storage area, and the start address of each management area is stored.
  • a table for storing the size of the image is provided. This saves more storage space and eliminates the need to set free space in the management area for transparent data.
  • the position data of the still image may be stored in any way as long as the position data corresponding to the still image can be extracted.
  • the synthesizing unit 15 selects a still image by designating the management number of the storage area.
  • the storage unit 14 reads out the start number of the still image stored in the area indicated by the number, the number of used areas, and position data. . Then, the image data is read from the area indicated by the start number by the number of used areas.
  • the synthesizing unit 15 receives the read image data and the position data of the still image and synthesizes it with the video signal, so that the still image is displayed on the video.
  • FIG. 8 is a diagram showing an example of a synthesized image obtained by synthesizing a video (FIG. 3) and a still image (FIG. 4). The user cannot know whether the read still image is a necessary still image or not until the image is actually displayed on the screen. Therefore, only the still image shown in FIG. 8 may be displayed before the combining process.
  • FIG. 9A and FIG. 9B, FIG. 1OA and FIG. 1OB are diagrams showing the relationship between reading of a still image and display. The following description is an example, and there is no problem in synthesizing with a video signal by any other method.
  • FIG. 9 is a diagram illustrating a relationship between reading of a still image and display when the image exists at (ax1, ay1).
  • FIG. 9A shows the management area 27 in which the data area 28 to be read is stored.
  • FIG. 9B shows a display area 30 including a still image, which is combined with the video 29.
  • the still image is displayed from its upper left corner. Since the width of the displayed area 30 is represented by (W—a X 1), the synthesizing unit 15 (FIG. 2) determines that the width (W—axl) ) To read the data of one management area.
  • FIG. 10A and 10B show the relationship between the reading of a still image and the display when the upper left corner of the still image is located at a position (one ax2, ay2) outside the video to be combined.
  • FIG. FIG. 10A shows the management area 31 in which the data area 32 to be read is stored.
  • FIG. 10B shows a display area 34 including a still image, which is combined with the video 33.
  • the still image is displayed from the position moved by aX2 in the X direction from the upper left corner. Therefore, the read start address is 0 X 000000 + a x 2 * 4. Since the displayed area 3 2 has a width of W—ax 2 and a height of one management area, the synthesizing unit 15 (FIG.
  • the position data of the still image stored in the storage unit 14 does not necessarily need to be updated by external data input.
  • a change control unit (not shown) operated by a program for changing the position data of the video synthesizing device 8 (FIG. 2).
  • the position data stored in the force storage unit 14 (FIG. 2) may be changed.
  • processing such as moving the still image displayed on the video from left to right on the screen can be realized.
  • the position data can be continuously changed to display a still image that is long horizontally and vertically.
  • FIGS. 11A to 14B are diagrams illustrating the procedure of the scroll display process.
  • Figures 11A and 11B show the areas of the still image 35 on the storage area, the still image 36 on the storage area, the still image 37 on the storage area, and the still image 35 read out. 38, an input video signal area 39, and a displayed still image 40 are shown.
  • Fig. 12A and Fig. 12B the area 41 of the still image 35 to be read (Fig.
  • FIGS. 14A and 14B show a region 49 of a still image 37 to be read (FIG. 11A) and a still image 50 to be displayed.
  • the first still image 35 appears from the left of the screen.
  • the first position data of the still image 3 5 is the right edge of the screen
  • FIG. 11B is an example when the position of the still image 40 is (dxl, y). Since the upper left end of the still image 40 is within the screen, the method of reading from the storage area is the same as in the example of FIGS. 9A and 9B, and the start address of the storage area is 0 X 0 0 0 0 0 0 W— d X Reads one pixel data line by line.
  • the next still image 36 is displayed next to the still image 40.
  • the display position of the still image 36 is one pixel right of the upper right end position of the still image 40.
  • the display position of the still image 36 is changed after the display position of the still image 35 is changed.
  • the moving amount of the still image 36 is the same as that of the still image 35. Used.
  • FIG. 12B is a diagram showing a first still image 43 and a subsequent second still image 44.
  • Still image 43 is part of still image 35 (FIG. 11A)
  • still image 44 is part of still image 36 (FIG. 11A).
  • FIG. 12B shows an example in which the position force S (—dx2, y) of the still image 43 and the position of the still image 44 are (ex1, y). Since the upper left corner of the still image 43 is outside the screen, the method of reading data from the storage area is the same as in the example of FIGS. 1OA and 1OB.
  • W ⁇ dX2 pixel data is read out one line at a time from 0x000000 + dx2 * 4 in which an offset of dX2 pixels is added to the start address of the storage area. Since the upper left corner of the still image 44 is within the screen, the method of reading data from the storage area is the same as in the example of FIGS. 9A and 9B, and the start address of the storage area Ox l OOOOO to W— e X 1 The pixel data is read out line by line.
  • FIG. 13B is a diagram showing a second still image 47 and a subsequent third still image 48.
  • Still image 47 is part of still image 36 (FIG. 11A)
  • still image 48 is part of still image 37 (FIG. 11A).
  • FIG. 14B is a diagram showing an example when the display position of the third still image 50 is (one fx2, y). Still image 50 is part of still image 37 (FIG. 11A). Since the upper left corner of the still image 50 is outside the screen, the method of reading data from the storage area is the same as in the example of FIGS. 1OA and 10B. That is, W-fX2 pixel data is read out line by line from 0X200000 + fx2 * 4 in which the start address of the storage area is offset by fX2 pixels. When the still image 50 completely goes out of the screen, the display processing ends.
  • the still image may cover more than three screens.
  • the image when scrolling a vertically long image vertically, the image may be similarly divided and its display position may be changed.
  • Image synthesis is not necessarily limited to a combination of a video signal and a still image.
  • the video synthesizing device 8 (FIG. 2) can also synthesize and output a still image and a still image. If there is no need for motion in the background, constructing a video compositing system using only still images can reduce the cost of the system.
  • the video synthesizing apparatus is not only used for synthesizing a still image with an input video.
  • the video synthesizing device may have a function of capturing one frame of the input video, converting the frame into a frame still image, and outputting the still image.
  • Still images captured with video signals can be stored in external equipment and later input to a video compositing device for use as background images.
  • the communication between the video synthesizing device and the external device uses a data communication unit that performs data communication.
  • FIG. 15 is a block diagram showing a configuration of the video compositing device 51 according to the present embodiment.
  • the video synthesizing device 51 includes a video signal receiving unit 54, a data communication unit 55, a frame obtaining unit 56, a storage unit 57, and a synthesizing unit 58.
  • the data communication unit 55 has a function equivalent to that of the data communication unit 13 (FIG. 2), and further has a function of transmitting data to an external device.
  • the video synthesizing device 51 has a function of synthesizing a video and a still image and outputting the same as the video synthesizing device 8 (FIG. 2).
  • the components of the video compositing device 51 having the same names as those of the components of the video compositing device 8 (FIG. 2) have the same functions, and therefore the description thereof will be omitted.
  • the frame obtaining unit 56 extracts and obtains a frame of the video 52 using the video signal representing the video 52 input to the video signal receiving unit 54.
  • the frame acquisition unit 56 issues a capture instruction.
  • the frame of the video signal at the point in time is captured and output to the outside using the data communication unit 55. Since one frame of the video signal is captured as a still image, the size of the output still image is always It is the same as the size (W, H).
  • Pixels are luminance data Y, color difference data Pb and Pr, and transmittance data K, as in the input still image.
  • Each pixel has a size of 1 byte, and K, Y, Pb, Pr It is output by I jet.
  • Luminance data Y and color difference data Pb and Pr are However, since the transmittance data is not included in the video signal, set the transmittance to 0 and display the original pixels as they are.
  • the value of the transmittance K to be set is not limited to zero. The value may be set to a fixed value other than 0, or the value may be automatically changed by the image synthesizing device according to the size and display position of the still image, the elapsed time since the start of displaying the still image, and the like. Good. Further, the transmittance itself and an instruction to control the transmittance may be input from the outside together with the still image and the position data.
  • the transmission order of the pixels constituting the frame is the same as that of the input still image. First, the pixels on the first line are transmitted from the upper left corner to the upper right corner of the image, and then the second line is reached. Similarly, transmission is performed to the bottom line.
  • the still image captured by the frame acquisition unit 56 can be input to the data storage unit 57.
  • the still image captured by the frame acquisition unit 56 can be automatically enlarged, reduced, or rotated by the synthesizing unit 58 and synthesized with the video signal.
  • the enlargement / reduction ratio and the rotation angle may be fixed values held in the synthesizer 58.
  • the control method may be stored in advance, or the enlargement / reduction ratio, the rotation angle, and the control method thereof may be externally input by the data communication unit 55.
  • control data can be transmitted and received by using a data communication unit that receives a still image and its position data.
  • the control data is data for controlling the operation of the video synthesizing device, and is transmitted from the external device to the video synthesizing device, or transmitted from the video synthesizing device to the external device.
  • control data transmitted from the image synthesizing device to the external device include: (a) changing the display position of the still image, (b) changing the display method of the still image, (c) deleting the still image from the storage unit, (d) Control of composite image output (playback, pause, stop, etc.), (e) Operation environment setting of the main unit.
  • control data transmitted from the image synthesizing device to the external device include (f) response data to control from the external device, (g) current operation state, and (h) maintenance information such as operation time. .
  • the control data consists of data (main command) that specifies the function described above, Parameters (subcommands) required for the function.
  • the parameters are, for example, data representing the display position of the still image after the change, with respect to (a) above,
  • FIG. 16 is a diagram illustrating an example of a transmission order of control data. The requested action is determined based on the main command and subcommand. Each of these commands
  • the control data is stored as a 4-byte length at the beginning of the control data. If there is no additional data, the total length of the control data is 8 bytes, and if the additional data is 4 bytes, the total length of the control data is 12 bytes.
  • control data has been described above. However, the above description is an example, and other methods can be adopted.
  • external device control becomes possible, and a composite image can be output by controlling the image compositing device from a remote place at a low cost.
  • the image synthesizing apparatus of the present invention when the information amount of the video or the still image included in the input video signal or composite signal is compressed, the image is returned to the non-compressed state in the image synthesizing apparatus to perform the synthesizing process. I do.
  • the information amount of the video included in the video signal and the information amount of the still image data of the composite signal are compressed (encoded) in accordance with, for example, the MPEG-2 standard and are decoded.
  • At least one of the video signal receiving unit and the data communication unit may be an interface unit with a playback device for a portable recording medium (for example, an SD (Secure Digital) card or DVD-RAM).
  • a video signal may be transmitted from a DVD-RAM drive as an external device to a video signal receiving unit having an IEEE1394 interface function. This makes it possible to use image materials created in remote locations for compositing. Also, by connecting the video signal receiving unit and the Z or data communication unit to a wired network or a wireless network, it is possible to use image materials created at remote locations for synthesis.
  • the transmission path of the video signal and the transmission path of the composite signal are different transmission paths.
  • all data may be transmitted collectively.
  • all the signals can be input on one transmission path.
  • the separation of the composite signal in the blanking part may be performed by the video signal receiving unit or the data communication unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)

Description

明 細 書 映像合成装置 技術分野
本発明は、 映像と静止画像とを合成する技術に関する。 背景技術
テレビ放送業界等においては、 ビデオカメラで撮影された映像や、 ビデオデッ キで再生された映像に、 テロップ文字を表示する画像合成処理が多く行われてい る。 画像合成は、 主にスィッチヤーと呼ばれる機器が用いられる。 図 1は、 スィ ツチヤー 1による画像の合成を示す模式図である。 スィッチヤー « 1は、 合成 を行う背景用映像 2とテロップ用映像 3とを受け取り、 合成する。 より具体的に は、 スィッチヤー機器 1は、 背景用の映像 2に相当する映像信号を、 映像信号を 伝送するビデオケーブル 4を介して受け取る。 また、 スィッチヤー機器 1は、 テ 口ップ用映像 3に相当する映像信号を、 映像信号を伝送するビデオケーブル 5を 介して受け取る。 スィッチヤー 1は、 ユーザの操作に基づく動作指示により、 ま たは、 外部機器 (図示せず) 力ゝらの制御指示により、 受け取った 2つの映像信号 を合成して合成映像信号を生成して、 出力する。 図には、 合成映像信号が表す映 像 7が示されている。
スィツチヤーで画像を合成する際には、 主にクロマキ一と呼ばれる技術が用い られる。 クロマキ一技術の概要を説明すると、 まず、 背景画像 2の映像信号と、 テロップ画像 3として、 青色をバックにした文字の映像信号とを入力する。 そし て、 背景画像 2からテロップ画像 3の青色以外の部分を抜き取った画像と、 テロ ップ画像 3から青色部分を抜き取った画像を合成することによって合成画像 7を 得る。 クロマキ一技術を利用した画像の合成では、 テロップ画像 3がスィッチヤ 一 1に入力される際、 画面と同じ大きさを持つ画像の映像信号を、 コンポーネン ト信号等のアナ口グ形式で伝送することがほとんどであつた。
しかしながら上述した方法では、 画面の下部にのみ静止画像 (テロップ文字 等) を表示する場合でも、 画面全体の大きさの静止画像 3が必要になる。 これで は、 ビデオケーブル (伝送路) 5に流れる信号量 (静止画像 3のデータ量) は大 きくなり、 無駄である。
さらに、 静止画像 3のデータ量が大きくなると、 1枚の画像が消費するメモリ 容量が大きくなる。 したがって、 多くの画像を記憶'表示しょうとすると、 大容 量のメモリが必要になり、 装置のコストが高価になる。 また、 表示されるテロッ プ文字の位置を変更する場合、 その画像の画像データを変更して改めて伝送しな おす必要があるため、 作業効率が悪い。 発明の開示
本発明の目的は、 合成される静止画像のデータ量を減少させて、 伝送時間を短 縮し、 かつ、 画像が消費するメモリ使用量を減少させることである。 また、 本発 明の他の目的は、 合成される静止画像の表示位置を容易に変更させ、 作業効率を 向上させることである。
本発明の映像合成装置は、 映像と静止画像とを合成する映像合成装置であって、 映像を含む映像信号を受け取る映像信号受信部と、 前記映像の表示サイズよりも 小さい表示サイズを有する静止画像、 および、 前記映像に対する該静止画像の合 成位置を示す位置データを含む複合信号を受け取る通信部と、 通信部が受け取つ た前記複合信号から得られた前記静止画像、 および、 前記位置データを記憶する 記憶部と、 記憶部に記憶された前記位置データに基づいて、 映像信号受信部が受 け取つた前記映像信号から得られた前記映像、 およぴ、 記憶部に記憶された前記 静止画像を合成して出力する合成部とを備えている。
記憶部に記憶された前記位置データを連続的に変更して、 前記映像に対する前 記静止画像の合成位置を連続的に変化させる変更制御部をさらに備えていてもよ い。
記憶部は、 複数の静止画像と、 対応する複数の位置データを記憶し、 合成部は、 前記複数の位置データの各々に基づいて、 前記映像、 および、 前記複数の静止画 像を合成して出力してもよい。
前記映像信号から得られた前記映像を、 フレーム画像として取得するフレーム 取得部をさらに備え、 通信部は、 フレーム取得部が取得した前記フレーム画像を 出力してもよい。
通信部は、 映像合成装置の動作を制御する制御コマンドを送受信してもよい。 前記映像信号に含まれる映像の情報量は、 圧縮されていてもよい。
前記複合信号に含まれる静止画像の情報量は、 圧縮されていてもよい。
前記映像信号に含まれる映像の情報量は、 圧縮されており、 前記複合信号に含 まれる静止画像の情報量は、 圧縮されていなくてもよい。
映像信号受信部は、 持ち運び可能な記録媒体に記録されたデータに基づいて生 成された映像信号を受け取ってもよい。
通信部は、 持ち運び可能な記録媒体に記録されたデータに基づいて生成された 複合信号を受け取ってもよい。
映像信号受信部および通信部の少なくとも一方は、 データを伝送するネットヮ ークと接続されており、 前記ネットワークから、 映像信号および複合信号の少な くとも一方を受け取ってもよい。
前記映像信号は、 映像を表す部分と、 映像を表す部分以外のブランキング部分 とを有し、 つ、 前記複合信号は、 前記映像信号のプランキング部分にインター リーブされており、 映像信号受信部は、 受信した前記映像信号から、 前記複合信 号を分離して、 通信部に伝送してもよい。 -—— - 本発明の画像合成装置では、 映像信号に合成される静止画像のデータとともに、 その静止画像の位置データが入力される。 静止画像は、 映像信号上に表示される 部分のみであるため、 伝送路に流れるデータ量が減少し伝送路のコストを抑える ことができる。 さらに、 静止画像のデータ量が減少するので、 静止画像を保持す るために消費するメモリ量も減少する。 これにより装置自身のコストを抑えるこ とができる。
また、 位置データを変更することで静止画像を移動できるので、 静止画像の位 置変更ゃスクロールを容易に行うことができる。
以下、 作用を説明する。
第 1の発明によれば、 位置データに基づいて、 静止画像を映像信号上の任意の 位置に表示できる。 静止画像の表示位置変更が容易な上に、 テロップ文字が画面 の一部の領域にしか表示されないような場合に静止画像の大きさを表示されるテ 口ップ文字の部分のみにすることができ、 画面全体の大きさの静止画像を用いる ときに比べて装置に伝送する静止画像のデータ量が減少する。 このことにより、 伝送時間が短縮されるうえに伝送路のコストが抑えられる。 また、 装置で 1枚の 画像が消費するメモリ容量が減少するのでメモリのコストを抑えつつ多くの静止 画像を記憶させることが可能になる。
第 2の発明によれば、 記憶部に記憶された位置データを装置側のプログラムで 変更できる。 映像信号上に表示した静止画像の表示位置を装置側で自動的に変更 して静止画像を移動させることが可能になる。
第 3の発明によれば、 映像信号上に同時に複数の静止画像を表示できる。 複数 の静止画像を横または縦に並べてそれぞれの表示位置を変更することで、 数画面 分あるテロップをスクロール表示させることができる。 また、 複数の静止画像を 合成して出力でき、 映像信号が入力されなくても、 静止画像のみで合成を行うこ とができる。
第 4の発明によれば、 入力された映像信号の映像を静止画像として取り込むフ レーム取得部を備え、 取り込んだ静止画像を通信部で出力できる。 映像信号の 1 場面を静止画像として取り込んで保存しておき、 後で別の静止画像との画像合成 に用いることができる。 ' - 第 5の発明によれば、 通信部で装置の制御データを送受信できる。 静止画像と その位置データを画像合成装置に伝送してくる外部機器から画像合成装置の制御 を行うことができる。
第 6および 7の発明によれば、 入力される映像信号と静止画像の少なくともい ずれか一方が圧縮されたデータである。 圧縮したデータを用いることで、 伝送路 やメモリのコストをより抑えることができる。
第 8の発明によれば、 入力される映像信号は圧縮されたデータ、 入力される静 止画像は非圧縮のデータである。 テロップのみを非圧縮で伝送して映像信号上に 表示することで、 テロップを合成した画像を圧縮して伝送する場合に比べて高品 質なテロップの表示ができる。
第 9および 1 0の発明によれば、 映像信号入力部への入力と通信部への入力の 少なくともいずれか一方が、 持ち運び可能な記録媒体によって行われる。 撮影し た映像とそのテ口ップを遠隔地で合成に用いることができる。
第 1 1の発明によれば、 映像信号受信部への入力と通信部への入力の少なくと もレ、ずれか一方が、 有線ネットワークまたは無線ネットワークに接続されており、 ネットワークから、 映像信号および複合信号の少なくとも一方を受け取る。 これ により、 撮影した映像とそのテロップを遠隔地で合成に用いることができる。 第 1 2の発明によれば、 複合信号は、 映像信号のブランキング部分にインター リーブされており、 映像信号受信部は、 受信した映像信号から、 複合信号を分離 して、 通信部に伝送する。 映像信号と複合信号の全てを映像信号入力部から得る ことができるため、 伝送路のコストを抑えることができる。 図面の簡単な説明
以下、 添付の図面を参照して、 本発明の実施の形態を説明する。
図 1は、 スィツチヤーによる画像の合成を示す模式図である。
図 2は、 本実施の形態による第 1の映像合成装置の構成を示すプロック図であ る。
図 3は、 映像合成装置に入力される映像の例を示す図である。
図 4は、 映像合成装置に入力される静止画像の例を示す図である。 · - 図 5は、 画素データのデータ構造を示す図である。
図 6は、 記憶部における静止画像の記憶状態を表す概略図である。
図 7は、 静止画像を含む管理領域の拡大図である。
図 8は、 映像と静止画像とを合成して得られる合成画像を示す図である。
図 9 Aは、 読み出されるデータ領域が記憶された管理領域を示す図である。 図 9 Bは、 映像に合成された、 静止画像を含む表示領域を示す図である。
図 1 O Aは、 読み出されるデータ領域が記憶された管理領域を示す図である。 図 1 0 Bは、 映像に合成された、 静止画像を含む表示領域を示す図である。 図 1 1 Aおよび図 1 1 Bは、 記憶領域上の静止画像、 記憶領域上の静止画像、 記憶領域上の静止画像、 読み出される静止画像の領域、 入力される映像信号の領 域、 表示される静止画像 4 0を示す図である。 図 1 2 Aおよび図 1 2 Bは、 読み出される静止画像の領域、 読み出される静止 画像の領域、 表示される静止画像を示す図である。
図 1 3 Aおよび図 1 3 Bは、 読み出される静止画像の領域、 読み出される静止 画像の領域、 表示される静止画像を示す図である。
図 1 4 Aおよぴ図 1 4 Bは、 読み出される静止画像の領域、 およぴ表示される 静止画像を示す図である。
図 1 5は、 本実施の形態による第 2の映像合成装置の構成を示すブロック図で ある。
図 1 6は、 制御データの伝送順序の例を示す図である。 発明を実施するための最良の形態
以下、 図面を参照して、 本発明の実施の形態を説明する。
図 2は、 本実施の形態による映像合成装置 8の構成を示すプロック図である。 映像合成装置 8は、 映像信号受信部 1 2と、 データ通信部 1 3と、 記憶部 1 4と、 合成部 1 5とを備えている。 映像合成装置 8は、 映像 9と、 静止画像 1◦とを合 成して、 合成映像 1 6を生成する。
映像合成装置 8の各構成要素を説明する。 映像信号受信部 1 2は、 ビデオデッ キ、 力メラ等の外部機器から、 映像信号として映像 9を受け取り、-合成部 1 5に 出力する。 映像 9は、 動画であっても静止画であってもよい。 データ通信部 1 3 は、 パーソナルコンピュータ (以下、 P Cという) 等の外部機器から信号を受け 取る。 その信号は、 映像 9に合成すべき静止画像 1 0と、 入力される静止画像の 映像信号上における位置データ 1 1とを含む複合信号である。 静止画像 1 0は、 図示されるように適当な図形でもよいし、 また、 字幕等であってもよい。 静止画 像 1 0およびその位置データは、 後に詳述する。 なお、 映像信号および複合信号 は、 S D Iケーブルやコンポジットケーブル等を用いて伝送される。 また、 例え ば、 P Cを利用する場合には、 L AN、 U S B , I E E E 1 3 9 4等を介して静 止画像を入力できる。 また、 静止画像は、 フレキシブルディスクや光ディスク等 の記憶媒体を用いて静止画像を入力してもよい。
データ通信部 1 3は、 受信した複合信号を、 記憶部 1 4に出力する。 記憶部 1 4は、 複合信号を受け取り、 記憶する。 また、 記憶部 14は、 複合信号に含まれ る静止画像、 および/または、 位置データの読み出し指示があれば、 そのデータ を読み出し、 出力する。 記憶部 14は、 例えば、 ダイナミックランダムアクセス メモリ (DRAM) 等の半導体記憶装置、 ハードディスクドライブ (HDD) 、 磁気テープ等の磁気記憶装置等の記憶装置である。 合成部 15は、 映像信号受信 部 12力、ら映像 9を受け取り、 また、 記憶部 14力 ら静止画像の画像データ、 お よび、 位置データを受け取り、 合成する。 合成部 15は、 合成した映像 (合成映 像 16) を合成映像信号として出力する。 出力された合成映像 16は、 ディスプ レイ等の表示部 (図示せず) に表示される。
続いて、 映像信号受信部 12力 ビデオデッキで再生された映像 9を表す映像 信号を受け取り、 かつ、 データ通信部 13が、 PCから送信された静止画像、 お よびその位置データを受け取る例を考える。
まず、 映像信号がどのように映像合成装置 8に入力されるかを説明する。 図 3 は、 映像合成装置 8 (図 2) に入力される映像の例を示す図である。 映像領域 1 7が表示される画面の幅を W、 高さを Hとする。 これらは、 画素を 1単位とした ときの長さを表す。 まず、 領域 17の最上部の 1ライン分の画素データが入力さ れる。 具体的には、 左端 (0, 0) から右端 (W-1, 0) までの画素の画素デ ータが順に入力される。 右端 (w— 1, 0) の画素データが入力-される-と、 -続い て、 次ラインの左端の画素から右端までの画素が順に入力される。 すなわち、 (0, 1) から (W— 1, 1) までの画素データが入力される。 以下同様にして、 計 Hライン分の画素データが順次入力される。 映像信号受信部 12 (図 2) は、 以上のような手順に基づいて映像信号を受信するので、 映像信号に基づいて、 送 信された映像を得ることができる。
次に複合信号がどのように映像合成装置 8に入力されるかを説明する。 図 4は、 映像合成装置 8 (図 2) に入力される静止画像の例を示す図である。 枠 19内の 三角形の画像が、 合成される静止画像である。 枠 19内の三角形の画像は、 映像 信号の領域 18に対して、 図示されている位置に合成されるとする。 なお、 映像 合成装置 8 (図 2) は、 位置データに基づいて静止画像を映像に合成するため、 静止画像は実際に表示される部分、 つまり枠 19内の三角形の画像だけでよい。 本実施の形態では、 表示処理を簡単にするために、 三角形を含む矩形領域 19を 静止画像として用いる。 この場合、 矩形内の三角形以外の領域は、 透明な部分を 表すデータとして静止画像の画像データの一部を構成する。
静止画像を合成する位置を特定するために、 映像合成装置 8 (図 2) は、 複合 信号に含まれる位置データを利用する。 従来は、 静止画像を表示する位置のデー タが存在しなかったため、 映像信号上に表示される部分が映像のごく一部に静止 画像を合成する場合であっても、 映像全体の領域 18の大きさの静止画像を入力 する必要があった。 本発明では、 位置データを利用するので、 必要最小限のサイ ズの静止画像を用意すれば足りる。 これにより、 合成される静止画像のデータ量 を減少させることができ、 よって伝送時間を短縮できる。
静止画像の位置データ 1 1は、 三角形を囲む矩形領域 19の左上の座標で表す。 図示した例では、 (a x l, a y 1) である。 複合信号は、 静止画像を表す信号 と、 それに続く、 位置データを表す信号とから構成される。 すなわち、 データ通 信部 13は、 まず静止画像を受け取り、 次に位置データを受け取る。 データ通信 部 13には、 静止画像領域 19の最上ライン分の画素データが入力される。 すな わち、 左端 (a X 1, a y 1) から右端 (a x 2, a y 1) までの画素の画素デ ータが順に入力される。 最上ライン右端 (a X 2, a y 1) の画素データが入力 されると 1つ下の次ラインに移り、 同様に左端 (a x l, a y 1 +· 1) から右端 (a x 2, a y 1 + 1) までの画素データが入力される。 以下同様にして、 領域 19内の全ラインの画素データが順次入力される。 静止画像が入力された後、
(a X 1, a y 1) で表される位置データ 1 1が入力される。 位置データは X座 標と Y座標それぞれ 2バイトの大きさをもち、 X座標データが最初に入力された 後 Y座標データが入力される。
次に、 静止画像を構成する各画素の画素データの構成を説明する。 画素データ は、 輝度データ Y、 色差データ P bと P r、 透過率の画素データ Kから構成され ている。 図 5は、 画素データのデータ構造を示す図である。 図示されるように、 画素データは、 κ, Y, P b, P rの順で並べられ、 この順で映像合成装置 8
(図 2) に入力される。 輝度データ Y、 および、 色差データ Pb, P rは、 画素 の色を表すデータである。 透過率データ Kは、 画素がどの程度透けているかを表 すデータである。 透過率 Kが 0であれば、 映像 9 (図 2 ) と合成されたとき、 画 素は本来の色で表示される。 透過率 Kが 0でない場合は、 画素が半透明の状態で 表示されることを意味する。 したがって、 映像 9 (図 2 ) と合成されたとき、 そ の下にある映像 9 (図 2 ) が透けて見える。 透過率 Kが最大になると、 画素は完 全に透明になり、 映像 9 (図 2 ) のみを表示する場合と同じ状態で合成される。 これらのデータは、 それぞれが 1バイトであり、 0〜2 5 5の値をもつ。 静止画 像を構成する各画素は、 赤 ·緑 ·青の三原色からなる R G Bデータで表されてい ることが多い。 この場合には、 次式で Y、 P b、 P rのデータに変換する。
Y = 0. 299*R + 0. 587*G + 0. 114*B
Pr = 0. 5*R - 0. 4187*G - 0. 0813*B + 128
Pb = -0. 1687*R —0. 3313*G + 0. 5*B + 128
映像 9 (図 2 ) との合成に際しては、 透過率 Kは、 そのまま使用できる。 しか し、 静止画像の種類によっては透過率を持たない場合がある。 そのような場合は 透過率 Kを 0に設定して、 画素をそのまま表示する。 すなわち、 映像 9 (図 2 ) が透けて見えないように合成される。 なお、 設定する透過率 Kの値は 0に限られ ない。 0以外の固定の値に設定してもよいし、 静止画像の大きさや表示位置、 そ の静止画像を表示し始めてからの経過時間等に応じて画像合成装置内で自動的に 値を変えるようにしでもよい。 また、 静止画像や位置データと共に、 外部から透 過率自体や透過率を制御する指示を入力してもよい。 静止画像を P Cから入力す る場合、 P C上で動作するアプリケーション等のプログラムで画素データを変換 し、 位置データを設定してもよい。 ここでは静止画像の画素を Y, P b , P r , Kのデータに変換して入力する例を示したが、 入力される画素の形式は任意であ る。 また、 静止画像を入力する機器も P C以外の機器であってもよい。
次に、 静止画像がどのように記憶部 1 4 (図 2 ) に記憶されるかを説明する。 データ通信部 1 3 (図 2 ) で受信された静止画像およびその位置データは、 記憶 部 1 4に記憶される。 本実施の形態では、 実際に表示される部分の静止画像のみ がデータ通信部 1 3 (図 2 ) で受信される。 したがって、 従来のような、 合成さ れる映像 9 (図 2 ) と同じ大きさの領域の画像が必要ないので、 記憶部 1 4 (図 2 ) が消費するメモリ容量を大幅に低減できる。 いうまでもなく、 静止画像の記 憶に必要な記憶容量は、 静止画像の大きさによって変化する。
図 6は、 記憶部 1 4 (図 2 ) における静止画像の記憶状態を表す概略図である。 1画面分の容量を示す部分記憶領域 2 0には、 複数の静止画像 2 1、 2 2、 2 3 が記憶されている。 部分記憶領域 2 0では、 1画面を上下方向に 4分の 1づっし た領域を最小の管理単位としている。 静止画像の縦方向の長さ、 すなわち高さ
(図 4の (a y 2— a y l ) ) に応じて、 使用する管理領域数を変更することに より、 管理が簡単でかつ記憶領域を無駄にすることなく、 静止画像を記憶できる。 静止画像 2 1と静止画像 2 3は、 画像の高さが、 1画面の高さの 4分の 1以下で あるため、 使用する管理領域は 1つである。 一方、 静止画像 2 2は、 画像の高さ が画面の高さの 4分の 1以上、 かつ、 2分の 1以下であるため、 使用する管理領 域は 2つである。 管理領域には、 1から順に管理番号を割り当てておき、 各静止 画像が記憶されている領域の開始番号として利用する。 静止画像 2 1の場合には、 開始番号 1で使用領域数 1、 静止画像 2 2の場合には、 開始番号 2で使用領域数 2、 静止画像 2 3の場合には、 開始番号 4で使用領域数 1である。 開始番号と使 用領域数は、 位置データとともに記憶部 1 4 (図 2 ) の記憶領域上に記憶してお く。 合成部 1 5 (図 2 ) は、 開始番号と使用領域数を利用して、 合成を行う際に 必要な静止画像を取得する。
静止画像は、 管理領域単位で読み出される。 映像上に静止画像が表示される際 には、 画面内に収まる管理領域全体が表示の対象になる。 そのため、 静止画像 2 1のように入力された部分が、 管理領域の一部し力使用しない場合、 それ以外の 部分を透明なデータにしておく必要がある。 透明なデータにするには前述の透過 率 Kを最大値に設定すればよい。
図 7は、 静止画像 2 1を含む管理領域の拡大図である。 この管理領域は、 静止 画像 2 1の画像データが鲁き込まれる領域 2 4と、 静止画像 2 1の画像データが 書き込まれない領域 2 5とから構成される。 領域 2 5の記憶素子の初期値は、 必 ずしも透明を表すデータであるとは限らないので、 静止画像 2 1が入力され、 領 域 2 4に記憶された際に、 映像合成装置 8 (図 2 ) の制御部 (図示せず) は、 領 域 2 5の記憶素子を、 透明を表すデータに設定する。 この動作は、 映像合成装置 8 (図 2 ) の内部で記憶領域を書き換えるだけの処理であるので、 外部から透明 なデータを入力する場合に比べはるかに高速に行うことができる。
なお、 上述した静止画像の記憶方法は一例であり、 記憶の順序、 管理領域を設 定するカゝ否か、 設定した場合の領域の大きさ等は任意である。 例えば、 管理領域 の大きさを、 静止画像データや位置データ等の、 格納するデータの大きさに合わ せて可変とし、 記憶領域に、 新たに、 各管理領域の先頭アドレスと、 格納される 静止画像の大きさとを記憶するテーブルを設ける。 これにより、 記憶領域をさら に節約でき、 管理領域のうち、 空き領域を透明なデータに設定する必要がなくな る。 また、 静止画像の位置データも、 静止画像に対応した位置データを取り出せ るのであれば、 どのように記憶されていてもよい。
次に、 合成部 1 5 (図 2 ) 力 映像と静止画像とを合成して、 合成映像を生 成する手順を説明する。 前述したように、 記憶部 1 4 (図 2 ) の記憶領域には複 数の静止画像が記憶されている場合があるので、 その中から合成に必要な静止画 像を選択する必要がある。 合成部 1 5 (図 2 ) は、 記憶領域の管理番号を指定し て、 静止画像を選択する。 記憶部 1 4 (図 2 ) は、 合成部 1 5から管理番号を指 定されると、 その番号が示す領域に記憶された静止画像の開始番号、 使用してい る領域数、 位置データを読み出す。 そして、 開始番号が示す領域から、 使用して いる領域数だけ、 画像データを読み出す。 合成部 1 5 (図 2 ) は、 読み出された 静止画像の画像データと位置データを受け取り、 映像信号に合成するこ-とによ-り、 映像上に静止画像が表示される。 図 8は、 映像 (図 3 ) と静止画像 (図 4 ) とを 合成して得られる合成画像の例を示す図である。 なお、 読み出した静止画像が、 必要な静止画像である力否かは、 ユーザは実際に画面に表示されるまで知ること ができない。 したがって、 合成処理の前に、 図 8に示す静止画像のみを表示させ てもよい。
静止画像データを読み出す際には、 読み出される表示データの大きさとその読 み出し開始アドレスは、 静止画像の表示位置によって異なる。 図 9 Aおよび図 9 B、 図 1 O Aおよび図 1 O Bは、 静止画像の読み出しと、 表示との関係を示す図 である。 なお、 以下の説明は一例であって、 他のどのような方法であっても映像 信号との合成に問題はない。
図 9 Aおよぴ図 9 Bは、 静止画像の左上端が、 合成の対象となる映像内の位置 (a x 1, a y 1) に存在する場合の、 静止画像の読み出しと、 表示との関係を 示す図である。 図 9 Aは、 読み出されるデータ領域 28が記憶された管理領域 2 7を示す。 図 9 Bは、 映像 29に合成された、 静止画像を含む表示領域 30を示 す。 この例では、 静止画像は、 その左上端から表示される。 表示される領域 30 の幅は (W— a X 1) で表されるので、 合成部 1 5 (図 2) は、 記憶領域 27の 開始アドレスである 0 X 000000から、 幅が (W— a x l) で高さが 1管理 領域分のデータを読み出す。 上述のように、 1画素は 4バイトのデータから構成 されるので、 最初の 1ラインのデータとして 0 X 000000からの (W— a x 1) * 4バイ トのデータを読み出す。 以降、 読み出し開始アドレスを 0 X 000 000から (W* 4) ずつ増加させながら (W— a x l) * 4バイトのデータを 読み出す、 という作業を繰り返せばよい。
図 10 Aおよび図 10 Bは、 静止画像の左上端が、 合成の対象となる映像外の 位置 (一a x 2, a y 2) に存在する場合の、 静止画像の読み出しと、 表示との 関係を示す図である。 図 1 0 Aは、 読み出されるデータ領域 32が記憶された管 理領域 3 1を示す。 図 1 0 Bは、 映像 33に合成された、 静止画像を含む表示領 域 34を示す。 この例では、 静止画像はその左上端から X方向に a X 2だけ移動 した位置から表示される。 よって、 読み出し開始アドレスは 0 X 000000 + a x 2 *4となる。 表示される領域 3 2は、 幅が W— a x 2で高さが 1管理領域 分の領域であるので、 合成部 1 5 (図 2) は、 最初の 1ラインのデータとして 0 X◦ 00000 + a X 2 * 4から (W_a x 2) * 4バイ トのデータを読み出す。 以降、 読み出し開始アドレスを 0 X 00000 O + a X 2 * 4から (W* 4) ず つ増加させながら (W— a x 2) * 4バイ トのデータを読み出すという作業を繰 り返せばよい。
記憶部 14に記憶された静止画像の位置データは、 必ずしも外部からのデータ 入力によって更新される必要はない。 映像合成装置 8 (図 2) の位置データを変 更するプログラムで動作する変更制御部 (図示せず) 力 記憶部 14 (図 2) に 記憶された位置データを変更してもよい。 この場合、 プログラム処理で位置デー タを連続的に変化させることにより、 映像上に表示された静止画像を、 画面の左 力 ら右へ移動させる等の処理が実現できる。 ここで、 映像上に複数の静止画像を表示する場合、 それぞれの位置データを連 続的に変化させて、 横や縦に長い静止画像をスクローノ 示させることができる。 例えば横 3画面分の細長い画像が画面の右から現れて左へスクロールし、 画面の 左に消えていく表示を考える。 映像合成装置 8 (図 2 ) は、 画像を 1画面ごとに 分割し、 それぞれを別々に表示処理を行う。 図 1 1 A〜図 1 4 Bは、 スクロール 表示処理の手順を説明する図である。 図 1 1 Aおよぴ図 1 1 Bには、 記憶領域上 の静止画像 3 5、 記憶領域上の静止画像 3 6、 記憶領域上の静止画像 3 7、 読み 出される静止画像 3 5の領域 3 8、 入力される映像信号の領域 3 9、 表示される 静止画像 4 0が示されている。 図 1 2 Aおよび図 1 2 Bには、 読み出される静止 画像 3 5 (図 1 1 A) の領域 4 1、 読み出される静止画像 3 6 (図 1 1 A) の領 域 4 2、 表示される静止画像 4 3および 4 4が示されている。 図 1 3 Aおよび図 1 3 Bには、 読み出される静止画像 3 6 (図 1 1 A) の領域 4 5、 読み出される 静止画像 3 7 (図 1 1 A) の領域 4 6、 表示される静止画像 4 7および 4 8が示 されている。 図 1 4 Aおよび図 1 4 Bには、 読み出される静止画像 3 7 (図 1 1 A) の領域 4 9、 表示される静止画像 5 0が示されている。
図 1 1 Bを参照して、 まず、 3枚の静止画像のうち 1枚目の静止画像 3 5が、 画面の左から現れる。 静止画像 3 5の最初の位置データは、 画面の右端である
(W— 1, y ) になる。 その後、 一定時間おきに、 設定された移動量分だけ X座 標を変化させ、 静止画像の表示位置を変更する処理を行う。 移動量が一定でかつ ある程度小さい値であれば、 静止画像 3 5が左にスクロールしているように見え る。 図 1 1 Bは、 静止画像 4 0の位置が (d x l、 y ) であるときの例である。 静止画像 4 0の左上端が画面内であるため、 記憶領域からの読み出し方法は図 9 Aおよび図 9 Bの例と同様であり、 記憶領域の開始ァドレス 0 X 0 0 0 0 0 0力 ら W— d X 1個の画素データを 1ラインずつ読み出す。
静止画像 4 0が、 左に移動し、 その左端が画面左から外に出た状態になった場 合には、 静止画像 4 0の隣に、 次の静止画像 3 6を表示する。 静止画像 3 6の表 示位置は、 静止画像 4 0の右上端の位置の 1画素右である。 静止画像 3 6が画面 に表示された後は、 静止画像 3 5の表示位置変更処理の後に静止画像 3 6の表示 位置変更処理を行う。 ここで、 静止画像 3 6の移動量は静止画像 3 5と同じ値を 用いる。
図 12 Bは、 第 1の静止画像 43と、 後続の第 2の静止画像 44とを示す図で ある。 静止画像 43は、 静止画像 35 (図 1 1A) の一部であり、 静止画像 44 は、 静止画像 36 (図 11 A) の一部である。 図 12Bは、 静止画像 43の位置 力 S (— d x 2、 y) 、 静止画像 44の位置が (e x l, y) であるときの例であ る。 静止画像 43の左上端は画面外であるため、 記憶領域からデータを読み出す 方法は、 図 1 OAおよび図 1 OBの例と同様である。 すなわち、 記憶領域の開始 了ドレスに d X 2個の画素分だけオフセットを加えた 0 x000000 + d x 2 * 4から W— d X 2個の画素データを 1ラインずつ読み出す。 静止画像 44の左 上端は画面内であるので、 記憶領域からデータを読み出す方法は、 図 9 Aおよび 図 9 Bの例と同様であり、 記憶領域の開始ァドレス Ox l O O O O Oから W— e X 1個の画素データを 1ラインずつ読み出す。
静止画像 43が完全に画面外に出た後は、 静止画像 44と、 静止画像 37 (図 11 A) の表示処理を行う。 この処理は、 静止画像 43と静止画像 44の表示処 理と同様である。 図 13Bは、 第 2の静止画像 47と、 後続の第 3の静止画像 4 8とを示す図である。 静止画像 47は、 静止画像 36 (図 1 1 A) の一部であり、 静止画像 48は、 静止画像 37 (図 1 1A) の一部である。
静止画像 47が完全に画面外に出た後は、 静止画像 48のみの表示処理を行う。 図 14Bは、 第 3の静止画像 50の表示位置が (一f x 2, y) であるときの例 を示す図である。 静止画像 50は、 静止画像 37 (図 11A) の一部である。 静 止画像 50の左上端は画面外であるため、 記憶領域からデータを読み出す方法は、 図 1 OAおよぴ図 10 Bの例と同様である。 すなわち、 記憶領域の開始ァドレス に f X 2個の画素分だけオフセットをカ Uえた 0 X 200000+ f x 2 * 4から W- f X 2個の画素データを 1ラインずつ読み出す。 静止画像 50が完全に画面 から外に出ると、 表示処理は全て終了する。
以上の例では、 3画面の画像を横にスクロールさせる例を示した。 し力 し、 静 止画像が 3画面以外に亘つてもよい。 また、 縦に長い画像を縦にスクロールさせ る場合も同様に画像を分割して、 それぞれの表示位置を変更すればよい。
画像の合成は必ずしも映像信号と静止画像の組み合わせに限られない。 例えば、 映像合成装置 8 (図 2 ) は、 静止画像と静止画像を合成して出力することもでき る。 背景に動きが必要ない場合であれば、 静止画像のみの映像合成システムを構 築することで、 システムのコストを抑えることができる。
本実施の形態による映像合成装置は、 入力された映像への静止画像の合成に用 いられるだけではない。 具体的には、 映像合成装置は、 入力された映像の 1フレ ームを取り込み、 フレーム静止画像に変換し出力する機能を有していてもよい。 映像信号を取り込んだ静止画像を外部機器に蓄積し、 後に映像合成装置に入力し て背景画像として利用することもできる。 映像合成装置と外部機器との通信は、 データ通信を行うデータ通信部を利用する。
図 1 5は、 本実施の形態による映像合成装置 5 1の構成を示すブロック図であ る。 映像合成装置 5 1は、 映像信号受信部 5 4と、 データ通信部 5 5と、 フレー ム取得部 5 6と、 記憶部 5 7と、 合成部 5 8とを備えている。 データ通信部 5 5 は、 データ通信部 1 3 (図 2 ) と同等の機能を有し、 さらに、 外部機器へのデー タ送信機能も備える。 映像合成装置 5 1は、 映像合成装置 8 (図 2 ) と同様、 映 像と静止画像とを合成して出力する機能を有する。 映像合成装置 8 (図 2 ) の構 成要素と同じ名称を付した映像合成装置 5 1の構成要素は、 同じ機能を有するの で、 その説明は省略する。
以下、 映像合成装置 5 1に新たに設けたフレーム取得部 5 6と、 フレーム取得 部 5 6に関連する映像合成装置 5 1の動作を説明する。 フレーム取得部 5 6は、 映像信号受信部 5 4に入力された、 映像 5 2を表す映像信号を利用して、 映像 5 2のフレームを抽出して取得する。 フレームの取り込みを行う場合、 映像合成装 置 5 1内部の映像信号の伝送路が切り替えられ、 映像信号がフレ^ "ム取得部 5 6 に入力される。 フレーム取得部 5 6は、 取り込みの指示があった時点の映像信号 のフレームを取りこみ、 データ通信部 5 5を用いて外部に出力する。 映像信号の 1フレームを静止画像として取り込むので、 出力される静止画像の大きさは常に 映像信号の大きさと同じ (W, H) になる。
画素は入力される静止画像と同様、 輝度データ Y、 色差データ P bと P r、 透 過率のデータ Kであり、 それぞれが 1バイトの大きさを持ち、 K, Y, P b, P rの I噴で出力される。 輝度データ Yと色差データ P bと P rは映像信号からその まま得ることができるが、 透過率のデータは映像信号には含まれないので、 透過 率を 0にして元の画素をそのまま表示するように設定する。 なお、 設定する透過 率 Kの値は 0に限られない。 0以外の固定の値に設定してもよいし、 静止画像の 大きさや表示位置、 その静止画像を表示し始めてからの経過時間等に応じて画像 合成装置が自動的に値を変更してもよい。 また、 静止画像や位置データと共に、 外部から透過率自体や透過率を制御する指示を入力してもよい。
フレームを構成する画素の伝送順についても、 入力される静止画像と同様であ り、 まず画像の左上端から右上端まで 1ライン目の画素を伝送し、 その後、 2ラ イン目に移り、 以下同様にして最下ラインまで伝送する。
以上、 映像信号のフレームを取り込んで出力する一例を説明した。 しかし、 こ れは一例であって、 他のどのような方法でも映像信号の取り込みに問題はない。 例えば、 フレーム取得部 5 6が取り込んだ静止画像をデータ記憶部 5 7に入力す ることも可能である。 また、 フレーム取得部 5 6が取り込んだ静止画像を合成部 5 8で自動的に拡大、 縮小、 回転して映像信号と合成することもできる。 この時 の拡大、 縮小率や回転角度は合成装置 5 8に保持された固定の値でもよい。 また は、 あらかじめ制御方法を記憶しておいてもよいし、 データ通信部 5 5によって 拡大、 縮小率、 回転角度やその制御方法を外部から入力してもよい。
映像合成装置 8 (図 2 ) または映像合成装置 5 1では、 静止画像とその位置デ ータを受け取るデータ通信部を用いて、 制御データの送受信を行うこともできる。 制御データとは、 映像合成装置の動作を制御するデータであり、 外部機器から映 像合成装置に送信され、 または、 映像合成装置から外部機器に送信される。
制御データの機能の例は、 以下のとおりである。 まず、 画像合成装置から外部 機器に送信される制御データの機能は、 (a ) 静止画像の表示位置変更、 (b ) 静止画像の表示方法変更、 (c ) 記憶部からの静止画像の削除、 ( d ) 合成画像 出力の制御 (再生、 一時停止、 停止等) 、 ( e ) 本体の動作環境設定等である。 また、 画像合成装置から外部機器に送信する制御データの例は、 (f ) 外部機器 からの制御に対する応答データ、 (g ) 現在の動作状態、 ( h ) 稼働時間などの メンテナンス情報等が挙げられる。
制御データは、 上述した機能を特定するデータ (メインコマンド) と、 その機 能に必要なパラメータ (サブコマンド) とを含む。 パラメータとは、 例えば、 上 記 (a ) についていえば、 変更後の静止画像の表示位置を表すデータ、 上記
( g ) であれば、 「合成中」 、 「合成完了」 等の動作状態を表すデータである。 図 1 6は、 制御データの伝送順序の例を示す図である。 要求された動作は、 メィ ンコマンドとサブコマンドに基づいて判断される。 これらのコマンドはそれぞれ
2バイトの大きさを持つ。 メインコマンドとサブコマンドだけでは必要なデータ を伝送できない場合、 さらにデータを付加して、 データを伝送する。 付加データ の長さは要求された動作によって異なるため、 受信側は受信した制御データの長 さを知る必要がある。 そこで、 制御データの先頭に、 制御データの長さを 4バイ ト長で格納する。 付加データが存在しない場合、 制御データ全体の長さは 8バイ トになり、 付加データが 4バイトの場合、 制御データ全体の長さは 1 2バイトに なる。 制御データのみならず、 静止画像もこのような形式で伝送できる。 例えば、 1 0 0 X 1 0 0画素の静止画像を伝送する場合、 静止画像のデータ量は 1 0 0 X 1 0 0 X 4 = 4 0 0 0 0バイトであるので、 データの合計長を 4 0 0 0 8ノ イトとし、 静止画像を付加データとして伝送すればよい。
以上、 制御データの送受信を行う例を説明した。 ただし、 これまでの説明は一 例であって、 他の方法を採用することもできる。 このような制御データを利用す ることにより、 外部からの機器制御が可能になり、 少ないコストで遠隔地から画 像合成装置を制御して合成画像を出力できる。
本発明の画像合成装置において、 入力された映像信号または複合信号に含まれ る映像または静止画像の情報量が圧縮されている場合は、 画像合成装置内で非圧 縮の状態に戻して合成処理を行う。 映像信号に含まれる映像の情報量、 および、 複合信号の静止画像データの情報量は、 例えば、 M P E G— 2規格に準拠して圧 縮 (符号化) され、 複号化される。
映像信号および Zまたは複合信号を入力する伝送路の帯域が小さい場合に、 伝 送する信号の情報量を可能な限り少なく、 かつ、 良好な画質を確保するためには、 テロップの静止画像のみ非圧縮で伝送することが考えられる。 テロップのような 文字デ"タは、 圧縮すると画質の低下が目立つからである。 このような場合、 従 来の画像合成装置では静止画像に画面全体のデータを必要とするため伝送するデ ータ量が大きくなる。 し力、し、 本実施の形態の画像合成装置では、 文字部分のみ のデータを伝送すればよいので、 非圧縮でもデータ量は小さくなる。 よって、 映 像信号を圧縮して取り扱レ、、 複合信号を非圧縮で取り扱うことにより、 帯域の小 さい伝送路でも画質を確保しつつ、 画像を合成することができる。
映像信号受信部およびデータ通信部の少なくとも一方を、 持ち運び可能な記録 媒体 (例えば、 S D (Secure Digital) カードや D VD— R AM) の再生装置と のインターフェース部にすることもできる。 例えば、 映像合成装置が P Cである 場合に、 外部機器である D VD— RAMドライブから、 I E E E 1 3 9 4インタ 一フェース機能を有する映像信号受信部に映像信号を送信してもよい。 これによ り、 遠隔地で作成した画像素材を合成に用いることもできる。 また、 映像信号受 信部および Zまたはデータ通信部を、 有線ネットワークや無線ネットワークと接 続することにより、 遠隔地で作成した画像素材を合成に用いることもできる。 本明細書で記載した実施の形態では、 映像信号の伝送路と複合信号の伝送路は 異なる伝送路である。 し力 し、 これらを 1つの伝送路とし、 全てのデータをまと. めて伝送してもよい。 入力される映像信号の、 映像を表す部分以外のブランキン グ部分に複合信号 (静止画像とその位置データ) をインターリーブして含めるこ とにより、 1つの伝送路で全ての信号を入力できる。 ブランキング部分の複合信 号の分離は、 映像信号受信部が行ってもよいし、 データ通信部が行ってもよい。

Claims

請 求 の 範 囲
1 . 映像と静止画像とを合成する映像合成装置であって、
映像を含む映像信号を受け取る映像信号受信部と、
前記映像の表示サイズよりも小さい表示サイズを有する静止画像、 および、 前 記映像に対する該静止画像の合成位置を示す位置データを含む複合信号を受け取 る通信部と、
通信部が受け取った前記複合信号から得られた前記静止画像、 および、 前記位 置データを記憶する記憶部と、
記憶部に記憶された前記位置データに基づいて、 映像信号受信部が受け取った 前記映像信号から得られた前記映像、 および、 記憶部に記憶された前記静止画像 を合成して出力する合成部と
を備えた、 映像合成装置。
2 . 記憶部に記憶された前記位置データを連続的に変更して、 前記映像に対す る前記静止画像の合成位置を連続的に変化させる変更制御部をさらに備えた、 請 求項 1に記載の映像合成装置。
3 . 記憶部は、 複数の静止画像と、 対応する複数の位置データを記憶し、 合成 部は、 前記複数の位置データの各々に基づいて、 前記映像、 および、 前記複数の 静止画像を合成して出力する、 請求項 1に記載の映像合成装置。
4 . 前記映像信号から得られた前記映像を、 フレーム画像として取得するフレ ーム取得部をさらに備え、
通信部は、 フレーム取得部が取得した前記フレーム画像を出力する、 請求項 1 〜 3に記載の映像合成装置。
5 . 通信部は、 映像合成装置の動作を制御する制御コマンドを送受信する、 請 求項 4に記載の映像合成装置。
6 . 前記映像信号に含まれる映像の情報量は、 圧縮されている、 請求項;!〜 5 のいずれかに記載の映像合成装置。
7 . 前記複合信号に含まれる静止画像の情報量は、 圧縮されている、 請求項 1 〜 6のいずれかに記載の映像合成装置。
8 . 前記映像信号に含まれる映像の情報量は、 圧縮されており、 前記複合信号 に含まれる静止画像の情報量は、 圧縮されていない、 請求項 1〜6のいずれかに 記載の映像合成装置。
9 . 映像信号受信部は、 持ち運び可能な記録媒体に記録されたデータに基づい て生成された映像信号を受け取る、 請求項 1〜8のいずれかに記載の映像合成装 置。
1 0 . 通信部は、 持ち運び可能な記録媒体に記録されたデータに基づいて生成 された複合信号を受け取る、 請求項 1〜 9のいずれかに記載の映像合成装置。
1 1 . 映像信号受信部および通信部の少なくとも一方は、 データを伝送するネ ットワークと接続されており、 前記ネットワークから、 映像信号および複合信号 の少なくとも一方を受け取る、 請求項 1〜1 0のいずれかに記載の映像合成装置。
1 2 . 前記映像信号は、 映像を表す部分と、 映像を表す部分以外のブランキン グ部分とを有し、 力、つ、 前記複合信号は、 前記映像信号のブランキング部分にィ ンターリーブされており、
映像信号受信部は、 受信した前記映像信号から、 前記複合信号を分離して、 通 信部に伝送する、 請求項 1〜 8のいずれかに記載の映像合成装置。
PCT/JP2002/011663 2001-11-09 2002-11-08 Video synthesizer WO2003041403A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/492,533 US7280158B2 (en) 2001-11-09 2002-11-08 Video synthesizing apparatus
EP02778071A EP1447978A4 (en) 2001-11-09 2002-11-08 VIDEO SYNTHESIZER

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001-344435 2001-11-09
JP2001344435A JP2003153080A (ja) 2001-11-09 2001-11-09 映像合成装置

Publications (1)

Publication Number Publication Date
WO2003041403A1 true WO2003041403A1 (en) 2003-05-15

Family

ID=19157967

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/011663 WO2003041403A1 (en) 2001-11-09 2002-11-08 Video synthesizer

Country Status (5)

Country Link
US (1) US7280158B2 (ja)
EP (1) EP1447978A4 (ja)
JP (1) JP2003153080A (ja)
CN (1) CN1258284C (ja)
WO (1) WO2003041403A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100419850C (zh) * 2004-08-04 2008-09-17 三叉技术公司 在显示设备上将多个视频信号源的图像重叠的系统和方法
CN100440944C (zh) * 2003-11-11 2008-12-03 精工爱普生株式会社 图像处理装置以及图像处理方法
US7774625B1 (en) 2004-06-22 2010-08-10 Eric Chien-Li Sheng Adaptive voltage control by accessing information stored within and specific to a microprocessor

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050125505A1 (en) * 2003-11-20 2005-06-09 Jong-Kyung Kim Picture providing service system and the method thereof
JP4659388B2 (ja) 2004-05-13 2011-03-30 キヤノン株式会社 画像処理装置
JP4189883B2 (ja) * 2004-06-24 2008-12-03 インターナショナル・ビジネス・マシーンズ・コーポレーション 画像圧縮装置、画像処理システム、画像圧縮方法、及びプログラム
US7616264B1 (en) * 2004-12-06 2009-11-10 Pixelworks, Inc. Cropped and scaled picture-in-picture system and method
TWI299829B (en) 2005-12-16 2008-08-11 Ind Tech Res Inst Medium for storing character data structure of an a/v program and method for display the same
WO2009013829A1 (ja) * 2007-07-26 2009-01-29 Pioneer Corporation 表示システム、表示方法、表示制御装置及び表示制御プログラム
GB2459475B (en) * 2008-04-23 2012-11-07 Norland Technology Ltd Method and means for transmitting and receiving an image
GB2491716B (en) * 2008-04-23 2013-04-10 Norland Technology Ltd Method and means for transmitting and receiving an image
EP2733926A1 (en) * 2012-11-16 2014-05-21 PIXarithmic GmbH Method of operating a video processing apparatus
JP6056078B2 (ja) * 2013-03-29 2017-01-11 株式会社オリンピア 遊技機
CN106063252B (zh) * 2013-12-17 2020-06-05 英特尔公司 用于处理字幕的设备和方法
CN110036434B (zh) * 2016-12-08 2022-06-14 夏普株式会社 显示装置
JP7380435B2 (ja) * 2020-06-10 2023-11-15 株式会社Jvcケンウッド 映像処理装置、及び映像処理システム
JP7276265B2 (ja) * 2020-06-30 2023-05-18 株式会社安川電機 生産システム、上位制御装置、制御装置、通信方法、及びプログラム
EP4387236A1 (en) * 2022-12-16 2024-06-19 Axis AB Method and image-processing device for adding an overlay to a video sequence

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08275057A (ja) * 1995-03-29 1996-10-18 Canon Inc 撮像装置
JPH11252518A (ja) * 1997-10-29 1999-09-17 Matsushita Electric Ind Co Ltd 字幕用副映像ユニット作成装置および記憶媒体
JP2000092447A (ja) * 1998-09-14 2000-03-31 Hitachi Ltd 映像記録再生装置
JP2001333348A (ja) * 2000-05-24 2001-11-30 Minolta Co Ltd 送信装置、受信装置、放送システムおよび放送方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4602286A (en) * 1982-01-15 1986-07-22 Quantel Limited Video processing for composite images
EP0108520B1 (en) * 1982-10-11 1990-03-28 Fujitsu Limited Method for controlling windows displayed in a card image data processing system
US4568981A (en) * 1983-04-08 1986-02-04 Ampex Corporation Font recall system and method of operation
JPH0233188A (ja) 1988-07-22 1990-02-02 Toshiba Corp 案内表示装置
JP3274682B2 (ja) 1990-08-27 2002-04-15 任天堂株式会社 静止画像表示装置およびそれに用いる外部記憶装置
KR940002277B1 (ko) 1991-08-27 1994-03-19 주식회사 금성사 브이씨알의 자막문자 표시장치 및 방법
JP3082820B2 (ja) 1993-11-25 2000-08-28 ソニー株式会社 受信装置およびデジタルデータ受信処理方法
JP3192875B2 (ja) * 1994-06-30 2001-07-30 キヤノン株式会社 画像合成方法および画像合成装置
JP3402533B2 (ja) 1994-08-10 2003-05-06 シャープ株式会社 文字放送特殊再生装置及びテレテキスト放送特殊再生装置
CN1166191C (zh) 1994-12-14 2004-09-08 皇家菲利浦电子有限公司 编码数据的发送和接收方法以及发射机和接收机
JP3279124B2 (ja) 1995-05-22 2002-04-30 松下電器産業株式会社 映像表示装置
EP0765082A3 (en) * 1995-09-25 1999-04-07 Sony Corporation Subtitle signal encoding/decoding
KR100211056B1 (ko) * 1995-12-23 1999-07-15 이계철 다수개의 비디오에 대한 윈도우 제어방법
US5982951A (en) * 1996-05-28 1999-11-09 Canon Kabushiki Kaisha Apparatus and method for combining a plurality of images
US6046777A (en) * 1996-09-06 2000-04-04 Thomson Consumer Electronics, Inc. Apparatus for sampling and displaying an auxiliary image with a main image to eliminate a spatial seam in the auxiliary image during freeze frame operation
JPH10174007A (ja) 1996-10-11 1998-06-26 Toshiba Corp マルチ機能テレビジョン装置
GB2323735C (en) * 1997-03-27 2006-08-10 Quantel Ltd An image processing system
US6046778A (en) * 1997-10-29 2000-04-04 Matsushita Electric Industrial Co., Ltd. Apparatus for generating sub-picture units for subtitles and storage medium storing sub-picture unit generation program
US6621932B2 (en) * 1998-03-06 2003-09-16 Matsushita Electric Industrial Co., Ltd. Video image decoding and composing method and video image decoding and composing apparatus
JP3409734B2 (ja) * 1999-04-20 2003-05-26 日本電気株式会社 画像合成システム及び方法
JP2001128062A (ja) 1999-10-29 2001-05-11 Matsushita Electric Ind Co Ltd 画像生成装置及び画像生成方法
JP4541482B2 (ja) * 2000-02-29 2010-09-08 キヤノン株式会社 画像処理装置及び画像処理方法
US6753929B1 (en) * 2000-06-28 2004-06-22 Vls Com Ltd. Method and system for real time motion picture segmentation and superposition
JP2002044559A (ja) * 2000-07-31 2002-02-08 Sony Corp 画像処理方法および画像処理装置
US7224404B2 (en) * 2001-07-30 2007-05-29 Samsung Electronics Co., Ltd. Remote display control of video/graphics data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08275057A (ja) * 1995-03-29 1996-10-18 Canon Inc 撮像装置
JPH11252518A (ja) * 1997-10-29 1999-09-17 Matsushita Electric Ind Co Ltd 字幕用副映像ユニット作成装置および記憶媒体
JP2000092447A (ja) * 1998-09-14 2000-03-31 Hitachi Ltd 映像記録再生装置
JP2001333348A (ja) * 2000-05-24 2001-11-30 Minolta Co Ltd 送信装置、受信装置、放送システムおよび放送方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1447978A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100440944C (zh) * 2003-11-11 2008-12-03 精工爱普生株式会社 图像处理装置以及图像处理方法
US7774625B1 (en) 2004-06-22 2010-08-10 Eric Chien-Li Sheng Adaptive voltage control by accessing information stored within and specific to a microprocessor
CN100419850C (zh) * 2004-08-04 2008-09-17 三叉技术公司 在显示设备上将多个视频信号源的图像重叠的系统和方法

Also Published As

Publication number Publication date
US7280158B2 (en) 2007-10-09
EP1447978A4 (en) 2005-11-16
CN1258284C (zh) 2006-05-31
JP2003153080A (ja) 2003-05-23
CN1586070A (zh) 2005-02-23
US20050041153A1 (en) 2005-02-24
EP1447978A1 (en) 2004-08-18

Similar Documents

Publication Publication Date Title
WO2003041403A1 (en) Video synthesizer
JP4926533B2 (ja) 動画像処理装置、動画像処理方法及びプログラム
KR101226748B1 (ko) 원격 편집 시스템, 주편집 장치, 원격 편집 장치, 편집 방법, 기록 매체
JP4412744B2 (ja) フレーム・レート変換を伴うマルチフォーマット音声・映像制作システム
US6937273B1 (en) Integrated motion-still capture system with indexing capability
US8848034B2 (en) Image processing apparatus, control method thereof, and program
US7027086B1 (en) Photographing apparatus and signal processing method that allow data of still pictures to be converted into a moving picture file
US8004542B2 (en) Video composition apparatus, video composition method and video composition program
CN101431690B (zh) 图像处理设备,图像处理方法
CN111727603B (zh) 摄像装置、控制方法和记录介质
WO2007138845A1 (ja) 広角レンズによる撮像データの圧縮方法、圧縮装置、広角カメラ装置およびモニタシステム
US20150043897A1 (en) Reproducing apparatus
JP2008252454A (ja) カメラ装置およびカメラ装置におけるgui切替方法
JP2004364258A (ja) 解像度を自動に設定する撮影装置及びその方法
EP1838089A1 (en) Image processing system, image pickup apparatus, image pickup method, image reproducing apparatus, and image reproducing method
US7649552B2 (en) Video signal processing apparatus
US7389004B2 (en) Image processing apparatus
JP2007267349A (ja) 分割画像処理システム及びそれに用いる固体撮像装置と再生装置並びにプログラム
JPH0898172A (ja) 画像符号化装置および画像復号化装置
JP4445592B2 (ja) フレーム変換を伴うマルチフォーマットa/v制作システム
JP2018019122A (ja) 画像データ処理装置および撮像装置
KR20030026499A (ko) Pvr의 화면 캡쳐 시스템
KR20060099026A (ko) 영상의 확대 처리 방법
JP4572603B2 (ja) 画像表示装置
JP3024204U (ja) クロマキーシステム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR IE IT LU MC NL PT SE SK TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2002778071

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 20028222431

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 2002778071

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10492533

Country of ref document: US