WO1998030029A1 - Dispositif et procede pour synthese d'images - Google Patents

Dispositif et procede pour synthese d'images Download PDF

Info

Publication number
WO1998030029A1
WO1998030029A1 PCT/JP1997/004896 JP9704896W WO9830029A1 WO 1998030029 A1 WO1998030029 A1 WO 1998030029A1 JP 9704896 W JP9704896 W JP 9704896W WO 9830029 A1 WO9830029 A1 WO 9830029A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
light source
processing target
background
target area
Prior art date
Application number
PCT/JP1997/004896
Other languages
English (en)
French (fr)
Inventor
Etsuro Saito
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP97950431A priority Critical patent/EP0895429A4/en
Priority to KR10-1998-0702733A priority patent/KR100495191B1/ko
Priority to US09/051,001 priority patent/US6104438A/en
Publication of WO1998030029A1 publication Critical patent/WO1998030029A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • H04N9/75Chroma key

Definitions

  • the present invention relates to an image synthesizing apparatus, and is applied to a case where a live camera image and a computer graphics image are synthesized in real time, for example, in a broadcasting studio or the like using a technique of chroma. It is preferable.
  • Background art
  • a predetermined color for example, blue or green, etc.
  • the person is made to stand in front of a background having a color not included in the image of (1), and the person is imaged.
  • a key signal is generated based on the color of the background from the imaging signal, and an image based on computer graphics is replaced in place of the background based on the key signal.
  • a computer graphics video and a person are combined to generate an image as if a person actually existed in the virtual space generated by the computer graphics. Can be done.
  • the present invention has been made in view of the above points, and proposes an image synthesizing apparatus that can easily change the background image to be synthesized in response to the movement of the imaging unit with a simple configuration. Is what you do.
  • the present invention detects an area obtained by imaging a processing target area of a predetermined color from video data obtained via an imaging unit, and inserts another image into the area to synthesize the image.
  • an image synthesizing apparatus that generates a video
  • an illumination unit that forms a light source image in the same color as the processing target region in the processing target region, and position information of the imaging unit with respect to the processing target region is detected based on the light source image.
  • a position detecting means and an image generating means for changing another image in response to a change in the position of the imaging means based on the position information are provided.
  • the position of the imaging unit with respect to the processing target area is detected based on the light source image, and other images are changed in accordance with the detected change in the position of the imaging unit.
  • the video to be inserted can be changed according to the movement of the imaging means, and a composite image without a sense of incongruity can be generated.
  • the input video data is generated in an image synthesizing apparatus that detects an area obtained by imaging a processing target area of a predetermined color from the input video data and inserts another video into the area to generate a synthesized video.
  • Illuminating means for forming a plurality of light source images in the same color as the processing target area in the processing target area, detecting the processing target area from the input video data, and setting a plurality of light sources formed in the processing target area.
  • Position detection means for detecting the positions of four light source images that are the basis of the image, and background source to be inserted into the processing target area based on the position information of the light source images detected by the position detection means
  • Image conversion means for three-dimensionally converting video data, and synthesizing means for synthesizing the background source video data image-converted by the image conversion means into an area corresponding to a processing target area of the input video data are provided. I do.
  • the position information of the four reference light source images is detected, and the background source video data to be inserted is three-dimensionally converted based on the position information.
  • the positions of the two light source images it is possible to generate background source video data that changes in accordance with the movement of the imaging means even when the imaging means moves, and it is possible to generate a composite video without a sense of incongruity. .
  • an image synthesizing device that can change the synthesized background image naturally according to the movement of the imaging means with a simpler configuration.
  • FIG. 5 is a block diagram showing the configuration of the image synthesizing apparatus according to the first embodiment.
  • FIG. 2 is a chart for explaining the identification code of the point light source.
  • FIG. 3 is a schematic diagram for explaining the key signals # 1 and # 2.
  • FIG. 4 is a video image diagram for explaining the image conversion of the background source video signal.
  • FIG. 5 is a video image diagram for explaining a synthesized video signal generated by the image synthesis device.
  • FIG. 6 is a schematic diagram for explaining a method of detecting the position information (distance, inclination, and position) of the video camera according to the first embodiment.
  • FIG. 7 is a schematic diagram for explaining a method of detecting the position information (distance, inclination, and position) of the video camera according to the first embodiment.
  • FIG. 8 is a schematic diagram for explaining a method for detecting the position information (distance, inclination, and position) of the video camera according to the first embodiment.
  • FIG. 9 is a schematic diagram for explaining a method for detecting the position information (distance, inclination, and position) of the video camera according to the first embodiment.
  • FIG. 10 is a schematic diagram for explaining a method of detecting the position information (distance, inclination, and position) of the video camera according to the first embodiment.
  • FIG. 11 is a schematic diagram used to describe a method for detecting position information (distance, inclination, and position) of a video camera according to the first embodiment.
  • FIG. 12 is a schematic diagram used to describe a method for detecting position information (distance, inclination, and position) of a video camera according to the first embodiment.
  • FIG. 13 is a schematic diagram for explaining detection of a point light source.
  • FIG. 14 is a block diagram showing the configuration of the image composition device according to the second embodiment.
  • FIG. 15 is a schematic diagram used to explain a reference point light source.
  • FIG. 16 is a schematic diagram for explanation when the background plate is imaged from the front.
  • FIG. 17 is a schematic diagram used to explain detection of a reference point light source.
  • FIG. 18 is a schematic diagram used for explanation when the reference point light source deviates from the angle of view.
  • FIG. 19 is a schematic diagram used to explain the operation of the frame memory.
  • FIG. 20 is a schematic diagram used for describing three-dimensional coordinates.
  • FIG. 21 is a schematic diagram for explaining the correspondence between the frame memory and the monitor screen.
  • FIG. 22 is a flowchart showing a method of calculating a read address according to the second embodiment.
  • FIG. 23 is a schematic diagram for explaining the coordinates of the detected point light source.
  • reference numeral 1 denotes an image synthesizing apparatus according to the first embodiment as a whole.
  • Projector device 4 that projects the light source and video camera 2
  • An image processing unit 5 that generates a composite image from the captured video signal V 1.
  • the image synthesizing apparatus 1 captures an image of an analyzer standing in front of the background plate 3 together with the background plate 3, and at the background plate 3, for example, an image of a virtual space generated by computer graphics or another image. By synthesizing a landscape image taken at a different location, a synthetic image is generated as if the corresponding antenna were actually present in another location other than the virtual space.
  • the background plate 3 used in the image synthesizing apparatus 1 is dyed in a single color (for example, blue or green) which the subject such as an analyzer standing in front of the background plate 3 does not have.
  • a single color for example, blue or green
  • the subject and the background can be distinguished by color.
  • the projector device 4 is a device for projecting a plurality of point light sources P 1 i to P nn formed in a matrix at a predetermined pitch in the horizontal and vertical directions on the background plate 3. is there.
  • the emission colors of the point light sources PII to Pnn are set to the same color as the background plate 3, for example, blue or green.
  • the point light source P0 projected to the approximate center of the background plate 3 among the plurality of point light sources P11 to Pnn is set as the reference point light source.
  • the position of the reference point light source P 0 is set as the origin of the three-dimensional space, and the horizontal direction toward the reference point light source P 0 is the X axis, the vertical direction is the y axis, A three-dimensional coordinate system is defined with the depth direction as the z-axis, and the position of the video camera 2 is detected using the three-dimensional coordinate system. Further, in the image synthesizing device 1, the video synthesized with the background is deformed based on the detected position of the video camera 2, whereby when the video camera 2 is moved, it is deformed. The background image changes naturally following the movement.
  • the point light sources P 11 to P nn blink in synchronization with the frame timing of the video camera 2. It is as follows. At this time, lighting is represented by “1” and lighting is represented by “0”. For example, as shown in FIG. 2, instead of turning on or off all the point light sources P11 to Pnn all at once, instead of turning on and off each point light source in a 5-frame cycle, Thus, the point light sources P11 to Pnn can be identified by the way of blinking. For example, as shown in Fig. 2, if "OFF-OFF-ON-OFF->OFF->ON" is performed in 5 frames, it can be identified as the point light source P11.
  • the projector device 4 receives the first frame from the system controller D-controller 6 of the image processing unit 5.
  • the reference pulse signal SP whose signal level rises at the time of the timing is supplied.
  • the projector device 4 causes the point light sources P11 to Pnn to blink independently with a period of 5 frames as shown in FIG. 2 based on the reference pulse signal SP. It has become.
  • this flashing method of the point light source shown in FIG. 2 represents information for identification, this flashing method is referred to as an identification code in the following description.
  • the power camera position / optical axis detection circuit 7 which will be described later, detects the reference point light source P0 by the blinking of the point light source, this identification code is stored in a memory or the like in advance. I'm gripping.
  • the reference pulse signal SP is supplied from the system controller 6.
  • the video signal V1 composed of the human and the background imaged by the bidet talent camera 2 is output to the digital circuit 8 and the mixer circuit 9 of the image processing section 5. Is done.
  • the video power camera 2 outputs magnification information at the time of capturing an object as zoom information ZM to the system controller 6 of the image processing unit 5.
  • n—La 6 is a control means for controlling the operation of the image synthesizing apparatus 1, and as described above, the reference pulse signal SP And the reference pulse signal SP is sent to the camera position-optical axis detection circuit 7 together with the zoom information ZM.
  • the system controller 6 also outputs the zoom information ZM to a three-dimensional conversion address calculation circuit 10 described later.
  • the chroma circuit 8 to which the video signal V 1 is supplied extracts a color signal corresponding to the hue of the background plate 3 from the video signal V 1 and compares the color signal with a predetermined threshold.
  • a cow signal K 1 indicating the background portion in the video signal VI is generated, and the cow signal K 1 is output to the camera position / optical axis detection circuit 7.
  • the bearer circuit 8 generates a key signal K 2 indicating a person portion in the video signal V 1 by inverting the half signal K 1, and converts the key signal K 2 into a mixer. Output to circuit 9.
  • FIG. 3 shows an image diagram of the video signal V 1 and the key signals K 1 and K 2.
  • the video signal V1 includes the image portion a of the person and the background plate 3.
  • Image part b exists.
  • the background plate 3 is set to a special color such as blue or green, a color signal corresponding to the hue of the background plate 3 is extracted from the video signal V 1 and compared with a threshold value.
  • FIG. 3 (B) it is possible to easily generate a key signal K1 whose signal level is, for example, "1" in the background part b of the video signal VI. If this key signal K1 is inverted, a key signal K2 such that the signal level becomes, for example, "1" in the person part a can be easily generated as shown in FIG. 3 (C). it can.
  • the camera position / optical axis detection circuit 7 generates a video signal consisting of only a background portion by extracting a region where the signal level of the key signal K 1 is “1” from the video signal V 1. Then, based on the identification code and the reference pulse signal SP stored in the internal memory, the camera position / optical axis detection circuit 7 converts each point light source from the video signal consisting only of the background portion. Detect the positions of P11 to Pnn. Subsequently, the camera position / optical axis detection circuit 7 extracts four point light sources adjacent to the vicinity of the center of the screen from the detected point light sources PI l to P nn, and determines the positions and positions of the four point light sources.
  • the tilt of the video force camera 2 in the vertical and horizontal directions with respect to the background plate 3 of the optical axis that is, The angles X and ⁇ ⁇ around the X and Y axes of the three-dimensional coordinate system, the distance L from the video camera 2 to the background plate 3, and the position of the video camera 2 with respect to the reference point light source P0, that is, the reference point light source P
  • the position coordinates (X, ⁇ , Z) in the three-dimensional coordinate system with 0 as the origin are calculated, and the calculated parameter information is used as detection data S 1 as a three-dimensional conversion address calculation circuit 10.
  • the three-dimensional conversion address calculation circuit 10 Based on the detected data S 1 and the zoom information ZM supplied from the system controller 6, the three-dimensional conversion address calculation circuit 10 places the background image to be synthesized at the position of the video camera 2. A read address for deforming three-dimensionally in response is generated, and the read address S 2 is output to the frame memory 11. That is, since the three-dimensional conversion address calculation circuit 10 generates a video image as if a background image was viewed from the position of the video camera 2, the readout address necessary to realize such three-dimensional image conversion is obtained. And outputs it to frame memory 11.
  • Video tape recorder (VTR)] 2 records the video to be synthesized as a background image (for example, video generated by computer graphics or landscape video shot at another location).
  • a video tape is mounted, and the video tape recorder 12 reproduces the video tape and outputs a video signal of a background image used for synthesis (hereinafter referred to as a background source video signal).
  • V2 is output.
  • the background source video signal V 2 is supplied to the above-mentioned frame memory 11, and is sequentially written to a storage area in the frame memory 11.
  • the frame memory 11 sequentially reads the background source video signal V 2 written in the storage area based on the read address S 2 supplied from the three-dimensional conversion address operation circuit 10. Accordingly, a background source video signal V 3 deformed three-dimensionally in accordance with the position of the video force camera 2 is generated, and this is output to the mixer circuit 9.
  • the background source video signal V2 is a video signal of an image of a painting attached to a museum wall
  • the position of the bidet talent camera 2 is the background plate 3.
  • the frame memory 11 reads the painting diagonally to the left as shown in Fig. 4 (B) by the read process based on the read address S2. Taken from the front Transforms into a shadowed video signal V3.
  • the mixer circuit 9 selects the video signal V 1 when the signal level of the key signal K 2 is “1”, and selects the background source video signal V 3 when the signal level of the key signal K 2 is “0”.
  • the video signal V 1 and the background source video signal V 3 are synthesized.
  • V 4 K 2-V 1 + (1-K 2) V 3 (1)
  • f is the focal length of the zoom lens 13 in the video camera 2.
  • the optical path length S from the background plate 3 to the imaging surface of the video camera 2 is almost equal to the distance L from the background plate 3 to the video camera 2 (the optical axis 0 of the video camera 2 corresponds to the background plate 3). Distance to the point of intersection). Therefore, by transforming equation (1), the following equation is obtained for the distance L from the background plate 3 to the video camera 2.
  • the relational expression shown in m can be obtained.
  • the focal length f obtained from the zoom information ZM of the zoom lens 13 and the distance M between the point light sources arranged at a predetermined pitch.
  • the distance L from the background plate 3 to the video force camera 2 can be obtained by performing the calculation of equation (3).
  • FIG. 8 when the video force camera 2 is tilted with respect to the background plate 3, as shown in FIG. The image of P 4 is observed as being deformed from the rectangular shape.
  • the distance m between the images when the point light source image is arranged so as to cross the optical axis 0 of the video camera 2 vertically is calculated.
  • the calculation is performed by substituting the distance m into equation (3).
  • the distance L from the background plate 3 to the video camera 2 can be calculated.
  • the distance m is based on the coordinate values of the four point light source images used as the basis for calculating the distance, and if the optical axis 0 is inside the four points, the straight line connecting the adjacent point light source images
  • the calculation can be performed by the interpolation calculation processing to extrapolate a straight line connecting the adjacent point light source images.
  • the light source is inclined in both the horizontal and vertical directions, as shown in Fig. 10, the point light source of the rectangular shape formed by these four points crosses the optical axis 0 vertically.
  • the distance L can be calculated by calculating the distance m between the images when the images are arranged.
  • the inclination y of the optical axis 0 in the horizontal direction is inside the four point light source images.
  • the horizontal interval of the optical axis 0 is internally divided into a: b
  • the following expression can be obtained. Therefore, the inclination y of the optical axis 0 in the horizontal direction can be obtained by using the equation (4).
  • any one of the rectangular regions formed by these four points If the vertical line segments m 1 and m 2 are detected based on the point image and the arithmetic processing of the formula (4) is executed based on these vertical line segments ml and m 2, the horizontal direction can be obtained. Ru can be obtained inclination y of the optical axis.
  • the camera position 'optical axis detection circuit 7 is, as shown in FIG. 13, an image V]' by a point light source extracted from the video signal V 1.
  • an image V]' by a point light source extracted from the video signal V 1.
  • the camera position / optical axis detection circuit 7 detects the identification stored in the internal memory.
  • the point light source image is determined based on the code, and even if the point light source is partially shielded by, for example, a person standing in front of the background plate 3, it is adjacent in the horizontal and vertical directions. All four point light source images are reliably detected.
  • a point light source image to be processed is separately extracted.
  • the camera position / optical axis detection circuit 7 determines whether any of the detected four point light source images can be interpolated by using, for example, the preceding and following frames in the frames assigned to turn off. Or, if necessary, selecting the other four point light source images, thereby extracting four adjacent point light source images on the background plate 3 for each frame.
  • the camera position 'optical axis detection circuit 7 obtains the zoom obtained from the video camera 2.
  • Information With reference to ZM, the above-mentioned interpolation based on the reference position Q and the interpolation calculation processing by the outside are executed, and the distance between the point at which the optical axis The distance and the inclination x and y in the up, down, left, and right directions are detected.
  • the coordinate values of these point light sources with respect to the reference point light source P 0 are detected from the identification code of the point light source used for the detection. Calculate the video camera 2 coordinate values ( ⁇ , ⁇ , ⁇ ⁇ ⁇ ) from the value, the detected distance, the slope, and y .
  • the force camera position / optical axis detection circuit 7 repeats this coordinate value detection processing, distance, and inclination detection processing for each field of the video signal V 1, and the detection data S obtained as a result of these processings is obtained.
  • 1 (X, ⁇ , ⁇ , 0 ⁇ , L) is output to the three-dimensional conversion address operation circuit 10.
  • the image synthesizing apparatus 1 first drives the ⁇ -ejector apparatus 4 so that the image synthesizing apparatus 1 reacts with the background plate 3 installed on the background of the person as the subject.
  • Project point light sources P11 to Pnn At this time, the point light sources P11 to Pnn are blinked in a fixed pattern so that the point light sources P11 to Pnn can be identified later.
  • a person who is a subject is imaged by the video camera 2, and the resulting video signal V 1 is input to the image processing unit 5.
  • the zoom information ZM used at the time of imaging by the video force camera 2 is input to the image processing unit 5.
  • the video signal V 1 is input to the chroma circuit 8.
  • the chroma keying circuit 8 extracts a color signal corresponding to the hue of the background plate 3 from the video signal V 1 and compares the color signal with a predetermined threshold to thereby extract a background portion in the video signal V 1. And a key signal K2 indicating the subject portion in the video signal V1.
  • the camera position / optical axis detection circuit ⁇ ⁇ first receives the key signal K 1 and the video signal V 1, and generates a video signal including only a background portion from the video signal V 1 based on the key signal K 1. . Then, the camera position / optical axis detection circuit ⁇ reads the identification code including the blinking information of the point light source stored in the internal memory, and reads the identification code and the reference pulse signal. Based on the SP, the positions of the point light sources P11 to Pnn are detected from a video signal consisting of only the background portion.
  • the camera position and the optical axis detection circuit 7 move the reference point Q in the display screen corresponding to the optical axis 0 of the bidet talent camera 2 from the detected point light sources P11 to Pnn.
  • the four point light sources that are closest to and that are adjacent on the background plate 3 in the horizontal and vertical directions are extracted.
  • the camera position / optical axis detection circuit 7 calculates the above-mentioned equations (3) and (4) based on the extracted coordinate values of the four point light sources and the zoom information ZM.
  • the distance to the point where the optical axis 0 of the video force camera 2 intersects the background plate 3, the inclination y of the horizontal optical axis ⁇ , and the inclination of the vertical optical axis 0 are calculated.
  • the camera position / optical axis detection circuit 7 determines the point light source image based on the identification code, so that, for example, a person standing in front of the background plate 3
  • the four point light source images required for calculating the distance L and the like can be reliably detected.
  • the distance L can be easily calculated by interpolation and extrapolation calculation processing based on the reference position Q with reference to the zoom information ZM obtained from the video camera 2. And the slopes ⁇ and ⁇ can be calculated.
  • the camera position and the optical axis detection circuit 7 are based on the position of the point light source image used for detecting the distance, etc.
  • the position coordinates (X, Y, Z) of the video light camera 2 with respect to the point light source P0, that is, the origin in the three-dimensional coordinate system are calculated.
  • the three-dimensional conversion address operation circuit 10 calculates these parameters ( ⁇ , ⁇ , ⁇ , ⁇ , L) calculated by the camera position / optical axis detection circuit 7 and the system Readout for 3D conversion to generate an image as if a background image (V 2) was seen from the position of the video camera 2 based on the zoom information ⁇ ⁇ supplied from the camera 6. Generates address S2.
  • the frame memory 11 reads out the stored background source video signal V 2 based on the read address S 2, thereby obtaining the background image from the position of the video talent 2.
  • a background source video signal V 3 as if viewed from above is generated.
  • the background source video signal V3 and the video signal V1 based on the half-signal ⁇ 2, for example, as shown in FIG. Instead of geo, it can generate an image as if it were in a virtual space of computer graphics or another place.
  • the background source video signal V3 to be synthesized with the background is three-dimensionally converted as viewed from the position of the video camera 2, a synthesized image without a sense of incongruity is obtained. be able to.
  • the image synthesizing apparatus 1 sequentially generates read addresses S based on the detected position of the video camera 2, and generates a background source video signal based on the sequentially generated read addresses S 2. Since V2 is image-converted, even if the position of video camera 2 moves, the position of video camera 2 is changed according to the movement of video camera 2. Since the background image also changes, a more realistic composite image without discomfort can be obtained.
  • the zoom information ZM of the video camera 2 is also used for calculating the readout address S2, even when the person to be the subject is zoomed, the person is enlarged. In conjunction with the reduction, the background image can also be enlarged and reduced without discomfort.
  • the position information of the video camera 2 is detected based on the point light source image projected on the background plate 3 in a matrix form, and the viewpoint is set based on the position information.
  • the background image to be combined with the background can be changed according to the movement of the video camera 2 or the like.
  • the parameters of the image conversion that is, the read address of the frame memory
  • the position of the reference point light source is detected by detecting where the video camera 2 has moved by moving the video camera 2. In this case, the parameters of the image conversion are determined.
  • reference numeral 20 denotes the image synthesizing apparatus according to the second embodiment as a whole.
  • This image synthesizing device 20 is also basically composed of a video camera 2, a projector device 4 and an image processing unit 5, and
  • the point greatly different from the image synthesizing apparatus 1 of the first embodiment is that a point light source coordinate detecting circuit 21, a three-dimensional conversion address calculating circuit 22 and a screen address generating circuit 23 are newly provided. That is.
  • the point light source coordinate detection circuit 21 in the image synthesizing device 20 determines the position of four point light sources, which are the reference among the plurality of point light sources P1l to Pnn projected on the background plate 2, by video. This is a circuit that detects from the signal V 1.
  • This image synthesizing device 20 As shown in Fig. 15, four point light sources P43, P44, P53 and P54 surrounding the center BO of the background plate 3 are used as reference point light sources, and the point light source coordinate detection circuit 2 In step 1, the position coordinates of these four point light sources P43, P44, P53 and P54 are detected from the video signal V1.
  • the background light source coordinate detection circuit 21 takes an image of the background plate 3 from the front, as shown in FIG. 16, the four reference points P 4 3 seen in the center of the angle of view D, as shown in FIG. , P44, P53 and P54 are detected on the monitor screen by the movement of the video camera 2. For example, if the video signal V 1 obtained by the imaging of the video camera 2 is in a state as shown in FIG. 17, the point light source coordinate detection circuit 21 calculates the four reference points P 43 and P 44 , P53 and P54 are detected on the monitor screen.
  • each point light source becomes a matrix at a predetermined pitch. Since the original positions of the reference point light sources P43, P44, P53, and P54 are known in advance because they are located at Light source P 43, P
  • This transformation matrix is the transformation matrix required to convert the background image into a video viewed from the viewpoint of the video camera 2.
  • the point light source coordinate detection circuit 21 generates a video signal consisting of only the background portion by extracting an area where the signal level of the key signal K 1 is “1” from the video signal V 1. I do. Then, the point light source coordinate detection circuit 21 reads out the identification code stored in the internal memory and, based on the identification code and the reference pulse signal SP, includes only the background portion thereof.
  • the point light source coordinate detection circuit 21 The position coordinates of the other point light sources present in the video signal are detected, and the reference point light sources P43, P44, P53, and P54 are subjected to interpolation based on the detected position coordinates. Detect position coordinates.
  • the point light source coordinate detection circuit 21 uses the position coordinates of the reference point light sources P 43, P 44, P 53 and P 54 detected in this way as three-dimensional detection data S 10. Output to conversion address operation circuit 22.
  • the three-dimensional conversion address arithmetic circuit 22 includes reference point light sources P 43, P 44, P 53, and? Formed on the background plate 3 in a matrix at a predetermined pitch.
  • the position coordinates of the reference point light sources P 43, P 44, and P 53 are based on the original position coordinates and the detection data S 10 supplied from the point light source coordinate detection circuit 21.
  • reference point light sources P43, P44, P55 based on the position coordinates of P54 and the zoom information ZM supplied from the system controller 6.
  • 3 and P54 calculate the transformation matrices needed to move the video camera 2 to such a location on the monitor screen.
  • This conversion matrix is exactly the same as the conversion matrix for converting the background image to be synthesized with the background of the video signal V 1 into an image viewed from the viewpoint of the video camera 2.
  • the three-dimensional conversion address calculation circuit 22 calculates the inverse matrix of this conversion matrix, and calculates the inverse matrix of the inverse matrix in the raster scan order supplied from the screen address generation circuit 23. By multiplying the screen address (X s , Y s), the read address ( ⁇ ⁇ , ⁇ ⁇ ) of the frame memory 11 is calculated, and this is calculated. Output to memory 1 1.
  • the reason why the inverse matrix of the conversion matrix is obtained is that this image synthesizing device 20 performs three-dimensional image conversion by multiplying the background source video signal V 2 by the conversion matrix. Instead, the background source video signal V2 is written in the memory, and when the background source video signal V2 is read, the three-dimensional image conversion power ⁇ line> as indicated by the conversion matrix is used. And the power to make them be heard.
  • the frame memory 11 has a video recorder 12 Based background source over scan video signal V 2 supplied write in order inside the Note re region, the three-dimensional conversion add-less operation circuit 2 2 read A de-less being Kyoawase from ( ⁇ ⁇ , ⁇ ⁇ ) Then, by reading the background source video signal V 2, a background source video V 3 as if a background image was viewed from the position of the video force camera 2 was generated as shown in FIG. To the circuit 9.
  • the mixer circuit 9 based on the key signal ⁇ ⁇ ⁇ 2 indicating the area of the subject, the video signal V 1 captured by the video camera 2 and the three-dimensional image are obtained.
  • the background image is transformed according to the position of the video camera 2 as shown in Fig. 5
  • the video signal V 4 can be generated.
  • the background source video signal V 2 In order to be able to insert the background source video signal V 2 into the background plate 3 in the video signal V 1, the background source video signal V 2 must be mapped to the three-dimensional space where the background plate 3 exists. Then, it must be projected on the monitor screen from the viewpoint of the operator. Because the background plate 3 exists in the three-dimensional space, the background plate 3 in the video signal V 1 is monitored based on the background plate 3 existing in the three-dimensional space with the viewpoint of the operator as a base point. This is because they are projected on the clean surface.
  • the three-dimensional conversion address arithmetic circuit 22 calculates a conversion matrix including a mapping to a three-dimensional space and a projection from the three-dimensional space to a two-dimensional plane, calculates an inverse matrix of the conversion matrix, and reads the conversion matrix.
  • the dress must be generated. This will be specifically described below.
  • the three-dimensional coordinate system used in the second embodiment has the origin at the center of the monitor screen and the monitor screen.
  • the horizontal direction of the screen is the X-axis
  • the vertical direction of the monitor screen is the y-axis
  • the monitor screen is the It is defined by the xyz rectangular coordinate system with the vertical direction as the z-axis.
  • the right direction of the monitor screen is the positive direction
  • the left direction of the monitor screen is the negative direction
  • the upward direction of the monitor screen is Positive direction
  • the downward direction of the monitor screen is the negative direction
  • the z-axis is the positive direction of the depth direction of the monitor screen
  • the front side of the screen that is, the operator's viewpoint Side
  • a virtual coordinate value between 14 and +4 is set, and in the y-axis direction in the screen area, a virtual coordinate value of 1-3 is set. A virtual coordinate value between +3 is set. Of course, virtual coordinate values are set outside the screen area.
  • the operator's viewpoint position P Z is virtually set at the z coordinate on the z axis at “1 16”.
  • 3D image conversion processing that is, mapping to 3D space and projection from 3D space to monitor screen plane
  • background source video signal V2 A method of generating the background source video signal V 3 inserted at the position of the background plate 3 in the video signal V 1 will be described.
  • the background source video signal V 2 is not subjected to any three-dimensional processing, and is stored in the frame memory 11 as it is. Since the background source video signal V 2 is a two-dimensional video signal, as shown in FIG. 20 (A), the video signal existing at the position M on the monitor screen in the three-dimensional space It is.
  • This background source video signal V 2 must be coordinate-transformed to the background plate 3 existing in the three-dimensional space as described above.
  • Background plate 3 here, as shown in FIG. 2 0 (A), a positive direction of the z-axis, present in the position M 2 which is inclined about 45 ° to scan click rie down surface Shall be
  • the background plate 3 present in the Yo I Do position M 2 Then, subjected parallel movement in the positive direction of the z-axis relative to the background source Subideo signal V 2, the rotation processing of approximately 45 ° around the y-axis There must be.
  • Such a coordinate conversion process is a three-dimensional conversion matrix T. This can be done by using. That is, the background source A three-dimensional transformation matrix T for each pixel of the video signal V 2. , A video signal V 2 ′ existing in the three-dimensional space can be generated.
  • This three-dimensional transformation matrix ⁇ is generally
  • Conversion parameter r used for! To r 33 are elements for rotating the background source video signal V 2 around the X axis, the y axis, and the z axis, and the background source video signal V 2 in the X axis direction, the y axis direction, and the z axis. Includes elements for enlarging and reducing the scale in each direction, and elements for skewing the background source video signal V 2 in the X-axis direction, y-axis direction, and z-axis direction, respectively. It is a parameter.
  • the conversion parameters 1 x , 1 y , and 1 z are parameters including elements for translating the background source video signal V 2 in the X-axis, y-axis, and z-axis directions, respectively.
  • the conversion parameter s is a parameter determined by the zoom information ZM of the video camera 2, and the entire background source video signal V2 is converted into one axis in each of the three-dimensional axes. This is a parameter that includes an element for scaling.
  • this transformation matrix Represents a coordinate system such as a rotation transformation and a coordinate system for a translation transformation and a scaling transformation in the same one coordinate system, so that a four-by-four column system is obtained.
  • a coordinate system is called a homogeneous coordinate system (Homogeneous Coordinate).
  • the background source video signal V 2 ′ which has been coordinate-transformed into the three-dimensional space using the three-dimensional transformation matrix, is inserted into the video signal V 1 at the position of the background plate 3, Projection processing must be performed on the monitor screen based on the operator's viewpoint. Must. That is, in other words, as shown in FIG. 20 (A), when the background source video signal V 2 ′ existing at the position M 2 in the three-dimensional space is viewed from the virtual viewpoint PZ on the z-axis, X y The background source video signal V 3 to be seen on the plane must be obtained.
  • This projection processing is a perspective transformation matrix P. This can be done by using. That is, the perspective transformation matrix P for each pixel of the background source video signal V 2 ′. By multiplying by, the background source video signal V 3, which is a perspective view of the background source video signal V 2 ′ existing in the three-dimensional space on the xy plane, can be obtained.
  • This perspective transformation matrix P. 'S parameter P z when seen through the background source Subideo signal V 2 'on X y plane is a perspective Bae Kuti blanking value for applying the perspective. Normally, the perspective value Pz is set to "1/16" as a reference value. This means that the z coordinate value of the virtual viewpoint PZ is “1-16”. It should be noted that the perspective value Pz can be changed to a desired value by an operator setting.
  • the background source video signal V 2 is subjected to such coordinate transformation into the three-dimensional space and the projection processing from the three-dimensional space to the xy plane to obtain the background source video.
  • the video signal V 2 can be inserted into the video signal V 1 at the position of the background plate 3.
  • this conversion process uses a three-dimensional conversion matrix T.
  • Background source video signal V2 by A spatial image conversion step until a three-dimensional background source video signal V 2 ′ is obtained from, and a perspective change matrix P.
  • the perspective transformation matrix ⁇ ⁇ the perspective transformation matrix ⁇ ⁇
  • the image synthesizing apparatus 20 converts the background source video signal V 2 into a frame Write to memory 11 in order, and transform matrix T.
  • the video source V1 can be inserted into the background plate 3 of the video signal V1.
  • Such a background source video signal V3 is generated.
  • the background source video signal V2 written to the frame memory 11 and the background source video signal V3 read from the frame memory 11 are both two-dimensional video data.
  • the frame memory 11 is a memory for storing two-dimensional data. Therefore, in the operation of the read address used for the read operation from the frame memory 11, the parameter for calculating the data in the z-axis direction in the three-dimensional space is substantially a parameter. Will not be used. Therefore, of the transformation matrix T shown in equation (7), the parameters in the third column and third row for calculating the data in the z-axis direction are unnecessary.
  • Mazufu Remume mode Li 1 1 a two-dimensional ⁇ de-less on (XM, Y M) and the position base click preparative Le a [chi Micromax Upsilon Micromax, the add-less on Monitasu click rie down (X s, Y s) and And the position vector is [XsYs]. Then when representing the two-dimensional position vector bets le on the frame memo Li 1 1 [X M Upsilon Micromax] in the same coordinate system, base click preparative Le [x m y m H.
  • the monitor is expressed scan click position downy click DOO on rie down X S and Y s] in the same coordinate system, it is expressed as base click preparative Le [x s y s 1] Wear.
  • the parameter "H.” in this homogeneous coordinate system is a parameter that indicates the size of the vector.
  • the background source video signal is obtained.
  • the monitor it is necessary to find a point on the frame memory 11 corresponding to a point on the task line. That is, the following equation obtained by modifying equation (9)
  • [X m H 0] CX 1] ⁇ T as shown in (10), the position base click preparative Le on Monitasu click rie down 1 1 [x s ys 1] based on criteria, the transformation matrix T 33 inverse matrix T n-frame Note position downy click preparative Le on Li 1 1 using a 1 [x m y m H. of ] Must be calculated.
  • a child that is the same concept may convert the position vector preparative le by homogeneous coordinate system on the monitor scan click rie emissions [X sys 1] to click preparative Le base position of the two-dimensional [X s Y s]
  • the parameters “X s” and “ys” representing the direction of the position vector in the homogeneous coordinate system are replaced with the parameter “1” representing the size of the position vector in the homogeneous coordinate system. It is sufficient to normalize with. Therefore, the parameters “X s” and “Y s” of the two-dimensional position vector on the monitor screen are expressed by the following equations.
  • Equation (15) the parameters “X M ” and 2M of the two-dimensional position vector on the frame memory 11 are obtained.
  • “Y M ” is biixb 2 iy + b
  • W 1 — a 22 a 3 1 a 1 3 + a 2 1 a 32 a 1 3 + a 1 2 a 3 1 a 23
  • Equations 9 to 28 are:
  • W r is P z + r
  • the read addresses ( ⁇ ⁇ , ⁇ ⁇ ) of the frame memory 11 can be calculated using equations (42) to (44). You can ask.
  • a calculation method of each parameter Ichita the transformation matrix T 33 As described above, the relationship between the position vector on the frame memory 11 and the position vector on the monitor screen is as shown in equation (9). . Therefore Ru can and this to obtain each para main Ichita transformation matrix T 3 3 by substituting the actual value of the position base click preparative Le to this equation (9).
  • the position vectors on the monitor screen include the position vectors of the four point light sources ⁇ 43, ⁇ 44, ⁇ 53, and ⁇ 54 detected by the point light source coordinate detection circuit 21. Use tolls.
  • the entire background plate 3 is considered as the entire memory area of the frame memory, and the point light sources at that time ⁇ 43, ⁇ 44, ⁇ Use the position vector on the frame memory 11 corresponding to the position of 53 and ⁇ 54.
  • the position vectors of the point light sources ⁇ 43, ⁇ 44, ⁇ 53 and ⁇ 54 detected by the point light source coordinate detection circuit 21 are sequentially referred to as [X, Y,], [X 2 Y 2 ], [X 3 Y 3], and CX 4 Y 4], the position on the frame MEMO Li 1 1 corresponding to the position of the original point source P 4 3, P 4 4, P 5 3 and P 5 4 Select the vectors in sequence [X'1Y '!
  • Equation (47) becomes: cx KYKK i)
  • Equation (53) By substituting equation (53) into equations (51) and (52), the parameters “X i” and The formula for “Y i” is: a 1 1 X 'i + ⁇ 2 ⁇ Y' i ten a
  • K. A 1 3 'X' i + a 23 'Y', + (62) X ⁇ 'X' 2 + a 2 1 'Y "+ a (63)
  • the three-dimensional conversion address operation circuit 22 operates in the same manner as described above. Generate read address to supply to frame memory 11 1.
  • the three-dimensional conversion address calculation circuit 22 generates the reference point light sources P 43, P 44, P 53 and P 54 supplied as detection data S 10 from the point light source coordinate detection circuit 21. And the reference point light sources P43, P44, P53, and P54 when the entire background plate 3 corresponds to the memory area of the frame memory.
  • a simultaneous linear equation for each parameter of the above-mentioned transformation matrix T 33 is set, and the simultaneous linear equation is solved. Ri by the, determine the transformation matrix T 3 3.
  • the three-dimensional conversion add-less operation circuit 2 2 The following, the determined transformation matrix T 3 3 of using each parameter calculated the inverse matrix T 3 1, the para menu over the inverse matrix T 3 1 data and scan click subjected from rie down add-less generator 2 3, lined by the scan click rie N'a de Les (X s, Y s) and a read a supplies based on the frame Note Li 1 1
  • the dress ( ⁇ ,, ⁇ ⁇ ) is obtained and supplied to the frame memory 11.
  • step S ⁇ 2 entered from step S ⁇ 1 the system controller 6 controls the drive of the ⁇ -ejector device 4 to blink at a 5-frame cycle.
  • a plurality of point light sources ⁇ 11 to ⁇ ⁇ ⁇ are projected onto the background plate 3 so that the turn is repeated, and a reference pulse signal S ⁇ ⁇ indicating the first frame of the 5-frame period is detected as the point light source coordinates.
  • the point light source coordinate detection circuit 21 sets the value of the internal counter ⁇ to “1” in response to the reception of the reference pulse signal S ⁇ , and
  • the video signal V 1 corresponding to the first frame of the five-frame period The coordinates of the point light source are detected from the background video.
  • the coordinates of the point light source are, as shown in FIG. 23, coordinates on the monitor screen plane with the center of the monitor screen, that is, the optical axis as the origin.
  • step SP5 the point light source coordinate detection circuit 21 determines whether the value of the previously set power counter n has reached "5" or not by determining whether the value has reached "5" at the end of the five-frame cycle. Determine whether the frame has been reached. In this case, since the value of the counter n is "1", the process proceeds to step SP6, where the point light source coordinate detection circuit 21 adds "1" to the value of the counter n, and again. Return to step SP 4.
  • step SP4 the coordinates of the point light source are similarly detected from the background image of the video signal V1 corresponding to the second frame of the 5-frame period.
  • the coordinates of the point light source are detected from the background image of the video signal V1 corresponding to each frame of the 5-frame cycle by repeating the processing of steps SP5 to SP6.
  • the value of the counter n is “5”, and the point light source coordinate detection circuit 21 determines Proceed from step SP5 to step SP7.
  • the point light source coordinate detection circuit 21 includes the reference point light sources P43, P44, P53 and P53 among the point light sources whose coordinates have been detected from the 5-frame video signal V1. It is determined whether all the point light sources corresponding to 54 exist. As a result, if all the point light sources corresponding to the reference point light sources P43, P44, P53 and P54 exist, the reference point light sources P43, P44, P53 and The coordinates of P54 are output to the three-dimensional conversion address calculation circuit 22 as detection data S10.
  • step SP 8 the point light source coordinate detecting circuit 21 turns off the light.
  • the coordinates of each point light source are detected based on the coordinates of the point light source of each detected frame, and in the next step SP9, four reference point light sources P43 and P43 based on the detected coordinates of each point light source are detected.
  • the coordinates of P44, P53, and P54 are obtained by interpolation processing, and output to the three-dimensional conversion address calculation circuit 12 as detection data.
  • reference point light source P 43, P44, P53, and P54 may not be present in the five frames if the reference point light source is hidden by a person standing in front of It is possible that the reference point light source deviates from the angle of view of La 2.
  • step SP10 the three-dimensional conversion address calculation circuit 22 receiving the coordinates of the reference point light sources P43, P44, P53, and P54 from the point light source coordinate detection circuit 21 calculating a respective parameter menu chromatography data of the point light source P 4 3, P 4 4, P 5 3 and P 5 converts 4 coordinates on the basis of the matrix T 33.
  • step SP 1 3-dimensional conversion add-less operation circuit 2 2, based on the parameters of the calculated transformation matrix T 33, calculates a read add-less (XM, YM), the following
  • the read address (XM, YM) is supplied to the frame memory 11.
  • each parameter of a conversion matrix T for image-converting the background source video signal V 2 is calculated based on the detected coordinates of the four points, and each parameter of the obtained conversion matrix T 3 is calculated.
  • the read address ( ⁇ ⁇ , ⁇ ⁇ ) of the frame memory 11 is calculated based on this.
  • the image synthesizing device 20 first drives the projector device 4 so that the point light sources P11 to P11 are generated with respect to the background plate 3 installed on the background of the person as the subject. Project P nn. At this time, the point light sources P11 to Pnn are blinked in a constant pattern with a repetition period of 5 frames so that the point light sources P11 to Pnn can be identified later.
  • the video signal V1 is manually input to a chroma circuit 8.
  • the ⁇ -matrix circuit 8 extracts a color signal corresponding to the hue of the background plate 3 from the video signal V 1 and compares the color signal with a predetermined threshold to thereby obtain a background portion in the video signal V 1.
  • a key signal K1 indicating the minute is generated, and a key signal K2 indicating the subject portion in the video signal V1 is generated.
  • the point light source coordinate detection circuit 21 first receives the key signal K 1 and the video signal V 1 and generates a video signal consisting of only a background portion from the video signal V 1 based on the single signal K 1. Then, the point light source coordinate detecting circuit 21 reads out the identification code composed of the blinking information of the point light source stored in the internal memory, and reads four identification codes based on the identification code.
  • the reference point light sources P43, P44, P53 and P54 are detected from the video signal consisting only of the background part, and the reference point light sources P43, P44, P53 and P5 are detected. Detect the position coordinates on the monitor screen of step 4.
  • the reference point light source P 4 was included in the video signal consisting of only the background.
  • the point light source coordinate detection circuit 21 detects the position coordinates of other point light sources present in the video signal and detects the position coordinates. Based on the obtained position coordinates, the position coordinates of the reference point light sources P43, P44, P53, and P54 are detected by interpolation.
  • the three-dimensional conversion address calculation circuit 22 calculates the background source video signal V 2 three-dimensional transformation matrix T 3 is calculated for the image conversion, read a de Les supplied to frame Note Li 1 1 on the basis of their respective para main transformation matrix T 3 Isseki subjecting Te (chi Micromax , ⁇ ⁇ ).
  • the background source video signal V 2 stored in the memory area is read based on the read address ( ⁇ ⁇ , ⁇ ).
  • a background source video signal V 3 as if a background image was viewed from the position of the video camera 2 is generated. Therefore, by combining the background source video signal V 3 and the video signal V 1 based on the key signal K 2, as shown in FIG. 5, the position of the video camera 2 is changed according to the position of the video camera 2. It is possible to generate a synthesized video signal V 4 in which the background image is deformed and has no uncomfortable feeling.
  • the image synthesizing apparatus 20 of the second embodiment four of the plurality of point light sources P11 to Pnn are set in advance as reference point light sources, and the four The position coordinates of the reference point light source on the monitor screen are detected from the video signal V 1, and a read address for image conversion of the background image is generated based on the position coordinates of the four points.
  • the background image can be deformed according to the position of the video camera with a simpler configuration than in the first embodiment, and a composite image without a sense of incongruity can be easily formed. Can be generated in
  • a point light source is projected in a matrix onto the background plate 3, and the position coordinates of the four point light sources on the monitor screen are detected from the video signal V1.
  • a read address for image conversion is generated based on the detected position coordinates of the four points to deform the background source video signal V2, so that a simpler configuration can be achieved.
  • a background image that deforms according to the position of the video force camera 2 can be generated. In this way, it is possible to realize an image synthesizing device 20 that can naturally change the image of the background to be synthesized in response to the movement of the imaging means with a simpler configuration.
  • a light emitting diode may be provided in a matrix shape with respect to the background plate in advance, and the light emitting diode may be turned on and off in a predetermined pattern to achieve the same effect as described above. Can be obtained.
  • the present invention is not limited to this, and the same effect as in the above case can be obtained by forming a point light source on the background plate by scanning with one laser beam. It can be.
  • the same effect as in the above case can be obtained by providing an illuminating means for forming a light source serving as a reference for image synthesis processing on the background plate.
  • a case has been described in which the point light sources arranged in a matrix can be identified by blinking in a predetermined pattern, but the present invention is not limited to this.
  • the same effect as in the above case can be obtained even if the point light source can be identified by converting the light emission intensity with a predetermined pattern.
  • the first embodiment described above the case where the distance, the inclination, and the like are detected based on the interval between the point light source images has been described.
  • the present invention is not limited to this, and the light source image is formed in a rod shape.
  • a light source image is formed in a frame shape and the size of the frame shape is determined.
  • the point is to use a light source image formed on the background to be processed. It can be widely applied when detecting the position information of the imaging means.
  • the present invention is not limited to this.
  • the present invention can be widely applied to a case where these props are used as processing targets instead of a background plate to synthesize various images.
  • This can be used in a broadcast station or the like when a composite video is generated by inserting another video into a predetermined area of video data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Circuits (AREA)
  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)
  • Processing Or Creating Images (AREA)

Description

明 細 書 画像合成装置及び画像合成方法 技術分野
本発明は画像合成装置に関し、 例えば放送スタ ジオ等において、 ク ロマキ一の 手法を用いて、 ライ ブカメ ラの映像と、 コ ンピュータ グラ フィ ックスによる映像 とを リ アルタ イ ムで合成する場合に適用して好適なものである。 背景技術
従来、 放送スタ ジオ等においては、 ク ロマキ一の手法を用いて、 ライ ブカ メ ラ で撮影したライ ブ映像と、 コ ンピュータ によつて生成されたコ ン ピュータ グラ フ ィ ック スの映像とを合成し、 その結果得られる合成映像を放送するよう なこ とが 行われている。
例えばク ロ マキーの手法によ り人物がコ ンピュータ グラ フィ ック スで生成され た仮想空間内に存在するよう な画像を生成する場合には、 所定の色彩 (例えば青 色や緑色等、 人物の画像に含まれない色) を有する背景の前に人物を立たせて当 該人物を撮像する。 そ してその撮像信号から背景の色彩を基準にしてキ一信号を 生成し、 当該キ一信号に基づいて背景の代わりにコ ン ピュ一タ グラ フィ ック によ る映像を差し替える。 これによ りコ ンピュータ グライ フ ック スの映像と人物とを 合成して、 あたかもコ ンピュータ グラ フィ ック スで生成された仮想空間内に人物 が実在するかのよう な映像を生成することができ る。
と ころでかかる従来のク ロマキ一による画像合成装置においては、 カメ ラを移 動させた場合に、 合成された背景 (すなわち上述の例ではコ ン ピュータ グラ フィ ック による映像) がこのカ メ ラの移動に追従して変化しない欠点がある。 このよ う なカメ ラの移動に対応して、 合成される背景の映像も 自然に変化するよう な画 像合成を行う こ とができれば、 この種の画像合成によ り作成される映像をさ らに 一層現実的なものにすることができ ると思われる。 発明の開示
本発明は以上の点を考慮してなされたもので、 簡易な構成で、 合成される背景 の映像も撮像手段の動きに対応して自然に変化させることができ る画像合成装置 を提案しょう とするものである。
かかる課題を解決するため本発明においては、 撮像手段を介して得られるビデ ォデータ よ り、 所定色彩の処理対象領域を撮像してなる領域を検出し、 その領域 に他の映像を挿入して合成映像を生成する画像合成装置において、 処理対象領域 に、 当該処理対象領域と同一色彩による光源像を形成する照明手段と、 光源像を 基準にして、 処理対象領域に対する撮像手段の位置情報を検出する位置検出手段 と、 位置情報を基準にして、 撮像手段の位置の変化に対応して他の映像を変化さ せる映像生成手段とを設けるよう にする。
このよう にして光源像を基準にして処理対象領域に対する撮像手段の位置を検 出し、 その検出した撮像手段の位置の変化に対応して他の映像を変化させるよう にしたことによ り、 撮像手段が移動した場合でも、 その撮像手段の移動に応じて 挿入する映像を変化させることができ、 違和感のない合成映像を生成するこ とが でき る。 かく するにっき簡易な構成で、 合成される背景の映像も撮像手段の動き に対応して自然に変化させることができ る画像合成装置を容易に実現するこ とが でき る。
また本発明においては、 入力ビデオデータから所定色彩の処理対象領域を撮像 してなる領域を検出し、 領域に他の映像を挿入して合成映像を生成する画像合成 装置において、 入力ビデオデータ を生成する際に、 処理対象領域に当該処理対象 領域と同一色彩による複数の光源像を形成する照明手段と、 入力ビデオデータか ら処理対象領域を検出し、 当該処理対象領域に形成された複数の光源像のう ち基 準となる 4 つの光源像の位置を検出する位置検出手段と、 位置検出手段によって 検出された光源像の位置情報に基づいて、 処理対象領域に挿入する背景ソ ースビ デォデータ を 3次元的に画像変換する画像変換手段と、 画像変換手段によって画 像変換された背景ソ ー スビデオデータ を入力ビデォデータの処理対象領域に相当 する領域に合成する合成手段とを設けるよう にする。
このよう にして基準となる 4 つの光源像の位置情報を検出し、 その位置情報に 基づいて挿入する背景ソ ー スビデオデータを 3次元的に画像変換するよう にした こ とによ り、 4 つの光源像の位置を検出するだけで、 撮像手段が移動した場合に も、 それに応じて変化する背景ソ ー スビデオデータ を生成し得、 違和感のない合 成映像を生成するこ とができ る。 かく するにっき一段と簡易な構成で、 合成され る背景の映像も撮像手段の動き に対応して自然に変化させることができ る画像合 成装置を容易に実現するこ とができ る。 図面の簡単な説明
図 〖 は、 第 1 実施例による画像合成装置の構成を示すブ α ック図である。 図 2 は、 点光源の識別コ 一 ドの説明に供する図表である。
図 3 は、 キー信号 Κ 1 、 Κ 2 の説明に供する略線図である。
図 4 は、 背景ソ ー スビデオ信号の画像変換の説明に供するビデォイ メ ージ図で ある。
図 5 は、 画像合成装置によって生成される合成ビデオ信号の説明に供するビデ 才イ メ ージ図である。
図 6 は、 第 1 実施例によるビデオカ メ ラの位置情報 (距離、 傾き及び位置) の 検出方法の説明に供する略線図である。
図 7 は、 第 1 実施例によるビデオカ メ ラの位置情報 (距離、 傾き及び位置) の 検出方法の説明に供する略線図である。
図 8 は、 第 1 実施例によるビデオカ メ ラの位置情報 (距離、 傾き及び位置) の 検出方法の説明に供する略線図である。
図 9 は、 第 1 実施例によるビデオカ メ ラの位置情報 (距離、 傾き及び位置) の 検出方法の説明に供する略線図である。 図 1 0 は、 第 1 実施例によるビデオカメ ラの位置情報 (距離、 傾き及び位置) の検出方法の説明に供する略線図である。
図 1 1 は、 第 1 実施例によるビデオカ メ ラの位置情報 (距離、 傾き及び位置) の検出方法の説明に供する略線図である。
図 1 2 は、 第 1 実施例によるビデオカ メ ラの位置情報 (距離、 傾き及び位置) の検出方法の説明に供する略線図である。
図 1 3 は、 点光源の検出の説明に供する略線図である。
図 1 4 は、 第 2実施例による画像合成装置の構成を示すブロ ック図である。 図 1 5 は、 基準点光源の説明に供する略線図である。
図 1 6 は、 背景板を正面から撮像したときの説明に供する略線図である。 図 1 7 は、 基準点光源の検出の説明に供する略線図である。
図 1 8 は、 基準点光源が画角から外れた場合の説明に供する略線図である。 図 1 9 は、 フ レームメ モ リ の動作の説明に供する略線図である。
図 2 0 は、 3次元座標の説明に供する略線図である。
図 2 1 は、 フ レームメ モ リ とモニタ ス ク リ ー ンの対応関係の説明に供する略線 図である。
図 2 2 は、 第 2実施例による読出ア ド レスの算出方法を示すフ ローチャー ト で ある。
図 2 3 は、 検出した点光源の座標の説明に供する略線図である。 発明を実施するための最良の形態
以下図面について、 本発明の実施例を詳述する。
( 1 ) 第 1 実施例
( 1 一 1 ) 画像合成装置の全体構成
図 1 において、 1 は全体と して第 1 実施例による画像合成装置を示し、 大き く 分けて人物等の被写体を撮像するビデオカメ ラ 2 と、 被写体の背景となる背景板 3 に対して点光源を投影するプロ グジェク タ装置 4 と、 ビデオカメ ラ 2 によって 撮像されたビデオ信号 V 1 から合成画像を生成する画像処理部 5 とによって構成 される。
この画像合成装置 1 は、 背景板 3 の前に立つアナゥ ンサを当該背景板 3 と共に 撮像し、 その背景板 3 のと ころに例えばコ ンピュータ グラ フィ ッ ク スで生成した 仮想空間の映像や別の場所で撮影された風景映像を合成することによ り、 当該ァ ナゥ ンサが仮想空間ゃスタ ジ才以外の別の場所に実在するかのよう な合成画像を 生成するものである。
この画像合成装置 1 において使用される背景板 3 は、 当該背景板 3 の前に立つ アナゥ ンサ等の被写体が持っていない単一色の色彩 (例えば青色や緑色等) に染 められており、 これによ り被写体と背景とを色彩によ り識別し得るよう になされ ている。
プロ ジェク タ装置 4 は、 このよう な背景板 3 に対して水平及び垂直方向に所定 ピッチでマ ト リ クス状に形成された複数の点光源 P 1 i 〜 P n n を投影するため の装置である。 この場合、 点光源 P I l 〜 P n n の発光色と しては背景板 3 と同 一の色彩に設定されており、 例えば青色や緑色等に設定されている。 なお、 複数 の点光源 P 1 1 〜 P n nのう ち背景板 3 のほぼ中央に投影される点光源 P 0が基 準点光源に設定されている。
この画像合成装置 1 においては、 この基準点光源 P 0 の位置を 3次元空間の原 点に設定しており、 当該基準点光源 P 0 に向かって水平方向を X軸、 垂直方向を y軸、 奥行き方向を z 軸と して 3次元座標系を定義し、 この 3次元座標系によつ てビデオカメ ラ 2の位置を検出するよう になされている。 またこの画像合成装置 1 においては、 この検出したビデオカメ ラ 2 の位置に基づいて背景に合成される 映像を変形するよう になされており、 これによ り ビデオカメ ラ 2 を動かしたと き にそれに追従して背景映像も自然に変化するよう になされている。
ここでプロ グジェク タ装置 4 においては、 点光源 P I l 〜 P n n を投影する際 、 ビデオカメ ラ 2 のフ レ一ムタ イ ミ ングに同期して当該点光源 P 1 1 〜 P n n を 点滅させるよう になっている。 その際、 点灯を 「 1 」 、 消灯を 「 0」 で表現すれ ば、 図 2 に示すよう に、 各点光源 P 1 1〜 P n n を一斉に点灯又は消灯するので はな く 、 5 フ レームを周期と して各点光源毎に異なるよう に点滅させるよう にな されており、 これによ り点滅の仕方によって点光源 P 1 1〜 P n n を識別し得る よう になされている。 例えば図 2 に示すよう に、 5 フ レームで 「消灯一消灯—点 灯→消灯→点灯」 を行っていれば、 それは点光源 P 1 1 であることを識別するこ とができ る。
このよう にして点滅する点光源 P 1 1〜 P n n を投影するためプロ ジェク タ装 置 4 に対しては、 画像処理部 5 の システムコ ン ト D—ラ 6 よ り第 1 フ レームのタ ィ ミ ングで信号レベルが立ち上がる基準パルス信号 S Pが供給されるよう になさ ている。 これによ りフロ ジェク タ装置 4 は、 この基準パルス信号 S Pに基づいて 、 図 2 に示すよう に、 5 フ レームを周期と して点光源 P 1 1〜P n n を独立に点 滅させるよう になつている。 なお、 図 2 に示す点光源の点滅の仕方は、 識別のた め情報を表していることから、 以降の説明では、 この点滅の仕方を識別コー ドと 呼ぶ。
因みに、 後述する力メ ラ位置 · 光軸検出回路 7 は、 点光源の点滅の仕方で基準 点光源 P 0 を検出することから、 この識別コ一ドを予めメ モ リ等に蓄えていて把 握している。 またカ メ ラ位置 · 光軸検出回路 7 において基準点光源 P 0 を検出す る際には、 5 フ レーム周期の始ま りを知る必要があることから、 当該カメ ラ位置 - 光軸検出回路 7 に対してはシステムコ ン ト ロ ーラ 6 よ り基準パルス信号 S Pが 供給されるよう になっている。
ここでこの画像合成装置 1 においては、 ビデ才力メ ラ 2 によって撮像された人 物及び背景からなるビデオ信号 V 1 は画像処理部 5 のク Όマキ一回路 8及びミ キ サ回路 9 に出力される。 またビデオ力メ ラ 2 は、 被写体を撮像したときの倍率情 報をズ一ム情報 Z Mと して、 画像処理部 5のシステムコ ン ト ローラ 6 に出力する 画像処理部 5 のシステムコ ン ト n —ラ 6 は、 この画像合成装置 1 の動作を制御 する制御手段であり、 上述したよう に基準パルス信号 S Pをプ π ジェク タ装置 4 に送出すると共に、 当該基準パルス信号 S Pをズーム情報 Z Mと共にカメ ラ位置 - 光軸検出回路 7 に送出する。 なお、 シス テ ムコ ン ト ローラ 6 は、 ズーム情報 Z Mを後述する 3次元変換ア ド レス演算回路 1 0 にも出力する。
一方、 ビデオ信号 V 1 が供給されるク ロマキ一回路 8 は、 当該ビデオ信号 V 1 から背景板 3 の色相に対応する色信号を抽出し、 当該色信号を所定の閾値と比較 するこ とによ り、 ビデオ信号 V I 内の背景部分を示す牛一信号 K 1 を生成し、 当 該牛一信号 K 1 をカメ ラ位置 · 光軸検出回路 7 に出力する。 またク oマヰ一回路 8 は、 半一信号 K 1 を反転するこ とによ り ビデオ信号 V 1 内の人物部分を示すキ —信号 K 2 を生成し、 当該キー信号 K 2 を ミ キサ回路 9 に出力する。
こ こでビデオ信号 V 1 とキー信号 K 1 、 K 2のイ メ ージ図を図 3 に示す。 この 図 3 ( A ) に示すよう に、 ビデオカ メ ラ 2では被写体となる人物を背景板 3 と共 に撮像していることから、 ビデオ信号 V 1 には人物の画像部分 a と背景板 3 の画 像部分 bが存在する。 この場合、 背景板 3 は青又は緑色等の特殊な色に設定され ていることから、 当該背景板 3 の色相に対応する色信号をビデオ信号 V 1 から抽 出してそれを閾値と比較すれば、 図 3 ( B ) に示すよう に、 ビデオ信号 V I の背 景部分 bで信号レベルが例えば 「 1 」 となるようなキー信号 K 1 を容易に生成す ることができ る。 またこのキ一信号 K 1 を反転すれば、 図 3 ( C ) に示すよう に 、 人物部分 a で信号レベルが例えば 「 1 」 となるよう なキー信号 K 2 を容易に生 成するこ とができ る。
カ メ ラ位置 · 光軸検出回路 7 は、 ビデオ信号 V 1 からキー信号 K 1 の信号レべ ルが 「 1 」 となる領域を抽出することにより、 背景部分のみからなるビデオ信号 を生成する。 そしてカ メ ラ位置 · 光軸検出回路 7 は、 内部のメ モ リ に記憶してあ る識別コ 一 ドと基準パルス信号 S Pとを基に、 その背景部分のみからなるビデオ 信号から各点光源 P 1 1 〜 P n n の位置を検出する。 続いてカ メ ラ位置 · 光軸検 出回路 7 は、 検出した点光源 P I l 〜 P n nの中から画面の中央近傍に隣接する 4つの点光源を抽出し、 この 4つの点光源の位置及びズーム情報 Z Mに基づいて 、 ビデオ力メ ラ 2の光軸 0の背景板 3 に対する上下及び左右方向の傾きすなわち 3次元座標系の X軸及び Y軸回りの角度 X 、 Θ と、 ビデオカ メ ラ 2から背景 板 3 までの距離 L と、 基準点光源 P 0 に対するビデオカメ ラ 2 の位置すなわち基 準点光源 P 0 を原点と した 3次元座標系における位置座標 (X , Υ , Z ) とを算 出し、 これら算出されたパラメ ータ情報を検出データ S 1 と して 3次元変換ァ ド レス演算回路 1 0 に出力する。
3次元変換ア ド レス演算回路 1 0 は、 この検出データ S 1 及びシス テ ム コ ン ト ローラ 6から供給されるズーム情報 Z Mに基づいて、 合成する背景画像をビデオ カ メ ラ 2 の位置に応じて 3次元的に変形するための読出ァ ド レスを発生し、 当該 読出ア ド レス S 2 をフ レーム メ モ リ 1 1 に出力する。 すなわち 3次元変換ア ドレ ス演算回路 1 0 は、 ビデオカ メ ラ 2 の位置から背景画像を見たよう な映像を生成 するため、 そのよう な 3次元画像変換を実現するのに必要な読出ァ ド レスを発生 し、 これをフ レームメ モ リ 1 1 に出力する。
ビデオテープレコ ーダ ( V T R ) 】 2 には、 背景画像と して合成する映像 (例 えばコ ンピュータ グラ フ ィ ッ ク ス で生成した映像や別の場所で撮影した風景映像 ) が記録されたビデオテープが装塡されており、 ビデオテープレコ ーダ 1 2 はそ のビデオテープを再生することによ り合成用に使用される背景画像のビデオ信号 (以下、 これを背景ソ ース ビデオ信号と呼ぶ) V 2 を出力する。 この背景ソ ース ビデオ信号 V 2 は、 上述したフ レーム メ モ リ 1 1 に供給され、 当該フ レーム メ モ リ 1 1 内の記憶領域に順に書き込まれる。
フ レーム メ モ リ 1 1 は、 3次元変換ア ド レス演算回路 1 0から供給される読出 ア ド レス S 2 に基づいて、 記憶領域に書き込まれている背景ソ ースビデオ信号 V 2 を順に読み出すことによ り、 ビデオ力メ ラ 2 の位置に応じて 3次元的に変形さ れた背景ソ ースビデオ信号 V 3 を生成し、 これを ミ キサ回路 9 に出力する。 例え ば図 4 ( A ) に示すよう に背景ソ ース ビデオ信号 V 2が美術館の壁に付けられて いる絵画を撮像したビデオ信号であり、 かつビデ才力メ ラ 2の位置が背景板 3 に 対して左斜め前方にある場合には、 読出ア ド レス S 2 に基づいた読出し処理によ り、 フ レーム メ モ リ 1 1 は、 図 4 ( B ) に示すよう に、 絵画を左斜め前方から撮 影したよう なビデオ信号 V 3 に変形する。
ミ キサ回路 9 は、 キー信号 K 2 の信号レベルが 「 1 」 のとき ビデオ信号 V 1 を 選択し、 キー信号 K 2 の信号レベルが 「 0 」 のとき背景ソ ースビデオ信号 V 3 を 選択することによ り ビデオ信号 V 1 と背景ソ ース ビデオ信号 V 3 とを合成する。 これによ り図 5 に示すよう に、 あたかもスタ ジォにいるアナゥ ンサが美術館の絵 画の前に居て、 それを左前方から撮影したよう なビデオ信号 V 4 を生成すること ができ る。
なお、 ミ キサ回路 9 の合成処理を数式によって表現すれば、 次式、
V 4 = K 2 - V 1 + ( 1 - K 2 ) V 3 ( 1 ) に示すよう に表される。
( 1 一 2 ) カメ ラ位置及び光軸の検出アルゴリ ズ厶
続いてこの項では、 カメ ラ位置及び光軸の検出アルゴ リ ズムについて説明する 。 上述したよう に背景板 3 に対してマ ト リ ク ス状に配置された点光源を撮像する 際、 背景板 3 の面に対して垂直方向から撮像すると、 図 6 に示すよう に、 隣接す る点光源 P 1 〜 P 4 は矩形形状に撮像される。 これによ り図 7 に示すよう に、 背 景板 3からビデオ力メ ラ 2 の撮像面までの光学的光路長を S とおく と、 背景板 3 における点光源 P 1 及び P 2 の間隔 Mと、 撮像面における点光源 P 1 及び P の 像間の間隔 mにおいては、 次式の関係式を得ることができ る。 m
M S 一 f なお、 ( 2 ) 式における f は、 ビデォカメ ラ 2 におけるズーム レ ンズ 1 3 の焦 点距離である。
と ころで背景板 3 からビデオカ メ ラ 2 の撮像面までの光学的光路長 S は、 ほぼ 背景板 3からビデオカメ ラ 2 までの距離 L (ビデオカメ ラ 2 の光軸 0が背景板 3 と交わる点までの距離) に等しい。 従って ( 1 ) 式を変形する こ とによ り、 背景 板 3からビデオカメ ラ 2 までの距離 Lに関して、 次式、
M
( 1 十
m に示す関係式を得ることができ る。 かく してビデオ信号 V 1 から抽出した 4 つの 点光源間の距離 m、 ズーム レ ンズ 1 3 のズーム情報 Z Mから得た焦点距離 f 及び 所定ピッチに配置されている点光源間の距離 Mに基づいて ( 3 ) 式の演算を行う ことによ り、 背景板 3からビデオ力メ ラ 2 までの距離 Lを求めることができる。 これに対して図 8 に示すよう に、 背景板 3 に対してビデオ力メ ラ 2が傾いた場 合、 図 9 に示すよう に、 ビデオ力メ ラ 2 の映像においては、 点光源 P 1 〜 P 4 の 像が矩形形状から変形した状態に観察される。 この場合には、 まず矩形形状を形 成する 4点の点光源像を基に、 垂直方向に連続する点光源 P 1 及び P 3 の像間の 距離 m 1 と、 点光源 P 2及び P 4間の像間の距離 m 2 とを求める。 次にこれらの 値 m 1 、 m 2 とを基にして、 ビデオカ メ ラ 2の光軸 0を垂直に横切るよう に点光 源像が配置された場合の像間の距離 mを算出し、 この距離 mを ( 3 ) 式に代入し て演算を行う。 これによ り背景板 3 に対してビデオ力メ ラ 2が傾いた場合にも、
3 背景板 3 から ビデオカ メ ラ 2 までの距離 Lを算出する こ とができ る。
なお距離 mは、 距離算出の基準となる 4点の点光源像の座標値を基準にして、 光軸 0が 4点の内側に存在する場合には、 隣接する点光源像を結ぶ直線を内挿す る補間演算処理によ り、 光軸 0が 4点の外側に存在する場合には、 隣接する点光 源像を結ぶ直線を外挿する補間演算処理によ り、 算出することができ る。 また水 平方向及び垂直方向のいずれの方向にも傾いている場合には、 図 1 0 に示すよう に、 これら 4点が形成する矩形形状について、 光軸 0を垂直に横切るよう に点光 源像が配置された場合の像間の間隔 mを計算するこ と によ り、 距離 Lを算出する ことができ る。
これに対して光軸 0の水平方向に関する傾き y は、 4点の点光源像の内側に おいて、 光軸 0が水平方向の間隔を a : b に内分すると して、 次式によ り表す: とができ る。 従ってこの ( 4 ) 式を使用して水平方向に関する光軸 0の傾き y を求めることができ る。
( a + b )
= arccos {
m2 また光軸 0の上下方向に関する傾き x については、 垂直方向に隣接する点光 源像間の間隔に代えて、 水平方向に隣接する点光源間の間隔を ( 4 ) 式に代入す れぱ、 当該傾き を求めることができ る。
さ らにまた水平方向及び垂直方向のいずれの方向にも光軸 0が傾いている場合 には、 図 1 1 に示すよう に、 これら 4点の形成する矩形形状の領域について、 い ずれかの点像を基準にして垂直方向の線分 m 1 及び m 2 を検出し、 これら垂直方 向の線分 m l 及び m 2 を基にして ( 4 ) 式の演算処理を実行すれば、 水平方向へ の光軸の傾き y を求めることができ る。
またこれとは逆に、 これら 4点の形成する矩形形状の領域について、 図 1 2 に 示すよう に、 いずれかの点像を基準にして水平方向の線分 τη 1 及び m 2 を検出し 、 これら水平方向の線分 m l 及び m 2 を基にして ( 4 ) 式の演算処理を実行すれ ば、 垂直方向への光軸の傾き を求めるこ とができ る。 さ らに光軸 0が 4点の 外側に存在する場合は、 これら 4点の形成する矩形形状の領域について、 同様に して ( 4 ) 式の演算処理を実行することによ り、 それぞれ水平方向及び垂直方向 への傾き y び 0 を求めることができ る。
このよう なパラメ ータ算出アルゴ リ ズムに基づいて、 カ メ ラ位置 ' 光軸検出回 路 7 は、 図 1 3 に示すよう に、 ビデオ信号 V 1 よ り抽出した点光源による映像 V 】 ' よ り、 光軸 0に対応する基準位置 Qを基準にして、 この基準位置 Qに近接し て、 水平方向及び垂直方向に隣接する 4点の点光源像 P 1 〜 P 4 を抽出し、 これ ら点光源像 P 1 〜 P 4 の座標値を検出する。
カメ ラ位置 · 光軸検出回路 7 は、 このとき内部のメ モ リ に格納されている識別 コ一ドを基準にして点光源像を判定し、 例えば背景板 3 の前に立つ人物等によ り 点光源が部分的に遮光された場合等にあっても、 水平方向及び垂直方向に隣接す る 4点の点光源像を確実に検出する。
さ らに背景板 3 の前に立つ人物等の移動、 ビデオカ メ ラ 2の移動によ り、 連続 するフ レーム間でそれまで選択していた 4点の点光源像を抽出できな く なると、 処理対象の点光源像を別途抽出する。
さ らにカメ ラ位置 · 光軸検出回路 7 は、 検出した 4点の点光源像のいずれかが 、 消灯に割り当てられたフ レームにおいては、 例えば前後のフ レームを利用した 補間演算処理によ り、 又は必要に応じて他の 4点の点光源像を選択するこ と によ り、 各フ レームについて、 それぞれ背景板 3 において隣接する 4点の点光源像を 抽出する。
このよう に して背景板 3 において水平方向及び垂直方向に隣接する 4点の点光 源像を検出すると、 カ メ ラ位置 ' 光軸検出回路 7 は、 ビデオカ メ ラ 2 よ り得られ るズーム情報 Z Mを参考にして、 基準位置 Qを基準にした上述の内挿、 外揷によ る補間演算処理等を実行し、 ビデオ力メ ラ 2 の光軸◦が背景板 3 と交わる点まで の距離し、 上下左右方向の傾き x 及び y を検出する。
さ らに検出に供した点光源の識別コ ー ドよ り、 基準点光源 P 0 に対するこれら 点光源の座標値 (すなわち基準点光源 P 0 を原点と した 3次元座標) を検出し、 この座標値と検出した距離し、 傾き 及び y とから、 ビデオカ メ ラ 2 の座標 値 ( Χ 、 Υ、 Ζ ) を算出する。
力メ ラ位置 · 光軸検出回路 7 は、 ビデオ信号 V 1 の各フ ィ 一ル ドについて、 こ の座標値検出処理、 距離、 傾き検出処理を繰り返し、 これら処理の結果得られた 検出データ S 1 ( X 、 Υ、 Ζ 、 0 θ , L ) を 3次元変換ア ド レス演算回路 1 0 に出力する。
( 1 - 3 ) 動作及び効果
以上の構成において、 この画像合成装置 1 では、 まずプ η ジェク タ装置 4 を駆 動するこ と によ り、 被写体となる人物の背景に設置されている背景板 3 に対して 点光源 P 1 1〜 P n n を投影する。 その際、 点光源 P 1 1〜 P n nが後で識別し 得るよう にするため、 当該点光源 P 1 1〜 P n n を一定のパタ一ンで点滅させる このよう に背景板 3 に点光源 P 1 1 〜 P n n を投影した状態で、 被写体である 人物をビデオカメ ラ 2 によって撮像し、 その結果得られるビデオ信号 V 1 を画像 処理部 5 に入力する。 またビデオ力メ ラ 2 による撮像時に使用したズーム情報 Z Mも、 画像処理部 5 に入力する。
画像処理部 5 においては、 まずビデオ信号 V 1 をク ロマキ一回路 8 に入力する 。 ク ロマキ一回路 8 は、 ビデオ信号 V 1 から背景板 3 の色相に応じた色信号を抽 出し、 当該色信号を所定の閾値と比較するこ とによ り ビデオ信号 V 1 内の背景部 分を示すキ一信号 K 1 を生成すると共に、 ビデオ信号 V 1 内の被写体部分を示す キー信号 K 2 とを生成する。
カ メ ラ位置 · 光軸検出回路 Ί は、 まずこのキー信号 K 1 とビデオ信号 V 1 とを 受け、 当該キー信号 K 1 を基にビデオ信号 V 1 から背景部分のみからなるビデォ 信号を生成する。 そ してカ メ ラ位置 · 光軸検出回路 Ί は、 内部のメ モ リ に記億し てある点光源の点滅情報からなる識別コ一ドを読出し、 その識別コ一ドと基準パ ルス信号 S P に基づいて、 その背景部分のみからなるビデオ信号から各点光源 P 1 1〜 P n n の位置を検出する。 続いてカ メ ラ位置 , 光軸検出回路 7 は、 検出し た点光源 P 1 1〜 P n n の中から、 ビデ才力 メ ラ 2 の光軸 0に対応する表示画面 内の基準位置 Qに対して最も近接し、 かつ背景板 3上で水平及び垂直方向に隣接 する 4 つの点光源を抽出する。 そ してカ メ ラ位置 · 光軸検出回路 7 は、 その抽出 した 4 つの点光源の座標値及びズーム情報 Z Mとに基づいて上述した ( 3 ) 及び ( 4 ) 式の演算を行う こ と によ り、 ビデオ力 メ ラ 2の光軸 0が背景板 3 と交わる 点までの距離し と、 水平方向の光軸◦の傾き y と、 垂直方向の光軸 0の傾き と を算出する。
このよう にしてカメ ラ位置 · 光軸検出回路 7 においては、 識別コ ー ドを基準に して点光源像を判定するよう に したことによ り、 例えば背景板 3 の前に立つ人物 等によ り点光源が部分的に遮光された場合でも、 距離 L等の計算に必要な 4点の 点光源像を確実に検出することができ る。
また距離 L等を演算する際には、 ビデオカ メ ラ 2 よ り得られるズーム情報 Z M を参考にして、 基準位置 Qを基準にした内挿及び外挿の補間演算処理によ り簡易 に距離 L及び傾き χ 、 θ を算出することができ る。
このよう に距離 L及び傾き θ 、 θ を算出すると、 カメ ラ位置 · 光軸検出回 路 7 は、 この距離し等の検出に使用した点光源像の位置を基にして、 背景板 3 の 基準点光源 P 0すなわち 3次元座標系における原点に対するビデオ力メ ラ 2の位 置座標 (X , Y , Z ) を算出する。
3次元変換ア ド レス演算回路 1 0 は、 カ メ ラ位置 · 光軸検出回路 7 によって算 出されたこれらのパラメ ータ (Χ 、 Υ、 Ζ 、 θ θ ν 、 L ) と、 シス テ ムコ ン ト α —ラ 6 よ り供給されたズーム情報 Ζ Μとに基づいて、 ビデオカメ ラ 2の位置 から背景画像 ( V 2 ) を見たよう な映像を生成するための 3次元変換用の読出ァ ド レス S 2 を発生する。
フ レームメ モ リ 1 1 はこの読出ア ド レス S 2 に基づいて、 記億されている背景 ソ ース ビデオ信号 V 2 を読み出すことによ り、 ビデ才力メ ラ 2の位置から背景画 像を見たよう な背景ソ ースビデオ信号 V 3 を生成する。 かく してこの背景ソ ース ビデオ信号 V 3 と ビデオ信号 V 1 とを半一信号 Κ 2 に基づいて合成することによ り、 例えば図 5 に示すよう に、 被写体となっている人物がスタ ジオではな く 、 あ たかもコ ンピュ一タグラ フィ ック スの仮想空間や別の場所にいるかのよう な映像 を生成することができ る。
この場合、 背景に合成される背景ソ ースビデオ信号 V 3 をビデオカメ ラ 2 の位 置から見たよう に 3次元的に画像変換しているこ とによ り、 違和感の無い合成映 像を得ることができ る。 またこの画像合成装置 1 では、 検出されたビデオカメ ラ 2 の位置に基づいて順次読出ァ ド レス S を発生し、 この順次発生される読出ァ ド レス S 2 に基づいて背景ソ ース ビデオ信号 V 2 を画像変換しているこ とから、 ビデォカメ ラ 2 の位置が移動したと しても、 そのビデオカメ ラ 2 の移動に応じて 背景画像も変化するので、 違和感の無い一層現実的な合成映像を得るこ とができ る。 さ らにこの画像合成装置 1 では、 ビデオカメ ラ 2のズ 厶情報 Z Mも読出ァ ド レス S 2 の算出に使用していることから、 被写体となる人物をズーム した場合 でも、 その人物の拡大 , 縮小に連動して、 背景画像も違和感な く 拡大 · 縮小する ことができ る。
以上の構成によれば、 背景板 3 にマ ト リ ク ス状に投影した点光源像を基準にし てビデオカメ ラ 2 の位置情報を検出し、 この位置情報を基準にして視点を設定し て背景画像を合成するよう にしたことによ り、 ビデオカメ ラ 2 の移動等に対応し て背景に合成する背景画像を変化させることができ る。 かく するにっき簡易な構 成で、 合成される背景の映像も撮像手段の動きに対応して自然に変化させる こと ができ る画像合成装置 1 を実現することができ る。
( 2 ) 第 2実施例
( 2 - 1 ) 画像合成装置の全体構成
上述の第 1 実施例においては、 ビデオ力メ ラ 2 と背景板 3 との幾何学的な関係 から画像変換のパラメ ータ (すなわちフ レーム メ モ リ の読出ア ド レス) を求めた 場合について述べたが、 こ の第 2実施例においては、 基準となる点光源がビデオ カメ ラ 2 を移劻することによ りモニタスク リ 一ン面においてどの場所に移動した かを検出することによ り、 画像変換のパラメ 一タ を求めるよう にする。
まず図 1 との対応部分に同一符号を付して示す図 1 4 において、 2 0 は全体と して第 2実施例による画像合成装置を示す。 この画像合成装置 2 0 も、 基本的に はビデオカ メ ラ 2 とプロ ジェク タ装置 4 と画像処理部 5 とによって構成され、 第
1 実施例の画像合成装置 1 と大き く 異なる点は点光源座標検出回路 2 1 、 3次元 変換ァ ド レス演算回路 2 2及びス ク リ ー ンア ド レス発生回路 2 3 が新たに設けら れていることである。
この画像合成装置 2 0 における点光源座標検出回路 2 1 は、 背景板 2 に投影さ れている複数の点光源 P 1 l 〜 P n nのう ち基準となる 4 つの点光源の位置をビ デォ信号 V 1 の中から検出する回路である。 この画像合成装置 2 0 においては、 図 1 5 に示すよう に、 背景板 3 の中心 B Oを囲む 4 つの点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4 を基準点光源と しており、 点光源座標検出回路 2 1 ではこの 4 つの点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4 の位置座標をビデオ信号 V 1 から 検出する。
具体的に説明すると、 点光源座標検出回路 2 1 は、 背景板 3 を正面から撮像し たとき、 図 1 6 に示すよう に、 画角 Dの中央に見えていた 4 つの基準点 P 4 3、 P 4 4、 P 5 3及び P 5 4がビデオカメ ラ 2 の移動によってモニタスク リ ーン面 のどこに移動したかを検出する。 例えばビデオカメ ラ 2 の撮像によって得られた ビデオ信号 V 1 が図 1 7 に示すよう な状態にあるとすると、 点光源座標検出回路 2 1 は、 この 4 つの基準点 P 4 3、 P 4 4、 P 5 3及び P 5 4 のモニタ ス ク リ ー ン面における位置座標を検出する。
このよう にして基準点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4の移動先の位置 を検出し得ると、 各点光源は所定ピッチでマ ト リ ク ス状に背景板 3 に配置されて いることから基準点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4 の本来の位置は予め 分かっているので、 どのよう な 3次元的な変換を行えば、 基準点光源 P 4 3、 P
4 4、 P 5 3及び P 5 4がそのよう な場所に移動するかを検出し得る。 すなわち ビデオカ メ ラ 2 の移動によって基準点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4 に 与えられた 3次元的な画像変換の変換行列を検出し得る。 この変換行列は、 ま さ に背景画像をビデオカ メ ラ 2 の視点から見た映像に変換するのに必要な変換行列 である。
このため点光源座標検出回路 2 1 では、 まずビデオ信号 V 1 からキ一信号 K 1 の信号レベルが 「 1 」 となる領域を抽出するこ とによ り、 背景部分のみからなる ビデオ信号を生成する。 そ して点光源座標検出回路 2 1 は、 内部のメ モ リ に記憶 してある識別コ ー ドを読出し、 この識別コ ― ドと基準パルス信号 S P とを基に、 その背景部分のみからなるビデオ信号から 4 つの基準点光源 P 4 3、 P 4 4、 P
5 3及び P 5 4のモニタ ス ク リ ー ン面における位置座標を検出する。 その際、 図 1 8 に示すよう に、 ビデオカメ ラ 2 の画角 Dから外れた り、 或いは背景板 3 の前 に立つ人物によって隠れた り したため、 背景のみからなるビデオ信号内に基準点 光源 P 4 3、 P 4 4、 P 5 3及び P 5 4が存在しない場合には、 点光源座標検出 回路 2 1 は、 当該ビデオ信号内に存在するその他の点光源の位置座標を検出し、 その検出した位置座標を基に補間演算によって当該基準点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4の位置座標を検出する。
かく して点光源座標検出回路 2 1 は、 このよう にして検出した基準点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4の位置座標を検出データ S 1 0 と して 3次元変換 ア ド レス演算回路 2 2 に出力する。
3次元変換ア ド レス演算回路 2 2 は、 背景板 3 に所定ピッチでマ ト リ ク ス状に 形成されている基準点光源 P 4 3、 P 4 4、 P 5 3及び? 5 4 の位置座標を把握 しており、 この本来の位置座標と、 点光源座標検出回路 2 1 から供給される検出 データ S 1 0 に基づく 基準点光源 P 4 3、 P 4 4、 P 5 3及'び P 5 4の位置座標 と、 さ らにシス テ ム コ ン ト ロ ーラ 6から供給されるズーム情報 Z Mとを基に、 基 準点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4がビデオカメ ラ 2 の移動によってモ 二タ ス ク リ ー ン面のそのよう な場所に移動するのに必要な変換行列を算出する。 この変換行列は、 まさにビデオ信号 V 1 の背景に合成する背景画像をビデオカメ ラ 2 の視点から見た映像に変換する変換行列と等しい。
3次元変換ア ド レス演算回路 2 2 は、 こ の変換行列の逆行列を求め、 その逆行 列を、 ス ク リ ー ンア ド レス発生回路 2 3から供給される ラ ス タ ス キャ ン順のス ク リ ー ンア ド レス ( X s , Y s ) に乗算することによ り、 フ レーム メ モ リ 1 1 の読 出ア ド レス ( Χ Μ , Υ Μ ) を算出し、 これをフ レーム メ モ リ 1 1 に出力する。 な お、 変換行列の逆行列を求めている理由は、 こ の画像合成装置 2 0 においては、 背景ソ ース ビデオ信号 V 2 に変換行列を乗算して 3次元的な画像変換を行うので はな く 、 背景ソ ース ビデオ信号 V 2 をメ モ リ に書き込んでおき、 当該背景ソ ース ビデオ信号 V 2 を読み出す際に、 変換行列で示されるよう な 3次元的な画像変換 力〈行われるよう にする力、らである。
フ レーム メ モ リ 1 1 は、 図 1 9 に示すよう に、 ビデ才テ一プレコーダ 1 2力、ら 供給される背景ソ ース ビデオ信号 V 2 を内部のメ モ リ 領域に順に書込み、 3次元 変換ア ド レス演算回路 2 2から供袷される読出ア ド レス ( Χ Μ , Υ Μ ) に基づい て、 その背景ソ ースビデオ信号 V 2 を読み出すこ とによ り、 図 4 に示したよう に 、 ビデオ力メ ラ 2 の位置から背景画像を見たよう な背景ソース ビデオ V 3 を生成 し、 これを ミ 牛サ回路 9 に出力する。
かく して ミ ヰサ回路 9 において、 第 1 実施例と同様に、 被写体の領域を示すキ 一信号 Κ 2 に基づいて、 ビデオカ メ ラ 2で撮像されたビデオ信号 V 1 と 3次元的 な画像変換が施された背景ソ ース ビデオ信号 V 3 とを選択して合成するこ と によ り、 図 5 に示したよう に、 ビデオカ メ ラ 2 に位置に応じて背景画像が変形された 合成ビデオ信号 V 4 を生成するこ とができ る。
( 2— 2 ) 3次元変換ァ ド レス演算回路の読出ァ ド レス生成方法
こ の項では、 3次元変換ア ド レス演算回路 2 2 における読出ア ド レス ( X Μ , Υ ) の生成方法について説明する。 背景ソ ースビデオ信号 V 2 をビデオ信号 V 1 内の背景板 3 のと ころに挿入し得るよう にするためには、 背景ソ 一スビデオ信 号 V 2 を背景板 3が存在する 3次元空間へ写像し、 それをさ らにオペレータ の視 点位置を基点と してモニタス ク リ 一ン面上に投影しなければな らない。 なぜなら 背景板 3 は 3次元空間上に存在するものであり、 ビデオ信号 V 1 内の背景板 3 は その 3次元空間上に存在する背景板 3 をオペレータの視点位置を基点と してモニ タ ス ク リ ー ン面上に投影したものであるからである。 従って 3次元変換ア ド レス 演算回路 2 2 では、 3次元空間への写像及び 3次元空間から 2次元平面への投影 を含む変換行列を算出し、 その変換行列の逆行列を算出して読出ァ ドレスを生成 しなければならない。 この点について、 以下に具体的に説明する。
( 2— 2 — 1 ) 座標系の定義
まずこ こでは図 2 0 ( A ) 及び ( B ) を用いて、 3次元空間の座標系について 説明する。 この第 2実施例において使用される 3次元の座標系は、 図 2 0 ( A ) 及び ( B ) に示すよう に、 モニタ ス ク リ ー ンの中心を原点と し、 モニタ ス ク リ ー ンの水平方向を X軸、 モニタ ス ク リ ー ンの垂直方向を y軸、 モニタ ス ク リ ー ンに 対する鉛直方向を z軸と した x y z の直交座標系によって定義される。 この場合 、 X軸に関してはモニタ ス ク リ ー ンの右方向を正方向、 モニタ ス ク リ ー ンの左方 向を負方向と し、 y軸に関してはモニタ ス ク リ ーンの上方向を正方向、 モニタ ス ク リ ー ンの下方向を負方向と し、 z軸に関してはモニタ ス ク リ ー ンの奥行き方向 を正方向、 ス ク リ ーンの手前側 (すなわちオペレータ の視点がある側) を負方向 とする。
またス ク リ ー ン領域内の X軸方向に関しては、 一 4から + 4の間の仮想的な座 標値が設定され、 ス ク リ ー ン領域内の y軸方向に関しては、 一 3から + 3 の間の 仮想的な座標値が設定されている。 もちろん、 ス ク リ ー ン領域外にも、 仮想的な 座標値は設定されている。 またオペレータ の視点位置 P Z については、 z軸上の z座標が 「一 1 6」 のと ころに仮想的に設定されている。
( 2 - 2 ~ 2 ) 3次元画像変換の基本アルゴ リ ズム
次にこ こでは、 背景ソ ース ビデオ信号 V 2 に対して 3次元画像変換処理 (すな わち 3次元空間への写像及び 3次元空間からモニタ ス ク リ ーン面への投影) を施 すことによ り、 ビデオ信号 V 1 内の背景板 3 のと ころに挿入される背景ソ ース ビ デォ信号 V 3 を生成する方法について説明する。
まず背景ソ ースビデオ信号 V 2 は、 3次元的な処理は何もされず、 そのま まの 状態でフ レームメ モ リ 1 1 に記憶される。 この背景ソ ースビデオ信号 V 2 は、 2 次元のビデオ信号であるので、 図 2 0 ( A ) に示すよう に、 3次元空間ではモニ タ ス ク リ ー ン上の位置 M , に存在するビデオ信号である。
この背景ソ 一スビデオ信号 V 2 は上述したよう に 3次元空間内に存在する背景 板 3 のと ころに座標変換されなければならない。 こ こで背景板 3 は、 図 2 0 ( A ) に示すよう に、 z軸の正方向であって、 ス ク リ ー ン面に対して約 45 ° 傾いた位 置 M 2 に存在しているものとする。 このよ う な位置 M 2 に背景板 3が存在すると すると、 背景ソ ースビデオ信号 V 2 に対して z軸の正方向への平行移動と、 y軸 を中心と した約 45 ° の回転処理を施さなければならない。 このよう な座標変換処 理は 3次元の変換行列 T。 を使用するこ と によ り実行でき る。 すなわち背景ソ ー ス ビデオ信号 V 2 の各画素に 3次元の変換行列 T。 を乗算することによ り、 3次 元空間に存在するビデオ信号 V 2 ' を生成するこ とができ る。
この 3次元の変換行列 Τ。 は、 一般に次式
Figure imgf000022_0001
によって表すこ とができ る。
この 3次元の変換行列 T。 に使用される変換パラメ ータ r ! ,〜 r 33は、 背景ソ ース ビデオ信号 V 2 を X軸回り、 y軸回り及び z軸回りに回転させるための要素 、 背景ソ ースビデオ信号 V 2 を X軸方向、 y軸方向及び z軸方向にスケ ールをそ れぞれ拡大 Z縮小させるための要素、 及び、 背景ソ ースビデオ信号 V 2 を X軸方 向、 y軸方向及び z 軸方向にそれぞれスキューさせるための要素等を含んだパラ メ ータ である。 また変換パラメ ータ 1 x 、 1 y 、 1 z は、 X軸、 y軸及び z 軸方 向に背景ソ ース ビデオ信号 V 2 をそれぞれ平行移動させるための要素を含んだパ ラ メ ータ であ り、 変換パラ メ 一夕 s はビデオカ メ ラ 2 のズ一ム情報 Z Mにょって 決まるパラメ ータであり、 背景ソ ース ビデオ信号 V 2全体を 3次元のそれぞれの 軸方向に一様に拡大/縮小させるための要素を含んだパラメ ータである。
なお、 この変換行列丁。 は、 回転変換等の座標系と平行移動変換及び拡大縮小 変換の座標系とを同じ 1 つの座標系内で表現しているので 4行 4列の行歹 となる 。 一般にはこのよう な座標系は同次座標系 (Homogeneous Coordinate) と呼ばれ ている。
このよう に 3次元の変換行列を使用して 3次元空間に座標変換された背景ソ 一 スビデオ信号 V 2 ' は、 ビデオ信号 V 1 の中の背景板 3 のと ころに挿入されるた め、 オペ レータ の視点を基点と したモニタ ス ク リ ー ン上へ投影処理を施さなけれ ばならない。 すなわちこれは言い換えれば、 図 2 0 ( A ) に示すよう に、 z軸上 の仮想視点 P Zから 3次元空間内の位置 M 2 に存在する背景ソ ースビデオ信号 V 2 ' を見たと き に X y平面上に透視される背景ソ ース ビデオ信号 V 3 を求めなけ ればならない。 この投影処理は透視変換行列 P。 を使用することによ り実行でき る。 すなわち背景ソ ース ビデオ信号 V 2 ' の各画素に対して透視変換行列 P。 を 乗算することによ り、 3次元空間に存在する背景ソ ースビデオ信号 V 2 ' を X y 平面上に透視した背景ソ ースビデオ信号 V 3 を求めることができ る。
この透視変換行列 P。 は、 一般に次式
Figure imgf000023_0001
によって表される。
この透視変換行列 P。 のパラメ ータ P z は、 背景ソ ースビデオ信号 V 2 ' を X y平面上に透視する際に、 遠近法を適用するためのパースぺクティ ブ値である。 通常、 このパース ペ ク テ ィ ブ値 P z は、 「 1 / 1 6」 が基準値と して設定されてい る。 これは仮想視点 P Zの z座標値が 「一 1 6」 であるこ とを意味している。 なお 、 このパースペクティ ブ値 P z は、 オペレータ設定によ り所望の値に変更するこ とも可能である。
かく してこのよう な 3次元空間への座標変換と、 3次元空間から X y平面への 投影処理とを背景ソ 一スビデオ信号 V 2 に対して施すことによ り、 背景ソ ース ビ デォ信号 V 2 をビデオ信号 V 1 の中の背景板 3 のと ころに揷入するこ とが可能と なる。
こ こで以上説明してきた変換処理の内容をまとめると、 次のよう になる。 すな わちこの変換処理は、 3次元の変換行列 T。 によって背景ソ ース ビデオ信号 V 2 から 3次元の背景ソ ースビデオ信号 V 2 ' を得るまでの空間的画像変換ステップ と、 透視変化行列 P。 によって 3次元の背景ソ ース ビデオ信号 V 2 ' から透視変 換された背景ソ ース ビデオ信号 V 3 を得るまでの透視変換ステップとから構成さ れる。 従って、 背景ソ ース ビデオ信号 V 2から透視変換された背景ソ ースビデオ 信号 V 3 を得るための変換行列 Tは、 3次元の変換行列 T。 と透視変換行列 Ρ ο との乗算式によ り、 次式
Figure imgf000024_0001
に示すよう に表される。 従ってこの ( 7 ) 式に示される変換行列 T。 を背景ソ ー ス ビデオ信号 V 2 の各画素に乗算すれば、 ビデオ信号 V 1 の背景板 3 のと ころに 挿入することができ る背景ソ ース ビデオ信号 V 3 を生成することができ る。 なお、 この画像合成装置 Ϊ 0 においては、 背景ソ ース ビデオ信号 V 3 を生成す るとき、 変換行列丁。 を背景ソ ースビデオ信号 V 2 に乗算しているのではな く 、 実際には、 変換行列 Τ。 によって示される画像変換が施されるよう な読出ァ ド レ スを求め、 その読出しア ド レスを基にフ レーム メ モ リ 1 1 から背景ソ ースビデオ 信号 V 2 を読み出すことによ り画像変換が施された背景ソ 一ス ビデオ信号 V 3 を 生成している。
すなわちこの画像合成装置 2 0 では、 背景ソ 一スビデオ信号 V 2 をフ レームメ モ リ 1 1 に順に書き込み、 変換行列 T。 によって示される画像変換が施されるよ う な読出ァ ド レスに基づいてその背景ソ ース ビデオ信号 V 2 を読み出すこ と によ り、 ビデオ信号 V 1 の背景板 3 のと ころに挿入でき るよう な背景ソ ース ビデオ信 号 V 3 を生成している。
と ころでフ レームメ モ リ 1 1 に書き込まれる背景ソ ース ビデオ信号 V 2及びフ レーム メ モ リ 1 1 から読み出された背景ソ ース ビデオ信号 V 3 は共に 2次元のビ デ才データであり、 またフ レーム メ モ リ 1 1 も 2次元のデータ を記憶するメ モ リ である。 このためフ レーム メ モ リ 1 1 からの読出し動作に使用される読出ァ ド レ スの演算においては、 3次元空間上の z軸方向のデータ を演算するためのパラメ ータ は実質的には使用されないことになる。 従って ( 7 ) 式に示した変換行列 T のう ち、 z 軸方向のデータ を演算するための 3列目及び 3行目のパラメ 一タ は不 要となる。
すなわち読出ァ ド レス の演算に実際に必要となるパラ メ ータ を有する変換行列 を T 3 3とすると、 その変換行列 Τ 3 3は、 ( 7 ) 式の 3列目及び 3行目を除いたも のとな り、 次式
r 1 2 P
Τ P z
P z 十 s によって表される。
次にフ レームメ モ リ 1 1 からの背景ソ ース ビデオ信号 V 2 の読出し動作に使用 する読出しア ド レスの算出方法について説明する。 まずこ こでは、 始めに図 2 1 を用いて、 フ レームメ モ リ 1 1 上の位置べク ト ルと、 モニタ ス ク リ ー ン上の位置 べク ト ルとの関係について説明する。
まずフ レームメ モ リ 1 1 上の 2次元のァ ド レスを ( X M , Y M ) 及び位置べク ト ルを 〔 Χ Μ Υ Μ と し、 モニタス ク リ ー ン上のア ド レスを ( X s , Y s ) 及 び位置べク ト ルを 〔 X s Y s 〕 とする。 続いてこのフ レーム メ モ リ 1 1 上の 2 次元の位置ベク ト ル 〔 X M Υ Μ 〕 を同次座標系で表現すると、 べク ト ル 〔 x m y m H。 〕 と表すこ とができ、 モニタ ス ク リ ーン上の位置べク ト X S Y s 〕 を同次座標系で表現すると、 べク ト ル 〔 x s y s 1 〕 と表すことがで き る。 なお、 この同次座標系のパラメ ータ 「 H。 」 はべク ト ルの大き さを表すパ ラメ 一夕である。
フ レーム メ モ リ 1 1 上の位置べク ト ル 〔 x m y m H。 〕 に対して、 変換行 列 T 33を作用させるこ とによって、 フ レームメ モ リ 1 ί 上の位置べク ト ル 〔 x m y m H。 〕 がモニタ ス ク リ ーン上の位置ベク ト ル 〔 x s y s 1 〕 に変換 される。 従ってフ レーム メ モ リ I 1 上の位置べク ト ル 〔 x m y m H。 〕 と モ 二タ ス ク リ ー ン上の位置べク ト ル 〔 X s y s 1 〕 との関係式は、 次式
[ X s y s 1 ] = C X m y m H o · T …… ( 9 ) によって表すこ とができ る。
なお、 フ レームメ モ リ 1 1 上の位置べク X m y m H o 〕 において使 用されている同次座標系のパラメ ータ 「 H。 」 及びモニタス ク リ ー ン上の位置べ ク ト ル 〔 X s y s 1 ] において使用されている同次座標系のパラメ ータ 「 1 」 との関係は、 変換行列 T 3によって、 フ レームメ モ リ 1 1 上の位置べク ト m y m 〕 がス ク リ ー ン上の位置べク ト ル 〔 x s y s 〕 に変換され、 フ レー ムメ モ リ 1 1 上の位置べク ト x m y m 〕 の大き さ 「H。 」 がモニタス ク リ — ン上の位置べク ト ル 〔 x s y s 〕 の大き さ 「 1 」 になるよう に変換されると いう こ とである。
と ころでこの画像合成装置 2 0 のよう に、 フ レームメ モ リ 1 1 に対して、 変換 行列 T に対応する よう な読出ァ ド レスを供給する こ と によって、 背景ソ ース ビ デォ信号 V 2 に対して空間的な変換処理を施すよう な装置においては、 フ レーム メ モ リ 1 1 上の点に対応するモニタ ス ク リ ー ン上の点を求めるのでは無く 、 モニ タスク リ ー ン上の点に対応するフ レーム メ モ リ 1 1 上の点を求める必要がある。 すなわち ( 9 ) 式を変形した次式
〔 X m H 0 ] = C X 1 〕 · T ( 10) に示すよう に、 モニタス ク リ ー ン 1 1 上の位置べク ト ル 〔 x s y s 1 〕 を基 準にして、 変換行列 T 33の逆行列 T n— 1を用いてフ レーム メ モ リ 1 1 上の位置べ ク ト ル 〔 x m y m H。 〕 を演算する必要がある。
次にこの考え方に基づいて、 実際にフ レーム メ モ リ上の 2次元の位置べク ト ル C X M Y M 〕 を求める方法について以下に説明する。 まず変換行列 T 3 3を、 次 式
r 1 1 r 1 r 1 P z a l i a 1 a 1
Τ r l Γ r : P z a 1 3 Ά …… ( 11)
1 X 1 V 1 z P 十 s a. 3 l a 32 a 3
示すよう ペラメ ータ a u〜 a 33で表現し、 逆行列 T 33— 1を、 次式
a 1 1 a 12 S 13 b i i b 12 b
- 1―
33 a 21 a 22 3 23 b 21 b 22 b
a. 31 a 32 3 33 b 3 1 b 32 b
但し、 b i j ( 12)
d e t ( T 33 ) に示すよう に、 パラメ ータ ! ,!〜!):^で表現する。 このよ う に定義した逆行列 T 331を上述した (10) 式に代入し、 それを展開すると、 次式 b ! 1 b 1 2 b
〔 H o 〕 〔 1 ] b 2 1 b 22 b
b 31 b 32 b
〔 b 】 i x s + b 2】 y s + b b 1 2 x s 十 b + b b 1 3 x s + b + b 33〕 ( 13) が得られる。 この ( 13) 式からフ レームメ モ リ 1 1 上の位置べク ト ル 〔 X m y m H。 〕 は、 次式 x m = b l l x s + b 2 1 y s + b 3 1 y m = b 1 2 x s 十 b 22 y s + b 32
H 0 x s 十 b 23 y s + b ( 14)
に示すよう に表される。
こ こでこのよう にして求められるフ レームメ モ リ 1 1 上の同次座標系による位 置べク ト x m y m H。 〕 をフ レームメ モ リ 上の 2次元の位置べク ト X M Y M 〕 に変換する場合には、 次のよう にすれば良い。 すなわち 2次元の位 置べク ト ル 〔 X M Y M 〕 を同次座標系に変換するときに使用したパラメ ータ 「 H 0 」 は、 同次座標系の位置べク ト ル 〔 x m y m 〕 の大き さを表すパラメ ータ であるので、 同次座標系の位置べク ト ルを 2次元の位置べク ト ルに変換するため には、 同次座標系の位置べク ト ルの方向を表すパラメ ータ 「 X m 」 及び 「 y m 」 を同次座標系の位置べク ト ルの大き さを表すパラ メ 一タ 「 H。 」 で正規化すれば 良い。 従ってフ レーム メ モ リ 上の 2次元の位置べク ト ルの各パラメ ータ 「 X M 」 及び 「 Υ 」 は、 次式
X Η
Υ Η ( 15) によって求めるこ とができ る。
またモニタ ス ク リ ー ン上の同次座標系による位置ベク ト ル 〔 X s y s 1 〕 を 2次元の位置べク ト ル 〔 X s Y s 〕 に変換する場合も同様の考え方で行う こ とができ、 同次座標系の位置べク ト ルの方向を表すパラ メ ータ 「 X s 」 及び 「 y s 」 を同次座標系の位置べク トルの大き さを表すパラメ ータ 「 1 」 で正規化すれ ば良い。 従ってモニタス ク リ ー ン上の 2次元の位置べク ト ルの各パラメ 一タ 「 X s 」 及び 「 Y s 」 は、 次式
X s = X
Y s = y ( 16) によって求めることができ る。
かく してこ の ( 15) 式に (14) 式及び (16) 式を代入すると、 フ レーム メ モ リ 1 1 上の 2次元の位置べク ト ルの各パラ メ ータ 「 X M 」 及び 「 Y M 」 は、 次式 b i i x b 2 i y + b
X M
H o b 1 x + b y + b b i , X s + b 21 Y s + b
( 17) b i 3 s + b 23 Y s + b b 12 x -h b 22 y 十 b
Y
H o b 13 x + b + b b 12 X s 十 b 22 Y s 十 b
( 18) b 13 X s + b Y s 十 b に示すよう に表すことができ、 この (17) 及び (18) 式によってフ レーム メ モ リ 1 1 上の位置べク ト ル 〔 Χ Μ Υ Μ 〕 を求めることができ ると共に、 フ レー厶 メ モ リ 上の読出しア ド レス ( Χ Μ , Υ Μ ) を求めることができ る。
次に (17) 式及び (18) 式に使用される逆行列 — 1の各パラメ ータ を求める
。 逆行列 Τ 33— 1の各パラメ ータ b i ,〜 b 33は、 変換行列 T 33の各パラメ ータ a !!
〜 a 33を使用して、 次式 a 32 3 23 + a 22 a
b 11 ( 19)
W a 32 a a 12 a
( 20) w a 22 a 13 + a 12 a
( 21)
W
3 3 ΐ 3 23 ~ 3 21 ^
b 2 , = ( 22)
W a 31 a + a a 33
b 22— (23)
W a 21 a a 23
(24) w
― a 22 ^ 3 1 + a 2 1 ^ 32
b 3 i = ——■ ~~ …… (25)
W 1 a 1 2 a 3 1― a i i a 32
b 32 = …… (26)
W 1
Figure imgf000031_0001
b 33 = …… (27)
W!
に示すよう に表すことができ る。 但し、 パラメ ータ W i は、 次式
W 1 = — a 22 a 3 1 a 1 3 + a 2 1 a 32 a 1 3 + a 1 2 a 3 1 a 23
一 a i i a 32 a 23— a i 2 a 2 i a 33+ a i i a 22 S 33 ( 28) に示される値である。
こ こで各パラメ ータ a H〜 a 33の値は、 (11) 式の関係式から、 次式
a i i= r i iヽ a i 2 = r i 2ヽ a i 3= r i3 P z 9)
3 2 1 = Γ 2 1ヽ 3 22 = Γ 22、 Ά 23 = V 23 Ρ ζ 、30)
a 、 = l y 、 = l z P z 十 s (31)
で表されるので、 この (29) 式〜 (31) 式を (19) 式〜 (28) 式に代入すると 9) 式〜 (28) 式は、 次式
P z 十 P z 十 s
b (32)
W y r P z + r P z 十 s
b (33)
W r is P z + r
(34)
W
P z 十 s )
b (35)
W
P z + P z + s )
b (36)
W r r P
(37)
W ,
(38)
W
(39)
W r 十 r
(40)
W W l =— r 1 r 1 P z + r 1 1 y r 1 P + r 1 1 x r P z — r 1 y r P z — r r ( 1 z P z 十 s )
+ r ! , r 22 ( 1 z P z 十 s ) (41) のよう に変形し得る。
かく して (32) 式〜 (41) 式を (17) 式及び (18) 式に代入すると、 フ レーム メ モ リ 1 1 の読出ア ド レス ( X , Y は、 次式
1
X 〔 1 x r P + r ( し P z + s ) } X s
H 0 十 { 1 y r 1 P z 十 r 12 ( 1 z P z 十 s ) } Y s
+ ( - r r P z + r r P 2 ) ] (42)
1
Y 〔 1 r 23 P - r 2 1 ( 1 z P z 十 s ) } X s
H 0
+ { - 1 + r , , ( 1 P z 十 s ) } Y s 十 ( r 2 t r 13 P z — r , , r 23 P z ) 〕 …… (43) によって求めることができ る。 なお、 パラメ ータ H。 は、 (14) 式に (38) 式〜 (40) 式を代入することによ り、 次式
H o = (.— r 22 1 + r 2 1 1 y ) X s
十 ( r i 2 l x — r i i l y ) Y
+ (— r 1 2 r 2 1十 r 1 , r 22 ) ( 44) によって表される。 こ の よ う にフ レーム メ モ リ 1 1 の読出しア ド レス ( X M , Y M ) は、 変換行列 T 33の各パラメ ータ ( 〜 !" :^、 l x 、 l v 、 l z 、 s及び Ρ ζ ) を用いて表 すこ とができ る。 従って (42) 式から (44) 式に対して、 モニタス ク リ ー ンの ラ ス タ ス キャ ン順に対応するよう に、 ス ク リ ー ンア ド レス ( X s , Y s ) を画素毎 に供給すると、 その供給されたス ク リ ー ンア ド レス に対応したフ レーム メ モ リ 上 の読出しア ド レス ( X Μ , Υ Μ ) を順に求めることができ る。
( 2 - 2 - 3 ) 変換行列 Τ 33の算出方法
上述したよう に変換行列 Τ 33の各パラメ ータが分かれば、 (42) 式から (44) 式を使用してフ レーム メ モ リ 1 1 の読出ア ド レス ( Χ Μ , Υ Μ ) を求める ことが でき る。 こ こではこの変換行列 Τ 33の各パラメ 一タの算出方法を説明する。 フ レーム メ モ リ 1 1 上の位置べク ト ノレとモニタ ス ク リ ー ン上の位置べク ト ノレの 関係は、 上述したよう に ( 9 ) 式に示したよう な関係になっている。 従ってこ の ( 9 ) 式に位置べク ト ルの実際の値を代入すれば変換行列 Τ 33の各パラ メ 一タ を 求めるこ とができ る。
モニタ ス ク リ ーン上の位置べク ト ルと しては、 点光源座標検出回路 2 1 で検出 した 4 つの点光源 Ρ 4 3、 Ρ 4 4、 Ρ 5 3及び Ρ 5 4 の位置ベク ト ルを使用する 。 またフ レームメ モ リ 上の位置べク ト ルと しては、 背景板 3全体をフ レームメ モ リ のメ モ リ 領域全体と考え、 そのと きの点光源 Ρ 4 3、 Ρ 4 4、 Ρ 5 3及び Ρ 5 4 の位置に相当するフ レーム メ モ リ 1 1 上の位置べク ト ルを使用する。
まず点光源座標検出回路 2 1 によって検出された点光源 Ρ 4 3、 Ρ 4 4、 Ρ 5 3及び Ρ 5 4の位置ベク ト ルを順に 〔 X , Y , 〕 、 [ X 2 Y 2 〕 、 [ X 3 Y 3 〕 、 C X 4 Y 4 〕 と し、 本来の点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4 の位置に対応するフ レーム メ モ リ 1 1 上の位置べク ト ルを順に 〔 X ' 1 Y ' !
〕 、 [ X ' 2 Y ' 2 〕 、 [ X ' 3 Y ' 3 〕 、 C X ' 4 Y ' 4 〕 とする。 こ れらの位置べク トルをそれぞれ同次座標系で表現すると、 点光源? 4 3、 Ρ 4 4 、 Ρ 5 3及び Ρ 5 4のモニタ ス ク リ ーン上における位置べク ト ルは、 次式 〔 X . K i Y Κ i 〕 1 = 1 (45) で表され、 フ レームメ モ リ 上の位置べク ト ルは、 次式
〔 X ' Y ' = 1 (46) で表される。
この同次座標系の位置べク ト ルをそれぞれ ( 9 ) 式に代入すると、 次式 [ X i · K , Y i · K , Κ ■ ] = C X 7 i Υ ' , 1 ] · Τ
(47) が得られる。
こ こで変換行列 Τ を、 次式 a a S
Τ SL 2 a a …… (48) a a a に示すよう に定義すると、 (47) 式は、 次式 c x K Y K K i 〕
a l l a 1 2 a 1 3
C X / i Y i 1 3 - a. 2 1 a 22 a 23 (49) a 3 l 2 32 a 33
に示すよう に変形し得る。 この (49) 式を展開すると、 次式
〔 X K Y K K i 〕 C a , , X + a 2 1 Y + a
X 十 a Y ' 十 a
1 3 X ' i + a 23 Y ' , + a 33 ]
(50) に示すよう にな り、 これから各パラメ ータ 「 X i 」 、 「 Y; 」 及び 「 K i 」 につ いて、 次式 '
X ; - K; - a t i X ' i + a 2 1 Y ' > + a (51)
Y i ' K i - a ^ X Z , 十 a 22Y ' i + a (52)
K i = a 1 3 X i + a 23 Y ' i + a (53) が得られる。
この (53) 式を (51) 式及び (52) 式に代入すると、 パラメ ータ 「 X i 」 及び 「 Y i 」 に関する式が、 次式 a 1 1 X ' i + Ά 2 \ Y ' i 十 a
X i ( 54)
X 十 a 23 Y ' + a
X + a Y ' + a
Y , = (55) a 1 3 X 十 a 23 Y ' 十 a のよう に得られる。
こ こでこの (54) 式及び (55) 式の右辺の分母分子をパラメ ータ 「 a 33」 で割 ると、 次式 a l i/ a 33 · λ ' i + a 2 i a 33 - ' \ + a 3 1 / a
X i =
a 1 3/ a 33 · X ' i + 8 23/ a 33 · Y ' i + 1
( 56) a i 2 a 33 · X ' i + 8 22/ a 33 · Y ' \ + Ά 22/ a
Y
a 1 3 / a 33 · X 7 i + 3 23/ a 33 - Y ' ■ + 1
( 57) に示すよう にな り、 パラメ ータ 「 a 33」 で割ってもパラメ ータ 「 X , 」 及び 「 Y i 」 の値は変わらないことが分かる。 従って変換行列 T 33を、 次式
a 33 a 1 2 , a 33
T a 33 a 22, a 2:
a 3 a 32, a 3:
a
2 1 3 22 (58)
3. 3 1 a 32 1 に示される変換行列 T 3 で置き換えたと しても、 (49) 式が成立するこ と にな る。 すなわち次式、
[ X ■ · K i Y; · K i K i ]
= [ X ' i Y ' i 1 〕 · T 33 ' a 1 2 a
= [ X ' > Y ' i 1 ) a 2 a 22 3 23 (59)
が成立する こ と になる。
この (59) 式を 1 = 1 〜 4 について展開すると、 次式
X 1 - K ! = a .. ' X ' ! + a 2 ' 1 + a (60)
Y 1 - K 1 = a ! 2 X ' 1 十 a 2 Y ' i 十 a (61)
K . = a 13' X ' i + a 23' Y ' , + (62) X κ ' X ' 2 + a 2 1 ' Y " + a (63)
Y Κ a 1 2 ' Λ ' 2 + 3 22 ' + a (64)
Κ a 1 3 X + a 23' Y ' + (65)
X Κ a n' X ' 十 a 2 Y ' + a (66)
Y Κ 3 = a 1 2 ' X ' 3 + a 22 ' Υ ' 十 a (67)
K a 1 3 ' X 3 + a 23 ' Y (68)
X K 4 = a i ! ' X ' 4 + a 2 Y " + a (69)
Y K a 12' X ' 十 a ' Y ' + a (70)
K ' X ' + a ' Y ' + ( 71) に示すよう に、 パラメ ータ 「 3 Η ' 」 〜 「 3 3 」 及び 「 Κ , 」 〜 「 Κ 4 」 に関 する 1 2個の連立一次方程式が得られる。 この連立一次方程式はパラメ ータが全 部で 1 2個であるので解く ことができ る。 従ってパラメ ータ 「 a , 」 〜 「 a 33 ' 」 を求めることができ、 変換行列 T 3 を求めるこ とができ る。 なお、 変換行 列 Τ 33に関しては、 求めた変換行列 Τ 3 にズーム情報 Ζ Μと して与えられる拡 大 Ζ縮小のパラメ ータ 「 a 33」 を乗算すれば求めることができ る。
( 2 — 2 — 4 ) 読出ア ド レス の発生方法
3次元変換ア ド レス演算回路 2 2 と しては、 以上説明してきたよう な手順でフ レーム メ モ リ 1 1 に供給する読出ァ ド レスを生成する。 すなわち 3次元変換ァ ド レス演算回路 2 2 は、 点光源座標検出回路 2 1 から検出データ S 1 0 と して供給 される基準点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4 の位置べク ト ルと 、 背景板 3全体がフ レーム メ モ リ のメ モ リ 領域に対応すると したときの基準点光源 P 4 3 、 P 4 4、 P 5 3及び P 5 4 の位置に相当する フ レーム メ モ リ 1 1 上の位置べク ト ルとに基づいて、 上述した変換行列 T 3 3の各パラメ ータ に関する連立一次方程 式を設定し、 その連立一次方程式を解く こ と に よ り 、 変換行列 T 3 3を求める。 次 に 3次元変換ア ド レス演算回路 2 2 は、 その求めた変換行列 Τ 3 3の各パラメ ータ を使用して逆行列 Τ 3 1を求め、 その逆行列 Τ 3 1の各パラ メ ータ とス ク リ ー ン ア ド レス発生器 2 3から供,袷されるス ク リ ー ンア ド レス ( X s , Y s ) とを基に フ レーム メ モ リ 1 1 に供給する読出ア ド レス ( Χ Μ , Υ Μ ) を求め、 これを フ レ ーム メ モ リ 1 1 に供給する。 なお、 よ り具体的に言えば、 変換行列 Τ 3 3から逆行 列 Τ 3 3— 1を求める手順は実際には省略され、 変換行列 Τ 3 3の各パラメ ータ を使用 して、 上述した (4 2 ) 式〜 (4 4 ) 式の演算を行い、 直接的に読出ア ド レス ( Χ Μ , Υ Μ ) を求めている。
( 2 — 2 — 5 ) 読出ア ド レス算出の手順
最後にこの項では、 背景ソ ース ビデオ信号 V 2 を画像変換するのに必要となる 読出ア ド レス の算出方法について、 図 2 2 に示すフ ロ ーチャー ト を用いて説明す る。
まずス テ ップ S Ρ 1 から入ったス テ ップ S Ρ 2 において、 シス テ ム コ ン ト 一 ラ 6 は、 プ π ジェク タ装置 4 を駆動制御することよって 5 フ レーム周期で点滅パ ターンが繰り返されるよう に複数の点光源 Ρ 1 1 〜 Ρ η η を背景板 3 に対して投 影すると共に、 5 フ レーム周期の先頭フ レームを示す基準パルス信号 S Ρを点光 源座標検出回路 2 1 に送出する。
次のス テ ップ S Ρ 3 においては、 点光源座標検出回路 2 1 は、 こ の基準パルス 信号 S Ρの受信に応じて内部のカ ウ ンタ ηの値を 「 1 」 に設定し、 次のス テ ップ S Ρ 4 においては、 5 フ レーム周期の最初のフ レーム に相当するビデオ信号 V 1 の背景映像から点光源の座標を検出する。 なお、 この点光源の座標というのは、 図 2 3 に示すよう に、 モニタ ス ク リ ー ンの中心すなわち光軸を原点と したモニタ ス ク リ ー ン面上の座標である。
次のステップ S P 5 においては、 点光源座標検出回路 2 1 は、 先に設定した力 ゥ ンタ n の値力く 「 5」 になったか否か判断することによ り 5 フ レーム周期の最後 のフ レームまで達したか否か判断する。 この場合、 カ ウ ンタ nの値は 「 1 」 であ ることから、 ステップ S P 6 に進み、 こ こで点光源座標検出回路 2 1 はカ ウ ンタ nの値に 「 1 」 を加え、 再びステップ S P 4 に戻る。
ステップ S P 4 においては、 5 フ レーム周期の 2番目のフ レームに相当するビ デ才信号 V 1 の背景映像から同じ く 点光源の座標を検出する。 以下、 同様に、 ス テツプ S P 5〜ステップ S P 6 の処理を繰り返すことによ り、 5 フ レーム周期の 各フ レームに相当するビデオ信号 V 1 の背景映像から点光源の座標を検出する。 このよう に 5 フ レーム分のビデオ信号 V 1 から点光源の座標を検出し終えると、 カ ウ ンタ n の値力く 「 5」 になっていることから、 点光源座標検出回路 2 1 は、 ス テツプ S P 5からステップ S P 7 に進む。
ステップ S P 7 においては、 点光源座標検出回路 2 1 は、 5 フ レームのビデオ 信号 V 1 から座標が検出された点光源の中に基準点光源 P 4 3、 P 4 4、 P 5 3 及び P 5 4 に相当する点光源が全て存在するか否か判断する。 その結果、 基準点 光源 P 4 3、 P 4 4、 P 5 3及び P 5 4 に相当する点光源が全て存在する場合に は、 その基準点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4 の座標を検出データ S 1 0 と して 3次元変換ァ ド レス演算回路 2 2 に出力する。
一方、 基準点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4 に相当する点光源が全て 存在しない場合には、 ステップ S P 8 において、 点光源座標検出回路 2 1 は、 発 光が検出されている各フ レームの点光源の座標を基に各点光源の座標を検出し、 次のステップ S P 9 においては検出した各点光源の座標を基に 4 つの基準点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4の座標を補間処理によって求め、 これを検出 データ と して 3次元変換ァ ドレス演算回路 1 2 に出力する。 なお、 基準点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4が 5 フ レームの中に存在しない場合と しては、 背景板 3 の前に立つ人物によって基準点光源が隠れた り、 或いはビデオ力メ ラ 2 の画角から基準点光源が外れた場合が考えられる。
点光源座標検出回路 2 1 から基準点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4 の 座標を受けた 3次元変換ァ ドレス演算回路 2 2 は、 ステップ S P 1 0 において、 当該基準点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4 の座標を基に変換行列 T 33の 各パラ メ ータ を演算する。 次のステップ S P 1 1 では、 3次元変換ア ド レス演算 回路 2 2 は、 算出した変換行列 T 33の各パラメ ータ に基づいて、 読出ア ド レス ( X M , Y M ) を演算し、 次のステップ S P 1 2 においてその読出ア ド レス ( X M , Y M ) をフ レームメ モ リ 1 1 に供給する。
このよ う に してこの画像合成装置 2 0 においては、 ビデオ信号 V 1 の中から背 景板 3 に投影された基準点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4 の座標を検出 し、 その検出された 4点の座標を基に背景ソ ースビデオ信号 V 2 を画像変換する ための変換行列 T の各パラメ ータ を求め、 その求めた変換行列 T 3の各パラメ ータ を基にフ レームメ モ リ 1 1 の読出ア ド レス ( Χ Μ , Υ Μ ) を算出するよう に なされている。 これによ り この読出ア ド レス ( X M , Y M ) に基づいて、 フ レー ム メ モ リ 1 1 から背景ソ ース ビデオ信号 V 2 を読み出せば、 図 4 に示したよう に 、 ビデオカメ ラ 2 の位置から見たよう な背景ソ ース ビデオ信号 V 3 を容易に生成 する ことができ る。
( 2 — 3 ) 動作及び効果
以上の構成において、 この画像合成装置 2 0では、 まずプロ ジェク タ装置 4 を 駆動することによ り、 被写体となる人物の背景に設置されている背景板 3 に対し て点光源 P 1 1 〜 P n n を投影する。 その際、 点光源 P 1 1 〜 P n nが後で識別 し得るよう にするため、 当該点光源 P I 〜 P n n を 5 フ レームを繰り返し周期 と して一定のパタ 一 ンで点滅させる。
このよう に背景板 3 に点光源 P 1 1 〜 P n n を投影した状態で、 被写体である 人物をビデオカメ ラ 2 によって撮像し、 その結果得られるビデオ信号 V 1 を画像 処理部 5 に入力する。 またビデオカメ ラ 2 による撮像時に使用したズーム情報 Z Mも、 画像処理部 5 に入力する。
画像処理部 5 においては、 まずビデオ信号 V 1 をク ロマキ一回路 8 に人力する 。 ク πマヰ一回路 8 は、 ビデオ信号 V 1 から背景板 3 の色相に応じた色信号を抽 出し、 当該色信号を所定の閾値と比较することによ り ビデオ信号 V 1 内の背景部 分を示すキー信号 K 1 を生成すると共に、 ビデオ信号 V 1 内の被写体部分を示す キー信号 K 2 とを生成する。
点光源座標検出回路 2 1 は、 まずこのキー信号 K 1 と ビデオ信号 V 1 とを受け 、 当該ヰ一信号 K 1 を基にビデオ信号 V 1 から背景部分のみからなるビデオ信号 を生成する。 そして点光源座標検出回路 2 1 は、 内部のメ モ リ に記憶してある点 光源の点滅情報からなる識別コ 一 ドを読出し、 その識別コ ー ドを基に予め設定さ れている 4つの基準点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4 をその背景部分の みからなるビデオ信号から検出し、 その基準点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4 のモニタ ス ク リ ー ン面における位置座標を検出する。 なお、 このとき、 ビ デ才カ メ ラ 2 の画角 Dから外れた り、 或いは背景板 3 の前に立つ人物によって隠 れた り したため、 背景のみからなるビデオ信号内に基準点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4が存在しない場合には、 点光源座標検出回路 2 1 は、 当該ビデ 才信号内に存在するその他の点光源の位置座標を検出し、 その検出した位置座標 を基に補間演算によって当該基準点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4 の位 置座標を検出する。
3次元変換ア ド レス演算回路 2 2 は、 この 4 つの基準点光源 P 4 3、 P 4 4、 P 5 3及び P 5 4 の位置座標を基に、 背景ソ ース ビデオ信号 V 2 に対して施す 3 次元的な画像変換のための変換行列 T 3を算出し、 その変換行列 T 3の各パラ メ 一夕 に基づいてフ レーム メ モ リ 1 1 に供給する読出ア ド レス ( Χ Μ , Υ Μ ) を算 出する。
かく してフ レームメ モ リ 1 1 において、 メ モ リ領域内に格納されている背景ソ ース ビデオ信号 V 2 をその読出ア ド レス ( Χ Μ , Υ ) に基づいて読み出すこと によ り、 図 4 に示すよう に、 ビデオカメ ラ 2 の位置から背景画像を見たよう な背 景ソ ース ビデオ信号 V 3 を生成する。 従って、 この背景ソ ース ビデオ信号 V 3 と ビデオ信号 V 1 とをキ一信号 K 2 に基づいて合成する ことによ り、 図 5 に示すよ う に、 ビデオカメ ラ 2 の位置に応じて背景画像が変形された違和感のない合成ビ デ才信号 V 4 を生成することができ る。
このよ う に してこの第 2実施例の画像合成装置 2 0 では、 複数の点光源 P 1 1 〜 P n n のう ち 4 つを基準点光源と して予め設定しておき、 その 4 つの基準点光 源のモニタ ス ク リ ー ン面上における位置座標をビデオ信号 V 1 から検出して、 そ の 4点の位置座標を基に背景画像の画像変換のための読出ァ ドレスを発生するよ う にしたことによ り、 第 1 実施例に比して一段と簡易な構成で、 背景画像をビデ ォカ メ ラ の位置に応じて変形するこ とができ、 違和感のない合成映像を容易に生 成するこ とができ る。
以上の構成によれば、 背景板 3 に対してマ ト リ クス状に点光源を投影し、 その う ちの 4つの点光源のモニタス ク リ ーン面上における位置座標をビデオ信号 V 1 から検出し、 その検出した 4点の位置座標を基に画像変換のための読出ァ ド レス を生成して背景ソ 一スビデオ信号 V 2 を変形するよう にしたこ とによ り、 一段と 簡易な構成で、 ビデオ力メ ラ 2 の位置に応じて変形する背景画像を生成し得る。 かく するにっき一段と簡易な構成で、 合成される背景の映像を撮像手段の動きに 対応して自然に変化させることができ る画像合成装置 2 0 を実現する ことができ る。
( 3 ) 他の実施例
なお上述の実施例においては、 プロ ジェク タ装置 4 によって背景板 3 に対して マ ト リ ク ス状の点光源 P 1 1 〜 P n n を投影した場合について述べたが、 本発明 はこれに限らず、 背景板に対して予めマ ト リ ク ス状に発光ダイ オー ドを設けてお き、 当該発光ダイ オー ドを所定のパター ンで点滅させるよう に しても上述の場合 と同様の効果を得るこ とができ る。 またこれに限らず、 レーザ一ビームの走査に よ り点光源を背景板に形成するよう にしても、 上述の場合と同様の効果を得るこ とができ る。 要は、 背景板に対して画像合成処理の基準となる光源を形成する照 明手段を設けるよう にすれば、 上述の場合と同様の効果を得ることができ る。 また上述の実施例においては、 マ ト リ ッ クス状に配置した点光源を所定のパタ 一ンで点滅させるこ と によ り識別し得るよう にした場合について述べたが、 本発 明はこれに限らず、 発光の強度を所定のパタ ー ンで変換させるこ と によ り点光源 を識別し得るよう にしても、 上述の場合と同様の効果を得ることができ る。 また上述の第 1 実施例においては、 点光源像間の間隔を基準にして、 距離、 傾 き等を検出する場合について述べたが、 本発明はこれに限らず、 棒状に光源像を 形成し、 点光源像間の間隔に代えてこの棒状の光源像の長さによ り距離、 傾き等 を検出する場合、 さ らには枠形状に光源像を形成してこの枠形状の大き さによる 距離、 傾き等を検出する場合、 さ らには映像中に含まれる点光源の数によ り距離 、 傾き等を検出する場合等、 要は処理対象でなる背景に形成された光源像によ り 撮像手段の位置情報を検出する場合に広く 適用するこ とができ る。
また上述の実施例においては、 背景板 3 のと ころにコ ンピュータ グラ フィ ック スの映像や別の場所で撮像した映像を挿入するよう にした場合について述べたが 、 本発明はこれに限らず、 例えば机、 箱等の小道具を人物等と共に撮像する場合 に、 これら小道具を処理対象と して背景板の代わりに使用して種々の映像を合成 する場合にも広く 適用することができ る。 産業上の利用可能性
放送局等において、 ビデオデ一タの所定領域に別の映像を挿入して合成映像を 生成する場合に利用し得る。

Claims

請 求 の 範 囲
1 . 撮像手段を介して得られるビデオデータ よ り、 所定色彩の処理対象領域を撮 像してなる領域を検出し、 上記領域に他の映像を挿入して合成映像を生成する画 像合成装置において、
上記処理対象領域に、 当該処理対象領域と同一色彩による光源像を形成する照 明手段と、
上記光源像を基準にして、 上記処理対象領域に対する上記撮像手段の位置情報 を検出する位置検出手段と、
上記位置情報を基準にして、 上記撮像手段の位置の変化に対応して上記他の映 像を変化させる映像生成手段と
を具えるこ とを特徴とする画像合成装置。
2 . 上記照明手段は、
上記処理対象領域に所定ピッチで配置された点光源によ り、 上記光源像を形成 する
ことを特徴とする請求の範囲第 1 項に記載の画像合成装置。
3 . 上記照明手段は、
上記処理対象領域に上記光源像を投影する投影手段からなる
こ とを特徴とする請求の範囲第 1 項に記載の画像合成装置。
4 . 上記照明手段は、
上記光源像を所定のパタ ーンで点滅させる又は上記光源像の発光強度を所定パ タ一ンで変化させる
ことを特徴とする請求の範囲第 1 項に記載の画像合成装置。
5 . 上記位置検出手段は、
上記位置情報と して、 上記処理対象領域に対する上記撮像手段の光軸の傾き、 上記光軸が上記処理対象領域と交わる点までの距離及び上記処理対象領域上の基 準点に対する上記撮像手段の座標を検出する ことを特徴とする請求の範囲第 1 項に記載の画像合成装置。
6 . 上記処理対象領域は、
上記撮像手段によって撮像する被写体の背景に設置された背景板からなる ことを特徴とする請求の範囲第 1 項に記載の画像合成装置。
7 . 入力ビデオデータから所定色彩の処理対象領域を撮像してなる領域を検出し 、 上記領域に他の映像を挿入して合成映像を生成する画像合成装置において、 上記人力ビデオデータ を生成する際に、 上記処理対象領域に当該処理対象領域 と同一色彩による複数の光源像を形成する照明手段と、
上記入力ビデオデータから上記処理対象領域を検出し、 当該処理対象領域に形 成された上記複数の光源像のう ち基準となる 4 つの光源像の位置を検出する位置 検出手段と、
上記位置検出手段によって検出された光源像の位置情報に基づいて、 上記処理 対象領域に挿入する背景ソ ースビデオデータを 3次元的に画像変換する画像変換 手段と、
上記画像変換手段によって画像変換された上記背景ソ ースビデオデータ を上記 入力ビデオデータの上記処理対象領域に相当する領域に合成する合成手段と を具えることを特徴とする画像合成装置。
8 . 上記照明手段は、
上記処理対象領域にマ ト リ ク ス状に配置された点光源によ り、 上記光源像を形 成する
こ とを特徴とする請求の範囲第 7項に記載の画像合成装置。
9 . 上記照明手段は、
上記処理対象領域にマ ト リ ク ス状の上記光源像を投影する投影手段からなる こ とを特徴とする請求の範囲第 7項に記載の画像合成装置。
10. 上記照明手段は、
上記光源像を所定のパターンで点滅させる又は上記光源像の発光強度を所定パ タ ー ンで変化させる ことを特徴とする請求の範囲第 7項に記載の画像合成装置。
1 1. 上記位置検出手段は、
上記入力ビデオデータ内に上記基準となる 4 つの光源像が存在しないとき、 検 出された他の光源像の位置情報を基に、 当該基準となる 4 つの光源像の位置情報 を補間演算によって求める
ことを特徴とする請求の範囲第 7項に記載の画像合成装置。
1 2. 上記処理対象領域は、
被写体の背景に設置された背景板からなる
ことを特徴とする請求の範囲第 7項に記載の画像合成装置。
1 3. 上記画像変換手段は、
上記位置検出手段によって検出された位置情報に基づいて、 3次元的な画像変 換を施した上記背景ソ ースビデオデータ を生成するための読出ァ ドレスを演算す るァ ドレス演算手段と、
内部のメ モ リ領域に記憶してある上記背景ソ ース ビデオデータ を上記読出ァ ド レスに基づいて読み出すことによ り、 上記 3次元的な画像変換が施された上記背 景ソ ース ビデオデータを生成する記憶手段と
を具えるこ とを特徴とする請求の範囲第 7項に記載の画像合成装置。
14. 上記ァ ドレス演算手段は、
上記位置検出手段によって検出された上記 4 つの光源像の位置情報に基づいて 、 上記背景ソ ース ビデオデータ を 3次元的に画像変換するための変換行列を算出 し、 当該変換行列の逆行列に基づいて上記読出ァ ド レスを演算する
ことを特徴とする請求の範囲第 1 3項に記載の画像合成装置。
1 5. 上記ァ ドレス演算手段は、
上記位置検出手段によって検出された上記 4つの光源像の表示座標系における 位置情報と、 当該 4 つの光源像の上記処理対象領域上における位置情報とに基づ いて、 上記背景ソ ースビデオデータ を 3次元的に画像変換するための変換行列を 算出し、 当該変換行列の逆行列に基づいて上記読出ァ ド レスを演算する ことを特徴とする請求の範囲第 1 4項に記載の画像合成装置。
16. 上記変換行列は、 次式
T a 2 a 33 a 22 / a a. 23,
a 32 ,
a 1 2
a 2 3 22 '
3 32 ' に示されるよう に、 8 つの変換パラ メ 一夕から構成される 3行 3列の変換行列で ある
ことを特徴とする請求の範囲第 i 5項に記載の画像合成装置。
17. 上記ァ ドレス演算手段は、 i = 1 〜 4 と して、 次式
に示す関係式を利用して、 上記 8 つのパラメ ータ を求める
ことを特徴とする請求の範囲第 1 6項に記載の画像合成装置。 X i · K i Y i · K > K ; ]
= C X ' Y ' i τ a 1 2 3.
( X ' i Y ' , a 2: 3 23
a 3 3 32 但し、 (X i , Y , ) は上記位置検出手段によって検出された上記 4 つの光源 像の表示座標系における位置情報を示し、 ( X ' ■ , Y ' ■ ) は上記 4 つの光源 像の上記処理対象領域上における位置情報を示し、 K , は同次座標系のパラメ 一 タ を示すものである。
1 8. 撮像手段を介して得られるビデオデータ よ り、 所定色彩の処理対象領域を撮 像してなる領域を検出し、 上記領域に他の映像を挿入して合成映像を生成する画 像合成方法において、
上記処理対象領域に、 当該処理対象領域と同一色彩による光源像を形成し、 上記光源像を基準にして、 上記処理対象領域に対する上記撮像手段の位置情報 を検出し、
上記位置情報を基準にして、 上記撮像手段の位置の変化に対応して上記他の映 像を変化させる
こ とを特徴とする画像合成方法。
1 9. 入力ビデオデータから所定色彩の処理対象領域を撮像してなる領域を検出し 、 上記領域に他の映像を挿入して合成映像を生成する画像合成方法において、 上記入力ビデオデータを生成する際に、 上記処理対象領域に当該処理対象領域 と同一色彩による複数の光源像を形成し、
上記入力ビデオデータから上記処理対象領域を検出して、 当該処理対象領域に 形成された上記複数の光源像のう ち基準となる 4つの光源像の位置を検出し、 上記検出された光源像の位置情報に基づいて、 上記処理対象領域に挿入する背 景ソ ース ビデオデータ を 3次元的に画像変換し、
上記画像変換された上記背景ソ ース ビデオデータ を上記入力ビデォデータの上 記処理対象領域に相当する領域に合成する
こ とを特徴とする画像合成方法。
PCT/JP1997/004896 1996-12-26 1997-12-26 Dispositif et procede pour synthese d'images WO1998030029A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP97950431A EP0895429A4 (en) 1996-12-26 1997-12-26 DEVICE AND METHOD FOR SYNTHESIZING IMAGES
KR10-1998-0702733A KR100495191B1 (ko) 1996-12-26 1997-12-26 영상합성기및영상합성방법
US09/051,001 US6104438A (en) 1996-12-26 1997-12-26 Image synthesizer and image synthesizing method for synthesizing according to movement

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP8/346823 1996-12-26
JP34682396 1996-12-26

Publications (1)

Publication Number Publication Date
WO1998030029A1 true WO1998030029A1 (fr) 1998-07-09

Family

ID=18386054

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1997/004896 WO1998030029A1 (fr) 1996-12-26 1997-12-26 Dispositif et procede pour synthese d'images

Country Status (4)

Country Link
US (1) US6104438A (ja)
EP (1) EP0895429A4 (ja)
KR (1) KR100495191B1 (ja)
WO (1) WO1998030029A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10145673A (ja) * 1996-11-12 1998-05-29 Sony Corp ビデオ信号処理装置及びビデオ信号処理方法
JP2008046103A (ja) * 2006-07-19 2008-02-28 Shimatec:Kk 表面検査装置
JP2020081756A (ja) * 2018-11-30 2020-06-04 国立大学法人静岡大学 顔画像処理装置、画像観察システム、及び瞳孔検出システム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6191812B1 (en) * 1997-04-01 2001-02-20 Rt-Set Ltd. Method of providing background patterns for camera tracking
US6211913B1 (en) * 1998-03-23 2001-04-03 Sarnoff Corporation Apparatus and method for removing blank areas from real-time stabilized images by inserting background information
JP3485543B2 (ja) * 1998-06-22 2004-01-13 富士写真フイルム株式会社 撮像装置および方法
JP3241327B2 (ja) * 1998-08-22 2001-12-25 大聖電機有限会社 クロマキーシステム
JP2000090277A (ja) * 1998-09-10 2000-03-31 Hitachi Denshi Ltd 基準背景画像更新方法及び侵入物体検出方法並びに侵入物体検出装置
US6570612B1 (en) * 1998-09-21 2003-05-27 Bank One, Na, As Administrative Agent System and method for color normalization of board images
US6674917B1 (en) * 1998-09-29 2004-01-06 Hitachi, Ltd. Method of synthesizing an image for any light source position and apparatus therefor
US6504625B1 (en) * 1998-12-24 2003-01-07 Champion International Company System and method for print analysis
US7230628B1 (en) * 2000-10-05 2007-06-12 Shutterfly, Inc. Previewing a framed image print
US7177483B2 (en) * 2002-08-29 2007-02-13 Palo Alto Research Center Incorporated. System and method for enhancement of document images
US7675540B2 (en) * 2003-08-19 2010-03-09 Kddi Corporation Concealed regions complementing system of free viewpoint video images
FI20065063A0 (fi) * 2006-01-30 2006-01-30 Visicamet Oy Menetelmä ja mittalaite mitata pinnan siirtymä
US8045060B2 (en) * 2006-10-04 2011-10-25 Hewlett-Packard Development Company, L.P. Asynchronous camera/projector system for video segmentation
FR2913749B1 (fr) * 2007-03-13 2009-04-24 Commissariat Energie Atomique Systeme d'eclairage matriciel, notamment de type scialytique procede de controle d'un tel eclairage et procede d'etalonnage d'une camera equipant un tel systeme
JP4794510B2 (ja) * 2007-07-04 2011-10-19 ソニー株式会社 カメラシステムおよびカメラの取り付け誤差の補正方法
US9055226B2 (en) * 2010-08-31 2015-06-09 Cast Group Of Companies Inc. System and method for controlling fixtures based on tracking data
US9350923B2 (en) 2010-08-31 2016-05-24 Cast Group Of Companies Inc. System and method for tracking
US9605960B2 (en) * 2011-09-23 2017-03-28 Creatz Inc. System and method for photographing moving subject by means of camera, and acquiring actual movement trajectory of subject based on photographed image
KR20130084720A (ko) * 2012-01-18 2013-07-26 삼성전기주식회사 영상 처리 장치 및 방법
US20180020167A1 (en) * 2016-05-10 2018-01-18 Production Resource Group, Llc Multi Background Image Capturing Video System
DE102021106488A1 (de) * 2020-12-23 2022-06-23 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Hintergrund-Wiedergabeeinrichtung, Hintergrundwiedergabesystem, Aufnahmesystem, Kamerasystem, digitale Kamera und Verfahren zum Steuern einer Hintergrund-Wiedergabeeinrichtung
GB202112327D0 (en) * 2021-08-27 2021-10-13 Mo Sys Engineering Ltd Rendering image content

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63271664A (ja) * 1987-03-17 1988-11-09 クォンテル リミテッド 画像処理装置
JPH02199971A (ja) * 1988-09-20 1990-08-08 Quantel Ltd ビデオ処理装置
JPH02292986A (ja) * 1989-05-08 1990-12-04 Nippon Hoso Kyokai <Nhk> 画像合成用キー信号発生方法
JPH02306782A (ja) * 1989-05-22 1990-12-20 Asutoro Design Kk 画像合成装置
JPH0342788Y2 (ja) * 1984-12-26 1991-09-06
JPH05207502A (ja) * 1992-01-29 1993-08-13 Nippon Hoso Kyokai <Nhk> 映像合成システム
WO1994005118A1 (en) 1992-08-12 1994-03-03 British Broadcasting Corporation Derivation of studio camera position and motion from the camera image
JPH06105232A (ja) * 1992-09-24 1994-04-15 Fujita Corp 画像合成装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4200890A (en) * 1977-07-11 1980-04-29 Nippon Electric Company, Ltd. Digital video effects system employing a chroma-key tracking technique
JPS5793788A (en) * 1980-12-03 1982-06-10 Nippon Hoso Kyokai <Nhk> Chroma-key device
JPS5992678A (ja) * 1982-11-19 1984-05-28 Nec Corp キ−信号検出装置
JPH0342788A (ja) * 1989-07-11 1991-02-22 Nec Corp データ収集装置
US5056928A (en) * 1989-09-12 1991-10-15 Snow Brand Milk Products Co., Ltd. Method and apparatus for measuring a change in state of a subject fluid
US5886747A (en) * 1996-02-01 1999-03-23 Rt-Set Prompting guide for chroma keying

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0342788Y2 (ja) * 1984-12-26 1991-09-06
JPS63271664A (ja) * 1987-03-17 1988-11-09 クォンテル リミテッド 画像処理装置
JPH02199971A (ja) * 1988-09-20 1990-08-08 Quantel Ltd ビデオ処理装置
JPH02292986A (ja) * 1989-05-08 1990-12-04 Nippon Hoso Kyokai <Nhk> 画像合成用キー信号発生方法
JPH02306782A (ja) * 1989-05-22 1990-12-20 Asutoro Design Kk 画像合成装置
JPH05207502A (ja) * 1992-01-29 1993-08-13 Nippon Hoso Kyokai <Nhk> 映像合成システム
WO1994005118A1 (en) 1992-08-12 1994-03-03 British Broadcasting Corporation Derivation of studio camera position and motion from the camera image
JPH07500470A (ja) * 1992-08-12 1995-01-12 ブリティッシュ・ブロードキャスティング・コーポレーション カメラ画像からのスタジオカメラ位置及び移動の導出
JPH06105232A (ja) * 1992-09-24 1994-04-15 Fujita Corp 画像合成装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0895429A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10145673A (ja) * 1996-11-12 1998-05-29 Sony Corp ビデオ信号処理装置及びビデオ信号処理方法
JP2008046103A (ja) * 2006-07-19 2008-02-28 Shimatec:Kk 表面検査装置
JP2020081756A (ja) * 2018-11-30 2020-06-04 国立大学法人静岡大学 顔画像処理装置、画像観察システム、及び瞳孔検出システム

Also Published As

Publication number Publication date
US6104438A (en) 2000-08-15
EP0895429A4 (en) 2002-05-02
EP0895429A1 (en) 1999-02-03
KR100495191B1 (ko) 2005-11-21
KR19990064245A (ko) 1999-07-26

Similar Documents

Publication Publication Date Title
WO1998030029A1 (fr) Dispositif et procede pour synthese d&#39;images
JP4153146B2 (ja) カメラアレイの画像制御方法、及びカメラアレイ
US7855752B2 (en) Method and system for producing seamless composite images having non-uniform resolution from a multi-imager system
JP5093053B2 (ja) 電子カメラ
JP4115117B2 (ja) 情報処理装置および方法
US9756277B2 (en) System for filming a video movie
JP2005500721A (ja) Vtvシステム
WO2003036565A2 (en) System and method for obtaining video of multiple moving fixation points within a dynamic scene
JP2000215311A (ja) 仮想視点画像生成方法およびその装置
CN110691175B (zh) 演播室中模拟摄像机运动跟踪的视频处理方法及装置
JPH10155109A (ja) 撮像方法及び装置並びに記憶媒体
KR19980041972A (ko) 비디오 신호 처리 장치 및 비디오 신호 처리 방법
JP3561446B2 (ja) 画像生成方法及びその装置
US9143700B2 (en) Image capturing device for capturing an image at a wide angle and image presentation system
JP2003179800A (ja) 多視点画像生成装置、画像処理装置、および方法、並びにコンピュータ・プログラム
Bartczak et al. Integration of a time-of-flight camera into a mixed reality system for handling dynamic scenes, moving viewpoints and occlusions in real-time
JPH10304244A (ja) 画像処理装置およびその方法
JP2003143477A (ja) 映像合成装置および方法
JP2821042B2 (ja) 画像合成装置
JP3230481B2 (ja) テレビジョン画像の合成方式
JP4006105B2 (ja) 画像処理装置およびその方法
JPH1091790A (ja) 三次元形状抽出方法及び装置並びに記憶媒体
JP2004056742A (ja) バーチャルスタジオ映像生成装置およびその方法ならびにそのプログラム
WO2023189580A1 (ja) 画像処理装置及び画像処理システム
JP3683927B2 (ja) コンピュータ・グラフィック制作システム及びその制御方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 1997950431

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 09051001

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1019980702733

Country of ref document: KR

AK Designated states

Kind code of ref document: A1

Designated state(s): JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FR GB

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1997950431

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1019980702733

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1019980702733

Country of ref document: KR