WO1997018668A1 - Dispositif et procede de traitement d'images - Google Patents

Dispositif et procede de traitement d'images Download PDF

Info

Publication number
WO1997018668A1
WO1997018668A1 PCT/JP1996/003347 JP9603347W WO9718668A1 WO 1997018668 A1 WO1997018668 A1 WO 1997018668A1 JP 9603347 W JP9603347 W JP 9603347W WO 9718668 A1 WO9718668 A1 WO 9718668A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
matrix
side image
target image
dimensional
Prior art date
Application number
PCT/JP1996/003347
Other languages
English (en)
French (fr)
Inventor
Akihiro Takashima
Nobuyuki Minami
Kazuhiro Maruyama
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to JP51874497A priority Critical patent/JP3867295B2/ja
Priority to EP96938471A priority patent/EP0804022B1/en
Priority to DE69620580T priority patent/DE69620580T2/de
Priority to US08/849,970 priority patent/US6021229A/en
Publication of WO1997018668A1 publication Critical patent/WO1997018668A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation

Definitions

  • the present invention relates to an image processing apparatus and an image processing method, and is suitably applied to a case where an image screen projected on a two-dimensional plane is displayed on a three-dimensional surface formed in a three-dimensional space.
  • a special effect device DVE: Digital
  • DVE Digital
  • the “Slab” effect processing that displays an image on the surface of a rectangular parallelepiped formed in a three-dimensional space using this device has been considered.
  • a moving image displayed on a two-dimensional plane is set as a target image (Object), and the target image is displayed as a rectangular target image display surface (SideA) formed in a three-dimensional space.
  • An image as if pasted in () is generated using a special effect device.
  • FIG. 2 shows a method of generating such a stereoscopic 6-plane display image using a single special effect device (DVE).
  • DVE single special effect device
  • a target image (Object) is reproduced using the first video tape recorder (VTR) 6 and transmitted to the special effect device 5.
  • the special effect device 5 performs a matting process in which the reproduced target image (Object) is displayed so as to be stuck on the target image display surface (SideA) of the stereoscopic 6-plane display image, and this is processed by the second video tape recorder.
  • the second video tape recorder 7 consists of the target image (Object) Record the target image display surface (SideA).
  • the video tape on which the target image display surface (SideA) has been recorded in this way is reproduced by the third video tape recorder 8 by the operator and sent to the synthesizing circuit 9. At this time, the operator reproduces an image to be displayed on the side (SideB) of the three-dimensional six-plane display image on the two-dimensional plane using the first video tape recorder 6.
  • the image reproduced by the first videotape recorder 6 is sent to the special effect device E5, where the special effect processing is performed.
  • the image on the two-dimensional plane reproduced by the first video tape recorder 6 is transformed into a shape displayed on the side surface (SideB) of the stereoscopic six-plane display image.
  • the image of such a side surface (SideB) is combined with the target image display surface (SideA) in the combining circuit 9.
  • the operator uses a predetermined operator to adjust the display position so that the target image display surface (SideA) and the side surface (SideB) are in contact with one side.
  • the composite image on the target image display surface (SideA) and side surface (SjdeB) obtained in the composite circuit 9 in this manner is recorded by the second video tape recorder 7.
  • the video tape on which the composite image of the target image display surface (SideA) and the side image (SideB) has been recorded is reproduced by the third video tape recorder 8 by the operator and sent to the compositing circuit 9.
  • the operator reproduces an image to be displayed on the side (SideC) of the three-dimensional six-plane display image on the two-dimensional plane with the first video tape recorder 6.
  • the image reproduced by the first video tape recorder 6 is sent to the special effect device 5 and subjected to special effect processing.
  • the image on the two-dimensional plane reproduced by the first video tape recorder 6 is deformed into a shape to be displayed on the side (SideC) of the stereoscopic six-plane display image.
  • the image of the side surface (SideC) is synthesized in the synthesis circuit 9 with the synthesized image of the target image display surface (SideA) and the side surface (SideB).
  • the operator adjusts the display position so that the target image display surface (SideA) and the side surface (SideB) and the side surface (SideC) are in contact with each other by using a predetermined operator.
  • the stereoscopic 6-plane display image obtained in the synthesis circuit 9 in this way is the second video Recorded on tape recorder 7.
  • the side surfaces (SideB) and (SideC) are generated separately from the target image display surface (SideA) displaying the target image (Object).
  • the image is cropped (Crop), sheared (Skew), and changed in the X, Y direction with respect to the target image display surface (SideA).
  • special effects such as (XY-rate) are changed, the side (SideB) and (SideC) do not follow, and the side (SideB) changes according to the change of the target image display surface (SideA) in the three-dimensional space.
  • Special effects for () and (SideC) also need to be changed.
  • the present invention has been made in view of the above points, and simultaneously performs conversion processing on each surface of a three-dimensional display image to link the respective surfaces with each other to improve operability for giving a special effect. It proposes a possible image processing method.
  • the first image is written into the first memory, and the first image written in the first memory is input from a predetermined control means.
  • First image generation means for generating a target image by performing image conversion processing based on the first control data, and writing the second image to the second memory and writing the second image to the second memory
  • a second image generating means for generating a first side image by subjecting the second pixel to image conversion processing into a shape corresponding to a target image based on second control data input from the control means;
  • the third image is written in the third memory, and the third pixel written in the third memory is formed into a shape corresponding to the target image based on the third control data input from the control means.
  • a third image generating means target image, a first side image and a second side image
  • the target image, the first side image, and the second side image are moved according to the movement of the three-dimensional space, and the three-dimensional space is moved.
  • control means for perspective-transforming the target image, the first side image, and the second side image, which are mapped above, onto a predetermined screen surface.
  • the second and third images are deformed according to the shape of the three-dimensional target image display surface on which the target image is to be mated, and are imaged on the first side surface and the second side surface that are in contact with the target image.
  • the target image, the first side image, and the second side image mapped to each surface of the three-dimensional object in the three-dimensional virtual space move similarly in accordance with the movement of the three-dimensional object in the virtual space.
  • FIG. 1 is a schematic diagram used for explaining a three-dimensional display image.
  • FIG. 2 is a schematic diagram for explaining a conventional stereoscopic image generation method.
  • FIG. 3 is a block diagram showing the overall configuration of the image processing apparatus according to the present invention.
  • Figure 4 is a schematic diagram used to explain the definition of the screen surface.
  • Figure 5 is a schematic diagram and a diagram for explaining the basic three-dimensional movement transformation and perspective transformation.
  • FIG. 6 is a schematic diagram for explaining basic three-dimensional movement transformation and perspective transformation.
  • FIGS. ⁇ A and 7B are schematic diagrams used to explain the basic three-dimensional movement transformation and perspective transformation.
  • Figure 8 is a schematic diagram used to explain the solid (cuboid) at the basic position in the three-dimensional space.
  • FIGS. 9A and 9B are schematic diagrams used to explain the source video signal of the target image.
  • FIG. 9 OA and FIG. 1B are schematic diagrams used to explain the conversion of the target image in the z-axis direction. is there.
  • FIG. 11A and FIG. 11B are schematic diagrams for explaining the deformation of the target image.
  • FIGS. 12A and 12B are schematic diagrams for explaining a source video signal of a first side image.
  • FIGS. 13A and 13B are schematic diagrams used to explain the translation of the source video signal of the first side image.
  • FIGS. 14A and 14B are schematic diagrams used to explain the deformation of the source video signal of the first side image.
  • FIG. 1 ⁇ A is a schematic diagram used to explain the cup priority mode.
  • FIG. 15B is a schematic diagram used to explain the reduction / enlargement ratio priority mode.
  • FIGS. 16A and 16B are schematic diagrams used to explain the conversion of the source video signal of the first side image around the X-axis.
  • FIG. 17A and FIG. 17B are schematic diagrams used to explain the case where the source video signal of the first side image is inclined by an angle ⁇ B with respect to the X axis.
  • FIG. 18A and FIG. 18B are schematic diagrams for explaining the movement for overlapping the source video signal of the first side image on the first side surface of the three-dimensional object.
  • FIGS. 19A and 9B are schematic diagrams for explaining a source video signal of a second side image.
  • FIGS. 20A and 20B are schematic diagrams used to explain the parallel movement of the source video signal of the second side image.
  • FIG. 21A and FIG. 21B are schematic diagrams used to explain the deformation of the source video signal of the second side image.
  • FIG. 22A is a schematic diagram used to explain the cup priority mode.
  • Figure 22 (2) is a schematic diagram used to explain the reduction / enlargement ratio priority mode.
  • FIGS. 23A and 23B are schematic diagrams used to explain the conversion of the source video signal of the second side image around the X axis.
  • Figures 24 4 and 24 4 show the source video signal of the second side image at an angle with respect to the x-axis.
  • FIG. 9 is a schematic diagram used for explanation when tilting by a degree ⁇ c.
  • FIGS. 25A and 25B are schematic diagrams used to explain the movement for superimposing the source video signal of the second side image on the second side surface of the stereoscopic image.
  • FIG. 26 is a flowchart illustrating a procedure 9 for mapping the first source video signal.
  • FIG. 27 is a schematic diagram used for explaining the case where the first source video signal is mated to the three-dimensional target image display surface.
  • FIG. 28 is a schematic diagram used to explain the case where the first source video signal is mapped to the surface facing the three-dimensional target image display surface.
  • FIG. 29 is a flowchart showing a processing procedure for mating the second source video signal.
  • FIG. 30 is a schematic diagram for explaining the case where the second source video signal is mapped to the first side surface of the three-dimensional object.
  • FIG. 31 is a schematic diagram used to explain the case where the second source video signal is mated to the opposing surface of the first side surface of the three-dimensional object.
  • FIG. 32 is a flowchart showing a processing procedure for mating the third source video signal.
  • FIGS. 33A and 33B are schematic diagrams used to explain the horizontal reversal of an image mapped onto a three-dimensional surface.
  • FIGS. 34A and 34B are schematic diagrams used to explain the process of vertically inverting an image mated on a three-dimensional surface.
  • FIG. 35 is a schematic diagram used to explain the inversion processing of an image that is matted on a three-dimensional surface.
  • Fig. 3 shows the image processing device 10 using the special effect device as a whole
  • the command signal input by operating the control panel 56 is given to the CPU 58 via the interface circuit (IZF) 57 and the bus BUS. (Read Only Memory) 59 and RAM (Random Access Memory) 61, the image generation unit for the target image display surface (SideA) of the stereoscopic 6-plane display image 20
  • the image generation unit 30 of the 30 and the second aspect (SideC) is controlled by an operator's command.
  • Image generating unit 2 0 of the object image displaying face inputs the source Subideo signal V 1A before the conversion of the object image (Otuec the click opening-up circuit 2 1.
  • Click-up circuit 2 1, bus BUS the click-up position of the X- Y coordinate system is input from the CPU 5 8 through (C a CC a C AB) cut Soviet Subideo signals V a, the left frame Note Li of state like that does not deform it Store it in FM 2 .
  • the read address generation circuit 25 uses the address (XsYs) data on the monitor screen 55 output from the screen address generation circuit 51 and the CPU. 5 8 generates a read add-less ( ⁇ ⁇ ⁇ ⁇ ) at full les Ichi ⁇ Me mode Li F Micromax 22 based on the data of the parameters b a 1 1 b A33 image transformation matrix specified by off Remume Mo Li FM 22 reads the read address outputted bidet talent stored signals from the read a de-less generation circuits 2 5 (X MA, Y) .
  • the frame memory is stored in FM 24 as it is.
  • Off Remume Mo Li FM 24 reads ⁇ Drain scan generator 2 5 read A de-less output from the ⁇ X MA, Y) by the video signal By reading the signal, a converted signal ⁇ 3 ⁇ converted in the same manner as the converted video signal ⁇ 3 ⁇ is obtained, and this is sent to the mixer 53 together with the converted video signal V3 ⁇ .
  • the cow signal is an image plane formed by the source video signal V composed of a data sequence of “0” or “1”, and the source video signal VIA is cropped or image-converted. At this time, the data of only the portion subjected to the processing is changed.
  • the image generation unit 30 of the first aspect cuts the source video signal V 1B before conversion of the image to be displayed on the first aspect (SideB) of the six-sided display image.
  • Crop circuit 3 1, X is input from the CPU 5 8 via the bus BUS - Y coordinate system crop position of (and C B, C BR, C BT , C BB) to a source Subi de old signal V IB Cut it out and store it in the frame memory FM 32 without deforming it.
  • read ⁇ address generating circuit 35 is disk re N'a dress generating circuit 5 first force, add-less (X s, Y s) of the on the monitor scan click rie down 5 5 which is et output data and CP
  • Remume Mo Li FM 32 reads add-less (X MB, ⁇ ⁇ ) output video signal stored from a read ⁇ address generation circuits 35 read by.
  • the source video signal Va was clipped to the first side (SideB) of the stereoscopic 6-plane display image actually displayed on the monitor screen among the stereoscopic (cuboid) in the virtual stereoscopic space.
  • the source video signal V 1B of the crop in the frame memory F # 32 is image-converted so as to map the portion.
  • the resulting converted video signal V 3B is sent to mixer 52.
  • the image generation unit 30 of the first aspect crops the key signals ⁇ and B by the clipping circuit 33 in the same manner as the source video signals V and B , Store it in the FM 34 .
  • Frame memory FM 34 is read address Read A de-less (X MB, ⁇ ⁇ ) outputted from the raw circuit 35 by reading the video signal by, give conversion Tewi Kazunobu No. kappa 3 [beta], which is converted in the same manner as described above for converting a video signal V 3 [beta], This is sent to the mixer 52 together with the converted video signal V3 ⁇ .
  • the image generation unit 40 of the second aspect clips the source video signals V, c before conversion of the image to be displayed on the second aspect (SideC) of the stereoscopic S-plane display image.
  • Click-up circuit 4 1 click-up position of the X- Y coordinate system is input from the CPU 5 8 via the bus BUS (C cl., C CR , C CT, C c D) Seo Subi de old in Cut off the signal V 1 C and store it in the frame memory 42 without deforming it.
  • Off Remume Mo Li FM "is read add-less (X MC, Y mc) which is output from the read ⁇ de Les onset production circuit 4 5 by reading a video signal by, similarly to the converting the video signal V 3C above conversion
  • the converted converted signal K 3C is obtained and sent to the mixer 53 together with the converted video signal V 3C .
  • the mixer 52 includes a converted video signal V 3B output from the image generating section 30 of the first side (SideB) and a converted video signal output from the image generating section 40 of the second side (SideC).
  • the signal V 3C is combined with the output signal K 3B output from the image generation unit 30 on the first side (SideB) and the image generation unit 40 output on the second side (SideC).
  • the synthesized video signal V BC and the synthesized key signal K BC synthesized so that the first side (SideB) and the second side (S) deC) are in contact with each other. This is sent to the mixer 53.
  • Mixer 5 3 co When synthesizing the synthesized video signal V BC outputted from the conversion-bi de old signal V 3A and mixer 5 2 output from the image generating unit 2 0 of the object image displaying face (SideA), By combining the converted cow signal ⁇ 3 ⁇ output from the image generation section 20 of the target image display surface (SideA) with the synthesized cow signal K BC output from the mixer 52, a synthesized video is obtained. 'Obtain the video signal V and the composite key signal K ABC .
  • the composite video signal V and the composite + -signal K ABC represent a stereoscopic 6-plane display image in which the target image display surface (SideA), the first side surface (SideB), and the second side surface (SideC) are in contact.
  • the composite video signal V AB (: and the composite signal ⁇ ( :) output from the mixer 53 are sent to the output processor 54.
  • the output processor 54 outputs a shadow to the image.
  • the effect of adding a three-dimensional effect (drop shadow effect) and the effect of trailing the moved image (trail effect) are represented by the composite video signal V ABC and composite key signal K ABC; Then, the resulting output video signal V NU T is sent to the monitor screen 55 to display the image.
  • a three-dimensional coordinate system used to generate a stereoscopic six-plane display image and display it on the monitor screen 55 is defined by a rectangular coordinate system of the X axis, the y ⁇ axis, and the z axis. . That is, as shown in FIG. 4, assuming that the screen surface 55A exists on the Xy plane defined by the X axis and the y axis intersecting the X axis, The horizontal (left-right) direction of the surface 55A is defined, and the y-axis is defined as the vertical (up-down) direction of the screen 55A.
  • the depth direction of the screen surface 55 A is defined as the positive direction of the z-axis orthogonal to the xy plane, and the front side of the screen surface 55 A, that is, the screen The side where the viewpoint PZ for viewing the surface exists is defined as the negative direction of the z-axis.
  • the center of the screen surface 55A coincides with the origin 0 of the three-dimensional coordinate system including the X axis, the y axis, and the z ⁇ .
  • Virtual coordinate values that are continuous from the inside (origin) of the screen area to the left and right sides are set on the X axis, and the viewpoint PZ is set on the X axis in the screen area.
  • the virtual coordinate values between “1 4” and “+ 4 — I are set from left to right when looking at the screen surface 55A from t>
  • virtual coordinate values that are continuous from the inside (origin) of the screen area in the vertical and external directions are set on the y-axis.
  • virtual coordinate values from "13" to "+3" are set from the lower side to the upper side.
  • the operator's viewpoint position P Z is virtually set on the z-axis at a position where its coordinate value is “1 16”.
  • the source video signal that forms a two-dimensional plane image is stored in the frame memory as it is without image conversion. Therefore, as shown in FIGS. 5 and 6, the source video signal V exists on the xy plane of the space represented by the three-dimensional coordinates of yz, so that the screen video existing on the xy plane is obtained.
  • FIG. 5 shows the space represented by the three-dimensional coordinate system of X y ⁇ ⁇ when viewed from the positive side of the y-axis, and the source video is displayed on the screen surface 55 A on the X y plane.
  • Signal V overlaps.
  • FIG. 6 shows a state in which the space coordinated by the three-dimensional coordinate system of Xyz is viewed from the viewpoint PZ on the z-axis through the screen surface 55A on the negative side of the z-axis.
  • Seo Subideo signal V t is present in the scan click rie down surface 5 within 5 a of a plane.
  • the source video signal V is subjected to a three-dimensional image conversion process in the X-yz coordinate space by the operator operating the control panel operator.
  • a three-dimensional conversion matrix T consisting of parameters set for each frame to each pixel of the source video signal V, by the operation of the operator, the source video signal V, converting 3-dimensional spatial position indicated by the converted video signal V 2.
  • the three-dimensional conversion in the case of Figs. 5 and 6 is based on the source video signal V! This is an example of the case where is rotated about 45 ° around the y-axis and further translated in the positive direction of the z-axis.
  • 3D transformation matrix T used for 3D transformation. Is the following equation: r 1 r 1 2 r 3 0
  • This 3D transformation matrix T Conversion parameter menu over data r to be used for, and ⁇ r 3 3, elements for source over scan bi de O signal V, and, about the X-axis, is rotated about the y-axis and z-axis, Seo Subideo signal V, are scaled in the X-axis, y-axis, and z-axis directions, respectively, and the source video signal V ′ is skewed in the X-axis direction, y-axis direction, and z-axis direction, respectively.
  • Parameters that include elements for The parameters i y and ⁇ are the source video signal V!
  • Is a parameter including elements for translating the X axis, the y axis, and the z ⁇ direction, respectively, and furthermore, the parameter s is a source video signal V, and the whole is a three-dimensional axis.
  • This is a parameter that includes an element for uniformly expanding and contracting in the direction.
  • the transformation matrix T Is expressed in the same coordinate system as a coordinate system such as a rotation transformation and a target system for a translation transformation and a scaling transformation.Therefore, it is 4 rows and 4 columns. It is called Homogeneous Coordinate.
  • the source video signal V on the screen surface 55 A is a three-dimensional conversion matrix T. Is three-dimensionally converted to the position of the three-dimensionally converted video signal V 2 by this, the three-dimensionally converted video signal V 2 is projected onto the xy plane by a perspective transformation matrix.
  • the perspective transformation when viewed converted bi de O signal V 2 from the virtual viewpoint PZ on the z-axis, the three-dimensional conversion video signal V 2 that is transparent to X y plane it is a transformation for obtaining the image (referred to as a perspective transformation video signal V 3 this).
  • the screen surface 55A on the xy plane is on the opposite side (positive side of the z-axis) of the screen surface 55A from the virtual viewpoint PZ as if it were three-dimensional.
  • perspective transformation matrix P. is Kano such perspective transformation video signal V 3 that by converting the video signal V 2 is the image Generated by This perspective transformation matrix P. Is:
  • This perspective transformation matrix P Parameters of, when seen through the three-dimensional conversion video O signal V 2 on the X y plane, a parsing for Bae Kute I blanking value for applying the perspective. That is, in the case of FIG. 5, the three-dimensional converted video signal V 2 in the three-dimensional space is inclined about 45 ° with respect to the xy plane, and this is viewed from the virtual viewpoint PZ. Then, the part far from the virtual viewpoint Pz looks small, and the part close to it looks large.
  • perspective conversion video signal V 3 is converted to the position of the scan click rie down surfaces 5 5 A is, 3 3 ⁇ 4 the original conversion video signal V virtual viewpoint PZ in 3D empty question Is converted according to the distance from.
  • the basic processing of the three-dimensional conversion includes the spatial image conversion step for obtaining the three-dimensional converted video signal V 2 from the source video signal V, using the three-dimensional conversion matrix T o,
  • the perspective transformation matrix P converts the three-dimensional transformed video signal V 2 obtained by the image transformation step. Composed of the perspective conversion scan Tetsupu be converted to perspective conversion video signal V 3 by. Therefore, the transformation matrix T for obtaining the perspective transformed video signal V 3 from the source video signal V, is a three-dimensional transformation matrix T. And the perspective transformation matrix ⁇ .
  • the image processing apparatus using the special effect device of the present invention writes the two-dimensional source video signal V. supplied from outside into the frame memory F once, and By supplying a read address that has been subjected to a two-dimensional operation to the frame memories ⁇ ′ and ⁇ , the spatial signal conversion desired by the operator for the video signal read from the frame memory F ⁇ is performed. (3D image conversion and perspective image conversion). Therefore full Remume mode Li F Seo Subideo signals V stored in Micromax, and perspective transformation video signal V 3 read from the frame Note Li F Micromax are both a 2-dimensional data, of the read add-less In the calculation, the data in the ⁇ -axis direction in the three-dimensional space is not substantially used.
  • the parameters in the third row and third column 13 for calculating the data in the ⁇ -axis direction of the equation (3) are not required when calculating the read address for the frame memory.
  • T 3 3 3D transformation matrix having an actual two-dimensional para main Ichita required for the operation of reading ⁇ de-less
  • the matrix T 3 3 is, i) 3 row from formulas and 3 The following equation excluding the parameters in the column,
  • the two-dimensional address on the frame memory FM is (X, Y) and the position vector is [XY]
  • the monitor script is over emissions 5 5 on the add-less the (X s, Y s) and the location base click preparative Le and [X S Y s].
  • the two-dimensional position downy click preparative Le on the full Remume mode Li FM [XY] is expressed in the same order coordinate system, vector preparative Le [x m y m H. ⁇ It can be expressed as.
  • Ru can be expressed as vector preparative Honoré [X s y s 1].
  • the parameter "H.” in this homogeneous coordinate system is a parameter representing the vector :: large Z reduction ratio.
  • CX ys 1] (m y m 11 Ru can be represented by oj ⁇ T (5).
  • equation (5) is a relational expression determined by off Remume model matrix T 33 points on Monitasuku rie down 5 5 corresponding to the points on the re-FM.
  • the image processing apparatus using the special effect device stores the source Subideo signal in the state before conversion into frame Note Li F Micromax, monitor scan click rie down 5 obtained by the transformation matrix T 33 By specifying the point of the frame memory F # corresponding to the point 5 above by the read address, spatial image conversion is performed on the source video signal.
  • the monitor screen 55 corresponding to a point on the frame memory F ⁇ is not calculated by the equation (5), which is used to obtain a point on the monitor screen 55. It is necessary to find a point on the frame memory corresponding to a point on clean 55. Therefore, by transforming equation (5),
  • the conversion matrix 33 position vector preparative Le ⁇ X "y m H. on full Remume memory FM] is Starring ⁇ by.
  • the conversion matrix T 3 1 is an inverse matrix of the transformation matrix T 3.
  • W 1 one a 22 3 1 a 1 3 + a 21 a 32 a 13 a 12 a 31 a 23
  • the read addresses (XM, YM) supplied to the frame memory FM are converted to the three-dimensional image determined by the operator's desired spatial image converter.
  • each parameter menu over data transformation matrix T. (r,, ⁇ r 33 , I i and s), ⁇ Hi be represented using Pasupeku tee blanking value P z para main one data to be pre-set Therefore, a screen address (X.s.sq.) corresponding to the equations (6) to (40), corresponding to the last scan order of the monitor screen 55, can be obtained.
  • Y s) are supplied for each pixel, and the read addresses (X M , ⁇ ⁇ ) on the frame memory FM corresponding to the supplied screen addresses are sequentially calculated. can do.
  • the rectangular parallelepiped B 0 X in the three-dimensional virtual space to which the three-dimensionally transformed source video signal is mapped has a center at the origin 0 of the three-dimensional coordinate system as shown in FIG. The position exists as the reference position.
  • This rectangular parallelepiped BOX includes a target image display surface (SideA) on which the three-dimensionally converted source video signal V 1 A (FIG. 3) is mapped, and a surface (SideA ′) opposed to the target image display surface (SideA).
  • the first side (SideB) on which the three-dimensionally converted source video signal V (FIG. 3) is mapped and the side opposite to the first side (SideB), and the three-dimensionally converted source video signal V lc ( FIG. 3) has a second side (SideC) to be mapped and the second side (SideC).
  • the thickness between the target image display surface (SideA) and the opposing surface (S) deA ′) of the rectangular parallelepiped B 0 X, that is, the thickness h with respect to the target image display surface (SideA) is preset by the operator.
  • the target image display surface (SideA) at the reference position is located at a position shifted by a distance h / 2 in the negative direction of the z-axis from the xy plane, and is a surface facing the target image display surface (SideA).
  • (SideA ') is located at a distance hZ2 from the xy plane in the positive direction of the z-axis.
  • the source video signals V IA , and-before the three-dimensional conversion are respectively on the xy plane where the screen surface exists, and are obtained by the conversion matrix ⁇ ⁇ or ⁇ ⁇ ′ described later.
  • the source video signal V is mapped to the target image display Sri (SideA) or its opposite surface (SideA ') according to the reference position, and the source video signal V 1 B is mapped to the rectangular solid B at the reference position.
  • the source video signal V (: is a rectangular parallelepiped at the reference position, which is mated to the first side (SidcB) or the opposite side (SideB ′) of 0X. is mapped to the plane (SideC ').
  • reference parallelepiped B is in position 0 X of each surface Seo Subideo signal V, lambda, the V, and V 1 C is a map Bing
  • cuboid B 0 X is Move from the reference position to an arbitrary position in 3D space by the operation of the operator
  • the above-mentioned three-dimensional transformation matrix T in which each parameter changes according to the movement according to the movement, maps each surface of the rectangular parallelepiped ⁇ 0 ⁇ .
  • the video signal that has been moved moves with the movement of the rectangular parallelepiped B 0 X while maintaining the state of being attached to each surface of the rectangular parallelepiped B 0 X.
  • a desired region is cut out of the source video signal V input to the crop circuit 21 by an operation of an operator.
  • the source signal V is a two-dimensional image which is still located on the xy plane at the time when it is input to the cup circuit 21. That is, in FIG. 9 as viewed in the positive direction of the z-axis three-dimensional coordinate system of X yz from the position of the axis of the viewpoint PZ (A), the left end of the click ⁇ -up position of the source Subideo signal V 1 lambda on the xy plane and C AL and Table 6 represents the right edge of the click "-up position with C AR
  • FIG. 9 (B) shows a state in which the three-dimensional coordinate system of X yz is looked down from the positive direction of y to the negative direction, and the clipped source video signal V "is on the X y plane. Oite X-axis of the coordinate " ⁇ 2" ⁇ and connection exists in the " ⁇ ⁇ " from, there is no three-dimensional thickness of the ⁇ - axis direction.
  • the source video signal V thus cropped in the crop circuit 21 is stored in the frame memory FM 22 which is stored as it is without being transformed into the frame memory FM 22 (FIG. 3).
  • Seo Subideo signal V is the moving matrix L a Therefore, it is translated in the negative direction of z ⁇ by the distance h Z 2.
  • the movement matrices 1, ⁇ are matrices for setting the ⁇ -axis coordinate of the source video signal V 1 ⁇ to 1 h / 2, and
  • the source video signal V ′′ on the X y plane is The translation matrix L A translates- ⁇ / 2 in the direction of ⁇ , resulting in the position (z-axis) where the target image display surface (SideA) of the rectangular parallelepiped BOX (Fig. 8) to be searched is located.
  • the X coordinate ( ⁇ 2 to X i) of the source video signal V 1 A does not change.
  • Figure 1 0 (A) shows a state viewed moving matrix 1.
  • source over scan video No. V 1 lambda which is translated by the lambda from the position of the viewpoint PZ on the z-axis.
  • the coordinates of each vertex of the source video signal V 1 ⁇ have not changed.
  • rate transformation matrix T rate is expressed by the following equation, 0 0
  • the source video signal V 1A in a two-dimensional plane translated in the negative direction of the axis by a distance h / 2 in the positive and negative directions of the X axis and the positive and negative directions of the y axis with respect to the center.
  • Each one is two-dimensionally distorted at the desired skew rate.
  • the skew rate in the X-axis direction in this skew transformation is “s x ”
  • the skew rate in the y-direction is “s y 1”
  • the skew transformation matrix T sl (e dismissis
  • the coordinates of the four points on the two-dimensional plane transformed by the rate -skew transformation matrix T rs are represented by (X, '.y.-), (, and) as shown in FIG. 11 (A).
  • the source video signal V is also mapped to the target image display surface (SideA).
  • the same conversion processing as described above is performed.
  • a source video signal V 1 A input to the cup circuit 21 is cut out of a desired area by an operation of an operator.
  • This source video signal V 1 A Is a two-dimensional image that is still hidden on the xy plane when it is input to the clip circuit 21.
  • the three-dimensional coordinate system of X yz is moved from the position of the z-axis viewpoint PZ to the z-axis 9 as viewed in the positive direction (a), the left edge of the click-up position of the source Subideo signal V 1 a on the xy plane and C AL, expressed as a click.-up position at the right end, the upper end click b the-up position represents a C AT, to represent the cropping position of bottom end and C A13, 4 vertices coordinates of click Lock up has been source over Subideo signal V 1 a includes the above-mentioned (4 1) become.
  • the source video signal V "thus cropped in the crop circuit 21 is stored in the frame memory FM 22 which is stored as it is without being transformed into the frame memory FM 22 (FIG. 3).
  • the source video signal V is that is, depending on the movement matrix L a, it is translated in the positive direction of the z-axis by a distance h / 2 this movement matrix L a -. is the z-axis coordinate of the source Subideo signal V 1 a + h / 2 for the line I. 0 ⁇
  • the source video signal V 1 A on the xy plane is translated by h / 2 in the positive direction of the z-axis by the translation matrix L ′, and as a result, the rectangular parallelepiped BOX (FIG.
  • the target image display surface (SideA) has been moved to the position where the opposite surface (S] deA ') exists (the z-axis coordinate value is 10h / 2).
  • the Soviet Union Subideo signal V, the X-coordinate ( ⁇ 2 ⁇ ⁇ ]) does not change.
  • the source video signal V 1 # translated in this manner is subjected to rate conversion and skew conversion by the rate's Sue conversion matrix T rs .
  • the rate conversion in this case means that the source video signal V 1 A in a two-dimensional plane translated in parallel in the positive direction of z ⁇ by a distance h / 2 is referred to the center of the source video signal V 1 A in the positive and negative directions of X. It expands and contracts two-dimensionally at the desired enlargement / reduction ratio in the positive and negative directions of the y-axis, respectively.
  • This rate transformation matrix T is similar to the above equation (43).
  • the rate-skew transformation matrix T rs which is the decoding transformation matrix of the rate transformation and the skew transformation, is also the same as the above equation ( 45 ).
  • the target image display surface Seo Subideo signal V 1A to-direction surface of the (SideA) (SideA ') Is subjected to the same conversion processing as in the above case of matting.
  • This source video signal V 1 B is a two-dimensional image located on the xy plane when it is input to the crop circuit 31. That is, in FIG.
  • V 1 B the flop position represents a C BL
  • the click ⁇ ⁇ -up position of the right end and C BR and tables represent the click Lock up position of the top and C BT, to represent the click ⁇ -up position of the lower end is C
  • click four vertexes coordinates of ⁇ -up has been Seo
  • V 1 B is, (C 3 R, C BT ), (C BL, C BT), ( and C B, C BB), ( C B K ⁇ C BB ).
  • Figure i 2 (B) shows a state in which the three-dimensional coordinate system of xyz is looked down from the positive direction of the y-axis toward the negative direction 1, and the source video signal V 1 B that has been clipped is in the xy plane.
  • "(" C BI. ": to Wataruconnection exists in BR i no steric thickness of the z-axis direction
  • the source video signal V 1 B thus cropped in the crop circuit 31 is stored as it is in the frame memory FM 32 (FIG. 3) without being transformed.
  • the source video signal V 1 B stored in the frame memory FM 32 is converted into the source video signal V IB of the corresponding clip by the translation matrix L B0 . Is translated so that the center of is located at the origin 0 of the xy plane.
  • This translation matrix L B. Is the four points C B indicated by the cup, and C ⁇ ⁇ C BT , C BB
  • Figure 1 3 (beta) is a three-dimensional coordinate system X y 2 shows a state in which the countercurrent selfish overhead from the positive direction to the & direction of the y-axis, Seo Subideo signal V] B is y plane by the parallel movement matrix L B0 You can see that it is moving up.
  • the enlargement or reduction means that the length of the cropped source video signal V 1 B in the X direction is in contact with the first side surface (SideB) of the target image display surface (SideA) described above with reference to FIG.
  • the source video signal V 1B is enlarged or reduced in the X direction so as to match the length of HB, and the length force in the y direction of the source video signal V, the thickness h of the rectangular parallelepiped B 0 X described above with reference to FIG.
  • the source video signal V IB is enlarged or reduced in the y-axis direction.
  • enlargement / reduction transformation matrix S B is (4 3) enlargement Z reduction ratio of X - axis direction enlargement / reduction ratio 1 r x 'and y-axis direction of the rate transformation matrix T ra te described above for formula I r y ", respectively (5 1) enlargement / 'reduction ratio represented by the formula" r Betakappa "replaced with” r by a ", the following equation,
  • source Subideo signal V IB of click Lock up already in a position where the center overlaps with the origin 0, X-axis Direction and the enlargement Z reduction transformation matrix S B Each is enlarged or reduced around the origin 0 in the y-axis direction.
  • enlarged Z reduction transformation matrix S B by Seo Subideo signal V the conversion of B
  • the source video signal V 1 B is two-dimensionally converted on the xy plane.
  • the operator can directly input the enlargement / reduction ratio r ⁇ and r By and the two ⁇ values C BR and C ⁇ ⁇ ⁇ ⁇ to obtain the desired enlargement / reduction ratio.
  • V ⁇ ⁇ may be clipped . In these three cases, as shown in Fig. 15 ( ⁇ ),
  • the source video signal V ⁇ ⁇ ⁇ expanded or reduced in this way is rotated 90 ° around the X axis by the rotation conversion matrix R ⁇ .
  • This rotation transformation matrix R is a matrix for transforming the source video signal V 1 B on the xy plane to the Xz plane, and the following equation:
  • the source video signal V 1 B on the X y plane of the enlarged Z reduced ⁇ described above with reference to FIG. 14 is a view in which the three-dimensional coordinate system of xyz is viewed from the positive direction of the y axis toward the negative force direction, as shown in FIG. As shown in B), the rotation is transformed on the Xz plane by the rotation transformation matrix R Bx .
  • the first side (SideB) of the rectangular rest B0X (FIG. 8) to be mapped is rotated by 90 ° with respect to the target image display surface (SideA).
  • the source video signal (Fig. 16 (B)) which has been rotationally transformed by the transformation matrix R Bx , is rotationally moved to a position at the same angle: 90 ° with respect to the target image display surface (SideA).
  • FIG. 16 (A) shows the source video signal V 1 B transformed on the X z plane by the rotation transformation matrix R viewed from the position of the viewpoint p Z 3 on z ⁇ .
  • the source video signal V] B has no thickness in the y-axis direction.
  • the X z plane Seo Subideo signal V 1 which has been rotated converted on B (Fig. 1 6) by rotation transformation matrix R Bz, is rotated around the z-axis by a predetermined angle tf B.
  • the rotational transformation matrix R Bz is Seo Subideo signal on X z plane V: a transformation matrix to tilt by a predetermined angle ⁇ respect FIG. 6) the X ⁇ the following equation:
  • the source video signals V and B on the ⁇ ⁇ plane described above with reference to FIG. 16 are obtained by viewing the three-dimensional coordinate system of X y ⁇ ⁇ from the position of the viewpoint ⁇ ⁇ ⁇ ⁇ on the ⁇ axis as shown in FIG.
  • the parameter B of the rotation transformation matrix R Bz is shown in the above figure! 1, the coordinates (X, ', y,'), (Xy) or (Xy), (xy:>) force of the two points of the first source video signal V1A used in Tan y 2 (X))
  • FIG. 17 (B) shows a state in which the source video signal V IB rotated and moved by the rotation transformation matrix K BZ is viewed from the positive direction to the negative direction of the y-axis.
  • the source video signal V 1 B (FIG. 17), which is thus rotationally converted so as to be inclined by the predetermined angle ⁇ ⁇ ⁇ ⁇ with respect to the X axis, is translated along the xy plane by the translation matrix LB.
  • the translation matrix L B is Seo Subideo signal shown in FIG. 1 7 V, the Eta, a transformation matrix that moves so as to overlap the first side of the rectangular parallelepiped BOX (Fig. 8) (SideB).
  • two points (X ", y ') and (x 2', y 2 ' ) is represented by a straight line connecting the and are.
  • Matsubingu the side (SideB) of the source over scan video signal V 1 B shown in FIG. 1 7 Chapter] therefore, coincides with the edge H B by the parallel movement matrix Seo Subideo signal V 1 B Need to be moved.
  • the source video signal V 1 ⁇ ⁇ described above with reference to FIG. 17 is represented by a translation matrix as shown in FIG. 18 ( ⁇ ) when the three-dimensional coordinate system of X y ⁇ ⁇ is viewed from the position of the viewpoint ⁇ 2 on two axes. parallel shift on X y plane to match the sides H B by L B! II), and this maps to the first side (SideB) of the rectangular parallelepiped BOX (Fig. 8).
  • Fig. 18 (B) shows the source video signal V translated by the translation matrix LB. the 1 B, showing a state seen toward the positive direction of the y - axis in the negative direction.
  • the matrix representing the mapping processing is defined as MB, and (5 ⁇ ), ), (53), (54) and (56):
  • the source video signal V 1B is mapped to the first side (SideB) also for the key signal K 1 B input to the image generation unit 30 corresponding to the second source video signal V 1 B.
  • a conversion process similar to that described above is performed.
  • the source video signal V 1 B is translated by the translation matrix L BU so that the center of the cropped source video signal V 1 B is located at the origin 0 on the xy plane.
  • the translation matrix ⁇ 0 is the same as the above equation ( 50 ). Therefore, the source video signals V and ⁇ are moved by the parallel movement matrices 1 and ⁇ 0 so that the center of the source video signals V and ⁇ overlap the origin 0 in the same manner as described above with reference to FIG.
  • the clipped source video signals V and B whose center is at the position overlapping the origin ⁇ are enlarged Z reduction conversion processing As a result, the enlarged area is reduced around the origin ⁇ in the X-axis direction and the y-axis direction.
  • the mapping to the opposing surface (SideB ') is also performed in the same manner as described above with reference to FIG. 15 (A), and the four cup values C BR C H C specified by the operator are used.
  • the scaling ratios r Bx and r By according to the side g and the thickness h of the target image display surface (Side A) are obtained, and the four points (C BL , C BT ), (CC DT ), C BL, C BB), ( C BR, C BB) source over scan bidet is click D-up by; ⁇ region of the signal V 1 B is enlarged or reduced as a whole (this is black-up priority ⁇ ⁇ )
  • V 1 B may be clipped.
  • sea urchin I described above for FIG. 1 5 (B) enlargement / reduction ratio together with a i 2 two crop values C B ( ⁇ , by an input child to C BT, source over Subideo signal V i B
  • the necessary enlarged / reduced image can be obtained by directly cutting out the image of the required area.
  • the source video signals V and B enlarged or reduced in this way are rotated by 90 ° around the X axis by the rotation conversion matrix R.
  • This rotation transformation matrix R Bx is the same as the above equation ( 53 ). Therefore, the source video signal V 1 B on the XY plane that has been enlarged Z ′ and reduced as described above with reference to FIG. I 4, as described above with reference to FIG. It is rotationally transformed on the X z plane by Bx .
  • the opposite surface (SidefT) of the first side surface (SideB) of the rectangular parallelepiped BOX (Fig. 8) to be mapped is at an angle of 90 ° to the target image display surface (SideA). Accordingly, the source video signal (Fig. 16 (B)), which has been rotationally transformed by the rotational transformation matrix K, is rotationally moved to a position at the same angle (90 °) with respect to the target image display surface (SideA). .
  • the X z plane on the rotating converted source Subideo signal V, beta ( Figure 1 6) by rotation transformation matrix R BZ, is caused to Kai ⁇ the z-axis by a predetermined angle ⁇ ? ⁇ .
  • This rotation transformation matrix R is a transformation matrix that inclines the source video signal V 1 ⁇ ⁇ on the X ⁇ plane by a predetermined angle ⁇ ⁇ ⁇ ⁇ with respect to the X axis, and is similar to the above equation (54). You. Therefore, the source video signal V 1 ⁇ ⁇ on the X ⁇ plane described above with reference to FIG. 16 is located at a position inclined at a fixed angle ⁇ with respect to the X axis about the origin ⁇ , as described above with reference to FIG.
  • the rotation is converted.
  • the source video signal V1 ⁇ that is mapped to the target image display surface (SideA) of the rectangular parallelepiped BOX (Fig. 8) is described above with reference to Fig. 11 .
  • the source video signal (Fig. 17 ( ⁇ )) which is rotationally transformed by the rotational transformation matrix R ⁇ , in accordance with the skew transformation as described above, determines the angle (90 °) with respect to the target image and the display surface (SideA). While holding it, it is rotated to the position parallel to the facing lii (Sideir) on the first side (SideB).
  • the parameters of the rotation transformation matrix R Bz " are the coordinate values (X,-, y! ') Of the two points of the first source video signal V 1 ⁇ which are used in FIG. 11 described above. (X 2, ys ′) or (4, yi ′), (, force, etc.) are obtained, and are the same as the above-mentioned formula (55).
  • the source video signal V 1 B (FIG. 17), which is rotationally converted to be inclined by the predetermined angle B with respect to the X axis, is translated along the xy plane by a translation matrix B ′. Is done.
  • the translation matrix L B is moved source over scan video signal V 1 B shown in FIG. 1 7, as S becomes the opposing surfaces of the first side of the rectangular parallelepiped BOX (Fig. 8) (SideB) (SideB ' ) Is a transformation matrix to be performed.
  • the side HD ′ on the opposing surface (SideB) opposite the side G on the first side (SideB) side of the target image display surface (SideA) is two points (X 4 ′).
  • the source video signals V and B on the xy plane shown in Fig. 12 are mapped to the opposing surface (SideB ') of the first side surface (SideB) of the rectangular parallelepiped BOX (Fig. 8). Become.
  • the source video signal V 1 B is also opposed to the key signal K IB input to the image generation unit 30 corresponding to the second source video signal V 1 B on the first side surface (Side B).
  • the same conversion processing as in the above-described case of performing matting on the surface (SideB ") is performed.
  • the source Subide old signal V lc on the xy plane leftmost click opening-up position represents a C CL
  • the right end of the click Lock up position by C CR and tables represent the click opening-up position of the top and C CT, to represent the click ⁇ -up position of the lower end and C CB
  • click ⁇ -up has been Seo Subideo signal V 1 C of /! vertices coordinates can be represented as (C CR, C c C c C CT) C c C CB) C CR, C CB.
  • FIG. 9 (B) is a three-dimensional ⁇ system X yz shows a state in which the countercurrent selfish overhead from the positive direction to the negative direction of the y-axis, click Lock up has been Seo Subideo signal V 1C is X y plane Wataru was connexion exists in "C CR 'from' C C in the above, Seo Subideo signal V lc which is cropped sterically original body is not this way the crop circuit 4 1 in the z-axis direction, off Remume mode
  • the matrix co moves the center of the cropped soft and video signals V and c so that the center is located at the origin 0 on the X plane.
  • the translation matrix L co is calculated from the coordinate positions of the four points C c C CR C c C CB indicated by n
  • FIG. 2 0 (B) is the X yz;] dimensional coordinate system shows a state in which countercurrent selfish overhead from the positive direction to the negative direction of the y-axis, X y the Soviet one Subideo signal V lc is translation matrix cu It turns out that it is moving on the plane.
  • enlargement / reduction transformation matrix S c is an enlarged Z reduction ratio in the X-axis direction of the rate transformation matrix T ra te as described above for formula "r” and enlargement / reduction ratio in the y-axis direction "r y”, respectively ( 6 1) Replaced by the expansion Z reduction ratio “r Cx ” and “r Cy ” 0 0
  • the target system is viewed from the positive direction of the y-axis in the 3 ⁇ 4 direction from the positive direction of the y-axis.
  • V 1 C it is found that the source video signal V 1 C is two-dimensionally converted on the xy plane.
  • the operator 4 Tsunoku Lock up value C CR specified, the C c C CT, and C CB, tailored to the sides [pi c and the thickness h of the object image displaying face (SideA) larger / The reduction ratios r CK and r Cy are determined. As a result, as shown in Fig. 22 (A)
  • the operator directly inputs the enlargement Z reduction ratios r Cx and r and the two cup values C CK and C CB to obtain the source video signal V at the desired enlargement Z reduction ratio.
  • You may cup lc .
  • enlarged / 2 Tsunoku reduction ratio together as 1 [pi-up value C CR, by inputting a C CT, of the Soviet Subideo signal V lc, require The necessary enlarged / reduced image can be obtained by directly cutting out the image of the region to be enlarged.
  • the source video signal V 1 (: expanded or reduced in this way is rotated 90 ° around the X axis by the rotation conversion matrix K Cx .
  • the rotation conversion matrix R is This is a matrix for transforming the source video signals V and c on the plane onto the X plane.
  • the source video signal V lc on the enlarged / reduced X y plane described above with reference to FIG. 21 is obtained by looking down on the three-dimensional coordinate system of X yz from the positive direction of the y axis to the negative direction, as shown in FIG. ), The rotation is transformed on the X z plane by the rotation transformation matrix R C x .
  • the rotation transformation is performed.
  • the source video signal (FIG. 23 (B)) rotated and converted by the matrix K cx is rotated to the same angle (90 °) with respect to the target image display surface (SideA).
  • FIG. 23 (A) shows a state in which the source video signal V 1 C transformed on the X 2 plane by the rotation transformation matrix R C x is viewed from the place 11 of the viewpoint ⁇ ⁇ ⁇ on the ⁇ -axis.
  • the source video signal V lc has no thickness in the y-axis direction.
  • the source video signal V i C (FIG. 23), which has been rotationally transformed on the X z plane in this manner, is rotated by a predetermined angle (? C ) around the z axis by the rotational transformation matrix R C z .
  • the rotation transformation matrix R is a transformation matrix that inclines the source video signal V IC (FIG. 23) on the Xz plane by a predetermined angle c with respect to the X axis.
  • the source video signal V lc on the X z plane described above with reference to FIG. 23 is obtained by converting the three-dimensional coordinate system of X yz from the position of the viewpoint P 7 on the z axis [FIG.
  • the rotation is converted to a position inclined by a predetermined angle c: with respect to the X axis about the origin 0.
  • the source video signal V] mapped to the target image display surface (S) deA of the rectangular parallelepiped BOX (FIG. 8) has been Sue-transformed as described above with reference to FIG. 11, while the rotational transformation matrix R c z by rotating converted Seo Subideo signal (FIG. 2 4 (a)) retained the angle (90 °) with respect to the target image display face (SideA), parallel to the second side (Sidec) To a new position.
  • c of the rotational transform matrix R C2 'lame over data 6 c are the coordinate values of two points of the first source Subideo signal V 1C, which is scan Tewi Yu 1 1 above (X!', ') , (
  • FIG. 24 (B) shows a state where the source video signal V lc rotated and moved by the rotation transformation matrix R Cz is viewed from the positive direction of the y-axis to the negative direction.
  • the source video signal V 1 C (FIG. 24), which has been rotationally transformed so as to be inclined by the predetermined angle c with respect to the X axis, is transformed in the xy plane by a translation matrix L c.
  • the parallel shift ij matrix L c is a source
  • V lc shown in FIG. 2 4 is a conversion matrix that moves so as to overlap the second side of the rectangular parallelepiped BOX (Fig. 8) (SideB).
  • the sides of He second side (Si dec) side of the target image display face (SideA) 2 4 causes the straight line connecting the two points (X, yi ') and (x 4 y 4') Is represented. Therefore, in order to match the source video signal V lc shown in FIG. 2 to the second side surface (SideC), it is necessary to move the source video signal V so as to match a side by a parallel translation matrix c .
  • the source video signal V, c may be translated so that the center of the source video signal V coincides with the intermediate position between the two points ( ⁇ y, ') and (X, y').
  • the transfer matrix L c is given by
  • the source video signal V 1 C described above with reference to FIG. 24 has a translation matrix L c as shown in FIG. 25 (A) when the three-dimensional coordinate system of Xyz is viewed from the position of the viewpoint PZ on the z-axis. Is translated on the X plane so that it coincides with the side He, thereby mapping to the second side (SideC) of the rectangular parallelepiped BOX (Fig. 8)
  • FIG. 25 (B) shows a state in which the source video signal V lc translated by (: is viewed from the positive direction to the negative direction of the y-axis.
  • Mc L co ⁇ S c ⁇ R cx ⁇ R cz L c (67), whereby the source video signal V lc on the X y plane shown in Fig. 19 is the second of the rectangular parallelepiped BO (Fig. 8). It has been mapped to the side (SideC).
  • This source video signal V lc is a two-dimensional image still located on the xy plane at the time of input to the crop circuit 41. That is, in FIG.
  • V is the source video stored in the frame memory FM 42 after being cropped by the clipping circuit 41, which is recorded as it is without being transformed into the frame memory FM 42 (FIG. 3).
  • the signal V] c is translated by the translation matrix L c so that the center of the source video signal V 1 C of the corresponding ⁇ 3 ⁇ 4 is located at the origin 0 of the xy plane. Leo is the same as the above-mentioned equation (60). ), The source video signal V lc is moved by the translation matrix L co so that the center thereof overlaps the origin 0.
  • the source video signal V lc of the cup located at the position where the center is overlapped with the origin 0 is obtained by the enlarged Z reduction conversion matrix S c It is scaled up or down around the origin 0 in the X-axis and y-axis directions, respectively.
  • the operator has specified 4 Tsunoku Lock up value CCK, from C c C CT, and C CB, The enlargement Z reduction ratios r Cx and r Cy according to the side H c and the thickness h of the target image display surface (SideA) are obtained, and four points (CC CT), (C c K , C CT), (CCL, C The area of the source video signal V 1 C cropped by (CB), (C CR , CCB) is enlarged or reduced as a whole (this is called cup priority).
  • the operator directly inputs the enlargement / reduction rates r cx and r Cy and the two cup values C CR and C CB to obtain the source video signal V at the desired enlargement / reduction rate. 1C may be cropped.
  • sea urchin I described above for FIG. 2 2 (B) by both 1 and the enlargement Bruno reduction ratio to an input child 2 Tsunoku-up value C CK C CT, Seo Subideo signal V, of the c
  • the required enlarged / reduced image can be obtained.
  • the enlarged or reduced source Subideo signal V 1C is the rotational transformation matrix R Cx, is rotated 90 ° around the X-axis.
  • This rotation transformation matrix K is similar to the above equation (63). Therefore, the source video signal V 1C on the XY plane that has been enlarged and reduced as described above with reference to FIG. 21 is rotationally transformed on the Xz plane by the rotational transformation matrix as described above with reference to FIG.
  • the opposite side (SideC ') of the second side (SideC) of the rectangular parallelepiped BOX to be mapped (Fig. 8) is
  • the source video signal (Fig. 23 (B)) which has been rotated by the rotation conversion matrix R when it is at an angle of 90 ° with respect to the image display surface (SideA), is the target image display surface (SideA). Is rotated to the same angle (90 °).
  • the source video signal V 1 ( : (FIG. 23)) rotated and converted on the X z plane in this manner is rotated by a predetermined angle around the z-axis by a rotation conversion matrix R.
  • the source video signal V, on the X z plane described above with respect to, is rotationally converted to a position inclined by a predetermined angle (:) with respect to the X axis about the origin 0 as described above with reference to FIG.
  • the parameter e c of the rotation transformation matrix R Cz is represented by the coordinate values (X, ', y,') of the two points of the first source video signal V 1A shoWn in FIG. ), (X, y ') or ( ⁇ 2', y-), (x ', y force), which are the same as in the above equation (65).
  • the source video signal V 1 C (FIG. 24), which has been rotationally transformed so as to be inclined by the predetermined angle c with respect to the X axis, is parallelized along the X y plane by the translation matrix L c —. Be moved.
  • This translation matrix L B is a conversion matrix that moves the source video signal V 1C shown in FIG. 24 so as to overlap the opposing surface (SideC ′) of the second side surface (SideC) of the rectangular parallelepiped BOX (FIG. 8). is there. In this case, in FIG.
  • the side H e ′ on the opposite surface (S] deC ′) opposite to the side He on the second side (Side C) side of the B-like image display surface (Side A) is two
  • the source video signal V shown in FIG. 24 is represented by a straight line connecting points (X 2 , y 2 ′) and (X 3 , y 3 ).
  • the source video signal V 1C is also applied to the key signal K 1 C input to the image generation unit 4 ⁇ ⁇ in correspondence with the third source video signal V lc , and the source video signal V 1C is placed on the opposite surface (Side C) of the second side surface (Side C).
  • the same conversion processing as the above-mentioned platform that mates to SideC is performed.
  • the image generation unit 20 of the image processing apparatus 10 converts the above-described transformation matrix ⁇ (Equation (3)) and the source video signal into a target image display surface (FIG. 8) of a rectangular parallelepiped ⁇ X X (FIG. 8).
  • transformation matrix
  • F target image display surface
  • the image of the source video signal V 1 ⁇ ⁇ ⁇ appears on the screen as if it had been mapped to the target image display surface (SnieA) of the three rectangular bodies B 0 X moved to the desired position g in the original virtual space Perform the conversion.
  • the image processing apparatus 10 first uses the CPU 58 and the marking memory (R ⁇ 59, RA ⁇ 61) to execute step SP 1 first. Then, the matrix M A for massaging the first source video signal V ⁇ ⁇ onto the target image display surface (SideA) is, as described above with respect to equation (47), the ⁇ 3 ⁇ 4 matrix L A ((2 ) And the rate -skew transformation matrix T rs (Equation (5)). Seo Subideo signal V on X y plane by the matrix M A, lambda, as shown in FIG.
  • step SP 2 the image processing device ⁇ 10 moves to step SP 2 and places the source video signal V ′′ on the two-dimensional plane at a desired position in the three-dimensional coordinate system.
  • the three-dimensional transformation matrix To (Equation (1)) which is the basic step of the spatial image transformation to be transformed, is obtained, and the process proceeds to the next step SP3, where the three-dimensional transformation matrix T (,
  • the perspective transformation matrix ⁇ which is the basic step of perspective transformation for perspectiveing the source video signal V 2 ⁇ moved on the three-dimensional space on the screen surface, is obtained by (Equation (2)). Therefore cuboid B 0 shown in FIG.
  • video signal V iota Alpha ⁇ is (target image display surface (SideA) of by connexion Matsubingu matrix Micromax lambda on. 2, the desired position anonymous in a three-dimensional space
  • the moved rectangular parallelepiped ⁇ 0 X ′ is moved (V 2A ) to the target image display surface (SideA) by the three-dimensional transformation matrix T.
  • the video signal V 2 ⁇ ⁇ transformed by the three-dimensional transformation is also provided. Is further perspective-transformed onto the screen plane on the xy plane (perspective transformed video signal V 3A ).
  • P. the image processing instrumentation ⁇ 1 0 proceeds to step SP 4, the purpose of the three-dimensional space Seo Subideo signal V, lambda the ⁇
  • Step SP6 is a step for determining whether or not the value of the determinant D A33 of the transformation matrix ⁇ ⁇ 33 is positive.
  • the target image of the cuboid B 0 X ′ in FIG. 27. represents the surface FR 0 NT 3D conversion video signal V 2A which is Matsubingu the display surface (SideA) is in a state of facing the outside of the rectangular parallelepiped B 0 X ', the image processing apparatus 1 0 in this case Obtains an affirmative result in step SP6, and proceeds to step SP7 to convert the frame memory FM based on the conversion matrix T A3 :, which indicates the conversion to the target image display surface (SideA).
  • the parameters b to b A33 for obtaining the read addresses X MA and Y MA are obtained based on the above-mentioned equations (28) to (36).
  • the parameter b A 1 obtained in this way! ⁇ B A33 Based on the above (1 3) and (1 4) read from the equation A de Les X ⁇ , seeking ⁇ ⁇ , the read ⁇ address X ⁇ , Seo in full Remume mode Li FM 2 by Upsilon
  • the source video signal V is mapped onto the target image display surface (SideA) of the rectangular parallelepiped B 0 X ′ moved in the three-dimensional space in FIG.
  • Perspective transformation can be performed on the screen plane on the y-plane.
  • Perspective transformation video signal V 3A is read from off Remume mode Li FM 22 and thus.
  • step SP 6 if a negative result is obtained in step SP 6 described above, this indicates that the value of the determinant D A33 of the transformation matrix ⁇ ⁇ 33 is negative. It can be seen that this condition does not hold from the above equation (71). That is, the video signal that has been moved and transformed by the transformation matrix T faces the inside on the target image display surface (SideA) of the rectangular parallelepiped BOX ′ that has been moved to the desired position on the three-dimensional space.
  • the target image display surface (SideA) of the rectangular parallelepiped B0X in the three-dimensional space is, as shown in FIG. 27, smaller than the surface (SideA ′) opposite to the target image display surface (SideA).
  • the surface (SideA ′) opposite to the target image display surface (SideA) is located on the viewpoint PZ side as shown in FIG. 28, not on the viewpoint PZ side.
  • the straight body j in the three-dimensional space j B 0 X ' is powerfully rotated at an angle of 45 ° with respect to the X y plane
  • Fig. 28 it is 3
  • the rectangular parallelepiped BOX in the dimensional space rotates at an angle of 225 ° with respect to the force ⁇ X y plane.
  • step S ⁇ 6 in FIG. 26 the image processing device i 0 proceeds to step SP 8 and converts the first source video signal V ; ⁇ into the target image display surface (SideA).
  • step S ⁇ 9 the image processing concealment 10 proceeds to step S ⁇ 9 and step S ⁇ 10 in steps S ⁇ 2 and 3D transformation matrix T as in step SP2.
  • Equation (1) the perspective transformation matrix ⁇ ⁇ (Equation (2)) are obtained.
  • the video signal V ′ mapped on the opposite surface (SideA ′) of the target image display surface (SideA) of the rectangular solid ⁇ 0X in FIG. 28 is transferred to the desired position g of the three-dimensional space h.
  • a 3D transformation matrix T is placed on the opposite surface (SideA ') of the target image display surface (SideA) of the rectangular parallelepiped B0X'. Will be moved (V 2A ').
  • the video signal V 2A ′ subjected to the three-dimensional movement conversion is further perspective-transformed on the screen plane on the xy plane (perspective transformed video signal V 3A ′).
  • the source video signal V is applied to the surface (SideA ') opposite to the target image display surface (SideA).
  • Transformation matrix M A for mapping A and transformation to desired position in 3D space
  • Matsubingu image processing apparatus 1 0 is shifted to Step SP 1 1, a source over scan video signal V 1 lambda on the opposing surface of the object image display surface of the three-dimensional space (SideA) (SifkA ')
  • a transformation matrix ⁇ ⁇ — which performs a perspective transformation on the screen plane is expressed by the following equation:
  • the source video signal V 1 ⁇ stored in the frame memory FM 22 and the perspective transformation video read out from the frame memory FM 22 are used. Both signals V 3A are two-dimensional data, and in the calculation of the read address, data in the z ⁇ direction on the three-dimensional space is not substantially used.
  • the (7 2) of the transformation matrix z - axis direction of the data line 3 and the third column of the parameters for calculating, when calculating the read ⁇ address for off Remume mode Li FM 22 Is not required.
  • the matrix T A33 ′ obtained by removing the parameters in the third row and third column from the transformation matrix T A ′ in equation ( 72) is necessary for performing the actual two-dimensional read address. It is assumed that the transformation matrix has parameters. / 9/7 When the 3-by-3 transformation matrix T A33 ′ is obtained in this manner, the image processing device 1
  • Step SP 13 is a step for determining whether or not the value of the determinant DA ⁇ 'is negative.If a positive result is obtained here, this is translated by the transformation matrix T A 3 3 '.
  • step S ⁇ 13 in FIG. 26 if a negative result is obtained in step S ⁇ 13 in FIG. 26, this means that, for example, in FIGS. 27 and 28, the rectangular solid ⁇ 0 X on the three-dimensional space At 90 °, indicating that neither the target image display surface (SideA) nor the opposite surface (SideA ′) can be seen from the viewpoint PZ.
  • the image processing device I 0 without supplying path lame Ichita b a 1 1 ⁇ b A33 to the read add-less generation circuit 2 5 CPU 5 8, controlled in a state that does not read the perspective conversion video signal V from the full Remumemo Li F Micromax 22 .
  • the source video signal input to the image generation unit 20 is converted into the target image display surface (SideA) of the rectangular parallelepiped B 0 X ′ in the three-dimensional virtual space or the opposite surface (SideA). ] (JeA '), and the mapped image in the three-dimensional space is perspective-transformed into a two-dimensional screen as if it were in the three-dimensional space.
  • the image generation unit 30 of the image processing apparatus 10 converts the above-mentioned transformation matrix ⁇ (Equation (3)) and the source video signal into a first side (FIG. 8) of a rectangular parallelepiped ⁇ 0 X (FIG. 8). SideB)
  • This processing procedure is as shown in Fig. 29. 0 uses the CPU 58 and the peaking memory (R ⁇ M 59, RAM 61) to first convert the first source video signal V 1 B into the first in step SP 21.
  • the matrix MB for mapping to the side surface (Si (kB) is expressed by the translation matrix L BO (equation (50)) and the enlarged Z reduction transformation matrix S B ((5 2 ) below), the rotational transformation matrix R Bx ((5 3) below), determined using the predetermined angle inclined transformation matrix R Bz, and translation matrix ((5 6)).
  • the upper source video signal V 1 B is, as shown in FIG. 30, the first side surface (SideB) of the rectangular parallelepiped B 0 X at the reference position (the position where the center overlaps the origin 0) of the three-dimensional coordinate system of Xyz. ) (V 1 B — 2 ).
  • step SP 22 converts the source video signal V 1 B on the two-dimensional plane to a desired position in the three-dimensional coordinate system.
  • 3D transformation matrix is the basic step of the spatial image transformation to convert to. (Equation (1)) is obtained, and the process proceeds to the following step SP 23, where The 3D transformation matrix found at P 2 2.
  • 3D empty question on the source Subideo signal V 2B moved perspectively onto disk re Ichin surface perspective transformation of the basic Sutezzo der Ru perspective transformation matrix P. by (Equation (2)) is obtained.
  • Figure 3 0 shows a rectangular parallelepiped B 0 X first side (SideB) on the matrix M u by Matsubingu video signal V
  • Beta 2 is a straight rectangular parallelepiped which has moved to a desired position on the 3-dimensional space
  • the video signal V 2B subjected to the three-dimensional movement conversion is further perspective-transformed on the screen surface on the xy plane (perspective-transformed video signal V 3B ).
  • the scan click rie down converts the desired position on the three-dimensional air-Q - perspective on basically image transformation matrix is T u and [rho.
  • the image processing apparatus] 0 moves to step S S24, maps the source video signal V1 ⁇ to the first side surface ( SideB) in the three-dimensional space, and then executes the script.
  • the source video signal V, and the frame memory stored in the frame memory i ′′ 32 are stored.
  • Respective perspective-transformed video signals V3 ⁇ read from FM 32 are two-dimensional data, and in the calculation of the read address , data in the z-axis direction on the three-dimensional space is substantially used. Not done. Therefore, (7 3) in equation transformation matrix, z-axis direction of the data line 3 and the third column of the parameters for calculating, at the time of calculating the read add-less for off Remume mode Li FM 32 Is not required.
  • a matrix T B33 obtained by removing the parameters in the third row and the third column from the transformation matrix T B in equation ( 73) is used to calculate the parameters required for the operation of the actual two-dimensional read address. It is assumed that the transformation matrix has
  • Step SP26 is a step of determining whether or not the value of the determinant DB33 of the transformation matrix TB33 is positive.If a positive result is obtained here, this means that step SP6 in FIG.
  • the video signal moved and transformed by the transformation matrix T B3 faces the outside on the first side surface (SideB) of the rectangular parallelepiped BOX ′ moved to a desired position in the three-dimensional space.
  • the surface FRONT of the three-dimensional converted video signal V 2B mapped to the first side surface (SideB) of the rectangular parallelepiped BOX-in FIG. 28 is facing the outside of the rectangular parallelepiped B 0 X ′.
  • the image processing concealment 10 is a step SP
  • the read addresses X MB and Y MB are obtained from the above equations (13) and (14) based on the parameters b b 1 , to b B33 thus obtained, and the read addresses are obtained.
  • the rectangular parallelepiped B 0 moved to the three-dimensional space in FIG.
  • the source video signal V 1 B can be masked on the first side surface (SideB) of X ′, and can be perspective-transformed to the screen surface on the xy plane.
  • step SP 26 if a negative result is obtained in step SP 26 described above, this means that, in the same manner as described above for step SP 6 in FIG. A state in which the first side (SideB) of the rectangular parallelepiped B ⁇ X 'moved to a desired position in the three-dimensional space faces the inside, that is, the first side of the rectangular parallelepiped B0X in FIG. surface FR 0 NT 3D conversion video signal V 2B which is pine Bing (SideB) is oriented outside of the rectangular parallelepiped B 0 X ' This indicates that the vehicle is facing the opposite direction (inward of the rectangular parallelepiped B 0 X).
  • the surface FRONT of the three-dimensional converted video signal V 2 B obtained by three-dimensionally converting the source video signal V 1 B is located on the opposing surface (SidelT) inside the rectangular parallelepiped B 0 X ′, that is, on the z-axis. It is mapped to face the positive direction.
  • a second source Subideo signal V 1 B proceeds to step SP 2 8 first side surface (SideB facing surface (SideB ') matrix M B for mapping the' a), as described above for (5 9), translation matrix L B. ((5 (!) Type), ⁇ Z reduction conversion Gyo ⁇ Ri S B ((5 2) type), the rotational transformation matrix ⁇ ⁇ ((5 3) expression), the transformation matrix R B tilting by a predetermined angle P B z, and the translation matrix L n (Equation (58))
  • the source video signal V 1 B on the X y plane is obtained by this matrix M B ′ as shown in FIG. In the three-dimensional coordinate system, the first side surface (SideB) of the rectangular parallelepiped B 0 X is opposed to the side surface (SideB) (V 1 B ).
  • step SP 28 of FIG. 29 the image processing apparatus 10 executes step 3 in step SP 29 and step SP 3 [) in the same manner as step SP 22 and step SP 23 described above.
  • Dimensional transformation matrix T. (Equation (1))
  • the perspective transformation matrix ⁇ . (Equation (2)) is obtained.
  • the video signal V, ⁇ -2 mapped on the opposing surface (SideB ′) of the first side surface (SideB) of the rectangular parallelepiped ⁇ 0X in FIG. 3 moves to a desired position in the three-dimensional space.
  • [S Cube BOX — A 3D transformation matrix on the opposite side (SideB ') of the first side (SicleB) of. Will be moved by (V 2 ⁇ ').
  • the video signal V 2 ⁇ subjected to the three-dimensional movement conversion is further perspective-transformed onto a screen plane on the xy plane (perspective-transformed video signal V 3B ′).
  • Scan click converts Thus facing surface (SideB ') of the first side (SideB) and the Soviet Subideo signal V, the transformation matrix M B for Matsubingu the B', to a desired position on the 3-dimensional space Basic image transformation matrix to be seen on the lean surface.
  • P. the image processing apparatus 1 0 proceeds to step SP 3 1, was mapping the source Subideo signal V 1 B on the opposed surface of the first side of the three-dimensional air-Q (SideB) (SideB ') Later, this
  • the transformation matrix 3 T B ′ for performing perspective transformation on the screen surface is
  • T B ' MB'-To ⁇ P. ...... (7 4)
  • perspective transformation video signal read from the source video signal V 1 B and full Remume mode Li FM 32 to be stored in the off Remume mode Li FM 32 V 3B are both two-dimensional data, and in the calculation of the read address, the data in the z-axis direction on the three-dimensional space is not substantially used. Therefore, in the transformation matrix of equation (74), the parameters in the third row and third column for calculating the data in the z sleeve direction calculate the read address for the frame memory FM 32. Not required when doing so.
  • Step SP 3 3 is a step for determining whether or not the value of the determinant D BW ′ is negative.
  • the video signal moved and converted by the matrix T B 33 ′ is moved to the desired position on the three-dimensional space by the inner surface of the rectangular parallelepiped ⁇ 0 X ′ that faces the I side (Side B). In other words, in FIG.
  • step SP34 in which the opposite side of the first side surface (SideB) transformation matrix T represents the conversion of (SideB ') B33 -. on the basis, the read address X MB to full les Mume mode Li FM, the parameters b B 1 ⁇ b B33 to determine the Upsilon Myubeta above It is obtained based on the equations (28) to (36).
  • the parameter b B l obtained in this way! ⁇ B B33 Based on the above (1 3) and (1 4) read add-less X MB from the equation, obtains the Y MB, the read add-less X ⁇ , ⁇ off by Myubeta Remume mode Li FM 32
  • the source video signal V 1 B is transferred to the opposite side (SideB ′) of the first side (SideB) of the rectangular parallelepiped BOX ′ moved to the three-dimensional space in FIG. 31.
  • mapping V> B it can be perspective-transformed into a screen plane on the xy plane.
  • the perspective transformed video signal V 3B ′ is read from the frame memory FM 32 .
  • step SP 33 in FIG. 29 if a negative result is obtained in step SP 33 in FIG. 29, this means that, for example, in FIGS. 30 and 31, the rectangular parallelepiped BOX ′ in the three-dimensional space is rotated with respect to the y plane. From the viewpoint PZ, neither the first side surface (S: deB) nor the opposite side surface (SideB ′) can be seen. At this time, the image processing device 10 reads out from the CPU 58 parameters Ichita b B against ⁇ de-less generation circuit 35, without Kyoawase a ⁇ b B33, controls the state not issue read perspective transformation video signal V 3B from off Remumemo Li FM 32.
  • the source video signal V IB input to the image generation unit 30 is converted into the first side surface B of the rectangular parallelepiped B 0 X— in the three-dimensional virtual space or the opposite surface ( SideB '), and the screened three-dimensional image in the two-dimensional plane as if it were in the three-dimensional space. Is perspective-transformed on the screen.
  • the 0 image generation unit 40 maps the above-mentioned transformation matrix T (Equation (3)) and the source video signal to the second side surface (SideC) of the rectangular parallelepiped B0X (FIG. 8) on the three-dimensional coordinate system.
  • T transformation matrix
  • SideC second side surface of the rectangular parallelepiped B0X
  • S Performs a conversion that looks on the screen as if the images of the video signals V and c were mapped.
  • Equation (60) scaling transformation matrix S c (Equation ( 62 )), rotation transformation matrix R Cx (Equation ( 63 )), transformation matrix R inclined by a predetermined angle ⁇ c, and translation matrix Then, it is obtained using c (Equation (66)).
  • the source video signal V lc on the X y plane is plotted on the second side (Side C) of the rectangular parallelepiped BOX at the reference position of the three-dimensional coordinate system of X yz (where the center overlaps the origin ⁇ ). (V 1 C - 2 )
  • step SP42 converts the source video signal V on the two-dimensional plane to a desired position in the three-dimensional coordinate system.
  • 3D transformation matrix T which is the basic step of spatial image transformation.
  • Equation (1) is obtained, and the process proceeds to the subsequent step SP43, where the three-dimensional transformation matrix T obtained in step SP42 is obtained.
  • a perspective transformation matrix ⁇ ⁇ which is a basic step of perspective transformation for perspectiveing a source video signal V 2C moved on a three-dimensional space on a screen surface by the above. (Equation (2)) is obtained.
  • image '' elephant processing apparatus 1 () is proceeds to step SP 4 4, 3-dimensional air-query the source Subideo signal V lc After mapping onto the second side surface (SideC) above, a transformation matrix Tc that perspective-transforms this onto the screen surface is expressed by the following equation:
  • the image processing apparatus 1 Y is read from the source Subideo signal V, c and off Remume mode Li F Micromax 42 stored in the off Remume mode Li F Micromax 42 fluoroscopy
  • Both converted video signals V 3C are two-dimensional data, and in the calculation of the read address, the data in the z-axis direction on the three-dimensional space is not substantially used. Therefore, in the transformation matrix of equation (75), the parameters in the third row and third column for calculating the data in the z ⁇ direction are used when calculating the read address for the frame memory FM42. Is not required.
  • the matrix T C33 obtained by removing the third row and third column ⁇ ⁇ parameters from the transformation matrix T c of the equation (75) is converted into the parameters required for the actual two-dimensional read address calculation. It is assumed that the transformation matrix is provided.
  • Step SP 4 is a step for determining whether or not ⁇ of the determinant De of the transformation matrix T C33 is positive. If a positive result is obtained here, this means that step SP 6 in FIG.
  • the image processor 1 0 proceeds to step SP 4 7, based on the transformation matrix T c33 representing the conversion to the second side (Sidec), read address X MC to full Remume mode Li FM 42, a Y MC
  • the parameter to be obtained, b c33, is obtained based on the above equations ( 28 ) to ( 36 ).
  • step SP 4 6 If a negative result in step SP 4 6 above contrast is obtained, and Conoco in the same manner as described above for step SP 6 in FIG. 2 6, move transformed video signal by the transformation matrix T C3 3 Is facing the inside on the second side ffi (SideC) of the rectangular parallelepiped BOX 'moved to the desired position in the three-dimensional space, that is, on the second side (SideC) of the rectangular parallelepiped BOX'
  • the surface FR 0 NT of the mapped 3D transformed video signal V 2C faces in the opposite direction (inside of the rectangular parallelepiped B 0 X ') from the state in which the surface FR 0 NT faces outward of the rectangular parallelepiped B 0 X' Indicates that it is in a state.
  • step SP 46 in FIG. 32 the image processing apparatus 10 proceeds to step SP 48 and converts the third source video signals V, c into the second side (SideC facing surface (Sidec) matrix M c 'for mapping the in), as described above for (6 9), translation matrix L c. ((6 0) type), enlargement / reduction transformation matrix S c ((6 2) below), the rotational transformation matrix R ((6 3) below), the predetermined angle c by tilting transformation matrix R c z, and parallel Utsuri ⁇ The matrix is obtained using c (Equation (68)).
  • the matrix M c ′ causes the source video signal V on the xy plane to be mapped to the opposite surface (SideC) of the second side (SideC) of the rectangular parallelepiped B 0 X in the three-dimensional coordinate system of xyz. Becomes (V,.
  • step SF48 the image processing apparatus 10 performs three-dimensional processing in step SP49 and step SP50 in the same manner as in step SP42 and step SP43 described above. Transformation matrix T. (Equation (2)) and the perspective transformation matrix ⁇ (Equation (2)) are obtained.
  • the conversion matrix M c ′ for mapping the source video signal V] c on the opposite surface (Side C ′) of the second side surface (Side C) is converted to a desired position in the three-dimensional space, and the script is converted.
  • Basic image transformation matrix T to be seen on the image plane.
  • the image processing apparatus 10 moves to step S ⁇ 51 and maps the source video signal V 1C to the opposite surface (SideC ′) of the second side surface (SideC) in the three-dimensional space. , this Is transformed into a perspective transformation on the screen plane by the following equation:
  • the matrix T C33 ′ obtained by removing the parameters in the third row and the third column from the transformation matrix T H ′ in equation (76) is converted into the parameters necessary for the operation of the actual two-dimensional read address. It is assumed that the transformation matrix has metadata.
  • Step SP53 is a step for determining whether or not the value of the determinant D C33 'is negative.If a positive result is obtained here, this is translated by the transformation matrix T C33 '.
  • the video signal is directed to the inside on the opposite side (SideC-) of the second side surface (SideC) of the rectangular parallelepiped BOX ′ moved to a desired position in the three-dimensional space, that is, the first rectangular parallelepiped BOX It is confirmed that the surface FR 0 NT of the three-dimensional converted video signal V 2C ′ that is mapped to the opposite surface (Side C ′) of the side surface (Side C) faces the inside of the rectangular parallelepiped B 0 X ′.
  • the image processing apparatus 10 moves to step SP54, and based on the transformation matrix T C33 ′ representing the transformation of the second side surface (SideC) to the facing surface (SideC—), mode read a de-less X MC from re FM, on the parameter I) C l ⁇ b for obtaining the Y It is determined based on the above-mentioned equations (28) to (36).
  • step SP53 in Fig. 32 if a negative result is obtained in step SP53 in Fig. 32, this means that, for example, the rectangular parallelepiped B ⁇ X 'in the three-dimensional space is not rotated with respect to the Xy plane, and from the viewpoint PZ This indicates that neither the second side (SideC) nor the opposite side (SideC ′) can be seen.
  • the image processing apparatus 10 reads the address from the CP: J58 and generates an address generation circuit. For 35, control is made so that the parameters b C 1 and b are not lined up and the perspective conversion video signal V is not read from the frame memory FM.
  • the source video signal V 1 C input to the image generation unit 30 is converted into the second side (SideC) or the second side (SideC) of the rectangular parallelepiped B 0 X— in the three-dimensional virtual space.
  • the opposing surface (SideC ') is mapped, and the mapped image in the three-dimensional space is perspective-transformed into a two-dimensional screen as if it were in the three-dimensional space.
  • the operator operates a three-dimensional pointer device provided on the control panel 56 to read out the read address used in the image processing apparatus of the present invention.
  • the parameters necessary for the calculation of the read address are the clip positions of the source video signals V 1 A , V IB and V lc and the target image display surface of the rectangular parallelepiped B 0).
  • the CPU 58 of the image processing apparatus 10 receives these parameters manually input from the control ⁇ -panel panel 56 and reflects the parameters in the real-time to the calculation of the read address. More specifically, the CPU 58 monitors a change in the parameter supplied from the control ⁇ -channel panel 56 at a frame cycle, and reads the address based on the supplied parameter. Parameter for calculating!
  • these parameters can be varied in real time at the frame cycle in accordance with the operation of the operator, and the readout address can be read out in real time according to the varied parameters. Is calculated.
  • the operator operates the three-dimensional pointing device or the like provided on the control panel 56 so that the source video signals V 1 A , V IB and V lc can be three-dimensionally manipulated.
  • the CPU 58 When a three-dimensional image conversion is instructed by the operator, the CPU 58 generates a three-dimensional conversion matrix T specified by the operator.
  • Each parameter is! ⁇ , ⁇ ! ", H, ii, z, and s are ⁇ -Lupane
  • these parameters are read out in real time and reflected in the address calculation.
  • the CPU 58 monitors the change of these parameters at a frame cycle, and calculates a read address based on the supplied parameters. b 3 1 c 3 Calculation is performed at the frame cycle.
  • the CPU 58 receives the received parameters r,, ⁇ r, ix,! Based on 3 y ⁇ z and s, each parameter of the three-dimensional transformation matrix T n — ′ is calculated, and the read addresses X MA , YXYX ⁇ Y are calculated.
  • the size of the rectangular parallelepiped B 0 X existing in the virtual space of the three-dimensional target system of X yz is calculated as shown in FIG. )
  • the length of the side H B on the first side (SideB) side, the target image The length of the side H B 'on the side (SideB') opposite the first side (SideB) of the display surface (SideA) , Target image display surface (Side The length of the side He on the second side (SideC) side of A), and the length of the side He 'on the side (SideC') facing the second side (SideC) of the target image display surface (SidcA).
  • the source video signal V] B mapped to the first side surface (Side B) that is in contact with the target image display surface (Side A) via the side H is determined by the parameters of the enlargement / reduction matrix S. converted sized to match the length of the B, also maps to side H B relative to the target image display face (SideA) 'contact through the opposing surfaces of the first side (Sid eB')
  • the source video signal V 1 B to be converted is converted into a size that matches the length of the side H B ′ by the parameter r Bx of the enlargement / reduction matrix S B.
  • the source video signal V, c mapped to the second side surface (SideC) that is in contact with the target image display surface (SideA) via the side He is determined by the parameter r of the scaling matrix Sc. It is converted to a size that matches the length of He, and the surface facing the second side (SideC-) that contacts the target image display surface (SideA) via the side He '.
  • Seo Subideo signal V to be mapped is converted sized to match the length of the side H e by parameter r Cx of the magnification / reduction matrix S c.
  • the thickness h between the target image display surface (SideA) and the opposing surface (SideA ') is specified by an operator's operation.
  • the source video signal V mapped to the side (SideB) is converted into a size that matches the length of the thickness h by the parameter r By of the enlargement / reduction matrix S B
  • the source video signal V] B that is mapped to the opposite surface (SideB ′) is converted into a size that matches the thickness length by the parameter r By of the enlarged Z reduction matrix S.
  • the source video signal V lc mapped to the side surface (Side C) of ⁇ 2 is converted into a size that matches the length of the thickness h by the parameter r cy of the expansion / contraction matrix S c.
  • the source video signal V mapped on the opposite surface (SideC ′) of the second side is converted into a size that matches the length of the thickness h by the parameter r Cy of the enlargement / reduction matrix Sc.
  • each face of the rectangular parallelepiped B 0 X in the three-dimensional space (the first side face (SideB) and its opposing face (SideB ′), and the second face (SideC) and its opposing face (SideC ′))
  • the source video signals V 1 B and V lc that are mapped to the rectangular parallelepiped B 0 X are converted into a size corresponding to the size of the rectangular parallelepiped B 0 X, and are further moved with moving matrices L and L ′ and c and L c ′.
  • the first side surface (SideB) and its opposing surface (SideB ′) and the second side surface (SideC) and its opposing surface (SideC ′) are in contact with the target image display surface (SideA). Is converted to
  • the source video signals V 1A , 18 and 1 move in accordance with the movement of the S-cube B 0 X in the three-dimensional space, while maintaining the state where they are stuck on the surfaces to be mated, respectively. I do.
  • the 1 beta and V IC moving similarly Flip king to the mobile, pine Bing each source video ⁇ No. V 1 a, the V 1 B and V 1C on each side with Li Aruti ⁇ by simple operation of the operator In this state, it can be displayed on the screen surface 55A so as to move the rectangular parallelepiped BOX in a three-dimensional space.
  • the signal V 3 ′ ′ is directed in the positive direction of the ⁇ axis in FIG. That is, the perspective video signal V 3 ′ ′ is not on the side of the viewpoint ⁇ ⁇ , >>
  • the surface FR ⁇ NT faces the opposite side of point PZ. Therefore, an image of the perspective video signal V 3 A ′ viewed from the back side is displayed on the screen, and an image whose front and back are opposite to the image that should be displayed is displayed.
  • the image processing apparatus 10 when the source video signal V, is recorded in the frame memory FM, the image processing apparatus 10 reverses the front and back of the source video signal V, as shown in FIG. It is sufficient to have two inversion modes for inverting the source video signal V ,.
  • the two inversion modes are a horizontal inversion mode and a vertical inversion mode described below.
  • the horizontal inversion mode is a method of writing a source video signal to the frame memory FM so that the left and right pixels are horizontally inverted with respect to the y-axis, as shown in Fig. 33 3.
  • the frame memory F ⁇ in a normal mode in which the supplied source video signal V, is not inverted is directly written in the frame memory I '' to when the write ⁇ bets '' Les supplies and (X w, Y w), is inverted in the horizontal direction - to (centered on the ⁇ axis 1 80 ° "Tete to be down), the write a It is only necessary to change the sign of the X coordinate value of the address, so in the horizontal flip mode, the write address (one Xw, Yw) is supplied to the frame memory F ⁇ ⁇ ⁇ .
  • the reverse side and the front side can be reversed as shown in Fig. 33 B.
  • the source video signal V is rotated so that all pixels are rotated by 180 degrees around the X axis (that is, the left and right pixels are horizontally inverted with respect to the X axis).
  • the pixel is written to the frame memory FM, that is, the sign of the y-coordinate value of the write address is used to invert the pixel in the vertical direction (to rotate 180 ° around x3 ⁇ 4). Therefore, in the vertical inversion mode, the write address (Xw, one yw) is supplied to the frame memory FM, so that the configuration shown in FIG. 34B is obtained.
  • the inverted video signal faces the back of the paper in FIG. 34B, and can be read as normal characters when viewed from the 3 ⁇ 4 of the paper.
  • the source video signal V 1 A inverted and written into the frame memory FM as shown in FIGS. 33B and 34B is directed in the positive direction of z ⁇ as shown in FIG. . That is, the fluoroscopic video signal V 3 ⁇ ′ that has been mapped to the opposite surface (Side / T) of the target image display surface (Side A) and is seen through the xy plane is as shown in FIG. 35. In addition, it is oriented in the negative direction of the z-axis, that is, the viewpoint PZ direction. Therefore, an image of the see-through video signal V 3 A ′ viewed from the front side is displayed on the screen.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

明 細 書 発明の名称 画像処理装置及び画像処理方法 技術分野
本発明は画像処理装置及び画像処理方法に関し、 2次元平面に映し出される映 像画面を、 立体空間内において形成される立体の面に表示する場合に適用して好 適なものである。 背景技術
従来、 ビデオ信号に対して画像の切り取り (Crop) 、 せん断(Skew)、 X, Y 軸方 向の変化 (Π- rate)等の特殊効果を与えて画像を変形させる特殊効果装置 (D V E : Digital Video Effects)がある。 この装置を用いて、 立体空間内に形成され る直方体の面に画像を表示させる 「Slab」 効果処理が考えられている。
すなわち図 i に示すように、 rsiab」 効果処理では 2次元平面上に表示される 動画像を目的画像(Object)とし、 当該目的画像を立体空間内に形成された直方体 の目的画像表示面 (SideA)に貼り付けたような画像を特殊効果装置を用いて生成 する。
この 「Siab」 効果では、 立体空間内での直方体の傾きに応じて、 目的画像(Obj ect)が表示される面 (SideA)とともに 2つの側面 (SideB)及び (SideC)が同時に 表示される。 このような立体 6面表示画像を 1 台の特殊効果装置 (D V E) を用 いて生成する方法を図 2 に示す。
すなわち図 2 において、 第 1 のビデオテープレコーダ (V T R) 6 を用いて目 的画像(Object)を再生し、 これを特殊効果装置 5 に送出する。 特殊効果装置 5 は 再生された目的画像(Object)が立体 6面表示画像の目的画像表示面 (SideA)に貼 り付く ように表示されるマツビング処理を施し、 これを第 2のビデオテープレコ ーダ 7に送出する。 第 2のビデオテープレコーダ 7 は、 目的画像(Object)でなる 目的画像表示面 (SideA)を録画する。
このようにして目的画像表示面 (SideA)が録画されたビデオテープは、 ォペレ —タ によって第 3 のビデオテープレコーダ 8で再生され、 合成回路 9 に送出され る。 またこのとき、 オペレータは立体 6面表示画像の側面 (SideB)に表示する画 像を第 1 のビデオテープレコ一ダ 6で 2次元平面上に再生する。 第 1 のビデ才テ ープレコーダ 6 によって再生された画像は特殊効果装 E 5 に送出され、 特殊効果 処理が施される。
これにより、 第 1 のビデオテープレコ一ダ 6によって再生された 2次元平面上 の画像は、 立体 6面表示画像の側面 (SideB)に表示されるような形状に変形され る。 このような側面 (SideB)の画像は、 合成回路 9 において目的画像表示面 (Si deA)と合成される。 このときオペレータは所定の操作子を用いて目的画像表示面 (SideA)及び側面 (SideB)とが一つの辺で接するように表示位置を調整する。 こ のよう にして合成回路 9 において得られた目的画像表示面 (SideA)及び側面 (Sj deB)の合成画像は第 2のビデオテープレコーダ 7 で録画される。
目的画像表示面 (SideA)及び側面 (SideB)の合成画像が録画されたビデオテ— プは、 オペレータによって第 3のビデオテープレコーダ 8で再生され、 合成回路 9 に送出される。 またこのとき、 オペレータは立体 6面表示画像の側面 (SideC) に表示する画像を第 1 のビデオテープレコーダ 6で 2次元平面上に再生する。 第 1 のビデオテープレコーダ 6 によって再生された画像は特殊効果装置 5 に送出さ れ、 特殊効果処理が施される。
これにより、 第 1 のビデオテープレコーダ 6 によって再生された 2次元平面上 の画像は、 立体 6面表示画像の側面 (SideC)に表示されるような形状に変形され る。 このような側面 (SideC)の画像は、 合成回路 9 において目的画像衷示面 (Si deA)及び側面 (SideB)の合成画像と合成される。 このときオペレータは所定の操 作子を用いて目的画像表示面 (SideA)及び側面 (SideB)と側面 (SideC)とかそれ ぞれ一つの辺で接するように表示位置を調整する。
このよう にして合成回路 9 において得られた立体 6面表示画像は第 2のビデオ テープレコーダ 7 で録画される。
と ころでかかる方法によって立体 6面表示画像を生成する場合、 目的画像(Obj ect)を表示する目的画像表示面 (SideA)に対して側面 (SideB)及び (SideC)を別 々に生成して合成するため、 立体空間内での立体 6面表示画像の傾きを変化させ る場合、 目的画像表示面 (SideA)に対する画像の切り取り (Crop) 、 せん断(Ske w)、 X, Y 铀方向の変化 (XY- rate)等の特殊効果を変更しても、 側面 (SideB)及び (SideC)が追従せず、 立体空問内での目的画像表示面 (SideA)の変化に応じて側 面 (SideB)及び (SideC)に対する特殊効果も変化させる必要がある。
この場合、 オペレータは目的画像表示面 (SideA)の変化に伴って手作業で側面 (SideB)及び (SideC)を合成するような作業を、 各フ レーム ( 1 秒間につき 60フ レー ム) ごとに行う必要があり、 オペレータの操作が煩雑化することを避け得な い問題があった。 発明の開示
本発明は以上の点を考慮してなされたもので、 立体 3面表示画像の各面におけ る変換処理を同時に実行して各面を互いに連動させ、 特殊効果を与える再の操作 性を向上し得る画像処理方法を提案しょう とするものである。
かかる課題を解決するため本発明においては、 第 1 の画像を第 1 のメ モ リ に ¾ き込み、 第 1 のメ モ リ に書き込まれた第 1 の画像を所定の制御手段から入力され る第 1 の制御データ に基づいて画像変換処理することによって目的画像を生成す る第 1 の画像生成手段と、 第 2の画像を第 2のメ モ リ に書き込み、 第 2のメ モリ に書き込まれた第 2の画素を制御手段から入力される第 2の制御データに基づい て目的画像に応じた形状に画像変換処理することによって第 1 の側面画像を生成 する第 2の画像生成手段と、 第 3 の画像を第 3のメ モ リ に書き込み、 第 3 のメ モ リ に書き込まれた第 3の画素を制御手段から入力される第 3の制御データ に基づ いて目的画像に応じた形状に画像変換処理することによって第 2 の側面画像を生 成する第 3の画像生成手段と、 目的画像、 第 1 の側面画像及び第 2の側面画像を それぞれ対応する所定の面に有する立体を 3次元空問上で移動させることに応じ て、 目的画像、 第 1 の側面画像及び第 2の側面画像を立体の移動に応じて移動さ せるとともに、 立体上にマツビングされた目的画像、 第 1 の側面画像及び第 2の 側面画像を所定のスク リ 一ン面上に透視変換する制御手段とを設ける。
第 2及び第 3の画像は、 目的画像をマツビングする立体の目的画像表示面の形 状に応じて変形され、 目的画像に接する第 1 の側面及び第 2 の側面にマツ ビング される。 また 3次元仮想空間上の立体の各面にマッ ピングされた目的画像、 第 1 の側面画像及び第 2の側面画像は、 それぞれ立体の仮想空間上での移動に応じて 同様に移動する。
従ってオペレータは、 仮想空間上の立体を所定の操作によって動かすだけで、 各面にマツビングされた画像が、 あたかも立体の各面に貼り付いたように移動す る。 図面の簡単な説明
図 1 は立体 3面表示画像の説明に供する略線図である。
図 2は従来の立体画像生成方法の説明に供する略線図である。
図 3は本発明による画像処理装置の全体構成を示すブ σ ック である。
図 4 はスク リ 一ン面の定義の説明に供する略線図である。
図 5 は基本的 3次元移動変換及び透視変換の説明に I する略線,図である。 図 6 は基本的 3次元移動変換及び透視変換の説明に供する略総,図である。 図 Ί A及び図 7 Bは基本的 3次元移動変換及び透視変換の説^に供する略線図 である。
図 8 は 3次元空間上の基本位置にある立体 (直方体) の説明に供する略線図で ある。
図 9 A及び図 9 Bは目的画像のソ ースビデオ信号の説明に供する略線図である 図 】 O A及び図 1 ϋ Bは目的画像の z軸方向への変換の説明に供する略線図で ある。
図 1 1 A及び図 1 1 Bは目的画像の変形の説明に供する略線図である。
図 1 2 A及び図 1 2 Bは第 1 の側面画像のソ ースビデオ信 の説明に供する略 線図である。
図 1 3 A及び図 1 3 Bは第 1 の側面画像のソ ースビデオ信号の平行移動の説明 に供する略線図である。
図 1 4 Λ及び図 1 4 Bは第 1 の側面画像のソ ースビデオ信号の変形の説明に供 する略線図である。
図 1 Γ) Aはク D ップ優先モ一 ドの説明に供する略線図である。
図 1 5 Bは縮小ノ拡大率優先モー ドの説明に供する略線図である。
図 1 6 A及び図 1 6 Bは第 1 の側面画像のソ ースビデオ信号の X軸回りの回 変換の説明に供する略線図である。
図 1 7 A及び図 1 7 Bは第 1 の側面画像のソ ー スビデオ信号を X軸に対して角 度 θ B だけ傾ける際の説明に供する略線図である。
図 1 8 A及び図 1 8 Bは第 1 の側面画像のソ ースビデオ信号を立体の第 1 の側 面に重ねるための移動の説明に供する略線図である。
図 1 9 A及び図 〖 9 Bは第 2の側面画像のソ ー スビデオ信号の説明に供する略 線図である。
図 2 0 A及び図 2 0 Bは第 2の側面画像のソ ースビデオ信号の平行移動の説明 に供する略線図である。
図 2 1 A及び図 2 1 Bは第 2の側面画像のソ ースビデオ信号の変形の説明に供 する略線図である。
図 2 2 Aはク ップ優先モー ドの説明に供する略線図である。
図 2 2 Βは縮小 Ζ拡大率優先モー ドの説明に供する略線図である。
図 2 3 Α及び図 2 3 Bは第 2の側面画像のソ ースビデオ信号の X軸回りの回 $ί; 変換の説明に供する略線図である。
図 2 4 Λ及び図 2 4 Βは第 2の側面画像のソ一スビデオ信号を x軸に対して角 度 Θ c だけ傾ける際の説明に供する略線図である。
図 2 5 A及び図 2 5 Bは第 2の側面画像のソ ースビデオ信号を立体の第 2の側 面に重ねるための移動の説明に供する略線図である。
図 2 6 は第 1 のソ ースビデオ信号をマッピングするための処 9手順を示すフ 口 —チヤ一 トである。
図 2 7 は第 1 のソ ースビデオ信号を立体の目的画像表示面にマツビングする際 の説明に供する略線図である。
図 2 8 は第 1 のソ ースビデオ信号を立体の目的画像表示面の対向面にマッピン グする際の説明に供する略線図である。
図 2 9は第 2 ソ 一スビデオ信号をマツビングするための処理手順を示すフ口一 チヤ一 卜である。
図 3 0 は第 2のソ ースビデオ信号を立体の第 1 の側面にマッ ピ ングする際の説 明に供する略線図である。
図 3 1 は第 2のソ ー スビデオ信号を立体の第 1 の側面の対向面にマツビングす る際の説明に供する略線図である。
図 3 2は第 3 ソ 一スビデオ信号をマツビングするための処理手順を示すフ — チヤ一 トである。
図 3 3 Λ及び図 3 3 Βは立体の面にマッビングされる画像の水平方向への反 処理の説明に供する略線図である。
図 3 4 Α及び図 3 4 Bは立体の面にマツビングされる画像の垂直方向への反転 処理の説明に供する略線図である。
図 3 5 は立体の面にマツビングされる画像の反転処理の説明に供する略線図で ある。 発明を実施するめたの最良の形態
( 1 ) 全体構成
図 3 は全体と して特殊効果装置を用いた画像処理装置 1 0を示し、 オペレータ がコ ン ト 口一ルパネル 5 6を操作することによって入力された指令信号は、 ィ ン タフ ェイ ス回路 ( I Z F ) 5 7及びバス B U Sを介して C P U 5 8 に与えられる C P U 5 8 は R O M (Read Only Memory) 5 9及び R A M (Random Access Memor y) 6 1 を用い、 立体 6面表示画像の目的画像表示面 (SideA)の画像生成部 2 0 第 1 の側面 (SideB)の画像生成部 3 0及び第 2の側面 ( S i deC)の画像生成部 3 0 をオペレータの指令によってそれぞれ制御する。
目的画像表示面 (SideA)の画像生成部 2 0 は、 目的画像(Otuec の変換前のソ ースビデオ信号 V 1Aをク口 ップ回路 2 1 に入力する。 ク ップ回路 2 1 は、 バス B U Sを介して C P U 5 8から入力される X— Y座標系のク ップ位置 (C A C C A C A B) でソ ースビデオ信号 V a を切り取り、 これを変形させない状 態のままフ レーム メ モ リ F M 2に記憶させる。
こ こで読出しア ド レス発生回路 2 5 は、 ス ク リ ー ンア ト"レス発生回路 5 1 から 出力されるモニタスク リ ーン 5 5上でのア ドレス (X s Y s ) のデータ と C P U 5 8 によって指定される画像変換行列のパラメ ータ b A 1 1 b A33 のデータ と に基づいてフ レ一厶メ モ リ F Μ 22での読出しア ド レス ( Χ ΜΛ Υ ΜΑ) を生成する フ レームメ モ リ F M 22は、 記憶されているビデ才信号を読出しア ド レス発生回 路 2 5から出力される読出しア ドレス ( X MA、 Y ) によって読み出す。 この結 果、 仮想立体空間における立体 (直方体) のうち実際にモニタ スク リ ー ン 5 5 に 表示される立体 6面表示画像の目的画像表示面 (SideA)にソ ースビデオ信号 V 1 Λ のク コ ップされた部分をマッ ピングするように、 当該フ レームメ モ リ F Μ 22内の ク ο ップ済のソ ースビデオ信号 V】Αが画像変換される。 これにより得られる変換 ビデオ信号 V 3 ま ミ ヰサ 5 3 に送出される。
また目的画像表示面 (SideA)の画像生成部 2 0は、 ソ ースビデオ信号 V , Aと同 様にしてキー信号 K 1Aをク ロ ップ回路 2 3によってク ロ ップした後、 これをその ままフ レームメ モ リ F M24に記憶させる。 フ レームメ モ リ F M 24は読出しァ ド レ ス発生回路 2 5から出力される読出しア ド レス 〈X MA、 Y ) によってビデオ信 号を読み出すことにより、 上述の変換ビデオ信号 νと同様に変換された変換ヰ 一信号 Κ を得、 これを変換ビデオ信号 V と共にミ キサ 5 3 に送出する。
因みに牛一信号とは、 ソ ースビデオ信号 V によって形成される画像平面を 「 0」 又は 「 1 」 のデータ列で構成したものであり、 ソ ースビデオ信号 V lAがク ロ ップ又は画像変換されたとき、 当該処理が施された部分のみのデータが変化する ようになされている。
これに対して、 第 1 の側面 (SideB)の画像生成部 3 0は、 立休 6面表示画像の 第 1 の側面 (SideB)に表示する画像の変換前のソ 一スビデオ信号 V 1Bをク ciップ 回路 3 1 に入力する。 ク ロップ回路 3 1 は、 バス B U Sを介して C P U 5 8から 入力される X - Y座標系のクロップ位置 (C Bし、 C BR、 C BT、 C BB) でソ ースビ デ才信号 V I Bを切り取り、 これを変形させない状態のままフ レームメ モ リ F M 32 に記憶させる。
ここで読出しァ ドレス発生回路 3 5は、 スク リ ーンア ドレス発生回路 5 1 力、ら 出力されるモニタ ス ク リ ー ン 5 5上でのア ド レス ( X s 、 Y s ) のデータ と C P IJ 5 8 によって指定される画像変換行列のパラメ ータ b Β 1 , 〜 b B33 のデータ と に基づいてフ レームメ モ リ F M 32での読出しア ド レス (X MB、 Υ ΜΒ) を生成する フ レームメ モ リ F M32は、 記憶されているビデオ信号を読出しァ ドレス発生回 路 3 5から出力される読出しア ド レス ( X MB、 Υ ΜΒ) によって読み出す。 この結 果、 仮想立体空間における立体 (直方体) のうち実際にモニタスク リ ーンに表示 される立体 6面表示画像の第 1 の側面 (SideB)にソ ースビデオ信号 V a のク πッ プされた部分をマッ ピングするように、 当該フ レームメ モ リ F Μ 32内のクロ ップ のソ —スビデオ信号 V 1Bが画像変換される。 これにより得られる変換ビデオ信 号 V 3Bはミ キサ 5 2 に送出される。
また第 1 の側面 (SideB)の画像生成部 3 0は、 ソ ースビデオ信号 V , Bと同様に してキー信号 Κ , Bをク ップ回路 3 3 によってク ロップした後、 これをそのまま フ レームメ モ リ F M 34に記憶させる。 フ レームメ モ リ F M 34は読出しア ド レス発 生回路 3 5から出力される読出しア ド レス ( X MB、 Υ ΜΒ) によってビデオ信号を 読み出すことにより、 上述の変換ビデオ信号 V 3Βと同様に変換された変換ヰ一信 号 Κ を得、 これを変換ビデオ信号 V と共に ミ キサ 5 2に送出する。
これに対して、 第 2の側面 (SideC)の画像生成部 4 0 は、 立体 S面表示画像の 第 2の側面 (Si deC)に表示する画像の変換前のソ ースビデオ信号 V , cをク πップ 回路 4 1 に入力する。 ク ップ回路 4 1 は、 バス B U Sを介して C P U 5 8から 入力される X— Y座標系のク ップ位置 (C cl.、 CCR、 CCT、 C cD) でソ ースビ デ才信号 V 1 Cを切り取り、 これを変形させない状態のままフ レームメ モ リ 4 2 に 記憶させる。
ここで読出しァ ド レス発生回路 4 5 は、 ス ク リ ー ンア ド レス発生回路 5 1 力、ら 出力されるモニタス ク リ ー ン 5 5上でのア ド レス ( X S 、 Y s ) のデータ と C P IJ 5 8 によって指定される画像変換行列のパラメ ータ b c,! 〜 b c33 のデータ と に基づいてフ レームメ モ リ F M 42での読出しア ドレス (X MC:、 Y MC) を生成する フ レームメ モ リ F M 42は、 記憶されているビデォ信号を読出しァ ド レス発生回 路 4 5から出力される読出しア ド レス (XMC、 Y ) によって読み出す。 この結 果、 仮想立体空問における立体 (直方体) のうち実際にモ-一タスク リ ー ン 5 5に 表示される立体 6面表示画像の第 2の側面 (SideC)にソ ースビデオ信号 V 1(:のク ϋ ップされた部分をマッピングするよう に、 当該フ レームメ モ リ F Μ 2内のク u ップ済のソースビデオ信号 V 1Cが画像変換される。 これにより得られる変換ビデ ォ信号 V 3Cはミ キサ 5 2に送出される。
また第 2の側面 (SideC)の画像生成部 4 0は、 ソ ースビデオ信号 V , cと同様に してヰ一信号 K L Cをクロップ回路 4 3 によってクロップした後、 これをそのまま フ レームメ モ リ F M に記憶させる。 フ レームメ モ リ F M "は読出しァ ド レス発 生回路 4 5から出力される読出しア ド レス ( X MC、 Y mc) によってビデオ信号を 読み出すことにより、 上述の変換ビデオ信号 V 3Cと同様に変換された変換牛一信 号 K3Cを得、 これを変換ビデオ信号 V 3Cと共にミ キサ 5 3 に送出する。 ミ キサ 5 2 は、 第 1 の側面 (SideB)の画像生成部 3 0から出力される変換ビデ 才信号 V 3Bと第 2の側面 (SideC)の画像生成部 4 0から出力される変換ビデオ信 号 V 3Cとを合成すると共に、 第 1 の側面 (SideB)の画像生成部 3 0から出力され る変換ヰ一信号 K 3Bと第 2 の側面 (SideC)の画像生成部 4 0から出力される変換 キー信号 K 3Cとを合成することによって、 第 1 の側面 (SideB)と第 2の側面 (S) deC)とが接したように合成された合成ビデオ信号 V BC及び合成キー信号 K BCを得 、 これをミ ヰサ 5 3に送出する。
ミ キサ 5 3 は目的画像表示面 (SideA)の画像生成部 2 0から出力される変換ビ デ才信号 V 3Aと ミ キサ 5 2から出力される合成ビデオ信号 V BCとを合成すると共 に、 目的画像表示面 (SideA)の画像生成部 2 0から出力される変換牛一信号 Κ 3 Λ と ミ キサ 5 2から出力される合成牛一信号 K BCとを合成することによ り、 合成ビ' デォ信号 V 及び合成キー信号 K A B C を得る。 この合成ビデオ信号 V 及び 合成 +—信号 K A B C は、 目的画像表示面 (SideA)、 第 1 の側面 (SideB)及び第 2 の側面 (SideC)が接した立体 6面表示画像を表す。
ミ ヰサ 5 3から出力される合成ビデオ信号 V A B(: 及び合成ヰ一信号 Κ ΛΒ(: はァ ゥ トプッ ト プロセッサ 5 4 に送出される。 ァゥ トプッ ト プロセッサ 5 4 は、 画像 に影を付けることによって立体感を持たせる効果 ( ドロ ップシャ ドー効果) や、 移動した画像に尾を引かせる効果 ( ト レール効果) 等を合成ビデオ信号 V ABC 及 び合成キー信号 K ABC; で表される立体 6面表示画像に対して付加し、 この¾果得 られる出力ビデオ信号 V N UT をモニタスク リ 一ン 5 5 に送出し、 画像表示する。
( ) 座標系の定義
この実施例で立体 6面表示画像を生成しモニタスク リ ーン 5 5 に表示するする ために使用される 3次元の座標系は、 X軸、 y铀及び z軸の直交座標系によって 定義される。 すなわち図 4に示すように、 X軸及びこれに 交する y軸で定義さ れる X y平面上にスク リ ーン面 5 5 Aが存在するものと して、 X轴をスク リ ーン 面 5 5 Aの水平 (左右) 方向と定義し、 y軸をスク リ ーン面 5 5 Aの垂直 (上下 ) 方向と定義する。
また、 ス ク リ ー ン面 5 5 Aの奥行方向を、 x y平面に直交する z軸の正方向と 定義し、 ス ク リ ー ン面 5 5 Aの手前側、 すなわち、 ス ク リ ーン面を見る視点 P Z が存在する側を z軸の負方向と定義する。
さ らに、 ス ク リ ー ン面 5 5 Aの中心が当該 X軸、 y軸、 z轴でなる 3次元座標 系の原点 0と一致するものと定義する。
X軸にはス ク リ ー ン領域の内部 (原点) から左右外部方向に向かって連続した 仮想的な座標値が設定されており、 ス ク リ ー ン領域内の X軸には、 視点 P Zから ス ク リ ー ン面 5 5 Aを見て左側から右側に亘つて 「 一 4」 から 「 + 4 — I の間の仮 想的な座標値が設定されている t>
また y軸にはス ク リ ー ン領域の内部 (原点) から上下外部方向に向かって連続 した仮想的な座標値が設定されており、 ス ク リ ー ン領域内の y軸には、 視点 P Z からス ク リ 一ン面 5 5 Aを見て下側から上側に亘つて 「 一 3」 から 「+ 3」 の間 の仮想的な座標値が設定されている。
さ らに、 オペレータの視点位置 P Zは、 z軸上において、 その座標値が 「 一 1 6 」 となる位置に仮想的に設定されている。
( 3 ) 3次元変換の基本的ァルゴ' リ ズム
X y zの 3次元座標系で表される仮想空間内で立体 (直方体) を任意の位置及 び角度で生成し、 この立体のうち、 z軸の座標値 「 一 16」 に位置するオペレータ の視点から実際に見える面だけを立体 6面表示画像と してス ク リ ー ン面 5 5 Aに 表示する 3次元画像変換処理の基本的ァルゴ'リ ズムについて説明する。
2次元平面の画像を形成するソ 一スビデオ信号は、 画像変換されずにそのまま の状態でフ レームメ モ リ に記憶される。 従って図 5及び図 6 に示すよ う に、 ソ ー スビデオ信号 V は X y zの 3次元座標で表される空間の X y平面上に存在する ことにより、 当該 x y平面に存在するスク リ ー ン面 5 5 A上にソ ースビデオ信号
i 1 V , の画像が表示される。
因みに図 5は X y ζの 3次元座標系で表される空間を y軸の正側から 側を俯 瞰した状態を示し、 X y平面に存在するスク リ ーン面 5 5 Aにソ ースビデオ信号 V が重なっている。 また図 6は X y zの 3次元座標系で衷される空間を z軸上 の視点 P Zから当該 z軸の負側をスク リ ーン面 5 5 Aを介して見た状態を示し、 X y平面上のス ク リ ー ン面 5 5 A内にソ ースビデオ信号 V t が存在している。 かかるソ ースビデオ信号 V , に対して、 オペレータがコ ン ト c ールパオルの操 作子を操作することによって X y z座標空間での 3次元画像変換処理が施される 。 すなわち、 各フ レームごとに設定されるパラ メ ータからなる 3次元変換行列 T を、 オペレータの操作によってソ ースビデオ信号 V , の各画素に施すことによ り、 ソ ースビデオ信号 V , を 3次元変換ビデオ信号 V 2 で示される空間位置に 3 次元変換する。 図 5及び図 6の場合の 3次元変換は、 ソ ースビデオ信号 V ! を y 軸を回転中心と して約 45 ° 回転し、 さらに z軸の正方向に平行移動した場合の一 例である。
3次元変換に用いられる 3次元変換行列 T。 は、 次式、 r 1 r 1 2 r 3 0
Γ r Γ 0
Τ
r 3 1 r 3 Γ 3 3 0
ί H i z s
によって表される。
この 3次元変換行列 T。 に使用される変換パラ メ ータ r , ,〜 r 3 3は、 ソ ース ビ デォ信号 V , を、 X軸回り、 y軸回り及び z軸回りに回転させるための要素、 ソ ースビデオ信号 V , を、 X軸方向、 y軸方向及び z軸方向にそれぞれスケール拡 大ノ縮小させるための要素、 及び、 ソ ースビデオ信号 V ' を X蚰方向、 y軸方向 及び z軸方向にそれぞれスキューさせるための要素等を含むパラメ ータであり、 また、 パラメ ータ 、 i y , ί は、 ソ ースビデオ信号 V! を X軸、 y軸及び z轴方向にそれぞれ平行移動させるための要素を含んだパラメ ータであり、 さら に、 パラメ ータ s は、 ソ ースビデオ信号 V , 全体を、 3次元のそれぞれの軸方向 に、 一様に拡大ノ縮小させるための要素を含んだパラメ ータである。
なお、 当該変換行列 T。 は、 回転変換等の座標系と平行移動変換及び拡大縮小 変換の诬標系とを同じ 1 つの座標系内で表現しているので、 4行 4列となり、 こ のような行列を一般的に同次鹿標系(Homogeneous Coordinate)と称する。
かく してス ク リ ーン面 5 5 A上のソ ースビデオ信号 V が 3次元変換行列 T。 によって 3次元変換ビデオ信号 V 2 の位置に 3次元変換されると、 当該 3次元変 換ビデオ信号 V 2 は、 透視変換行列によって X y平面に投影される。
透視変換とは、 図 5及び図 6 に示すように、 z軸上の仮想視点 P Zから変換ビ デォ信号 V 2 を見たとき、 X y平面に透視される 3次元変換ビデオ信号 V 2 の像 (これを透視変換ビデオ信号 V 3 と称する) を求める変換である。 図 5の場合、 X y平面上のスク リ一ン面 5 5 Aには、 仮想視点 P Zから見てス ク リ ーン面 5 5 Aの反対側 ( z軸の正側) にあたかも 3次元変換ビデオ信号 V 2 による像がある かのような透視変換ビデオ信号 V 3 が透視変換行列 P。 によって生成される。 この透視変換行列 P。 は、 次式、
1 0 0 0
0 1 0 0
( )
0 0 0 P
0 0 0 1
によって表される。 この透視変換行列 P。 のパラメ ータ は、 3次元変換ビデ ォ信号 V 2 を X y平面上に透視する際に、 遠近法を適用するためのパー スぺクテ ィブ値である。 すなわち図 5の場合、 3次元空間における 3次元変換ビデオ信号 V 2 は、 X y平面に対して約 45° 傾いた状態であり、 これを仮想視点 P Zから見 ると、 当該仮想視点 P zからの距離が遠い部分は小さ く 見え、 近い部分は大き く 見える。 従ってパラメ ータ を用いることにより、 ス ク リ ー ン面 5 5 Aの位置 に変換される透視変換ビデオ信号 V 3 は、 3次元空問にある 3 ¾元変換ビデオ信 号 V を仮想視点 P Zからの距離に応じて変換したものとなる。
3次元変換ビデオ信号 V 2 の透視変換によるス ク リ ー ン面 5 5 Λ上への変換位 置は、 仮想視点 P Zとス ク リ ー ン面 5 5 Aとの距離、 及び、 仮想視点 P Zと 3次 元変換ビデオ信号 V 2 との距離に応じて変化するものであり、 仮想視点 P Zの位 置に応じてパースペクティ ブ値 をオペレータが設定することにより、 仮想視 点 P Zの位置に応じた透視変換を行う こ とができ る。 通常、 視点 P Zの位置が z 軸の座標値 1 6 であることから、 パースペクティ ブ値 は 「 1 / 1 6」 が基 準値となるように設定されている。
以上のよう に、 3次元変換の基本的処理は、 3次元変換行列 T o によってソ — スビデオ信号 V , から 3次元変換ビデオ信号 V 2 を得るための空間的画像変換ス テップと、 当該空間的画像変換ステップによって得られた 3次元変換ビデオ信号 V 2 を透視変換行列 P。 によって透視変換ビデオ信号 V 3 に変換する透視変換ス テツプとから構成される。 従って、 ソ ースビデオ信号 V , から透視変換ビデオ信 号 V 3 を得るための変換行列 Tは、 3次元変換行列 T。 と透視変換行列 Ρ。 との 乗算式と して、 次式、
Τ = Τ Ρ
Γ r l ϋ 0
r ; Γ r 0 0
Γ : Γ r 0 P
ί H ί z 0 1 Ρ ,
Ρ ζ
( 3 ) Ρ ,
Ρ 十 s
によって表される。
こ こで、 本発明の特殊効果装置を用いた画像処理装置は、 外部から供袷された 2次元のソ ースビデオ信号 V . を、 一旦、 フ レ一厶メ モ リ F Μに書込み、 こ のフ レームメ モ リ Ι'、 Μに対して 2次元演算された読出しァ ドレスを供給することによ り、 当該フ レームメ モ リ F Μから読み出されるビデオ信号に対してオペレータが 所望とする空間画像変換 ( 3次元画像変換及び透視画像変換) を施すことができ る。 従ってフ レームメ モ リ F Μに記憶されるソ ースビデオ信号 V , 及びフ レーム メ モ リ F Μから読み出される透視変換ビデオ信号 V 3 は、 共に、 2次元のデータ であり、 当該読出しア ド レスの演算においては、 3次元空間上の ζ軸方向のデー タは、 実質的に使用されない。
従って、 ( 3 ) 式の ζ軸方向のデータを演算するための 3行目及び 3列 13のパ ラメ ータは、 フ レームメ モ リ に対する読出しァ ドレスを演算する際には必要 とされない。
従って、 実際の 2次元の読出しァ ド レスの演算に必要なパラ メ 一タを有した 3 次元変換行列を Τ 3 3とすると、 当該行列 Τ 3 3は、 i ) 式から 3行目及び 3列目 のパラ メ ータを除いた次式、
r 1 3 P z
T r P z ( 4
£ z P z + s
によって表すことができる。 こ こで、 フ レームメ モ リ F M上の位置べク ト ノレと 、 モニタ ス ク リ ー ン 5 5 上の 位置べク ト ルとの関係について説明する。
図 7 ( A ) においてフ レー厶メ モ リ F M上の 2次元のア ド レスを ( X 、 Y ) 及び位 gべク ト ルを 〔 X Y 〕 と し、 図 7 ( B ) においてモニタス ク リ ー ン 5 5上のア ド レスを (X s 、 Y s ) 及び位置べク ト ルを 〔X S Y s 〕 とする 。 このフ レームメ モ リ F M上の 2次元の位置べク ト ル 〔 X Y 〕 を、 同次座 標系で表現すると、 ベク ト ル 〔 x m y m H。 〕 と表すこ とができ る。 またモ 二タスク リ ー ン 5 5上の位置べク トル 〔 X S Y s 〕 を同次座標系で表現すると 、 ベク ト ノレ 〔 X s y s 1 〕 と表すことができ る。
なお、 この同次座標系のパラメ ータ 「 H。 」 は、 べク トルのお:;大 Z縮小率を表 すパラメ ータである。
かく してフ レームメ モ リ F M上の位置べク ト ル 〔 X m y m H。 〕 に対して 、 3次元変換行列 を作用させることによって、 フ レーム メ モ リ F Μ上の位置 べク ト X m y m H o 〕 がモニタスク リ ーン 5 5上の位圈べク ト X、 y s 1 〕 に変換される。 従って、 フ レームメ モ リ F M上の位置べク ト ル 〔 x m y m H o 〕 とモニタス ク リ ー ン 5 5上の位置べク ト ノレ 〔 s y s 1 との関係式は、 次式、
C X y s 1 ] = ( m y m 11 o j · T ( 5 ) によって表すことができ る。 なお、 フ レ一ムメ モ リ F M上の位置べク ト ル 〔 X m y π, Η。 〕 において使用されている同次座標系のパラ メ ータ 「 Η。 」 及び、 モニタスク リ ー ン 5 5上の位置べク ト ル 〔 X .、 y s 】 〕 において使用されて いる同次座標系のパラメ ータ 「 1 」 との関係は、 3次元変換行列 T 3 3によって、 フ レームメモ リ F Μ上の同次座標系の位置べク ト ル 〔 X m y m 〕 力く、 モニタス ク リ ー ン 5 5上の同次座標系の位置べク ト ル 〔 X s y s ) に変換され、 フ レー ムメ モ リ F M上の同次座標系の位置べク ト ル 〔 X m y m 〕 の大きさ 「 H。 」 が 、 モニタス ク リ ー ン 5 5上の同次座標系の位置べ'ク ト ル 〔 X s y s 〕 の大き さ 「 1 」 となるように変換されることを表している。
このように、 ( 5 ) 式は、 フ レームメ モ リ F M上の点に対応するモニタスク リ ー ン 5 5上の点を行列 T33によって求める関係式である。 こ こで、 特殊効果装置 を用いた画像処理装置では、 ソ ースビデオ信号を変換前の状態でフ レーム メ モ リ F Μに記憶し、 変換行列 Τ 33によって得られたモニタ ス ク リ ー ン 5 5上の点に対 応するフ レームメ モ リ F Μの点を読出しァ ド レス によって指定することによ り、 ソ ースビデオ信号に対して空間的な画像変換を施すようになされている。
このような装置においては、 フ レ一ムメ モ リ F Μ上の点に対応するモニタ ス ク リ ー ン 5 5上の点を求めるような ( 5 ) 式による演算を行うのではなく 、 モニタ ス ク リ ー ン 5 5上の点に対応するフ レームメ モ リ Μ上の点を求める必要がある 。 従って ( 5 ) 式を変換して、 次式、
〔 X Η 〕 〔 X Τ によって表される関係式を用いることによ り、 モニタ ス ク リ ー ン 5 5上の位置べ ク ト ル 〔 X s y s 1 〕 が指定されると、 変換行列丁 33 によってフ レームメ モリ F M上の位置ベク ト ル ί X „ y m H。 〕 が演^される。 因みに、 この変 換行列 T 3 1は、 変換行列 T 3の逆行列である。
次に、 フ レームメ モ リ F M上の 2次元の位置べク XM Y j を求める ために、 変換行列 T33及び逆行列 を以下のようにする。 すなわち、 変換行 列 Τ の各要素を、 r Ρ ,
1 r 23 P z
i z P , 十 s a 12 a
a 2 7 )
のよ う に '、'ラ メ 一タ a , ,〜 a とおく と共に、 逆行列 T 33 1のパラ メ ータを 次式、
■ b i > b 1 2 b 1 3 )
33 b 21 b 22 b 3 … . ( 8
Figure imgf000020_0001
b 31 b 32 b 33 J a
但し b ,
deL ( T
のよ う に、 フ メ ータ b b とおく
( 8 ) 式を ( ii ) 式に代入して、 次式、
C x m y m H o ) = [ x y 1 ]
Figure imgf000020_0002
〔 b x + b 21 y + b 3 !
b x 十 、 + b
b 十 〕 ( 9 となる。 よって、 次式、 x m = b i i x + b 21 + b y m = b 12 x s + b 22 y s 十 b
II o = b i a x - b 2 a y s 十 b
が得られる t>
ここで、 フ レームメモ リ F M上の同次痤標系の位置べク ト ル 〔 X m y m H o 〕 を、 フ レームメ モ リ F M上の 2次元の位置べク ト ル 〔 X Y 〕 に変換す る場合について説明する。
2次元の位置べク ト ル 〔 X M Υ Μ 〕 を同次座標系に変換するときに使用する パラ メ ータ 「 Η。 」 は、 同次座標系の位置べク ト ル 〔 x m y m 〕 の大きさを表 すパラメ ータであることから、 同次座標系の位置べク ト ルを 2次元の位置べク ト ルに変換するためには、 同次座標系の位置べク ト ルの方向を示すパラ メ ータ ί X m 」 及び 「 y m 」 を、 同次座標系の位置べク ト ルの拡大 Z縮小率を表すパラ メ 一 タ [ H。 I で正規化すれば良い。 従って、 モニタス ク リ ー ン 5 5上の 2次元の位 置べク ト ルの各パラ メ ータ 「xs 」 及び 「YS 〕 は、 次式、
X
H
( 1
Y
H
と表すことができる。 モニタ ス ク リ ー ン 5 5上の同次座標系のベク ト ル [ X s y s 1〕 を、 2次元の位置ベク ト ル 〔 X s Y s 〕 に変換する場合についても 同様にして、 同次座標系の位置べク トルの方向を示すパラメ ータ 「 X s 」 及び 「 y s .1 を、 同次座標系の位置ベタ ト ルの拡大ノ縮小率を表すパラ メ ータ 「 1 」 で 正規化すれば良い。 従って、 モニタス ク リ ー ン 5 5上の 2次元の位匿べク トルの 各パラ メ ータ 「X s 」 及び 「 Y s 」 は、 次式、 X s = X
Y s = y
と表すことができる。
よって、 フ レームメモリ F M上のア ド レス (Χ Μ 、 Υ Μ ) は 0 ) 式から 次式、
X M
H
1 X s 21 十
b x + b y s 十 b
b . i X s + b , Y s
3 )
I) X K 十 b 23 Y s 十 b
Y
H o
b 12 x + b 22 y s + b
b x + b y ト b
b , 2 X s 十 b 22 Y s + b
( 1 b 1 X "I b 2 Y + b と して求めることができる。 次に T — 'の各パラメ 一タ b , ,〜 b 3 を求める
一 a 2 3 a 22 a
( 1 5
W
s 12 a
b 1 6
w
S Ά d ' 3
b , ( 1 7
w
b
Figure imgf000023_0001
W
, + a
W■
() ) w
a 22 a 十 a 2! a
( 2 w l d ' 3
( 2 w b 33 - …… ( 2 3 )
W >
になる。 ただし、
W 1 = 一 a 22 3 1 a 1 3 + a 21 a 32 a 13 a 12 a 31 a 23
一 3 l】 3 32 3 23— 3 1 2 3 2 1 3 33十 3 1 1 3 22 3 33 ( 2 Ί )
である。 ここで、 a ! ,〜 a 33の値は ( 7 ) 式の関係から、
a i i= r 】 a i 2 = r i 2、 a 1 3 = r 1 3 P z l 2 5 )
3 2 i = r 21 N Ά 2 — r 22 a 2.1 == r 2.ι Ρ ζ ( 2 6 ) a 3 , = £ K . a 32 = 、 a 33 = ί P z + s …… ( 2 7 )
であるから、 これを ( 1 5 ) 式〜 ( 2 4 ) 式に代入することにより、
- £ y r 23 P + r 22 ( i P + s )
b , , …… ( 2 8 )
W■
i y r , 3 P 2 + r ( £ z P , + s )
b 12 = …… ( 2 9 )
W 1
~ r 22 r 131- 十 Γ 1 2 Γ 23 Ρ Ζ
b ■ …… ( 3 0 )
W >
ί χ r P - r 2 , ( £ z P z 十 s )
b 2 1- …… ( 3 1 )
W 1 - St r ■ a P 十 r , , ( i z P z 十 s )
b …… ( 3 2 )
W ,
r r P ~ r l l r P
b 23= …… ( 3 3 )
W i
- r ί 十 r 2 1 £ y
b 3 , …… ( 3 4 )
W!
2
3
r £ , - r ! , ί y
b …… ( 3 5 )
W
一 Γ 1 2 Γ 2 1十 Γ 1 1 Γ 22
b …… ( 3 6 )
W .
W! = - r £ x r , P z
r , P
"I P
- r , , £ y r P 2
- r r 2 1 ( £ , P z 十 s )
-+ r , ! r { Ά P + s ) …… ( 3 7 )
と表わすことができる。
かく して、 ( 2 8 ) 式〜 ( 3 7 ) 式の値を ( 1 3 ) 式及び ( 1 4 ) 式に代入す ることにより、 フ レームメ モ リ F Mに供給される読出しア ド レス (X M 、 Υ Μ ) は、 FCT/JP96/03347
X M " C P z + ( i P , + s ) X
H o
十 { r ■ P 十 ί . P z -Y s Y
+ ( ― r Γ P z + P , ) 〕
( 3 8
Y 〔 { i P 十 s ) } X
H o
-I- { + r P 十 s ) } Y
- 1 { r 2 r a P - r , , r 23 P 2 } ]
( 3 9 と して与えられる。 ただし、 H。 は次式、
Η θ = ( - Γ . £ y ) X
Γ ! . ) Y
"1 ( ~ Γ Γ r ( 4 0 である。 よってフ レームメ モ リ F Mに供給される読み出しア ド レ ス ( X M 、 Y M ) を、 オペレータの所望の空間的画像変換装置によって決定される 3次元変換行 列 T。 の各パラ メ ータ ( r , ,〜 r 33、 I i 及び s ) 、 及ひ、 予め設 定されるパラ メ 一タであるパースペク ティ ブ値 P z を用いて表すことができ る。 従って ( 6 ) 式〜 ( 4 0 ) 式に対して、 モニタ ス ク リ ー ン 5 5 のラ ス タ スキヤ ン順に対応するよう に、 ス ク リ ー ンア ド レス ( X .s 、 Y s ) を画素毎に供給する と、 その供給されたス ク リ ー ンア ド レスに対応したフ レームメ モ リ F M上におけ る読み出しァ ド レス ( X M 、 Υ Μ ) を、 順に演算することができる。 ( 4 ) 仮想空間上の 6面体
この実施例において、 3次元変換されたソ ースビデォ信号がマッ ビングされる 3次元仮想空間上の直方体 B 0 Xは、 図 8 に示すよう に、 3次元座標系の原点 0 が中心となるような位置を基準位置と して存在する。
この直方体 B O Xは、 3次元変換されたソースビデオ信号 V 1 A (図 3 ) がマツ ビングされる目的画像表示面 (SideA)及び当該目的画像表示面 (SideA)の対向面 (SideA ' ) と、 3次元変換されたソ ースビデオ信号 V (図 3 ) がマツ ビングさ れる第 1 の側面 (SideB)及び当該第 1 の側面の対向面(SideB ) と、 3次元変換 されたソ ースビデオ信号 V l c (図 3 ) がマッ ピングされる第 2の側面 (SideC)及 び当該第 2 の側面 (SideC)とを有する。
5
この直方体 B 0 Xの目的画像表示面 (SideA)及びこの対向面(S)deA ' ) の間の 厚み、 すなわち目的画像表示面 (SideA)に対する厚み hがオペレータによって予 め設定されており、 図 8に示すように基準位置にある目的画像表示面 (SideA)は X y平面よりも距離 h / 2だけ z軸の負方向に移動した位置にあり、 目的画像表 示面 (SideA)の対向面(SideA ' ) は x y平面よ り も距離 h Z 2だけ z軸の正方向 に移動した位置にある。
因みに 3次元変換される前のソ ースビデオ信号 V I A、 及び -は、 それぞ れスク リ ーン面の存在する X y平面上にあることになり、 後述する変換行列 ΜΛ 又は ΜΑ ' によってソ ースビデオ信号 V は基準位置によって直方体 B 0 ) (の目 的画像表示 Sri (SideA)又はその対向面(SideA ' ) にマッ ピングされ、 ソ ー スビデ 才信号 V 1 Bは基準位置にある直方体 B 0 Xの第 1 の側面 (SidcB)又はその対问面 (SideB ' ) にマツビングされ、 ソースビデオ信号 V , (:は基準位置にある直方体 B 0 Xの第 2の側面 (SideC)又はその対向面(SideC ' ) にマッ ピングされる。 このように基準位置にある直方体 B 0 Xの各面にソ ースビデオ信号 V ,Λ、 V , 及び V 1 Cがマッ ビングをすると、 直方体 B 0 Xがオペレータの操作によって基準 位置から 3次元空間上の任意の位置に移動することに応じて当該移動に応じて各 パラメ ータが変化する上述の 3次元変換行列 T。 により直方体 Β 0 Χの各面にマ ッビングされたビデオ信号は、 当該直方体 B 0 Xの各面に貼り付いた状態を保持 しながら直方体 B 0 Xの移動に伴って移動する。
( 5 ) 目的画像表示面 (SideA)へのマッ ピング
図 3 に示す画像生成部 2 0 において、 ク ロ ップ回路 2 1 に入力されたソ ースビ デ才信号 V は、 オペレータの操作によって所望の領域が切り取られる。 このソ ースビテ才信号 V は、 ク口ップ回路 2 1 に入力される時点では未だ X y平面上 に位置する 2次元画像である。 すなわち X y z の 3次元座標系を 軸の視点 P Z の位置から z軸の正方向を見た図 9 ( A ) において、 x y平面上のソ ースビデオ 信号 V 1 Λの左端のク η ップ位置を C ALと表 6し、 右端のク " ップ位置を C A Rと表し
、 上端のク ロ ップ位 Eを C ATと表し、 下端のク ロップ位置を C A と表すと、 ク u ップされたソ ースビデオ信号 V "の 4つの顶点の座標は、
I X 1 、 y 1 ) = ( C AR、 C AT)
( x 、 y 2 ) ^ ( C A C AT)
······ ( 4 1 )
( a 、 y ) = ( C C AB)
( X 1 、 ) = ( C ARS C AB) と表すことができる。
因みに図 9 ( B ) は、 X y z の 3次元座標系を y蚰の正方向から負方向に向か つて俯瞰した状態を示し、 ク □ ップされたソ ースビデオ信号 V "は X y平面上に おいて X軸の座標 「 χ 2 」 から 「 Χ ι 」 に Βつて存在し、 ζ轴方向への立体的厚 みは無い。
このようにしてクロ ップ回路 2 1 においてクロ ップされたソ ースビデ才 号 V は、 フ レームメ モ リ F M22 (図 3 ) に変形されない状態でそのまま記憶される フ レームメ モ リ F M22に記憶されたソ ースビデオ信号 V は、 移動行列 L A に よって、 z轴の負方向に距離 h Z 2だけ平行移動される。 この移動行列 1, Λ は ソ ースビデオ信号 V の ζ軸座標を一 h /2 にするための行列であり、 次式、
0 0
0 0
4 2 1 0
-h/2 1 によって表される。 従って X y 2;の 3次元座標系を y軸の正方向から負方向に向 かって俯瞰した図 1 0 ( B ) に示すように、 X y平面上にあったソ ースビデ才信 号 V "は移動行列 L A によって ス铀の: &方向に- h/2だけ平行移動され、 この結果 、 マツビングしょう とする直方体 B O X (図 8 ) の目的画像表示面 (SideA)が存 在する位置 ( z軸座標値が- h/2の位置) に移動した状態となる。 この状態では、 ソ ースビデオ信号 V 1 Aの X座標 ( χ 2 〜 X i ) は変わらない。
因みに図 1 0 ( A ) は、 移動行列 1. Λ によって平行移動されたソ ース ビデオ 号 V 1 Λを z軸上の視点 P Zの位置から見た状態を示す。 この状態では、 ソ ースビ デォ信号 V の各頂点の座標は変化していない。
このようにして平行移劻されたソ 一スビデオ信号 V に対して、 レー ト · スキ ユー変換行列 T rsによって、 レー ト変換及びスキュー変換が施される。 レー ト変 換とは、 2轴の負方向に距離 h/2だけ平行移動した 2次元平 ft]のソ ース ビデオ信 号 V 1Aをその中心を基準にして X軸の正及び負方向と、 y軸の正及び負方向とに それぞれ所望の拡大/縮小率で 2次元的に拡大 Z縮小するものである。 このレー ト変換における X軸方向の拡大/縮小率を 「 r x I 、 y $由方向の拡大 Z縮小率を
「 r y 」 とすると、 レー ト変換行列 T r a t eは、 次式、 0 0
0 0
T r a t , (
1 0 ο ο ο 0 1
r
ο ο r ο
のように表される。
またスヰュ一変換とは、 ?,軸の負方向に距離 h/2だけ平行移動した 2次元平面 のソ 一スビデオ信号 V 1Aをその中心を基準にして X軸の正及び: Ti方向と、 y軸の 正及び負方向とにそれぞれ所望のスキュー率で 2次元的に歪めるものである。 こ のスキュー変換における X軸方向のスキ 2ュー率を 「 s x 」 、 y 方向のスキュー 率を 「 s y 1 とすると、 スキュー変換行列 T sl( e„は、 次式、
1 S 0 0
S y 1 0 0
T 4 4
0 0 1 0
0 0 0 1
のよ う に表される。
従ってレー ト変換及びスキュー変換の復号変換行列であるレ一 ト · スヰュ一変 換行列 T rsは、 次式、
T rs- T r a t , • T S
0 0 0 0 0
r v 0 0 s 0 0
0 1 0 0 1 0
0 0 0 0 1 S 0 0
0 0
4 5 ) 1 0
0 1
によって表される。
なお、 このレー ト · スキュー変換行列 T r sによって変換された 2次元平面上で の 4点の座標を、 図 1 1 ( A ) に示すように、 ( X , ' . y . ― ) 、 ( 、 y 2 ' 〉 、 ( X ' , y ' ) , ( x 4 ' 、 y 4 ' ) とすると、 それぞれ次式、
X ' ^ y ' ) =; ( X y ) T
= ( Γ x i + r y s + r
( X y ) = ( X 、 Υ ) T r s
^ ( r x -+ r y s
( X y ) = ( X 、 y ) T
=— ( r x + r y s y a x 3 + r y
( y ) = ( X 、 ) T rs
= ( r x x + r y s y +
( 4 6
のように表される。
以上のように第 1 のソースビデオ信号 V 1 Λを目的画像表示面 (SideA)にマツビ ングする処理をまとめると、 マッピング処理を表す行列を M A と して、 ( 4 2 ) 式及び ( 4 5 ) 式から次式、
M = し T r ; ( 4 7 ) となり、 これにより図 9 に示すソ ースビデオ信号 V 1 Λの 2次元平面上での 4点 ( X 、 y ) 、 ( X 、 y ) 、 ( x 、 y ) 、 ( χ 、 y ) は、 行列 Μ Λ によって図 1 1 ( Α ) 及び (B) に示す 3次元空間上の目的画像表示面 (SideA) の 4点 ( X , ' 、 y , ' 、 -h/2) 、 ( x ' 、 y 2 ' 、 - h/2) 、 ( x 3 ' , y 3 ' 、 -h/2) 、 ( χ 4 ' 、 y 4 ' 、 -h/2) にマッピングされたことになる。
因みに、 第 1 のソ ースビデオ信号 V , に対応して画像生成部 2 0 に入力される キー信号 Κ 1 Αに対しても、 ソ ースビデオ信号 V , を目的画像表示面 (SideA)にマ ッピングする上述の場合と同様の変換処理が施される。
( 6 ) 目的画像表示面 (SideA)の対向面(SideA ' ) へのマツビング
図 3 に示す画像生成部 2 0 において、 ク uップ回路 2 1 に入力されたソースビ デ才信号 V 1 Aは、 オペレータの操作によって所望の領域が切り取られる„ このソ —スビテオ信号 V 1 Aは、 ク πップ回路 2 1 に入力される時点では未だ X y平面上 に位匿する 2次元画像である。 すなわち X y zの 3次元座標系を z軸の視点 P Z の位置から z軸の正方向を見た図 9 ( A) において、 x y平面上のソ ースビデオ 信号 V 1 Aの左端のク ップ位置を C ALと表し、 右端のク。ップ位置を と表し 、 上端のク ロ ップ位置を C ATと表し、 下端のク ロップ位置を C A13と表すと、 ク ロ ップされたソ ー スビデオ信号 V 1 Aの 4 つの頂点の座標は、 上述の ( 4 1 ) 式とな る。
このようにしてク ロップ回路 2 1 においてク ロ ップされたソ ースビデオ信号 V "は、 フ レームメ モ リ F M22 (図 3 ) に変形されない状態でそのまま記憶される フ レームメ モ リ F M22に記憶されたソース ビデオ信号 V は、 移動行列 L A に よって、 z軸の正方向に距離 h / 2だけ平行移動される。 この移動行列 L A -は 、 ソ ースビデオ信号 V 1 Aの z軸座標を + h /2 にするための行タ I.であり、 次式、 0 ϋ
1 0
( 4 8 ) 0 1
0 h/2
によって表される。 従って X y平面上にあったソ ースビデオ信号 V 1 Aは移勛行列 L ' によって z軸の正方向に h/2 だけ平行移動され、 この結果、 マツビングし よう とする直方体 B O X (図 8 ) の目的画像表示面 (SideA)の対向面(S】deA ' ) が存在する位置 ( z軸座標値が十 h/2 の位置) に移動した状態となる。 この状態 では、 ソ ースビデオ信号 V , の X座標 ( χ 2 〜 χ 】 ) は変わらない。
このようにして平行移動されたソ ースビデオ信号 V 1 Αに対して、 レー ト ' スヰ ユー変換行列 T rsによって、 レー ト変換及びスキュー変換が施される。 この場合 のレー ト変換とは、 z轴の正方向に距離 h/2だけ平行移動した 2次元平面のソ ー スビデオ信号 V 1 Aをその中心を基準にして X蚰の正及び負方向と、 y軸の正及び 負方向とにそれぞれ所望の拡大/縮小率で 2次元的に拡大ノ縮小するものである
。 このレー ト変換行列 T は上述の ( 4 3 ) 式と同様となる。
またスキュー変換とは、 z軸の正方向に距離 h/2だけ平行移動した 2次元平面 のソ ースビデオ信号 V 1Aをその中心を基準にして X軸の正及び負方向と、 y軸の 正及び負方向とにそれぞれ所望のスヰユー率で 2次元的に歪めるものである。 こ のス半ュ一変換行列は上述の ( 4 4 ) 式と同様となる。
従ってレ一 卜変換及びスキュー変換の復号変換行列であるレー ト · スキュー変 換行列 T rsも、 上述の ( 4 5 ) 式と同様となる。
また、 このレー ト ' スキュー変換行列 T rsによって変換された 2次元平面上で の 4点の座標 ( x 1 ' 、 y 1 ' ) 、 ( x 2 ' 、 y 2 - ) 、 ( x 3 ' , y 3 ' ) , ( x ' 、 y ' ) は上述の ( 4 6 ) 式と同様となる。
以上のように第 1 のソ ースビデオ信号 V 1Aを目的画像表示面 (SideA)の対向面 (SideA ' ) にマツビングする処理をまとめると、 マツビング処理を表す行列を M A ' と して、 次式、 Λ ' = L Λ ' · T r s …… ( 4 ) となり、 図 9 に示すソ ースビデオ信号 V 1 Aの 2次元平面上での 4 ( X , 、 y , ) 、 ( X 2 、 y 2 ) 、 ( x 3 、 y 3 ) 、 ( x 4 、 y 4 ) は、 行列: VI Λ ' によって 3次元空間上の目的画像表示面 (SideA)の対向面(SideA ' ) の 4点 ( x , ' 、 y ! ' 、 ) 、 ( x 2 y 2 ' 、 h/2 ) 、 ( x 3 ' , y 3 ' . /2 ) 、 ( χ 4 ' 、 y 4 ' 、 h/2 ) にマッピングされたことになる。
因みに、 第 1 のソ ースビデオ信号 V に対応して画像生成部 2 0 に入力される キー信号 K "に対しても、 ソ ースビデオ信号 V 1Aを目的画像表示面 (SideA)の対 向面(SideA ' ) にマツビングする上述の場合と同様の変換処理が施される。
( 7 ) 第 1 の側面 (SideB)へのマツビング
図 3 に示す画像生成部 3 0 において、 ク π ップ回路 3 1 に人力されたソ ースビ デ才信号 V 1 Bは、 オペレータの操作によって所望の領域が切り取られる。 このソ —ス ビテオ信号 V 1 Bは、 ク ロ ップ回路 3 1 に入力される時点では: だ X y平面上 に位置する 2次元画像である。 すなわち X y zの 3次元座標系を 1軸の視点 P Z の位置から z軸の正方向を見た図 1 2 ( A ) において、 x y平面上のソ ースビデ ォ信号 V 1 Bの左端のク D ップ位置を C BLと表し、 右端のク ·□ップ位置を C BRと表 し、 上端のク ロ ップ位置を C BTと表し、 下端のク σ ップ位置を C と表すと、 ク αップされたソ ースビデオ信号 V 1 Bの 4つの頂点の座標は、 ( C 3 R、 C B T) 、 ( C BL、 C BT) 、 ( C Bし、 C BB) 、 ( C BKヽ C BB) と表すことができる。
因みに図 i 2 ( B ) は、 x y z の 3次元座標系を y軸の正方向から負方 1 に向 かって俯瞰した状態を示し、 ク口ップされたソ ースビデオ信号 V 1 Bは X y平面上 において 「 C BI.」 から 「(: B R i に亘つて存在し、 z軸方向への立体的厚みは無い このようにしてクロ ップ回路 3 1 においてク ロ ップされたソ ースビデ才信号 V 1 Bは、 フ レームメ モ リ F M 32 (図 3 ) に変形されない状態でそのまま記憶される ク 口 ップ回路 3 1 によってク 口ップされた後、 フ レー ムメ モ リ F M 32に記憶さ れたソ ースビデオ信号 V 1 Bは、 平行移動行列 L B0によって、 当該ク ップ洛のソ 一スビデオ信号 V I Bの中心が X y平面の原点 0に位置するように平行移動される 。 この平行移動行列 L B。は、 ク ップによって示される 4点 C Bし、 C Βκ C BT、 C BBの座標位置から、 次式、
3
3
L B 0 =
(C BR + C BL) 12 — (C BT + C Bb) I 0
によって表される。 従って X y 2 の 3次元座標系を τ軸上の視点 Ρ Ζの位置から 見た図 1 3 ( Α ) に示すように、 ソ ースビデオ信号 V l t>は平行移動行列 5 L ΒΠによ o つてその中心が原点 0と Sなるように移動される。
因みに図 1 3 ( Β ) は、 X y 2の 3次元座標系を y軸の正方向から &方向に向 かって俯瞰した状態を示し、 ソ ースビデオ信号 V】Bは平行移動行列 L B0によって y平面上を移動していることが分かる。
このよう にして平行移動されたソ ースビデオ信号 V 1 Bに対して、 拡大/縮小行 列 S B による拡大又は縮小を施す。 この拡大又は縮小とは、 ク ロップされたソ ー スビデオ信号 V 1 Bの X方向の長さが、 図 8 について上述した目的画像表示面 (Si deA)の第 1 の側面 (SideB)と接する辺 H B の長さと一致するよう にソ ー スビデオ 信号 V 1Bを X方向に拡大又は縮小するとともに、 当該ソ ー スビデオ信号 V , の y 方向の長さ力 図 6 について上述した直方体 B 0 Xの厚み h と一致するよう にソ ースビデオ信号 V I Bを y軸方向に拡大又は縮小するものである。
この拡大 縮小における X軸方向の拡大/縮小率を r Ux、 y fe方向の拡大 Z縮 小率を r Byとすると、 クロ ップされたソ ースビデオ信号 V I Bの X軸方向の長さ ( C C «,.) 及び y軸方向の長さ ( C nT— C Bli) を用いて、 次式、
H
し —し と表すことができ る。 従って、 拡大/縮小変換行列 S B は、 ( 4 3 ) 式について 上述したレー ト変換行列 T ra teの X轴方向の拡大/縮小率 1 r x 」 及び y軸方向 の拡大 Z縮小率 I r y 」 をそれぞれ ( 5 1 ) 式で表される拡大/'縮小率 「 r Βκ」 、 「 r By」 に置き換えて、 次式、
0 0
5
0 0
S ( 5 2
1 0
0 1
と表される。
これにより、 図 1 4 ( A ) に示すように、 中心が原点 0と重なった位置にある ク ロ ップ済のソ ースビデオ信号 V IBは、 拡大 Z縮小変換行列 S B によって X軸方 向及び y軸方向にそれぞれ原点 0を中心に拡大又は縮小される。 このとき、 x y zの 3次元座標系を y軸の正方向から負方向に向かって俯瞰した図 1 4 ( B ) に 示すように、 拡大 Z縮小変換行列 S B によるソ ースビデオ信号 V ,Bの変換では、 当該ソ ースビデオ信号 V 1 Bは X y平面上において 2次元的に変換されることが分 18668 力、る。
なお、 この実施例においては、 オペレータが指定した 4つのク ロ ッブ値 C BR、
C BL, C BT及び C BBから、 目的画像表示面 (SideA)の辺 H B 及び厚み h に合わせ た拡大 Z縮小率 r Bx及び r Byを求めている。 これによ り、 図 1 5 ( A ) に示すよ つ (こ、 4 つの,1^ (C BL、 C BT) 、 ( C BRX C UT) 、 ( C BL、 し BB) 、 ( し BR、 C BB) によってク Π ップされたソ 一スビデオ信号 V Ι Βの領域が全体と して拡大又は 縮小される (これをクロップ優先と呼ぶ) 。
これに対して、 オペレータが直接この拡大 Ζ縮小率 r Βχ及び r Byと、 2つのク σップ値 C BR及び C ΒΒを入力することによって所望の拡大ノ縮小率でソ一人一 ビデ 才信号 V Ι Βをク πップしても良い。 この 3場合、 図 1 5 ( Β) に示すように、 拡大
5
Ζ縮小率をともに i として 2つのクロップ値 C Βκ、 C BTを人力することにより、 ソ ースビデ才信号 V ,Bのうち、 必要とする領域の画像をそのまま切り取ることに よ り、 必要とされる拡大 Ζ縮小画像を得ることができる。
このようにして拡大又は縮小されたソ ースビデオ信号 V Ι Βは、 回転変換行列 R Βχによって、 X軸回りに 90° 回転させられる。 この回転変換行列 R は、 x y平 面上のソ ースビデオ信号 V 1 Bを X z平面上に変換するための行列であり、 次式、
1 0 0
0 cos( 7Γ IV) -sin( 7Γ /2)
R B x =
0 sin(s- /2) cos ( π I'D
0 0 0
1 0 0 0
0 0 - 1 0
5 3 ) 0 1 0 0
0 0 0 1 によって表される。 従って図 1 4 について上述した拡大 Z縮小^の X y平面上の ソ ースビデオ信号 V 1 Bは、 x y zの 3次元座標系を y軸の正方向から負力向に向 かって俯瞰した図 1 6 ( B ) に示すよう に、 回転変換行列 R Bxによって X z平面 上に回転変換される。 この結果、 マッピングしょう とする直方休 B 0 X (図 8 ) の第 1 の側面 (SideB)が、 当該目的画像表示面 (SideA)に対して 90° の角度にあ ることに応じて、 回転変換行列 R Bxによって回転変換されたソ ースビデオ信号 ( 図 1 6 ( B) ) は目的画像表示面 (SideA)に対して同様の角度 :90° ) の位置に 回転移動される。
因みに図 1 6 ( A ) は、 回転変換行列 R によって X z平面上に変換されたソ ースビデオ信号 V 1 Bを z轴上の視点 p Z 3の位置から見た状態を示し、 この状態に
6
おいてソ ースビデオ信号 V 】Bは y軸方向に厚みを持たない。
このようにして X z平面上に回転変換されたソ ースビデオ信号 V 1 B (図 1 6 ) は、 回転変換行列 R Bzによって、 z軸回りに所定角度 tf B だけ回転させられる。 この回転変換行列 R Bzは、 X z平面上のソ ースビデオ信号 V :図 1 6 ) を X蚰 に対して所定角度 Β だけ傾ける変換行列であり、 次式、
5
COS θ Β s 1 η ^ 0 0
4 S 1 Π Β cos θ 0 0
R Β ζ =
0 0 】 0
0 0 0 1
によって表される。 従って図 1 6 について上述した χ ζ平面上のソ ースビデオ信 号 V ,Bは、 X y ζの 3次元座標系を ζ軸上の視点 Ρ Ζの位置から見た図 1 7 ( Λ
) に示すよ う に、 原点 0を中心にして X軸に対して所定角度 B だけ傾いた位匿 に回転変換される。 この結果、 直方体 B O X (図 8 ) の目的画像表示面 (SideA) にマツビングされるソ ースビデ才信号 V , Λが図 1 1 について上 したようにスキ ユー変換されていることに応じて、 回転変換行列 R Bzによって回 ¾変換されたソ ースビデオ信号 (図 1 Ί ( A ) ) は目的画像表示面 (SideA)に対する角度 (90° ) を保持したまま、 第 1 の側面 (SidcB)と平行な位置に回転移動される。
なお、 当該回転変換行列 R Bzのパラメ ータ B は、 上述の図 ! 1 においてスヰ ユーされた第 1 のソ ースビデオ信号 V 1 Aの 2点の座標値 ( X , ' 、 y , ' ) 、 ( X y ) 又は、 ( X y ) 、 ( x y :> ) 力、ら求められ 、 次式、 tan y 2 ( X ) )
( 5 5 によって すことができる。
因みに図 1 7 ( B ) は、 回転変換行列 K BZによって回転移動されたソ ースビデ ォ信号 V I Bを、 y軸の正方向から負方向に向かって見た状態を示す。
このようにして X軸に対して所定角度 Β だけ傾く ように回転変換されたソ 一 スビデオ信号 V 1 B (図 1 7 ) は、 平行移動行列 L B によって、 x y平面に沿って 平行移動される。 この平行移動行列 L B は、 図 1 7 に示すソ ースビデオ信号 V ,Η を、 直方体 B O X (図 8 ) の第 1 の側面 (SideB)に重なるよう に移動する変換行 列である。 この場合、 図 ! 7 において目的画像表示而 (SideA)の第 1 の側面 (Si deB)側の辺 H B は、 2つの点 ( X " , y ' ) 及び ( x 2 ' 、 y 2 ' ) を結ぶ 直線によって表されている。 従って図 1 7 に示すソ ー ス ビデオ信号 V 1 Bを第 ] の 側面 (SideB)にマツビングするためには、 ソ ースビデオ信号 V 1 Bを平行移動行列 し によって辺 H B に一致するように移動させる必要がある。
従ってソ ースビデオ信号 V 1 Bの中心が、 2つの点 ( X , ' 、 y , 及び ( X ' 、 y の中間位置と一致するように当該ソ ース ビデオ信号 V ,Bを平行移 動すれば良く 、 この平行移勛行列し Β は、 次式、 'CT/JP96/033 7
1 o o
0 o o
L B =
0 0 1 0
( x + x ( y 十 y
0 1
2 2
( 5 6
によって表される。 従って図 1 7 について上述したソ ースビデオ信号 V 1 Βは、 X y ζ の 3次元座標系を 2軸上の視点 Ρ Ζの位置から見た図 1 8 ( Λ ) に示すよう に、 平行移動行列 L B によって辺 H B に一致するように X y平面上を平行移! II)さ れ、 これにより直方体 B O X (図 8 ) の第 1 の側面 (SideB)にマッピングされる 因みに図 1 8 ( B ) は、 平行移動行列 L B によって平行移動されたソ ース ビデ ォ信号 V 1 Bを、 y轴の正方向から負方向に向かって見た状態を示す。
以上のように第 2のソ ースビデオ信号 V 1 Bを第 1 の側面 (SideB)にマツビング する処理をまとめると、 マッ ピング処理を表す行列を M B と して、 ( 5 ϋ ) 式、 ( 5 2 ) 式、 ( 5 3 ) 式、 ( 5 4 ) 式及び ( 5 6 ) 式から、 次式、
Μ Β = L a D■ S R Β χ · R 5 7
とな り、 これによ り図 1 2 に示す X y平面上のソ ースビデオ信号 V , Βは、 直方体 B O X (図 8 ) の第 1 の側面 (SideB)にマッピングされたことになる。
因みに、 第 2のソ ースビデオ信号 V 1 Bに対応して画像生成部 3 0に入力される キー信号 K 1 Bに対しても、 ソ ースビデオ信号 V 1Bを第 1 の側面 (SideB)にマツピ ングする上述の場合と同様の変換処理が施される。
( 8 ) 第 1 の側面 (SideB)の対向面(SideB へのマツ ピング 図 3 に示す画像生成部 3 0 において、 ク コ ップ回路 3 1 に人力されたソ ースビ デォ信号 V 1 Bは、 オペレータの操作によって所望の領域が切り取られる。 このソ ースビデオ信号 V 1 Bは、 ク u ッゾ回路 3 1 に入力される時点では未だ X y平面丄 に位置する 2次元画像である。 すなわち X y zの 3次元座標系を 軸の視点 P Z の位置から z軸の正方向を見た上述の図 1 2 ( Λ ) において、 x y平面上のソ ー スビデオ信号 V 1 Bの左端のク ップ位置を C Bしと表し、 右端のク口ップ位置を C BRと表し、 上端のク ロップ位置を C BTと表し、 下端のクロップ位匿を C BBと表す と、 ク ロップされたソ ースビデオ信号 V 1 Bの 4つの] H点の座標は、 (C BR C Βτ
) 、 ( C BL C BT) 、 ( C BLN C BB) 、 (C BB、 C B I( ) と表すことカ<でき る。 このようにしてク πップ回路 3 1 にお 3 いてク ' ップされたソ ースビデオ信号 V
9
1 Βは、 フ レームメ モ リ I'' Μ 32 (図 3 ) に変形されない状態でそのまま記惊される クロップ回路 3 1 によってクロ ップされた後、 フ レームメ モ リ F M 32に記憶さ れたソ ースビデオ信号 V 1 Bは、 平行移動行列 L BUによって、 当該クロ ップ済のソ ビデオ信号 V 1 Bの中心が X y平面の原点 0に位置するよう に平行移動される 。 この平行移動行列し β0は、 上述の ( 5 0 ) 式と同様となる。 従って図 1 3 (Λ ) について上述した場合と同梂にして、 ソ ースビデオ信号 V ,Βは平行移動行列 1, Β0によってその中心が原点 0と重なるように移動される。
このようにして平行移動されたソ ースビデオ信号 V , Βに対して、 拡大/縮小行 列 S B による拡大又は縮小を施す u この拡大ノ縮小行列 S n は、 上述の ( 5 2 ) 式と同様となる。
これにより、 図 1 4 ( A) について上述した場合と同様にして、 中心が原点〇 と重なった位置にあるク πップ済のソ ースビデオ信号 V ,Bは、 拡大 Z縮小変換行 歹リ S B によって X軸方向及び y軸方向にそれぞれ原点◦を中心に拡大乂は縮小さ れる。
なお、 対向面(SideB ' ) へのマッピングにおいても図 1 5 ( A ) について上述 した場合と同様にして、 オペレータが指定した 4つのク "ップ値 C BR C H C BT及び C BBから、 目的画像表示面 (SideA)の辺ト 及び厚み h に合わせた拡大 縮小率 r Bx及び r Byを求め、 4 つの点 (C BL、 C BT) 、 ( C C DT) 、 ( C BL 、 C BB) 、 ( C BR、 C BB) によってク D ップされたソ ース ビデ;†信号 V 1 Bの領域 が全体と して拡大又は縮小される (これをクロ ップ優先と呼ぶ) „
これに対して、 オペレータが直接この拡大 Z縮小率 r Bx及び r Byと、 2つのク Dップ値 C BR及び C BBを入力することによって所望の拡大 Z縮小率でソ 一人- ビデ ォ信号 V 1 Bをク πップしても良い。 この場合、 図 1 5 ( B ) について上述したよ うに、 拡大/縮小率をともに i と して 2つのクロップ値 C B(<、 C BTを入力するこ とにより、 ソ ー スビデオ信号 V i Bのうち、 必要とする領域の画像をそのまま切り 取るこ とによ り、 必要とされる拡大ノ縮小画像を得るこ とができ る。
このようにして拡大又は縮小されたソ ースビデオ信号 V ,Bは、 回転変換行列 R によって、 X軸回りに 90° 回転させられる。 この回転変換行列 R Bxは、 上述の ( 5 3 ) 式と同様となる。 従って図 i 4 について上述した拡大 Z'縮小済の X y平 面上のソ ース ビデオ信号 V 1 Bは、 図 1 6 について上述したよう に、 回転変換行列 I? Bxによって X z平面上に回転変換される。 この結果、 マッ ピングしょう とする 直方体 B O X (図 8 ) の第 1 の側面 (SideB)の対向面(SidefT ) が、 当該目的画 像表示面 (SideA)に対して 90° の角度にあることに応じて、 回転変換行列 K に よって回転変換されたソ ースビデオ信号 (図 1 6 ( B ) ) は目的画像表示面 (Si deA)に対して同様の角度 (90° ) の位置に回転移動される。
このようにして X z平面上に回転変換されたソ ースビデオ信号 V ,Β (図 1 6 ) は、 回転変換行列 R BZによって、 z軸回りに所定角度 ί? Β だけ回耘させられる。 この回転変換行列 R は、 X ζ平面上のソ ースビデオ信号 V 1 Β :図 1 6 ) を X軸 に対して所定角度 Β だけ傾ける変換行列であり、 上述の ( 5 4 ) 式と同様とな る。 従って図 1 6 について上述した X ζ平面上のソ 一スビデオ信号 V 1 Βは、 図 ] 7 について上述したように、 原点〇を中心にして X軸に対して^定角度 π だけ 傾いた位置に回転変換される。 この結果、 直方体 B O X (図 8 ) の目的画像表示 面 (SideA)にマツビングされるソ ースビデオ信号 V が図 1 1 について上述した ようにスキュー変換されていることに応じて、 回転変換行列 R ^によって回転変 換されたソ ースビデオ信号 (図 1 7 (Λ ) ) は目的画像 ¾示面 (SideA)に対する 角度 (90° ) を保持したまま、 第 1 の側面 (SideB)の対向 lii (Sideir ) と平行な 位置に回転移動される。
なお、 当該回転変換行列 R Bzのパラメ —タ " は、 上述の図 1 1 においてス半 ユーされた第 1 のソ ースビデオ信号 V の 2点の座標値 ( X , - 、 y ! ' ) 、 ( X 2 、 y s ' ) 又は、 ( 4 、 y i ' ) 、 ( 、 力、ら求められ 、 上述の ( 5 5 ) 式と同様となる。
このようにして X軸に対して所定角度 B だけ傾く ように回転変換されたソ 一 スビデオ信号 V 1 B (図 1 7 ) は、 平行移動行列し B ' によって、 x y平面に沿つ て平行移動される。 この平行移動行列 L B は、 図 1 7 に示すソ ース ビデオ信号 V 1 Bを、 直方体 B O X (図 8 ) の第 1 の側面 (SideB)の対向面(SideB ' ) に Sなる ように移動する変換行列である。 この場合、 上述の図 1 7 において目的画像表示 面 (SideA)の第 1 の側面 (SideB)側の辺ト と対向する対向面(SideB ) 側の辺 H D ' は、 2つの点 ( X 4 ' 、 y 4 ' ) 及び ( X 3 ' 、 y :i ' ) を結ぶ直線によ つて表されている。 従って図 1 7 に示すソ ースビデオ信号 V 1 Bを第 1 の側面 (Si deB)の対向面(S 1 deB - ) にマツビングするためには、 ソ ースビデォ信号 V , Bを平 行移動行列 L B ' によって辺 H b ' に一致するよう に移動させる必要がある。 従ってソ ースビデオ信号 V ,Βの中心が、 2つの点 ( X 4 ' 、 y 4 ' ) 及び ( X 3 - 、 y 3 ' ) の中間位置と一致するように当該ソ ース ビデオ信号 V 1 Πを平行移 動すれば良く 、 この平行移動行列 L B — は、 次式、
Figure imgf000044_0001
( 5 8 ) によって表される。 従って図 1 7 について上述したソ ースビデオ信号 V 1 Bは、 平
4
行移動行列 L B ' によって辺 Π Β ' に一致するように Χ y平面上を平行移劻され 、 これにより直方体 B O X (図 8 ) の第 1 の側面 (SideB)の対向面(S】deB ' ) に マッビングされる。
以上のように第 2のソ ースビデオ信号 V 1 Bを第 1 の側面 (SideB)の対向面(S】d eB ' ) にマッピングする処理をまとめると、 マッ ピング処理を表す行列を MB ' と して、 ( 5 0 ) 式、 ( 5 2 ) 式、 ( 5 3 ) 式、 ( 5 4 ) 式及ひ ( 5 8 ) 式から 、 次式、
M S B R R し B 5 9 )
となり、 これにより図 1 2 に示す X y平面上のソ ースビデオ信号 V ,Bは、 直方体 B O X (図 8 ) の第 1 の側面 (SideB)の対向面(SideB ' ) にマッ ピングされたこ とになる。
因みに、 第 2のソ ースビデオ信号 V 1 Bに対応して画像生成部 3 0 に入力される キー信号 K I Bに対しても、 ソ ースビデオ信号 V 1 Bを第 1 の側面 ': SideB)の対向面 (SideB " ) にマツビングする上述の場合と同様の変換処理が施される。
( 9 ) 第 2の側面 (SideC)へのマツ ビング 図 3に示す画像生成部 4 0 において、 ク 口ップ回路 4 1 に入力されたソ 一ス ビ デ才信号 V l cは、 オペレータの操作によって所望の領域が切り取られる。 このソ ース ビテオ信号 V】cは、 ク ップ回路 4 1 に入力される時点では未だ X y平面上 に位置する 2次元画像である。 すなわち X y zの;]次元座標系を z軸の視点 P Z の位置から z軸の正方向を見た図 1 9 ( Λ において、 x y平面上のソ ースビデ 才信号 V l cの左端のク口ップ位置を C CLと表し、 右端のク ロ ップ位置を C CRと表 し、 上端のク 口 ップ位置を C CTと表し、 下端のク π ップ位置を C CBと表すと、 ク π ップされたソ ースビデオ信号 V 1 Cの /! つの頂点の座標は、 ( C CR、 C c C c C CT) C c C CB) C CR、 C CB と表すことができる。
因みに図 1 9 (B) は、 X y zの 3次元应標系を y軸の正方向から負方向に向 かって俯瞰した状態を示し、 ク ロ ップされたソ ースビデオ信号 V 1Cは X y平面上 において 「 C C から 「 C CR」 に亘つて存在し、 z軸方向への立体的原みは無い このようにしてクロップ回路 4 1 においてク ロップされたソ ースビデオ信号 V lcは、 フ レームメ モ リ F M 42 (図 3 ) に変形されない状態でそのまま記憶される クロップ回路 4 1 によってク ロ ップされた後、 フ レームメ モ リ F M 42に記憶さ れたソ ースビデオ信号 V】cは、 平行移動行列し coによって、 当該ク ロップ済のソ ーフ、ビデオ信号 V ,cの中心が X 平面の原点 0に位置するように平行移動される 。 この平行移動行列 L coは、 ク nップによって示される 4点 C c C CR C c C CBの座標位置から、 次式、
C 0— ( 6 0 )
(C C R + C /2 - (C CT+ C /2 0 によって表される。 従って x y z の 3次元座標系を z軸上の視点 P Zの位置から 見た図 2 0 ( A ) に示すよう に、 ソ ース ビデオ信号 V 1 (は平行移勖行列し coによ つてその中心が原点 0と重なるように移動される。
因みに図 2 0 ( B ) は、 X y zの;]次元座標系を y軸の正方向から負方向に向 かって俯瞰した状態を示し、 ソ 一スビデオ信号 V l cは平行移動行列し cuによって X y平面上を移動していることが分かる。
このよう にして平行移動されたソ一ス ビデオ信号 V l cに対して'、 拡大 Z縮小行 歹リ S c による拡大又は縮小を施す。 この拡大又は縮小とは、 ク □ ップされたソ 一 スビデオ信号 V 1Cの X方向の長さが、 図 8 について上述した目的画像表示面 (Si deA)の第 2の側面 (SideC)と接する辺 H c の長さと一致するようにソ ースビデオ 信号 V ,cを X方向に拡大又は縮小するとともに、 当該ソ ースビデオ信号 V の y 方向の長さが、 図 8 について上述した直方体 B O Xの厚み h と一致するようにソ ースビデオ信号 V l cを y軸方向に拡大又は縮小するものである。
この拡大 Z縮小における X軸方向の拡大/縮小率を r cx, y軸方向の拡大 Z縮 小率を r cyとすると、 ク ロ ップされたソ ースビデオ信号 V i cの X軸方向の長さ (
C C 及び y軸方向の長さ ( C CT一 C <:B) を用いて、 次式、
H
( 6 1 )
C し と表すことができ る。 従って、 拡大/縮小変換行列 S c は、 式について 上述したレー ト変換行列 T ra teの X軸方向の拡大 Z縮小率 「 r 」 及び y軸方向 の拡大/縮小率 「 r y 」 をそれぞれ ( 6 1 ) 式で表される拡大 Z縮小率 「 r Cx」 、 「 r Cy」 に置き換えて、 次式、 0 0
ϋ o
S c =
1 o
0 1
と表される。
これにより、 図 2 1 (Α ) に示すように、 中心が原点 0と重なった位置にある ク u ップ済のソ ースビデオ信号 V l cは、 拡大 Z縮小変換行列 S c によって X铀方 向及び y軸方向にそれぞれ原点 0を中心に拡大又は縮小される。 このとき、 x y zの 3次元) ¾標系を y軸の正方向から ¾方向に向かって俯瞰した図 2 1 ( B ) に 示すよう に、 拡大/縮小変換行列 S (: によるソ ース ビデオ信号 V 1 Cの変換では、 当該ソ ースビデオ信号 V 1 Cは X y平面上において 2次元的に変換されることが分 かる。
なお、 この実施例においては、 オペレータが指定した 4 つのク ロ ップ値 C CR、 C c C CT及び C CBから、 目的画像表示面 (SideA)の辺 Π c 及び厚み h に合わせ た拡大/縮小率 r CK及び r Cyを求めている。 これにより、 図 2 2 ( A ) に示すよ
6 う に、 4 つの点 (C c C CT) 、 ( C CR、 C C T) 、 ( C c C CB) 、 ( C 2 CR、 C C B) によってク 口ップされたソ ースビデオ信号 V ,cの領域が全体と して拡大又は 縮小される (これをク π ップ優先と呼ぶ) 。
これに対して、 オペレータが直接この拡大 Z縮小率 r Cx及び r と、 2つのク 口ップ値 C CK及び C CBを入力することによって所望の拡大 Z縮小率でソ 一ス ビデ 才信号 V l cをク uップしても良い。 この場合、 図 2 2 ( B ) に示すよう に、 拡大 /縮小率をともに 1 として 2つのク πップ値 C CR、 C CTを入力することにより、 ソ ースビデオ信号 V lcのうち、 必要とする領域の画像をそのまま切り取るこ とに より、 必要とされる拡大/縮小画像を得ることができる。
このようにして拡大又は縮小されたソースビデオ信号 V 1 (:は、 回転変換行列 K Cxによって、 X軸回りに 90° 回転させられる。 この回転変換行列 R は、 x y平 面上のソ ースビデオ信号 V ,cを X ス平面上に変換するための行列であり、 次式.
1 0 0
0 cos ( ^ /2) -sin ( 7Γ /2)
R
0 sin ( ;r /2) COS ( 7Γ /2)
0 0 - 0
1 0 0 0
0 ϋ - 1 0
4 6 3
0 1 0 0 6
0 0 0 1
によって表される。 従って図 2 1 について上述した拡大 Ζ縮小済の X y平面上の ソ ースビデオ信号 V lcは、 X y zの 3次元座標系を y軸の正方向から負方向に向 かって俯瞰した図 2 3 ( B ) に示すように、 回転変換行列 R C xによって X z平面 上に回転変換される。 この結果、 マッピングしょう とする直方体 B 0 X (図 8 ) の第 2の側面 (SideC)が、 当該目的画像表示面 (SideA)に対して 90° の角度にあ ることに応じて、 回転変換行列 K cxによって回転変換されたソ ースビデオ信号 ( 図 2 3 ( B ) ) は目的画像表示面 (SideA)に対して同様の角度 (90° ) の位置に 回転移動される。
因みに図 2 3 ( A ) は、 回転変換行列 R C xによって X 2平面上に変換されたソ ースビデオ信号 V 1 Cを τ軸上の視点 Ρ Ζの位 11から見た状態を示し、 この状態に おいてソ 一スビデオ信号 V l cは y軸方向に厚みを持たない。
このようにして X z平面上に回転変換されたソ ースビデ才信号 V i C (図 2 3 ) は、 回転変換行列 R C zによって、 z軸回りに所定角度(? c だけ回転させられる。 この回転変換行列 R は、 X z平面上のソ ースビデオ信号 V I C (図 2 3 ) を X軸 に対して所定角度 c だけ傾ける変換行列であり、 次式、 COS 0 c -s l n ^ c 0 0
s\n Θ c cos 0 c 0 0
R 6 4 )
0 0 1 0
0 0 0 1
によって表される。 従って図 2 3 について上述した X z平面上のソ ースビデオ信 号 V l cは、 X y zの 3次元座標系を z軸上の視点 P 7の位 [Ξから見た図 2 4 ( A
) に示すように、 原点 0を中心にして X軸に対して所定角度 c: だけ傾いた位置 に回転変換される。 この結果、 直方体 B O X (図 8〉 の目的画像表示面 (S)deA) にマッ ピングされるソ ースビデオ信号 V 】 が図 1 1 について上述したようにスヰ ユー変換されていることに応じて、 回転変換行列 R c zによって回転変換されたソ ースビデオ信号 (図 2 4 ( A) ) は目的画像表示面 (SideA)に対する角度 (90° ) を保持したまま、 第 2の側面 (SideC)と平行な位置に回 移動される。
なお、 当該回転変換行列 R C2のハ'ラメ ータ 6 c は、 上述の図 1 1 においてスヰ ユーされた第 1 のソ ースビデオ信号 V 1Cの 2点の座標値 ( X ! ' 、 ' ) 、 (
X 、 y 4 ) 又は、 ( 2 - 、 y 2 ' ) 、 ( X 3 ' 、 y 3 ' ) 力、ら求められ 、 次式、
= tan" ( - ( y y 4 ( χ
( 6 5 ) によって表すことができる。
因みに図 2 4 ( B) は、 回転変換行列 R Czによって回転移動されたソ ース ビデ ォ信号 V lcを、 y軸の正方向から負方向に向かって見た状態を示す。
このようにして X軸に対して所定角度 c だけ傾く ように回転変換された ソ ー スビデオ信号 V 1 C (図 2 4 ) は、 平行移動行列 L c によって、 x y平面に^つて 平行移動される。 この平行移 ij行列 L c は、 図 2 4 に示すソ ースビデオ信号 V l c を、 直方体 B O X (図 8 ) の第 2の側面 (SideB)に重なるよう に移動する変換行 列である。 この場合、 図 2 4 において目的画像表示面 (SideA)の第 2 の側面 (Si deC)側の辺 He は、 2つの点 ( X , y i ' ) 及び ( x 4 y 4 ' ) を結ぶ 直線によって表されている。 従って図 2 に示すソ ースビデオ信号 V l cを第 2の 側面 (SideC)にマツビングするためには、 ソ ースビデオ信号 V を平行移動行列 し c によって辺 に一致するように移動させる必要がある。
従ってソ ースビデオ信号 V の中心が、 2つの点 ( χ y , ' ) 及び ( X 、 y ' ) の中間位置と一致するように当該ソ ースビデオ信号 V ,cを平行移 動すれば良く 、 この平行移動行列 L c は、 次式、
1 0 ϋ 、
0 0 0
0 0 1 ο
+ X ( y + y
0 1
2 2
6
によって表される。 従って図 2 4 について上述したソ ースビデオ信号 V 1 Cは、 X y zの 3次元座標系を z軸上の視点 P Zの位置から見た図 2 5 ( A ) に示すよう に、 平行移動行列 Lc によって辺 He に一致するように X 平面上を平行移動さ れ、 これにより直方体 B O X (図 8 ) の第 2の側面 (SideC)にマッ ピングされる
因みに図 2 5 ( B) は、 平行移動行列し(: によって平行移動されたソ ースビデ 才信号 V lcを、 y軸の正方向から負方向に向かって見た状態を示す。
以上のように第 2のソ ースビデオ信号 V l cを第 2の側面 (Sid&C)にマッビング する処理をまとめると、 マツビング処理を表す行列を Μ(: と して、 ( 6 0 ) 式、 ( 6 2 ) 式、 ( 6 3 ) 式、 ( 6 4 ) 式及び ( 6 6 ) 式から、 次式、
Mc = L co · S c · R cx · R cz L c ( 6 7 ) となり、 これにより図 1 9 に示す X y平面上のソ ースビデオ信号 V l cは、 直方体 B O (図 8 ) の第 2の側面 (SideC)にマッピングされたことになる。
因みに、 第 2のソ ースビデオ信号 V lcに対応して画像生成部 4 0 に入力される キー信号 K ICに対しても、 ソ 一スビデオ信号 V 1 Cを第 2 の側面 (SideC)にマツ ビ ングする上述の場合と同様の変換処理が施される。
( 1 0 ) 第 2 の側面 (SideC)の対向面(SideC ) へのマソ ビング
図 3 に示す画像生成部 4 0 において、 ク πップ回路 4 I に入力されたソ ース ビ デォ信号 V 1 Cは、 オペレータの操作によって所望の領域が切り取られる。 このソ ースビデオ信号 V l cは、 クロップ回路 4 1 に入力される時点では未だ X y平面上 に位置する 2次元画像である。 すなわち X y zの 3次元座標系を z軸の視点 P Z の位置から z軸の正方向を見た上述の図 1 9 ( A ) において、 x y平面上のソ ー スビデオ信号 V 1 Cの左端のク π ップ位置を C C Lと表し、 右端のク πップ位置を C CRと表し、 上端のク□ ップ位置を C CTと表し、 下端のクロップ位置を C CBと表す と、 ク ロップされたソ ースビデオ信号 V 1 Cの 4つの頂点の座標は、 (C C R、 C
) 、 (C cL、 C 、 (C cL、 C ) 、 (C cK、 C cB) と表すこと力、'できる。 このようにしてクロ ップ回路 4 1 においてク ϋップされたソ ースビデオ信号 V は、 フ レームメ モ リ F M 42 (図 3 ) に変形されない状態でそのまま記惊される ク ロ ップ回路 4 1 によってク ロップされた後、 フ レームメ モ リ F M 42に記憶さ れたソ ースビデオ信号 V】cは、 平行移動行列 L c。によって、 当該ク π ップ ¾のソ ースビデオ信号 V 1 Cの中心が X y平面の原点 0に位置するように平行移動される 。 この平行移動行列 L eoは、 上述の ( 6 0 ) 式と同様となる。 従って図 2 0 ( A ) について上述した場合と同様にして、 ソ ー ス ビデオ信号 V l cは平行移動行列 L coによってその中心が原点 0と重なるよう に移動される。
このよう にして平行移動されたソ一人一 ビデオ信号 V ,cに対して、 拡大/縮小行 列 S c による拡大又は縮小を施す。 この拡大 縮小行列 S c は、 上述の ( 6 2 ) 式と同様となる。
これにより、 図 2 1 (Λ) について上述した場合と同様にして、 中心が原点 0 と重なった位置にあるク 口ップ洛のソースビデオ信号 V l cは、 拡大 Z縮小変換行 列 S c によって X軸方向及び y軸方向にそれぞれ原点 0を中心に拡大又は縮小さ れる。
なお、 対向面(SideC ' ) へのマッピングにおいても図 2 2 (Λ ) について上述 した場合と同様にして、 オペレータが指定した 4つのク ロ ップ値 C C K、 C c C CT及び C CBから、 目的画像表示面 (SideA)の辺 H c 及び厚み h に合わせた拡大 Z 縮小率 r Cx及び r Cyを求め、 4つの点 ( C C CT) 、 (C cK、 C CT) 、 ( C C L 、 C CB) 、 (C CR、 C C B) によってク ロ ップされたソ ースビデオ信号 V 1 Cの領域 が全体として拡大又は縮小される (これをク ップ優先と呼ぶ) 。
これに対して、 オペレータが直接この拡大ノ縮小率 r cx及び r Cyと、 2つのク σップ値 C CR及び C CBを入力することによって所望の拡大ノ縮小率でソ ー スビデ 才信号 V 1Cをク ロ ップしても良い。 この場合、 図 2 2 ( B ) について上述したよ うに、 拡大ノ縮小率をともに 1 と して 2つのク ップ値 C CK C CTを入力するこ とにより、 ソ ースビデオ信号 V ,cのうち、 必要とする領域の画像をそのまま切り 取ることにより、 必要とされる拡大/縮小画像を得ることがで る。
このよう にして拡大又は縮小されたソ ースビデオ信号 V 1Cは、 回転変換行列 R Cxによって、 X軸回りに 90° 回転させられる。 この回転変換行列 K は、 上述の ( 6 3 ) 式と同様となる。 従って図 2 1 について上述した拡大 Z縮小済の X y平 面上のソ ースビデオ信号 V 1Cは、 図 2 3 について上述したよう に、 回転変換行列 によって X z平面上に回転変換される。 この結果、 マッピングしょう とする 直方体 B O X (図 8 ) の第 2の側面 (SideC)の対向面(SideC ' ) が、 当該目的画 像表示面 (SideA)に対して 90° の角度にあることに応じて、 回転変換行列 R に よって回転変換されたソ ースビデオ信号 (図 2 3 ( B ) ) は目的画像表示面 (Si deA)に対して同様の角度 (90° ) の位置に回転移動される。
このようにして X z平面上に回転変換されたソ ースビデオ信号 V 1 (: (図 2 3 ) は、 回転変換行列 R によって、 z軸回りに所定角度 だけ回転させられる。 この回転変換行列 R は、 X z平面上のソースビデオ信号 V l c (図 2 3 ) を X軸 に対して所定角度 (: だけ傾ける変換行列であり、 上述の ( 6 4 ) 式と同様とな る。 従って図 2 3 について上述した X z平面上のソ ースビデオ信号 V , は、 図 2 4 について上述したように、 原点 0を中心にして X軸に対して所定角度 (: だけ 傾いた位置に回転変換される。 この結果、 直方体 B O X (図 8 ) の目的画像表示 面 (SideA)にマツビングされるソ ースビデ才信号 V , Λが図 1 1 について上述した よう にスヰ 変換されていることに応じて、 回転変換行列 R Czによって回転変 換されたソ ースビデオ信号 (図 2 4 (A ) ) は目的画像表示面 (SideA)に対する 角度 (90° ) を保持したまま、 第 2 の側面 (SideC)の対向面(S】deC ' ) と平行な 位置に回転移動される。
なお、 当該回転変換行列 R Czのパラメ ータ e c は、 上述の図 1 7 においてス + ュ一された第 1 のソ ースビデオ信号 V 1Aの 2点の座標値 ( X , ' 、 y , ' ) , ( X 、 y ' ) 又は、 ( Χ 2 ' 、 y - ) 、 ( x ' 、 y 力、ら求められ 、 上述の ( 6 5 ) 式と同様となる。
このようにして X軸に対して所定角度 c だけ傾く ように回転変換されたソ ー スビデオ信号 V 1 C (図 2 4 ) は、 平行移動行列 L c — によって、 X y平面に沿つ て平行移動される。 この平行移動行列 L B は、 図 2 4 に示すソ ースビデオ信号 V 1Cを、 直方体 B O X (図 8 ) の第 2の側面 (SideC)の対向面(SideC ' ) に重なる ように移動する変換行列である。 この場合、 上述の図 2 において B的画像表示 面 (SideA)の第 2の側面 (SideC)側の辺 H e と対向する対向面(S】 deC ' ) 側の辺 H e ' は、 2 つの点 ( X 2 ― 、 y 2 ' ) 及び ( X 3 、 y 3 " ) を結ぶ直線によ つて表されている。 従って図 2 4 に示すソ ースビデオ信号 V を第 2の側面 (Si deC)の対向面(S i de(T ) にマツビングするためには、 ソ ースビデ才信号 V】 cを平 行移動行列 L c ' によって辺 H e ' に一致するように移動させる必要がある。 従ってソ ー スビデオ信号 V l cの中心が、 2つの点 ( x 2 ' 、 y ' ) 及び ( X a ' 、 V 3 ' ) の中間位置と一致するように当該ソ ースビデオ信号 V 1 Cを平行移 動すれば良く 、 この平行移動行列し ' ' は、 次式、
0 0
0 ϋ ο
0 1 ο
( X 十 X ( y 十 y
6 8 によって表される。 従って図 2 4 について上述したソーフ、 ビデオ信号 V l cは、 平 行移動行列 ' によって辺 H e ' に一致するように X y平而.ヒを平行移動され 、 これによ り直方体 B O X (図 8 ) の第 2の側面 (SideC)の対 面(SideC ' ) に マッビングされる。
以上のように第 3のソ ースビデオ信号 V l cを第 2の側面 (SideC)の対向面(Sid eC ' ) にマッ ピングする処理をまとめると、 マツビング処理を表す行列を Mc " として、 ( 6 0 ) 式、 ( 6 2 ) 式、 ( 6 3 ) 式、 ( 6 4 ) 式及ひ ( 6 8 ) 式から 、 次式、
M し cn · S R R c , · し ( 6 9 ) となり、 これにより図 1 9 に示す X y平面上のソ ースビデオ信号 V ,cは、 直方体 B O (図 8 ) の第 2の側面 (SideC)の対向面(SideC ' ) にマツ ビングされたこ とになる。
因みに、 第 3のソ ースビデオ信号 V lcに対応して画像生成部 4 ϋ に入力される キー信号 K 1 Cに対しても、 ソ ースビデオ信号 V 1Cを第 2の側面 (SideC)の対向面 (SideC にマツビングする上述の場台と同様の変換処理が施される。
( 1 1 ) 第 1 のソ ースビデオ信号 V 1 Λの変換処理
画像処理装置 1 0の画像生成部 2 0 は、 上述の変換行列 Τ ( ( 3 ) 式) と、 ソ ースビデオ信号を 3次元座標系上の直方体 Β◦ X (図 8 ) の目的画像表示面 (Si deA)にマツビングする上述の行列 MA ( ( 7 ) 式) とを用いて、 あたかも 3次
5
元仮想空間上の所望の位 gに移動した直方 3体 B 0 Xの目的画像表示面 (SnieA)に ソ ースビデオ信号 V 1 Λの画像がマッピングされたかのようにス ク リ ー ン上におい て見える変換を行う。
この処理手順は図 2 6に示すように、 画像処理装置 1 0 は C P U 5 8及びヮ ー キングメ モ リ ( R 〇 Μ 5 9 、 R A Μ 6 1 ) を用いて、 まず、 ステップ S P 1 にお いて第 1 のソ ースビデオ信号 V Ι Λを目的画像表示面 (SideA)にマ ソ ビングするた めの行列 MA を、 ( 4 7 ) 式について上述したように、 栘 ¾行列 L A ( ( 2 ) 式) 及びレー ト · スキュー変換行列 T rs ( ( 5 ) 式) を用いて求める。 この行 列 MA によって X y平面上のソ ースビデオ信号 V,Λは、 図 2 7 に示すよう に、 X y ζ の 3次元座標系の基準位置 (中心が原点 ϋ と重なる位置) における直方体 Β Ο Χの目的画像表示面 (SideA)にマツビングされることになる ( V 1 A2) 。
図 2 6のステップ S P 1 において行列 MA が求められると、 画像処理装^ 1 0 はステップ S P 2 に移って、 2次元平面上のソースビデオ信号 V "を 3次元座標 系の所望の位置に変換する空間的画像変換の基本ステップである 3次元変換行列 To ( ( 1 ) 式) を求め、 さらに続く ステップ S P 3 に移り、 ステップ S P 2 に おいて求められた 3次元変換行列 T(, によって 3次元空間上に移動したソ ース ビ デォ信号 V をスク リ 一ン面上に透視する透視変換の基本ステップである透視変 換行列 Ρ。 ( ( 2 ) 式) を求める。 従って図 2 7 に示す直方体 B 0 ) (の目的画像表示面 (SideA)上に行列 ΜΛ によ つてマツビングされたビデオ信号 V Ι Α·.2は、 3次元空間上の所望の位匿に移 ¾し た直方体 Β 0 X ' の目的画像表示面 (SideA)に、 3次元変換行列 T。 によって、 移動されることになる (V 2A) 。 また当該 3次元移動変換されたビデオ信号 V は、 さらに X y平面上のス ク リ ー ン面上に透視変換されることになる (透視変換 ビデオ信号 V 3A) 。
このよう に目的画像表示面 (SideA)にソ ースビデオ信号 V , Aをマツビングする ための変換行列 M A と、 3次元空間上の所望の位置に変換するとともにス ク リ ー ン面上に透視する基本的画像変換行列丁。 及び P。 とが求まると、 画像処理装^ 1 0 はステップ S P 4 に移って、 ソ ースビデオ信号 V ,Λを 3次元空間上の目的凼
4
像表示面 (SideA)にマッ ピングした後、 これをスク リ ー ン而上に透視変換する変 換行列 ΤΛ を、 次式、
Τ Λ = ΜΛ · To · Ρ π …… ( 7 0 ) によって求める。 ここで ( 4 ) 式について上述したように、 画像処理装置 1 0で は、 フ レームメ モ リ F Μ 22に記憶されるソ ースビデオ信号 V 1 Λ及びフ レーム メ モ リ F M 22から読み出される透視変換ビデオ信号 は、 共に、 2次元のデータで あ り、 当該読出しア ド レスの演算においては、 3次元空問上の z軸方向のデータ は、 実質的には使用されない。 従って、 ( 7 0 ) 式の変換行列では、 z軸方向の データを演算するための 3行目及び 3列目のパラメ 一夕 は、 フ レー厶メ モ リ F M 22に対する読出しア ドレスを演算する際には必要とされない。
従って、 ( 7 0 ) 式の変換行列 T A から 3行目及び 3列目のパラメ ータを除い た行列 T A33 を実際の 2次元の読出しァ ト レスの演算の際に必要なパラメ ータを 有した変換行列とする。
このよう にして 3行 3列の変換行列 T A が求められると、 画像処理装置 1 0 はステップ S P 5に移って変換行列 T A 33 の行列式 D A33 を求め、 続く ステップ S P 6 に移る。 ステップ S P 6 は変換行列 Τ Λ33 の行列式 DA33 の値が正である か否かを判断するステップである。
こ こで、 ソ ースビデオ信号 V 1 Aの面積 S , と変換行列 ΤΛ33 による変換後のス ク リ ーン上の面積 S 3 との関係は、 次式、
S S ] det ( j' 7 1 )
によって表される。 この ( 7 1 ) 式から、 変換行列 T の行列式 D の値が 正である場合、 変換行列 TA33 によるソ ースビデオ信号 V , こよる変換が成立す る、 すなわち、 変換行列 TA33 によって 5移動変換されたビデオ信号が、 3次元空
5
間上の所望の位匿に移動された iS方体 B 0 X ' の目的画像表示面 (SideA)におい てその外側を向いている状態、 すなわち図 2 7 において直方体 B 0 X ' の目的画 像表示面 (SideA)にマツビングされた 3次元変換ビデオ信号 V 2Aの表面 F R 0 N Tが当該直方体 B 0 X ' の外側を向いている状態であることを表しており、 この とき画像処理装置 1 0 はステップ S P 6 において肯定結果を得、 ステ ップ S P 7 に移って、 目的画像表示面 (SideA)への変換を表す変換行列 TA3 :, に基づいて、 フ レー厶メ モ リ F M への読出しァ ド レス X MA、 Y MAを求めるためのパラメ 一タ b 〜 b A33 を上述の ( 2 8 ) 式〜 ( 3 6 ) 式に基づいて求める。
このようにして得られたパラメ ータ b A 1! 〜 b A33 に基づいて上述の ( 1 3 ) 式及び ( 1 4 ) 式から読出しア ド レス X ΜΑ、 Υ ΜΛを求め、 当該読出しァ ドレス X ΜΑ、 Υ によってフ レームメ モ リ F M 2内のソ ースビデ才信号 V , Λを読み出すこ とにより、 図 2 7 において 3次元空間上に移動された直方体 B 0 X ' の目的画像 表示面 (SideA)に当該ソ ースビデオ信号 V をマツビングするとともにこれを X y平面上のスク リ一ン面に透視変換することができ る。 かく してフ レームメ モ リ F M 22から透視変換ビデオ信号 V 3Aが読み出される。
これに対して上述のステップ S P 6 において否定結果が得られると、 このこと は、 変換行列 ΤΛ33 の行列式 DA33 の値が負であることを ¾しており、 このよう な状態は上述の ( 7 1 ) 式から成立しないことが分かる。 すなわち、 変換行列 T によって移動変換されたビデオ信号が、 3次元空問上の所望の位^に移動さ れた直方体 B O X ' の目的画像表示面 (SideA)においてその内側を向いている状 態、 すなわち図 2 7 において直方体 B 0 X ' の目的画像 ¾示面 (SideA)にマツ ビ ングされた 3次元変換ビデオ信号 V の表面 F R 0 N Tが当該直方体 B O X ' の 外側を向いている状態とは逆の方向 (直方体 B 0 X ' の内側方向) を向いている 状態であることを表している。
すなわち、 このことは、 3次元空間上の直方体 B 0 X の目的画像表示面 (Si deA)が図 2 7 に示すよう に当該目的画像表示面 (SideA)の対向面(SideA ' ) よ り も視点 P Z側に位置する状態ではなく 、 図 2 8 に示すように視点 P Z側に目的画 像表示面 (SideA)の対向面(SideA ' ) が位置する状態であることが分かる。 すな わち、 図 2 7では 3次元空間上の直プ j体 B 0 X ' 力く X y平面に对して 45° の角度 で回転しているのに対して、 図 2 8では 3次元空間上の直方体 B O X ' 力 < X y平 面に対して 225° の角度で回転している。
因みに、 この状態において対向面(SideA ' ) にはソ ー ス ビデオ信号 V Ι Λを 3次 元変換してなる 3次元変換ビデオ信号 V ' の表面 F R 0 Ν Τが直方体 Β 0 X ' の内側、 すなわち ζ軸の正方向を向く ようにマッ ピングされる。
かく して図 2 6のステップ S Ρ 6 において否定結果が得られると、 画像処理装 置 i 0 は、 ステップ S P 8 に移って第 1 のソ ースビデオ信号 V ; Λを目的画像表示 面 (SideA)の対向面(SideA ' ) にマツ ビングするための行列 M " ' を、 ( 4 9 ) 式について上述したように、 移動行列 L A ' ( ( 4 8 ) 式) 及びレー ト ' スキュ —変換行列 T r s ( ( 4 5 ) 式) を用いて求める。 この行列 MA によって x y平 面上のソ一スビデオ信号 V 1 Aは、 図 2 6 に示すように、 X y 7,の 3次元座標系に おける直方体 B 0 Xの目的画像表示面 (SideA)の対向面(SideA ' ) にマッ ピング されることになる ( V 1 Λ2 ' ) 。
図 2 6のステップ S Ρ 8 において行列 ΜΛ ' が求められると、 画像処理装匿 1 0 はステップ S Ρ 9及びステップ S Ρ 1 0 において、 上述のステップ S Ρ 2及び ステップ S P 2 と同様にして 3次元変換行列 T。 ( ( 1 ) 式) 及び透視変換行列 Ρ□ ( ( 2 ) 式) を求める。
従って図 2 8 の直方体 Β 0 Xの目的画像表示面 (SideA)の対向面(SideA ' ) 上 にマツビングされたビデオ信号 V ' は、 3次元空問. hの所望の位 gに移勖し た直方体 B 0 X ' の目的画像表示面 (SideA)の対向面(SideA ' ) に、 3次元変換 行列 T。 によって、 移動されることになる (V 2A ' ) 。 また当該 3次元移動変換 されたビデオ信号 V 2A ' は、 さらに X y平面上のスク リ ―ン面上に透視変換され ることになる (透視変換ビデオ信号 V 3A ' ) 。
このよう に目的画像表示面 (SideA)の対向面(SideA ' ) にソ ースビデオ信号 V
5
1Aをマッ ピングするための変換行列 MA ' と、 3次元空間上の所望の位置に変換
7
するとともにス ク リ ーン面上に透視する基本的画像変換行列 T u 及び P。 とが求 まると、 画像処理装置 1 0はステップ S P 1 1 に移って、 ソ ース ビデオ信号 V 1 Λ を 3次元空間上の目的画像表示面 (SideA)の対向面(SifkA ' ) にマツビングした 後、 これをス ク リ ー ン面上に透視変換する変換行列 ΤΛ — を、 次式、
T ' = M ' · 'Γ o · Ρ ο …… ( 7 2 )
によって求める。 こ こで ( 4 ) 式について上述したように、 画像処理装置 1 0で は、 フ レームメ モ リ F M22に記憶されるソ ースビデオ信号 V 1 Λ及びフ レームメ モ リ F M22から読み出される透視変換ビデオ信号 V 3Aは、 共に、 2次元のデータで あり、 当該読出しア ド レスの演算においては、 3次元空間上の z籼方向のデータ は、 実質的には使用されない。 従って、 ( 7 2 ) 式の変換行列では、 z轴方向の データを演算するための 3行目及び 3列目のパラメ ータは、 フ レームメ モ リ F M 22に対する読出しァ ドレスを演算する際には必要とされない。
従って、 ( 7 2 ) 式の変換行列 TA ' から 3行目及び 3列目のパラメ ータを除 いた行列 T A33 ' を実際の 2次元の読出しア ド レスの演^の際に必要なパラ メ 一 タを有した変換行列とする。 / 9 / 7 このようにして 3行 3列の変換行列 T A33 ' が求められると、 画像処理装置 1
0 はステップ S Ρ 1 2 に移って変換行列 ΤΛ33 の行列式 DA33 を求め、 続く ステップ S P 1 3 に移る。 ステップ S P 1 3 は行列式 D A^ ' の値が負であるか 否かを判断するステップであり、 こ こで肯定結果が得られると、 このことは変換 行列 T A 3 3 ' によって移動変換されたビデオ信号が、 3次元空 ¾]上の所望の位置 に移動された直方体 B 0 X ' の目的画像表示面 (SideA)の対向面(SideA ' ) にお いてその内側を向いている状態、 すなわち図 2 8 において直方 ί本 B 0 X — の目的 画像表示面 (SideA)の対向面(SideA ' ) にマッ ピングされた 3 元変換ビデオ信 号 V 2A ' の表面 F R 0 N Tが当該直方体 B 0 X ' の内側を向いている状態である ことを表しており、 このとき画像処理装置 1 0 はステップ S P 1 4 に移って、 目 的画像表示面 (SideA)の対向面(S!deA— ) への変換を ¾す変換行列 Τ Λ 33 に基 づいて、 フ レームメ モ リ F M 22への読出しア ド レス Χ ΜΑ、 Υ ΜΑを求めるためのパ ラメ 一タ b A l l 〜 b A33 を上述の ( 2 8 ) 式〜 ( 3 6 ) 式に基づいて求める。 このよう にして得られたパラメ ータ b Α 1 , 〜 b A33 に基づいて上述の ( 1 3 ) 式及び ( 1 4 ) 式から読出しア ド レス X ΜΑ、 Υ ΜΛを求め、 当該読出しア ド レス X M Α、 Υ ΜΑによってフ レームメ モ リ I'' M 22内のソ ース ビデオ信号 V , Aを読み出すこ とによ り、 図 2 8 において 3次元空間上に移動された直方体 B 0 X ' の目的画像 表示面 (SideA)の対向面(SideA— ) に当該ソ ースビデオ信号 V , Λをマッ ピングす るとともにこれを X y平面上のスク リ 一 ン面に透視変換することができる。 かく してフ レームメ モリ F M22から透視変換ビデオ信号 V ' が読み出される。
またこれに対して図 2 6のステップ S Ρ 1 3において否定結果が得られると、 このことは、 例えば図 2 7及び図 2 8において 3次元空間上の直方体 Β 0 X が X y平面に対して 90° の角度で回転され、 視点 P Zから見て目的画像表示面 (Si deA)及びその対向面(SideA ' ) のいずれも見えないことを表しており、 このとき 画像処理装置 I 0 は、 C P U 5 8から読み出しア ド レス発生回路 2 5 に対してパ ラメ 一タ b A 1 1 〜 b A33 を供給せず、 透視変換ビデオ信号 V をフ レームメモ リ F Μ 22から読み出さない状態に制御する。 かく して図 2 6の処理手順により、 画像生成部 2 0 に入力されたソ ースビデオ 信号 は、 3次元仮想空間上の直方体 B 0 X ' の目的画像表示面 (SideA)又は その対向面(S】 (JeA ' ) にマツビングされ、 さらに当該マッピングされた 3次元空 間上の画像があたかも当該 3次元空問上にあるかのように 2次元平面でなるスク リ一ン面上に透視変換される。
( 1 2 ) 第 2 のソ ースビデオ信号 V 1 Bの変換処理
画像処理装置 1 0の画像生成部 3 0 は、 上述の変換行列 Τ ( ( 3 ) 式) と、 ソ ースビデオ信号を 3次元座標系上の直方体 Β 0 X (図 8 ) の第 1 の側面 (SideB)
5
にマツビングする上述の行列 M B ( ( 5 7 9 ) 式) とを用いて、 あたかも 3次元仮 想空間上の所望の位匿に移動した直方体 B ◦ Xの第 1 の側面 (SideB)にソ ース ビ デ才信号 V I Bの画像がマッピングされたかのよう にス ク リ ーン上において見える 変換を行う。
この処理手順は図 2 9 に示すよう に、 画像処理装置 ! 0 は C P U 5 8及びヮ ー キングメ モ リ ( R 〇 M 5 9、 R A M 6 1 ) を用いて、 まず、 ステ ップ S P 2 1 に おいて第 1 のソ ースビデオ信号 V 1 Bを第 1 の側面 (Si(kB)にマッビングするため の行列 M B を、 ( 5 7 ) 式について上述したよう に、 平行移動行列 L BO ( ( 5 0 ) 式) 、 拡大 Z縮小変換行列 S B ( ( 5 2 ) 式) 、 回転変換行列 R Bx ( ( 5 3 ) 式) 、 所定角度 だけ傾ける変換行列 R Bz、 及び平行移動行列 ( ( 5 6 ) 式) を用いて求める。 この行列 MB によって X y平面上のソ ースビデオ信号 V 1 B は、 図 3 0に示すように、 X y zの 3次元座標系の基準位置 (中心が原点 0と重 なる位置) における直方体 B 0 Xの第 1 の側面 (SideB)にマッピングされること になる ( V 1 B2) 。
図 2 9のステップ S P 2 1 において行列 M B が求められると、 画像処理装置 1 0 はステップ S P 2 2 に移って、 2次元平面上のソースビデオ信号 V 1 Bを 3次元 座標系の所望の位置に変換する空間的画像変換の基本ステップである 3次元変換 行列丁。 ( ( 1 ) 式) を求め、 さらに続く ステップ S P 2 3 に移り、 ステップ S P 2 2 において求められた 3次元変換行列丁。 によって 3次元空問上に移動した ソ ースビデオ信号 V 2Bをスク リ 一ン面上に透視する透視変換の基本ステッゾであ る透視変換行列 P。 ( ( 2 ) 式) を求める。
従って図 3 0 に示す直方体 B 0 Xの第 1 の側面 (SideB)上に行列 Mu によって マツビングされたビデオ信号 V , Β— 2は、 3次元空間上の所望の位置に移動した直 方体 B O X ' の第 1 の側面 (SideB)に、 3次元変換行列丁。 によって、 移動され ることになる (V 2B) 。 また当該 3次元移動変換されたビデオ信号 V 2Bは、 さら に X y平面上のスク リ 一ン面上に透視変換されることになる (透視変換ビデオ信 号 V 3B) 。
このように第 1 の側面 (SideB)にソ ースビデオ信号 V ιΒをマツビングするため の変換行列 Μβ と、 3次元空問上の所望の位置に変換するとともにス ク リ ー ン— 上に透視する基本的画像変換行列 T u 及び Ρ。 とが求まると、 画像処理装置 】 0 はステップ S Ρ 2 4 に移って、 ソ ースビデオ信号 V を 3次元空間上の第 1 の側 面 (SideB)にマッ ピングした後、 これをス ク リ ー ン面上に透視変換する変換行列 TB を、 次式、
Figure imgf000062_0001
によって求める。 こ こで ( 4 ) 式について上述したよう に、 画像処理装 ϋ 1 0で は、 フ レームメ モ リ i'' Μ 32に記憶されるソ 一ス ビデ才信号 V , Β及びフ レー厶メ モ リ F M 32から読み出される透視変換ビデオ信号 V は、 共に、 2次元のデータで あり、 当該読出しア ド レスの演算においては、 3次元空間上の z軸方向のデータ は、 実質的には使用されない。 従って、 ( 7 3 ) 式の変換行列では、 z軸方向の データを演算するための 3行目及び 3列目のパラメ ータは、 フ レームメ モ リ F M 32に対する読出しア ド レスを演算する際には必要とされない。
従って、 ( 7 3 ) 式の変換行列 TB から 3行目及び 3列目のパラメ ータを除い た行列 TB33 を実際の 2次元の読出しァ ドレスの演算の際に必要なパラメ ータを 有した変換行列とする。
このよう にして 3行 3列の変換行列 T B33 が求められると、 画像処理装置 1 0 はステップ S Ρ 2 5 に移って変換行列 Τ Β33 の行列式 D B3 :I を求め、 続く ステツ プ S P 2 6 に移る。 ステップ S P 2 6 は変換行列 T B33 の行列式 D B33 の値が正 であるか否かを判断するステップであり、 ここで肯定結果が得られると、 このこ とは図 2 6のステップ S P 6 について上述した場合と同様にして、 変換行列 T B3 によって移動変換されたビデオ信号が、 3次元空間上の所望の位置に移動され た直方体 B O X ' の第 1 の側面 (SideB)においてその外側を向いている状態、 す なわち図 2 8 において直方体 B O X - の第 1 の側面 (SideB)にマツピングされた 3次元変換ビデオ信号 V 2Bの表面 F R O N Tが当該直方体 B 0 X ' の外側を向い ている状態であることを表しており、 このとき画像処理装匿 1 0 はステップ S P
2 7 に移って、 第 】 の側面 (SideB)への変換を表す変換行列 Τ π33 に基づいて、 フ レームメ モ リ F Μ 32への読出しア ド レス )( ΜΒ、 Υ ΜΒを求めるためのパラメ ータ b 〜b B33 を上述の ( 2 8 ) 式〜 ( 3 6 ) 式に基づいて求める。
このようにして得られたパラメ ータ b Β 1 , 〜 b B33 に基づいて上述の ( 1 3 ) 式及び ( 1 4 ) 式から読出しア ド レス X MB、 Y MBを求め、 当該読出しア ド レス X ΜΒ、 ΥΜΒによってフレームメ モ リ F M32内のソ一ス ビデオ信号 V 1 Bを読み出すこ とによ り、 図 2 8 において 3次元空間上に移 i!/jされた直方体 B 0 X ' の第 1 の側 面 (SideB)に当該ソースビデオ信号 V 1 Bをマツ ビングするとともにこれを x y平 面上のスク リ一ン面に透視変換することができる。 かく してフ レームメ モ リ F M
32から透視変換ビデオ信号 V Bが読み出される。
これに対して上述のステップ S P 2 6 において否定結果が得られると、 このこ とは図 2 6のステップ S P 6 について上述した場合と同様にして、 変換行列 T によって移動変換されたビデオ信号が、 3次元空間上の所望の位置に移動され た直方体 B◦ X ' の第 1 の側面 (SideB)においてその内側を向いている状態、 す なわち図 3 0 において直方体 B 0 X の第 1 の側面 (SideB)にマツ ビングされた 3次元変換ビデオ信号 V 2Bの表面 F R 0 N Tが当該直方体 B 0 X ' の外側を向い ている状態とは逆の方向 (直方体 B 0 X の内側方向) を向いている状態である ことを表している。
すなわち、 このことは、 3次元空間上の直方体 B 0 X ' の第 i の側面 (S)deB) が図 3 0 に示すよう に当該第 1 の側面 (SideB)の対向面(SidcB ' ) よ り も視点 P Z側に位置する状態ではなく 、 図 3 1 に示すように視点 P Z側に第 ! の側面 (Si deB)の対向面(SideB ' ) が位置する状態であることが分かる。 すなわち、 図 3 0 では 3次元空間上の直方体 B 0 X ' が X y平面に対して 225° の角度で回転して いるのに対して、 図 3 1 では 3次元空間上の直方体 B 0 X — 力 < X y平面に対して 45° の角度で回転している。
因みに、 この状態において対向面(SidelT ) にはソ ースビデオ信号 V 1 Bを 3次 元変換してなる 3次元変換ビデオ信号 V 2B の表面 F R O N Tが直方体 B 0 X ' の内側、 すなわち z軸の正方向を向く よう にマッ ピングされる。
かく して図 2 9のステップ S P 2 6において否定結果が得られると、 画像処理 装置 1 0 は、 ステップ S P 2 8 に移って第 2のソ ースビデオ信号 V 1 Bを第 1 の側 面 (SideB)の対向面(SideB ' ) にマッ ピングするための行列 M B ' を、 ( 5 9 ) 式について上述したように、 平行移動行列 L B。 ( ( 5 (! ) 式) 、 拡人 Z縮小変換 行歹リ S B ( ( 5 2 ) 式) 、 回転変換行列 Κ Βχ ( ( 5 3 ) 式) 、 所定角度 P B だけ 傾ける変換行列 R Bz、 及び平行移動行列 L n ( ( 5 8 ) 式) を用いて求める。 この行列 M B ' によって X y平面上のソースビデオ信号 V 1 Bは、 図 3 1 に示すよ う に、 X y zの 3次元座標系における直方体 B 0 Xの第 1 の側面 (SideB)の対向 面(SideB にマツビングされることになる (V 1 B ) 。
図 2 9のステップ S P 2 8 において行列 M B が求められると、 画像処理装置 1 0 はステップ S P 2 9及びステップ S P 3 [) において、 上述のステップ S P 2 2及びステップ S P 2 3 と同様にして 3次元変換行列 T。 ( ( 1 ) 式) 及び透視 変換行列 Ρ。 ( ( 2 ) 式) を求める。
従って図 3 】 の直方体 Β 0 Xの第 1 の側面 (SideB)の対向面(SideB ' ) 上にマ ッビングされたビデオ信号 V , Β-2 は、 3次元空間上の所望の位置に移劻した [S 方体 B O X — の第 1 の側面 (SicleB)の対向面(SideB ' ) に、 3次元変換行列丁。 によって、 移動されることになる ( V ' ) 。 また当該 3次元移動変換されたビ デ才信号 V は、 さ らに X y平面上のス ク リ ー ン面上に透視変換されることに なる (透視変換ビデオ信号 V 3B ' ) 。
このよう に第 1 の側面 (SideB)の対向面(SideB ' ) にソ ースビデオ信号 V , Bを マツビングするための変換行列 MB ' と、 3次元空間上の所望の位置に変換する とともにス ク リ ーン面上に透視する基本的画像変換行列丁。 及び P。 とが求まる と、 画像処理装置 1 0はステップ S P 3 1 に移って、 ソ ースビデオ信号 V 1 Bを 3 次元空問上の第 1 の側面 (SideB)の対向面(SideB ' ) にマッ ピングした後、 これ
6
をスク リ ーン面上に透視変換する変換行列 3 T B ' を、 次式、
T B ' = M B ' - To · P。 …… ( 7 4 ) によって求める。 ここで ( 4 ) 式について上述したよう に、 画像処理装置 1 0で は、 フ レームメ モ リ F M 32に記憶されるソースビデオ信号 V 1 B及びフ レームメ モ リ F M32から読み出される透視変換ビデオ信号 V 3Bは、 共に、 2次元のデータで あり、 当該読出しア ド レスの演算においては、 3次元空間上の z軸方向のデータ は、 実質的には使用されない。 従って、 ( 7 4 ) 式の変換行列では、 z袖方向の データを演算するための 3行目及び 3列目のパラメ ータ は、 フ レ一ムメ モ リ F M 32に対する読出しア ド レスを演算する際には必要とされない。
従って、 ( 7 4 ) 式の変換行列 T B ' から 3行目及び 3列目のパラメ ータを除 いた行列 T B 3 3 ' を実際の 2次元の読出しァ ドレスの演算の際に必要なパラメ一 タを有した変換行列とする。
このようにして 3行 3列の変換行列 T B 3 3 ' が求められると、 画像処理装置 1 0はステップ S P 3 2に移って変換行列 T B 3 3 ' の行列式 D B 3 3 ' を求め、 続く ステップ S P 3 3 に移る。 ステップ S P 3 3 は行列式 D BW ' の値が負であるか 否かを判断するステップであり、 ここで肯定結果が得られると、 このことは変換 行列 T B 33 ' によって移動変換されたビデオ信号が、 3次元空 Ί上の所望の位置 に移動された直方体 Β 0 X ' の第 I の側面 (SideB)の対向面(SideB ' ) において その内側を向いている状態、 すなわち図 3 1 において直方体 B 0 X ' の第 1 の側 面 (SideB)の対向面(SideB ' ) にマッ ピングされた 3次元変換ビデオ信号 V 2 TT の表面 F R ◦ N Tが当該直方体 B◦ X ' の内側を向いている状態であることを表 しており、 このとき画像処理装置 1 0 はステップ S P 3 4 に移って、 第 1 の側面 (SideB)の対向面(SideB ' ) への変換を表す変換行列 T B33 — に基づいて、 フ レ ームメ モ リ F M への読出しア ドレス X MB、 Υ ΜΒを求めるためのパラメ ータ b B 1 . 〜 b B33 を上述の ( 2 8 ) 式〜 ( 3 6 ) 式に基づいて求める。
このようにして得られたパラメ ータ b B l! 〜 b B33 に基づいて上述の ( 1 3 ) 式及び ( 1 4 ) 式から読出しア ド レス X MB、 Y MBを求め、 当該読出しア ド レス X ΜΒ、 Υ ΜΒによってフ レームメ モ リ F M 32内のソ ースビデオ信号 V 1 Bを読み出すこ とにより、 図 3 1 において 3次元空間上に移劻された直方体 B O X ' の第 1 の側 面 (SideB)の対向面(SideB ' ) に当該ソ ースビデオ信号 V > Bをマッ ピングすると ともにこれを X y平面上のス ク リ ー ン面に透視変換することができる。 かく して フ レームメ モ リ F M32から透視変換ビデオ信号 V 3B ' が読み出される。
またこれに対して図 2 9のステップ S P 3 3 において否定結果が得られると、 このことは、 例えば図 3 0及び図 3 1 において 3次元空間上の直方体 B O X ' が y平面に対して回転されず、 視点 P Zから見て第 1 の側面 (S:deB)及びその対 向面(SideB ' ) のいずれも見えないことを表しており、 このとき画像処理装置 1 0は、 C P U 5 8から読み出しァ ド レス発生回路 3 5 に対してパラメ 一タ b B , , 〜 b B33 を供袷せず、 透視変換ビデオ信号 V 3Bをフ レームメモ リ F M 32から読み 出さない状態に制御する。
かく して図 2 9の処理手順により、 画像生成部 3 0に人力されたソ ースビデオ 信号 V I Bは、 3次元仮想空間上の直方体 B 0 X — の第 1 の側面 SideB)又はその 対向面(SideB ' ) にマツビングされ、 さらに当該マツビングされた 3次元空間上 の画像があたかも当該 3次元空間上にあるかのように 2次元平面でなるス ク リ 一 ン面上に透視変換される。
( 1 3 ) 第 3のソ ースビデォ信号 V , cの変換処理
画像処理装置 ! 0の画像生成部 4 0 は、 上述の変換行列 T ( ( 3 ) 式) と、 ソ ースビデオ信号を 3次元座標系上の直方体 B 0 X (図 8 ) の第 2の側面 (SideC) にマツビングする上述の行列 Mc ( ( 6 7 ) 式) とを用いて、 あたかも 3次元仮 想空間上の所望の位置に移動した直方体 B 0 ) (の第 2の側面 (S】deC)にソ ースビ デォ信号 V ,cの画像がマッピングされたかのようにスク リ 一ン上において見える 変換を行う。
この処理手順は図 3 2 に示すよう に、 6画像処理装置 1 0 は C P U 5 8及びヮ ー
5
キ ングメ モ リ ( R O M 5 9、 R A 6 1 ) を用いて、 まず、 ステップ 1 に おいて第 3 のソ ースビデオ信号 V 1 Cを第 2 の側面 (SideC)にマツ ビングするため の行列 Mc を、 ( 6 7 ) 式について上述したよう に、 平行移動行列 L c。 ( ( 6 0 ) 式) 、 拡大/縮小変換行列 S c ( ( 6 2 ) 式) 、 回転変換行列 R Cx ( ( 6 3 ) 式) 、 所定角度 ^ c だけ傾ける変換行列 R 、 及び平行移動行列し c ( ( 6 6 ) 式) を用いて求める。 この行列 によって X y平面上のソ ースビデオ信号 V l c は、 X y zの 3次元座標系の基準位置 (中心が原点〇と重なる位蘆) における直 方体 B O Xの第 2の側面 (SideC)にマツ ビングされることになる (V 1 C2)
図 3 2のステップ S P 4 1 において行列 Mc が求められると、 画像処理装置 1 0 はステップ S P 4 2 に移って、 2次元平面上のソ ースビデオ信号 V を 3次元 座標系の所望の位置に変換する空間的画像変換の基本ステツプである 3次元変換 行列 T。 ( ( 1 ) 式) を求め、 さ らに続く ステップ S P 4 3に移り、 ステップ S P 4 2 において求められた 3次元変換行列 T。 によって 3次元空間上に移動した ソースビデオ信号 V 2Cをスク リ 一ン面上に透視する透視変換の基本ステップであ る透視変換行列 Ρ。 ( ( 2 ) 式) を求める。
従って直方体 Β 0 Xの第 2の側面 (Si deC)上に行列 Mc によってマッ ピングさ れたビデオ信号 V I C-2は、 3次元空間上の所望の位置に移動した直方体 B 0 X ' の第 2の側面 (SideC)に、 3次元変換行列 T。 によって、 移動されることになる ( V 。 また当該 3次元移動変換されたビデオ信号 V 2cは、 さ らに x y平面上 のスク リ ーン面上に透視変換されることになる (透視変換ビデオ信号 V 3 C) 。 このように第 2の側面 (SideC)にソースビデオ信号 V l cをマツ ビングするため の変換行列 M c: と、 3次元空間上の所望の位置に変換するとともにス ク リ ー ン 上に透視する基本的画像変換行列 Τ。 及び Ρ π とが求まると、 画''象処理装置 1 () はステップ S P 4 4 に移って、 ソ ースビデオ信号 V lcを 3次元空問上の第 2の側 面 (SideC)にマッピングした後、 これをス ク リ ー ン面上に透視変^する変換行列 Tc を、 次式、
6
6
T c = M c - T o · P o …… ( 7 5 )
によって求める。 こ こで ( 4 ) 式について上述したよう に、 画像処理装置 1 ϋで は、 フ レームメ モ リ F Μ 42に記憶されるソ ースビデオ信号 V , c及びフ レームメ モ リ F Μ 42から読み出される透視変換ビデオ信号 V 3Cは、 共に、 2次元のデータで あり、 当該読出しア ド レスの演算においては、 3次元空問上の z軸方向のデータ は、 実質的には使用されない。 従って、 ( 7 5 ) 式の変換行列では、 z铀方向の データを演算するための 3行目及び 3列目のパラメ 一タ は、 フ レ ームメ モ リ F M 42に対する読出しァ ドレスを演算する際には必要とされない。
従って、 ( 7 5 ) 式の変換行列 T c から 3行目及び 3列 Ξのパラメ ータを除い た行列 T C33 を実際の 2次元の読出しァ ドレスの演算の際に必要なパラメ 一夕を 有した変換行列とする。
このようにして 3行 3列の変換行列 TC33 が求められると、 画 1'象処理装置 1 0 はステップ S P 4 5 に移って変換行列 T C33 の行列式 D 3 を求め、 続く ステツ プ S P 4 6 に移る。 ステップ S P 4 « は変換行列 T C33 の行列式 D e の倘が正 であるか否かを判断するステップであり、 ここで肯定結果が^られると、 このこ とは図 2 6のステップ S P 6について上述した場合と同様にして、 変換行列 T c3 3 によって移動変換されたビデオ信号が、 3次元空間上の所望の位置に移動され た直方体 B 0 X ' の第 2の側面 (SideC)においてその外側を向いている状態、 す なわち直方体 B O X ' の第 2の側面 (SideC)にマツ ビングされた 3次元変換ビデ 才信号 V 2Cの表面 F R O N Tが当該直方体 B 0 X ' の外側を向いている状態であ ることを表しており、 このとき画像処理装置 1 0はステップ S P 4 7 に移って、 第 2の側面 (SideC)への変換を表す変換行列 Tc33 に基づいて、 フ レームメ モ リ F M 42への読出しア ドレス X MC、 Y MCを求めるためのパラメ ータ 〜 b C33 を上述の ( 2 8 ) 式〜 ( 3 6 ) 式に基づいて求める。
このようにして得られたパラメ ータ b c l , 〜 b c3 3 に基づいて上述の ( 1 3 ) 式及び ( 1 4 ) 式から読出しア ドレス X 6 MC、 Y MCを求め、 当該読出しア ト ' レス X
7
Mc、 Y M(:によってフ レームメ モ リ F Μ42内のソースビデオ信号 V l cを読み出すこ とにより、 3次元空間上に移動された直方体 B◦ X ' の第 2の側面 (SnieC)に当 該ソースビデオ信号 V 1Cをマツビングするとともにこれを X y平面上のスク リ 一 ン面に透視変換することができる。 かく してフ レームメ モ リ F M 42から透視変換 ビデオ信号 V 3Cが読み出される。
これに対して上述のステップ S P 4 6 において否定結果が得られると、 このこ とは図 2 6のステップ S P 6 について上述した場合と同様にして、 変換行列 TC3 3 によって移動変換されたビデオ信号が、 3次元空間上の所望の位置に移動され た直方体 B O X ' の第 2の側 ffi (SideC)においてその内側を向いている状態、 す なわち直方体 B O X ' の第 2の側面 (SideC)にマッ ピングされた 3次元変換ビデ ォ信号 V 2Cの表面 F R 0 N Tが当該直方体 B 0 X ' の外側を向いている状態とは 逆の方向 (直方体 B 0 X ' の内側方向) を向いている状態であることを表してい る。
すなわち、 このことは、 3次元空間上の直方体 B◦ X ' の第 2の側面 (SideC) が当該第 2の側面 (SideC)の対向面(SideC ' ) よりも視点 P Z側に位置する状態 ではなく、 視点 P Z側に第 2の側面 (SideC)の対向面(SideC ' ) が位置する状態 であることが分かる。 因みに、 この状態において対向面(SideC ' ) にはソ ースビデオ信号 V , (;を 3次 元変換してなる 3次元変換ビデオ信号 V 2C ' の表面 F R 0 N Tが直方体 B 0 X ' の内側、 すなわち z軸の正方向を向く ようにマツピングされる。
かく して図 3 2のステップ S P 4 6において否定結果が得られると、 画像処理 装置 1 0 は、 ステップ S P 4 8 に移って第 3のソ ースビデオ信号 V ,cを第 2の側 面 (SideC)の対向面(SideC ) にマッピングするための行列 M c ' を、 ( 6 9 ) 式について上述したよう に、 平行移動行列 L c。 ( ( 6 0 ) 式) 、 拡大/縮小変換 行列 S c ( ( 6 2 ) 式) 、 回転変換行列 R ( ( 6 3 ) 式) 、 所定角度 c だけ 傾ける変換行列 R cz、 及び平行移劻行列し c ( ( 6 8 ) 式) を用いて求める。 この行列 Mc ' によって X y平面上のソ ースビデオ信号 V は、 x y zの 3次元 座標系における直方体 B 0 Xの第 2の側面 (SideC)の対向面(SideC ) にマツ ビ ングされることになる ( V , 。
図 3 2のステップ S F 4 8 において行列 Mc が求められると、 画像処理装置 1 0 はステップ S P 4 9及びステップ S P 5 0において、 上述のステップ S P 4 2及びステップ S P 4 3 と同様にして 3次元変換行列 T。 ( ( 门 式) 及び透視 変換行列 Ρ。 ( ( 2 ) 式) を求める。
従って直方体 Β 0 Xの第 2の側面 (SideC)の対向面(SideC ' ) 上にマツ ビング されたビデオ信号 V l c-2 ' は、 3次元空間上の所望の位置に移動した直方体 B 〇 X — の第 2の側面 (SideC)の対向面(SideC ' ) に、 3次元変換行列 T D によって 、 移動されることになる (V 2C ) 。 また当該 3次元移動変換されたビデオ信 V 2 C ' は、 さらに X y平面上のスク リ ーン面上に透視変換されることになる (透 視変換ビデオ信号 V 。
このよう に第 2の側面 (SideC)の対向面(SideC ' ) にソ ースビデオ信号 V】 cを マツビングするための変換行列 M c ' と、 3次元空間上の所望の位置に変換する とともにスク リ ーン面上に透視する基本的画像変換行列 T。 及び Ρ。 とが求まる と、 画像処理装置 1 0 はステップ S Ρ 5 1 に移って、 ソ ースビデオ信号 V 1Cを 3 次元空間上の第 2の側面 (SideC)の対向面(SideC ' ) にマッ ピングした後、 これ をス ク リ ー ン面上に透視変換する変換行列 T r: ' を、 次式、
T c ' = M c ' · Το · P ϋ … · · · ( 7 6 ) によって求める。 ここで ( 4 ) 式について上述したように、 画像処理装置 1 0で は、 フ レームメ モ リ F M に記憶されるソ ース ビデオ信号 V l c及びフ レームメ モ リ F M 42から読み出される透視変換ビデオ信号 V 3Cは、 共に、 2次元のデータで あり、 当該読出しア ド レスの演算においては、 3次元空問上の z軸方向のデータ は、 実質的には使用されない。 従って、 ( 7 6 ) 式の変換行列では、 z軸方向の データを演算するための 3行目及び 3列目のパラ メ ータは、 フ レームメ モ リ F M 42に対する読出しア ト ·'レスを演算する際には必要とされない。
従って、 ( 7 6 ) 式の変換行列 T H ' から 3行目及び 3列目のパラメ ータを除 いた行列 T C33 ' を実際の 2次元の読出しァ ド レスの演算の際に必要なパラ メ一 タを有した変換行列とする。
このよう にして 3行 3列の変換行列 TC33 ' が求められると、 ϋ像処理装置 1 0 はステ ップ S Ρ 5 2 に移って変換行列 TC33 ' の行列式 DC33 ' を求め、 続く ステップ S P 5 3 に移る。 ステップ S P 5 3 は行列式 DC33 ' の値が負であるか 否かを判断するステ ップであり、 こ こで肯定結果が得られると、 このことは変換 行列 T C33 ' によって移動変換されたビデオ信号が、 3次元空間上の所望の位置 に移動された直方体 B O X ' の第 2 の側面 (SideC)の対向面(SideC— ) において その内側を向いている状態、 すなわち直方体 B O X 一 の第 2の側面 (SideC)の対 向面(SideC ' ) にマツ ビングされた 3次元変換ビデオ信号 V 2C ' の表面 F R 0 N Tが当該直方体 B 0 X ' の内側を向いている状態であることを表しており、 この とき画像処理装置 1 0 はステップ S P 5 4 に移って、 第 2の側面 (SideC)の対向 面(SideC— ) への変換を表す変換行列 T C33 ' に基づいて、 フ レームメ モ リ F M への読出しア ド レス X MC、 Y を求めるためのパラメ ータ I) C l 〜 b を上 述の ( 2 8 ) 式〜 ( 3 6 ) 式に基づいて求める。 このようにして得られたパラメ ータ b c l l 〜 b c 33 に基づいて上述の ( 1 3 ) 式及び ( 1 4 ) 式から読出しア ド レス X :、 Y MCを求め、 当該読出しア ド レス X じ、 Y によってフ レームメ モ リ F M 42内のソ ースビデオ信号 V l cを読み出すこ とにより、 3次元空間上に移勅された直方体 B 0 X — の第 2 の側 S (Si(k'C)の対 向面(SideC ' ) に当該ソ ースビデオ信号 V 1Cをマッピングするとともにこれを X y平面上のス ク リ 一 ン面に透視変換することができる。 かく してフ レームメ モ リ F M 42から透視変換ビデオ信号 V 3C ' が読み出される。
またこれに対して図 3 2のステップ S P 5 3において否定結果が得られると、 このことは、 例えば 3次元空間上の直方体 B◦ X ' が X y平面に対して回転され ず、 視点 P Zから見て第 2の側面 (SideC)及びその対向面(SideC ' ) のいずれも 見えないことを表しており、 このとき画像処理装置 1 0 は、 C P :J 5 8から読み 出しア ド レス発生回路 3 5に対してパラ メ ータ b C 1 , 〜 b を 袷せず、 透視 変換ビデオ信号 V をフレー厶メモ リ F M から読み出さない状態に制御する。 かく して図 3 2 の処理手順によ り、 画像生成部 3 0 に入力された ソ ースビデオ 信号 V 1 Cは、 3次元仮想空間上の直方体 B 0 X — の第 2の側面 (SideC)又はその 対向面(SideC ' ) にマツビングされ、 さらに当該マツビングされた 3次元空間上 の画像があたかも当該 3次元空間上にあるかのように 2次元平面でなるスク リ 一 ン面上に透視変換される。
( 1 ) 実施例の動作及び効果
以上の構成において、 まず、 オペレータはコ ン ト n—ルパネル 5 6 に設けられ た 3次元ボイ ンティ ンダデバイ スゃ半一等を操作して、 本発明の画像処理装置で 使用される読み出しア ド レスの演算に必要とされる各パラメ ータを入力する。 こ こでこの読み出しァ ドレスの演算に必要なパラメ ータ とは、 各ソ 一スビデオ信号 V 1 A、 V I B及び V l cのク π ップ位置と、 直方体 B 0 ) (の目的画像表示面 (SideA) に対する厚み h と、 X軸方向へのレー ト変換率 r x 、 y軸方向へのレー ト変換率 r y x軸方向へのスヰ 率 s x y奉 ¾|方向へのスヰュ一率 S y である。
画像処理装匮 1 0の C P U 5 8 は、 コ ン ト π —ルパネルパネル 5 6から人力さ れるこれらのパラメ ータを受け取り、 リ アルタ イ ムに読み出しァ ドレスの演算に 反映させる。 具体的には、 C P U 5 8 は、 コ ン ト π—ルバネル 5 6から供給され るパラメ 一タの変化をフレーム周期で監視し、 且つ、 供給されたパラメ 一夕に基 づいて読み出しア ド レスを演算するためのパラメ ータ !
、 . 〜 をフ レーム周期で演算している。
よって、 オペレータの操作に応じてフレーム周期でこれらのパラメ ータをリ ァ ルタ イ ムに可変することができ、 そして、 その可変されたパラメ ータ に応じて、 リ アルタ ィ 厶に読み出しァ ドレスが演算される。
次に、 オペレータは、 コ ン ト □ ールパネル 5 6 に設けられた 3次元ボイ ンティ ングデバイ ス等を操作するこ とによって、 ソ ース ビデオ信号 V 1 A、 V I B及び V l c に対して 3次元の画像変換操作を指令する。 オペレータによって 3次元の画像変 換が指令されると、 C P U 5 8 は、 オペレータが指定した 3次元変換行列 T。 の 各パラメ ータである、 !^ ,〜 !" 、 h、 i i、 z及び s をコ ン ト π —ルパネ
5 6から受け取り、 これらのパラメ ータをリ アルタ イ ム に み出しア ト'レスの 演算に反映させる。 具体的には、 C P U 5 8 はこれらのパラメ ータの変化をフ レ —厶周期で監視し、 且つ、 供給されたパラメ ータに基づいて読み出しア ドレスを 演算するためのハ°ラメ ータ b 3 1 c 3 フ レーム周期で演算している。 次に、 C P U 5 8は、 受け取ったパラメ ータ r , , 〜 r 、 i x , ! ί y έ z及び s に基づいて 3次元変換行列 T n— 'の各パラメ 一 タを演算し、 これにより読み出しア ドレス X MA、 Y X Y X ヽ Y が算出される。
このようにして、 画像処理装置 1 0 では、 X y z の 3次元压標系の仮想空間上 に存在する直方体 B 0 Xの大きさと して、 図 8に示すように、 目的画像表示面 ( SideA)の第 1 の側面 (SideB)側の辺 H B の長さ、 目的画像 ¾示面 (SideA)の第 1 の側面 (SideB)の対向面(SideB ' ) 側の辺 H B ' の長さ、 目的画像表示面 (Side A)の第 2の側面 (SideC)側の辺 H e の長さ、 及び目的画像表示面 (SidcA)の第 2 の側面 (SideC)の対向面(SideC ' ) 側の辺 H e ' の長さが、 x y座標で表される 点 ( X 、 y ) 、 ( X 、 y ) 、 ( x a 、 y:¾ ) 及び ( χ ■) 、 y ) に基づ いて指定される。
従って、 目的画像表示面 (SideA)に対して辺 H を介して接する第 1 の側面 ( SideB)にマツピングされるソ ースビデオ信号 V】Bは、 拡大/縮小行列 S のパラ メ ータ によって辺 H B の長さに一致するような大きさ変換され、 また、 目的 画像表示面 (SideA)に対して辺 HB ' を介して接する、 第 1 の側面の対向面(Sid eB ' ) にマッ ピングされるソ ースビデオ信号 V 1 Bは、 拡大/縮小行列 S B のパラ メ ータ r Bxによって辺 H B ' の長さに一致するような大きさに変換される。 また 、 目的画像表示面 (SideA)に対して辺 H e を介して接する第 2の側面 (SideC)に マッピングされるソ ースビデォ信号 V , cは、 拡大 縮小行列 S c のパラメ ータ r によって辺 H e の長さに一致するような大きさに変換され、 また、 目的画像表 示面 (SideA)に対して辺 H e ' を介して接する、 第 2の側面の対向面(SideC— ) にマッ ピングされるソ ースビデオ信号 V は、 拡大 /縮小行列 S c のパラメ ータ r Cxによって辺 H e の長さに一致するような大きさに変換される。
さらに、 直方体 B 0 Xの大きさと して、 目的画像表示面 (SideA)及びこの対向 面(SideA ' ) 間の厚み hがオペレータの操作によって指定され、 この厚み h に応 じて、 第 1 の側面 (SideB)にマツビングされるソ ー スビデオ信号 V は、 拡大/ 縮小行列 S B のパラメ ータ r Byによって厚み hの長さに一致するような大きさに 変換され、 また、 第 1 の側面の対向面(SideB ' ) にマッ ピングされるソ ースビデ 才信号 V】Bは、 拡大 Z縮小行列 S のパラメ ータ r Byによって厚み の長さに一 致するような大きさに変換される。 また、 笫 2の側面 (SideC)にマッピングされ るソ ースビデオ信号 V lcは、 拡大ノ縮小行列 S c のパラメ ータ r cyによって厚み hの長さに一致するような大きさに変換され、 また、 第 2の側面の対向面(SideC ' ) にマツビングされるソ ースビデオ信号 V は、 拡大/縮小行列 S c のパラメ ータ r Cyによって厚み hの長さに一致するような大きさに変換される。 このよう に、 3次元空間上の直方体 B 0 Xの各面 (第 1 の側面 (SideB)及びそ の対向面(SideB ' ) と、 第 2の侧面 (SideC)及びその対向面(SideC ' ) ) にマツ ビングされるソ ースビデオ信号 V 1 Bと V l cは、 当該直方体 B 0 Xの大き さに応じ た大きさに変換され、 さらに移動行列 L 及び L ' と移動行列し c 及び L c ' とによって、 第 1 の側面 (SideB)及びその対向面(SideB ' ) と、 第 2の側面 (Si deC)及びその対向面(SideC ' ) とが目的画像表示面 ( S i deA)に接するよう に変換 される。
また 3次元空間上の直方体 B O Xをオペレータの操作によって所望の位置に移 勖させた場合、 ( 1 ) 式について上述した 3次元変換行列 T。 の各パラメ ータ Γ
7
! ,〜 r 33、 £ x 、 £ y 、 β z が変化するこ 3 とに応じて、 フ レームメ モ リ F Mに対 する読み出しア ド レス X 、 Y を生成するためのパラメ ータ b , ,〜 b が変化 する。 これにより各ソ ースビデオ信号 V 1A18及び 1 (:は、 3次元空間上の S 方体 B 0 Xの移動に応じて、 それぞれマツビングされる面に貼り付いた状態を維 持しながら、 移動する。
かく して以上の構成によれば、 オペレータの装置によって 3次元仮想空間上の 直方体 B O Xを移動させるだけで、 当該直方体 B 0 Xの各面にマツ ビングされる 各ソースビデオ信号 V 1 Λ、 V 1 Β及び V ICを当該移動におう じて同様に移動させる ことにより、 オペレータの簡単な操作によってリ アルタィ 厶で各ソースビデオ δ 号 V 1 A、 V 1 B及び V 1Cを各面にマツ ビングさせた状態のまま、 直方体 B O Xを 3 次元空間上で移動させるようにス ク リ ーン面 5 5 A上にこれを表示させることが でき る。
( 】 5 ) 他の実施例
なお上述の実施例においては、 図 2 8 について上述したように、 目的画像表不 面 (SideA)の対向面(SideA ) の位置にマッピングされて、 x y平面に投影 (透 視) された透視ビデオ信号 V ' は、 図 2 8 において ζ軸の正方向に向く ことに なる。 すなわち、 当該透視ビデオ信号 V ' は、 視点 Ρ Ζの方向側ではなく 、 視 》 点 P Zの逆方向側にその表面 F R 〇 N Tが向いていることになる。 従って、 ス ク リ ーンには透視ビデオ信号 V 3 A ' を裏側から見た画像が表示されるので、 本来表 示されるべき画像に対して表裏が逆の画像が表示されることになる。
従ってこの場合、 画像処理装置 1 0 は、 図 3 3 に示すように、 ソ ースビ 'テオ信 号 V , をフ レームメモリ F Mに記 i.gさせるときに、 ソ ースビデオ信号 V , の表裏 が入れ替わるように当該ソ ースビデオ信号 V , を反転する 2つの反転モー ドを持 つようにすれば良い。
すなわち、 この 2つの反転モー ドは、 以下に説明する水平方向反転モー ド及び 垂直反転モー ドである。 水平反転モー ドは、 図 3 3 Λに示すよう に、 y軸に対し て左右の画素を水平方向に反転させるようにソ ースビデオ信号をフ レームメ モ リ F Mに書き込む方法である。 この方法を実現するためには、 供給されたソ ース ビ デォ信号 V , を反転させずにそのままフ レームメ モ リ I'' き込む通常のモ一 ドでの、 フ レームメ モ リ F Μに供給する書込みァ ト'' レスを ( X w 、 Y w ) とする と、 水平方向に反転させる (Υ軸を中心と して 1 80 ° " —テーテ シヨ ンさせる) ためには、 書込みア ド レスの X座標値の符号を入れ換えるだけで良い。 従って、 水平反転モー ドの時には、 フ レームメ モ リ F Μに対して書込みァ ド レス (一 X w 、 Y w ) を供袷することにより、 図 3 3 Bに示すよう に裏面と表面とを反転させ ることができる。 反 したビテ才信号 V! は、 図 3 8 Bにおいては、 紙面の裏方 向を向いており、 紙面の裏から見ると通常の文字と して読み取ることができる。 これに対して垂直反転モー ドは、 図 3 4 Aに示すように、 X軸を回転中心と し て全ての画素を 1 80 ° ローテーションさせる (すなわち X軸に対して左右の画素 を水平方向に反転させる) ようにソ ースビデオ信号 V , をフ レームメ モ リ F Mに 書き込むモー ドである。 すなわち、 垂直方向に画素を反転 ( x ¾を中心と して 1 80 ° ローテーショ ンさせる) ためには、 書込みァ ド レスの y座標値の符号を入れ 換えるだけで良い。 従って、 垂直反転モ一 ドの時には、 フ レームメ モ リ F Mに対 して書込みァ ド レス ( X w 、 一 y w ) を供給することによって、 図 3 4 Bに示す ように、 裏面と表面とを反転させることができる。 反転したビデオ信号は、 図 3 4 Bにおいては、 紙面の裏方向を向いており、 紙面の ¾から見ると、 通常の文字 と して読み取ることができる
図 3 3 B及び図 3 4 Bのよ う に反転されてフ レームメ モ リ F Mに書き込まれた ソ ースビデオ信号 V 1 Aは、 図 3 5に示すように、 z轴の正方向を向いている。 す なわち、 目的画像表示面 (S i deA)の対向面(S i de/T ) にマツ ビングされて、 x y 平面に透視された透視ビデオ信号 V 3 Λ ' は、 図 3 5 に示すように、 z軸の負方向 、 すなわち視点 P Z方向を向いていることになる。 従って、 ス ク リ ー ンには、 透 視ビデオ信号 V 3 A ' を表側から見た画像が表示される。
また上述の実施例においては、 3次元空間上を移動させる立体と して 6面体で なる直方体 B 0 Xを fflいた場合について述べたが、 木発明はこれに限らず、 極々 の多面体でなる立体と しても良い。 産業上の利用可能性
放送局用画像量装置において、 特殊効果画像を生成する場合等に利用できる。

Claims

請求の範囲
1. 第 1 の画像を第 1 のメ モ リ に書き込み、 上記第 1 のメ モ リ に書き込まれた上 記第 1 の画像を所定の制御手段から入力される第 i の制御データ に基づいて画像 変換処理することによって目的画像を生成する第 1 の画像生成手段と、
第 2 の画像を第 2 のメ モ リ に書き込み、 上記第 2のメ モ リ に書き込まれた上記 第 2の画素を上記制御手段から入力される第 2の制御データに基づいて上記目的 画像に応じた形状に画像変換処理することによって第 1 の側面画像を生成する第 2の画像生成手段と、
7
第 3の画像を第 3のメ モリ に書き込み、 6上記第 3 のメ モ リ に: き込まれた上^ 第 3の画素を上記制御手段から人力される第 3 の制御データに基づいて ヒ記目的 画像に応じた形状に画像変換処理することによって第 2の側面匝像を生成する第 3 の画像生成手段と、
上記目的画像、 上記第 1 の側面画像及び上記第 2 の側面画像をそれぞれ対応す る所定の面に有する立体を 3次元空間上で移動させることに応じて、 上記目的画 像、 上記第 1 の側面画像及び上記第 2の側面画像を上記立体の移動に応じて移動 させるとともに、 上記立体上にマッピングされた上記目的画像、 上記第 1 の側面 画像及び上記第 2の側面画像を所定のスク リ 一ン面上に透視変換する制御手段と
を具えた画像処理装置。
2. 上記目的画像を上記立体の所定面にマツビングする変換行列 Μ Λ は、
A = L Α - T r s
ただし、 L A : 目的画像を立体の所定面に移動する行列
T r s : 目的画像を立体の所定面の形状に応じて変形させる行列 の式で表され、
上記第 1 の側面画像を上記立体の所定面にマッ ピングする変換行列 M B は、 M B L B O · S B - R B χ · R B · L n ただし、 L B。: 第 1 の側面画像を基準位置に移劻する行列
S : 第 1 の側面画像を目的画像のマッ ピング面の形状に応じて移動す る行列
R Bx : 第 1 の側面画像を目的画像に対して所定角度だけ回転する行列 R Bz: 第 1 の側面画像を目的画像をマツビングした面の形状に応じた角 度だけ回転させる行列
L : 第 1 の側面画像を立体の目的画像がマツビングされた面に接する 所定面に移動する行列
の式で表され、
上記第 1 の側面画像を上記立体の所定面にマッ ピングする変換行列 M B は、
Mc = L co · S c - R e - R e - L c
ただし、 L c。: 第 2の側面画像を基準位置に移動する行列
S c : 第 2の側面画像を目的画像のマツビング面の形状に応じて移動す る行列
R Cx : 第 2の側面画像を目的画像に対して所定角度だけ回転する行列 R C2 : 第 2の側面画像を目的画像をマツピンダした面の形状に応じた角 度だけ回転させる行列
L c : 第 2の側面画像を立体の目的画像がマッビングされた面に接する 所定面に移劻する行列
の式で表され、
上記目的画像、 上記第 1 の側面画像及び上記第 2の側面画像を上記立体の移動 に応じて移動させる変換行列 T。 は、
Γ Γ 0
Γ Γ Γ 0
To =
0
ί Χ ί i , S
ただし、 r , ,〜 r 33 : 各画像を x y zの 3次元座標系の) c軸、 y軸及び z軸に対 して変形させるパラメ 一タ
ί χ : 画像を X軸に対して平行移動させるパラ メ ー タ
i : 画像を y軸に対して平行移動させるパラ メ ータ
£ , : 画像を z軸に対して平行移動させるパラ メ ータ
s : 画像を X軸、 y釉及び z軸方向に拡大又は縮小させるパラ メ ータ の式で表され、
上記立体上にマソビングされた上記目的画像、 上記第 1 の側 S [画像及び上記第 2の側面画像を所定のスク リ 一ン面上に透視変換する行列 P。 は、
1 0 0 0
0 1 0 0
P o
0 0 0 P z
0 0 0 1
ただし、 : 3次元空問上の立体をス ク リ ー ン上に透視変換する際のパー ス ぺ クティ ブ値
の式で表される
ことを特徴とする請求の範囲第 1 ¾に記載の画像処理装置。
3. 上記変換行列 T。 は、
ζ軸に関するパラメ ータである 3行目及び 3列目のパラメ ータを除いた 3行 3 列の行列である
ことを特徴とする請求の範囲第 2項に記載の画像処理装置。
4. 上記立体の所定面にマツビングされる上記目的画像は、 上記変換行列 ΜΑ 、 Τη 及び Ρ。 を用いて、
T A - M A · T U · P O
によって表される変換行列 T A によってス ク リ 一ン上に透視変換され、
上記立体の所定面にマツビングされる上記第 1 の側面画像は、 上記変換行列 M
B . Τϋ 及びド 0 を用いて、
T B = M B · T O - P o によって表される変換行列 T B によってスク リ 一ン上に透視変換され、 上記立体の所定面にマツビングされる上記第 2の側面函像は、 上記変換行列 M c 、 T。 及び Ρ。 を用いて、
T c = Mc - T o - P u
によって表される変換行列 T c によってスク リ ーン上に透視変換される
ことを特徴とする請求の範囲第 2項又は第 3項に記載の画像処理装置。
5. 上記制御手段は、
上記立体の各所定面にマツビングされた上記目的画像、 上記第 1 の側面画像及 び上記第 2の側面画像の表裏判定をそれぞれ行い、
上記目的画像、 上記第 1 の側面画像及び上記第 2の側面画像のうち、 上記判定 結果が表である画像を上 立体の対応する面にマッビングし、
上記目的画像、 上記第 1 の側面画像及び上記第 2の側而画像のうち、 上記判定 結果が裏である画像を上記立体の対応する面の対向面にマソビングし、
上記判定結果が表裏のいずれでもないとき、 上記第 1 の側面画像及び上記第 2 の側面画像を表示しないよう に制御する
ことを特徴とする請求の範囲第 1 項に記載の画像処理装置。
6. 上記目的画像を上記立体の対向面にマッ ピングする変換行列 ΜΛ ' は、
M A ' = L A ' - T r s
ただし、 L A ' : 目的画像を立体の対向面に移動する行列
T : 目的画像を立体の対向面の形状に応じて変形させる行列 の式で表され、
上記第 1 の側面画像を上記立体の対向面にマツビングする変換行列 Μ » は、
M B し BO ' S B - B · R B ?. · L B '
ただし、 L BD: 第 1 の側面画像を基準位置に移動する行列
S B : 第 1 の側面画像を目的画像のマッ ピング面の形状に応じて移動す る行列 R B X : 第 1 の側面画像を目的画像に対して所定角度だけ回転する行列 R B Z: 第 1 の側面画像を目的画像をマツビングした面の形状に応じた角 度だけ回転させる行列
L B ' : 第 1 の側面画像を立休の目的画像がマツ ビングされた ϊί[|に接す る対向面に移動する行列
の式で表され、
上記第 1 の側面画像を上記立体の対向面にマッ ピングする変換行列 M C は、 M c ' = L c n · S c - R c · R (: L c '
ただし、 L c o: 第 2の側面画像を基準位置に移 ¾する行列
S : 第 2の側面画像を目的画像のマツ ビング面の形状に応じて移動す る行列
R : 第 2の側面画像を目的画像に対して所定角度だけ回転する行列
R : の側面画像を目的画像をマツビングした面の形状に応じた角 度だけ回転させる行列
L c ' : 第 2の側面画像を立体の目的画像がマツビ ングされた面に接す る対向面に移動する行列
の式で表され、
上記目的画像、 上記第 1 の側面画像及び上記第 2の側面画像を上記立体の移動 に応じて移動させる変換行列 T。 は、
Τ Γ 0
Τ I 0
T o =
r r 0
ί y i z S
ただし r : 各画像を x y zの 3次元 ffi標系の x軸、 y軸及び z軸に対 して変形させるパラメ 一タ
i 画像を X軸に対して平行移動させるパラメ ータ
画像を y铀に対して平行移動させるパラメ 一タ i z : 画像を z轴に対して平行移^させるパラメ ータ s : 画像を X軸、 y軸及び z軸方向に拡大又は縮小させるパラメ ータ の式で表され、
上記立体上にマツビングされた上記目的画像、 上記第 1 の側面画像及び上記第 2の側面画像を所定のス ク リ ーン面上に透視変換する行列 P。 は、
0 0 0
ϋ 1 0 0
P ()
0 0 0 P z
0 0 0 1
ただし、 P , 3次元空間上の立体をスク リ 一ン上に透視変換する際のパースぺ クティ ブ値
の式で表される
ことを特徴とする請求の範囲第 5項に記載の画像処理装置。
7. 上記表裏の判定は、
上記目的画像、 上記第 1 の側面画像及び上記第 2の側面画像を立体のそれぞれ 対応する所定面に 3次元変換し、 当該 3次元変換された上記目的画像、 上記第 】 の側面画像及び上記第 2の側面画像をスク リ 一ン上に透視変換する上述の変換行 歹1 J T A 、 T 及び T c の各行列式の値に基づいてそれぞれ行われる
ことを特徴とする請求の範囲第 4項に記載の画像処理装置。
8. 上記画像処理装置は、
上記目的画像、 上記第 1 の側面画像及び又は上記第 2の側面画像を上記立体の それぞれ対応する面にマツビングする際に、 上記目的画像、 上記第 1 の側面画像 及び又は上記第 2の側面画像をそれぞれマツビング面に対応した大きさに切り取 る縮小率優先モー ドと、
上記目的画像、 上記第 1 の側面画像及び又は上記第 2の側面画像を上 d立体の それぞれ対応する面にマッ ピングする際に、 上記目的画像、 上記第 1 の側面画像 及び又は上記第 2 の側面画像をそれぞれ予め切り取られた領域部分をマツビング 面に対応した大きさに縮小又は拡大するク口ップ優先モー ドと を具えることを特徴とする請求の範囲第 1 項に記載の画像処理装置。
9. 上記制御手段は、
上記判定結果が ¾である画像を、 上記立体の対応する上記対向面にマツビング する際、 上記画像の表裏を入れ替える
ことを特徴とする諮-求の範囲第 5項に記載の画像処理装置。
1 0. 上記画像処理装置は、
上記第 1 のメ モ リ に書き込まれた上記目的画像と、 上記第 2のメ モ リ に書き込 まれた上記第 1 の側面画像と、 上記第 3のメ モ リ に書き込まれた上記第 2の側面 画像とをそれぞれ上記変換行列 T。 の逆行列に基づいて読み出す
ことを特徴とする請求の範囲第 2項又は第 3項に記載の画像処理装置。
1 1. 第 1 の画像を第 1 のメ モ リ に書き込み、 上記第 1 のメ モ リ に書き込まれた 上記第 1 の画像を所定の制御手段から入力される第 1 の制御データに基づいて画 像変換処理する こ とによって目的画像を生成し、
第 2 の画像を第 2のメ モ リ に書き込み、 上記第 2のメ モ リ に書き込まれた上記 第 2の画素を上記制御手段から入力される第 2の制御データに基づいて上記目的 画像に応じた形状に画像変換処理することによって第 1 の側面画像を生成し、 第 3の画像を第 3のメ モ リ に書き込み、 上記第 3のメ モ リ に害 込まれた上記 第 3の画素を上記制御手段から入力される第 3の制御データに Sづいて上記目的 画像に応じた形状に画像変換処理することによって第 2の側面画像を生成し、 上記目的画像、 上記第 1 の側面画像及び上記第 2の側面画像をそれぞれ所定の 面に有する立体を 3次元空間上で移動させることに応じて、 上記目的画像、 上記 第 1 の側面画像及び上記第 2の側面画像を上記立体の移動に応じて移動させ、 上記立体上にマツビングされた上記 g的画像、 上記第 1 の側面画像及び上記第 2の側面画像を所定のスク リ ―ン面上に透視変換する
ことを特徴とする画像処理方法。
1 2. 上記目的画像を上記立体の所定面にマツビングする変換行列 M A は、 M A = L A · T R S
ただし、 L A : 目的画像を立体の所定面に移動する行列
T : 目的画像を立体の所定面の形状に応じて変形させる行列 の式で表され、
上記第 1 の側面画像を上記立体の所定面にマツビングする変換行列 M B は、
M B = L B Β * R * B " し B
ただし、 L BO: 第 1 の側面画像を基準位置に移動する行列
S B : 第 1 の側面画像を目的画像のマツビング面の形状に応じて移動す る行列
8
K : 第 1 の側面画像を目的画像 3 に対して所定角度だけ回転する行列
R Bz : 第 1 の側面画像を目的画像をマソ ビングした面の形状に応じた ft 度だけ回転させる行列
L a : 第 1 の側面画像を立体の目的画像がマッ ビングされた面に接する 所定面に移動する行列
の式で表され、
上記第 1 の側面画像を上記立体の所定面にマツビングする変換行列 M B は、 M =し co · S c - R cx · R cz · L C
ただし、 L eo: 第 2の側面画像を基準位置に移動する行列
S c : 第 2の側面画像を目的画像のマツビング面の形状に応じて移動す る行列
R Cx : 第 2の側面画像を目的画像に対して所定角度だけ回転する行列 R Cz: 第 2の側面画像を目的画像をマツビングした面の形状に応じた角 度だけ回転させる行列
L c : 第 2の側面画像を立体の目的画像がマツビングされた面に接する 所定面に移動する行列
の式で表され、
上記目的画像、 上記第 1 の側面画像及び上記第 2の側面画像を上記立体の移動 FCT/JP96/03347 に応じて移動させる変換行列 τ。 は、
r 1 1 r 1 2 r 1 3 0
Γ 2 1 2 2 Γ 2 3 0
T u =
Γ 3 1 Γ 3 2 Γ 3 3 0
ί χ ί ν ί ζ S
ただし、 r ! ,〜 r 3 3 : 各画像を χ y ζの 3次元座標系の χ蚰、 y軸及び ζ軸に対 して変形させるパラメ ータ
t : 画像を X軸に対して平行移動させるパラ メ ータ
i y : 画像を y軸に対して平行移動させるパラ メ 一タ
i z : 画像を τ轴に対して平行移劻させるパラ メ ータ
s : 画像を X軸、 y軸及び ζ軸方向に拡大乂は縮小させるバラメ ータ の式で表され、
上記立体上にマッ ピングされた上記目的画像、 上記第 1 の側面画像及び上記第 2の側面画像を所定のス ク リ ー ン面上に透視変換する行列 Ρ π は、
1 0 ϋ 0
0 1 0 0
P □ =
0 0 0 Ρ ζ
0 0 0 1
ただし、 : 3次元空間上の立体をス ク リ ー ン上に透視変換する際のパースぺ クティブ値
の式で表される
ことを特徴とする請求の範囲第 1 1 項に記載の画像処理方法。
1 3. 上記変換行列 Τ。 は、
ζ轴に関するパラメ ータである 3行目及び 3列目のパラ メ ータを除いた 3行 3 列の行列である
ことを特徴とする請求の範囲第 1 2項に記載の画像処理方法。
1 . 上記立体の所定面にマツビングされる上記目的画像は、 上記変換行列 M A 、 To 及び P。 を用いて、
T A = M A - To - P o
によって表される変換行列丁 A によってスク リ ーン上に透視変換され、
上記立体の所定面にマッ ピングされる上記第 ) の側面画像は、 上記変換行列 M B 、 T 0 及び P。 を用いて、
T n - Mn - T o - P o
によって表される変換行列 T B によってスク リ ーン上に透視変換され、
上記立体の所定面にマツビングされる上記第 2の側 ffi画像は、 上記変換行列 M c 、 T a 及び P n を用いて、
T c -Mc - T o - Ρ
によって表される変換行列丁 c によってスク リ ーン上に透視変換される
ことを特徴とする請求の範囲第 1 2項又は第 1 3項に記載の画像処理プ J法。
1 5. 上記画像処理方法は、
上記立体の各所定面にマッ ピングされた上記目的画像、 上記第 1 の側面闽像及 び上記第 2の側面画像の表裏判定をそれぞれ行い、
上記目的画像、 上記第 1 の側面画像及び上記第 2の側面画像のうち、 上記判定 結果が表である画像を上記立体の対応する面にマッビングし、
上記目的画像、 上記第 1 の側面画像及び上記第 2の側面画像のうち、 上記判定 結果が裏である画像を上記立体の対応する面の対向面にマッ ビングし、
上記判定結果が表裏のいずれでもないとき、 上記第 1 の側面画像及び上記第 2 の側面画像を表示しないように制御する
ことを特徴とする請求の範囲第 1 1 項に記載の画像処理方法。
1 6. 上記目的画像を上記立体の対向面にマッ ピングする変換行列 MA ' は、
Figure imgf000087_0001
ただし、 し A ' : 目的画像を立体の対向面に移動する行列
T : 目的画像を立体の対向面の形状に応じて変形させる行列 の式で表され、 上記第 1 の側面画像を上記立体の対向面にマツ ビングする変換行列 M B は、
M = し ' S ti * X ' R ' し
ただし、 L : 第 〗 の側面画像を基準位置に移動する行列
S R : 第 1 の側面画像を目的画像のマツビング面の形状に応じて移動す る行列
K Bx : 第 1 の側面画像を目的画像に対して所定角度だけ回転する行列 R : 第 1 の側面画像を目的画像をマツビングした面の形状に応じた角 度だけ回転させる行列
L„ ' : 第 1 の側面画像を立体の目的画像がマツビングされた而に接す る対向面に移 ¾する行列
の式で表され、
上記第 1 の側面画像を上記立体の対向面にマッ ピングする変換行列 M c は、 Mc ' = し co · S - - R c X · R e - L c: '
ただし、 L co: 第 2の側面画像を基準位置に移勖する行列
S c : 第 2の側面画像を目的画像のマッ ピング面の形状に応じて移動す る行列
R : 第 2の側面画像を目的画像に対して所定 ft度だけ回転する行列 R cz: 第 2の側面画像を目的画像をマツ ビング した の形状に応じた角 度だけ回転させる行列
L c ' : 第 2の側面画像を立体の目的画像がマッ ピングされた面に接す る対向面に移動する行列
の式で表され、
上記目的画像、 上記第 1 の側面画像及び上記第 2の側面画像を上記立体の移動 に応じて移動させる変換行列' 1'。 は、
Figure imgf000089_0001
ただし 〜 r 3 3 : 各画像を x y z の 3次元座標系の x軸、 y軸及び z軸に対 して変形させるパラメ ータ
: 画像を X軸に対して平行移動させるパラ メ ータ
: 画像を y軸に対して平行移動させるパラメ 一タ
: 画像を z轴に対して平行移動させるパラ メ ータ
: 画像を X軸、 y軸及び τ軸方向に拡大又は縮小させるパラメ ータ の式で表され、
上記立体上にマツビングされた上記目的画像、 上記第 1 の側面画像及び上記第 2の側面画像を所定のスク リ 一ン面上に透視変換する行列 Ρ。 は、
1 0 ϋ 0
0 1 0 0
Ρ 0 =
0
0
ただし、 Ρ ζ : 3次元空間上の立体をス ク リーン上に透視変換する際のパースぺ クティ ブ値
の式で表される
ことを特徴とする請求の範囲第 1 5項に記載の画像処理方法。
1 7. 上記表裏の判定は、
上記目的画像、 上記第 1 の側面画像及び上記第 2の側面画像を立体のそれぞれ 対応する所定面に 3次元変換し、 当該 3次元変換された上記目的画像、 上記第 1 の側面画像及び上記第 2の側面画像をスク リ ーン上に透視変換する上述の変換行 列 Τ Λ 、 T 及び T C の各行列式の値に基づいてそれぞれ行われる
ことを特徴とする請求の範囲第 1 4項に記載の画像処理方法。
1 8. 上記画像処理方法は、
上記目的画像、 上記第 1 の側面画像及び又は上記第 2の側面画像を上記立体の それぞれ対応する面にマツビングする際に、 上記目的画像、 上記第 1 の側面画像 及び又は上記第 2の側面画像をそれぞれマッピング面に対応した大きさに切り取 る縮小率優先モー ドと、
上記目的画像、 上記第 1 の側面画像及び又は上記第 2の側面画像を上記立体の それぞれ対応する面にマッ ピングする際に、 上記目的画像、 上記第 1 の側面画像 及び又は上記第 2の側面画像をそれぞれ予め切り取られた領域部分をマツ ビング 面に対応した大きさに縮小又は拡大するク ッヅ優先モ一 ドと
を具えることを特徴とする請求の範囲第 1 1 ¾に記載の画像処理方法。
1 9. 上記画像処理方法は、
上記判定結果が裏である画像を、 上記立体の対応する上記対向面にマッビング する際、 上記画像の表裏を入れ替える
ことを特徴とする請求の範囲第 1 5項に記載の画像処理方法。
2 0. 上記画像処理方法は、
上記第 1 のメ モリ に書き込まれた上記目的画像と、 上記第 2のメ モ リ に書き込 まれた上記第 1 の側面画像と、 上記第 3 のメ モ リ に書き込まれた上記第 2 の側面 画像とをそれぞれ上記変換行列 T。 の逆行列に基づいて読み出す
ことを特徴とする請求の範囲第 1 2項又は第 1 3項に記載の画 ί象処理方法。
PCT/JP1996/003347 1995-11-14 1996-11-14 Dispositif et procede de traitement d'images WO1997018668A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP51874497A JP3867295B2 (ja) 1995-11-14 1996-11-14 画像処理装置及び画像処理方法
EP96938471A EP0804022B1 (en) 1995-11-14 1996-11-14 Device and method for processing image
DE69620580T DE69620580T2 (de) 1995-11-14 1996-11-14 Vorrichtung und verfahren zur bildverarbeitung
US08/849,970 US6021229A (en) 1995-11-14 1996-11-14 Imaging processing method for mapping video source information onto a displayed object

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP7/321228 1995-11-14
JP32122895 1995-11-14

Publications (1)

Publication Number Publication Date
WO1997018668A1 true WO1997018668A1 (fr) 1997-05-22

Family

ID=18130247

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1996/003347 WO1997018668A1 (fr) 1995-11-14 1996-11-14 Dispositif et procede de traitement d'images

Country Status (7)

Country Link
US (1) US6021229A (ja)
EP (1) EP0804022B1 (ja)
JP (1) JP3867295B2 (ja)
KR (1) KR100412166B1 (ja)
CN (1) CN1103529C (ja)
DE (1) DE69620580T2 (ja)
WO (1) WO1997018668A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0860991B1 (en) * 1996-09-11 2009-12-09 Sony Corporation Special effect device, picture processing method, and objective picture generating method
JP2939230B1 (ja) * 1998-03-05 1999-08-25 株式会社ナムコ 画像生成装置及び情報記憶媒体
US6674484B1 (en) * 2000-01-10 2004-01-06 Koninklijke Philips Electronics N.V. Video sample rate conversion to achieve 3-D effects
US7970645B2 (en) 2001-02-23 2011-06-28 Cox Communications, Inc. Method and apparatus for providing targeted advertisements
US20020143622A1 (en) * 2001-04-02 2002-10-03 Taliercio Andr?Eacute; Method for licensing three-dimensional avatars
US20040243538A1 (en) * 2001-09-12 2004-12-02 Ralf Alfons Kockro Interaction with a three-dimensional computer model
CN100346638C (zh) * 2002-10-25 2007-10-31 索尼计算机娱乐公司 使用沿时间轴改变的图像数据产生新图像的方法和装置
KR100610689B1 (ko) * 2005-06-24 2006-08-09 엔에이치엔(주) 3차원 화면에 동영상을 삽입하는 방법 및 이를 위한 기록매체
CA2682935C (en) * 2007-04-11 2020-01-28 Thomson Licensing Method and apparatus for enhancing digital video effects (dve)
JP5136558B2 (ja) * 2007-09-04 2013-02-06 富士通株式会社 データ記録プログラム、データ記録装置およびデータ記録方法
CN102238313A (zh) * 2010-04-22 2011-11-09 扬智科技股份有限公司 产生影像转换矩阵的方法、影像转换方法及其装置
TW201310354A (zh) * 2011-08-30 2013-03-01 Hon Hai Prec Ind Co Ltd 圖像採集裝置及其圖像處理方法
US8903149B1 (en) * 2013-01-18 2014-12-02 Anritsu Company System and method of communicating information about an object concealed by a scanned surface
US9518823B2 (en) 2014-01-23 2016-12-13 Jayson Hill Adjustable laser leveling device and method
US9846034B2 (en) 2014-01-23 2017-12-19 Sure Hang, Llc Adjustable laser leveling device with distance measuring lasers and self-leveling lasers and related method
CN105898344A (zh) * 2016-04-12 2016-08-24 乐视控股(北京)有限公司 一种全景视频的播放方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63189056A (ja) * 1987-02-02 1988-08-04 Nec Corp 画像合成方式
JPH04129481A (ja) * 1990-09-20 1992-04-30 Sony Corp 特殊効果映像作成方法
JPH04229784A (ja) * 1990-07-03 1992-08-19 Sony Corp 映像信号の発生方法
JPH04281572A (ja) * 1991-03-11 1992-10-07 Personal Joho Kankyo Kyokai 画像処理システムにおける実写画像とコンピュータ グラフィックスの合成方法
JPH04329484A (ja) * 1991-05-01 1992-11-18 Matsushita Electric Ind Co Ltd 画像合成装置
JPH05143709A (ja) * 1990-09-19 1993-06-11 Dubner Computer Syst Inc ビデオ効果装置
JPH06187460A (ja) * 1992-12-15 1994-07-08 Fuji Xerox Co Ltd 図形処理方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5263135A (en) * 1985-07-18 1993-11-16 Canon Kabushiki Kaisha Image processing apparatus
GB2181929B (en) * 1985-10-21 1989-09-20 Sony Corp Methods of and apparatus for video signal processing
JPH0612560B2 (ja) * 1986-05-28 1994-02-16 国際イラスト技研株式会社 立体図製図方法
FR2662009B1 (fr) * 1990-05-09 1996-03-08 Apple Computer Icone manupulable a faces multiples pour affichage sur ordinateur.
JP3067831B2 (ja) * 1991-03-27 2000-07-24 ソニー株式会社 デジタル画像特殊効果装置
JPH07111743B2 (ja) * 1992-03-04 1995-11-29 インターナショナル・ビジネス・マシーンズ・コーポレイション 三次元空間中の物体を回転させるグラフィック表示方法及び装置
WO1993023835A1 (en) * 1992-05-08 1993-11-25 Apple Computer, Inc. Textured sphere and spherical environment map rendering using texture map double indirection
GB2270243B (en) * 1992-08-26 1996-02-28 Namco Ltd Image synthesizing system
US5581665A (en) * 1992-10-27 1996-12-03 Matsushita Electric Industrial Co., Ltd. Three-dimensional object movement and transformation processing apparatus for performing movement and transformation of an object in a three-diamensional space
US5586246A (en) * 1993-12-28 1996-12-17 Matsushita Electric Industrial Co., Ltd. Image synthesis apparatus
JP3653744B2 (ja) * 1994-05-18 2005-06-02 株式会社セガ 画面切替え方法及びこれを用いたゲーム装置
JP3957888B2 (ja) * 1997-08-20 2007-08-15 株式会社リコー 撮像装置及び撮像画像合成方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63189056A (ja) * 1987-02-02 1988-08-04 Nec Corp 画像合成方式
JPH04229784A (ja) * 1990-07-03 1992-08-19 Sony Corp 映像信号の発生方法
JPH05143709A (ja) * 1990-09-19 1993-06-11 Dubner Computer Syst Inc ビデオ効果装置
JPH04129481A (ja) * 1990-09-20 1992-04-30 Sony Corp 特殊効果映像作成方法
JPH04281572A (ja) * 1991-03-11 1992-10-07 Personal Joho Kankyo Kyokai 画像処理システムにおける実写画像とコンピュータ グラフィックスの合成方法
JPH04329484A (ja) * 1991-05-01 1992-11-18 Matsushita Electric Ind Co Ltd 画像合成装置
JPH06187460A (ja) * 1992-12-15 1994-07-08 Fuji Xerox Co Ltd 図形処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0804022A4 *

Also Published As

Publication number Publication date
EP0804022B1 (en) 2002-04-10
CN1103529C (zh) 2003-03-19
JP3867295B2 (ja) 2007-01-10
KR987001181A (ko) 1998-04-30
CN1169808A (zh) 1998-01-07
EP0804022A4 (en) 1998-03-25
DE69620580T2 (de) 2002-11-28
KR100412166B1 (ko) 2004-05-31
EP0804022A1 (en) 1997-10-29
DE69620580D1 (de) 2002-05-16
US6021229A (en) 2000-02-01

Similar Documents

Publication Publication Date Title
WO1997018668A1 (fr) Dispositif et procede de traitement d&#39;images
US6747610B1 (en) Stereoscopic image display apparatus capable of selectively displaying desired stereoscopic image
EP0954828B1 (en) Generalized panoramic mosaic
US6195102B1 (en) Image transformation processing which applies realistic perspective conversion to a planar image
JP3148045B2 (ja) 三次元物体cg作成装置
JPH0816820A (ja) 3次元アニメーション作成装置
KR20070042989A (ko) 2차원 이미지들로부터 인공 부산물이 없는 3차원이미지들을 생성하는 방법
JP4119529B2 (ja) 仮想環境生成方法および装置、並びに仮想環境生成プログラムを記録した記録媒体
JPH05143709A (ja) ビデオ効果装置
WO1997015150A1 (fr) Procede et dispositif de formation d&#39;images en trois dimensions
JP3352475B2 (ja) 画像表示装置
JP2006309802A (ja) 画像処理装置及び画像処理方法
US5986660A (en) Motion capture data system and display
JPH0950540A (ja) 画像生成方法
JP4099830B2 (ja) 特殊効果装置、画像処理方法及び対象画像生成方法
JP3463390B2 (ja) アニメーション提示装置およびその方法
JP3577202B2 (ja) 映像作成装置
JP2000030080A (ja) Vrシステム
JP4082546B2 (ja) 3次元仮想空間構築システム
JP2713895B2 (ja) 3次元方向ベクトル入力方式
JPH09116932A (ja) 特殊効果装置
JP3683927B2 (ja) コンピュータ・グラフィック制作システム及びその制御方法
JPH1139508A (ja) 立体画像表示装置および方法ならびに立体画像表示プログラムを記録したコンピュータで読取可能な記録媒体
JPH09139886A (ja) 特殊効果装置
JP2012128630A (ja) 動画生成装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 96191640.0

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FI FR GB

WWE Wipo information: entry into national phase

Ref document number: 1996938471

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1019970704589

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 08849970

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1996938471

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1019970704589

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1996938471

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1019970704589

Country of ref document: KR