WO2000068886A1 - Processeur d'informations - Google Patents

Processeur d'informations

Info

Publication number
WO2000068886A1
WO2000068886A1 PCT/JP2000/003039 JP0003039W WO0068886A1 WO 2000068886 A1 WO2000068886 A1 WO 2000068886A1 JP 0003039 W JP0003039 W JP 0003039W WO 0068886 A1 WO0068886 A1 WO 0068886A1
Authority
WO
WIPO (PCT)
Prior art keywords
motion
camera
information
detecting
image signal
Prior art date
Application number
PCT/JP2000/003039
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Yuji Okumura
Tetsushi Kokubo
Satoshi Teshigawara
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to JP2000616591A priority Critical patent/JP4449217B2/ja
Priority to US09/743,442 priority patent/US6678328B1/en
Publication of WO2000068886A1 publication Critical patent/WO2000068886A1/ja
Priority to US12/612,090 priority patent/US8619197B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/05Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles the view from a vehicle being simulated
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/12Motion systems for aircraft simulators

Definitions

  • the present invention relates to an information processing device, a learning device, an information processing method, a learning method, and a program recording medium, and more particularly, to an image processing apparatus, as if watching a video taken by a video camera mounted on a vehicle.
  • An information processing device and learning device that can generate swaying data to sway the chair on which the observer of the image sits, in contrast to the immersion experience device that allows the user to experience the sensation of realism
  • the present invention relates to an information processing method, a learning method, and a program recording medium.
  • An image taken by a video camera mounted on a vehicle is displayed on a screen, and the observer's seat observing the image is shaken in relation to the image, so that the observer can view the image.
  • a real-life experience device that allows the user to experience the realism of riding on a vehicle has been realized.
  • such sway data for shaking a seat is obtained by capturing an image.
  • the operator predicts the sway while viewing the image taken from the vehicle, and creates the sway data manually. Further, assuming a predetermined shaking moment, an image is also generated by computer graphics.
  • the method of acquiring the sway data by the sensor has a problem that the sway data cannot be generated from the existing image.
  • the method in which the operator manually creates the sway data while viewing the image requires a huge amount of work and is costly.
  • a method of creating an image corresponding to a predetermined shaking image by combi-sun graphics is, for example, based on an image captured from a video camera attached to an F1 racing car that has been acquired in advance.
  • the experience of driving the driver made it impossible to utilize existing real-world video assets.
  • the present invention has been made in view of such a conventional situation, and enables to generate sway data easily and at low cost based on existing video assets. Things.
  • the information processing apparatus includes a camera motion estimation information indicating a motion of the video camera detected from a desired image signal captured by the video camera, and simultaneously capturing the desired image signal by the video camera.
  • a camera motion estimation information indicating a motion of the video camera detected from a desired image signal captured by the video camera, and simultaneously capturing the desired image signal by the video camera.
  • Acquired by sensors that detect physical movement Storage means for storing related information generated in advance by learning based on camera movement information indicating physical movement of the video camera; and camera movement for the input image signal from an input image signal
  • Camera motion prediction information generating means for detecting the estimation information, the camera motion estimation information detected by the camera motion estimation information detecting means, and the relation information, camera motion prediction information for the input image signal is generated.
  • the learning apparatus further includes a camera motion estimation information detecting unit that detects camera motion estimation information from a desired image signal imaged by a video camera, and simultaneously with the imaging of the desired image signal by the video camera. Capturing an arbitrary image signal from an arbitrary image signal based on sensor information indicating the physical movement of the video camera acquired by a sensor for detecting physical movement and the camera movement estimation information And a coefficient generation means for generating a conversion coefficient for generating camera motion prediction information indicating the motion of the video camera.
  • the information processing method includes: camera motion estimation information indicating a motion of the video camera detected from a desired image signal captured by the video camera; and capturing the desired image signal by the video camera.
  • camera motion estimation information indicating a motion of the video camera detected from a desired image signal captured by the video camera
  • capturing the desired image signal by the video camera based on the camera motion information indicating the physical motion of the video camera acquired by the sensor for detecting the physical motion, generating related information by performing learning, based on the input image signal. Detecting camera motion estimation information for the input image signal; detecting the detected camera motion information; Generating camera motion prediction information for the input image signal based on the relevant information.
  • the learning method includes a step of detecting camera motion estimation information from a desired image signal captured by a video camera, and a step of detecting physical motion simultaneously with the capturing of the desired image signal by the video camera. Based on the sensor information indicating the physical motion of the video camera acquired by the sensor to be detected and the camera motion estimation information, the motion of the video camera capturing the arbitrary image signal from the arbitrary image signal is calculated. Generating a transform coefficient for generating the camera motion prediction information to be represented.
  • a program recording medium is a program recording medium recording a program for causing a computer to execute information processing, wherein the program is detected from a desired image signal captured by a video camera.
  • Camera motion estimation information indicating the motion of the video camera, and a camera indicating the physical motion of the video camera acquired by a sensor that detects physical motion at the same time as the desired image signal is captured by the video camera.
  • Generating relational information by performing learning based on the motion information; detecting camera motion estimation information for the input image signal from an input image signal; and detecting the detected camera motion information and the relational information. And generates camera motion prediction information for the input image signal based on
  • a program for causing a computer to execute information processing having the steps of:
  • the program recording medium is a program recording medium recording a program for causing a learning process to be executed by a combination.
  • the program comprises: detecting camera motion estimation information from a desired image signal captured by a video camera; and detecting physical motion simultaneously with capturing the desired image signal by the video camera. Based on the sensor information indicating the physical movement of the video camera acquired by the sensor and the camera movement estimation information, the camera movement indicating the movement of the video camera capturing the arbitrary image signal from the arbitrary image signal. Generating a transform coefficient for generating prediction information.
  • FIG. 1 is a diagram showing a configuration example of a realistic experience apparatus to which the present invention is applied.
  • FIG. 2 is a diagram for explaining the components of sway.
  • FIG. 3 is a block diagram showing a configuration of an image fluctuation data relation learning device in the above-mentioned immersion experience device.
  • FIG. 4 is a flowchart for explaining the operation of the above-described image swaying and overnight relation learning device.
  • FIG. 5 is a diagram illustrating the representative points.
  • FIG. 6 is a block diagram showing a configuration example of a motion center calculation device in the image sway data relation learning device.
  • FIG. 7 is a flowchart illustrating the operation of the motion center calculation device.
  • FIG. 8 is a diagram illustrating evaluation values at representative points.
  • FIG. 9 is a diagram illustrating evaluation values at representative points.
  • FIG. 10 is a block diagram showing a configuration of a camera motion estimation amount calculation device in the image sway data relation learning device.
  • FIG. 11 is a flowchart illustrating the operation of the camera motion estimation amount calculation device.
  • FIG. 12 is a diagram illustrating a geometric relationship between a three-dimensional space and a two-dimensional image.
  • FIGS. 13 (A), 13 (B), 13 (C), and 13 (D) are diagrams illustrating a set of representative points located symmetrically with respect to the movement center.
  • FIG. 14 is a block diagram showing a configuration of a camera motion amount calculation device in the image sway data relation learning device.
  • FIG. 15 is a flowchart for explaining the operation of the above-described camera motion amount calculation device.
  • FIG. 16 is a flowchart for explaining the details of the learning process of the correspondence between the camera motion estimation amount and the camera motion amount.
  • FIG. 17 is a diagram schematically showing the correspondence between the components of the camera motion estimation amount.
  • FIG. 18 is a block diagram showing a configuration of a sway data generation device in the above-mentioned immersion experience device.
  • FIG. 19 is a flowchart for explaining the operation of the above-mentioned motion data generating device.
  • FIG. 20 is a block diagram showing a configuration of a camera motion estimation amount calculation device in the above-mentioned motion data generation device.
  • FIG. 21 is a block diagram showing the configuration of the above-mentioned motion data calculation device.
  • FIG. 22 is a flowchart for explaining the operation of the above-mentioned fluctuation data calculation device.
  • FIG. 23 is a side view of a seat in the above-mentioned immersion experience device.
  • FIG. 24 is a plan view of the seat.
  • FIG. 25 is a block diagram illustrating a configuration of a computer system that executes a learning process and the like.
  • the present invention is applied to, for example, a realistic experience device 10 having a configuration as shown in FIG.
  • the immersion experience device 10 includes a learning processing unit 11 for generating a sway data by a learning process, and an image while giving a physical sway based on the sway data generated by the learning processing unit 11. It consists of an image presentation unit 12 that presents an image.
  • the learning processing unit 11 includes an image sway data relation learning device 1 and a sway data generation device 2.
  • the image sway data relation learning device 1 learns an image sway data relation coefficient from an image picked up by a video camera mounted on a vehicle and the sway data acquired by a sensor at the same time as the image pickup.
  • the motion data generation device 2 includes an image motion data relationship coefficient output from the image motion data relationship learning device 1 and an existing image captured by a video camera mounted on a vehicle (the image motion data relationship learning device 1, Used to generate the motion data relation coefficients.
  • the image data is generated based on an image that is different from the acquired image and does not include the corresponding motion data acquired from the sensor.
  • the image presentation unit 12 includes an image presentation device 3, a drive control device 5, and a synchronization control device 7.
  • the sway data generated by the sway data generation device 2 of the learning processing unit 11 is supplied to a drive control device 5 that drives the seat 6. Further, the image corresponding to the shaking data generated by the shaking data generating device 2 is supplied to an image presenting device 3 configured by, for example, a video tape recorder or the like.
  • the image presentation device 3 reproduces the image recorded on the provided video tape and displays it on the screen 4. A viewer sitting in seat 6 sees the image displayed on this screen 4.
  • the synchronization control device 7 controls the image presentation device 3 and the drive control device 5 to operate in synchronization and to stop.
  • Figure 2 shows the relationship between screen 4 and seat 6.
  • the drive control unit 5 controls the seat 6 by shaking the seat 6 so that the observer sitting on the seat 6 can see the image displayed on the screen 4 and experience the realism of being in a vehicle.
  • Upset based on This sway is composed of rotation components (roll, pitch, yaw) around three axes X, Y, and ⁇ and translation components (x, y, z) in three axis directions.
  • the image sway data relation learning device 1 is configured as shown in FIG. 3, for example.
  • the motion vector calculation device 21 converts the input image data in frame units into pixel data as representative points that are given in the form of grid points in advance so as to include at least vertically and horizontally symmetric points over the entire screen.
  • the motion vector is calculated between the current frame and the past frame one frame before, and the calculated motion vector is output to the motion center calculator 22 and the camera motion estimation calculator 23.
  • the motion center calculation device 22 calculates the center of motion of the image on the entire screen (the point at infinity in one-point perspective) from the value of the motion vector at each representative point, for example, for an image taken in the traveling direction with a camera mounted on a car. )
  • the coordinates are obtained and output to the camera motion estimator 23.
  • the camera motion estimator 23 calculates the relative coordinates of the representative point with respect to the center of motion, the motion vector at the representative point, and the geometrical relationship between the three-dimensional space and the two-dimensional image obtained by shooting it with a video camera. From the relationship, the camera motion estimator, which represents the estimator of the change in the position and orientation of the video camera per frame period, is used as the component
  • the camera motion calculation device 24 calculates the amount of movement (m / s) of the camera based on the shaking data acquired by the sensor so that the camera motion estimation amount and the physical amount (distance or angle per unit time) match. Or rad / sec) is calculated for each component (x,, y,, z,, roll,, pitch ', aw') and output to the relation coefficient learning device 25.
  • the relation coefficient learning device 25 includes a plurality of camera motion estimators supplied from the camera motion estimator 23 and one camera motion supplied from the camera motion estimator 24 corresponding to the plurality of camera motion estimators.
  • the image sway data relation coefficient representing the correspondence with the amount is learned for each component.
  • step S1 the motion vector calculating device 21 generates a preset motion image in an image from the beginning to the end of a predetermined scene (for example, an image from when a car starts running until it stops). Calculate the motion vector between frames at a certain representative point. Teens As shown in FIG. 5, for example, as shown in FIG. 5, 4 ⁇ 5 pixels at predetermined positions on a grid point are allocated to the entire screen of one screen (frame).
  • the motion vector calculated by the motion vector calculator 21 is supplied to the motion center calculator 22.
  • the motion center calculation device 22 executes a process of calculating the coordinates of the center of the motion in accordance with the input j-vector.
  • the motion center calculation device 22 is configured, for example, as shown in FIG.
  • the absolute value calculator 41 calculates the absolute value of the horizontal component of the motion vector supplied from the motion vector calculator 21 and outputs the absolute value to the adder 42.
  • the adder 42 adds the value input from the absolute value device 41 and the value input from the register 43, and outputs the result to the register 43.
  • the register 43 holds the value input from the adder 42, outputs the value to the adder 42, and outputs the value to the memory 44.
  • the memory 44 stores the value input from the register 43 for each representative point.
  • the sum of the absolute values of the horizontal components of the motion vector of the representative point of the other coordinates (i, j) is also stored.
  • the motion center horizontal plane position locator 46 calculates the majority, median, average, etc. from the horizontal coordinates corresponding to the five representative points having the minimum evaluation values supplied from the minimum value detector 45. By doing this, the elementary position in the horizontal plane during movement is detected.
  • the absolute value calculator 48 calculates the absolute value of the vertical component of the motion vector supplied from the motion vector calculator 21 and outputs the absolute value to the adder 49.
  • the adder 49 adds the value supplied from the absolute value unit 48 and the value input from the register 50, outputs the result to the register 50, and holds it.
  • the value held by the register 50 is supplied to the adder 49 and, at the same time, supplied to the memory 51 and stored.
  • the memory 51 stores a total sum of absolute values of vertical components of a motion vector at a representative point of each frame from the beginning to the end of the scene (hereinafter also referred to as an evaluation value).
  • the motion center vertical pixel position determiner 47 corresponds to the horizontal coordinate supplied from the motion center horizontal plane position determiner 46 from among the plurality of vertical coordinate data input from the minimum value detector 52.
  • the vertical coordinate of the representative point is selected as the vertical pixel position at the center of motion.
  • the adder 42 repeats the process of adding the past value held in the register 43 and the value supplied from the absolute value device 41.
  • the register 43 holds the sum (evaluation value) of the absolute value of each representative point from the beginning to the end of the scene, and this is stored in the memory 44.
  • step S22 a process is performed in which the horizontal coordinates of the representative point that minimizes the sum of the absolute values of the representative points arranged in the horizontal direction are the horizontal coordinates of the movement center. For this reason, the minimum value detector 45 calculates the sum (evaluation value) of the absolute value of the horizontal component of the motion vector from the beginning to the end of the scene of each representative point stored in the memory 44. The minimum value is detected for each line.
  • the horizontal coordinate of the detected representative point is the horizontal center of the movement. It is output to the pixel position determiner 46.
  • the horizontal coordinate of the representative point of the coordinates (1, 2) is the moving center horizontal pixel.
  • the motion center horizontal pixel position determiner 46 performs a process such as majority, median, or averaging on the horizontal coordinates of each line to determine the motion center-of-gravity horizontal pixel position.
  • a process such as majority, median, or averaging on the horizontal coordinates of each line to determine the motion center-of-gravity horizontal pixel position.
  • step S23 the same processing as in step S21 is performed on the vertical component of the motion vector. That is, the absolute value of the vertical component is calculated from the motion vector supplied from the motion vector calculator 21 by the absolute value device 48, and the absolute value is calculated by the adder 49 and the register 50. The sum of the absolute values is calculated for each representative point. Then, the calculated value is stored in the memory 51.
  • step S24 a process is executed in which the vertical coordinate of the representative point having the horizontal coordinate equal to the horizontal coordinate of the motion center and having the smallest sum of absolute values is set as the vertical coordinate of the motion center. .
  • the motion center vertical plane element position determiner 47 is a representative of the horizontal coordinates of the horizontal plane element supplied from the movement center horizontal pixel position determiner 46 from among the vertical coordinates supplied from the minimum value detector 52.
  • the vertical coordinates of the representative point corresponding to the point are determined as the motion center vertical pixel position.
  • the motion center coordinates calculated by the motion center calculation device 22 as described above are supplied to the camera motion estimation amount calculation device 23 in FIG. Returning to FIG.
  • step S3 the camera motion estimation amount calculation device 23 executes the camera motion estimation amount calculation process.
  • the camera motion estimation calculator 23 is configured, for example, as shown in FIG.
  • the motion vector output from the motion vector calculator 21 is input to the motion vector selectors 62-1-1 to 62-4.
  • the motion vector selector 62-1 captures the water component of the motion vector
  • the motion vector selector 62-2 captures the vertical component.
  • the motion vector selectors 62-3, 62-4 capture both horizontal and vertical components.
  • the motion center coordinates output from the motion center calculator 22 are input to the representative point position determiners 61-1 to 61-4.
  • the representative point position determiner 6 1 1 1 to 6 1-4 calculates the motion vector value used for calculating the camera motion estimator according to the component of the camera motion estimator to be obtained from the input motion center coordinates. Determine the position of the representative point with reference to the corresponding motion vector selector 62— :! To 62—4.
  • Movement vector selector 62— :! 62-4 are input from the representative point locator 6 1-1-6 1-4 from one of the horizontal and vertical components of the motion vector at all the representative points during one input frame. Based on the representative point position, the value of the motion vector used for calculating the camera motion estimation amount is selected.
  • the adder 63-1 or the adder 63-2 is the output of the motion vector selector 62-1 or the motion vector selector 62-2, respectively, and the register 65-1 or the register 65-5. Add the output of 2 and output it to Regis 65-1 or Regis 65-2.
  • the output of the register 65-11 is output to the adder 63-1, and is also output to the memory 66-11 and stored.
  • LPF mouth one-pass filter
  • HPF highpass Le evening
  • the data stored in the register 65-2 is output to the adder 63-12 and is also output to the memory 66-2 and stored.
  • the low-pass component is extracted by a low-pass filter (LPF) 67-2 and output as a component w y
  • the high-pass filter (HP F) 68— 2 higher Frequency component is extracted and outputted as a component V Z.
  • the subtractor 64-1 subtracts the output of the register 65-3 from the output of the motion vector selector 62-3 and outputs the result to the register 65-3.
  • the output of the register 65-3 is output to the subtractor 64-1 and supplied to the memory 66-3 for storage.
  • the data read from the memory 66-3 is input to the divider 69-1 and is divided by the relative coordinates p and q of the representative point output from the representative point position determiner 61-13. Output as V.x.
  • the subtractor 64-2 subtracts the data output from the register 65-4 from the data output from the motion vector selector 62-4 to obtain a register 65-4.
  • Output to The data output from the register 65-4 is output to the subtractor 64-2, and also output to the memory 66-14 and stored.
  • the data read out from the memory 66-4 is input to the divider 692-2, and is divided by the relative coordinates P and q of the representative points output from the representative point position determiner 61-4. after, is output as components w x.
  • the operation of the camera motion estimation amount calculation device 23 of FIG. 3 will be described with reference to the flowchart of FIG.
  • the geometric relationship between a three-dimensional space and a two-dimensional image is used. That is, in FIG.
  • the relative coordinates of the representative point i with respect to the motion center (0, 0) are (pi, qi ), and the motion vector at this representative point is (Ui, Vi)
  • Ri is the depth of the subject in the three-dimensional space as viewed from the video camera
  • the translation speed in the three axes of the video camera is ( Vx , ⁇ . ⁇ , ⁇ )
  • the angular velocity of rotation of the video camera around the three axes is (Wx, Wy, Wz)
  • the focal length of the video camera is f
  • the following equation is established from the geometric relationship between the three-dimensional space shown in Fig. 12 and the two-dimensional image obtained by shooting it with the video camera.
  • the point (Z, Y, X) in the three-dimensional space moves relative to the video camera as follows.
  • V i —— i f ⁇ ⁇
  • Wv, w z is expressed by the following equation.
  • the depth r of the object is assumed to be almost equal at the two points that form a pair.
  • the motion vectors of the two representative points are (u P ,
  • V P V P
  • U P expressed as Vp
  • the system in the top row of Fig. 10 (representative point position determiner 61-1 to high pass filter (HPF) 68-1) is used to perform the calculation of the above equation (12).
  • the second system from the top (representative point position determiner 61-2 to high-pass fill (HP F) 68-2) is for performing the calculation shown in equation (13), and the third system from the top
  • the system (representative point position determiner 61-3 to divider 69-1) is for performing the operation of equation (14), and the system in the bottom row (representative point position determiner 61-1)
  • the 4-69 divider 69-2) is for performing the operation of equation (15).
  • the two representative points that are located at and located symmetrically with respect to the motion center are determined.
  • the representative point position determiner 6 1-2 determines the representative point position for performing the calculation of equation (13), and as shown in Fig. 13 ( ⁇ ), Select two representative points located symmetrically with respect to the movement center.
  • the representative point locator 61-1 may select only the horizontal component of the motion vector of a set of representative points shown in Fig. 13 (A), but in order to improve accuracy, In one frame, the horizontal component of the motion vector of a plurality of sets of representative points is selected. In the example of FIG. 13A, a total of four sets of representative points are selected. In the figure, for the representative point located on the center of motion shown at the center, the horizontal components of the two representative points are processed as being the same.
  • the representative point position determiner 61-2 is a motion vector of at least one of the representative point sets shown in Fig. 13 (B). It is sufficient to select the vertical component of the set, but for more accuracy, select the vertical component of a total of four sets of representative points ⁇
  • the representative point position determiner 61-4 may use either the above equation or the following equation as shown in equation (15), but in order to be more accurate, Use both.
  • the motion vector selectors 62-1-1 to 62-4 include several sets determined by the corresponding representative point position determiners 61-1 to 61-4. The motion vectors of the two representative points are selected. In the motion vector selector 62-1 shown in FIG.
  • step S43 Uq + U-q, Vp + V-p, Up—U-p, Vq-Vq used for IJ in the above equations (1 2) to (15) , U q "U -q, V p — V— p is computed.
  • the adder 63-1 supplies the horizontal component uq to the register 65-1 and stores it.
  • the adder 63-1 adds the horizontal component u- q to the component uq held in the register 65-1 and adds the result.
  • the value (u q + u- q ) is kept at 655-1.
  • the subtractor 64-1 supplies this to the register 6 5-3.
  • the horizontal component u P of the motion vector of the next representative point is supplied, the value u held in the register 65 3 is subtracted from this, and the subtracted value (u P -u -p)
  • the subtractor 64-2 supplies the horizontal component u— q of the motion vector of the first representative point supplied from the motion vector selector 6 2—4 to the register 6 5—4 and holds it.
  • the component u- q held in the register 65-4 is subtracted therefrom, and the subtracted value (L-u- q ) Is supplied to Regis Evening 6 5-4 and kept.
  • the data stored in the register 66-4 is supplied to the memory 66-4 and stored therein.
  • the value (v P - V - P) is also calculated and stored in the memory 6 6 4.
  • step S 44 processing for separating the components W z and component v y
  • a process for separating the component Wy from the component Vz and a process for dividing the stored value by the coordinate value p or the coordinate value q of the representative point are executed. That is, as shown in equation (12), the data (u q + u ⁇ q ) stored in the memory 66-1 is the sum of the component wz and the component V y (W z + (1 / r) V y).
  • the nature of the upset V X, V y, V z
  • the rotational movement (Wx, Wy, W z) is composed primarily of low frequency components.
  • Isseki de stored in the memory 66- 2 (Vp + vp), as shown in equation (13), the difference between the component w y and component v z (w y - (1 / r) w z ) Is proportional to Therefore, by extracting the low-frequency component from the data stored in the memory 66-2 by the mouth-pass filter (LPF) 67-2, the component w y is extracted, and the high-pass filter (HPF ) Extract the component v z by extracting the high frequency component by 68-2.
  • LPF mouth-pass filter
  • HPF high-pass filter
  • the divider 69-1 uses the horizontal coordinate P of the representative point supplied from the representative point position determiner 611-3. And divide this, and output the result of the division.
  • data (v q — V— q ) is read from the memory 66-3, this data is divided by the vertical coordinate q supplied from the representative point position determiner 61-3. Is output.
  • the divider 69-2 obtains the value as shown in the equation (15). Divide by the vertical component q of the relative coordinate table supplied from the representative point position determiner 6 1-4 to make it proportional to the component w x . Also, when data (v P — V-p) is supplied, the divider 69-2 converts this value to the vertical component p of the relative coordinates supplied from the representative point position determiner 61-4.
  • the component (1 / r) in equation (14) is processed by learning and included in the weighting factor.
  • the component (1/2) in equation (15) is also processed by learning.
  • the camera motion estimation amount calculated by the camera motion estimation amount calculation device 23 in FIG. 3 is supplied to the relation coefficient learning device 25.
  • the camera motion amount calculation processing is executed by the camera motion amount calculation device 24 in FIG. 3 in step S4.
  • the camera motion amount calculation device 24 is configured, for example, as shown in FIG.
  • the sway data from a sensor includes acceleration in three axis directions (X ", y", z ") and angular velocity of rotation about three axes (r011, 1,, . ,
  • the accelerations x ", y", and ⁇ " are input to the adder 82-1, the adder 82-2, or the subtractor 81, respectively.
  • the adder 82-1 outputs the input acceleration X" , Integrates by adding the value stored in the register 83-1, and outputs the result to the register 83-1.
  • the output of the register 83-1 is output to the adder 82-1 and is also supplied to the memory 84-1 for storage.
  • the DC component remover 85-1 removes the DC (direct current) component from the data stored in the memory 84-1, and outputs it as a camera motion component X '.
  • the error is superimposed on the fluctuation data obtained from the sensor. If the error is simply integrated, the error will accumulate. The components are removed.
  • the adder 82-2 adds the past value held in the register 83 to the input sensor output y ", and outputs the result to the register 83-2, thereby integrating the sensor output y". Output to memory 84-2 and memorize it.
  • the DC component remover 85-2 removes the DC component from the data read out by the memory 84-2 and outputs it as a component y ′ of the camera motion amount.
  • the subtractor 81 subtracts the gravitational acceleration g from the sensor output z "and outputs the result to the adder 82-3.
  • the adder 82-3 receives the input from the subtractor 81 1 and the register 83-3
  • the data (z "-g) is integrated by adding the past value held by the device and outputting it to the register 83-3, supplying it to the memory 84-3 and storing it.
  • the data stored in the memory 84-3 is output as a component z 'of the camera motion amount after the DC component is removed by the DC component remover 85-3. 68886
  • step S61 when the sway data ro11,, pitch ', yaw' from the sensor is input, these data are output to the relation coefficient learning device 25 as they are.
  • step S62 an integration process is performed on the three components of the translational motion according to the following equation so that the camera motion estimation amount and the physical amount (speed) match.
  • the adder 82-1 and the register 83-1 work together to integrate the sensor output X ", output the same to the memory 84-1, and store it.
  • the adder 82-2 and the register 82-1 8 3-2 works together to integrate the sensor output y ", outputs it to memory 84-2 and stores it.
  • the adder 82-3 and the register 83-3 integrate the value (z "-g) input from the subtractor 81, supply the integrated value to the memory 84-3, and store it.
  • the process of removing the DC component from the integrated output obtained in step S63 is executed, that is, the DC component remover 85— :!
  • the DC component is removed from the data stored in the camera and output as camera motion components X ', y', z '. / 68886
  • the camera motion amount ( ⁇ ,, y,, z ′, roll ′, pitch ′, yaw ′) calculated by the camera motion amount calculation device 24 is supplied to the relation coefficient learning device 25.
  • step S4 when the camera motion amount calculation processing in step S4 is completed, next, the process proceeds to step S5, in which learning processing for correspondence between a plurality of camera motion estimation amounts and one camera motion amount is performed. This is executed in the relation coefficient learning device 25. Details of the processing of the relation coefficient learning device 25 are shown in the flowchart of FIG.
  • the camera motion estimator (Vx, Vy, Vz, Wx, Wy, Wz) calculated by the camera motion estimator calculator 23 includes a motion vector detection error, a small Due to the incorporation of object motions and the assumption that the assumed symmetry of the three-dimensional space is not established, accurate values cannot be obtained for all sets of symmetry points.
  • the conversion coefficient between the camera focal length f, the subject depth r, the unit of camera motion estimation (pixel / frame period) and the unit of camera motion (niZs, rad / s) is undefined. . Therefore, one camera motion amount is represented by a linear linear combination of a plurality of camera motion estimation amounts, and its coefficient is obtained.
  • the component x ′ and the n camera motion estimation amounts v xl to v xn can be related by the following equation using a linear linear combination.
  • the process of obtaining for each component of the camera motion amount is performed Is done. That is, for example, when obtaining the coefficients Wxo to W xn for the camera motion component x ', the least squares method is used to minimize the error between the left side of Equation (20) and the camera motion component X'. coefficient w x o ⁇ w xn of linear combination is prompted.
  • the motion vector calculator 101 detects the motion vector from the input image (the image supplied to the image presentation device 3), and calculates the motion center calculator 102 and the camera motion estimation amount calculator 103. Output to The motion center calculation device 102 calculates the motion of the input image based on the input motion vector. The center coordinates are detected and output to the camera motion estimator 103.
  • the camera motion estimator 103 is inputted from the motion vector calculator 101, and the camera motion estimator is supplied based on the motion vector and the motion center coordinates supplied from the motion center calculator 102. Is calculated and output to the camera movement prediction amount calculation device 104.
  • the motion vector calculation device 101, the motion center calculation device 102, and the camera motion estimation amount calculation device 103 consist of the motion vector calculation device 21 and the motion center calculation device 2 described in FIG. 2 and a camera motion estimation amount calculation device 23.
  • the camera motion prediction amount calculation device 104 calculates a linear relationship between the image motion data relation coefficient supplied from the image motion data relation learning device 1 and the camera motion estimation value supplied from the camera motion estimation value calculation device 103. By calculating the linear combination, a camera motion prediction amount representing information that the video camera seems to have moved in one frame period is calculated and output to the motion data calculation device 105.
  • the motion data calculation device 105 calculates the motion data based on the input camera motion prediction amount such that the motion data obtained when the drive control device 5 and the seat 6 are translated or rotated are the same as the physical data. Is calculated and output.
  • step S81 motion vector calculation processing is performed by the motion vector calculation device 101
  • step S82 motion center calculation processing is performed by the motion center calculation device 102.
  • step S83 the camera motion estimation amount calculation device 103 performs camera motion estimation amount calculation processing.
  • step S84 the camera motion prediction amount calculation device 104 executes calculation processing of the camera motion prediction amount.
  • the camera motion prediction amount calculation device 104 is configured, for example, as shown in FIG.
  • the camera motion estimation amount calculation device 104 calculates the camera motion estimation amount supplied from the camera motion estimation amount calculation device 103 and the image motion data relation coefficient supplied from the image motion data relation learning device 1.
  • Multiplier 1 2 1 which multiplies and outputs to adder 1 2 2, data input from multiplier 1 2 1, and past data held in register 1 2 3 are added , And outputs the data to the register 123 to add the input data 122 and the data supplied from the register 123 to store the camera motion prediction amount.
  • Memory 1 2 4 that outputs as Then, the camera motion prediction amount calculation device 104 executes a process of multiplying the estimated camera motion amount by the image fluctuation data relationship coefficient and adding the result.
  • the multiplier 122 multiplies the camera motion estimation amount supplied from the camera motion estimation amount calculation device 103 by the image motion data relationship coefficient supplied from the image motion data relationship learning device 1, and Output to adder 1 2 2.
  • the adder 1 2 2 adds the data previously held in the register 1 2 3 to the data input from the multiplier 1 2 1, supplies the data to the register 1 2 3 and stores it again. Then, the data supplied from the multiplier 1 2 1 is integrated. As a result, a linear linear combination is calculated.
  • the data output from the register 1 2 3 is temporarily stored in the memory 1 2 4 After being stored, it is output as the camera motion prediction amount.
  • the camera motion estimator calculated by the camera motion estimator 103 calculates v xi l , VX i 2 ,.
  • • ⁇ ⁇ , w xn are the motion vector detection error, the inclusion of small object motion, the assumption that the assumed symmetry of the three-dimensional space is not established, the camera focal length f, the subject depth r, and the camera motion estimation amount.
  • the value takes into account all the conversion coefficients between the unit and the unit of the motion camera estimator.
  • the camera motion prediction amount X ′ i is obtained by calculating a linear combination of the plurality of camera motion estimation amounts obtained at a time i between two frames as shown in the following equation.
  • step S84 the process proceeds to step S85.
  • step S85 the motion data calculator 105 executes a process of calculating the motion data from the camera motion prediction amount.
  • step S86 the motion data calculation device 105 determines whether or not the processing in steps S84 and S85 has been performed for all frames. If there is an unprocessed frame, the flow returns to step S84 to calculate the camera motion prediction amount for the unprocessed frame. Is calculated. Then, the processing of steps S84 to S86 is repeated for each frame, and when the processing is performed for all the frames, the generation processing of the motion data ends.
  • the sway data calculator 105 Based on the camera motion prediction amount calculated as described above, the sway data calculator 105 generates a sway data, and the drive control device 5 sets the seat 6 based on the sway data.
  • the seat 6 due to the restriction of presenting the sway data through the seat 6 fixed at a specific place such as a theater, the seat 6 cannot be rotated or translated indefinitely as it actually is.
  • the sway data in the immersion experience apparatus 10 is pulse-shaped according to the actual sway data as data for directly giving the change in the actual angle or position, and the change in the rotational angular velocity or the translational acceleration. Or, it is composed of alternative sway data that gives an angle change in steps.
  • the actual sway data and the alternative sway data when the car runs along the road surface are configured as shown in Table 1 below, for example.
  • Table 1 Table showing actual fluctuation data and alternative fluctuation data
  • the actual vibrations may include the inclination of the road front and back, the inclination of the road left and right, the vibration in the front and rear direction, the vibration in the left and right direction, and the vibration in the vertical direction.
  • the left and right slopes of the road surface are expressed by the sway component ro 11.
  • Vibration in the front-back direction, left-right direction, or up-down direction is represented by the vibration components x, y, and z, respectively.
  • the alternative sway data includes the inertial force due to acceleration / deceleration, the centrifugal force at the time of the curve, and the swing of the vehicle at the time of the curve.
  • the inertial force due to acceleration / deceleration is represented by the double differential value X "of the sway component X.
  • the centrifugal force at the curve is the product x of the differential value x 'of the sway component X and the differential value y aw' of the sway component yaw.
  • the yaw at the curve is represented by the differential value yaw of the yaw component yaw.
  • the inertial force due to acceleration / deceleration corresponds to the sway component pitch
  • the centrifugal force at the time of curve corresponds to the sway component ro 1 1
  • X t HPF ( ⁇ X ') (24) That is, it can be obtained by calculating the high-frequency component HPF ( ⁇ ') from the integral ⁇ X, of the camera motion prediction amount X '.
  • y r HPF ( ⁇ Y,) (25) That is, it is obtained by calculating the high-frequency component HPF ( ⁇ ') from the integration ⁇ ' of the camera motion prediction amount Y '.
  • z r HPF ( ⁇ ') (26) That is, it is generated by extracting the high-frequency component HPF ( ⁇ ') from the integral ⁇ 'of the camera motion prediction amount ⁇ ,.
  • rol ls LPF ( ⁇ ') LPF (YAW) (28) That is, the product of low-pass component LPF (X,) of camera motion prediction X, and low-pass component LPF (YAW) of camera motion prediction YAW, Is obtained by calculation.
  • the sway data is calculated as follows by taking the sum of the actual sway data and the alternative sway data.
  • the motion data calculation device 105 is configured as shown in FIG. 21, for example.
  • PI TCH ' is calculated using the adder 13 One is integrated by 1 and stored in the memory 134_1.
  • the low-frequency component is extracted by a mouth-to-pass filter (LPF) 135-1. That is, thereby, the calculation of the equation (22) is performed to generate the actual fluctuation component pitch r .
  • the actual fluctuation component pitchr generated in this way is supplied to the adder 136.
  • the adder 136 is also supplied with the alternative sway pitch s shown in equation (27). That is, the subtractor 133 subtracts the value held in the register 132_2 from the component X 'of the camera motion prediction amount, and supplies the difference to the memory 134-2 for storage.
  • the low-pass filter (LPF) 135-2 extracts a low-frequency component of the difference data stored in the memory 134-2 and outputs the extracted low-frequency component to the adder 136 as alternative oscillation data pit ch s .
  • the adder 136 adds the alternative oscillating component pitch s supplied from the mouth-pass filter (LPF) 135-2 to the actual oscillating data component pitc hr supplied from the low-pass filter (LPF) 135-1. By doing so, the calculation of equation (30) is performed, and the calculation result is output as pitch.
  • the component ROLL 'of the camera motion prediction amount is integrated by the adder 131-2 and the register 132-3, supplied to the memory 134-3, and stored.
  • the low-pass filter (LPF) 135-3 extracts the low-frequency component of the data stored in the memory 134-3 and outputs the same to the adder 138. That is, this causes the operation of equation (23) to be performed. ⁇
  • the adder 138 also has an alternative perturbation component roil shown in equation (28). s is supplied. That is, the mouth-to-pass filter (LPF) 135-4 extracts the low-frequency component of the component X ′ and outputs it to the multiplier 137.
  • the mouth-to-pass filter 135-5 extracts the low-frequency component of the component Y AW, and outputs it to the multiplier 137.
  • the multiplier 137 multiplies the output of the mouth-passfill filter 135-4 by the output of the mouth-passfill filter (LPF) 135-5 to perform the operation shown in Expression (28), and adds the calculation results Outputs to 1-38.
  • the adder 138 performs the operation of the equation (31) by adding the output of the low-pass filter (LPF) 135-3 and the output of the multiplier 137, and outputs the operation result as r011.
  • the mouth-to-pass fill (LPF) 135-6 performs the operation shown in equation (29) by extracting the low-frequency component of the component YAW 'of the camera motion prediction amount, and calculates the calculation result in accordance with equation (32).
  • the component X 'of the camera motion prediction amount is integrated by the adder 131-3 and the register 132-4, supplied to the memory 134-4, and stored.
  • the high-pass filter (HPF) 135-7 extracts the high-frequency component from the data stored in the memory 134-, performs the operation of equation (24), and calculates the calculation result according to equation (33). Output as X.
  • the component Y 'of the camera motion prediction amount is integrated by the adder 131-4 and the register 132-5, supplied to the memory 134-5, and stored.
  • the high-pass filter (HPF) 135-8 extracts the high-frequency component of the data stored in the memory 134-5, and performs the operation of the operation of Expression (25), and calculates the operation result according to Expression (34). as y Output.
  • the component Z 'of the camera motion prediction amount is integrated by the adder 131-5 and the register 132-6, supplied to the memory 134-6, and stored.
  • the high-pass filter (HP F) 135-9 extracts the high-frequency component of the data stored in the memory 134-4, calculates the equation (26), and converts the result into the equation (35) ) And output as z.
  • step S111 the actual fluctuation components P itch r , ro 11 r, ⁇ ,, y r , ⁇ r are calculated. That is, the component PI TCH 'of the camera motion prediction amount is integrated by the adder 131-1 and the register 132-1 and stored in the memory 134-1. The low frequency component of the data stored in the memory 134-1 is extracted by a low-pass filter (LPF) 135-1 and supplied to the adder 1336 as a component pitchr.
  • LPF low-pass filter
  • the camera motion prediction amount R 0 L L ′ is integrated by the adder 131-2 and the register 132-3 and stored in the memory 134-3.
  • the mouth-to-pass filter (LPF) 135-3 extracts the low-frequency component of the data stored in the memory 134-3 and outputs it to the adder 138 as a component r 011 r.
  • the component X 'of the camera motion prediction amount is integrated by the adder 131-3 and the register 132-4 and stored in the memory 134-4.
  • the high-pass filter (HPF) 135-7 extracts the high-frequency component of the data stored in the memory 134-4 and sets it as a component Xr.
  • the component Y 'of the camera motion prediction amount is calculated by the adder 131-4 and the register It is integrated by the memory 132-5 and stored in the memory 134-5.
  • Pass Phil evening (HP F) 135- 8 among the data memorize in the memory 134-5 extracts the high frequency component, a component y r.
  • the component Z, of the camera motion prediction amount is integrated by the adder 131-5 and the register 132-6 and stored in the memory 134-6.
  • the high pass filter (HPF) 135-9 extracts the high frequency component of the data stored in the memory L 34-6 and sets it as the component z.
  • step S 1 alternate fluctuation component pitchs, rol ls, the yaw s' is computed.
  • the subtractor 133 subtracts the past component supplied from the register 132-2 from the component X, of the current camera motion prediction amount, supplies the subtracted component to the memory 134-2, and stores it.
  • the mouth-to-pass filter (LPF) 135-2 outputs the low-frequency component of the data stored in the memory 134-2 to the adder 136 as an alternative oscillating component Pitchs.
  • the mouth-to-pass fill (LPF) 135-4 extracts the low-frequency component of the component X and the camera motion prediction amount.
  • the mouth-to-pass fill (LPF) 135-5 extracts the low-frequency component of the camera motion prediction amount. Extract the low-frequency components of YAW and.
  • the multiplier 137 multiplies the output of the low-pass filter (LPF) 135-4 by the output of the low-pass filter (LPF) 135-5 to generate a component ro 11 s and outputs it to the adder 138.
  • the low-pass filter (LPF) 135-6 extracts the low-frequency component of the component YAW 'from the camera motion prediction amount, and uses it as the component yaw s . Further, in step S113, the actual vibration component data calculated in step S111 and the alternative vibration generated in step S112 are calculated. The sum of the component data is calculated. That is, the adder 136 generates the actual fluctuation component pitchr supplied from the mouth-pass filter (LPF) 135-1 and the alternative vibration component data P supplied from the mouth-pass filter (LPF) 135-2. Add itch s and output as the pitch component of the motion data.
  • the adder 138 adds the actual fluctuation component ro 1 l r supplied from the low-pass filter (LPF) 135-3 to the substitute fluctuation component data ro 11 s supplied from the multiplier 137, and calculates the fluctuation data. Is output as the component rol 1.
  • LPF low-pass filter
  • the Mouth-One Pass Filler (LPF) 135-6 outputs the extracted alternative perturbation component yaw s as it is as the perturbation component yaw.
  • the vibration data generated by the motion data generation device 2 as described above is supplied to the drive control device 5. Further, the image used when the motion data generating device 2 generates the motion data is supplied to the image presenting device 3.
  • the image presentation device 3 and the drive control device 5 are controlled by the synchronization control device 7 and operate in synchronization with each other.
  • the image presentation device 3 displays the provided image on the screen 4. Further, the drive control device 5 drives the seat 6 based on the supplied fluctuation.
  • FIG. 23 is a side view of the seat 6, and FIG. 24 is a view of the seat 6 as viewed from above.
  • Seat 6 consists of six pistons 141-1 to 1
  • the pedestal 14 2 is supported by the pistons 14 1 -1 to L 4 1 -6.
  • a chair 144 is fixed to the pedestal 144, and an audience 144 is seated on the chair 144.
  • the pistons 14 1 1 to 1 4 1 to 6 are designed to be able to expand and contract along the central axis.
  • Biston 1 4 1 One! 11 4 1 6 1 6 are driven by the drive control device 5 in accordance with the sway generated by the sway data generation device 2 and extended and contracted, whereby the pedestal 14 2 is shaken, and Chair 1 4 3 fixed to 1 4 2 shakes.
  • the learning process for obtaining the image sway data relation coefficient in the image sway data relation learning device 1 and the various arithmetic processes for obtaining the force and motion estimation amount in the sway data generation device 2 and generating the sway data are described below.
  • a CPU Central Processing Unit
  • the computer program that executes the above processing is recorded on a recording medium and provided to the user.
  • the recording medium includes information transmission media such as magnetic disks and CD-ROMs, as well as transmission media via networks such as the Internet and digital satellites.
  • the amount of motion of a video camera that has captured an image is calculated, and the amount of camera motion representing the amount of movement of the video camera is calculated from the amount of shaking obtained by the sensor.
  • the camera motion estimation amount is learned as a coefficient of linear linear combination, it is as if the vehicle that captured the image was captured using existing image resources. It is possible to generate agitation data that allows the user to experience a great sense of realism.
  • the camera motion estimation amount is calculated, and the camera motion estimation amount is calculated by linearly combining the camera motion estimation amount and a coefficient stored in advance linearly. Based on the calculated camera motion estimation amount, Since the sway data used when driving the seat is calculated, the sway data can be easily and reliably generated based on the existing image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

明細: 情報処理装置
技術分野 本発明は、 情報処理装置、 学習装置、 情報処理方法、 学習方法及 びプログラム記録媒体に関し、 特に、 乗り物に搭載されたビデオ力 メラにより撮像された画像を鑑賞しながら、 あたかも、 その乗り物 に実際に乗っているような臨場感を体験させる臨場感体験装置に対 して、 その画像の観察者が座る椅子を動揺させる動揺データを生成 することができるようにした情報処理装置、 学習装置、 情報処理方 法、 学習方法及びプログラム記録媒体に関する。
景技俯 乗り物に搭載されたビデオカメラにより撮影された画像をスクリ ーンに表示させるとともに、 その画像を観察する観察者の座席を、 その画像に関連して動揺させることで、 その観察者が、 あたかもそ の乗り物に乗っているような臨場感を体験させる臨場感体験装置が 実現している。
従来、 このような座席を動揺させる動揺データは、 画像を撮像す るとき、 その乗り物に取り付けられたセンサから取得されている。 あるいは、 乗り物から撮像された画像を操作者が見ながら、 動揺を 予測し、 手作業により動揺データを作成している。 さらに、 所定の 動揺デ一夕を仮定して、 コンピュータグラフィ ックスにより画像を 生成することも行われている。
しかしながら、 センサにより動揺データを取得する方法は、 既存 の画像から動揺データを生成することができない課題がある。 また、 操作者が、 画像を見ながら手作業により、 動揺データを作成する方 法は、 膨大な作業が必要となり、 コス ト高となる。 さらに、 所定の 動揺デ一夕に対応する画像をコンビユー夕グラフィ ックスにより作 成する方法は、 例えば、 予め取得されている F 1の競争用自動車に 取り付けたビデオカメラから撮像された画像に基づいて、 そのドラ ィバの運転を体験するといつたような既存の実世界の映像資産を活 用することができないという問題点があつた。
発明の開示 そこで、 本発明は、 このような従来の状況に鑑みてなされたもの であり、 既存の映像資産に基づいて、 簡単に、 かつ低コストで動揺 データを生成することができるようにするものである。
本発明に係る情報処理装置は、 ビデオカメラによって撮影された 所望の画像信号から検出される上記ビデオカメラの動きを示すカメ ラ動き推定情報と、 上記ビデオカメラによる上記所望の画像信号の 撮像と同時に、 物理的な動きを検出するセンサによって取得された 上記ビデオカメラの物理的な動きを示すカメラ動き情報とに基づい て、 学習を行うことによって予め生成された関係情報を記憶する記 憶手段と、 入力画像信号から、 上記入力画像信号に対するカメラ動 き推定情報を検出するカメラ動き推定情報検出手段と、 上記カメラ 動き推定情報検出手段によって検出されたカメラ動き推定情報と、 上記関係情報とに基づいて、 上記入力画像 号に対するカメラ動き 予測情報を生成するカメラ動き予測情報生成手段とを備えることを 特徴とする。
また、 本発明に係る学習装置は、 ビデオカメラによって撮像され た所望の画像信号からカメラ動き推定情報を検出するカメラ動き推 定情報検出手段と、 上記ビデオカメラによる上記所望の画像信号の 撮像と同時に、 物理的な動きを検出するセンサによって取得された 上記ビデオカメラの物理的な動きを示すセンサ情報と、 上記カメラ 動き推定情報とに基づいて、 任意の画像信号から上記任意の画像信 号を撮像したビデオカメラの動きを表すカメラ動き予測情報を生成 するための変換係数を生成する係数生成手段とを備えることを特徴 とする。
また、 本発明に係る情報処理方法は、 ビデオカメラによって撮影 された所望の画像信号から検出される上記ビデオカメラの動きを示 すカメラ動き推定情報と、 上記ビデオカメラにより上記所望の画像 信号の撮像と同時に、 物理的な動きを検出するセンサによって取得 された上記ビデオカメラの物理的な動きを示すカメラ動き情報とに 基づいて、 学習を行うことによって関係情報を生成するステップと、 入力画像信号から、 上記入力画像信号に対するカメラ動き推定情報 を検出するステップと、 検出されたカメラ動き推定情報と、 上記関 係情報とに基づいて、 上記入力画像信号に対するカメラ動き予測情 報を生成するステップとを有することを特徴とする。
また、 本発明に係る学習方法は、 ビデオカメラによって撮像され た所望の画像信号からカメラ動き推定情報を検出するステップと、 上記ビデオカメラによる上記所望の画像信号の撮像と同時に、 物理 的な動きを検出するセンサによって取得された上記ビデオカメラの 物理的な動きを示すセンサ情報と上記カメラ動き推定情報とに基づ いて、 任意の画像信号から上記任意の画像信号を撮像したビデオ力 メラの動きを表すカメラ動き予測情報を生成するための変換係数を 生成するステップとを有することを特徴とする。
また、 本発明に係るプログラム記録媒体は、 情報処理をコンビュ 一夕により実行させるプログラムを記録したプログラム記録媒体で あって、 上記プログラムは、 ビデオカメラによって撮影された所望 の画像信号から検出される上記ビデオカメラの動きを示すカメラ動 き推定情報と、 上記ビデオカメラにより上記所望の画像信号の撮像 と同時に、 物理的な動きを検出するセンサによって取得された上記 ビデオカメラの物理的な動きを示すカメラ動き情報とに基づいて、 学習を行うことによって関係情報を生成するステップと、 入力画像 信号から上記入力画像信号に対するカメラ動き推定情報を検出する ステップと、 検出されたカメラ動き推定情報と上記関係情報とに基 づいて、 上記入力画像信号に対するカメラ動き予測情報を生成する ステップとを有する情報処理をコンピュータにより実行させるプロ グラムを記録したことを特徴とする。
さらに、 本発明に係るプログラム記録媒体は、 学習処理をコンビ ユー夕により実行させるプログラムを記録したプログラム記録媒体 であって、 上記プログラムは、 ビデオカメラによって撮像された所 望の画像信号からカメラ動き推定情報を検出するステップと、 上記 ビデオカメラによる上記所望の画像信号の撮像と同時に、 物理的な 動きを検出するセンサによって取得された上記ビデオカメラの物理 的な動きを示すセンサ情報と上記カメラ動き推定情報とに基づいて、 任意の画像信号から上記任意の画像信号を撮像したビデオカメラの 動きを表すカメラ動き予測情報を生成するための変換係数を生成す るステップとを有することを特徴とする。
図面の簡単な説明 図 1は、 本発明を適用した臨場感体験装置の構成例を示す図であ る。
図 2は、 動揺の成分を説明する図である。
図 3は、 上記臨場感体験装置における画像動揺データ関係学習装 置の構成を示すプロック図である。
図 4は、 上記画像動揺デ一夕関係学習装置の動作を説明するフロ —チヤ一トである。
図 5は、 代表点を説明する図である。
図 6は、 上記画像動揺データ関係学習装置における動き中心計算 装置の構成例を示すプロック図である。
図 7は、 上記動き中心計算装置の動作を説明するフローチャート である。
図 8は、 代表点における評価値を説明する図である。 図 9は、 代表点における評価値を説明する図である。
図 10は、 上記画像動揺データ関係学習装置におけるカメラ動き 推定量計算装置の構成を示すブロック図である。
図 1 1は、 上記カメラ動き推定量計算装置の動作を説明するフロ 一ナヤ一卜である。
図 12は、 3次元空間と 2次元画像の幾何学的関係を説明する図 である。
図 13 (A) 、 図 13 (B) 、 図 13 (C) 及び図 13 (D) は、 動き中心に関して対称の位置にある代表点の組を説明する図である。 図 14は、 上記画像動揺データ関係学習装置におけるカメラ動き 量計算装置の構成を示すプロック図である。
図 1 5は、 上記カメラ動き量計算装置の動作を説明するフローチ ヤートである。
図 1 6は、 上記カメラ動き推定量とカメラ動き量の対応の学習処 理の詳細を説明するフローチヤ一トである。
図 1 7は、 カメラ動き推定量の各成分の対応関係を模式的に示す 図である。
図 18は、 上記臨場感体験装置における動揺データ生成装置の構 成を示すプロック図である。
図 19は、 上記動揺データ生成装置の動作を説明するフローチヤ ートである。
図 20は、 上記動揺デ一夕生成装置におけるカメラ動き予測量計 算装置の構成を示すプロック図である。
図 2 1は、 上記動揺データ計算装置の構成を示すプロック図であ る。 図 2 2は、 上記動揺データ計算装置の動作を説明するフローチヤ 一卜である。
図 2 3は、 上記臨場感体験装置における座席の側面図である。 図 2 4は、 上記座席の平面図である。
図 2 5は、 学習処理などを実行するコンピュータシステムの構成 を示すプロック図である。
発明を実施するための最良の形態 以下、 本発明を実施するための最良の形態について図面を参照し ながら詳細に説明する。
本発明は、 例えば図 1に示すような構成の臨場感体験装置 1 0に 適用される。 この臨場感体験装置 1 0は、 学習処理により動揺デー 夕を生成する学習処理部 1 1と、 この学習処理部 1 1により生成さ れた動揺データに基づいて、 物理的な動揺を与えながら画像を提示 する画像提示部 1 2からなる。
学習処理部 1 1は、 画像動揺データ関係学習装置 1と動揺データ 生成装置 2からなる。 画像動揺データ関係学習装置 1は、 乗り物に 搭載されたビデオカメラにより撮像された画像と、 その撮像と同時 にセンサにより取得された動揺データから、 画像動揺データ関係係 数を学習する。 動揺データ生成装置 2は、 画像動揺データ関係学習 装置 1が出力する画像動揺データ関係係数と、 乗り物に搭載された ビデオカメラにより撮像された既存の画像 (画像動揺データ関係学 習装置 1において、 画像動揺データ関係係数を生成するのに用いら れた画像とは異なる画像であって、 センサから取得された対応する 動揺データが存在しない画像) に基づいて、 動揺データを生成する。 画像提示部 1 2は、 画像提示装置 3、 駆動制御装置 5や同期制御 装置 7からなる。 学習処理部 1 1の動揺データ生成装置 2により生 成された動揺データは、 座席 6を駆動する駆動制御装置 5に供給さ れる。 また、 動揺デ一夕生成装置 2により生成された動揺デ一夕に 対応する画像は、 例えばビデオテープレコーダなどにより構成され る画像提示装置 3に供給される。 画像提示装置 3は、 提供されたビ デォテープに記録されている画像を再生し、 スクリーン 4に表示さ せる。 座席 6に座っている視聴者は、 このスクリーン 4に表示され た画像を見る。 同期制御装置 7は、 画像提示装置 3と駆動制御装置 5を同期して動作させ、 また、 停止させるように制御する。
図 2は、 スクリーン 4と座席 6の関係を表している。 座席 6に座 つている観察者に、 スクリーン 4に表示されている画像を見ながら、 あたかも乗り物に乗っているような臨場感を体験させるために、 駆 動制御装置 5は、 座席 6を動揺データに基づいて動揺させる。 この 動揺は、 X , Y, Ζの 3軸回りの回転成分 ( r o l l , p i t c h , y a w ) と 3軸方向の並進成分 (x, y , z ) により構成される。 画像動揺データ関係学習装置 1は、 例えば図 3に示すように構成 される。 動きべク トル計算装置 2 1は、 入力されたフレーム単位の 画像データについて、 画面全体に渡って少なく とも上下左右対称な 点を含むように格子点状に予め与えられた代表点としての画素デ一 夕に基づき、 例えば現在のフレームと 1フレーム前の過去のフレー ムとの間で動きべク トルを計算し、 動き中心計算装置 2 2とカメラ 動き推定量計算装置 2 3に出力する。 動き中心計算装置 22は、 例えば自動車に搭載したカメラにより 走行方向前方を撮影した画像について、 各代表点における動きべク トルの値から、 画面全体の画像の動き中心 ( 1点透視における無限 遠点) 座標を求め、 カメラ動き推定量計算装置 23に出力する。 カメラ動き推定量計算装置 2 3は、 動き中心に対する代表点の相 対座標、 代表点における動きベク トル、 、 びに 3次元空間とそれを ビデオカメラで撮影した結果の 2次元画像との幾何学的関係から、 1フレーム周期当たりのビデオカメラの位置と姿勢の変化の推定量 を表すカメラ動き推定量を成分 (Vx , Vy , Vz , Wx , Wy ,
Wz ) 毎に異なる個数計算し、 関係係数学習装置 2 5に出力する。 カメラ動き量計算装置 24は、 カメラ動き推定量と物理量 (単位 時間当たりの距離又は角度) がー致するようにセンサにより取得さ れた動揺データから、 実際にカメラが動いた量 (m/秒又は r ad /秒) を表すカメラ動き量を成分 (x, , y, , z, , r o l l, , p i t c h' , aw' ) 毎に計算し、 関係係数学習装置 2 5に出 力する。
関係係数学習装置 2 5は、 カメラ動き推定量計算装置 23から供 給される複数個のカメラ動き推定量と、 それに時間的に対応する、 カメラ動き量計算装置 24から供給される 1つのカメラ動き量との 対応を表す画像動揺データ関係係数を成分毎に学習する。
次に、 図 4のフローチャートを参照して、 その動作について説明 する。 最初に、 ステップ S 1において、 動きベク トル計算装置 2 1 は、 所定のシーンの初めから終わりまでの画像 (例えば、 自動車が 走行を開始してから停止するまでの画像) における、 予め設定され ている代表点におけるフレーム間での動きべク トルを計算する。 代 表点には、 例えば図 5に示すように、 1枚の画面 (フレーム) の全 体に渡って、 格子点上の所定の位置の 4 X 5個の画素が割り当てら れている。
動きべク トル計算装置 2 1により計算された動きべク トルは、 動 き中心計算装置 2 2に供給される。 動き中心計算装置 2 2は、 ステ ップ S 2において、 入力された jきベク トルに応じて、 動きの中心 座標の計算処理を実行する。 動き中心計算装置 2 2は、 例えば図 6 に示すように構成されている。
絶対値器 4 1は、 動きべク トル計算装置 2 1より供給された動き べク トルのうちの水平成分の絶対値を求め、 加算器 4 2に出力する。 加算器 4 2は、 絶対値器 4 1より入力された値と、 レジス夕 4 3よ り入力された値とを加算し、 レジス夕 4 3に出力する。 レジス夕 4 3は、 加算器 4 2より入力された値を保持し、 加算器 4 2に出力す るとともに、 メモリ 4 4に出力する。 メモリ 4 4は、 レジス夕 4 3 より入力された値を代表点毎に記憶する。
すなわち、 メモリ 4 4には、 例えば図 5に示す ( i = 1 , j = 1 ) の代表点のシーンの初めから終わりまでの動きべク トルの水平 方向成分の絶対値の和が記憶される。 また、 その他の座標 ( i , j ) の代表点の動きべク トルの水平方向成分の絶対値の和も記憶さ れる。
最小値検出器 4 5は、 メモリ 4 4に記憶されている各代表点の水 平成分の絶対値の総和 (以下、 評価値とも称する) のうち、 同一の 水平ライン上の代表点の中の最小値を検出する。 すなわち、 最小値 検出器 4 5は、 例えば図 5に示す i 二 1のラインの 5個の代表点に 対応する評価値の中から最小値を有する代表点を選択する。 同様に、 最小値検出器 4 5は、 i = 2〜4の各ライン上の代表点に対応する 評価値のうち、 最小値を有する代表点を選択する。
動き中心水平面素位置決定器 4 6は、 最小値検出器 4 5より供給 される 5個の最小の評価値を有する代表点に対応する水平方向の座 標から、 多数決、 メディアン、 平均などを演算することで、 動き中 心水平面素位置を検出する。
絶対値器 4 8は、 動きべク トル計算装置 2 1より供給された動き ベク トルのうち、 垂直成分の絶対値を求め、 加算器 4 9に出力する。 加算器 4 9は、 絶対値器 4 8より供給された値と、 レジス夕 5 0よ り入力された値とを加算し、 レジス夕 5 0に出力し、 保持させる。 レジスタ 5 0により保持された値は、 加算器 4 9に供給されるとと もに、 メモリ 5 1に供給され、 記憶される。 メモリ 5 1には、 シ一 ンの初めから終わりまでの各フレームの代表点における動きべク ト ルの垂直成分の絶対値の総和 (以下、 これを評価値とも称する) が 記憶される。
最小値検出器 5 2は、 メモリ 5 1に記憶された評価値の中から各 列 (垂直方向のライン) 毎に最小値を検出し、 その最小値に対応す る代表点の垂直座標を、 動き中心垂直画素位置決定器 4 7に出力す る。 例えば、 図 5の例においては、 最小値検出器 5 2は、 j = l〜 5の各列毎の評価値のうち、 最小の評価値を有する代表点の垂直座 標を、 動き中心垂直画素位置決定器 4 7に出力する。
動き中心垂直画素位置決定器 4 7は、 最小値検出器 5 2より入力 された複数の垂直座標デ一夕の中から、 動き中心水平面素位置決定 器 4 6より供給される水平座標に対応する代表点の垂直座標を動き 中心の垂直画素位置として選択する。 次に、 図 7のフローチャートを参照して、 動き中心計算装置 2 2 の動作について説明する。 ステップ S 2 1において、 代表点毎にシ ーンの初めから終わりまでの動きべク トルの水平成分の絶対値の総 和が演算される。 このため、 絶対値器 4 1は、 動きべク トル計算装 置 2 1より入力された各代表点の動きべク トルのうち、 水平成分の 絶対値を求め、 加算器 4 2に出力する。 加算器 4 2は、 レジス夕 4 3に保持されている過去の値と、 絶対値器 4 1より供給された値と を加算する処理を繰り返す。 その結果、 レジス夕 4 3には、 シーン の初めから終わりまでの各代表点毎の絶対値の総和 (評価値) が保 持され、 これがメモリ 4 4に記憶される。
ステップ S 2 2において、 水平方向に並ぶ代表点の絶対値の総和 が最小となるその代表点の水平方向の座標を動き中心の水平座標と する処理が行われる。 このため、 最小値検出器 4 5は、 メモリ 4 4 に記憶されている各代表点のシーンの初めから終わりまでの動きべ ク トルの水平成分の絶対値の総和 (評価値) の中から、 各ライン毎 に最小値を検出する。
例えば、 図 8に示すように、 i = 1のラインの各代表点の評価値 の中から、 最小の値のものが検出され、 その検出された代表点の水 平方向の座標が動き中心水平画素位置決定器 4 6に出力される。 図 8に示す i = 1の行において、 j = 2の列の代表点の評価値が最小 である場合、 この座標 ( 1 , 2 ) の代表点の水平方向の座標が、 動 き中心水平画素位置決定器 4 6に出力される。 同様にして、 図 8に 示す i = 2の行の j = 4の代表点、 i = 3の行の j = 3の代表点、 並びに i = 4の行の j = 3の代表点の評価値が、 それぞれ各行にお いて最も小さい値であるとすると、 代表点 (2 , 4 ) の水平方向の 座標、 代表点 (3 , 3 ) の代表点の水平方向の座標、 並びに、 代表 点 (4, 3 ) の水平方向の座標が、 動き中心水平画素位置決定器 4 6に供給される。
動き中心水平画素位置決定器 4 6は、 各ライ ンの水平方向の座標 に対して多数決、 メディアン、 又は平均などの処理を施して、 動き 巾心水平画素位置を決定する。 多数決の原理に従う場合、 図 8の例 では、 j = 2の列と j = 4の列が 1個であり、 j = 3の列が 2個で あるから、 : i = 3の水平方向の座標が動き中心水平画素位置とされ る。 メディアン処理の場合においても、 図 8の例においては、 j = 2〜 j = 4までの 3列の代表点が存在し、 その中間の列は j = 3の 列であるから、 j = 3の代表点の水平座標が動き中心水平面素位置 とされる。 平均処理の場合、 図 8の例においては、 代表点 ( 1, 2 ) 、 代表点 ( 2 , 4 ) 、 代表点 ( 3, 3 ) 及び代表点 ( 4, 3 ) の各座標の水平座標の平均値が動き中心水平画素位置とされる。 ステヅプ S 2 3においては、 ステップ S 2 1における場合と同様 の処理が、 動きベク トルの垂直成分に関して実行される。 すなわち、 絶対値器 4 8により、 動きべク トル計算装置 2 1より供給される動 きベク トルの中から、 垂直成分の絶対値が演算され、 加算器 4 9と レジス夕 5 0により、 その絶対値の総和が代表点毎に演算される。 そして、 演算された値が、 メモリ 5 1に記憶される。 ステップ S 2 4において、 動き中心の水平座標と等しい水平座標を持つ代表点で、 絶対値の総和が最小となる代表点の垂直座標が、 動き中心の垂直座 標とされる処理が実行される。
すなわち、 最小値検出器 5 2は、 メモリ 5 1に記憶された各列の 代表点の中から、 最小の評価値を有する代表点を選択する。 例えば、 図 9に示すように、 j = 1の列においては i = 2の代表点が、 j = 2の列においては 1 = 3の行の代表点が、 j = 3の列においては i = 2の代表点が、 j = 4の行においては i = 1の代表点が、 j = 5 の列においては i = 2の代表点が、 それぞれ最小の評価値を有する 場合、 代表点 ( 2 , 1 ) 、 代表点 ( 3 , 2 ) 、 代表点 ( 2 , 3 ) 、 代表点 ( 1 , 4 ) 及び代表点 ( 2 , 5 ) の垂直座標が、 動き中心垂 直画素位置決定器 4 7に供給される。
動き中心垂直面素位置決定器 4 7は、 最小値検出器 5 2より供給 された垂直座標の中から、 動き中心水平画素位置決定器 4 6より供 給された水平面素の水平座標を有する代表点に対応する代表点の垂 直座標を動き中心垂直画素位置として決定する。 図 8と図 9に示す 例の場合、 j = 3の列の水平座標が水平画素位置とされているため、 代表点 ( 2 , 3 ) の垂直座標が、 動き中心垂直面素位置とされる。 以上のようにして、 動き中心計算装置 2 2により計算された動き 中心座標は、 図 3のカメラ動き推定量計算装置 2 3に供給される。 図 4に戻って、 ステップ S 2の動きの中心座標計算処理が完了し たとき、 次にステップ S 3に進み、 カメラ動き推定量計算装置 2 3 によりカメラ動き推定量計算処理が実行される。 このカメラ動き推 定量計算装置 2 3は、 例えば、 図 1 0に示すように構成されている。 動きべク トル計算装置 2 1より出力された動きべク トルは、 動き べク トル選択器 6 2— 1〜 6 2— 4に入力される。 この例の場合、 動きベク トル選択器 6 2— 1は、 動きベク トルのうち、 その水平成 分を取り込み、 動きベク トル選択器 6 2— 2は、 その垂直成分を取 り込む。 動きべク トル選択器 6 2— 3、 6 2— 4は、 水平成分と垂 直成分の両方を取り込む。 動き中心計算装置 22より出力された動き中心座標は、 代表点位 置決定器 6 1— 1〜6 1— 4に入力される。 代表点位置決定器 6 1 一 1〜6 1— 4は、 入力された動き中心座標から求めるべきカメラ 動き推定量の成分に応じて、 カメラ動き推定量の計算に用いられる 動きべク トルの値を参照する代表点の位置を決定し、 対応する動き べク トル選択器 62—:!〜 62— 4に出力する。
動きべク トル選択器 62—:!〜 62— 4は、 入力された 1フレー ム間のすべての代表点における動きベク トルの水平成分と垂直成分 の一方から、 代表点位置決定器 6 1 - 1-6 1—4から入力された 代表点位置に基づき、 カメラ動き推定量の計算に用いる動きべク ト ルの値を選択する。 加算器 63 - 1又は加算器 63— 2は、 それぞ れ動きべク トル選択器 62 - 1又は動きべク トル選択器 62— 2の 出力と、 レジス夕 65— 1又はレジス夕 6 5— 2の出力を加算し、 レジス夕 65— 1又はレジス夕 6 5— 2に出力する。 レジスタ 65 一 1の出力は、 加算器 63— 1に出力されるとともに、 メモリ 66 一 1に出力され、 記憶される。 メモリ 66— 1から読み出されたデ 一夕は、 口一パスフィルタ (L P F) 67— 1により、 その低域成 分が抽出され、 成分 wz として出力されるとともに、 ハイパスフィ ル夕 (HPF) 68 - 1により、 その高域成分が抽出され、 成分 V y として出力される。
同様に、 レジス夕 6 5— 2に記憶されたデ一夕は、 加算器 63一 2に出力されるとともに、 メモリ 66— 2に出力され、 記憶される。 メモリ 66— 2に記憶されたデータは、 ローパスフィル夕 (L P F) 6 7— 2により、 その低域成分が抽出され、 成分 wy として出 力されるとともに、 ハイパスフィル夕 (HP F) 68— 2により高 域成分が抽出され、 成分 V Z として出力される。
減算器 64— 1は、 動きベク トル選択器 6 2— 3の出力から、 レ ジス夕 6 5— 3の出力を減算し、 レジス夕 6 5— 3に出力する。 レ ジス夕 6 5— 3の出力は、 減算器 64— 1に出力されるとともに、 メモリ 66— 3に供給され、 記憶される。 メモリ 6 6— 3より読み 出されたデータは、 割 器 69— 1に入力され、 代表点位置決定器 6 1一 3が出力する代表点の相対座標 p, qにより割算された後、 成分 V .x として出力される。
同様に、 減算器 64— 2は、 動きべク トル選択器 6 2— 4より出 力されたデータから、 レジスタ 6 5— 4より出力されたデ一夕を減 算し、 レジスタ 6 5— 4に出力する。 レジス夕 6 5— 4より出力さ れたデ一夕は、 減算器 64— 2に出力されるとともに、 メモリ 6 6 一 4に出力され、 記憶される。 メモリ 6 6— 4より読み出されたデ 一夕は、 割算器 6 9— 2に入力され、 代表点位置決定器 6 1— 4が 出力する代表点の相対座標 P, qにより割算された後、 成分 wx と して出力される。
次に、 図 3のカメラ動き推定量計算装置 2 3の動作について、 図 1 1のフローチャートを参照して説明する。 このカメラ動き推定量 計算処理においては、 図 1 2に示すように、 3次元空間と 2次元画 像の幾何学的関係が利用される。 すなわち、 図 1 2において、 動き 中心 ( 0 , 0) に対する代表点 iの相対座標を (pi , q i ) 、 こ の代表点における動きベク トルを (U i , V i ) 、 この代表点に写 つている被写体の 3次元空間におけるビデオカメラから見た奥行き を r i 、 ビデオカメラの 3軸方向の並進速度を (Vx , ν.ν , ν 、 ビデオカメラの 3軸回りの回転の角速度を (Wx , Wy , Wz ) ビデオカメラの焦点距離を f とすると、 図 12に示す 3次元空間と、 それをビデオカメラで撮影した結果の 2次元画像との幾何学的関係 から、 次式が成立する。
すなわち 3次元空間中の点 (Z, Y, X) は、 ビデオカメラと相 対的に次のように運動する。
Figure imgf000019_0001
画面座標 (p, q) の点に対する平面 X= t Z + s Y + r上の点
X) は、
r q
z = (2) f 一 t q- s p
r p
Y = (3) f 一 t q- s p
r f
X = (4) f 一 t q- s p
であるから、
f f — t q— (5) X r
となる。 また、 透視変換の関係式
Y
P = f
x (6) z
f (7) q = x
を時間微分することにより
Y 一 f YX f Y-pX
P = f (8)
X X X Z ZX f Z - p X q = f f
X X2 x - (9) となる。
式 ( 1) 、 式 (5) 、 式 (8) 、 式 (9) と t = 0, s = 0よ り X, Υ Ζ, X Υ, Ζを消去して、
U i = ) W r
Figure imgf000020_0001
( 10) q
V i = —— i f ^ ヽ
V x V z + p i W x + ( f +— r- ) W y PiQ ~i W z
Γ i Γ i f f
( 1 1) なる関係式が得られる。
上記式の関係から、 直線 p= 0又は直線 q= 0上の、 動き中心 (0 0) に関して対称の位置にある 2つの代表点における動きべ ク トルに基づいて、 カメラ動き推定量 (V x , V y , V z , Wx ,
Wv , wz ) は、 次式で表される。 ただし、 対となる 2点では、 被 写体の奥行き rはほぼ等しいものと仮定している。
W z + v ( U q + U - q ) (P= 0 ) ( 12) r 2 f
1
Wy + v ( V p + v- p) (q = 0 ) ( 13) r 2 f
Figure imgf000020_0002
上記式において、 直線 p = 0上の対称位置にある 2つの代表点の 動きべク トルは、 それぞれ (Uq , Vq ) 、 又は (U— q, V— J と 表され、 直線 q = 0上の 2つの代表点の動きベクトルは、 (uP
V P ) 又は (U P, V-p) と表される。
図 1 0の最上行の系 (代表点位置決定器 6 1— 1〜ハイパスフィ ル夕 (HP F) 68 - 1 ) は、 上記した式 ( 1 2) の演算を行うた めのものであり、 上から 2番目の系 (代表点位置決定器 6 1— 2〜 ハイパスフィル夕 (HP F) 68 - 2 ) は、 式 ( 1 3) に示す演算 を行うためのものであり、 上から 3番目の系 (代表点位置決定器 6 1— 3〜割算器 69— 1 ) は、 式 ( 1 4) の演算を行うためのもの であり、 最下行の系 (代表点位置決定器 6 1— 4〜割算器 69— 2 ) は、 式 ( 1 5 ) の演算を行うためのものである。
代表点位置決定器 6 1— 1は、 上記した式 ( 1 2) の演算を行う ための代表点位置を決定するものであり、 図 1 3 (Α) に示すよう に、 直線 Ρ = 0上に位置する代表点であって、 動き中心に関して対 称の位置にある 2つの代表点を決定する。
代表点位置決定器 6 1— 2は、 式 ( 1 3 ) の演算を行うための代 表点位置を決定するものであり、 図 1 3 (Β) に示すように、 直線 q = 0上の動き中心に対して対称の位置に位置する 2つの代表点を 選択する。
式 ( 14) の演算を行う代表点を決定する代表点位置決定器 6 1 一 3は、 図 1 3 (C) に示すように、 動き中心に対して対称の位置 にある直線 P = 0上の 2つの代表点及び直線 q = 0上の 2つの代表 点を選択する。
式 ( 1 5) の演算を行うための代表点を決定する代表点位置決定 器 6 1—4は、 図 1 3 (D) に示すように、 直線 p = 0上の 2つの 代表点及び直線 q = 0上の 2つの代表点を選択する。
代表点位置決定器 6 1— 1は、 図 1 3 ( A) に示す 1組の代表点 の動きべクトルの水平成分だけを選択するようにしてもよいが、 よ り正確を期するために、 1フレームにおいて、 複数組の代表点の動 きべク トルの水平成分を選択する。 図 13 (A) の例においては、 合計 4組の代表点の組が選択されている。 なお、 図中、 中央に示す 動き中心上に位置する代表点については、 2つの代表点の水平成分 が、 それぞれ同一であるとして処理される。
代表点位置決定器 6 1— 2も、 代表点位置決定器 6 1— 1と同様 に、 図 1 3 (B) に示す代表点の組のうち、 少なくとも 1つの組の 代表点の動きべクトルの垂直成分を選択すればよいのであるが、 よ り正確を期するために、 合計 4組の代表点の組の垂直成分を選択す る ο
代表点位置決定器 6 1— 3は、 式 ( 14) のうち、 上の式と下の 式のいずれを用いてもよいのであるが、 より正確を期するために、 両方を用いて代表点を選択する。 図 1 3 (C) の例においては、 直 線 p = 0の上の 3組の代表点と、 直線 q= 0上の 3組の代表点が選 択されている。
同様に、 代表点位置決定器 6 1— 4は、 式 ( 1 5) に示すように、 上の式と下の式のいずれを用いてもよいのであるが、 より正確を期 するために、 両方を用いる。 この場合、 図 13 (D) に示すように、 図 1 3 (C) に示す場合と同様に、 直線 p = 0上に配置されている 3組の代表点だけでなく、 直線 q = 0上の 3組の代表点が選択され る。 図 1 1に戻って、 ステップ S 42において、 動きベク トル選択器 6 2— 1〜 62— 4は、 それぞれ対応する代表点位置決定器 6 1 - 1〜6 1— 4で決定された数組の 2つの代表点の動きべク トルを選 択する。 図 1 0の動きべク トル選択器 62― 1においては、 式 ( 1 2 ) を演算する動きベク トルとして、 直線 p== 0上の 2つの代表点 の水平成分 U q , u-qが選択される。 動きベク トル選択器 62— 2 においては、 式 ( 1 3 ) の演算を行うために、 直線 q= 0上の 2つ の代表点の動きベク トルの垂直成分 v P , V Pが選択される。
動きべク トル選択器 6 2 - 3においては、 式 ( 1 4 ) の演算を行 うために、 直線 q = 0上の 2つの代表点の動きべク トルの水平成分 U p , u-pと、 直線 p = 0上の 2つの代表点の動きベク トルの垂直 成分 Vq , V— qが選択される。 動きベク トル選択器 62— 4におい ては、 式 ( 1 5 ) の演算を行うために、 直線 p = 0上の 2つの代表 点の動きベク トルの水平成分 uq , u-qと、 直線 q = 0上の 2つの 代表点の動きベク トルの垂直成分 V P , V -pが選択される。
ステップ S 43において、 上記した式 ( 1 2 ) 〜式 ( 1 5 ) にお いて禾 IJ用される U q + U - q, V p + V -p , U p — U -p, Vq - V-q , U q " U -q, V p — V— pが演算される。
すなわち、 加算器 63— 1は、 動きべク トル選択器 62— 1から 最初の代表点の動きべク トルの水平成分 u qが供給されると、 これ をレジス夕 65— 1に供給し、 記憶させ、 次の代表点の動きべク ト ルの水平成分 u—qが供給されると、 これを加算器 63— 1でレジス 夕 65— 1に保持されている成分 uqと加算し、 加算した値 (uq + u- q) をレジス夕 6 5— 1に保持させる。
レジス夕 65— 1に保持されたデ一夕は、 さらにメモリ 66— 1 PC
/68886
22 に供給され、 保持される。
加算器 6 3— 2は、 動きべク トル選択器 6 2— 2から、 最初の代 表点の動きべク トルの垂直成分 V— pが供給されると、 これをレジス 夕 6 5— 2に供給し、 保持させる。 次に、 代表点の動きベク トルの 垂直成分 vf> が供給されると、 これをレジス夕 6 5— 2に保持され ている成分 ν— ,'と加算し、 加算した値 (ν,, + v- p ) をレジス夕 6 5— 2に供給し、 保持させる。 このデ一夕は、 さらに、 メモリ 6 6 一 2に供給され、 記憶される。
減算器 64— 1は、 動きべク トル選択器 6 2一 3から最初の代表 点の動きべク トルの水平成分 U- pが供給されたとき、 これをレジス 夕 6 5— 3に供給し、 保持させ、 次の代表点の動きベク トルの水平 成分 uP が供給されると、 これからレジス夕 6 5— 3に保持されて いる値 u を減算し、 その減算した値 (uP - u- p ) をレジス夕 6
5— 3に保持させる。 このデータは、 レジス夕 6 5— 3からメモリ
6 6 - 3に供給され、 記憶される。 同様に、 値 (vq - v-q) も演 算され、 メモリ 6 6— 3に記憶される。
減算器 64— 2は、 動きべク トル選択器 6 2一 4より供給された 最初の代表点の動きべク トルの水平成分 u—qをレジス夕 6 5 - 4に 供給し、 保持させ、 次の代表点の動きべク トルの水平成分 iiq が供 給されると、 これからレジスタ 6 5— 4に保持されている成分 u-q を減算し、 その減算した値 (L — u-q) をレジス夕 6 5— 4に供 給し、 保持させる。 レジス夕 6 5— 4に保持されたデ一夕は、 さら にメモリ 6 6— 4に供給され、 記憶される。 同様に、 値 (vP — V - P ) も演算され、 メモリ 6 6— 4に記憶される。
次に、 ステップ S 44に進み、 成分 W z と成分 vy を分離する処 理、 成分 Wy と成分 V z を分離する処理、 さらに記憶されている値 を代表点の座標値 p又は座標値 qで割算する処理が実行される。 すなわち、 式 ( 12) に示すように、 メモリ 66— 1に記憶され ているデータ (uq +u-q) は、 カメラ動き推定量のうち、 成分 w z と成分 V y の和 (W z + ( 1 /r ) V y ) に比例している。 動揺 の性質として、 並進運動 (V X , V y , V z ) は、 主に高周波成分 で構成され、 回転運動 (Wx , Wy , W z ) は、 主に低周波成分で 構成される。 そこで、 メモリ 66— 1に記憶されているデータ (u q +u-q) から口一パスフィル夕 ( L P F) 67— 1により低域成 分を抽出することで、 成分 wz を得、 また、 ハイパスフィル夕 (H PF) 68— 1で高域成分を抽出することで、 成分 vy を得る。 なお、 (一 1/ (2 f ) ) の比例定数は、 後述する学習処理によ り予め学習される。
また、 メモリ 66— 2に記憶されているデ一夕 (Vp +v p) は、 式 ( 13) に示すように、 成分 wy と成分 vz の差 (wy — ( 1/ r ) wz ) に比例している。 そこで、 メモリ 66— 2に記憶されて いるデ一夕から、 口一パスフィル夕 (LPF) 67— 2により低域 成分を抽出することで、 成分 wy を抽出し、 また、 ハイパスフィル 夕 (HPF) 68— 2により高域成分を抽出することで、 成分 vz を抽出する。
なお、 式 ( 13) における比例定数 (一 1/ ( 2 f ) ) も学習処 理により、 予め学習される。
メモリ 66— 3に記憶されているデ一夕 (up — u- p) 、 又はデ —夕 (vq — V q) は、 式 ( 14) に示すように、 その値を、 相対 座標 p又は座標 qで割算した値が、 成分 vx に比例する。 そこで、 P
68886
24 割算器 69— 1は、 メモリ 6 6— 3よりデータ (U P -u-p) が読 み出されたとき、 代表点位置決定器 6 1一 3より供給される代表点 の水平座標 Pに基づいてこれを割算し、 割算した結果を出力する。 また、 メモリ 6 6— 3からデータ (v q — V— q) が読み出されてき たとき、 このデ一夕は、 代表点位置決定器 6 1— 3より供給される 垂直座標 qで割^され、 出力される。
同様に、 割算器 6 9— 2は、 メモリ 6 6— 4よりデ一夕 (uq ― u-Q) が読み出されてきたとき、 その値を式 ( 1 5 ) で示すように、 成分 wx に比例させるために、 代表点位置決定器 6 1— 4より供給 された相対座表の垂直成分 qで割算する。 また、 データ (v P — V - p) が供給されてきたとき、 割算器 6 9— 2は、 この値を、 代表点 位置決定器 6 1— 4より供給された相対座標の垂直成分 pで割算す る o
なお、 式 ( 1 4) における成分 ( 1/r ) は、 学習により処理さ れ重み係数に含まれる。 式 ( 1 5 ) における成分 ( 1/2) も、 学 習により処理される。
以上のようにして、 図 3のカメラ動き推定量計算装置 2 3により 計算されたカメラ動き推定量は、 関係係数学習装置 2 5に供給され る。
図 4に戻って、 ステップ S 3でカメラ動き推定量計算処理が実行 された後、 次に、 ステップ S 4において、 図 3のカメラ動き量計算 装置 24により、 カメラ動き量計算処理が実行される。 カメラ動き 量計算装置 24は、 例えば、 図 1 4に示すように構成されている。 図示せぬセンサからの動揺データは、 3軸方向の加速度 (X " , y", z" ) と、 3軸を中心とした回転の角速度 ( r 0 1 1, , 。,
/68886
25 i t c h' , yaw' ) で構成されている。 加速度 x" , y" , ζ " は、 それぞれ加算器 82— 1、 加算器 8 2— 2、 又は減算器 8 1 に入力されている。 加算器 82— 1は、 入力された加速度 X" と、 レジス夕 83— 1に記憶されている値とを加算することで積分し、 レジス夕 83— 1に出力する。 レジス夕 83— 1の出力は、 加算器 82— 1に出力されるとともに、 メモリ 84— 1に供給され、 記憶 される。 D C成分除去器 8 5— 1は、 メモリ 84— 1に記憶された データから D C (直流) 成分を除去して、 カメラ動き量の成分 X ' として出力する。 センサより取得された動揺データには、 誤差が重 畳されているので、 これを単純に積分すると、 誤差が蓄積してしま うので、 D C成分除去器 8 5— 1により積分した値から、 D C成分 が取り除かれる。
加算器 82— 2は、 入力されたセンサ出力 y" に、 レジス夕 83 一 2に保持されている過去の値を加算し、 レジス夕 83— 2に出力 することで、 センサ出力 y" を積分し、 メモリ 84— 2に出力し、 記憶させる。 D C成分除去器 8 5— 2は、 メモリ 84— 2により 読み出されたデ一夕から D C成分を除去し、 カメラ動き量のうち成 分 y' として出力する。
減算器 8 1は、 センサの出力 z" から重力の加速度 gを減算し、 加算器 82— 3に出力する。 加算器 82— 3は、 減算器 8 1からの 入力に、 レジス夕 83— 3が保持している過去の値とを加算し、 レ ジス夕 83— 3に出力することで、 データ (z" -g) を積分させ、 メモリ 84— 3に供給し、 記憶させる。 メモリ 84— 3に記憶され たデータは、 D C成分除去器 85— 3で D C成分を除去された後、 カメラ動き量のうち、 成分 z ' として出力される。 68886
26 センサからの動揺データのうち、 角速度 (r o l l' , p i t c h, , yaw' ) は、 それぞれ、 そのままカメラ動き量のうちの成 分 (r o l l, , p i t c h, , yaw' ) として出力される。 次に、 図 1 5のフローチャートを参照して、 図 14のカメラ動き 量計算装置 24の動作について説明する。 ステップ S 6 1において、 センサからの動揺データ r o 1 1, , p i t c h' , yaw' が入 力されると、 これらのデータはそのまま関係係数学習装置 2 5に出 力される。
次に、 ステップ S 6 2において、 カメラ動き推定量と物理量 (速 度) がー致するように、 並進運動の 3成分に関し、 次式に従って、 積分処理が実行される。
X, =∑ X,, ( 1 6)
y, 二∑y,, ( 1 7)
z, 二∑ ( z,, 一 g) ( 1 8)
すなわち、 加算器 8 2— 1とレジスタ 83 - 1は、 共働してセン サ出力 X" を積分し、 メモリ 84— 1に出力し、 記憶させる。 同様 に、 加算器 82— 2とレジス夕 8 3— 2は、 共働してセンサ出力 y " を積分し、 メモリ 84— 2に出力し、 記憶させる。 さらに、 加算 器 82— 3とレジス夕 83— 3は、 減算器 8 1より入力された値 ( z" - g) を積分し、 メモリ 84— 3に供給し、 記憶させる。 ステツプ S 63においては、 ステツプ S 63で得られた積分出力 から直流成分を除去する処理が実行される。 すなわち、 D C成分除 去器 85—:!〜 8 5— 3は、 それそれメモリ 84— 1〜 84 - 3に 記憶されたデ一夕から、 直流成分を除去し、 カメラ動き量の成分 X ' , y ' , z ' として出力する。 /68886
27 カメラ動き量計算装置 24により計算されたカメラ動き量 (χ, , y, , z ' , r o l l ' , p i t c h' , y aw' ) は、 関係係数 学習装置 25に供給される。
図 4に戻って、 ステップ S 4におけるカメラ動き量計算処理が終 了したとき、 次に、 ステップ S 5に進み、 複数個のカメラ動き推定 量と 1つのカメラ動き量の対応の学習処理が、 関係係数学習装置 2 5において実行される。 この関係係数学習装置 25の処理の詳細は、 図 16のフローチャートに示されている。
すなわち、 最初にステップ S 7 1において、 カメラ動き推定量計 算装置 23により計算されたカメラ動き推定量 (Vx , Vy , Vz , Wx , Wy , Wz ) には、 動きベク トル検出の誤差、 小物体動きの 混入、 仮定した 3次元空間の対称性の不成立などに起因して、 すべ ての対称点の組で正確な値が求められるわけではない。 また、 カメ ラの焦点距離 f、 被写体の奥行き r、 カメラ動き推定量の単位 (ピ クセル/フレーム周期) とカメラ動き量の単位 (niZs , r a d/ s ) との間の変換係数は不定である。 そこで、 1つのカメラ動き量 を、 複数個のカメラ動き推定量の線形 1次結合で表し、 その係数を 求めるようにする。
例えば、 カメラ動き量のうち、 成分 x' と n個のカメラ動き推定 量 vxl〜vxnとを線形一次結合を用いた次式により関係付けること ができる。
X,
Figure imgf000029_0001
l+Wx2 V x2 + - - - +WxnVxn ( 19) したがって、 図 17にカメラ動き推定量の各成分の対応関係を模 式的に示してあるように、 1つのシーンの初めから終わりまでの画 像が、 m+ 1フレームにより構成されているとき、 カメラ動き推定 :は、 m組計算されるので、 次式が成立する,
Figure imgf000030_0002
Figure imgf000030_0001
以上においては、 カメラ動き量のうち、 成分 X, のみについて説 明したが、 他の成分 y, , z ' , r o l l ' , i t c h' , y a w, についても同様である。
次に、 ステヅプ S 72において、 ステップ S 7 1で生成した式を 最小二乗法により解くことで、 線形 1次結合の係数 wxo〜wxnを、 カメラ動き量の成分毎に求める処理が実行される。 すなわち、 例え ば、 カメラ動き量の成分 x' についての係数 Wxo〜Wxnを求める場 合、 式 ( 20) の左辺とカメラ動き量成分 X ' の誤差が最小となる ように、 最小二乗法により線形 1次結合の係数 wxo〜wxnが求めら れる。
同様のことが、 他のカメラ動き量の成分 y, , z, , r o l l ' p i t c h' , y aw' についても fわれる。
以上のようにして、 関係係数学習装置 2 5により学習された画像 動揺デ一夕関係係数は、 図 1の動揺デ一夕生成装置 2に供給される < 図 1 8は、 動揺データ生成装置 2の構成例を示している。 動きべ ク トル計算装置 1 0 1は、 入力された画像 (画像提示装置 3に供給 される画像) から動きべク トルを検出し、 動き中心計算装置 1 02 とカメラ動き推定量計算装置 1 03に出力している。 動き中心計算 装置 1 02は、 入力された動きべク トルに基づいて、 入力画像の動 き中心座標を検出し、 カメラ動き推定量計算装置 1 0 3に出力する。 カメラ動き推定量計算装置 1 0 3は、 動きべク トル計算装置 1 0 1 より入力され、 動きべク トルと動き中心計算装置 1 0 2より供給さ れる動き中心座標に基づいてカメラ動き推定量を演算し、 カメラ動 き予測量計算装置 1 0 4に出力している。 この動きべク トル計算装 置 1 0 1、 動き中心計算装置 1 0 2及びカメラ動き推定量計算装置 1 0 3は、 図 3において説明した動きべク トル計算装置 2 1、 動き 中心計算装置 2 2及びカメラ動き推定量計算装置 2 3と同様の構成 と機能を有するものである。
カメラ動き予測量計算装置 1 0 4は、 画像動揺データ関係学習装 置 1より供給される画像動揺データ関係係数と、 カメラ動き推定量 計算装置 1 0 3より供給されるカメラ動き推定量との線形 1次結合 を演算することで、 1フレーム周期においてビデオカメラが動いた と思われる情報を表すカメラ動き予測量を演算し、 動揺データ計算 装置 1 0 5に出力する。 動揺データ計算装置 1 0 5は、 入力された カメラ動き予測量から、 駆動制御装置 5、 座席 6を平行移動又は回 転移動させるときの動揺デ一夕と物理量が一致するような動揺デ一 夕を計算し、 出力する。
次に、 図 1 9のフローチャートを参照して、 図 1 8に示す動揺デ 一夕生成装置 2の動作について説明する。 ステップ S 8 1において、 動きべク トル計算装置 1 0 1により動きべク トル計算処理が行われ、 ステップ S 8 2において、 動き中心計算装置 1 0 2により、 動きの 中心座標計算処理が行われる。 ステップ S 8 3において、 カメラ動 き推定量計算装置 1 0 3より、 カメラの動き推定量計算処理が行わ れる。 以上のステップ S 8 1〜ステップ S 8 3の処理は、 図 4のス テヅプ S 1〜ステップ S 3の処理と同様の処理であるので、 ここで は、 その説明は省略する。
次にステップ S 8 4において、 カメラ動き予測量計算装置 1 0 4 により、 カメラ動き予測量の計算処理が実行される。
カメラ動き予測量計算装置 1 0 4は、 例えば図 2 0に示すように 構成されている。
このカメラ動き予測量計算装置 1 0 4は、 カメラ動き推定量計算 装置 1 0 3より供給されたカメラ動き推定量と、 画像動揺データ関 係学習装置 1より供給された画像動揺データ関係係数とを乗算し、 加算器 1 2 2に出力する乗算器 1 2 1 と、 乗算器 1 2 1より入力さ れたデ一夕と、 レジス夕 1 2 3に保持されている過去のデータとを 加算し、 レジス夕 1 2 3に出力することで、 入力されたデ一夕を積 分する加算器 1 2 2と、 レジス夕 1 2 3より供給されたデ一夕を記 憶し、 カメラ動き予測量として出力するメモリ 1 2 4を備える。 そして、 このカメラ動き予測量計算装置 1 0 4では、 カメラ動き 推定量と画像動揺デー夕関係係数とが乗算され、 加算される処理が 実行される。
すなわち、 乗算器 1 2 1は、 カメラ動き推定量計算装置 1 0 3よ り供給されるカメラ動き推定量と、 画像動揺データ関係学習装置 1 より供給される画像動揺データ関係係数とを乗算し、 加算器 1 2 2 に出力する。 加算器 1 2 2は、 乗算器 1 2 1より入力されたデ一夕 に、 過去にレジス夕 1 2 3に保持されていたデータを加算し、 レジ ス夕 1 2 3に供給し、 再び保存させることで、 乗算器 1 2 1より供 給されたデータを積分する。 これにより、 線形 1次結合が演算され る。 レジス夕 1 2 3より出力されたデ一夕は、 メモリ 1 2 4に一旦 保持された後、 カメラ動き予測量として出力される。
例えば、 カメラ動き推定量計算装置 103で計算したカメラ動き 推定量が、 2つのフレーム間の時間 iにおいて、 vxi l, V X i 2 , ·
• · , VX i nであるとする。 線形 1次結合の係数 Wx。, Wxl, wx 2 ,
• · ·, wxnは、 動きべク トル検出の誤差、 小物体動きの混入、 仮 定した 3次元空間の対称性の不成立、 カメラの焦点距離 f、 被写体 の奥行き r、 カメラ動き推定量の単位と動きカメラ推定量の単位と の間の変換係数をすベて考慮した値となっている。
したがって、 2つのフレーム間の時間 iで複数個求められるカメ ラ動き推定量の線形 1次結合を次式で示すように演算することによ り、 カメラ動き予測量 X' iが得られる。
X, i = W x 0 + Wxl Vxi l +WX 2 V x i 2 -|- * · * +WxnVxin
(21) 以上の計算をシーンの画像の始めから終わりまで行うことで、 各 時間でのカメラ動き予測量 X' が求め.られる。
同様な処理により、 カメラ動き予測量の他の成分 Y, , Z' , R 0 L L' , P I TCH' , YAW が計算される。
そして、 ステップ S 84でカメラ動き予測量の計算処理を終了す るとステップ S 85に進む。
ステップ S 85では、 動揺デ一夕計算装置 105により、 カメラ 動き予測量から動揺データを計算する処理が実行される。
さらに、 次のステップ S 86では、 動揺データ計算装置 105に より、 全フレームについてステップ S 84及びステップ S 85の処 理を行った否かが判定される。 未処理のフレームがある場合にはス テツプ S 84に戻って未処理のフレームについてカメラ動き予測量 の計算処理を行う。 そして、 ステップ S 8 4〜ステップ S 8 6の処 理を 1フレーム毎に繰り返し、 全フレームについて処理を行うと、 動揺データの生成処理を終了する。
ここで、 動揺データについて説明する。
以上のようにして計算されたカメラ動き予測量に基づいて、 動揺 デ一夕計算装置 1 0 5により、 動揺デ一夕が生成され、 駆動制御装 置 5は、 その動揺データに基づいて座席 6を駆動するのであるが、 劇場などの特定の場所に固定された座席 6を通じて、 動揺データを 提示する制約から、 座席 6を実際のように際限なく回転したり、 並 進させることはできない。
そこで、 この臨場感体験装置 1 0における動揺データは、 実際の 角度あるいは位置の変化をそのまま与えるためのデータとしての実 動揺データと、 回転角速度又は並進加速度の変化に応じて、 それぞ れパルス的又はステツプ的に角度変化を与える代替動揺データとか ら構成される。
自動車を路面に沿って走行させる場合の実動揺データと代替動揺 データは、 例えば次の表 1に示すように構成される。
表 1 :実動揺デ一夕と代替動揺データを示す表
Figure imgf000035_0001
実動揺デ一夕としては、 路面の前後の傾き、 路面の左右の傾き、 前後方向の振動、 左右方向の振動及び上下方向の振動が挙げられる < 路面の前後の傾きは、 動揺成分 p i t c hで表現され、 路面の左右 の傾きは、 動揺成分 r o 1 1で表現される。 前後方向の振動、 左右 方向の振動、 又は、 上下方向の振動は、 それぞれ動揺成分 x, y , zで表現される。
代替動揺データとしては、 加減速による慣性力、 カーブ時の遠心 力及びカーブ時の車首振りが挙げられる。 加減速による慣性力は、 動揺成分 Xの二重微分値 X" で表現され、 カーブ時の遠心力は、 動 揺成分 Xの微分値 x' と動揺成分 yawの微分値 y aw' の積 x' • yaw' で表現される。 カーブ時の車首振りは、 動揺成分 yaw の微分値 yaw' で表現される。
加減速による慣性力は、 動揺成分 p i t c hに対応し、 カーブ時 の遠心力は、 動揺成分 r o 1 1に対応し、 カーブ時の車首振りは、 動揺成分 y a wに対応する。
動揺成分 p i t c h, r o l l , aw, x, y , zの、 それぞ れ表 1に示す実動揺成分 p i t c hr , r o l l , , y a Wr , x r , r , Z r は、 それぞれ以下のように計算される。
実動揺成分 P i t c h r は、
p i t chr = LPF (ΣΡ Ι ΤΟΗ' ) (22) すなわち、 カメラ動き予測量 P I T C H' の積分∑ P I TCH' か ら低域成分 LPF (∑P I TCH' ) を求める計算により得られる。 また、 実動揺成分 r 011 r は、
Figure imgf000036_0001
すなわち、 カメラ動き予測量 R 0 L L ' の積分∑ROLL, から低 域成分 LPF (∑ROLL, ) を求める計算により得られる。
また、 実動揺成分 χ'. は、
X t =HPF (∑X' ) (24) すなわち、 カメラ動き予測量 X' の積分∑X, から高域成分 HPF ( ΣΧ' ) を求める計算により得られる。
また、 実動揺成分 yr は、
y r =HPF (∑Y, ) (25) すなわち、 カメラ動き予測量 Y' の積分 ΣΥ' から高域成分 HPF (ΣΥ' ) を求める計算により得られる。
さらに、 実動揺成分 zr は、
z r =HPF (ΣΖ' ) (26) すなわち、 カメラ動き予測量 Ζ, の積分 ΣΖ' から高域成分 HPF (ΣΖ' ) を抽出することにより生成される。
また、 表 1に示した代替動揺成分 p i t chs , ro l ls , y a Ws は、 それぞれ次のように計算される。
代替動揺成分 P i t c h s は、
Figure imgf000037_0001
すなわち、 カメラ動き予測量 X' の差分 ΔΧ' から低域成分 LP F (ΔΧ' ) を求める計算により得られる。
また、 代替動揺成分 r o i l s は、
r o l ls =LPF (Χ' ) LPF (YAW ) (28) すなわち、 カメラ動き予測量 X, の低域成分 LPF (X, ) とカメ ラ動き予測量 YAW, の低域成分 LPF (YAW ) の積を求める 計算により得られる。
さらに、 代替動揺成分 yaws は、
Figure imgf000037_0002
すなわち、 カメラ動き予測量 Y A W, の低域成分 LPF (YAW ' ) を求める計算により得られる。
そして、 本実施の形態においては、 動揺デ一夕は、 実動揺データ と代替動揺データの和を取って、 次のように演算される。
p i t c h = p i t c hr + p i t c hs ( 3 0 )
Figure imgf000037_0003
y a w= y a Ws (32)
X = Xr (33)
Figure imgf000037_0004
Z = Z r (35) 以上のような式に基づいた演算を行うために、 動揺データ計算装 置 105は、 例えば図 21に示すように構成される。 カメラ動き予 測量のうち、 P I TCH' は、 加算器 13 1— 1とレジス夕 132 一 1により積分され、 メモリ 134 _ 1に記憶される。 メモリ 13 4— 1に記憶されたデ一夕のうち、 低域成分が口一パスフィル夕 (LP F) 135— 1により抽出される。 すなわち、 これにより、 式 ( 22 ) の演算を行い、 実動揺成分 p i t c hr を生成する。 こ のようにして生成された実動揺成分 p i t c h r は、 加算器 136 に供給される。
加算器 136にはまた、 式 (27) に示した代替動揺デ一夕 p i t c hs が供給されている。 すなわち、 減算器 133は、 カメラ動 き予測量のうちの成分 X' から、 レジス夕 132 _ 2に保持されて いる値を減算し、 その差分をメモリ 134— 2に供給し、 記憶させ る。 ローパスフィル夕 (LPF) 135— 2は、 メモリ 134— 2 に記憶された差分データの低域成分を抽出し、 代替動揺データ p i t chs として、 加算器 136に出力する。
加算器 136は、 口一パスフィル夕 (LPF) 135— 2より供 給された代替動揺成分 p i t c hs をローパスフィル夕 (LPF) 135 - 1より供給された実動揺デ一夕成分 p i t c hr と加算す ることにより、 式 (30) の演算を行い、 その演算結果を p i t c hとして出力する。
カメラ動き予測量のうち、 成分 ROLL' は、 加算器 13 1— 2 とレジス夕 132— 3により積分され、 メモリ 134— 3に供給さ れ、 記憶される。 ローパスフィル夕 (LPF) 135— 3は、 メモ リ 134— 3に記憶されたデータの低域成分を抽出し、 加算器 13 8に出力する。 すなわち、 これにより、 式 (23) の演算が行われ る ο
加算器 138にはまた、 式 (28) で示す代替動揺成分 r o i l s が供給されている。 すなわち、 口一パスフィル夕 (LPF) 13 5— 4は、 成分 X' の低域成分を抽出し、 乗算器 137に出力して いる。 また、 口一パスフィル夕 135— 5は、 成分 Y AW, の低域 成分を抽出し、 乗算器 137に出力している。 乗算器 137は、 口 —パスフィル夕 135— 4の出力と、 口一パスフィル夕 (LPF) 135- 5の出力を乗算することで、 式 ( 28 ) に示す演 ΐを行い、 その演算結果を加算器 1— 38に出力している。 加算器 138は、 ローパスフィル夕 (LPF) 135— 3の出力と乗算器 137の出 力を加算することにより、 式 ( 3 1 ) の演算を行い、 その演算結果 を r 011として出力する。
口一パスフィル夕 (LPF) 135— 6は、 カメラ動き予測量の 成分 YAW' の低域成分を抽出することにより式 (29) で示す演 算を行い、 その演算結果を式 (32) に従って yawとして出力す る o
カメラ動き予測量のうち、 成分 X' は、 加算器 131— 3とレジ ス夕 132— 4により積分され、 メモリ 134— 4に供給され、 記 憶される。 ハイパスフィル夕 (HPF) 135— 7は、 メモリ 13 4- に記憶されたデ一夕から高域成分を抽出することにより、 式 (24) の演算を行い、 その演算結果を式 (33) に従って Xとし て出力する。
カメラ動き予測量の成分 Y' は、 加算器 13 1— 4とレジスタ 1 32-5により積分され、 メモリ 134— 5に供給され、 記憶され る。 ハイパスフィル夕 (HPF) 135— 8は、 メモリ 134— 5 に記憶されたデータの高域成分を抽出することにより、 式 (25) の演算の演算を行い、 その演算結果を式 (34) に従って yとして 出力する。
カメラ動き予測量のうち、 成分 Z ' は、 加算器 13 1— 5とレジ ス夕 132— 6により積分され、 メモリ 134— 6に供給され、 記 憶される。 ハイパスフィル夕 (HP F) 135— 9は、 メモリ 13 4— 6に記憶されたデータの高域成分を抽出することで、 式 (2 6) の演算を行い、 その演^結果を式 (35) に従って zとして出 力される。
次に、 図 22のフローチャートを参照して、 動揺デ一夕計算装置 105の動作について説明する。 ステップ S 1 1 1において、 実動 揺成分 P i t chr , r o 11 r , χΓ , y r , ζ r が計算される。 すなわち、 カメラ動き予測量のうち、 成分 P I TCH' が加算器 1 3 1— 1とレジス夕 132— 1により積分され、 メモリ 134— 1 に記憶される。 メモリ 134— 1に記憶されたデ一夕は、 ローパス フィルタ (LPF) 135— 1により、 その低域成分が抽出され、 成分 p i t c h r として加算器 1 3 6に供給される。
カメラ動き予測量 R 0 L L ' は、 加算器 13 1— 2とレジス夕 1 32— 3により積分され、 メモリ 134— 3に記憶される。 口一パ スフィル夕 (LPF) 135— 3は、 メモリ 134— 3に記憶され たデ一夕の低域成分を抽出し、 成分 r 011 r として、 加算器 13 8に出力する。
カメラ動き予測量の成分 X' は、 加算器 13 1— 3とレジス夕 1 32— 4により積分され、 メモリ 134— 4に記憶される。 ハイパ スフィル夕 (HPF) 135— 7は、 メモリ 134— 4に記憶され たデ一夕の高域成分を抽出し、 成分 X r とする。
カメラ動き予測量のうち、 成分 Y' は、 加算器 131—4とレジ ス夕 132— 5により積分され、 メモリ 134— 5に記憶される。 ハイパスフィル夕 (HP F) 135— 8は、 メモリ 134— 5に記 憶されたデータのうち、 高域成分を抽出し、 成分 yr とする。 カメラ動き予測量のうち、 成分 Z, は、 加算器 131— 5とレジ ス夕 132— 6により積分され、 メモリ 134— 6に記憶される。 ハイパスフィル夕 (H P F ) 135— 9は、 メモリ L 34— 6に記 憶されたデ一夕の高域成分を抽出し、 成分 z, とする。
次に、 ステップ S 1 12において、 代替動揺成分 p i t c h s , r o l ls , y a ws が'計算される。
すなわち、 減算器 133は、 現在のカメラ動き予測量のうちの成 分 X, から、 レジス夕 132— 2より供給される過去の成分を減算 し、 メモリ 134— 2に供給し、 記憶させる。 口一パスフィル夕 (LPF) 135— 2は、 メモリ 134— 2に記憶されているデ一 夕の低域成分を代替動揺成分 P i t c h s として、 加算器 136に 出力する。
口一パスフィル夕 (LPF) 135— 4は、 カメラ動き予測量の うち、 成分 X, の低域成分を抽出し、 口一パスフィル夕 (LPF) 135— 5は、 カメラ動き予測量のうち、 成分 YAW, の低域成分 を抽出する。 乗算器 137は、 ローパスフィル夕 (LPF) 135 — 4の出力とローパスフィル夕 (LPF) 135— 5の出力を乗算 し、 成分 r o 11 s を生成し、 加算器 138に出力する。
ローパスフィル夕 (LPF) 135— 6は、 カメラ動き予測量の うち、 成分 YAW' の低域成分を抽出し、 成分 yaws とする。 さらに、 ステヅプ S 1 13において、 ステップ S 1 1 1で演算さ れた実動揺成分デ一夕と、 ステップ S 1 12で生成された代替動揺 成分データの和が計算される。 すなわち、 加算器 136は、 口一パ スフィル夕 (LPF) 135— 1より供給される実動揺デ一夕成分 p i t c h r と、 口一パスフィルタ (LPF) 135— 2より供給 される代替動揺成分データ P i t c hs とを加算し、 動揺データの 成分 p i t c hとして出力する。
加算器 138は、 ローパスフィル夕 (LPF) 135— 3より供 給される実動揺成分 r o 1 lr と、 乗算器 137より供給される代 替動揺成分データ r o 11 s とを加算し、 動揺データの成分 r o l 1として出力する。
口一パスフィル夕 (LPF) 135— 6は、 抽出した代替動揺成 分デ一夕 yaws を、 そのまま動揺デ一夕の成分 y awとして出力 する。 ハイパスフィル夕 (LPF) 135— 7~135— 9は、 生 成した実動揺成分 xr , yr , Z r を、 それぞれ動揺デ一夕の成分 x, y , として出力する。
以上のようにして、 動摇デ一夕生成装置 2により生成された動揺 データは、 駆動制御装置 5に供給される。 また、 動揺データ生成装 置 2が、 動揺データを生成する際に用いた画像が画像提示装置 3に 供給される。 画像提示装置 3と駆動制御装置 5は、 同期制御装置 7 により制御され、 相互に同期して動作する。 画像提示装置 3は、 提 供された画像をスクリーン 4に表示させる。 また、 駆動制御装置 5 は、 供給された動揺デ一夕に基づいて、 座席 6を駆動する。
ここで、 駆動制御装置 5により駆動される座席 6の具体的な構成 例を図 23及び図 24に示す。 図 23は、 座席 6の側面図であり、 図 24は、 座席 6を上面から見た図である。
座席 6は、 ァクチユエ一夕として 6本のピス トン 141一 1〜 1 4 1— 6を備えており、 これらのピス トン 1 4 1— 1〜: L 4 1—6 により台座 1 4 2が支えられている。 台座 1 4 2には、 椅子 1 4 3 が固定されており、 この椅子 1 4 3の上に観客 1 4 4が座るように なされている。 ピス トン 1 4 1— 1 〜 1 4 1— 6は、 それぞれ中心 軸に沿って伸縮運動ができるようになされている。 ビス トン 1 4 1 一:!〜 1 4 1一 6が、 動揺デ一夕生成装置 2により生成された動揺 デ一夕に従って駆動制御装置 5により駆動され、 伸縮運動をするこ とによって、 台座 1 4 2が動揺し、 さらに台座 1 4 2に固定されて いる椅子 1 4 3が動揺する。
これにより、 座席 6に座ってスクリーン 4に表示されている画像 を観察している観察者は、 あたかもスクリーン 4に表示されている 画像を撮影した乗り物に乗っているような臨場感を体験することが できる。
なお、 画像動揺データ関係学習装置 1において画像動揺データ関 係係数を得るための学習処理や、 動揺データ生成装置 2において力 メラ動き推定量を求め動揺デ一夕を生成するための各種演算処理は、 例えば図 2 5に示すように、 バス 2 1 1に接続された C P U (Centr al Processing Unit) 2 1 2、 メモリ 2 1 3、 入カイン夕ーフエー ス 2 1 4、 ユーザィン夕一フヱ一ス 2 1 5や出力イン夕一フエース 2 1 6などにより構成される一般的なコンピュータシステム 2 1 0 により実行することができる。 上記処理を実行するコンピュータプ ログラムは、 記録媒体に記録されてユーザに提供される。 上記記録 媒体には、 磁気ディスク、 C D— R O Mなどの情報記録媒体の他、 インターネッ ト、 デジ夕ル衛星などのネッ トワークによる伝送媒体 も含まれる。 以上の如く、 本発明によれば、 画像を撮像したビデオカメラの力 メラ動き推定量を演算するとともに、 センサにより取得した動揺デ 一夕から、 ビデオカメラの動いた量を表すカメラ動き量を演算し、 カメラ動き推定量とカメラ動き量との対応を、 線形 1次結合の係数 として学習するようにしたので、 既存の画像資源を利用して、 その 画像を撮像した乗り物にあたかも乗っているような臨場感を体験さ せることが可能な動揺データを生成することが可能となる。 また、 カメラ動き推定量を演算し、 カメラ動き推定量と、 予め記憶されて いる係数を線形 1次結合することで、 カメラ動き予測量を演算し、 演算されたカメラ動き予測量に基づいて、 座席を駆動するとき用い られる動揺データを演算するようにしたので、 簡単かつ確実に、 既 存の画像に基づいて、 動揺デ一夕を生成することが可能となる。

Claims

請求の範囲
1 . ビデオカメラによって撮影された所望の画像信号から検出さ れる上記ビデオカメラの動きを示すカメラ動き推定情報と、 上記ビ デォカメラによる上記所望の画像信号の榀像と同時に、 物理的な動 きを検出するセンサによって取得された上記ビデオカメラの物理的 な動きを示すカメラ動き情報とに基づいて、 学習を行うことによつ て予め生成された関係情報を記憶する記憶手段と、
入力画像信号から、 上記入力画像信号に対するカメラ動き推定情 報を検出するカメラ動き推定情報検出手段と、
上記カメラ動き推定情報検出手段によって検出されたカメラ動き 推定情報と、 上記関係情報とに基づいて、 上記入力画像信号に対す るカメラ動き予測情報を生成するカメラ動き予測情報生成手段とを 備えることを特徴とする情報処理装置。
2 . 上記カメラ動き予測情報に基づいて、 オブジェク トを動揺す るための動揺信号を生成する動揺信号生成手段をさらに備えること を特徴とする請求の範囲第 1項記載の情報処理装置。
3 . 上記動揺信号に基づいて上記オブジェク トを駆動する駆動手 段をさらに備えることを特徴とする請求の範囲第 2項記載の情報処
4 . 上記オブジェク トとして椅子をさらに備えることを特徴とす る請求の範囲第 2項記載の情報処理装置。
5 . 上記駆動手段と同期して上記入力画像信号を表示する表示手 段をさらに備えることを特徴とする請求の範囲第 4項記載の情報処
6 . 上記カメラ動き推定情報検出手段は、 上記入力画像信号から 動きべク トルを検出する動きべク トル検出部と、 上記動きべク トル に基づいて、 動き中心を検出する動き中心検出部と、 上記動きべク トルと上記動き中心とに基づいて、 上記カメラ動き推定情報を検出 するカメラ動き推定情報検出部とを備えることを特徴とする請求の 範囲第 1項記載の情報処理装置。
7 . 上記動き中心検出部は、 複数の画素位置において、 それぞれ 上記動きべク トルを複数フレームに亘つて積分する積分部と、 上記 積分部の積分結果に基づいて上記動き中心を決定する動き中心決定 部とを有することを特徴とする請求の範囲第 6項記載の情報処理装
8 . 上記積分部は、 上記動きベク トルの水平成分と垂直成分とを 別々に積分することを特徴とする請求の範囲第 7項記載の情報処理
9 . 上記動きベク トル検出部は、 上記入力画像信号の予め設定さ れた複数の代表点について、 上記動きべク トルを検出することを特 徴とする請求の範囲第 6項記載の情報処理装置。
1 0 . 上記センサとして加速度センサを備えることを特徴とする 請求の範囲第 1項記載の情報処理装置。
1 1 . 上記センサとして角速度センサを備えることを特徴とする 請求の範囲第 1項記載の情報処理装置。
1 2 . 上記カメラ動き推定情報検出手段は、 複数種類の成分から 成るカメラ動き推定情報を生成することを特徴とする請求の範囲第 1項記載の情報処理装置。
1 3 . 上記カメラ動き予測情報生成手段は、 上記カメラ動き推定 情報と、 上記関係情報との線形結合により、 上記入力画像信号に対 応する上記カメラ動き予測情報を生成することを特徴とする請求の 範囲第 1項記載の情報処理装置。
1 4 . ビデオカメラによつて撮像された所望の画像信号からカメ ラ動き推定情報を検出するカメラ動き推定情報検出手段と、
上記ビデオカメラによる上記所望の画像信号の撮像と同時に、 物 理的な動きを検出するセンサによって取得された上記ビデオカメラ の物理的な動きを示すセンサ情報と、 上記カメラ動き推定情報とに 基づいて、 任意の画像信号から上記任意の画像信号を撮像したビデ ォカメラの動きを表すカメラ動き予測情報を生成するための変換係 数を生成する係数生成手段とを備えることを特徴とする学習装置。
1 5 . 上記カメラ動き推定情報検出手段は、 上記入力画像信号か ら動きべク トルを検出する動きべク トル検出部と、 上記動きべク ト ルに基づいて、 動き中心を検出する動き中心検出部と、 上記動きべ ク トルと上記動き中心とに基づいて、 上記カメラ動き推定情報を検 出するカメラ動き推定情報検出部とを備えることを特徴とする請求 の範囲第 1 4項記載の学習装置。
1 6 . 上記動き中心検出部は、 複数の画素位置において、 それぞ れ上記動きべク トルを複数フレームに豆って積分する積分部と、 上 記積分部の積分結果に基づいて上記動き中心を決定する動き中心決 定部とを有することを特徴とする請求の範囲第 1 5項記載の学習装
1 7 . 上記積分部は、 上記動きべク トルの水平成分と垂直成分と を別々に積分することを特徴とする請求の範囲第 1 6項記載の学習
1 8 . 上記動きベク トル検出部は、 上記入力画像信号の予め設定 された複数の代表点について、 上記動きべク トルを検出することを 特徴とする請求の範囲第 1 5項記載の学習装置。
1 9 . 上記センサとして加速度センサを備えることを特徴とする 請求の範囲第 1 5項記載の学習装 。
2 0 . 上記センサとして角速度センサを備えることを特徴とする 請求の範囲第 1 5項記載の学習装置。
2 1 . 上記カメラ動き推定情報検出手段は、 複数種類の成分から 成るカメラ動き推定情報を生成することを特徴とする請求の範囲第 1 5項記載の学習装置。
2 2 . ビデオカメラによつて撮影された所望の画像信号から検出 される上記ビデオカメラの動きを示すカメラ動き推定情報と、 上記 ビデオカメラにより上記所望の画像信号の撮像と同時に、 物理的な 動きを検出するセンサによって取得された上記ビデオカメラの物理 的な動きを示すカメラ動き情報とに基づいて、 学習を行うことによ つて関係情報を生成するステツプと、
入力画像信号から、 上記入力画像信号に対するカメラ動き推定情 報を検出するステップと、
検出されたカメラ動き推定情報と、 上記関係情報とに基づいて、 上記入力画像信号に対するカメラ動き予測情報を生成するステップ とを有することを特徴とする情報処理方法。
2 3 . 上記カメラ動き予測情報に基づいて、 オブジェク トを動揺 するための動揺信号を生成するステップをさらに有することを特徴 とする請求の範囲第 2 2項記載の情報処理方法。
2 4 . 上記動揺信号に基づいて上記オブジェク トを駆動するステ ップをさらに有することを特徴とする請求の範囲第 2 3項記載の情 報処理方法。
2 5 . 上記オブジェク トを駆動するステップでは、 上記オブジェ ク トとして椅子を駆動することを特徴とする請求の範囲第 2 4項記 載の情報処理方法。
2 6 . 上記オブジェク トを駆動と同期して上記入力画像信号を表 示するステップをさらに有することを特徴とする請求の範囲第 2 4 項記載の情報処理方法。
2 7 . 上記カメラ動き推定情報を検出するステップは、 上記入力 画像信号から動きべク トルを検出するステップと、 上記動きべク ト ルに基づいて動き中心を検出するステップと、 上記動きべク トルと 上記動き中心とに基づいて、 上記カメラ動き推定情報を検出するス テツプを有することを特徴とする請求の範囲第 2 2項記載の情報処 理方法。
2 8 . 上記動き中心を検出するステップでは、 複数の画素位置に おいて、 それぞれ上記動きべク トルを複数フレームに亘つて積分し、 その積分結果に基づいて上記動き中心を決定することを特徴とする 請求の範囲第 2 7項記載の情報処理方法。
2 9 . 上記動き中心を検出するステップでは、 上記動きベク トル の水平成分と垂直成分とを別々に積分することを特徴とする請求の 範囲第 2 8項記載の情報処理方法。
3 0 . 上記動きベク トルを検出するステップでは、 上記入力画像 信号の予め設定された複数の代表点について、 上記動きべク トルを 検出することを特徴とする請求の範囲第 2 7項記載の情報処理方法。
3 1 . 上記関係情報を生成するステップでは、 上記センサとして 加速度センサにより取得された上記ビデオカメラの物理的な動きを 示すカメラ動き情報に基づいて、 上記関係情報を生成することを特 徴とする請求の範囲第 2 2項記載の情報処理方法。
3 2 . 上記関係情報を生成するステップでは、 上記センサとして 角速度センサにより取得された上記ビデオカメラの物理的な動きを 示すカメラ動き情報に基づいて、 上記関係情報を生成することを特 徴とする請求の範囲第 2 2項記載の情報処理方法。
3 3 . 上記カメラ動き推定情報を検出するステップでは、 複数種 類の成分からなるカメラ動き推定情報を生成することを特徴とする 請求の範囲第 2 2項記載の情報処理方法。
3 4 . 上記カメラ動き予測情報を生成するステップでは、 上記力 メラ動き推定情報と上記関係情報との線形結合により、 上記入力画 像信号に対応する上記カメラ動き予測情報を生成することを特徴と する請求の範囲第 2 2項記載の情報処理方法。
3 5 . ビデオカメラによつて撮像された所望の画像信号からカメ ラ動き推定情報を検出するステツプと、
上記ビデオカメラによる上記所望の画像信号の撮像と同時に、 物 理的な動きを検出するセンサによって取得された上記ビデオカメラ の物理的な動きを示すセンサ情報と上記カメラ動き推定情報とに基 づいて、 任意の画像信号から上記任意の画像信号を撮像したビデオ カメラの動きを表すカメラ動き予測情報を生成するための変換係数 を生成するステップと
を有することを特徴とする学習方法。
3 6 . 上記カメラ動き推定情報を検出するステップは、 上記入力 画像信号から動きべク トルを検出するステップと、 上記動きべク ト ルに基づいて動き中心を検出するステップと、 上記動きべク トルと 上記動き中心とに基づいて上記力メラ動き推定情報を検出するステ ップを有することを特徴とする請求の範囲第 3 5項記載の学習方法。
3 7 . 上記動き中心を検出するステップでは、 複数の画素位置に おいて、 それぞれ上記動きべク トルを複数フレームに亘つて積分し、 その積分結果に基づいて上記動き中心を決定することを特徴とする 請求の範囲第 3 6項記載の学習方法。
3 8 . 上記動き中心を検出するステップでは、 上記動きベク トル の水平成分と垂直成分とを別々に積分することを特徴とする請求の 範囲第 3 7項記載の学習方法。
3 9 . 上記動きべク トルを検出するステップでは、 上記入力画像 信号の予め設定された複数の代表点について、 上記動きべク トルを 検出することを特徴とする請求の範囲第 3 6項記載の学習方法。
4 0 . 上記変換係数を生成するステップでは、 上記センサと して 加速度センサにより取得された上記ビデオカメラの物理的な動きを 示す力メラ動き情報に基づいて上記変換係数を生成することを特徴 とする請求の範囲第 3 6項記載の学習方法。
4 1 . 上記変換係数を生成するステップでは、 上記センサと して 角速度センサにより取得された上記ビデオカメラの物理的な動きを 示す力メラ動き情報に基づいて上記変換係数を生成することを特徴 とする請求の範囲第 3 6項記載の学習方法。
4 2 . 上記カメラ動き推定情報を検出するステップは、 複数種類 の成分からなるカメラ動き推定情報を生成することを特徴とする請 求の範囲第 3 6項記載の学習方法。
4 3 . ビデオカメラによって撮影された所望の画像信号から検出 される上記ビデオカメラの動きを示すカメラ動き推定情報と、 上記 ビデオカメラにより上記所望の画像信号の撮像と同時に、 物理的な 動きを検出するセンサによって取得された上記ビデオ力メラの物理 的な動きを示すカメラ動き情報とに基づいて、 学習を行うことによ つて関係情報を生成するステップと、
入力画像信号から上記入力画像信号に対するカメラ動き推定情報 を検出するステップと、
検出されたカメラ動き推定情報と上記関係情報とに基づいて、 上 記入力画像信号に対するカメラ動き予測情報を生成するステップと を有することを特徴とする情報処理をコンピュータにより実行させ るプログラムを記録したプログラム記録媒体。
4 4 . 上記プログラムは、 上記カメラ動き予測情報に基づいて、 オブジェク トを動揺するための動揺信号を生成するステップをさら に有することを特徴とする請求の範囲第 4 3項記載のプログラム記 録媒体。
4 5 . 上記プログラムは、 上記動揺信号に基づいて上記オブジェ ク トを駆動するステップをさらに有することを特徴とする請求の範 囲第 4 4項記載のプログラム記録媒体。
4 6 . 上記オブジェク トを駆動するステップでは、 上記オブジェ ク トと して椅子を駆動することを特徴とする請求の範囲第 4 5項記 載のプログラム記録媒体。
4 7 . 上記プログラムは、 上記オブジェク トを駆動と同期して上 記入力画像信号を表示するステップをさらに有することを特徴とす る請求の範囲第 4 5項記載のプログラム記録媒体。
4 8 . 上記入力画像信号に対するカメラ動き推定情報を検出する ステップは、 上記入力画像信号から動きべク トルを検出するステツ プと、 上記動きべク トルに基づいて動き中心を検出するステップと、 上記動きべク トルと上記動き中心とに基づいて、 上記カメラ動き推 定情報を検出するステップを有することを特徴とする請求の範囲第 4 3項記載のプログラム記録媒体。
4 9 . 上記動き中心を検出ステップでは、 複数の画素位置におい て、 それぞれ上記動きベク トルを複数フレームに亘つて積分し、 そ の積分結果に基づいて上記動き中心を決定することを特徴とする請 求の範囲第 4 8項記載のプログラム記録媒体。
5 0 . 上記動き中心を検出ステップでは、 上記動きベク トルの水 平成分と垂直成分とを別々に積分することを特徴とする請求の範囲 第 4 9項記載のプログラム記録媒体。
5 1 . 上記入力画像信号から動きべク トルを検出するステップで は、 上記入力画像信号の予め設定された複数の代表点について、 上 記動きべク トルを検出することを特徴とする請求の範囲第 4 8項記 載のプログラム記録媒体。
5 2 . 上記関係情報を生成するステップでは、 上記センサと して 加速度センサにより取得された上記ビデオカメラの物理的な動きを 示す力メラ動き情報に基づいて上記関係情報を生成することを特徴 とする請求の範囲第 4 3項記載のプログラム記録媒体。
5 3 . 上記関係情報を生成するステップでは、 上記センサとして 角速度センサにより取得された上記ビデオカメラの物理的な動きを 示す力メラ動き情報に基づいて、 上記関係情報を生成することを特 徴とする請求の範囲第 4 3項記載のプログラム記録媒体。
5 4 . 上記カメ ラ動き推定情報を検出するステップでは、 複数種 類の成分からなるカメラ動き推定情報を生成することを特徴とする 請求の範囲第 4 3項記載のプログラム記録媒体。
5 5 . 上記カメラ動き予測情報を生成するステップでは、 上記力 メラ動き推定情報と上記関係情報との線形結合により、 上記入力画 像信号に対応する上記カメラ動き予測情報を生成することを特徴と する請求の範囲第 4 3項記載のプ口グラム記録媒体。
5 6 . ビデオカメラによって撮像された所望の画像信号からカメ ラ動き推定情報を検出するステップと、
上記ビデオカメラによる上記所望の画像信号の撮像と同時に、 物 理的な動きを検出するセンサによって取得された上記ビデオ力メラ の物理的な動きを示すセンサ情報と上記力メラ動き推定情報とに基 づいて、 任意の画像信号から上記任意の画像信号を撮像したビデオ カメラの動きを表すカメラ動き予測情報を生成するための変換係数 を生成するステップとを有することを特徴とする学習処理をコンビ ユータにより実行させるプログラムを記録したプログラム記録媒体。
5 7 . 上記カメラ動き推定情報を検出するステップは、 上記入力 画像信号から動きべク トルを検出するステップと、 上記動きべク ト ルに基づいて動き中心を検出するステップと、 上記動きべク トルと 上記動き中心とに基づいて上記力メラ動き推定情報を検出するステ ップを有することを特徴とする請求の範囲第 5 6項記載のプロダラ ム記録媒体。
5 8 . 上記動き中心を検出するステップでは、 複数の画素位置に おいて、 それぞれ上記動きべク トルを複数フレームに亘つて積分し、 その積分結果に基づいて上記動き中心を決定することを特徴とする 請求の範囲第 5 7項記載のプログラム記録媒体。
5 9 . 上記動き中心を検出するステップでは、 上記動きベク トル の水平成分と垂直成分とを別々に積分することを特徴とする請求の 範囲第 5 8項記載のプログラム記録媒体。
6 0 . 上記動きベク トルを検出するステップでは、 上記入力画像 信号の予め設定された複数の代表点について、 上記動きべク トルを 検出することを特徴とする請求の範囲第 5 6項記載のプログラム記 録媒体。
6 1 . 上記変換係数を生成するステップでは、 上記センサと して 加速度センサにより取得された上記ビデオカメラの物理的な動きを 示す力メラ動き情報に基づいて上記変換係数を生成することを特徴 とする請求の範囲第 5 6項記載のプログラム記録媒体。
6 2 . 上記変換係数を生成するステップでは、 上記センサと して 角速度センサにより取得された上記ビデオカメラの物理的な動きを 示す力メラ動き情報に基づいて上記変換係数を生成することを特徴 とする請求の範囲第 5 6項記載のプログラム記録媒体。
6 3 . 上記カメラ動き推定情報を検出するステップでは、 複数種 類の成分からなるカメラ動き推定情報を生成することを特徴とする 請求の範囲第 5 6項記載のプログラム記録媒体。
PCT/JP2000/003039 1999-05-11 2000-05-11 Processeur d'informations WO2000068886A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2000616591A JP4449217B2 (ja) 1999-05-11 2000-05-11 情報処理装置
US09/743,442 US6678328B1 (en) 1999-05-11 2000-05-11 Information processor
US12/612,090 US8619197B2 (en) 1999-05-11 2009-11-04 Information processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP12991899 1999-05-11
JP11/129918 1999-05-11

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US09743442 A-371-Of-International 2000-05-11
US09/743,442 A-371-Of-International US6678328B1 (en) 1999-05-11 2000-05-11 Information processor
US10/631,348 Continuation US7643096B2 (en) 1999-05-11 2003-07-31 Information processing apparatus

Publications (1)

Publication Number Publication Date
WO2000068886A1 true WO2000068886A1 (fr) 2000-11-16

Family

ID=15021628

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/003039 WO2000068886A1 (fr) 1999-05-11 2000-05-11 Processeur d'informations

Country Status (5)

Country Link
US (3) US6678328B1 (ja)
JP (1) JP4449217B2 (ja)
KR (1) KR100724299B1 (ja)
CN (1) CN1154957C (ja)
WO (1) WO2000068886A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004261272A (ja) * 2003-02-28 2004-09-24 Oki Electric Ind Co Ltd 体感装置、モーション信号の生成方法およびプログラム
US7883072B2 (en) 2005-09-09 2011-02-08 Sony Corporation Shaking apparatus, shaking method, and audiovisual system
US8113839B2 (en) 2000-07-21 2012-02-14 Sony Corporation Information processing apparatus, information processing method, information processing system, and storage medium

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4672094B2 (ja) * 1999-01-22 2011-04-20 ソニー株式会社 画像処理装置および方法、並びに記録媒体
WO2000068886A1 (fr) * 1999-05-11 2000-11-16 Sony Corporation Processeur d'informations
JP4223762B2 (ja) * 2002-08-26 2009-02-12 ソニー株式会社 映像処理装置、映像処理方法、プログラム及び記録媒体、並びに映像処理システム
US9225994B2 (en) * 2005-03-14 2015-12-29 British Telecommunications Public Limited Company Global motion estimation using reduced frame lines
US8628415B2 (en) * 2006-11-09 2014-01-14 Wms Gaming Inc. Wagering game with 3D gaming environment using dynamic camera
WO2009082489A2 (en) * 2007-12-24 2009-07-02 Robert Childress Motion platform video game racing and flight simulator
JP5200642B2 (ja) * 2008-04-15 2013-06-05 ソニー株式会社 画像表示装置及び画像表示方法
KR101643600B1 (ko) * 2009-02-13 2016-07-29 삼성전자주식회사 디지털 동영상 촬영장치 및 디지털 동영상 처리장치
KR101660312B1 (ko) 2009-09-22 2016-09-27 삼성전자주식회사 3차원 비디오의 움직임 탐색 장치 및 방법
US20110093092A1 (en) * 2009-10-19 2011-04-21 Bum Suk Choi Method and apparatus for creating and reproducing of motion effect
US8358077B2 (en) * 2010-09-30 2013-01-22 Osram Sylvania Inc. Full wave current sense rectifier
GB201714289D0 (en) * 2017-09-06 2017-10-18 Simworx Ltd Modelling systems and methods for entertainment rides
CN109788200B (zh) * 2019-01-31 2021-04-06 长安大学 一种基于预测分析的摄像稳定控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5200867A (en) * 1991-07-02 1993-04-06 International Business Machines Corporation Transducer carrier for disk file with liquid film head-disk interface
US5734519A (en) * 1993-03-25 1998-03-31 International Business Machines Corporation Contact magnetic recording disk file with improved head assembly
US5768055A (en) * 1996-09-19 1998-06-16 Sae Magnetics (H.K.) Ltd. Magnetic recording head having a carbon overcoat array on slider air bearings surfaces
US5841608A (en) * 1994-08-30 1998-11-24 Fujitsu Limited Head slider with projections arranged on rails thereof

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL62499A (en) * 1981-03-27 1983-10-31 Goodman Joseph Time read-out device for electronic clocks
US4752065A (en) * 1985-12-19 1988-06-21 Showscan Film Corporation Motion picture amusement ride
US4857912A (en) * 1988-07-27 1989-08-15 The United States Of America As Represented By The Secretary Of The Navy Intelligent security assessment system
EP0358196B1 (en) 1988-09-09 1997-07-30 Canon Kabushiki Kaisha Automatic image stabilization device
JP2941815B2 (ja) 1988-09-09 1999-08-30 キヤノン株式会社 撮像装置及びぶれ補正装置
JPH0458978A (ja) 1990-06-27 1992-02-25 Mitsubishi Heavy Ind Ltd 画像同期型動揺信号作成装置
JPH0720521A (ja) 1993-07-02 1995-01-24 Nikon Corp 手ブレ検出装置
US5701522A (en) 1991-03-06 1997-12-23 Nikon Corporation Camera shake amplitude detecting device
JPH053968A (ja) 1991-06-25 1993-01-14 Pioneer Electron Corp 映像表示、及びその表示に連動する運動装置
JP2876879B2 (ja) 1992-03-17 1999-03-31 石川島播磨重工業株式会社 操船シミュレ−タ
JPH06161348A (ja) 1992-09-22 1994-06-07 Sony Corp アミューズメント装置および記録媒体
US5496220A (en) * 1994-06-02 1996-03-05 Brad Engstrand Sensory simulator
US6002428A (en) * 1994-10-21 1999-12-14 Sanyo Electric Co., Ltd. Motion vector detection circuit and object tracking camera device utilizing the same
US6885971B2 (en) * 1994-11-21 2005-04-26 Phatrat Technology, Inc. Methods and systems for assessing athletic performance
JPH11502336A (ja) * 1995-03-22 1999-02-23 イーデーテー インテルナツィオナール ディギタール テクノロギース ドイッチュラント ゲーエムベーハー マルチフレームに亘る動き判別の方法及び装置
NL1004551C2 (nl) * 1996-11-18 1998-05-19 Rpi Advanced Technology Group Stoel.
JP3985280B2 (ja) * 1996-11-20 2007-10-03 ソニー株式会社 ビデオカメラとビデオカメラにおける手振れ補正信号のゲイン調整方法
JPH10150905A (ja) 1996-11-22 1998-06-09 Kajiwara Kogyo Kk 発酵生地による内材包み込み成形方法およびその装置
US5982420A (en) * 1997-01-21 1999-11-09 The United States Of America As Represented By The Secretary Of The Navy Autotracking device designating a target
JPH11153949A (ja) 1997-11-20 1999-06-08 Sony Corp 体感モーション装置
US6413090B1 (en) * 1998-03-30 2002-07-02 Hitachi, Ltd. VR motion base control apparatus and it's supporting structure
WO2000068886A1 (fr) * 1999-05-11 2000-11-16 Sony Corporation Processeur d'informations
US7130490B2 (en) * 2001-05-14 2006-10-31 Elder James H Attentive panoramic visual sensor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5200867A (en) * 1991-07-02 1993-04-06 International Business Machines Corporation Transducer carrier for disk file with liquid film head-disk interface
US5734519A (en) * 1993-03-25 1998-03-31 International Business Machines Corporation Contact magnetic recording disk file with improved head assembly
US5841608A (en) * 1994-08-30 1998-11-24 Fujitsu Limited Head slider with projections arranged on rails thereof
US5768055A (en) * 1996-09-19 1998-06-16 Sae Magnetics (H.K.) Ltd. Magnetic recording head having a carbon overcoat array on slider air bearings surfaces

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8113839B2 (en) 2000-07-21 2012-02-14 Sony Corporation Information processing apparatus, information processing method, information processing system, and storage medium
JP2004261272A (ja) * 2003-02-28 2004-09-24 Oki Electric Ind Co Ltd 体感装置、モーション信号の生成方法およびプログラム
JP4529360B2 (ja) * 2003-02-28 2010-08-25 沖電気工業株式会社 体感装置、モーション信号の生成方法およびプログラム
US7883072B2 (en) 2005-09-09 2011-02-08 Sony Corporation Shaking apparatus, shaking method, and audiovisual system

Also Published As

Publication number Publication date
JP4449217B2 (ja) 2010-04-14
CN1310829A (zh) 2001-08-29
US20040023718A1 (en) 2004-02-05
US20100045818A1 (en) 2010-02-25
KR100724299B1 (ko) 2007-06-04
US7643096B2 (en) 2010-01-05
US6678328B1 (en) 2004-01-13
US8619197B2 (en) 2013-12-31
CN1154957C (zh) 2004-06-23
KR20010053496A (ko) 2001-06-25

Similar Documents

Publication Publication Date Title
US8619197B2 (en) Information processing apparatus
US10095031B1 (en) Non-overlapped stereo imaging for virtual reality headset tracking
US10462383B2 (en) System and method for acquiring virtual and augmented reality scenes by a user
US7292240B2 (en) Virtual reality presentation device and information processing method
US7382830B2 (en) Apparatus for generating motion control signal from image signal
Wilson et al. Walking in place using the Microsoft Kinect to explore a large VE
US20040054512A1 (en) Method for making simulator program and simulator system using the method
JP2007047294A (ja) 立体画像表示装置
CN108431871A (zh) 在三维模型上显示对象的方法
JP5367954B2 (ja) ゲームプログラム、ゲーム装置及び記憶媒体
EP0859338B1 (en) Apparatus for and method of displaying pseudo-three-dimensional image
KR100479365B1 (ko) 시뮬레이터 프로그램 제작 방법 및 이를 이용한시뮬레이터 시스템
JPH11153949A (ja) 体感モーション装置
KR101527188B1 (ko) 단일의 모션센서를 이용한 다중 플레이어 게임 제공 방법
JP7027753B2 (ja) 情報処理装置及びプログラム
CN115442581B (zh) 车载vr眼镜控制方法、装置及计算机设备
CN117440142A (zh) 沉浸式多维运动感知方法、系统、终端与介质
Torre Lara 3D Visualization using virtual view generation for stereoscopic hardware
JP2002044565A (ja) 情報処理装置および方法、並びに記録媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 00800946.5

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR US

WWE Wipo information: entry into national phase

Ref document number: 1020017000466

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 09743442

Country of ref document: US