WO2013187130A1 - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents
情報処理装置、および情報処理方法、並びにプログラム Download PDFInfo
- Publication number
- WO2013187130A1 WO2013187130A1 PCT/JP2013/061996 JP2013061996W WO2013187130A1 WO 2013187130 A1 WO2013187130 A1 WO 2013187130A1 JP 2013061996 W JP2013061996 W JP 2013061996W WO 2013187130 A1 WO2013187130 A1 WO 2013187130A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- virtual image
- display
- unit
- information processing
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/60—Rotation of a whole image or part thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/293—Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Definitions
- the present disclosure relates to an information processing apparatus, an information processing method, and a program.
- the present invention relates to an information processing apparatus, an information processing method, and a program for executing augmented reality (AR) display.
- AR augmented reality
- an image obtained by superimposing a virtual image other than a captured image on a captured image of a camera is called an augmented reality (AR) image
- AR augmented reality
- mobile terminals such as smartphones equipped with a camera function and a display in addition to a communication function have become widespread, and applications using augmented reality (AR) images are often used in these smartphones.
- a poster of a person is photographed using a camera function of a mobile terminal such as a smartphone and displayed on a display unit of the smartphone.
- the data processing unit of the smartphone identifies the photographed poster or the marker set on the poster, and acquires image data corresponding to the person who has moved to the poster from the storage unit or an external server. Further, the acquired image is superimposed on the captured image.
- Japanese Patent Application Laid-Open No. 2012-58838 discloses a conventional technique disclosed for generating and displaying an AR image.
- the camera when the camera is shooting a poster from an oblique direction, the person printed on the poster is displayed as an image viewed from an oblique direction on the captured image.
- the superimposed image In order to generate a natural AR image in which a person viewed from an oblique angle jumps out of a poster, the superimposed image must be an image of the person viewed from an oblique direction, similar to a poster.
- the present disclosure has been made in view of, for example, the above-described problem.
- a virtual image is displayed by being superimposed on a captured image captured by a user's mobile terminal camera and displayed on a display unit, for example, a person
- the first aspect of the present disclosure is: An acquisition unit for acquiring a captured image captured by the imaging unit; A data processing unit that superimposes a virtual image generated by transforming the input image on the captured image and displays the virtual image on a display unit; The data processing unit Displaying the virtual image generated by changing either the relative position or the relative angle between the imaging unit and the input image that are virtually set in time series on the display unit; It is in the information processing device.
- the data processing unit executes an image conversion process using metadata set in association with each frame of the moving image content of the virtual image and displays at least A virtual image in which either the position or the display angle is changed in time series is generated.
- the data processing unit includes, as metadata set in association with each frame of the moving image content of the virtual image, Relative position parameter Rpos applied to determine the display position of the virtual image, Relative angle parameter Rrot applied to determine the display angle of the virtual image, Each of these parameters is acquired, and the acquired parameter is applied to generate a virtual image in which at least one of the display position and the display angle is changed in time series, and is superimposed and displayed on the captured image.
- the data processing unit converts a model view matrix Mmarker corresponding to the initial image of the virtual image into a model view matrix Mdisplay corresponding to the final image of the virtual image.
- This is metadata set in correspondence with each virtual image frame with respect to the calculated conversion parameter.
- the relative position parameter Rpos or the relative angle parameter Rrot is multiplied to calculate offset information to be applied to the conversion process of each virtual image frame, and the virtual image frame conversion process to which the calculated offset information is applied is executed.
- a moving image of the virtual image in which at least either the display position or the display angle is changed in time series is generated.
- each of the relative position parameter Rpos and the relative angle parameter Rrot is 0 to 1 in each moving image frame from the initial image to the final image of the virtual image. It is a value that changes sequentially in the range.
- the data processing unit performs a blurring process of a virtual image at a boundary portion between the virtual image and the captured image when the superimposed display process is performed on the captured image of the virtual image.
- the data processing unit executes the generation process of the virtual image moving image content, and the virtual image moving image content generation process is performed on a configuration frame of the virtual image moving image content.
- Relative position parameter Rpos applied to determine the display position of the virtual image
- Relative angle parameter Rrot applied to determine the display angle of the virtual image
- the data processing unit uses the values of the relative position parameter Rpos and the relative angle parameter Rrot as the virtual image in each moving image frame of the image moving image content. Set in the range of 0 to 1 according to the subject distance.
- the data processing unit has a value that sequentially changes in a range of 0 to 1 for each moving image frame from the initial image to the final image of the virtual image.
- the relative position parameter Rpos and the relative angle parameter Rrot are set as values.
- the data processing unit may change the values of the relative position parameter Rpos and the relative angle parameter Rrot in different manners according to mode settings. Is set for each moving image frame constituting the.
- the data processing unit outputs restriction information indicating an angle and a distance of a preset allowable range to the display unit when generating the virtual image moving image content.
- restriction information indicating an angle and a distance of a preset allowable range to the display unit when generating the virtual image moving image content.
- the virtual image moving image content including the virtual object within the angle and distance of the allowable range is generated.
- the second aspect of the present disclosure is: An imaging unit that performs image capture; A data processing unit that generates virtual image moving image content based on a captured image of the imaging unit; The data processing unit In the virtual image moving image content generation process, for the configuration frame of the virtual image moving image content, Relative position parameter Rpos applied to determine the display position of the virtual image, Relative angle parameter Rrot applied to determine the display angle of the virtual image, The information processing apparatus executes the process of calculating each parameter and storing the calculated parameter in the storage unit as metadata corresponding to an image frame.
- the data processing unit uses the values of the relative position parameter Rpos and the relative angle parameter Rrot as the virtual image in each moving image frame of the image moving image content. Set in the range of 0 to 1 according to the subject distance.
- the third aspect of the present disclosure is: An imaging unit that performs image capture; A display unit for displaying a captured image of the imaging unit; A data processing unit that superimposes and displays a virtual image on the captured image displayed on the display unit; The data processing unit There is an information processing apparatus that acquires a moving image of a virtual image in which at least one of a display position and a display angle is changed in time series from a server, and displays the acquired virtual image in a superimposed manner on the captured image.
- the fourth aspect of the present disclosure is: An information processing method executed in an information processing apparatus,
- the information processing apparatus includes an acquisition unit that acquires a captured image captured by the imaging unit, and a data processing unit that superimposes a virtual image generated by transforming the input image and displays the virtual image on the display unit.
- the data processing unit In the information processing method, the virtual image generated by changing either the relative position or the relative angle between the imaging unit and the input image that are virtually set in time series is displayed on the display unit.
- the fifth aspect of the present disclosure is: An information processing method executed in an information processing apparatus,
- the information processing apparatus includes an imaging unit that performs image capturing, and a data processing unit that generates virtual image moving image content based on a captured image of the imaging unit,
- the data processing unit In the virtual image moving image content generation process, for the configuration frame of the virtual image moving image content, Relative position parameter Rpos applied to determine the display position of the virtual image, Relative angle parameter Rrot applied to determine the display angle of the virtual image,
- Relative position parameter Rpos applied to determine the display position of the virtual image
- Relative angle parameter Rrot applied to determine the display angle of the virtual image
- the sixth aspect of the present disclosure is: A program for executing information processing in an information processing apparatus;
- the information processing apparatus includes an acquisition unit that acquires a captured image captured by an imaging unit;
- a data processing unit that superimposes a virtual image generated by transforming the input image on the captured image and displays the virtual image on a display unit;
- the program is stored in the data processing unit.
- the seventh aspect of the present disclosure is: A program for executing information processing in an information processing apparatus;
- the information processing apparatus includes an imaging unit that performs image capturing, and a data processing unit that generates virtual image moving image content based on a captured image of the imaging unit,
- the program is stored in the data processing unit.
- Relative position parameter Rpos applied to determine the display position of the virtual image
- Relative angle parameter Rrot applied to determine the display angle of the virtual image
- the program of the present disclosure is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to an information processing apparatus or a computer system that can execute various program codes.
- a program in a computer-readable format, processing corresponding to the program is realized on the information processing apparatus or the computer system.
- system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
- a configuration is realized in which a virtual image whose display position and angle are changed with time is superimposed and displayed on the camera-captured image displayed on the display unit.
- an imaging unit a display unit that displays a captured image of the imaging unit, and a data processing unit that displays a virtual image superimposed on the captured image displayed on the display unit.
- the data processing unit superimposes and displays the moving image of the virtual image in which the display position and the display angle are changed in time series on the captured image.
- the data processing unit uses, as frame-corresponding metadata of the virtual image content, a relative position parameter Rpos applied to the determination of the display position of the virtual image, a relative angle parameter Rrot applied to the determination of the display angle of the virtual image, and these parameters. And applying the acquisition parameter to generate a virtual image in which the display position or the display angle is changed in time series and display the virtual image.
- FIG. 25 is a diagram for describing a configuration example of an information processing device. It is a figure explaining the restriction
- FIG. 11 is a diagram for describing a configuration example of an information processing apparatus that executes object cutout processing.
- FIG. 1 shows a display processing example of the following two AR images.
- A Virtual image display process without angle control
- B Virtual image display process with angle control
- the user photographs a poster 11 on which a person is printed using a mobile terminal such as a smartphone having a camera function, and the camera-captured image 15 displayed on the display unit of the mobile terminal passes through time (t0 to t4). It is the figure shown with.
- Both (A) and (B) display a virtual image that is not a captured image superimposed on the captured image.
- the virtual image is, for example, two-dimensional image data of the same person as the person printed on the poster 11.
- the virtual image is provided by a server via a network or image data stored in a storage unit of a mobile terminal such as a smartphone. Image data.
- the user is shooting the poster 11 from an oblique direction.
- the virtual image display processing without angle control shown in FIG. 1 (A) since a person jumps out from a poster photographed obliquely, the virtual image 21 to be superimposed is viewed from an oblique direction as with the poster. It is a person image.
- a moving image display process using an image viewed from an oblique direction is performed.
- the virtual images 21 such as times (t3) and (t4) shown in FIG. 1A are close to the camera, the person remains as seen from an oblique direction and approaches the user.
- the image is recognized as an unnatural image, and is clearly recognized as a pasted image different from the photographed image. This is due to the fact that an image shot from the same direction as the shooting direction of the initial image at time (t0) is applied as it is.
- the virtual image display process with angle control in FIG. 1B is an example of a virtual image display process to which the process of the present disclosure described below is applied.
- the display angle of the virtual image 31 is changed from an oblique direction to a front direction as time elapses (t1 ⁇ t4).
- angle control according to the distance of the virtual image is performed on the image captured from the same direction as the initial image capturing direction at time (t0), and the virtual image Processing to change the orientation of the. By this processing, a more natural virtual image can be displayed.
- details of the process of the present disclosure for realizing such image display will be described.
- the relative position / angle (ratio) to the camera is set as metadata in each frame constituting the moving image content of the virtual image.
- the metadata is set as data according to distance information of an object to be displayed as a virtual image, for example, an object such as a person.
- a depth map in which the subject distance from the camera is set in units of pixels, for example, can be used.
- the depth map can be generated in advance using processing using data captured by a compound eye camera or the like, or using a device that acquires distance information (depth) separately from the camera. Even when there is no depth map, if the object whose distance is to be measured is a person, the distance can be determined from the size of the face using face detection. Further, the distance information may be set manually by a user or an operator.
- various settings can be made as an aspect of the angle control processing of the person who jumps out of the poster as shown in FIG. 1B, for example.
- it is possible to control settings such as making the angle between the virtual image and the camera constant, such that the person displayed as a virtual image always faces the front after approaching or moving away from the camera over time. It is.
- the device that performs image capturing and display is not limited to a smartphone, and can be realized by various information processing devices such as a PC and glasses-type AR glasses.
- a more natural virtual image Display is possible. Specifically, the display position and the display angle of the virtual image are changed over time, so that a more natural display of the virtual image, that is, the virtual image exists in a base image such as a captured image to be superimposed. Display can be realized.
- the virtual image to be superimposed is, for example, transparency information or mask information such as setting the transparency of a pixel portion other than the person to the maximum and setting the transparency of the person area to 0 when the virtual image is a real human image. It is possible to use image data having ⁇ channel information in units of pixels called “. By superimposing such content having the ⁇ channel on the captured image, only the person area included in the virtual image is superimposed on the captured image of the client, and the captured image is displayed as it is in the image area other than the person.
- FIG. 1B a virtual image moving image content generation processing sequence for displaying the virtual image 31 shown in FIG. 1B will be described with reference to the flow shown in FIG. Note that this moving image content generation processing may be executed by an information processing apparatus such as a smartphone, or may be executed by another information processing apparatus such as a PC.
- the processing shown in the flow is executed under the control of a data processing unit, that is, a data processing unit including a CPU having a program execution function, according to a program stored in the storage unit of the information processing apparatus.
- a data processing unit that is, a data processing unit including a CPU having a program execution function
- Step S101 First, the data processing unit of the information processing apparatus inputs mode setting information by the user via the input unit, and determines what kind of effect the “popping out effect” is to be made.
- mode setting information For example, there are the following two types of setting modes.
- Simple mode The simple mode is a mode in which the angle / position formed by the virtual image to be superimposed and displayed by the camera is simply determined according to the distance between the virtual image and the camera (information processing apparatus).
- Constant mode In the constant mode, after a virtual image is popped out from a poster or the like that is a shooting object of a base image that is a captured image, a process of setting the angle made with the camera to be constant, for example, setting to the front direction. This is the mode to perform.
- these modes may be set to the two-way mode, but a mode from the simple mode to the constant mode may be set.
- the speed at which the angle formed with the camera is changed may be input by the user as a parameter via the input unit, and the data processing unit may perform control according to the input parameter.
- step S102 an image capturing unit (camera) of the information processing apparatus is applied to perform camera image acquisition processing.
- This is a process of acquiring a captured image made up of, for example, a person displayed as a virtual image. For example, a person is photographed in a studio with a green back facility.
- Step S103 a distance to an object such as a person as a subject to be displayed as a virtual image is calculated.
- Various methods can be applied as a method for acquiring subject distance information. Specifically, for example, the following method can be applied.
- a depth map is generated by acquiring a distance by using a compound eye camera in a stereo vision manner or using a near infrared camera together like Kinect. Using the generated depth map, the distance is the average of the depths in the object region after clipping after image processing.
- the distance is estimated from the size using face detection or human body detection.
- C Estimating the distance from the size of the area of the object after clipping after image processing.
- Step S104 the information processing apparatus sets an object to be displayed as a virtual image, for example, the relative position and angle of a person as metadata (attribute information) corresponding to each frame constituting the virtual image moving image content.
- the metadata setting process is different depending on the mode described above. That is, the “simple mode” and the “constant mode” are different processes.
- the metadata setting processing algorithm corresponding to each mode will be described below.
- the simple mode is a mode in which the angle / position formed by the virtual image to be superimposed and displayed on the camera is simply determined according to the distance between the virtual image and the camera (information processing apparatus).
- each variable is defined as follows.
- Distance at start of operation Dstart Distance at processing time: Dproc
- the distance Dstart at the operation start point corresponds to the distance from the camera to the poster in the example of FIG.
- Distance at processing time: Dproc is an example of FIG. 1B, and time (t0 to t4) This corresponds to the distance of the virtual image from each camera.
- the shortest distance Dmin in the moving image sequence corresponds to the distance from the camera at time (t4) to the virtual image in the example of FIG.
- Relative position parameter: Rpos 0 to 1
- the relative position parameter: Rpos and the relative angle parameter: Rrot are parameters that continuously change from 0 to 1 from the operation start point to the shortest distance.
- the virtual image display process to which these parameters are applied will be described later.
- a process of superimposing and displaying the same virtual image as the person of the poster is executed as shown at time (t0) in FIG. That is, the position and angle of the virtual object are set to be the same as the poster of the captured image.
- a process is performed in which the virtual image is set as the closest position to the camera set in advance and the front-facing virtual image is displayed. The virtual image display process to which these parameters are applied will be described later.
- the parameter setting algorithm described above sets the angle between the virtual image object and the camera to zero, on condition that the virtual image object has reached a predetermined distance (Dlim) before reaching the shortest position (Dmin).
- Dlim predetermined distance
- Dmin shortest position
- the relative position parameter: Rpos may be set similarly to the simple mode. With the above algorithm, it is possible to display a virtual image such that “the angle made with the camera is always zero once it has popped out”.
- step S105 the information processing apparatus performs moving image content generation processing for a picture-like image. Specifically, a process of generating an image in which only an object to be superimposed and displayed, for example, a person is cut out, is performed.
- the virtual image is a real human image
- the alpha channel in pixel units called transparency information or mask information, such as maximizing the transparency of pixel portions other than the person and setting the transparency of the human area to 0
- the captured image is displayed as it is in the image area other than the person.
- Step S106 the information processing apparatus records the metadata generated in step S104 and the image data generated in step S105 in association with each other. For example, a recording process is performed on a medium such as a hard disk or a flash memory.
- step S107 end determination is performed. If there is a next frame in the moving image sequence being processed, the process returns to step S102 to process the next frame. When all the processes are completed, the process ends.
- the processing shown in the flow is executed under the control of a data processing unit, that is, a data processing unit including a CPU having a program execution function, according to a program stored in the storage unit of the information processing apparatus.
- a data processing unit that is, a data processing unit including a CPU having a program execution function
- Step S201 the data processing unit of the information processing device performs image shooting with an imaging unit (camera) of the information processing device, and acquires a shot image. For example, it is an image like time (t0) shown in FIG.
- step S ⁇ b> 202 the information processing apparatus determines whether information acquisition for calculating camera position / angle information necessary in the subsequent stage is successful.
- the information for calculating the position / angle information of the camera is, for example, a marker included in the captured image.
- the marker is, for example, a two-dimensional barcode such as a cyber code printed on the poster 11 shown in FIG. If such a marker is recognized, the position and angle of the camera can be calculated from the angle of the marker reflected in the camera image.
- the information for calculating the position / angle information of the camera is not limited to a marker such as a siper code, but may be an object such as a poster or a CD jacket.
- a marker such as a siper code
- an object such as a poster or a CD jacket.
- application information can be set in various ways.
- position identification processing is performed by applying SLAM (Simultaneous Localization And Mapping) technology that recognizes the three-dimensional position of a camera by extracting and tracking feature points from an image captured by the camera of the information processing apparatus. It is good also as a structure.
- SLAM Simultaneous Localization And Mapping
- the processing using SLAM is described in, for example, Japanese Patent Application Laid-Open No. 2011-43419 of the same applicant as the present applicant.
- sensor information attached to the information processing apparatus may be applied as information for calculating camera position / angle information.
- step S202 it is determined whether or not acquisition of the position / angle information of the camera executed by the information processing apparatus has succeeded. If the information cannot be obtained, it is determined that the subsequent AR image generation process is impossible, and the process ends. If information is obtained, the process proceeds to step S203.
- step S203 the information processing apparatus calculates the current position and orientation of the information processing apparatus (camera) by applying the information obtained in step S202.
- Step S204 the information processing apparatus executes a decoding process of the virtual image content scheduled to be superimposed and displayed.
- step S205 the information processing apparatus uses the camera position / angle information obtained in step S203 and parameters set as metadata corresponding to each image frame of the virtual image content. A process of generating a virtual image to be displayed on the display unit is performed.
- the parameters set as the metadata of each frame of the virtual image content are the following parameters described above with reference to the flow of FIG.
- Relative position parameter Rpos
- Relative angle parameter Rrot
- a virtual image having a position and an angle attached to the marker of the captured image is superimposed.
- the virtual image is superimposed and displayed at the same position and angle as the person of the poster 11 at time (t0) in FIG.
- a front-facing virtual image is superimposed at the position closest to the information processing apparatus side. For example, an image corresponding to the virtual image 31 shown at time (t3) in FIG.
- the virtual image content is moving image content, and the following parameters are individually set in each frame constituting the moving image content.
- Relative position parameter: Rpos 0 to 1
- Relative angle parameter: Rrot 0-1
- the information processing apparatus acquires the above two parameters corresponding to the frame for each image frame of the virtual image content, and calculates the display position and the display angle of the virtual image of each image frame. Further, an image conversion process using these parameters is performed on the virtual image of each image frame to generate a converted virtual image having a display position and a display angle corresponding to each image frame. The converted virtual image generated by this conversion process is superimposed and displayed.
- This image conversion processing includes, for example, the following processing for each image frame of the virtual image content.
- the information processing apparatus executes the processes (a) to (c) for each image frame of the virtual image content, the processing parameters corresponding to the processes (a) to (c) corresponding to the image frames are performed. Is calculated.
- This processing parameter is calculated by the following procedure.
- First, the following two model view matrices are acquired.
- (A) Initial state model view matrix (Mmarker) A virtual image that is the initial state of the virtual image content, for example, a model view matrix of a virtual image at the same position and angle as the person of the poster 11 at time (t0) shown in FIG. 1B: Mmarker,
- (B) Final state model view matrix (Mdisplay) A virtual image that is the final state of the virtual image content, for example, a virtual image that is closest to the information processing device (camera) at time (t3) shown in FIG. 1B and is front-facing and normalized to the display Model view matrix of virtual image: Mdisplay, These are acquired from the storage unit or generated based on each image.
- the model view matrix is a matrix that represents the position and orientation of a model (a virtual image corresponding to a person in the example shown in FIG. 1), and is a conversion matrix that converts the three-dimensional coordinates of the reference coordinate system into a camera coordinate system. .
- these model view matrices may be calculated at the time of content generation with reference to FIG. 2 and stored in the storage unit of the information processing apparatus.
- Each model view matrix may be stored in the process of step S205 in the flow shown in FIG. You may calculate from an image.
- the information processing apparatus has these pieces of offset information, that is, (1) Rotation angle offset: Rrot ⁇ ⁇ rot, (2) Scale offset: Rpos ⁇ Vscale, (3) Moving component offset: Rpos ⁇ Vtranslate,
- Image conversion of each image is executed to generate a converted virtual image to be superimposed and displayed.
- the moving image content of the virtual image to be converted is, for example, moving image content obtained by photographing a poster person from an oblique direction as shown in the initial image at time (t0) in the example of FIG. Is available.
- the setting example of the rotation angle offset: Rrot ⁇ ⁇ rot shown in FIG. 4 is an example in which the relative angle parameter: Rrot set for each virtual image frame is linearly changed according to the display time of the image frame.
- the rotation angle offset Rrot ⁇ ⁇ rot is gradually increased according to the progress of the image. It may be set to decrease or increase.
- Rpos ⁇ Vscale and moving component offsets Rpos ⁇ Vtranslate.
- step S206 the information processing apparatus superimposes the virtual image content generated in step S205 on the camera captured image being displayed on the display unit of the information processing apparatus.
- step S207 the information processing apparatus outputs an AR image in which the virtual image is superimposed on the captured image as the final result on the display unit (display) of the information processing apparatus.
- step S208 it is determined whether or not an end condition set in advance, for example, an end condition such as the end of the image photographing process or the end of the application has occurred. If the end condition has occurred, no processing is ended. If the end condition does not occur, the process returns to step S201 and the same process is repeated.
- the virtual image in which the display position and the display angle are sequentially changed is superimposed and displayed on the captured image being displayed on the display unit of the information processing apparatus. Will be.
- FIG. 7 shows a configuration example of an information processing apparatus that performs the above-described processing.
- the information processing apparatus stores a content generation unit 120 that executes the content generation process described with reference to the flowchart of FIG. 2 and content and metadata generated in the content generation process described with reference to FIG. Unit 140, and further, a content display control unit 160 that executes the content display process described with reference to the flowchart of FIG.
- the content generation unit 120 executes the content generation process described with reference to FIG. The processing executed by each component shown in the content generation unit 120 will be described in association with the processing of each step in the flow of FIG.
- the imaging unit (camera) 121 of the content generation unit 120 executes the camera image acquisition process in step S102 of the flow illustrated in FIG.
- the distance estimation unit 122 executes subject distance calculation processing in step S103 of the flow of FIG.
- these parameters are parameters according to the mode. That is, Simple mode, Constant mode, Parameters are set according to these motes. These modes are set according to user input via the input unit 123.
- Relative position parameter: Rpos 0 to 1
- Relative angle parameter: Rrot 0-1
- the image processing unit 125 stores the content acquired by the imaging unit (camera) 121, that is, the moving image content of the virtual image in the moving image content database 141.
- the moving image content database 141 and the metadata storage unit 142 are individually shown in the storage unit 140, but the image and the metadata may be stored in one database. In either case, the metadata is recorded in association with each image frame.
- the imaging unit (camera) 161 of the content display control unit 160 executes the camera image acquisition process in step S201 of the flow shown in FIG.
- the captured image is output to the display unit 167 and displayed.
- the image recognition unit 162 and the recognition determination unit 163 execute the process of step S202 in the flow of FIG. 3, that is, the camera position / posture calculation information acquisition process and the acquisition possibility determination process. Specifically, for example, a marker recognition process set on a subject such as a poster shown in FIG. 1 is executed.
- the superimposed virtual image generation unit 165 generates a virtual image to be displayed on the display unit 167, that is, the process of step S205 of the flow shown in FIG.
- the data acquisition unit 164 acquires douger content stored in the moving image content database 141, further acquires metadata stored in the metadata storage unit 142, and outputs the metadata to the superimposed virtual image generation unit 165.
- the data acquisition unit 164 decodes and outputs the decoded content to the superimposed virtual image generation unit 165.
- the superimposed virtual image generation unit 165 inputs the virtual image moving image content and metadata corresponding to each frame via the data acquisition unit 164. Further, the superimposed virtual image generation unit 165 acquires camera position / posture information from the recognition determination unit 163.
- the moving image superimposing unit 166 outputs the AR image in which the process of steps S206 to S207 in the flow of FIG. 3, that is, the virtual image is superimposed on the camera captured image being displayed on the display unit 167.
- FIG. 7 is a diagram illustrating the main configuration of the information processing apparatus, and the information processing apparatus controls the processing described with reference to FIGS. 2 and 3 in addition to the configuration illustrated in FIG.
- a control unit having a CPU and the like, a storage unit storing a program executed in the control unit, and the like are included.
- the virtual image is displayed superimposed on the captured image being displayed on the display unit of the client.
- FIG. 8A is a diagram illustrating a setting example of the restriction of the left and right angle of the camera with respect to the subject.
- FIG. 8B is a diagram illustrating a setting example of the limitation on the vertical angle of the camera with respect to the subject and the limitation on the distance between the subject and the camera.
- the data of the constraint information for the up / down / left / right angles and distance is linked to each moving image. Alternatively, it may be associated with each frame in each moving image.
- each video content has a definition like “viewing angle”.
- the setting of the allowable range of angle / distance depends on the content. For example, it is unnatural for a person to jump upward, but it is natural for a bird. When shooting a bird as a virtual object to be superimposed and displayed, the restriction in the vertical direction may be relaxed.
- a table of allowable angles and allowable distances according to content types is stored in the storage unit of the information processing device, and the content creator selects the type of content to be photographed as necessary, and confirms the allowable angle and distance. It is desirable to shoot.
- the information processing apparatus displays information on whether or not the current captured image is within the allowable range on the display unit that displays the captured image. Is displayed, and instruction icons, explanations, and the like for prompting photographing of images within the allowable range are displayed.
- FIG. 9 shows a display example of instruction icons and explanations.
- FIGS. 9A1 to 9A3 show display examples of captured images and icons when the allowable maximum distance (Xmax) between the camera and the subject is set to 5 m.
- (A1) to (a3) show the following states.
- (A1) The subject distance (Xactual) of the photographed image is 10 m, and an instruction icon and instruction information for bringing the camera closer to the subject are displayed.
- (A2) The subject distance (Xactual) of the captured image is 7 m, and an instruction icon and instruction information for bringing the camera closer to the subject are displayed.
- A3 Since the subject distance (Xactual) of the photographed image is 5 m and matches the allowable maximum distance (Xmax), the display of the instruction icon and the instruction information has disappeared.
- FIGS. 9B1 to 9B3 show display examples of captured images and icons when the allowable maximum angle ( ⁇ max) between the camera and the subject is set to 15 degrees.
- (B1) to (b3) show the following states.
- (B1) The vertical angle ( ⁇ actual) of the camera with respect to the subject of the captured image is 45 degrees, and the instruction icon and the instruction information are displayed so that the vertical angle of the camera is directed more vertically.
- (B2) The vertical angle ( ⁇ actual) of the camera with respect to the subject of the captured image is 25 degrees, and the instruction icon and the instruction information are displayed so that the vertical angle of the camera is directed more vertically.
- the instruction information is displayed, so that the user can capture content within an allowable range.
- FIG. 10A is a display example of a virtual object when the mask processing of this embodiment is not applied.
- the subject image is cut linearly and looks unnatural.
- FIG. 10B is a display example of a virtual object when the mask processing of the present embodiment is applied.
- Mask application processing for blurring the edge region 322 at the lower end of the virtual image (person) 321 displayed in the captured image is performed, and unnaturalness is eliminated.
- FIG. 11 shows a flow for explaining the processing sequence of the adaptive masking processing of this embodiment.
- the process shown in this flow is executed in the “virtual image superimposition process” in step S206 in the flow described with reference to FIG.
- step S301 the information processing apparatus performs virtual image content frame edge determination. It is determined whether the virtual image object is within the angle of view of the content in the processing frame of the virtual image content to be drawn. Specifically, it is examined whether alpha value 1 in each of the outer one line in the upper, lower, left, and right sides of the virtual image content to be superimposed continues continuously for n pixels or more. n is an arbitrary threshold value. It is determined whether the end of the object is not completely visible for each of the upper, lower, left and right lines. Note that this processing may be performed in advance on the generation side and received by receiving metadata.
- step S302 camera-captured image edge non-collision determination processing is performed.
- step SZ301 when the object end of the processing frame of the virtual image is completely overlooked, it is determined whether or not the overlooked portion is actually seen at the position where the content is superimposed on the camera image. There is no problem as long as the part of the original moving image source that has been overlooked is completely visible even when it is superimposed, but if the edge of the part is visible when it is overlaid, there is a sense of incongruity. That is, an unnatural linear edge as shown in FIG. In such a case, the process proceeds to step S303.
- Step S303 image processing of the edge of the virtual image content is performed.
- step S302 when it is determined that the part that has been overlooked in the camera-captured image is reflected, processing such as adaptively blurring only the end in the direction is performed. That is, the edge area blurring process as shown in FIG.
- Step S304 Finally, the final result, that is, a virtual image in which the edge of the virtual image in the boundary region between the virtual image and the captured image is blurred as shown in FIG.
- FIG. 12 shows a configuration example of an information processing apparatus that performs adaptive masking processing according to the flow shown in FIG.
- the information processing apparatus shown in FIG. 12 is different only in that an adaptive mask processing unit 171 is added to the content display control unit 160 of the information processing apparatus described above with reference to FIG.
- the adaptive mask processing unit 171 executes the processing described with reference to FIG.
- Other configurations are the same as those described with reference to FIG.
- object cutout processing is performed at the time of content generation, each is handled as separate content, and a plurality of content is handled without failure by combining at the time of superimposition.
- the process is performed as a total of three objects.
- FIG. 13 shows a configuration example of an information processing apparatus that performs the processing of this embodiment.
- the information processing apparatus shown in FIG. 13 is different only in that an object cutout unit 181 is added to the content generation unit 120 of the information processing apparatus described above with reference to FIG.
- the object cutout unit 181 performs cutout processing of each virtual object when there are a plurality of virtual objects in the image to be captured when the virtual image content is generated.
- individual metadata that is, the relative position parameter Rpos and the relative angle parameter Rrot described above are calculated separately, set as individual metadata, and stored in the storage unit.
- the superimposed image generation unit 165 executes individual superimposed virtual image generation processing in which each parameter is applied to each object to generate the generated virtual image. Is superimposed.
- Other configurations are the same as those described with reference to FIG.
- an information processing apparatus such as a smartphone can be configured to execute only photographing processing with a camera and to provide a virtual image that is superimposed and displayed by a server.
- the server executes the processing described above with reference to FIG. 2, and provides the virtual moving image content whose display position and display angle are controlled according to the moving image sequence to the information processing apparatus (client).
- the information processing apparatus (client) displays the virtual image content received from the server by superimposing it on the captured image.
- the information processing apparatus (client) sends information for specifying the virtual image content to be provided to the server, for example, information such as a marker set on the poster 11 shown in FIG. provide.
- the processing load on the information processing apparatus (client) can be reduced.
- the technology disclosed in this specification can take the following configurations.
- an acquisition unit that acquires a captured image captured by the imaging unit;
- a data processing unit that superimposes a virtual image generated by transforming the input image on the captured image and displays the virtual image on a display unit;
- the data processing unit Displaying the virtual image generated by changing either the relative position or the relative angle between the imaging unit and the input image that are virtually set in time series on the display unit;
- Information processing device
- the data processing unit executes an image conversion process to which metadata set in association with each frame of the moving image content of the virtual image is applied, and at least one of the display position and the display angle is time-sequentially.
- the information processing apparatus according to (1), wherein the changed virtual image is generated.
- Information processing device is configured to generate a virtual image in which at least one of the display position and the display angle is changed in time series and superimposed on the captured image.
- the data processing unit calculates a conversion parameter for converting the model view matrix Mmarker corresponding to the initial image of the virtual image into a model view matrix Mdisplay corresponding to the final image of the virtual image, and the calculated conversion parameter
- the metadata is set corresponding to each virtual image frame.
- the relative position parameter Rpos or the relative angle parameter Rrot is multiplied to calculate offset information to be applied to the conversion process of each virtual image frame, and the virtual image frame conversion process to which the calculated offset information is applied is executed.
- the information processing apparatus according to (3) wherein a moving image of a virtual image in which at least one of the display position and the display angle is changed in time series is generated.
- Each of the relative position parameter Rpos and the relative angle parameter Rrot is a value that sequentially changes in the range of 0 to 1 in each moving image frame from the initial image to the final image of the virtual image ( The information processing apparatus according to 4).
- the data processing unit executes generation processing of the virtual image moving image content, and for the virtual image moving image content generation processing, for the configuration frame of the virtual image moving image content, Relative position parameter Rpos applied to determine the display position of the virtual image, Relative angle parameter Rrot applied to determine the display angle of the virtual image,
- the information processing apparatus according to any one of (1) to (6), wherein the information processing apparatus calculates the parameters and executes a process of storing the calculated parameters in the storage unit as metadata corresponding to an image frame.
- the data processing unit sets each value of the relative position parameter Rpos and the relative angle parameter Rrot within a range of 0 to 1 according to the subject distance of the virtual image in each moving image frame of the image moving image content.
- the information processing apparatus according to (7) which is set.
- the data processing unit sets a value that sequentially changes in a range of 0 to 1 for each moving image frame from the initial image to the final image of the virtual image, the relative position parameter Rpos, and the relative angle.
- the information processing apparatus according to (7) or (8) which is set as a value of the parameter Rrot.
- the data processing unit sets the values of the relative position parameter Rpos and the relative angle parameter Rrot for each moving image frame constituting the virtual image in a different manner according to mode setting.
- (11) In the generation processing of the virtual image moving image content, the data processing unit outputs restriction information indicating a preset allowable range angle and distance to the display unit, and is within the allowable range angle and distance.
- the information processing apparatus according to any one of (7) to (9), wherein virtual image moving image content including a virtual object is generated.
- an imaging unit that performs image capture;
- a data processing unit that generates virtual image moving image content based on a captured image of the imaging unit;
- the data processing unit In the virtual image moving image content generation process, for the configuration frame of the virtual image moving image content, Relative position parameter Rpos applied to determine the display position of the virtual image, Relative angle parameter Rrot applied to determine the display angle of the virtual image,
- An information processing apparatus that executes processing for calculating each of the parameters and storing the calculated parameter in a storage unit as metadata corresponding to an image frame.
- the data processing unit sets each value of the relative position parameter Rpos and the relative angle parameter Rrot within a range of 0 to 1 according to the subject distance of the virtual image in each moving image frame of the image moving image content.
- the information processing device according to (12) to be set.
- an imaging unit that performs image capture;
- a display unit for displaying a captured image of the imaging unit;
- a data processing unit that superimposes and displays a virtual image on the captured image displayed on the display unit;
- the data processing unit An information processing apparatus that acquires, from a server, a moving image of a virtual image in which at least one of a display position and a display angle is changed in time series, and displays the acquired virtual image in a superimposed manner on the captured image.
- the configuration of the present disclosure includes a method of processing executed in the above-described apparatus and system and a program for executing the processing.
- the series of processing described in the specification can be executed by hardware, software, or a combined configuration of both.
- the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
- the program can be recorded in advance on a recording medium.
- the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
- the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
- the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
- a configuration is realized in which a virtual image whose display position and angle are changed with time is superimposed and displayed on a camera-captured image displayed on the display unit.
- an imaging unit a display unit that displays a captured image of the imaging unit, and a data processing unit that displays a virtual image superimposed on the captured image displayed on the display unit.
- the data processing unit superimposes and displays the moving image of the virtual image in which the display position and the display angle are changed in time series on the captured image.
- the data processing unit uses, as frame-corresponding metadata of the virtual image content, a relative position parameter Rpos applied to the determination of the display position of the virtual image, a relative angle parameter Rrot applied to the determination of the display angle of the virtual image, and each of these parameters And applying the acquisition parameter to generate a virtual image in which the display position or the display angle is changed in time series and display the virtual image.
- a configuration is realized in which a virtual image whose display position and angle are changed with time is superimposed and displayed on the camera-captured image.
Abstract
Description
特に、近年、通信機能に加えカメラ機能とディスプレイを備えたスマートフォンなどの携帯端末が普及し、これらのスマートフォンにおいて拡張現実(AR)画像を適用したアプリケーションが多く利用されている。
例えばスマートフォン等の携帯端末のカメラ機能を用いて人物のポスターを撮影し、スマートフォンの表示部に表示する。
スマートフォンのデータ処理部は、撮影されたポスター、あるいはポスターに設定されたマーカを識別し、ポスターに移っている人物に対応する画像データを記憶部、あるいは外部のサーバから取得する。
さらに、取得した画像を撮影画像に重畳表示する。このような処理によってポスターから人物が飛び出してくるような画像を表示、観察することができる。
なお、AR画像の生成、表示処理について開示した従来技術として、例えば特許文献1(特開2012-58838号公報)がある。
撮像部で撮像される撮像画像を取得する取得部と、
前記撮像画像に、入力画像を変形することで生成される仮想画像を重畳して表示部に表示させるデータ処理部とを有し、
前記データ処理部は、
仮想的に設定される前記撮像部と入力画像との相対位置、または相対角度のいずれかを時系列に変化させることで生成される前記仮想画像を前記表示部に表示させる、
情報処理装置にある。
仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
これらの各パラメータを取得し、取得パラメータを適用して、少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像を生成して前記撮影画像上に重畳表示する。
仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
上記各パラメータを算出し、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行する。
画像撮影を実行する撮像部と、
前記撮像部の撮影画像に基づいて仮想画像動画コンテンツを生成するデータ処理部を有し、
前記データ処理部は、
仮想画像動画コンテンツ生成処理に際して、仮想画像動画コンテンツの構成フレームに対して、
仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
上記各パラメータを算出し、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行する情報処理装置にある。
画像撮影を実行する撮像部と、
前記撮像部の撮影画像を表示する表示部と、
前記表示部に表示された撮影画像上に仮想画像を重畳表示するデータ処理部を有し、
前記データ処理部は、
少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像の動画をサーバから取得し、取得した仮想画像を前記撮影画像上に重畳表示する情報処理装置にある。
情報処理装置において実行する情報処理方法であり、
前記情報処理装置は、撮像部で撮像される撮像画像を取得する取得部と、入力画像を変形することで生成される仮想画像を重畳して表示部に表示させるデータ処理部を有し、
前記データ処理部は、
仮想的に設定される前記撮像部と入力画像との相対位置、または相対角度のいずれかを時系列に変化させることで生成される前記仮想画像を前記表示部に表示させる情報処理方法にある。
情報処理装置において実行する情報処理方法であり、
前記情報処理装置は、画像撮影を実行する撮像部と、前記撮像部の撮影画像に基づいて仮想画像動画コンテンツを生成するデータ処理部を有し、
前記データ処理部は、
仮想画像動画コンテンツ生成処理に際して、仮想画像動画コンテンツの構成フレームに対して、
仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
上記各パラメータを算出し、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行する情報処理方法にある。
情報処理装置において情報処理を実行させるプログラムであり、
前記情報処理装置は、撮像部で撮像される撮像画像を取得する取得部と、
前記撮像画像に、入力画像を変形することで生成される仮想画像を重畳して表示部に表示させるデータ処理部とを有し、
前記プログラムは、前記データ処理部に、
仮想的に設定される前記撮像部と入力画像との相対位置、または相対角度のいずれかを時系列に変化させることで生成される前記仮想画像を前記表示部に表示させるプログラムにある。
情報処理装置において情報処理を実行させるプログラムであり、
前記情報処理装置は、画像撮影を実行する撮像部と、前記撮像部の撮影画像に基づいて仮想画像動画コンテンツを生成するデータ処理部を有し、
前記プログラムは、前記データ処理部に、
仮想画像動画コンテンツ生成処理に際して、仮想画像動画コンテンツの構成フレームに対して、
仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
上記各パラメータを算出させ、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行させるプログラムにある。
具体的には、撮像部と、撮像部の撮影画像を表示する表示部と、表示部に表示された撮影画像上に仮想画像を重畳表示するデータ処理部を有する。データ処理部は、表示位置、表示角度を時系列に変更した仮想画像の動画を撮影画像上に重畳表示する。データ処理部は、仮想画像コンテンツのフレーム対応メタデータとして、仮想画像の表示位置の決定に適用する相対位置パラメータRposと、仮想画像の表示角度の決定に適用する相対角度パラメータRrot、これらの各パラメータを取得し、取得パラメータを適用して、表示位置または表示角度を時系列に変更した仮想画像を生成して重畳表示する。
これらの構成により、カメラ撮影画像に、時間とともに表示位置や角度を変更した仮想画像を重畳表示する構成が実現される。
1.本開示の処理の概要について
2.本開示の第1実施例について
2-1.仮想画像動画コンテンツの生成処理について
2-2.仮想画像動画コンテンツを撮影画像に重畳表示する処理について
3.情報処理装置の構成例について
4.変形実施例について
4-1.仮想画像コンテンツ生成時の被写体の位置に関する制約を設定した実施例について
4-2.仮想画像表示処理時の画像エッジの加工処理を行なう実施例について
4-3.複数の仮想画像に対する処理を行なう実施例について
4-4.処理の一部をネットワーク接続したサーバで実行する処理例について
5.本開示の構成のまとめ
まず、図1を参照して、本開示の処理の概要について説明する。
図1は、以下の2つのAR画像の表示処理例を示している。
(A)角度制御なしの仮想画像表示処理
(B)角度制御ありの仮想画像表示処理
(A),(B)いずれも撮影画像ではない仮想画像を、撮影画像に重畳表示している。
しかし、図1(A)に示す時間(t3),(t4)等の仮想画像21は、カメラに近づいているにも関わらず、人物は斜め方向から見た画像のままであり、ユーザに近づくにつれて不自然な画像であると認識され、明らかに撮影画像と別の貼り付け画像であると認識されることになる。これは、時間(t0)の初期画像の撮影方向と同様の方向から撮影した画像をそのまま適用することに起因する。
図1(B)に示す例では、図1(A)と異なり、仮想画像31は、時間の経過(t1→t4)とともに、斜め向きから正面向きに表示角度が変更されている。
このように仮想画像の角度の制御を行なうことで、ポスターから飛び出した人物が、より自然にユーザ側に近づいてくる画像を提供することが可能となる。
図1(B)に示す例では、時間(t0)の初期画像の撮影方向と同様の方向から撮影した画像に対して、例えば仮想画像の距離に応じた角度制御等を実行して、仮想画像の向きなどを変更する処理を行なっている。この処理によってより自然な仮想画像の表示が可能となる。
以下、このような画像表示を実現する本開示の処理の詳細について説明する。
メタデータは仮想画像として表示するオブジェクト、例えば人物などのオブジェクトの距離情報に応じたデータとして設定する。
なお、距離情報は、例えばカメラからの被写体距離を例えば画素単位で設定したデプスマップが利用可能である。デプスマップは、複眼カメラなどで撮影したデータを用いた処理、あるいはカメラと別に距離情報(デプス)を取得するデバイスを用いて、事前に生成可能である。
なお、デプスマップがない場合も、距離測定対象となるオブジェクトが人物であれば顔検出を用いて顔の大きさから距離を判定することが可能である。
また、ユーザやオペレータが手動で距離情報を設定してもよい。
例えば、仮想画像として表示した人物が時間経過に伴い、カメラに近づいた後、あるいは遠ざかったあとは、常に正面向きとするなど、仮想画像とカメラとの角度を一定にする設定等の制御が可能である。
具体的には、仮想画像の表示位置や表示角度を時間経過とともに変更して、より自然な仮想画像の表示、すなわち、仮想画像が重畳対象となる撮影画像等のベース画像中に存在するような表示を実現することが可能となる。
本開示の第1実施例について説明する。
図1(B)を参照して説明したようなカメラ撮影画像に対して、仮想画像を重畳表示する処理を実現するための処理として、以下の2つの処理が必要となる。
(a)仮想画像動画コンテンツの生成処理、
(b)上記(a)の処理において生成した仮想画像動画コンテンツを撮影画像に重畳表示する処理、
以下、これらの各処理について、順次、説明する。
まず、図1(B)に示す仮想画像31を表示するための仮想画像動画コンテンツの生成処理シーケンスについて図2に示すフローを参照して説明する。
なお、この動画コンテンツの生成処理は、例えばスマートフォン等の情報処理装置において実行してもよいし、その他のPC等の情報処理装置において実行してもよい。
以下、各ステップの処理の詳細について、順次、説明する。
まず、情報処理装置のデータ処理部は、入力部を介するユーザによるモード設定情報を入力し、「飛び出す効果」をどのような演出にするかを決定する。設定モードは例えば以下の2種類がある。
(1)シンプルモード
シンプルモードは、単純に仮想画像とカメラ(情報処理装置)との距離に応じてカメラ重畳表示する仮想画像のなす角度・位置を決定するモードである。
(2)コンスタントモード
コンスタントモードは、撮影画像であるベース画像の撮影オブジェクトであるポスターなどから仮想画像を飛び出させた後は、カメラとのなす角度を一定にする、例えば正面向きに設定する処理を行なうモードである。
また、カメラとのなす角度を変化させる速度をユーザがパラメータとして入力部を介して入力する構成とし、データ処理部が入力パラメータに応じた制御を行う構成としてもよい。
次に、ステップS102において、情報処理装置の撮像部(カメラ)を適用してカメラ画像取得処理を行なう。これは、仮想画像として表示する例えば人物などからなる撮影画像を取得する処理である。例えばグリーンバックの設備のあるスタジオなどで人物を撮影する。
次に、ステップS103において、仮想画像として表示する被写体である人物等のオブジェクトまでの距離を算出する。
なお、被写体距離情報の取得方法としては、様々な手法が適用可能である。
具体的には、例えば、以下の手法が適用できる。
(ア)複眼カメラを用いてステレオビジョン的、もしくはKinectのように近赤外カメラを併用して距離を取得しデプスマップを生成する。生成したデプスマップを用いて、映像処理をした切り抜き後のオブジェクトの領域におけるデプスの平均を距離とする。
(イ)仮想画像として表示する被写体対象が人物であれば、顔検出や人体検出を用いて大きさから距離を推定する。
(ウ)映像処理をした切り抜き後のオブジェクトの領域面積の大きさから距離を推定する。
次に、情報処理装置は、ステップS104において、仮想画像として表示するオブジェクト、例えば人物の相対位置と角度を、仮想画像動画コンテンツを構成する各フレーム対応のメタデータ(属性情報)として設定する。
なお、このメタデータ設定処理は、前述したモードに応じて異なる処理となる。
すなわち、「シンプルモード」と「コンスタントモード」では異なる処理となる。
以下、各モードに対応するメタデータ設定処理アルゴリズムについて説明する。
シンプルモードは、前述したように単純に仮想画像とカメラ(情報処理装置)との距離に応じてカメラ重畳表示する仮想画像のなす角度・位置を決定するモードである。
動作開始点における距離:Dstart
処理時刻における距離:Dproc
動画シーケンスにおける最短距離:Dmin
とする。
例えば、動作開始点における距離:Dstartは、図1(B)の例では、カメラからポスターまでの距離に相当する。
処理時刻における距離:Dprocは、図1(B)の例で、時刻(t0~t4)
各々のカメラから仮想画像の距離に相当する。
動画シーケンスにおける最短距離:Dminは、図無1(B)の例では、時刻(t4)のカメラから仮想画像の距離に相当する。
としたとき、
相対位置パラメータ:Rposと、相対角度パラメータ:Rrotを、以下のように定義する。
Rpos=(Dstart-Dproc)/(Dstart-Dmin)
Rrot=(Dstart-Dproc)/(Dstart-Dmin)
相対位置パラメータ:Rpos=0~1
相対角度パラメータ:Rrot=0~1
これらの値を取り得る。
処理時刻における距離:Dprocが、動作開始点における距離:Dstartに等しい場合、すなわち、例えば図1(B)の設定の時刻(t0)では、
Rpos=0
Rrot=0
である。
Rpos=1
Rrot=1
である。
これらのパラメータを適用した仮想画像表示処理については後段で説明する。
例えば、
相対位置パラメータ:Rpos=0、
相対角度パラメータ:Rrot=0、
このようなパラメータ設定では、図1(B)の時刻(t0)のように、ポスターの人物と同一の仮想画像を重畳表示する処理を実行する。
すなわち、仮想オブジェクトの位置、角度が、撮影画像のポスターと同一となる設定とする。
相対位置パラメータ:Rpos=1、
相対角度パラメータ:Rrot=1、
このようなパラメータ設定では、図1(B)の時刻(t4)のように、仮想画像を予め既定したカメラへの最近接位置とし、かつ正面向きの仮想画像を表示する処理を実行する。
これらのパラメータを適用した仮想画像表示処理については後段で説明する。
相対位置パラメータ:Rpos=(Dstart-Dproc)/(Dstart-Dmin)
相対角度パラメータ:Rrot=(Dstart-Dproc)/(Dstart-Dmin)
これらのパラメータ定義式は、一例であり、様々な変形が可能である。
相対位置パラメータ:Rpos=(Dstart-Dproc)/(Dstart-Dmin)
If Dproc<Dlim Then
Rrot=1.0
Else
Rrot=(Dstart-Dproc)/(Dstart-Dlim)
Endif
なお、このようなアルゴリズムの設定処理は、例えば、情報処理装置の入力部を介したモード設定やパラメータ入力によって実行可能である。
例えば、動画コンテンツがフレーム0~1000の1000フレームである場合、
相対位置パラメータ:Rpos=0~1、
相対角度パラメータ:Rrot=0~1、
これらのパラメータを仮想画像の動画コンテンツの構成フレームに時系列に順次設定する。
コンスタントモードは、前述したように、撮影画像であるベース画像の撮影オブジェクトであるポスターなどから仮想画像を飛び出させた後は、カメラとのなす角度を一定にする、例えば正面向きに設定する処理を行なうモードである。
上記のシンプルモードで定義した変数、すなわち、
動作開始点における距離:Dstart
処理時刻における距離:Dproc
動画シーケンスにおける最短距離:Dmin
これらの変数に加え、
カメラとのなす角ゼロになる距離閾値Dlimを初めて下回る時刻Tlim、
処理時刻Tproc、
これらの変数を定義する。
If Tproc>=Tlim Then
Rrot=1.0
Else
Rrot=(Dstart-Dproc)/(Dstart-Dlim)
Endif
上記のアルゴリズムで「一旦飛び出したあとはカメラとのなす角が常にゼロになる」ような仮想画像表示が可能になる。
例えば、動画コンテンツがフレーム0~1000の1000フレームである場合、
相対位置パラメータ:Rpos=0~1、
相対角度パラメータ:Rrot=0~1、
これらのパラメータを仮想画像の動画コンテンツの構成フレームに時系列に順次設定する。
情報処理装置は、次にステップS105において、画そう画像の動画コンテンツの生成処理を行なう。
具体的には、重畳表示するオブジェクト、たとえば人物のみを切り出した映像を生成する処理を行なう。
例えば、仮想画像が実写の人物画像である場合、人物以外の画素部分の透過度を最大にし、人物領域の透過度を0に設定するなどの透過度情報あるいはマスク情報と呼ばれる画素単位のαチャンネル情報を持つ画像データを生成する。このようなαチャンネルを持つコンテンツを撮影画像に重畳することで、仮想画像に含まれる人物領域のみがクライアントの撮影画像に重畳され、人物以外の画像領域では撮影画像がそのまま表示される。
情報処理装置は、次に、ステップS104において生成したメタデータと、ステップS105において生成した画像データを対応付けて記録する。例えばハードディスクやフラッシュメモリ、などのメディアに記録する処理を行なう。
最後に、ステップS107において、終了判定を行う。
処理している動画シーケンスに次のフレームがあれば、ステップS102に戻り、次のフレームを処理する。全ての処理が終了した場合、処理を終了する。
次に、図2に示すフローに従って生成した重畳表示用の仮想画像からなる動画コンテンツを表示する処理シーケンスについて図3に示すフローチャートを参照して説明する。
なお、この仮想画像動画コンテンツを撮影画像に重畳表示する処理は、例えばスマートフォン等の撮像部(カメラ)と表示部を備えた情報処理装置において実行される。なお、その他、撮像部(カメラ)と表示部を備えた構成であれは、例えばPCやARグラスなどの様々な装置において実行可能である。
以下、各ステップの処理の詳細について、順次、説明する。
まず、情報処理装置のデータ処理部は、情報処理装置の撮像部(カメラ)で画像撮影を実行し、撮影画像を取得する。
例えば、図1(B)に示す時間(t0)のような画像である。
次に情報処理装置はステップS202において、後段で必要となるカメラの位置・角度情報を算出するための情報取得に成功したか否かを判定する。
カメラの位置・角度情報を算出するための情報とは、例えば、撮影画像に含まれるマーカである。マーカとは、例えば図1に示すポスター11に予め印刷されたサイバーコード(Cyber-Code)などの二次元バーコード等である。このようなマーカを認識すれば、カメラ画像に映るマーカの角度から、カメラの位置や角度を算出することができる。
情報処理装置の実行するカメラの位置・角度算出処理アルゴリズムに応じて、何をカメラの位置・角度情報を算出するための情報として利用するかは異なり、適用情報は様々な設定が可能である。
このように、ステップS202では、情報処理装置の実行するカメラの位置・角度情報の取得に成功したか否かを判定する。
情報が得られない場合は、その後のAR画像生成処理は不可能と判断し、処理を終了する。
情報が得られた場合は、ステップS203に進む。
次に、情報処理装置はステップS203において、ステップS202で得られた情報を適用して情報処理装置(カメラ)の現在の位置および姿勢を算出する。
次に、情報処理装置は、ステップS204において、重畳表示予定の仮想画像コンテンツのデコード処理を実行する。
次に、情報処理装置はステップS205において、ステップS203で求めたカメラの位置・角度情報、および、仮想画像コンテンツの各画像フレーム対応のメタデータとして設定されたパラメータを利用して、情報処理装置の表示部に表示する仮想画像の生成処理を行なう。
相対位置パラメータ:Rpos、
相対角度パラメータ:Rrot、
これらのパラメータである。
Rpos=0、
Rrot=0、
これらの設定である画像の場合は、撮影画像のマーカに張り付けた位置、および角度とした仮想画像を重畳する。
例えば、図1(B)の時間(t0)のポスター11の人物に等しい位置、角度で仮想画像を重畳表示する。
Rpos=1、
Rrot=2、
これらの設定である画像の場合は、情報処理装置側に最も近付いた位置で、かつ正面向きの仮想画像を重畳する。
例えば、図1(B)の時間(t3)に示す仮想画像31に相当する画像を重畳表示する。
相対位置パラメータ:Rpos=0~1、
相対角度パラメータ:Rrot=0~1、
(a)回転処理、
(b)スケール変更処理(拡大、縮小)、
(c)平行移動処理、
まず、以下の2つのモデルビュー行列を取得する。
(A)初期状態モデルビュー行列(Mmarker)
仮想画像コンテンツの初期状態である仮想画像、例えば、図1(B)に示す時間(t0)のポスター11の人物と同じ位置、角度の仮想画像のモデルビュー行列:Mmarker、
(B)最終状態モデルビュー行列(Mdisplay)
仮想画像コンテンツの最終状態である仮想画像、例えば、図1(B)に示す時間(t3)の情報処理装置(カメラ)に最近接し、正面向きの仮想画像であり、ディスプレスに正規化された仮想画像のモデルビュー行列:Mdisplay、
これらを記憶部から取得、または各画像に基づいて生成する。
なお、これらのモデルビュー行列は、図2を参照してコンテンツ生成時に算出して情報処理装置の記憶部に格納しておいてもよいし、この図3に示すフローのステップS205の処理に際して各画像から算出してもよい。
回転軸:Vrot、
回転角度:θrot
スケール:Vscale、
移動成分:Vtranslate、
これらのパラメータを算出する。
相対位置パラメータ:Rpos=0~1、
相対角度パラメータ:Rrot=0~1、
これらのパラメータを用いて、各画像フレームの仮想画像を変換するパラメータとして、以下のオフセット情報を算出する。
(1)回転角度オフセット:Rrot×θrot、
(2)スケールオフセット:Rpos×Vscale、
(3)移動成分オフセット:Rpos×Vtranslate、
図4は、横軸に仮想画像コンテンツの各画像フレームに設定された相対角度パラメータ:Rrot=0~1、縦軸に、各画像に対応して算出される回転角度オフセット:Rrot×θrotを示している。
横軸の相対角度パラメータ:Rrot=0~1は、動画像を構成する各画像フレーム、すなわち第0フレームf(t0)~最終フレームf(tn)の
各画像に設定されたパラメータである。
回転角度オフセット:Rrot×θrot=0となる。
すなわち、この場合、仮想画像コンテンツの第0フレームf(t0)の仮想画像に対して回転処理は実行されずに重畳表示用の画像を生成する。
回転角度オフセット:Rrot×θrot=θrotとなる。
すなわち、この場合、仮想画像コンテンツの第nフレームf(tn)の仮想画像に対して、初期状態モデルビュー行列(Mmarker)を最終状態モデルビュー行列(Mdisplay)に変換するための回転角度:θrotに応じて回転処理を実行して重畳表示用の画像を生成する。
回転角度オフセット:Rrot×θrotは、各画像対応のメタデータとして設定された相対角度パラメータ:Rrot=0~1に応じて、順次0からθrotまで変化することになる。
すなわち、各仮想画像フレームのモデル、例えば図1(B)に示す仮想画像31の人物が順次、少しずつ回転して表示されることになる。
相対位置パラメータ:Rpos、
相対角度パラメータ:Rrot、
これらのパラメータに応じて、スケールオフセット:Rpos×Vscale、移動成分オフセット:Rpos×Vtranslate、これらのオフセット情報を決定する。
(1)回転角度オフセット:Rrot×θrot、
(2)スケールオフセット:Rpos×Vscale、
(3)移動成分オフセット:Rpos×Vtranslate、
これらのオフセット情報を、各画像対応のメタデータとして設定された相対位置パラメータ:Rpos=0~1、相対角度パラメータ:Rrot=0~1を適用して算出し、算出したオフセット情報を適用して各画像の画像変換を実行し、重畳表示する変換仮想画像を生成する。
なお、変換対象とする仮想画像の動画像コンテンツは、例えば、図1(B)の例では、時間(t0)の初期画像に示すような、ポスターの人物を斜め方向から撮影した動画像コンテンツが利用可能である。この斜め方向から撮影した画像を時間経過とともに異なる画像変換を行うことで、図1(B)に示す時間経過とともに正面向きの仮想画像の動画シーケンスを生成することができる。
その他のスケールオフセット:Rpos×Vscale、移動成分オフセット:Rpos×Vtranslateについても同様の処理が可能である。
次に、情報処理装置は、ステップS206において、ステップS205において生成した仮想画像コンテンツを、情報処理装置の表示部に表示中のカメラ撮影画像に重畳する。
次に、情報処理装置はステップS207において、情報処理装置の表示部(ディスプレイ)に最終結果としての撮影画像に仮想画像を重畳したAR画像を出力する。
(ステップS208)
ステップS208において、予め設定した終了条件、例えば画像撮影処理の終了、あるいはアプリケーションの終了などの終了条件が発生したか否かを判定し、終了条件が発生した場合は無処理を終了する。終了条件が発生しない場合は、ステップS201に戻り、同様の処理を繰り返す。
図7に、上述した処理を実行する情報処理装置の構成例を示す。
情報処理装置は、図2のフローチャートを参照して説明したコンテンツ生成処理を実行するコンテンツ生成部120と、例えば図2を参照して説明したコンテンツ生成処理において生成したコンテンツおよびメタデータを記憶する記憶部140、さらに、図3のフローチャートを参照して説明したコンテンツ表示処理を実行するコンテンツ表示制御部160を有する。
コンテンツ生成部120に示す各構成の実行する処理について、図2のフローの各ステップの処理と対応付けて説明する。
距離推定部122が、図2のフローのステップS103の被写体距離の算出処理を実行する。
相対位置・角度算出部124は、図2のフローのステップS104の処理、すなわち、仮想画像として表示する動画像構成フレーム対応のメタデータを各画像に設定する。すなわち、
相対位置パラメータ:Rpos=0~1
相対角度パラメータ:Rrot=0~1
これらの各パラメータを画像対応のメタデータとして設定する。
シンプルモード、
コンスタントモード、
これらのモートに応じてパラメータが設定される。
これらのモードは、入力部123を介したユーザ入力に従って設定される。
相対位置パラメータ:Rpos=0~1
相対角度パラメータ:Rrot=0~1
これらのパラメータは、各画像対応のメタデータとして、各画像に対応付けて記憶部140のメタデータ記憶部142に格納される。
コンテンツ表示制御部160に示す各構成の実行する処理について、図3のフローの各ステップの処理と対応付けて説明する。
撮影画像は、表示部167に出力され、表示される。
画像認識部162、認識判定部163は、図3のフローのステップS202の処理、すなわち、カメラ位置・姿勢算出情報の取得処理と取得可否の判定処理を実行する。具体的には、例えば図1に示すポスターなどの被写体に設定されたマーカの認識処理を実行する。
データ取得部164は、動画コンテンツデータベース141に格納されたドウガコンテンツを取得し、さらに、メタデータ記憶部142に格納されたメタデータを取得して重畳仮想画像生成部165に出力する。
なお、コンテンツが符号化されて記録されている場合、データ取得部164はデコードして重畳仮想画像生成部165に出力する。
さらに、重畳仮想画像生成部165は、認識判定部163から、カメラ位置・姿勢情報を取得する。
すなわち、各画像フレームに対応して設定されたメタデータ、すなわち、
相対位置パラメータ:Rpos=0~1、
相対角度パラメータ:Rrot=0~1、
これらのパラメータを用いて、各画像フレームの仮想画像を変換するパラメータとして、以下のオフセット情報を算出する。
(1)回転角度オフセット:Rrot×θrot、
(2)スケールオフセット:Rpos×Vscale、
(3)移動成分オフセット:Rpos×Vtranslate、
これらのオフセット情報を用いて、画像フレームの変換処理を実行して、表示用の変換仮想画像を生成する。
以下、上述した実施例の情報処理装置の構成または処理を一部変更した変形実施例について説明する。
以下の3つの変形実施例について、順次説明する。
(1)仮想画像コンテンツ生成時の被写体の位置に関する制約を設定した実施例
(2)仮想画像表示処理時の画像エッジの加工処理を行なう実施例
(3)複数の仮想画像に対する処理を行なう実施例
(4)処理の一部をネットワーク接続したサーバで実行する処理例
以下、これらの各変形実施例について説明する。
まず、仮想画像コンテンツ生成時の被写体の位置に関する制約を設定した実施例について説明する。
本実施例は、先に説明した図2のフローチャートに従った仮想画像の動画コンテンツの生成時に、仮想画像として重畳表示する被写体(オブジェクト)の位置、すなわち、カメラとの相対位置に制限を設定して仮想画像コンテンツを生成する実施例である。
カメラに対する被写体の撮影角度について、
予め規定した所定の上下角度範囲内、
予め規定した所定の左右角度範囲内、
さらに、
カメラからの被写体距離も予め規定した所定の距離範囲、
これらの各制限を設け、重畳表示用の仮想画像コンテンツを生成させる。
図8(b)は、被写体に対するカメラの上下角度の制限と、被写体とカメラ間の距離の制限の設定例を示す図である。
なお、この上下・左右角度、及び距離に対する制約情報のデータは各動画に紐付けられる。もしくは、各動画における各フレームに紐付けられていても良い。
情報処理装置の記憶部に、コンテンツの種別に応じた許容角度や許容距離のテーブルを格納し、コンテンツ制作者が必要に応じて撮影するコンテンツの種別を選択し、許容角度と距離を確認して撮影することが望ましい。
図9に指示アイコンと説明の表示例を示す。
(a1)~(a3)は以下の状態を示している。
(a1)撮影画像の被写体距離(Xactual)が10mであり、カメラを被写体に近づける指示アイコンと指示情報を表示している。
(a2)撮影画像の被写体距離(Xactual)が7mであり、カメラを被写体に近づける指示アイコンと指示情報を表示している。
(a3)撮影画像の被写体距離(Xactual)が5mであり、許容最大距離(Xmax)に一致したので、指示アイコン、指示情報の表示が消えた状態である。
(b1)~(b3)は以下の状態を示している。
(b1)撮影画像の被写体に対するカメラの上下角度(Φactual)が45度であり、カメラの上下角度をより垂直に向けるように指示アイコンと指示情報を表示している。
(b2)撮影画像の被写体に対するカメラの上下角度(Φactual)が25度であり、カメラの上下角度をより垂直に向けるように指示アイコンと指示情報を表示している。
(b3)撮影画像の被写体に対するカメラの上下角度(Φactual)が15度であり、許容最大角度(Φmax)に一致したので、指示アイコン、指示情報の表示が消えた状態である。
次に、仮想画像表示処理時の画像エッジの加工処理を行なう実施例について説明する。
本実施例は、先に説明した図3のフローチャートに従った仮想画像の表示処理時に、撮影画像に対して違和感のない仮想画像の重畳表示を行うため、例えば撮影オブジェクトとの境界領域にある仮想画像のエッジ部分をぼかすなどのエッジ処理(マスク処理)を行う実施例である。
本構成は、AR動画コンテンツを撮影する際に、重畳するオブジェクトの一部が画角から外れてしまっても、違和感を最小化させる見せ方を実現するものである。
例えば、図10(A)は、本実施例のマスク処理を適用しない場合の仮想オブジェクトの表示例である。
撮影画像中に表示した仮想画像(人物)311の下側端部のエッジ領域312において、直線的に被写体画像が切れており、不自然に見える。
撮影画像中に表示した仮想画像(人物)321の下側端部のエッジ領域322がぼかすマスク適用処理が施され、不自然さが解消される。
(ステップS301)
まず、情報処理装置は、ステップS301において、仮想画像コンテンツフレーム端判定を行う。
描画しようとしている仮想画像コンテンツの処理フレームで、仮想画像オブジェクトがコンテンツの画角に収まっているかを判定する。具体的には、重畳する仮想画像コンテンツの上下左右の各外側1ラインでのアルファ値1がnピクセル以上連続で続くか否かを調べる。nは任意の閾値とする。上下左右の各ラインに対してオブジェクト端が見切れていないかを判定する。なお、この処理は事前に生成側で行い、メタデータを受信することで実現しても良い。
次に、ステップS302において、カメラ撮影画像端非衝突判定処理を行なう。
ステップSZ301において、仮想画像の処理フレームのオブジェクト端が見切れている場合、実際にカメラ画像にコンテンツを重畳する位置で見切れている部分がみえてしまうかを判定する。
元の動画ソースで見切れている部分が、重畳した時にも完全に見切れていれば問題ないが、重畳した時にその端の部分が見えてしまっていると、違和感が大きい。すなわち、図10(A)に示すような不自然な直線的エッジが見えてしまう。
このような場合は、ステップS303に進む。
ステップS303において、仮想画像コンテンツのエッジの画像処理を行なう。
ステップS302において、カメラ撮影画像に見切れている部分が写り込んでいると判定された場合、その方向の端だけ適応的にぼかすなどの処理を行う。
すなわち、図10(B)に示すようなエッジ領域のぼかし処理を行なう。
最後に、最終的な結果、すなわち、図10(B)に示すような仮想画像と撮影画像との境界領域にある仮想画像のエッジをぼかした仮想画像を出力する。
図12に示す情報処理装置は、先に図7を参照して説明した情報処理装置のコンテンツ表示制御部160内に、適応的マスク処理部171を追加した点のみが異なる。
適応的マスク処理部171は、図11を参照して説明した処理を実行する。
その他の構成は、図7を参照して説明した構成と同様である。
次に、複数の仮想画像に対する処理を行なう実施例について説明する。
本実施例は、先に説明した図2のフローチャートに従った仮想画像の動画コンテンツの生成時に、仮想画像として重畳表示するオブジェクトが複数、存在する場合の処理例である。
図13に示す情報処理装置は、先に図7を参照して説明した情報法処理装置のコンテンツ生成部120内に、オブジェクト切り出し部181を追加した点のみが異なる。
オブジェクト切り出し部181は、上述したように、仮想画像コンテンツの生成時に撮影する画像内に複数の仮想オブジェクトが存在する場合に、それぞれの仮想オブジェクトの切り出し処理を行なう。
なお、切り出した仮想オブジェクトに対しては、その後、個別のメタデータ、すなわち前述した相対位置パラメータRpos、相対角度パラメータRrotを個別に算出し、個別のメタデータとして設定して記憶部に格納する。
その他の構成は、図7を参照して説明した構成と同様である。
上述した実施例は、全ての処理を情報処理装置において実行する実施例として説明した。
しかし、これらの処理の一部は、情報処理装置とネットワーク接続したサーバにおいて実行する構成としてもよい。
サーバは、先に図2を参照して説明した処理を実行し、動画シーケンスに応じて表示位置と表示角度を制御した仮想動画コンテンツを情報処理装置(クライアント)に提供する。
情報処理装置(クライアント)は、サーバから受信した仮想画像コンテンツを、撮影画像に重畳して表示する。
なお、この場合、情報処理装置(クライアント)は、サーバに対して、提供する仮想画像コンテンツを特定するための情報、例えば、図1(B)に示すポスター11に設定されたマーカなどの情報を提供する。
このような処理例とすることで、情報処理装置(クライアント)の処理負荷の軽減が実現される。
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
(1) 撮像部で撮像される撮像画像を取得する取得部と、
前記撮像画像に、入力画像を変形することで生成される仮想画像を重畳して表示部に表示させるデータ処理部とを有し、
前記データ処理部は、
仮想的に設定される前記撮像部と入力画像との相対位置、または相対角度のいずれかを時系列に変化させることで生成される前記仮想画像を前記表示部に表示させる、
情報処理装置。
(3)前記データ処理部は、前記仮想画像の動画コンテンツの各フレームに対応付けて設定されたメタデータとして、
仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
これらの各パラメータを取得し、取得パラメータを適用して、少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像を生成して前記撮影画像上に重畳表示する前記(2)に記載の情報処理装置。
(5)前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各々は、前記仮想画像の初期画像から最終画像に至る各動画像フレームにおいて0~1の範囲で順次変化する値である前記(4)に記載の情報処理装置。
(7)前記データ処理部は、前記仮想画像動画コンテンツの生成処理を実行し、仮想画像動画コンテンツ生成処理に際して、仮想画像動画コンテンツの構成フレームに対して、
仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
上記各パラメータを算出し、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行する前記(1)~(6)いずれかに記載の情報処理装置。
(8)前記データ処理部は、前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各値を、画像動画コンテンツの各動画像フレームにおける仮想画像の被写体距離に応じて0~1の範囲で設定する前記(7)に記載の情報処理装置。
(10)前記データ処理部は、前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各々の値を、モード設定に応じて異なる態様で前記仮想画像を構成する各動画像フレームに対して設定する前記(9)に記載の情報処理装置。
(11)前記データ処理部は、前記仮想画像動画コンテンツの生成処理に際して、予め設定された許容範囲の角度と距離を示す制限情報を表示部に出力し、前記許容範囲の角度と距離内での仮想オブジェクトを含む仮想画像動画コンテンツを生成する前記(7)~(9)いずれかに記載の情報処理装置。
前記撮像部の撮影画像に基づいて仮想画像動画コンテンツを生成するデータ処理部を有し、
前記データ処理部は、
仮想画像動画コンテンツ生成処理に際して、仮想画像動画コンテンツの構成フレームに対して、
仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
上記各パラメータを算出し、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行する情報処理装置。
(13)前記データ処理部は、前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各値を、画像動画コンテンツの各動画像フレームにおける仮想画像の被写体距離に応じて0~1の範囲で設定する前記(12)に記載の情報処理装置。
前記撮像部の撮影画像を表示する表示部と、
前記表示部に表示された撮影画像上に仮想画像を重畳表示するデータ処理部を有し、
前記データ処理部は、
少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像の動画をサーバから取得し、取得した仮想画像を前記撮影画像上に重畳表示する情報処理装置。
具体的には、撮像部と、撮像部の撮影画像を表示する表示部と、表示部に表示された撮影画像上に仮想画像を重畳表示するデータ処理部を有する。データ処理部は、表示位置、表示角度を時系列に変更した仮想画像の動画を撮影画像上に重畳表示する。データ処理部は、仮想画像コンテンツのフレーム対応メタデータとして、仮想画像の表示位置の決定に適用する相対位置パラメータRposと、仮想画像の表示角度の決定に適用する相対角度パラメータRrot、これらの各パラメータを取得し、取得パラメータを適用して、表示位置または表示角度を時系列に変更した仮想画像を生成して重畳表示する。
これらの構成により、カメラ撮影画像に、時間とともに表示位置や角度を変更した仮想画像を重畳表示する構成が実現される。
15 カメラ撮影画像
21 仮想画像
31 仮想画像
120 コンテンツ生成部
121 撮像部(カメラ)
122 距離推定部
123 入力部
124 相対位置・角度算出部
125 画像処理部
140 記憶部
141 メタデータ
142 動画コンテンツデータベース
160 コンテンツ表示制御部
161 撮像部(カメラ)
162 画像認識部
163 認識判定部
164 データ取得部
165 重畳仮想画像生成部
166 動画重畳部
167 表示部
171 適応的マスク処理部
181 オブジェクト切り出し部
Claims (18)
- 撮像部で撮像される撮像画像を取得する取得部と、
前記撮像画像に、入力画像を変形することで生成される仮想画像を重畳して表示部に表示させるデータ処理部とを有し、
前記データ処理部は、
仮想的に設定される前記撮像部と入力画像との相対位置、または相対角度のいずれかを時系列に変化させることで生成される前記仮想画像を前記表示部に表示させる、
情報処理装置。 - 前記データ処理部は、
前記仮想画像の動画コンテンツの各フレームに対応付けて設定されたメタデータを適用した画像変換処理を実行して少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像を生成する請求項1に記載の情報処理装置。 - 前記データ処理部は、
前記仮想画像の動画コンテンツの各フレームに対応付けて設定されたメタデータとして、
仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
これらの各パラメータを取得し、取得パラメータを適用して、少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像を生成して前記撮影画像上に重畳表示する請求項2に記載の情報処理装置。 - 前記データ処理部は、
前記仮想画像の初期画像に対応するモデルビュー行列Mmarkerを、
前記仮想画像の最終画像に対応するモデルビュー行列Mdisplayに変換する変換パラメータを算出し、
算出した変換パラメータに対して、各仮想画像フレームに対応して設定されたメタデータである。前記相対位置パラメータRpos、または、前記相対角度パラメータRrotを乗算して、各仮想画像フレームの変換処理に適用するオフセット情報を算出し、算出したオフセット情報を適用した仮想画像フレームの変換処理を実行して、少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像の動画を生成する請求項3に記載の情報処理装置。 - 前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各々は、前記仮想画像の初期画像から最終画像に至る各動画像フレームにおいて0~1の範囲で順次変化する値である請求項4に記載の情報処理装置。
- 前記データ処理部は、
前記仮想画像の撮影画像に対する重畳表示処理に際して、仮想画像と撮影画像の境界部の仮想画像のぼかし処理を実行する請求項1に記載の情報処理装置。 - 前記データ処理部は、
前記仮想画像動画コンテンツの生成処理を実行し、仮想画像動画コンテンツ生成処理に際して、仮想画像動画コンテンツの構成フレームに対して、
仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
上記各パラメータを算出し、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行する請求項1に記載の情報処理装置。 - 前記データ処理部は、
前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各値を、画像動画コンテンツの各動画像フレームにおける仮想画像の被写体距離に応じて0~1の範囲で設定する請求項7に記載の情報処理装置。 - 前記データ処理部は、
前記仮想画像の初期画像から最終画像に至る各動画像フレームに対して0~1の範囲で順次変化する値を、前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの値として設定する請求項7に記載の情報処理装置。 - 前記データ処理部は、
前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各々の値を、モード設定に応じて異なる態様で前記仮想画像を構成する各動画像フレームに対して設定する請求項9に記載の情報処理装置。 - 前記データ処理部は、
前記仮想画像動画コンテンツの生成処理に際して、予め設定された許容範囲の角度と距離を示す制限情報を表示部に出力し、前記許容範囲の角度と距離内での仮想オブジェクトを含む仮想画像動画コンテンツを生成する請求項7に記載の情報処理装置。 - 画像撮影を実行する撮像部と、
前記撮像部の撮影画像に基づいて仮想画像動画コンテンツを生成するデータ処理部を有し、
前記データ処理部は、
仮想画像動画コンテンツ生成処理に際して、仮想画像動画コンテンツの構成フレームに対して、
仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
上記各パラメータを算出し、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行する情報処理装置。 - 前記データ処理部は、
前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各値を、画像動画コンテンツの各動画像フレームにおける仮想画像の被写体距離に応じて0~1の範囲で設定する請求項12に記載の情報処理装置。 - 画像撮影を実行する撮像部と、
前記撮像部の撮影画像を表示する表示部と、
前記表示部に表示された撮影画像上に仮想画像を重畳表示するデータ処理部を有し、
前記データ処理部は、
少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像の動画をサーバから取得し、取得した仮想画像を前記撮影画像上に重畳表示する情報処理装置。 - 情報処理装置において実行する情報処理方法であり、
前記情報処理装置は、撮像部で撮像される撮像画像を取得する取得部と、入力画像を変形することで生成される仮想画像を重畳して表示部に表示させるデータ処理部を有し、
前記データ処理部は、
仮想的に設定される前記撮像部と入力画像との相対位置、または相対角度のいずれかを時系列に変化させることで生成される前記仮想画像を前記表示部に表示させる情報処理方法。 - 情報処理装置において実行する情報処理方法であり、
前記情報処理装置は、画像撮影を実行する撮像部と、前記撮像部の撮影画像に基づいて仮想画像動画コンテンツを生成するデータ処理部を有し、
前記データ処理部は、
仮想画像動画コンテンツ生成処理に際して、仮想画像動画コンテンツの構成フレームに対して、
仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
上記各パラメータを算出し、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行する情報処理方法。 - 情報処理装置において情報処理を実行させるプログラムであり、
前記情報処理装置は、撮像部で撮像される撮像画像を取得する取得部と、
前記撮像画像に、入力画像を変形することで生成される仮想画像を重畳して表示部に表示させるデータ処理部とを有し、
前記プログラムは、前記データ処理部に、
仮想的に設定される前記撮像部と入力画像との相対位置、または相対角度のいずれかを時系列に変化させることで生成される前記仮想画像を前記表示部に表示させるプログラム。 - 情報処理装置において情報処理を実行させるプログラムであり、
前記情報処理装置は、画像撮影を実行する撮像部と、前記撮像部の撮影画像に基づいて仮想画像動画コンテンツを生成するデータ処理部を有し、
前記プログラムは、前記データ処理部に、
仮想画像動画コンテンツ生成処理に際して、仮想画像動画コンテンツの構成フレームに対して、
仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
上記各パラメータを算出させ、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行させるプログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014521000A JP5971335B2 (ja) | 2012-06-12 | 2013-04-24 | 情報処理装置、および情報処理方法、並びにプログラム |
BR112014030579A BR112014030579A2 (pt) | 2012-06-12 | 2013-04-24 | dispositivo e método de processamento de informação, e, programa |
EP13803623.1A EP2860702A4 (en) | 2012-06-12 | 2013-04-24 | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM |
CN201380029793.3A CN104335251A (zh) | 2012-06-12 | 2013-04-24 | 信息处理设备、信息处理方法和程序 |
US14/405,262 US20150145888A1 (en) | 2012-06-12 | 2013-04-24 | Information processing device, information processing method, and program |
IN10336DEN2014 IN2014DN10336A (ja) | 2012-06-12 | 2014-12-04 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012-133320 | 2012-06-12 | ||
JP2012133320 | 2012-06-12 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2013187130A1 true WO2013187130A1 (ja) | 2013-12-19 |
Family
ID=49757965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2013/061996 WO2013187130A1 (ja) | 2012-06-12 | 2013-04-24 | 情報処理装置、および情報処理方法、並びにプログラム |
Country Status (7)
Country | Link |
---|---|
US (1) | US20150145888A1 (ja) |
EP (1) | EP2860702A4 (ja) |
JP (1) | JP5971335B2 (ja) |
CN (1) | CN104335251A (ja) |
BR (1) | BR112014030579A2 (ja) |
IN (1) | IN2014DN10336A (ja) |
WO (1) | WO2013187130A1 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104808956A (zh) * | 2014-01-23 | 2015-07-29 | 富士通株式会社 | 用于控制显示的系统和方法 |
WO2015128633A1 (en) * | 2014-02-26 | 2015-09-03 | Sony Computer Entertainment Europe Limited | Image encoding and display |
WO2015182227A1 (ja) * | 2014-05-30 | 2015-12-03 | ソニー株式会社 | 情報処理装置および情報処理方法 |
JP2020533699A (ja) * | 2017-09-11 | 2020-11-19 | ナイキ イノベイト シーブイ | ターゲット検索のための、およびジオキャッシングを使用するための装置、システム、および方法 |
US11509653B2 (en) | 2017-09-12 | 2022-11-22 | Nike, Inc. | Multi-factor authentication and post-authentication processing system |
WO2023171355A1 (ja) * | 2022-03-07 | 2023-09-14 | ソニーセミコンダクタソリューションズ株式会社 | 撮像システムおよび映像処理方法、並びにプログラム |
JP7429633B2 (ja) | 2020-12-08 | 2024-02-08 | Kddi株式会社 | 情報処理システム、端末、サーバ及びプログラム |
US11961106B2 (en) | 2017-09-12 | 2024-04-16 | Nike, Inc. | Multi-factor authentication and post-authentication processing system |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
JP6264972B2 (ja) * | 2014-03-18 | 2018-01-24 | 富士通株式会社 | 表示装置、表示制御プログラム、および表示制御方法 |
US9959292B2 (en) * | 2014-09-30 | 2018-05-01 | Ricoh Company, Ltd. | Application program, smart device, information processing apparatus, information processing system, and information processing method |
CN105979099B (zh) * | 2016-06-28 | 2019-06-04 | Oppo广东移动通信有限公司 | 在预览界面增加景物的方法、装置及拍照设备 |
JP2018195254A (ja) * | 2017-05-22 | 2018-12-06 | 富士通株式会社 | 表示制御プログラム、表示制御装置及び表示制御方法 |
CN107733874B (zh) * | 2017-09-20 | 2021-03-30 | 平安科技(深圳)有限公司 | 信息处理方法、装置、计算机设备和存储介质 |
US11972529B2 (en) | 2019-02-01 | 2024-04-30 | Snap Inc. | Augmented reality system |
CN110610454A (zh) * | 2019-09-18 | 2019-12-24 | 上海云绅智能科技有限公司 | 透视投影矩阵的计算方法及装置、终端设备、存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000032398A (ja) * | 1998-07-09 | 2000-01-28 | Matsushita Electric Ind Co Ltd | 画像処理装置 |
JP2008046806A (ja) * | 2006-08-14 | 2008-02-28 | Nippon Telegr & Teleph Corp <Ntt> | 画像処理方法、画像処理装置およびプログラム |
JP2010239206A (ja) * | 2009-03-30 | 2010-10-21 | Sony Corp | 電子機器、表示制御方法およびプログラム |
JP2011043419A (ja) | 2009-08-21 | 2011-03-03 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
JP2012053776A (ja) * | 2010-09-02 | 2012-03-15 | Ntt Comware Corp | 表示画像検索装置、表示装置、表示画像検索システム、および、表示画像検索方法 |
JP2012058838A (ja) | 2010-09-06 | 2012-03-22 | Sony Corp | 画像処理装置、プログラム及び画像処理方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60233985A (ja) * | 1984-05-07 | 1985-11-20 | Nec Corp | デジタル映像信号の特殊効果発生装置 |
US7224851B2 (en) * | 2001-12-04 | 2007-05-29 | Fujifilm Corporation | Method and apparatus for registering modification pattern of transmission image and method and apparatus for reproducing the same |
US20070205963A1 (en) * | 2006-03-03 | 2007-09-06 | Piccionelli Gregory A | Heads-up billboard |
JP2007243411A (ja) * | 2006-03-07 | 2007-09-20 | Fujifilm Corp | 画像処理装置、方法およびプログラム |
JP5094663B2 (ja) * | 2008-09-24 | 2012-12-12 | キヤノン株式会社 | 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法 |
US8643642B2 (en) * | 2009-08-17 | 2014-02-04 | Mistretta Medical, Llc | System and method of time-resolved, three-dimensional angiography |
KR101572892B1 (ko) * | 2010-05-06 | 2015-11-30 | 엘지전자 주식회사 | 이동 단말기 및 이것의 영상 디스플레이 방법 |
CN102446192A (zh) * | 2010-09-30 | 2012-05-09 | 国际商业机器公司 | 在虚拟世界中评估关注度的方法和装置 |
-
2013
- 2013-04-24 CN CN201380029793.3A patent/CN104335251A/zh active Pending
- 2013-04-24 BR BR112014030579A patent/BR112014030579A2/pt not_active IP Right Cessation
- 2013-04-24 EP EP13803623.1A patent/EP2860702A4/en not_active Withdrawn
- 2013-04-24 US US14/405,262 patent/US20150145888A1/en not_active Abandoned
- 2013-04-24 JP JP2014521000A patent/JP5971335B2/ja not_active Expired - Fee Related
- 2013-04-24 WO PCT/JP2013/061996 patent/WO2013187130A1/ja active Application Filing
-
2014
- 2014-12-04 IN IN10336DEN2014 patent/IN2014DN10336A/en unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000032398A (ja) * | 1998-07-09 | 2000-01-28 | Matsushita Electric Ind Co Ltd | 画像処理装置 |
JP2008046806A (ja) * | 2006-08-14 | 2008-02-28 | Nippon Telegr & Teleph Corp <Ntt> | 画像処理方法、画像処理装置およびプログラム |
JP2010239206A (ja) * | 2009-03-30 | 2010-10-21 | Sony Corp | 電子機器、表示制御方法およびプログラム |
JP2011043419A (ja) | 2009-08-21 | 2011-03-03 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
JP2012053776A (ja) * | 2010-09-02 | 2012-03-15 | Ntt Comware Corp | 表示画像検索装置、表示装置、表示画像検索システム、および、表示画像検索方法 |
JP2012058838A (ja) | 2010-09-06 | 2012-03-22 | Sony Corp | 画像処理装置、プログラム及び画像処理方法 |
Non-Patent Citations (1)
Title |
---|
See also references of EP2860702A4 |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015138445A (ja) * | 2014-01-23 | 2015-07-30 | 富士通株式会社 | 表示制御方法、情報処理装置、および表示制御プログラム |
CN104808956A (zh) * | 2014-01-23 | 2015-07-29 | 富士通株式会社 | 用于控制显示的系统和方法 |
US9792731B2 (en) | 2014-01-23 | 2017-10-17 | Fujitsu Limited | System and method for controlling a display |
CN106413829B (zh) * | 2014-02-26 | 2020-04-21 | 索尼互动娱乐欧洲有限公司 | 图像编码和显示 |
WO2015128633A1 (en) * | 2014-02-26 | 2015-09-03 | Sony Computer Entertainment Europe Limited | Image encoding and display |
CN106413829A (zh) * | 2014-02-26 | 2017-02-15 | 索尼电脑娱乐欧洲有限公司 | 图像编码和显示 |
US10306202B2 (en) | 2014-02-26 | 2019-05-28 | Sony Interactive Entertainment Europe Limited | Image encoding and display |
US10636185B2 (en) | 2014-05-30 | 2020-04-28 | Sony Corporation | Information processing apparatus and information processing method for guiding a user to a vicinity of a viewpoint |
WO2015182227A1 (ja) * | 2014-05-30 | 2015-12-03 | ソニー株式会社 | 情報処理装置および情報処理方法 |
JP2020533699A (ja) * | 2017-09-11 | 2020-11-19 | ナイキ イノベイト シーブイ | ターゲット検索のための、およびジオキャッシングを使用するための装置、システム、および方法 |
JP7001818B2 (ja) | 2017-09-11 | 2022-01-20 | ナイキ イノベイト シーブイ | ターゲット検索のための、およびジオキャッシングを使用するための装置、システム、および方法 |
JP2022050473A (ja) * | 2017-09-11 | 2022-03-30 | ナイキ イノベイト シーブイ | ターゲット検索のための、およびジオキャッシングを使用するための装置、システム、および方法 |
US11410191B2 (en) | 2017-09-11 | 2022-08-09 | Nike, Inc. | Apparatus, system, and method for target search and using geocaching |
JP7286750B2 (ja) | 2017-09-11 | 2023-06-05 | ナイキ イノベイト シーブイ | ターゲット検索のための、およびジオキャッシングを使用するための装置、システム、および方法 |
US11978076B2 (en) | 2017-09-11 | 2024-05-07 | Nike, Inc. | Apparatus, system, and method for target search and using geocaching |
US11509653B2 (en) | 2017-09-12 | 2022-11-22 | Nike, Inc. | Multi-factor authentication and post-authentication processing system |
US11961106B2 (en) | 2017-09-12 | 2024-04-16 | Nike, Inc. | Multi-factor authentication and post-authentication processing system |
JP7429633B2 (ja) | 2020-12-08 | 2024-02-08 | Kddi株式会社 | 情報処理システム、端末、サーバ及びプログラム |
WO2023171355A1 (ja) * | 2022-03-07 | 2023-09-14 | ソニーセミコンダクタソリューションズ株式会社 | 撮像システムおよび映像処理方法、並びにプログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2013187130A1 (ja) | 2016-02-04 |
EP2860702A4 (en) | 2016-02-10 |
JP5971335B2 (ja) | 2016-08-17 |
BR112014030579A2 (pt) | 2017-09-19 |
EP2860702A1 (en) | 2015-04-15 |
CN104335251A (zh) | 2015-02-04 |
IN2014DN10336A (ja) | 2015-08-07 |
US20150145888A1 (en) | 2015-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5971335B2 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
Liu et al. | Content-preserving warps for 3D video stabilization | |
TWI712918B (zh) | 擴增實境的影像展示方法、裝置及設備 | |
JP6119889B2 (ja) | 情報処理システムとその処理方法及びプログラム | |
US20120120113A1 (en) | Method and apparatus for visualizing 2D product images integrated in a real-world environment | |
CN111742347A (zh) | 用于图像中的对象的动态照明 | |
CN109906600B (zh) | 模拟景深 | |
US11830148B2 (en) | Reconstruction of essential visual cues in mixed reality applications | |
EP2786303A1 (en) | Automatic tracking matte system | |
WO2011075082A1 (en) | Method and system for single view image 3 d face synthesis | |
JP2010128986A (ja) | 複合現実感提示システムと仮想光源の輝度調整方法 | |
US20120120071A1 (en) | Shading graphical objects based on face images | |
WO2018225518A1 (ja) | 画像処理装置、画像処理方法、プログラム、およびテレコミュニケーションシステム | |
JP2010140097A (ja) | 画像生成方法、画像認証方法、画像生成装置、画像認証装置、プログラム、および記録媒体 | |
JP2007053621A (ja) | 画像生成装置 | |
JP7253621B2 (ja) | パノラマ映像の手ぶれ補正方法及び携帯端末 | |
US10291845B2 (en) | Method, apparatus, and computer program product for personalized depth of field omnidirectional video | |
JP6621565B2 (ja) | 表示制御装置、表示制御方法、及びプログラム | |
JP2017102896A (ja) | シーンにおける光源の反射率パラメータ及び位置を推定する方法及び装置 | |
JP4781981B2 (ja) | 動画像生成方法及びシステム | |
US20230237696A1 (en) | Display control apparatus, display control method, and recording medium | |
KR102558294B1 (ko) | 임의 시점 영상 생성 기술을 이용한 다이나믹 영상 촬영 장치 및 방법 | |
JP6320165B2 (ja) | 画像処理装置及びその制御方法、並びにプログラム | |
US10521938B1 (en) | System and method for smoothing computer animation curves | |
JP5787930B2 (ja) | ビデオ用の仮想ナビゲーションシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13803623 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2014521000 Country of ref document: JP Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 14405262 Country of ref document: US Ref document number: 2013803623 Country of ref document: EP |
|
ENP | Entry into the national phase |
Ref document number: 2014149167 Country of ref document: RU Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
REG | Reference to national code |
Ref country code: BR Ref legal event code: B01A Ref document number: 112014030579 Country of ref document: BR |
|
ENP | Entry into the national phase |
Ref document number: 112014030579 Country of ref document: BR Kind code of ref document: A2 Effective date: 20141205 |