WO2013187130A1 - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents

情報処理装置、および情報処理方法、並びにプログラム Download PDF

Info

Publication number
WO2013187130A1
WO2013187130A1 PCT/JP2013/061996 JP2013061996W WO2013187130A1 WO 2013187130 A1 WO2013187130 A1 WO 2013187130A1 JP 2013061996 W JP2013061996 W JP 2013061996W WO 2013187130 A1 WO2013187130 A1 WO 2013187130A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
virtual image
display
unit
information processing
Prior art date
Application number
PCT/JP2013/061996
Other languages
English (en)
French (fr)
Inventor
裕也 花井
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2014521000A priority Critical patent/JP5971335B2/ja
Priority to BR112014030579A priority patent/BR112014030579A2/pt
Priority to EP13803623.1A priority patent/EP2860702A4/en
Priority to CN201380029793.3A priority patent/CN104335251A/zh
Priority to US14/405,262 priority patent/US20150145888A1/en
Publication of WO2013187130A1 publication Critical patent/WO2013187130A1/ja
Priority to IN10336DEN2014 priority patent/IN2014DN10336A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/293Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • the present invention relates to an information processing apparatus, an information processing method, and a program for executing augmented reality (AR) display.
  • AR augmented reality
  • an image obtained by superimposing a virtual image other than a captured image on a captured image of a camera is called an augmented reality (AR) image
  • AR augmented reality
  • mobile terminals such as smartphones equipped with a camera function and a display in addition to a communication function have become widespread, and applications using augmented reality (AR) images are often used in these smartphones.
  • a poster of a person is photographed using a camera function of a mobile terminal such as a smartphone and displayed on a display unit of the smartphone.
  • the data processing unit of the smartphone identifies the photographed poster or the marker set on the poster, and acquires image data corresponding to the person who has moved to the poster from the storage unit or an external server. Further, the acquired image is superimposed on the captured image.
  • Japanese Patent Application Laid-Open No. 2012-58838 discloses a conventional technique disclosed for generating and displaying an AR image.
  • the camera when the camera is shooting a poster from an oblique direction, the person printed on the poster is displayed as an image viewed from an oblique direction on the captured image.
  • the superimposed image In order to generate a natural AR image in which a person viewed from an oblique angle jumps out of a poster, the superimposed image must be an image of the person viewed from an oblique direction, similar to a poster.
  • the present disclosure has been made in view of, for example, the above-described problem.
  • a virtual image is displayed by being superimposed on a captured image captured by a user's mobile terminal camera and displayed on a display unit, for example, a person
  • the first aspect of the present disclosure is: An acquisition unit for acquiring a captured image captured by the imaging unit; A data processing unit that superimposes a virtual image generated by transforming the input image on the captured image and displays the virtual image on a display unit; The data processing unit Displaying the virtual image generated by changing either the relative position or the relative angle between the imaging unit and the input image that are virtually set in time series on the display unit; It is in the information processing device.
  • the data processing unit executes an image conversion process using metadata set in association with each frame of the moving image content of the virtual image and displays at least A virtual image in which either the position or the display angle is changed in time series is generated.
  • the data processing unit includes, as metadata set in association with each frame of the moving image content of the virtual image, Relative position parameter Rpos applied to determine the display position of the virtual image, Relative angle parameter Rrot applied to determine the display angle of the virtual image, Each of these parameters is acquired, and the acquired parameter is applied to generate a virtual image in which at least one of the display position and the display angle is changed in time series, and is superimposed and displayed on the captured image.
  • the data processing unit converts a model view matrix Mmarker corresponding to the initial image of the virtual image into a model view matrix Mdisplay corresponding to the final image of the virtual image.
  • This is metadata set in correspondence with each virtual image frame with respect to the calculated conversion parameter.
  • the relative position parameter Rpos or the relative angle parameter Rrot is multiplied to calculate offset information to be applied to the conversion process of each virtual image frame, and the virtual image frame conversion process to which the calculated offset information is applied is executed.
  • a moving image of the virtual image in which at least either the display position or the display angle is changed in time series is generated.
  • each of the relative position parameter Rpos and the relative angle parameter Rrot is 0 to 1 in each moving image frame from the initial image to the final image of the virtual image. It is a value that changes sequentially in the range.
  • the data processing unit performs a blurring process of a virtual image at a boundary portion between the virtual image and the captured image when the superimposed display process is performed on the captured image of the virtual image.
  • the data processing unit executes the generation process of the virtual image moving image content, and the virtual image moving image content generation process is performed on a configuration frame of the virtual image moving image content.
  • Relative position parameter Rpos applied to determine the display position of the virtual image
  • Relative angle parameter Rrot applied to determine the display angle of the virtual image
  • the data processing unit uses the values of the relative position parameter Rpos and the relative angle parameter Rrot as the virtual image in each moving image frame of the image moving image content. Set in the range of 0 to 1 according to the subject distance.
  • the data processing unit has a value that sequentially changes in a range of 0 to 1 for each moving image frame from the initial image to the final image of the virtual image.
  • the relative position parameter Rpos and the relative angle parameter Rrot are set as values.
  • the data processing unit may change the values of the relative position parameter Rpos and the relative angle parameter Rrot in different manners according to mode settings. Is set for each moving image frame constituting the.
  • the data processing unit outputs restriction information indicating an angle and a distance of a preset allowable range to the display unit when generating the virtual image moving image content.
  • restriction information indicating an angle and a distance of a preset allowable range to the display unit when generating the virtual image moving image content.
  • the virtual image moving image content including the virtual object within the angle and distance of the allowable range is generated.
  • the second aspect of the present disclosure is: An imaging unit that performs image capture; A data processing unit that generates virtual image moving image content based on a captured image of the imaging unit; The data processing unit In the virtual image moving image content generation process, for the configuration frame of the virtual image moving image content, Relative position parameter Rpos applied to determine the display position of the virtual image, Relative angle parameter Rrot applied to determine the display angle of the virtual image, The information processing apparatus executes the process of calculating each parameter and storing the calculated parameter in the storage unit as metadata corresponding to an image frame.
  • the data processing unit uses the values of the relative position parameter Rpos and the relative angle parameter Rrot as the virtual image in each moving image frame of the image moving image content. Set in the range of 0 to 1 according to the subject distance.
  • the third aspect of the present disclosure is: An imaging unit that performs image capture; A display unit for displaying a captured image of the imaging unit; A data processing unit that superimposes and displays a virtual image on the captured image displayed on the display unit; The data processing unit There is an information processing apparatus that acquires a moving image of a virtual image in which at least one of a display position and a display angle is changed in time series from a server, and displays the acquired virtual image in a superimposed manner on the captured image.
  • the fourth aspect of the present disclosure is: An information processing method executed in an information processing apparatus,
  • the information processing apparatus includes an acquisition unit that acquires a captured image captured by the imaging unit, and a data processing unit that superimposes a virtual image generated by transforming the input image and displays the virtual image on the display unit.
  • the data processing unit In the information processing method, the virtual image generated by changing either the relative position or the relative angle between the imaging unit and the input image that are virtually set in time series is displayed on the display unit.
  • the fifth aspect of the present disclosure is: An information processing method executed in an information processing apparatus,
  • the information processing apparatus includes an imaging unit that performs image capturing, and a data processing unit that generates virtual image moving image content based on a captured image of the imaging unit,
  • the data processing unit In the virtual image moving image content generation process, for the configuration frame of the virtual image moving image content, Relative position parameter Rpos applied to determine the display position of the virtual image, Relative angle parameter Rrot applied to determine the display angle of the virtual image,
  • Relative position parameter Rpos applied to determine the display position of the virtual image
  • Relative angle parameter Rrot applied to determine the display angle of the virtual image
  • the sixth aspect of the present disclosure is: A program for executing information processing in an information processing apparatus;
  • the information processing apparatus includes an acquisition unit that acquires a captured image captured by an imaging unit;
  • a data processing unit that superimposes a virtual image generated by transforming the input image on the captured image and displays the virtual image on a display unit;
  • the program is stored in the data processing unit.
  • the seventh aspect of the present disclosure is: A program for executing information processing in an information processing apparatus;
  • the information processing apparatus includes an imaging unit that performs image capturing, and a data processing unit that generates virtual image moving image content based on a captured image of the imaging unit,
  • the program is stored in the data processing unit.
  • Relative position parameter Rpos applied to determine the display position of the virtual image
  • Relative angle parameter Rrot applied to determine the display angle of the virtual image
  • the program of the present disclosure is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to an information processing apparatus or a computer system that can execute various program codes.
  • a program in a computer-readable format, processing corresponding to the program is realized on the information processing apparatus or the computer system.
  • system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
  • a configuration is realized in which a virtual image whose display position and angle are changed with time is superimposed and displayed on the camera-captured image displayed on the display unit.
  • an imaging unit a display unit that displays a captured image of the imaging unit, and a data processing unit that displays a virtual image superimposed on the captured image displayed on the display unit.
  • the data processing unit superimposes and displays the moving image of the virtual image in which the display position and the display angle are changed in time series on the captured image.
  • the data processing unit uses, as frame-corresponding metadata of the virtual image content, a relative position parameter Rpos applied to the determination of the display position of the virtual image, a relative angle parameter Rrot applied to the determination of the display angle of the virtual image, and these parameters. And applying the acquisition parameter to generate a virtual image in which the display position or the display angle is changed in time series and display the virtual image.
  • FIG. 25 is a diagram for describing a configuration example of an information processing device. It is a figure explaining the restriction
  • FIG. 11 is a diagram for describing a configuration example of an information processing apparatus that executes object cutout processing.
  • FIG. 1 shows a display processing example of the following two AR images.
  • A Virtual image display process without angle control
  • B Virtual image display process with angle control
  • the user photographs a poster 11 on which a person is printed using a mobile terminal such as a smartphone having a camera function, and the camera-captured image 15 displayed on the display unit of the mobile terminal passes through time (t0 to t4). It is the figure shown with.
  • Both (A) and (B) display a virtual image that is not a captured image superimposed on the captured image.
  • the virtual image is, for example, two-dimensional image data of the same person as the person printed on the poster 11.
  • the virtual image is provided by a server via a network or image data stored in a storage unit of a mobile terminal such as a smartphone. Image data.
  • the user is shooting the poster 11 from an oblique direction.
  • the virtual image display processing without angle control shown in FIG. 1 (A) since a person jumps out from a poster photographed obliquely, the virtual image 21 to be superimposed is viewed from an oblique direction as with the poster. It is a person image.
  • a moving image display process using an image viewed from an oblique direction is performed.
  • the virtual images 21 such as times (t3) and (t4) shown in FIG. 1A are close to the camera, the person remains as seen from an oblique direction and approaches the user.
  • the image is recognized as an unnatural image, and is clearly recognized as a pasted image different from the photographed image. This is due to the fact that an image shot from the same direction as the shooting direction of the initial image at time (t0) is applied as it is.
  • the virtual image display process with angle control in FIG. 1B is an example of a virtual image display process to which the process of the present disclosure described below is applied.
  • the display angle of the virtual image 31 is changed from an oblique direction to a front direction as time elapses (t1 ⁇ t4).
  • angle control according to the distance of the virtual image is performed on the image captured from the same direction as the initial image capturing direction at time (t0), and the virtual image Processing to change the orientation of the. By this processing, a more natural virtual image can be displayed.
  • details of the process of the present disclosure for realizing such image display will be described.
  • the relative position / angle (ratio) to the camera is set as metadata in each frame constituting the moving image content of the virtual image.
  • the metadata is set as data according to distance information of an object to be displayed as a virtual image, for example, an object such as a person.
  • a depth map in which the subject distance from the camera is set in units of pixels, for example, can be used.
  • the depth map can be generated in advance using processing using data captured by a compound eye camera or the like, or using a device that acquires distance information (depth) separately from the camera. Even when there is no depth map, if the object whose distance is to be measured is a person, the distance can be determined from the size of the face using face detection. Further, the distance information may be set manually by a user or an operator.
  • various settings can be made as an aspect of the angle control processing of the person who jumps out of the poster as shown in FIG. 1B, for example.
  • it is possible to control settings such as making the angle between the virtual image and the camera constant, such that the person displayed as a virtual image always faces the front after approaching or moving away from the camera over time. It is.
  • the device that performs image capturing and display is not limited to a smartphone, and can be realized by various information processing devices such as a PC and glasses-type AR glasses.
  • a more natural virtual image Display is possible. Specifically, the display position and the display angle of the virtual image are changed over time, so that a more natural display of the virtual image, that is, the virtual image exists in a base image such as a captured image to be superimposed. Display can be realized.
  • the virtual image to be superimposed is, for example, transparency information or mask information such as setting the transparency of a pixel portion other than the person to the maximum and setting the transparency of the person area to 0 when the virtual image is a real human image. It is possible to use image data having ⁇ channel information in units of pixels called “. By superimposing such content having the ⁇ channel on the captured image, only the person area included in the virtual image is superimposed on the captured image of the client, and the captured image is displayed as it is in the image area other than the person.
  • FIG. 1B a virtual image moving image content generation processing sequence for displaying the virtual image 31 shown in FIG. 1B will be described with reference to the flow shown in FIG. Note that this moving image content generation processing may be executed by an information processing apparatus such as a smartphone, or may be executed by another information processing apparatus such as a PC.
  • the processing shown in the flow is executed under the control of a data processing unit, that is, a data processing unit including a CPU having a program execution function, according to a program stored in the storage unit of the information processing apparatus.
  • a data processing unit that is, a data processing unit including a CPU having a program execution function
  • Step S101 First, the data processing unit of the information processing apparatus inputs mode setting information by the user via the input unit, and determines what kind of effect the “popping out effect” is to be made.
  • mode setting information For example, there are the following two types of setting modes.
  • Simple mode The simple mode is a mode in which the angle / position formed by the virtual image to be superimposed and displayed by the camera is simply determined according to the distance between the virtual image and the camera (information processing apparatus).
  • Constant mode In the constant mode, after a virtual image is popped out from a poster or the like that is a shooting object of a base image that is a captured image, a process of setting the angle made with the camera to be constant, for example, setting to the front direction. This is the mode to perform.
  • these modes may be set to the two-way mode, but a mode from the simple mode to the constant mode may be set.
  • the speed at which the angle formed with the camera is changed may be input by the user as a parameter via the input unit, and the data processing unit may perform control according to the input parameter.
  • step S102 an image capturing unit (camera) of the information processing apparatus is applied to perform camera image acquisition processing.
  • This is a process of acquiring a captured image made up of, for example, a person displayed as a virtual image. For example, a person is photographed in a studio with a green back facility.
  • Step S103 a distance to an object such as a person as a subject to be displayed as a virtual image is calculated.
  • Various methods can be applied as a method for acquiring subject distance information. Specifically, for example, the following method can be applied.
  • a depth map is generated by acquiring a distance by using a compound eye camera in a stereo vision manner or using a near infrared camera together like Kinect. Using the generated depth map, the distance is the average of the depths in the object region after clipping after image processing.
  • the distance is estimated from the size using face detection or human body detection.
  • C Estimating the distance from the size of the area of the object after clipping after image processing.
  • Step S104 the information processing apparatus sets an object to be displayed as a virtual image, for example, the relative position and angle of a person as metadata (attribute information) corresponding to each frame constituting the virtual image moving image content.
  • the metadata setting process is different depending on the mode described above. That is, the “simple mode” and the “constant mode” are different processes.
  • the metadata setting processing algorithm corresponding to each mode will be described below.
  • the simple mode is a mode in which the angle / position formed by the virtual image to be superimposed and displayed on the camera is simply determined according to the distance between the virtual image and the camera (information processing apparatus).
  • each variable is defined as follows.
  • Distance at start of operation Dstart Distance at processing time: Dproc
  • the distance Dstart at the operation start point corresponds to the distance from the camera to the poster in the example of FIG.
  • Distance at processing time: Dproc is an example of FIG. 1B, and time (t0 to t4) This corresponds to the distance of the virtual image from each camera.
  • the shortest distance Dmin in the moving image sequence corresponds to the distance from the camera at time (t4) to the virtual image in the example of FIG.
  • Relative position parameter: Rpos 0 to 1
  • the relative position parameter: Rpos and the relative angle parameter: Rrot are parameters that continuously change from 0 to 1 from the operation start point to the shortest distance.
  • the virtual image display process to which these parameters are applied will be described later.
  • a process of superimposing and displaying the same virtual image as the person of the poster is executed as shown at time (t0) in FIG. That is, the position and angle of the virtual object are set to be the same as the poster of the captured image.
  • a process is performed in which the virtual image is set as the closest position to the camera set in advance and the front-facing virtual image is displayed. The virtual image display process to which these parameters are applied will be described later.
  • the parameter setting algorithm described above sets the angle between the virtual image object and the camera to zero, on condition that the virtual image object has reached a predetermined distance (Dlim) before reaching the shortest position (Dmin).
  • Dlim predetermined distance
  • Dmin shortest position
  • the relative position parameter: Rpos may be set similarly to the simple mode. With the above algorithm, it is possible to display a virtual image such that “the angle made with the camera is always zero once it has popped out”.
  • step S105 the information processing apparatus performs moving image content generation processing for a picture-like image. Specifically, a process of generating an image in which only an object to be superimposed and displayed, for example, a person is cut out, is performed.
  • the virtual image is a real human image
  • the alpha channel in pixel units called transparency information or mask information, such as maximizing the transparency of pixel portions other than the person and setting the transparency of the human area to 0
  • the captured image is displayed as it is in the image area other than the person.
  • Step S106 the information processing apparatus records the metadata generated in step S104 and the image data generated in step S105 in association with each other. For example, a recording process is performed on a medium such as a hard disk or a flash memory.
  • step S107 end determination is performed. If there is a next frame in the moving image sequence being processed, the process returns to step S102 to process the next frame. When all the processes are completed, the process ends.
  • the processing shown in the flow is executed under the control of a data processing unit, that is, a data processing unit including a CPU having a program execution function, according to a program stored in the storage unit of the information processing apparatus.
  • a data processing unit that is, a data processing unit including a CPU having a program execution function
  • Step S201 the data processing unit of the information processing device performs image shooting with an imaging unit (camera) of the information processing device, and acquires a shot image. For example, it is an image like time (t0) shown in FIG.
  • step S ⁇ b> 202 the information processing apparatus determines whether information acquisition for calculating camera position / angle information necessary in the subsequent stage is successful.
  • the information for calculating the position / angle information of the camera is, for example, a marker included in the captured image.
  • the marker is, for example, a two-dimensional barcode such as a cyber code printed on the poster 11 shown in FIG. If such a marker is recognized, the position and angle of the camera can be calculated from the angle of the marker reflected in the camera image.
  • the information for calculating the position / angle information of the camera is not limited to a marker such as a siper code, but may be an object such as a poster or a CD jacket.
  • a marker such as a siper code
  • an object such as a poster or a CD jacket.
  • application information can be set in various ways.
  • position identification processing is performed by applying SLAM (Simultaneous Localization And Mapping) technology that recognizes the three-dimensional position of a camera by extracting and tracking feature points from an image captured by the camera of the information processing apparatus. It is good also as a structure.
  • SLAM Simultaneous Localization And Mapping
  • the processing using SLAM is described in, for example, Japanese Patent Application Laid-Open No. 2011-43419 of the same applicant as the present applicant.
  • sensor information attached to the information processing apparatus may be applied as information for calculating camera position / angle information.
  • step S202 it is determined whether or not acquisition of the position / angle information of the camera executed by the information processing apparatus has succeeded. If the information cannot be obtained, it is determined that the subsequent AR image generation process is impossible, and the process ends. If information is obtained, the process proceeds to step S203.
  • step S203 the information processing apparatus calculates the current position and orientation of the information processing apparatus (camera) by applying the information obtained in step S202.
  • Step S204 the information processing apparatus executes a decoding process of the virtual image content scheduled to be superimposed and displayed.
  • step S205 the information processing apparatus uses the camera position / angle information obtained in step S203 and parameters set as metadata corresponding to each image frame of the virtual image content. A process of generating a virtual image to be displayed on the display unit is performed.
  • the parameters set as the metadata of each frame of the virtual image content are the following parameters described above with reference to the flow of FIG.
  • Relative position parameter Rpos
  • Relative angle parameter Rrot
  • a virtual image having a position and an angle attached to the marker of the captured image is superimposed.
  • the virtual image is superimposed and displayed at the same position and angle as the person of the poster 11 at time (t0) in FIG.
  • a front-facing virtual image is superimposed at the position closest to the information processing apparatus side. For example, an image corresponding to the virtual image 31 shown at time (t3) in FIG.
  • the virtual image content is moving image content, and the following parameters are individually set in each frame constituting the moving image content.
  • Relative position parameter: Rpos 0 to 1
  • Relative angle parameter: Rrot 0-1
  • the information processing apparatus acquires the above two parameters corresponding to the frame for each image frame of the virtual image content, and calculates the display position and the display angle of the virtual image of each image frame. Further, an image conversion process using these parameters is performed on the virtual image of each image frame to generate a converted virtual image having a display position and a display angle corresponding to each image frame. The converted virtual image generated by this conversion process is superimposed and displayed.
  • This image conversion processing includes, for example, the following processing for each image frame of the virtual image content.
  • the information processing apparatus executes the processes (a) to (c) for each image frame of the virtual image content, the processing parameters corresponding to the processes (a) to (c) corresponding to the image frames are performed. Is calculated.
  • This processing parameter is calculated by the following procedure.
  • First, the following two model view matrices are acquired.
  • (A) Initial state model view matrix (Mmarker) A virtual image that is the initial state of the virtual image content, for example, a model view matrix of a virtual image at the same position and angle as the person of the poster 11 at time (t0) shown in FIG. 1B: Mmarker,
  • (B) Final state model view matrix (Mdisplay) A virtual image that is the final state of the virtual image content, for example, a virtual image that is closest to the information processing device (camera) at time (t3) shown in FIG. 1B and is front-facing and normalized to the display Model view matrix of virtual image: Mdisplay, These are acquired from the storage unit or generated based on each image.
  • the model view matrix is a matrix that represents the position and orientation of a model (a virtual image corresponding to a person in the example shown in FIG. 1), and is a conversion matrix that converts the three-dimensional coordinates of the reference coordinate system into a camera coordinate system. .
  • these model view matrices may be calculated at the time of content generation with reference to FIG. 2 and stored in the storage unit of the information processing apparatus.
  • Each model view matrix may be stored in the process of step S205 in the flow shown in FIG. You may calculate from an image.
  • the information processing apparatus has these pieces of offset information, that is, (1) Rotation angle offset: Rrot ⁇ ⁇ rot, (2) Scale offset: Rpos ⁇ Vscale, (3) Moving component offset: Rpos ⁇ Vtranslate,
  • Image conversion of each image is executed to generate a converted virtual image to be superimposed and displayed.
  • the moving image content of the virtual image to be converted is, for example, moving image content obtained by photographing a poster person from an oblique direction as shown in the initial image at time (t0) in the example of FIG. Is available.
  • the setting example of the rotation angle offset: Rrot ⁇ ⁇ rot shown in FIG. 4 is an example in which the relative angle parameter: Rrot set for each virtual image frame is linearly changed according to the display time of the image frame.
  • the rotation angle offset Rrot ⁇ ⁇ rot is gradually increased according to the progress of the image. It may be set to decrease or increase.
  • Rpos ⁇ Vscale and moving component offsets Rpos ⁇ Vtranslate.
  • step S206 the information processing apparatus superimposes the virtual image content generated in step S205 on the camera captured image being displayed on the display unit of the information processing apparatus.
  • step S207 the information processing apparatus outputs an AR image in which the virtual image is superimposed on the captured image as the final result on the display unit (display) of the information processing apparatus.
  • step S208 it is determined whether or not an end condition set in advance, for example, an end condition such as the end of the image photographing process or the end of the application has occurred. If the end condition has occurred, no processing is ended. If the end condition does not occur, the process returns to step S201 and the same process is repeated.
  • the virtual image in which the display position and the display angle are sequentially changed is superimposed and displayed on the captured image being displayed on the display unit of the information processing apparatus. Will be.
  • FIG. 7 shows a configuration example of an information processing apparatus that performs the above-described processing.
  • the information processing apparatus stores a content generation unit 120 that executes the content generation process described with reference to the flowchart of FIG. 2 and content and metadata generated in the content generation process described with reference to FIG. Unit 140, and further, a content display control unit 160 that executes the content display process described with reference to the flowchart of FIG.
  • the content generation unit 120 executes the content generation process described with reference to FIG. The processing executed by each component shown in the content generation unit 120 will be described in association with the processing of each step in the flow of FIG.
  • the imaging unit (camera) 121 of the content generation unit 120 executes the camera image acquisition process in step S102 of the flow illustrated in FIG.
  • the distance estimation unit 122 executes subject distance calculation processing in step S103 of the flow of FIG.
  • these parameters are parameters according to the mode. That is, Simple mode, Constant mode, Parameters are set according to these motes. These modes are set according to user input via the input unit 123.
  • Relative position parameter: Rpos 0 to 1
  • Relative angle parameter: Rrot 0-1
  • the image processing unit 125 stores the content acquired by the imaging unit (camera) 121, that is, the moving image content of the virtual image in the moving image content database 141.
  • the moving image content database 141 and the metadata storage unit 142 are individually shown in the storage unit 140, but the image and the metadata may be stored in one database. In either case, the metadata is recorded in association with each image frame.
  • the imaging unit (camera) 161 of the content display control unit 160 executes the camera image acquisition process in step S201 of the flow shown in FIG.
  • the captured image is output to the display unit 167 and displayed.
  • the image recognition unit 162 and the recognition determination unit 163 execute the process of step S202 in the flow of FIG. 3, that is, the camera position / posture calculation information acquisition process and the acquisition possibility determination process. Specifically, for example, a marker recognition process set on a subject such as a poster shown in FIG. 1 is executed.
  • the superimposed virtual image generation unit 165 generates a virtual image to be displayed on the display unit 167, that is, the process of step S205 of the flow shown in FIG.
  • the data acquisition unit 164 acquires douger content stored in the moving image content database 141, further acquires metadata stored in the metadata storage unit 142, and outputs the metadata to the superimposed virtual image generation unit 165.
  • the data acquisition unit 164 decodes and outputs the decoded content to the superimposed virtual image generation unit 165.
  • the superimposed virtual image generation unit 165 inputs the virtual image moving image content and metadata corresponding to each frame via the data acquisition unit 164. Further, the superimposed virtual image generation unit 165 acquires camera position / posture information from the recognition determination unit 163.
  • the moving image superimposing unit 166 outputs the AR image in which the process of steps S206 to S207 in the flow of FIG. 3, that is, the virtual image is superimposed on the camera captured image being displayed on the display unit 167.
  • FIG. 7 is a diagram illustrating the main configuration of the information processing apparatus, and the information processing apparatus controls the processing described with reference to FIGS. 2 and 3 in addition to the configuration illustrated in FIG.
  • a control unit having a CPU and the like, a storage unit storing a program executed in the control unit, and the like are included.
  • the virtual image is displayed superimposed on the captured image being displayed on the display unit of the client.
  • FIG. 8A is a diagram illustrating a setting example of the restriction of the left and right angle of the camera with respect to the subject.
  • FIG. 8B is a diagram illustrating a setting example of the limitation on the vertical angle of the camera with respect to the subject and the limitation on the distance between the subject and the camera.
  • the data of the constraint information for the up / down / left / right angles and distance is linked to each moving image. Alternatively, it may be associated with each frame in each moving image.
  • each video content has a definition like “viewing angle”.
  • the setting of the allowable range of angle / distance depends on the content. For example, it is unnatural for a person to jump upward, but it is natural for a bird. When shooting a bird as a virtual object to be superimposed and displayed, the restriction in the vertical direction may be relaxed.
  • a table of allowable angles and allowable distances according to content types is stored in the storage unit of the information processing device, and the content creator selects the type of content to be photographed as necessary, and confirms the allowable angle and distance. It is desirable to shoot.
  • the information processing apparatus displays information on whether or not the current captured image is within the allowable range on the display unit that displays the captured image. Is displayed, and instruction icons, explanations, and the like for prompting photographing of images within the allowable range are displayed.
  • FIG. 9 shows a display example of instruction icons and explanations.
  • FIGS. 9A1 to 9A3 show display examples of captured images and icons when the allowable maximum distance (Xmax) between the camera and the subject is set to 5 m.
  • (A1) to (a3) show the following states.
  • (A1) The subject distance (Xactual) of the photographed image is 10 m, and an instruction icon and instruction information for bringing the camera closer to the subject are displayed.
  • (A2) The subject distance (Xactual) of the captured image is 7 m, and an instruction icon and instruction information for bringing the camera closer to the subject are displayed.
  • A3 Since the subject distance (Xactual) of the photographed image is 5 m and matches the allowable maximum distance (Xmax), the display of the instruction icon and the instruction information has disappeared.
  • FIGS. 9B1 to 9B3 show display examples of captured images and icons when the allowable maximum angle ( ⁇ max) between the camera and the subject is set to 15 degrees.
  • (B1) to (b3) show the following states.
  • (B1) The vertical angle ( ⁇ actual) of the camera with respect to the subject of the captured image is 45 degrees, and the instruction icon and the instruction information are displayed so that the vertical angle of the camera is directed more vertically.
  • (B2) The vertical angle ( ⁇ actual) of the camera with respect to the subject of the captured image is 25 degrees, and the instruction icon and the instruction information are displayed so that the vertical angle of the camera is directed more vertically.
  • the instruction information is displayed, so that the user can capture content within an allowable range.
  • FIG. 10A is a display example of a virtual object when the mask processing of this embodiment is not applied.
  • the subject image is cut linearly and looks unnatural.
  • FIG. 10B is a display example of a virtual object when the mask processing of the present embodiment is applied.
  • Mask application processing for blurring the edge region 322 at the lower end of the virtual image (person) 321 displayed in the captured image is performed, and unnaturalness is eliminated.
  • FIG. 11 shows a flow for explaining the processing sequence of the adaptive masking processing of this embodiment.
  • the process shown in this flow is executed in the “virtual image superimposition process” in step S206 in the flow described with reference to FIG.
  • step S301 the information processing apparatus performs virtual image content frame edge determination. It is determined whether the virtual image object is within the angle of view of the content in the processing frame of the virtual image content to be drawn. Specifically, it is examined whether alpha value 1 in each of the outer one line in the upper, lower, left, and right sides of the virtual image content to be superimposed continues continuously for n pixels or more. n is an arbitrary threshold value. It is determined whether the end of the object is not completely visible for each of the upper, lower, left and right lines. Note that this processing may be performed in advance on the generation side and received by receiving metadata.
  • step S302 camera-captured image edge non-collision determination processing is performed.
  • step SZ301 when the object end of the processing frame of the virtual image is completely overlooked, it is determined whether or not the overlooked portion is actually seen at the position where the content is superimposed on the camera image. There is no problem as long as the part of the original moving image source that has been overlooked is completely visible even when it is superimposed, but if the edge of the part is visible when it is overlaid, there is a sense of incongruity. That is, an unnatural linear edge as shown in FIG. In such a case, the process proceeds to step S303.
  • Step S303 image processing of the edge of the virtual image content is performed.
  • step S302 when it is determined that the part that has been overlooked in the camera-captured image is reflected, processing such as adaptively blurring only the end in the direction is performed. That is, the edge area blurring process as shown in FIG.
  • Step S304 Finally, the final result, that is, a virtual image in which the edge of the virtual image in the boundary region between the virtual image and the captured image is blurred as shown in FIG.
  • FIG. 12 shows a configuration example of an information processing apparatus that performs adaptive masking processing according to the flow shown in FIG.
  • the information processing apparatus shown in FIG. 12 is different only in that an adaptive mask processing unit 171 is added to the content display control unit 160 of the information processing apparatus described above with reference to FIG.
  • the adaptive mask processing unit 171 executes the processing described with reference to FIG.
  • Other configurations are the same as those described with reference to FIG.
  • object cutout processing is performed at the time of content generation, each is handled as separate content, and a plurality of content is handled without failure by combining at the time of superimposition.
  • the process is performed as a total of three objects.
  • FIG. 13 shows a configuration example of an information processing apparatus that performs the processing of this embodiment.
  • the information processing apparatus shown in FIG. 13 is different only in that an object cutout unit 181 is added to the content generation unit 120 of the information processing apparatus described above with reference to FIG.
  • the object cutout unit 181 performs cutout processing of each virtual object when there are a plurality of virtual objects in the image to be captured when the virtual image content is generated.
  • individual metadata that is, the relative position parameter Rpos and the relative angle parameter Rrot described above are calculated separately, set as individual metadata, and stored in the storage unit.
  • the superimposed image generation unit 165 executes individual superimposed virtual image generation processing in which each parameter is applied to each object to generate the generated virtual image. Is superimposed.
  • Other configurations are the same as those described with reference to FIG.
  • an information processing apparatus such as a smartphone can be configured to execute only photographing processing with a camera and to provide a virtual image that is superimposed and displayed by a server.
  • the server executes the processing described above with reference to FIG. 2, and provides the virtual moving image content whose display position and display angle are controlled according to the moving image sequence to the information processing apparatus (client).
  • the information processing apparatus (client) displays the virtual image content received from the server by superimposing it on the captured image.
  • the information processing apparatus (client) sends information for specifying the virtual image content to be provided to the server, for example, information such as a marker set on the poster 11 shown in FIG. provide.
  • the processing load on the information processing apparatus (client) can be reduced.
  • the technology disclosed in this specification can take the following configurations.
  • an acquisition unit that acquires a captured image captured by the imaging unit;
  • a data processing unit that superimposes a virtual image generated by transforming the input image on the captured image and displays the virtual image on a display unit;
  • the data processing unit Displaying the virtual image generated by changing either the relative position or the relative angle between the imaging unit and the input image that are virtually set in time series on the display unit;
  • Information processing device
  • the data processing unit executes an image conversion process to which metadata set in association with each frame of the moving image content of the virtual image is applied, and at least one of the display position and the display angle is time-sequentially.
  • the information processing apparatus according to (1), wherein the changed virtual image is generated.
  • Information processing device is configured to generate a virtual image in which at least one of the display position and the display angle is changed in time series and superimposed on the captured image.
  • the data processing unit calculates a conversion parameter for converting the model view matrix Mmarker corresponding to the initial image of the virtual image into a model view matrix Mdisplay corresponding to the final image of the virtual image, and the calculated conversion parameter
  • the metadata is set corresponding to each virtual image frame.
  • the relative position parameter Rpos or the relative angle parameter Rrot is multiplied to calculate offset information to be applied to the conversion process of each virtual image frame, and the virtual image frame conversion process to which the calculated offset information is applied is executed.
  • the information processing apparatus according to (3) wherein a moving image of a virtual image in which at least one of the display position and the display angle is changed in time series is generated.
  • Each of the relative position parameter Rpos and the relative angle parameter Rrot is a value that sequentially changes in the range of 0 to 1 in each moving image frame from the initial image to the final image of the virtual image ( The information processing apparatus according to 4).
  • the data processing unit executes generation processing of the virtual image moving image content, and for the virtual image moving image content generation processing, for the configuration frame of the virtual image moving image content, Relative position parameter Rpos applied to determine the display position of the virtual image, Relative angle parameter Rrot applied to determine the display angle of the virtual image,
  • the information processing apparatus according to any one of (1) to (6), wherein the information processing apparatus calculates the parameters and executes a process of storing the calculated parameters in the storage unit as metadata corresponding to an image frame.
  • the data processing unit sets each value of the relative position parameter Rpos and the relative angle parameter Rrot within a range of 0 to 1 according to the subject distance of the virtual image in each moving image frame of the image moving image content.
  • the information processing apparatus according to (7) which is set.
  • the data processing unit sets a value that sequentially changes in a range of 0 to 1 for each moving image frame from the initial image to the final image of the virtual image, the relative position parameter Rpos, and the relative angle.
  • the information processing apparatus according to (7) or (8) which is set as a value of the parameter Rrot.
  • the data processing unit sets the values of the relative position parameter Rpos and the relative angle parameter Rrot for each moving image frame constituting the virtual image in a different manner according to mode setting.
  • (11) In the generation processing of the virtual image moving image content, the data processing unit outputs restriction information indicating a preset allowable range angle and distance to the display unit, and is within the allowable range angle and distance.
  • the information processing apparatus according to any one of (7) to (9), wherein virtual image moving image content including a virtual object is generated.
  • an imaging unit that performs image capture;
  • a data processing unit that generates virtual image moving image content based on a captured image of the imaging unit;
  • the data processing unit In the virtual image moving image content generation process, for the configuration frame of the virtual image moving image content, Relative position parameter Rpos applied to determine the display position of the virtual image, Relative angle parameter Rrot applied to determine the display angle of the virtual image,
  • An information processing apparatus that executes processing for calculating each of the parameters and storing the calculated parameter in a storage unit as metadata corresponding to an image frame.
  • the data processing unit sets each value of the relative position parameter Rpos and the relative angle parameter Rrot within a range of 0 to 1 according to the subject distance of the virtual image in each moving image frame of the image moving image content.
  • the information processing device according to (12) to be set.
  • an imaging unit that performs image capture;
  • a display unit for displaying a captured image of the imaging unit;
  • a data processing unit that superimposes and displays a virtual image on the captured image displayed on the display unit;
  • the data processing unit An information processing apparatus that acquires, from a server, a moving image of a virtual image in which at least one of a display position and a display angle is changed in time series, and displays the acquired virtual image in a superimposed manner on the captured image.
  • the configuration of the present disclosure includes a method of processing executed in the above-described apparatus and system and a program for executing the processing.
  • the series of processing described in the specification can be executed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be recorded in advance on a recording medium.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
  • the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
  • the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
  • a configuration is realized in which a virtual image whose display position and angle are changed with time is superimposed and displayed on a camera-captured image displayed on the display unit.
  • an imaging unit a display unit that displays a captured image of the imaging unit, and a data processing unit that displays a virtual image superimposed on the captured image displayed on the display unit.
  • the data processing unit superimposes and displays the moving image of the virtual image in which the display position and the display angle are changed in time series on the captured image.
  • the data processing unit uses, as frame-corresponding metadata of the virtual image content, a relative position parameter Rpos applied to the determination of the display position of the virtual image, a relative angle parameter Rrot applied to the determination of the display angle of the virtual image, and each of these parameters And applying the acquisition parameter to generate a virtual image in which the display position or the display angle is changed in time series and display the virtual image.
  • a configuration is realized in which a virtual image whose display position and angle are changed with time is superimposed and displayed on the camera-captured image.

Abstract

表示部に表示されたカメラ撮影画像に、時間とともに表示位置や角度を変更した仮想画像を重畳表示する構成を実現する。撮像部と、撮像部の撮影画像を表示する表示部と、表示部に表示された撮影画像上に仮想画像を重畳表示するデータ処理部を有する。データ処理部は、表示位置、表示角度を時系列に変更した仮想画像の動画を撮影画像上に重畳表示する。データ処理部は、仮想画像コンテンツのフレーム対応メタデータとして、仮想画像の表示位置の決定に適用する相対位置パラメータRposと、仮想画像の表示角度の決定に適用する相対角度パラメータRrot、これらの各パラメータを取得し、取得パラメータを適用して、表示位置または表示角度を時系列に変更した仮想画像を生成して重畳表示する。

Description

情報処理装置、および情報処理方法、並びにプログラム
 本開示は、情報処理装置、および情報処理方法、並びにプログラムに関する。特に、拡張現実(AR:Augmented Reality)表示を実行する情報処理装置、および情報処理方法、並びにプログラムに関する。
 例えばカメラの撮影画像に、撮影画像以外の仮想画像を重畳した画像は、拡張現実(AR:Augmented Reality)画像と呼ばれ、昨今、様々な分野で利用されている。
 特に、近年、通信機能に加えカメラ機能とディスプレイを備えたスマートフォンなどの携帯端末が普及し、これらのスマートフォンにおいて拡張現実(AR)画像を適用したアプリケーションが多く利用されている。
 AR画像の1つの利用例として、以下のような例がある。
 例えばスマートフォン等の携帯端末のカメラ機能を用いて人物のポスターを撮影し、スマートフォンの表示部に表示する。
 スマートフォンのデータ処理部は、撮影されたポスター、あるいはポスターに設定されたマーカを識別し、ポスターに移っている人物に対応する画像データを記憶部、あるいは外部のサーバから取得する。
 さらに、取得した画像を撮影画像に重畳表示する。このような処理によってポスターから人物が飛び出してくるような画像を表示、観察することができる。
 なお、AR画像の生成、表示処理について開示した従来技術として、例えば特許文献1(特開2012-58838号公報)がある。
 さらに、ポスターから飛び出した人物画像を時間経過とともに拡大するといった処理によって、そのスマートフォンを持つユーザ側に人物が近付いてくるようなAR画像の表示が可能となる。
 例えばカメラがポスターを斜め方向から撮影している場合、撮影画像上ではポスターにプリントされた人物は斜めから見た画像として表示される。この斜めから見た人物がポスターから飛び出すような自然なAR画像を生成するためには、重畳する画像もポスターと同様、斜めから見た人物の画像とすることが必要である。
 しかし、この斜めから見た人物画像を時間の経過とともにユーザ側に近づいてくる画像として生成すると、斜めからみた人物が、そのままの姿勢でユーザ側に近付いてくる画像となり、不自然な画像となってしまう。
特開2012-58838号公報
 本開示は、例えば上記問題点に鑑みてなされたものであり、例えばユーザの持つ携帯端末のカメラで撮影され表示部に表示された撮影画像に重畳して仮想画像を表示する構成において、例えば人物などの仮想画像の位置や角度を時間に応じて変化させる制御を行うことで、より自然なAR画像の表示を実現する情報処理装置、および情報処理方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 撮像部で撮像される撮像画像を取得する取得部と、
 前記撮像画像に、入力画像を変形することで生成される仮想画像を重畳して表示部に表示させるデータ処理部とを有し、
 前記データ処理部は、
 仮想的に設定される前記撮像部と入力画像との相対位置、または相対角度のいずれかを時系列に変化させることで生成される前記仮想画像を前記表示部に表示させる、
情報処理装置にある。
 さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記仮想画像の動画コンテンツの各フレームに対応付けて設定されたメタデータを適用した画像変換処理を実行して少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像を生成する。
 さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記仮想画像の動画コンテンツの各フレームに対応付けて設定されたメタデータとして、
 仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
 仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
 これらの各パラメータを取得し、取得パラメータを適用して、少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像を生成して前記撮影画像上に重畳表示する。
 さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記仮想画像の初期画像に対応するモデルビュー行列Mmarkerを、前記仮想画像の最終画像に対応するモデルビュー行列Mdisplayに変換する変換パラメータを算出し、算出した変換パラメータに対して、各仮想画像フレームに対応して設定されたメタデータである。前記相対位置パラメータRpos、または、前記相対角度パラメータRrotを乗算して、各仮想画像フレームの変換処理に適用するオフセット情報を算出し、算出したオフセット情報を適用した仮想画像フレームの変換処理を実行して、少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像の動画を生成する。
 さらに、本開示の情報処理装置の一実施態様において、前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各々は、前記仮想画像の初期画像から最終画像に至る各動画像フレームにおいて0~1の範囲で順次変化する値である。
 さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記仮想画像の撮影画像に対する重畳表示処理に際して、仮想画像と撮影画像の境界部の仮想画像のぼかし処理を実行する。
 さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記仮想画像動画コンテンツの生成処理を実行し、仮想画像動画コンテンツ生成処理に際して、仮想画像動画コンテンツの構成フレームに対して、
 仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
 仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
 上記各パラメータを算出し、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行する。
 さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各値を、画像動画コンテンツの各動画像フレームにおける仮想画像の被写体距離に応じて0~1の範囲で設定する。
 さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記仮想画像の初期画像から最終画像に至る各動画像フレームに対して0~1の範囲で順次変化する値を、前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの値として設定する。
 さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各々の値を、モード設定に応じて異なる態様で前記仮想画像を構成する各動画像フレームに対して設定する。
 さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記仮想画像動画コンテンツの生成処理に際して、予め設定された許容範囲の角度と距離を示す制限情報を表示部に出力し、前記許容範囲の角度と距離内での仮想オブジェクトを含む仮想画像動画コンテンツを生成する。
 さらに、本開示の第2の側面は、
 画像撮影を実行する撮像部と、
 前記撮像部の撮影画像に基づいて仮想画像動画コンテンツを生成するデータ処理部を有し、
 前記データ処理部は、
 仮想画像動画コンテンツ生成処理に際して、仮想画像動画コンテンツの構成フレームに対して、
 仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
 仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
 上記各パラメータを算出し、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行する情報処理装置にある。
 さらに、本開示の情報処理装置の一実施態様において、前記データ処理部は、前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各値を、画像動画コンテンツの各動画像フレームにおける仮想画像の被写体距離に応じて0~1の範囲で設定する。
 さらに、本開示の第3の側面は、
 画像撮影を実行する撮像部と、
 前記撮像部の撮影画像を表示する表示部と、
 前記表示部に表示された撮影画像上に仮想画像を重畳表示するデータ処理部を有し、
 前記データ処理部は、
 少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像の動画をサーバから取得し、取得した仮想画像を前記撮影画像上に重畳表示する情報処理装置にある。
 さらに、本開示の第4の側面は、
 情報処理装置において実行する情報処理方法であり、
 前記情報処理装置は、撮像部で撮像される撮像画像を取得する取得部と、入力画像を変形することで生成される仮想画像を重畳して表示部に表示させるデータ処理部を有し、
 前記データ処理部は、
 仮想的に設定される前記撮像部と入力画像との相対位置、または相対角度のいずれかを時系列に変化させることで生成される前記仮想画像を前記表示部に表示させる情報処理方法にある。
 さらに、本開示の第5の側面は、
 情報処理装置において実行する情報処理方法であり、
 前記情報処理装置は、画像撮影を実行する撮像部と、前記撮像部の撮影画像に基づいて仮想画像動画コンテンツを生成するデータ処理部を有し、
 前記データ処理部は、
 仮想画像動画コンテンツ生成処理に際して、仮想画像動画コンテンツの構成フレームに対して、
 仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
 仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
 上記各パラメータを算出し、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行する情報処理方法にある。
 さらに、本開示の第6の側面は、
 情報処理装置において情報処理を実行させるプログラムであり、
 前記情報処理装置は、撮像部で撮像される撮像画像を取得する取得部と、
 前記撮像画像に、入力画像を変形することで生成される仮想画像を重畳して表示部に表示させるデータ処理部とを有し、
 前記プログラムは、前記データ処理部に、
 仮想的に設定される前記撮像部と入力画像との相対位置、または相対角度のいずれかを時系列に変化させることで生成される前記仮想画像を前記表示部に表示させるプログラムにある。
 さらに、本開示の第7の側面は、
 情報処理装置において情報処理を実行させるプログラムであり、
 前記情報処理装置は、画像撮影を実行する撮像部と、前記撮像部の撮影画像に基づいて仮想画像動画コンテンツを生成するデータ処理部を有し、
 前記プログラムは、前記データ処理部に、
 仮想画像動画コンテンツ生成処理に際して、仮想画像動画コンテンツの構成フレームに対して、
 仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
 仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
 上記各パラメータを算出させ、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、表示部に表示されたカメラ撮影画像に、時間とともに表示位置や角度を変更した仮想画像を重畳表示する構成が実現される。
 具体的には、撮像部と、撮像部の撮影画像を表示する表示部と、表示部に表示された撮影画像上に仮想画像を重畳表示するデータ処理部を有する。データ処理部は、表示位置、表示角度を時系列に変更した仮想画像の動画を撮影画像上に重畳表示する。データ処理部は、仮想画像コンテンツのフレーム対応メタデータとして、仮想画像の表示位置の決定に適用する相対位置パラメータRposと、仮想画像の表示角度の決定に適用する相対角度パラメータRrot、これらの各パラメータを取得し、取得パラメータを適用して、表示位置または表示角度を時系列に変更した仮想画像を生成して重畳表示する。
 これらの構成により、カメラ撮影画像に、時間とともに表示位置や角度を変更した仮想画像を重畳表示する構成が実現される。
本開示の処理の概要について説明する図である。 本開示のコンテンツ生成処理のシーケンスについて説明するフローチャートを示す図である。 本開示のコンテンツ表示処理のシーケンスについて説明するフローチャートを示す図である。 重畳表示する仮想画像の表示角度制御について説明する図である。 重畳表示する仮想画像の表示角度制御について説明する図である。 重畳表示する仮想画像の表示角度制御について説明する図である。 情報処理装置の構成例について説明する図である。 仮想画像コンテンツの生成時の制限構成について説明する図である。 仮想画像コンテンツの生成時の制限構成を実現する説明情報とアイコンの表示例について説明する図である。 適応的マスキング処理の具体例について説明する図である。 適応的マスキング処理のシーケンスについて説明するフローチャートを示す図である。 適応的マスキング処理を実行する情報処理装置の構成例について説明する図である。 オブジェクト切り出し処理を実行する情報処理装置の構成例について説明する図である。
 以下、図面を参照しながら本開示の情報処理装置、および情報処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行う。
  1.本開示の処理の概要について
  2.本開示の第1実施例について
   2-1.仮想画像動画コンテンツの生成処理について
   2-2.仮想画像動画コンテンツを撮影画像に重畳表示する処理について
  3.情報処理装置の構成例について
  4.変形実施例について
   4-1.仮想画像コンテンツ生成時の被写体の位置に関する制約を設定した実施例について
   4-2.仮想画像表示処理時の画像エッジの加工処理を行なう実施例について
   4-3.複数の仮想画像に対する処理を行なう実施例について
   4-4.処理の一部をネットワーク接続したサーバで実行する処理例について
  5.本開示の構成のまとめ
  [1.本開示の処理の概要について]
 まず、図1を参照して、本開示の処理の概要について説明する。
 図1は、以下の2つのAR画像の表示処理例を示している。
 (A)角度制御なしの仮想画像表示処理
 (B)角度制御ありの仮想画像表示処理
 いずれも、ユーザがカメラ機能を持つスマートフォン等の携帯端末を用いて、人物の印刷されたポスター11を撮影し、携帯端末の表示部に表示されたカメラ撮影画像15を時間経過(t0~t4)とともに示した図である。
 (A),(B)いずれも撮影画像ではない仮想画像を、撮影画像に重畳表示している。
 仮想画像は、例えばポスター11にプリントされた人物と同じ実際の人物の2次元画像データであり、例えばスマートフォン等の携帯端末の記憶部に格納された画像データ、あるいはネットワークを介したサーバの提供する画像データである。
 ユーザは、ポスター11を斜め方向から撮影している。図1(A)に示す角度制御なしの仮想画像表示処理では、斜めに撮影されているポスターから人物が飛び出しくるように表示するため、重畳表示する仮想画像21もポスターと同様、斜め方向から見た人物画像としている。
 その後、この人物が時間の経過(t0~t4)とともに、ユーザ側に近づいてくる表示を行うため、その斜めから見た画像を適用した動画表示処理を行なっている。
 しかし、図1(A)に示す時間(t3),(t4)等の仮想画像21は、カメラに近づいているにも関わらず、人物は斜め方向から見た画像のままであり、ユーザに近づくにつれて不自然な画像であると認識され、明らかに撮影画像と別の貼り付け画像であると認識されることになる。これは、時間(t0)の初期画像の撮影方向と同様の方向から撮影した画像をそのまま適用することに起因する。
 これに対して、図1(B)の角度制御ありの仮想画像表示処理は、以下に説明する本開示の処理を適用した仮想画像の表示処理例である。
 図1(B)に示す例では、図1(A)と異なり、仮想画像31は、時間の経過(t1→t4)とともに、斜め向きから正面向きに表示角度が変更されている。
 このように仮想画像の角度の制御を行なうことで、ポスターから飛び出した人物が、より自然にユーザ側に近づいてくる画像を提供することが可能となる。
 図1(B)に示す例では、時間(t0)の初期画像の撮影方向と同様の方向から撮影した画像に対して、例えば仮想画像の距離に応じた角度制御等を実行して、仮想画像の向きなどを変更する処理を行なっている。この処理によってより自然な仮想画像の表示が可能となる。
 以下、このような画像表示を実現する本開示の処理の詳細について説明する。
 図1(B)に示すような画像表示を行うため、例えば、仮想画像の動画コンテンツを構成する各フレームにカメラとの相対位置・角度(の割合)をメタデータとして設定する。
 メタデータは仮想画像として表示するオブジェクト、例えば人物などのオブジェクトの距離情報に応じたデータとして設定する。
 なお、距離情報は、例えばカメラからの被写体距離を例えば画素単位で設定したデプスマップが利用可能である。デプスマップは、複眼カメラなどで撮影したデータを用いた処理、あるいはカメラと別に距離情報(デプス)を取得するデバイスを用いて、事前に生成可能である。
 なお、デプスマップがない場合も、距離測定対象となるオブジェクトが人物であれば顔検出を用いて顔の大きさから距離を判定することが可能である。
 また、ユーザやオペレータが手動で距離情報を設定してもよい。
 なお、以下の実施例において詳細に説明するが、例えば図1(B)に示すようなポスターから飛び出した人物の角度制御処理の態様としては、様々な設定が可能である。
 例えば、仮想画像として表示した人物が時間経過に伴い、カメラに近づいた後、あるいは遠ざかったあとは、常に正面向きとするなど、仮想画像とカメラとの角度を一定にする設定等の制御が可能である。
 なお、画像撮影および表示を実行する装置は、スマートフォンに限らず、例えばPCや、メガネ型のARグラスなど、様々な情報処理装置によって実現可能である。
 本開示の処理を適用することで、スマートフォンやARグラスなどの情報処理装置に表示中のカメラ撮影画像等のベース画像に、人物などの仮想画像を重畳表示する構成において、より自然な仮想画像の表示が可能となる。
 具体的には、仮想画像の表示位置や表示角度を時間経過とともに変更して、より自然な仮想画像の表示、すなわち、仮想画像が重畳対象となる撮影画像等のベース画像中に存在するような表示を実現することが可能となる。
 なお、重畳する仮想画像は、例えば仮想画像が実写の人物画像である場合、人物以外の画素部分の透過度を最大にし、人物領域の透過度を0に設定するなどの透過度情報あるいはマスク情報と呼ばれる画素単位のαチャンネル情報を持つ画像データが利用可能である。このようなαチャンネルを持つコンテンツを撮影画像に重畳することで、仮想画像に含まれる人物領域のみがクライアントの撮影画像に重畳され、人物以外の画像領域では撮影画像がそのまま表示される。
  [2.本開示の第1実施例について]
 本開示の第1実施例について説明する。
 図1(B)を参照して説明したようなカメラ撮影画像に対して、仮想画像を重畳表示する処理を実現するための処理として、以下の2つの処理が必要となる。
 (a)仮想画像動画コンテンツの生成処理、
 (b)上記(a)の処理において生成した仮想画像動画コンテンツを撮影画像に重畳表示する処理、
 以下、これらの各処理について、順次、説明する。
  [2-1.仮想画像動画コンテンツの生成処理について]
 まず、図1(B)に示す仮想画像31を表示するための仮想画像動画コンテンツの生成処理シーケンスについて図2に示すフローを参照して説明する。
 なお、この動画コンテンツの生成処理は、例えばスマートフォン等の情報処理装置において実行してもよいし、その他のPC等の情報処理装置において実行してもよい。
 なお、フローに示す処理は、情報処理装置の記憶部に格納されたプログラムに従って、データ処理部、すなわちプログラム実行機能を有するCPU等を有するデータ処理部の制御の下に実行される。
 以下、各ステップの処理の詳細について、順次、説明する。
  (ステップS101)
 まず、情報処理装置のデータ処理部は、入力部を介するユーザによるモード設定情報を入力し、「飛び出す効果」をどのような演出にするかを決定する。設定モードは例えば以下の2種類がある。
 (1)シンプルモード
 シンプルモードは、単純に仮想画像とカメラ(情報処理装置)との距離に応じてカメラ重畳表示する仮想画像のなす角度・位置を決定するモードである。
 (2)コンスタントモード
 コンスタントモードは、撮影画像であるベース画像の撮影オブジェクトであるポスターなどから仮想画像を飛び出させた後は、カメラとのなす角度を一定にする、例えば正面向きに設定する処理を行なうモードである。
 なお、これらのモードは2者択一モードとした設定としてもよいが、シンプルモードからコンスタントモードまでの間のモードについても設定可能な構成としてもよい。
 また、カメラとのなす角度を変化させる速度をユーザがパラメータとして入力部を介して入力する構成とし、データ処理部が入力パラメータに応じた制御を行う構成としてもよい。
  (ステップS102)
 次に、ステップS102において、情報処理装置の撮像部(カメラ)を適用してカメラ画像取得処理を行なう。これは、仮想画像として表示する例えば人物などからなる撮影画像を取得する処理である。例えばグリーンバックの設備のあるスタジオなどで人物を撮影する。
  (ステップS103)
 次に、ステップS103において、仮想画像として表示する被写体である人物等のオブジェクトまでの距離を算出する。
 なお、被写体距離情報の取得方法としては、様々な手法が適用可能である。
 具体的には、例えば、以下の手法が適用できる。
 (ア)複眼カメラを用いてステレオビジョン的、もしくはKinectのように近赤外カメラを併用して距離を取得しデプスマップを生成する。生成したデプスマップを用いて、映像処理をした切り抜き後のオブジェクトの領域におけるデプスの平均を距離とする。
 (イ)仮想画像として表示する被写体対象が人物であれば、顔検出や人体検出を用いて大きさから距離を推定する。
 (ウ)映像処理をした切り抜き後のオブジェクトの領域面積の大きさから距離を推定する。
  (ステップS104)
 次に、情報処理装置は、ステップS104において、仮想画像として表示するオブジェクト、例えば人物の相対位置と角度を、仮想画像動画コンテンツを構成する各フレーム対応のメタデータ(属性情報)として設定する。
 以下、このメタデータ設定処理の詳細アルゴリズムについて説明する。
 なお、このメタデータ設定処理は、前述したモードに応じて異なる処理となる。
 すなわち、「シンプルモード」と「コンスタントモード」では異なる処理となる。
 以下、各モードに対応するメタデータ設定処理アルゴリズムについて説明する。
  (シンプルモードにおけるメタデータ設定アルゴリズムについて)
 シンプルモードは、前述したように単純に仮想画像とカメラ(情報処理装置)との距離に応じてカメラ重畳表示する仮想画像のなす角度・位置を決定するモードである。
 まず、以下のように各変数を定義する。
 動作開始点における距離:Dstart
 処理時刻における距離:Dproc
 動画シーケンスにおける最短距離:Dmin
 とする。
 例えば、動作開始点における距離:Dstartは、図1(B)の例では、カメラからポスターまでの距離に相当する。
 処理時刻における距離:Dprocは、図1(B)の例で、時刻(t0~t4)
各々のカメラから仮想画像の距離に相当する。
 動画シーケンスにおける最短距離:Dminは、図無1(B)の例では、時刻(t4)のカメラから仮想画像の距離に相当する。
 なお、Dstart>=Dproc>=Dmin>=0
 としたとき、
 相対位置パラメータ:Rposと、相対角度パラメータ:Rrotを、以下のように定義する。
 Rpos=(Dstart-Dproc)/(Dstart-Dmin)
 Rrot=(Dstart-Dproc)/(Dstart-Dmin)
 上記式から明らかなように、
 相対位置パラメータ:Rpos=0~1
 相対角度パラメータ:Rrot=0~1
 これらの値を取り得る。
 処理時刻における距離:Dprocが、動作開始点における距離:Dstartに等しい場合、すなわち、例えば図1(B)の設定の時刻(t0)では、
 Rpos=0
 Rrot=0
 である。
 また、処理時刻における距離:Dprocが、動画シーケンスにおける最短距離:Dminに等しい場合、すなわち、例えば図1(B)の設定の時刻(t4)では、
 Rpos=1
 Rrot=1
 である。
 すなわち、相対位置パラメータ:Rposと、相対角度パラメータ:Rrotはいずれも動作開始点から、最短距離に至るまで0~1の値を連続的に変化するパラメータとなる。
 これらのパラメータを適用した仮想画像表示処理については後段で説明する。
 例えば、
 相対位置パラメータ:Rpos=0、
 相対角度パラメータ:Rrot=0、
 このようなパラメータ設定では、図1(B)の時刻(t0)のように、ポスターの人物と同一の仮想画像を重畳表示する処理を実行する。
 すなわち、仮想オブジェクトの位置、角度が、撮影画像のポスターと同一となる設定とする。
 また、
 相対位置パラメータ:Rpos=1、
 相対角度パラメータ:Rrot=1、
 このようなパラメータ設定では、図1(B)の時刻(t4)のように、仮想画像を予め既定したカメラへの最近接位置とし、かつ正面向きの仮想画像を表示する処理を実行する。
 これらのパラメータを適用した仮想画像表示処理については後段で説明する。
 なお、このパラメータ定義式、すなわち、
 相対位置パラメータ:Rpos=(Dstart-Dproc)/(Dstart-Dmin)
 相対角度パラメータ:Rrot=(Dstart-Dproc)/(Dstart-Dmin)
 これらのパラメータ定義式は、一例であり、様々な変形が可能である。
 例えば、カメラとのなす角度=0になる距離閾値:Dlimを導入して、以下のアルゴリズムに従ってパラメータを設定してもよい。
 相対位置パラメータ:Rpos=(Dstart-Dproc)/(Dstart-Dmin)
 If Dproc<Dlim Then
         Rrot=1.0
Else
         Rrot=(Dstart-Dproc)/(Dstart-Dlim)
Endif
 上記のパラメータ設定アルゴリズムは、仮想画像オブジェクトが最短位置(Dmin)に到達する前に、所定の距離(Dlim)に到達したことを条件として、仮想画像オブジェクトとカメラとのなす角をゼロ、すなわち、仮想画像としての人物をカメラに正面向きに設定する処理を実行するアルゴリズムである。
 なお、このようなアルゴリズムの設定処理は、例えば、情報処理装置の入力部を介したモード設定やパラメータ入力によって実行可能である。
 シンプルモードでは、上記の相対位置パラメータ:Rposと、相対角度パラメータ:Rrotを仮想画像の動画コンテンツの構成フレームにメタデータとして時系列に順次設定する。
 例えば、動画コンテンツがフレーム0~1000の1000フレームである場合、
 相対位置パラメータ:Rpos=0~1、
 相対角度パラメータ:Rrot=0~1、
 これらのパラメータを仮想画像の動画コンテンツの構成フレームに時系列に順次設定する。
  (コンスタントモードにおけるメタデータ設定アルゴリズムについて)
 コンスタントモードは、前述したように、撮影画像であるベース画像の撮影オブジェクトであるポスターなどから仮想画像を飛び出させた後は、カメラとのなす角度を一定にする、例えば正面向きに設定する処理を行なうモードである。
 コンスタントモードでは、
 上記のシンプルモードで定義した変数、すなわち、
 動作開始点における距離:Dstart
 処理時刻における距離:Dproc
 動画シーケンスにおける最短距離:Dmin
 これらの変数に加え、
 カメラとのなす角ゼロになる距離閾値Dlimを初めて下回る時刻Tlim、
 処理時刻Tproc、
 これらの変数を定義する。
 コンスタントモードでは、以下のアルゴリズムに従って、相対角度パラメータ:Rrotを算出する。
 If Tproc>=Tlim Then
         Rrot=1.0
Else
         Rrot=(Dstart-Dproc)/(Dstart-Dlim)
Endif
 なお、相対位置パラメータ:Rposは、シンプルモードと同様の設定としてよい。
 上記のアルゴリズムで「一旦飛び出したあとはカメラとのなす角が常にゼロになる」ような仮想画像表示が可能になる。
 コンスタントモードでは、上記の相対位置パラメータ:Rposと、相対角度パラメータ:Rrotを仮想画像の動画コンテンツの構成フレームにメタデータとして時系列に順次設定する。
 例えば、動画コンテンツがフレーム0~1000の1000フレームである場合、
 相対位置パラメータ:Rpos=0~1、
 相対角度パラメータ:Rrot=0~1、
 これらのパラメータを仮想画像の動画コンテンツの構成フレームに時系列に順次設定する。
  (ステップS105)
 情報処理装置は、次にステップS105において、画そう画像の動画コンテンツの生成処理を行なう。
 具体的には、重畳表示するオブジェクト、たとえば人物のみを切り出した映像を生成する処理を行なう。
 例えば、仮想画像が実写の人物画像である場合、人物以外の画素部分の透過度を最大にし、人物領域の透過度を0に設定するなどの透過度情報あるいはマスク情報と呼ばれる画素単位のαチャンネル情報を持つ画像データを生成する。このようなαチャンネルを持つコンテンツを撮影画像に重畳することで、仮想画像に含まれる人物領域のみがクライアントの撮影画像に重畳され、人物以外の画像領域では撮影画像がそのまま表示される。
  (ステップS106)
 情報処理装置は、次に、ステップS104において生成したメタデータと、ステップS105において生成した画像データを対応付けて記録する。例えばハードディスクやフラッシュメモリ、などのメディアに記録する処理を行なう。
  (ステップS107)
 最後に、ステップS107において、終了判定を行う。
 処理している動画シーケンスに次のフレームがあれば、ステップS102に戻り、次のフレームを処理する。全ての処理が終了した場合、処理を終了する。
  [2-2.仮想画像動画コンテンツを撮影画像に重畳表示する処理について]
 次に、図2に示すフローに従って生成した重畳表示用の仮想画像からなる動画コンテンツを表示する処理シーケンスについて図3に示すフローチャートを参照して説明する。
 なお、この仮想画像動画コンテンツを撮影画像に重畳表示する処理は、例えばスマートフォン等の撮像部(カメラ)と表示部を備えた情報処理装置において実行される。なお、その他、撮像部(カメラ)と表示部を備えた構成であれは、例えばPCやARグラスなどの様々な装置において実行可能である。
 なお、フローに示す処理は、情報処理装置の記憶部に格納されたプログラムに従って、データ処理部、すなわちプログラム実行機能を有するCPU等を有するデータ処理部の制御の下に実行される。
 以下、各ステップの処理の詳細について、順次、説明する。
  (ステップS201)
 まず、情報処理装置のデータ処理部は、情報処理装置の撮像部(カメラ)で画像撮影を実行し、撮影画像を取得する。
 例えば、図1(B)に示す時間(t0)のような画像である。
  (ステップS202)
 次に情報処理装置はステップS202において、後段で必要となるカメラの位置・角度情報を算出するための情報取得に成功したか否かを判定する。
 カメラの位置・角度情報を算出するための情報とは、例えば、撮影画像に含まれるマーカである。マーカとは、例えば図1に示すポスター11に予め印刷されたサイバーコード(Cyber-Code)などの二次元バーコード等である。このようなマーカを認識すれば、カメラ画像に映るマーカの角度から、カメラの位置や角度を算出することができる。
 なお、カメラの位置・角度情報を算出するための情報としては、サイパーコード等のマーカに限らず、ポスターやCDのジャケットなどの物体自身であってもよい。
 情報処理装置の実行するカメラの位置・角度算出処理アルゴリズムに応じて、何をカメラの位置・角度情報を算出するための情報として利用するかは異なり、適用情報は様々な設定が可能である。
 例えば、情報処理装置のカメラによって撮影された画像から特徴点を抽出しトラッキングすることでカメラの三次元的位置を認識するようなSLAM(Simultaneous Localization And Mapping)の技術を適用した位置同定処理を行なう構成としてもよい。なお、SLAMを適用した処理については、例えば本出願人と同一出願人の特開2011-43419号公報等に記載されている。
 また、その他、カメラの位置・角度情報を算出するための情報として、情報処理装置に付属するセンサの情報を適用してもよい。
 このように、ステップS202では、情報処理装置の実行するカメラの位置・角度情報の取得に成功したか否かを判定する。
 情報が得られない場合は、その後のAR画像生成処理は不可能と判断し、処理を終了する。
 情報が得られた場合は、ステップS203に進む。
  (ステップS203)
 次に、情報処理装置はステップS203において、ステップS202で得られた情報を適用して情報処理装置(カメラ)の現在の位置および姿勢を算出する。
  (ステップS204)
 次に、情報処理装置は、ステップS204において、重畳表示予定の仮想画像コンテンツのデコード処理を実行する。
  (ステップS205)
 次に、情報処理装置はステップS205において、ステップS203で求めたカメラの位置・角度情報、および、仮想画像コンテンツの各画像フレーム対応のメタデータとして設定されたパラメータを利用して、情報処理装置の表示部に表示する仮想画像の生成処理を行なう。
 なお、仮想画像コンテンツの各フレームのメタデータとして設定されたパラメータとは、先に図2のフローを参照して説明した以下のパラメータである。
 相対位置パラメータ:Rpos、
 相対角度パラメータ:Rrot、
 これらのパラメータである。
 具体的には、例えば、仮想画像フレームに設定されたパラメータが、
 Rpos=0、
 Rrot=0、
 これらの設定である画像の場合は、撮影画像のマーカに張り付けた位置、および角度とした仮想画像を重畳する。
 例えば、図1(B)の時間(t0)のポスター11の人物に等しい位置、角度で仮想画像を重畳表示する。
 一方、例えば、仮想画像フレームに設定されたパラメータが、
 Rpos=1、
 Rrot=2、
 これらの設定である画像の場合は、情報処理装置側に最も近付いた位置で、かつ正面向きの仮想画像を重畳する。
 例えば、図1(B)の時間(t3)に示す仮想画像31に相当する画像を重畳表示する。
 なお、先に図2のフローを参照して説明したように、仮想画像コンテンツは、動画像コンテンツであり、この動画像コンテンツを構成する各フレームに、個別に以下のパラメータが設定されている。
 相対位置パラメータ:Rpos=0~1、
 相対角度パラメータ:Rrot=0~1、
 情報処理装置は、仮想画像コンテンツの各画像フレームについて、フレーム対応の上記2つのパラメータを取得して、各画像フレームの仮想画像の表示位置と表示角度を算出する。さらに、各画像フレームの仮想画像に対して、これらのパラメータを適用した画像変換処理を実行して、各画像フレームに対応する表示位置と表示角度を持つ変換仮想画像を生成する。この変換処理によって生成した変換仮想画像を重畳表示する。
 この画像変換処理には、例えば、仮想画像コンテンツの各画像フレームに対する以下の処理が含まれる。
 (a)回転処理、
 (b)スケール変更処理(拡大、縮小)、
 (c)平行移動処理、
 情報処理装置は、仮想画像コンテンツの各画像フレームについて、上記処理(a)~(c)を実行するため、各画像フレームに対応する上記(a)~(c)の各処理に対応する処理パラメータを算出する。
 この処理パラメータは以下の手順で算出する。
 まず、以下の2つのモデルビュー行列を取得する。
 (A)初期状態モデルビュー行列(Mmarker)
 仮想画像コンテンツの初期状態である仮想画像、例えば、図1(B)に示す時間(t0)のポスター11の人物と同じ位置、角度の仮想画像のモデルビュー行列:Mmarker、
 (B)最終状態モデルビュー行列(Mdisplay)
 仮想画像コンテンツの最終状態である仮想画像、例えば、図1(B)に示す時間(t3)の情報処理装置(カメラ)に最近接し、正面向きの仮想画像であり、ディスプレスに正規化された仮想画像のモデルビュー行列:Mdisplay、
 これらを記憶部から取得、または各画像に基づいて生成する。
 なお、モデルビュー行列とは、モデル(図1に示す例では人物対応の仮想画像)の位置および姿勢を表す行列であり、基準座標系の3次元座標をカメラ座標系に変換する変換行列である。
 なお、これらのモデルビュー行列は、図2を参照してコンテンツ生成時に算出して情報処理装置の記憶部に格納しておいてもよいし、この図3に示すフローのステップS205の処理に際して各画像から算出してもよい。
 次に、この2つのモデルビュー行列、Mmarkerと、Mdisplayを用いて、行列Mmarkerを、行列Mdisplayに変換するための以下のパラメータを算出する。
 回転軸:Vrot、
 回転角度:θrot
 スケール:Vscale、
 移動成分:Vtranslate、
 これらのパラメータを算出する。
 さらに、各画像フレームに対応して設定されたメタデータ、すなわち、
 相対位置パラメータ:Rpos=0~1、
 相対角度パラメータ:Rrot=0~1、
 これらのパラメータを用いて、各画像フレームの仮想画像を変換するパラメータとして、以下のオフセット情報を算出する。
 (1)回転角度オフセット:Rrot×θrot、
 (2)スケールオフセット:Rpos×Vscale、
 (3)移動成分オフセット:Rpos×Vtranslate、
 例えば、上記の(1)回転角度オフセット:Rrot×θrotは、仮想画像コンテンツの各画像フレームに設定された相対角度パラメータ:Rrot=0~1に応じて図4のグラフに示す値に設定される。
 図4は、横軸に仮想画像コンテンツの各画像フレームに設定された相対角度パラメータ:Rrot=0~1、縦軸に、各画像に対応して算出される回転角度オフセット:Rrot×θrotを示している。
 横軸の相対角度パラメータ:Rrot=0~1は、動画像を構成する各画像フレーム、すなわち第0フレームf(t0)~最終フレームf(tn)の
各画像に設定されたパラメータである。
 第0フレームf(t0)では、相対角度パラメータ:Rrot=0であり、
 回転角度オフセット:Rrot×θrot=0となる。
 すなわち、この場合、仮想画像コンテンツの第0フレームf(t0)の仮想画像に対して回転処理は実行されずに重畳表示用の画像を生成する。
 また、第nフレームf(tn)では、相対角度パラメータ:Rrot=1であり、
 回転角度オフセット:Rrot×θrot=θrotとなる。
 すなわち、この場合、仮想画像コンテンツの第nフレームf(tn)の仮想画像に対して、初期状態モデルビュー行列(Mmarker)を最終状態モデルビュー行列(Mdisplay)に変換するための回転角度:θrotに応じて回転処理を実行して重畳表示用の画像を生成する。
 仮想画像コンテンツの第0フレームf(t0)~第nフレームf(tn)までの各フレームにおいて、図4に示すグラフのように、
 回転角度オフセット:Rrot×θrotは、各画像対応のメタデータとして設定された相対角度パラメータ:Rrot=0~1に応じて、順次0からθrotまで変化することになる。
 すなわち、各仮想画像フレームのモデル、例えば図1(B)に示す仮想画像31の人物が順次、少しずつ回転して表示されることになる。
 図4には。回転角度オフセット:Rrot×θrotの例を示したが、その他のスケールオフセット:Rpos×Vscale、移動成分オフセット:Rpos×Vtranslateについても同様の処理によって、スケール変更処理と移動処理が各画像に設定されたメタデータである、以下のパラメータ、すなわち、
 相対位置パラメータ:Rpos、
 相対角度パラメータ:Rrot、
 これらのパラメータに応じて、スケールオフセット:Rpos×Vscale、移動成分オフセット:Rpos×Vtranslate、これらのオフセット情報を決定する。
 情報処理装置は、これら、各オフセット情報、すなわち、
 (1)回転角度オフセット:Rrot×θrot、
 (2)スケールオフセット:Rpos×Vscale、
 (3)移動成分オフセット:Rpos×Vtranslate、
 これらのオフセット情報を、各画像対応のメタデータとして設定された相対位置パラメータ:Rpos=0~1、相対角度パラメータ:Rrot=0~1を適用して算出し、算出したオフセット情報を適用して各画像の画像変換を実行し、重畳表示する変換仮想画像を生成する。
 なお、変換対象とする仮想画像の動画像コンテンツは、例えば、図1(B)の例では、時間(t0)の初期画像に示すような、ポスターの人物を斜め方向から撮影した動画像コンテンツが利用可能である。この斜め方向から撮影した画像を時間経過とともに異なる画像変換を行うことで、図1(B)に示す時間経過とともに正面向きの仮想画像の動画シーケンスを生成することができる。
 なお、図4に示す回転角度オフセット:Rrot×θrotの設定例は、各仮想画像フレームに設定する相対角度パラメータ:Rrotを画像フレームの表示時間に応じて線形に変更した場合の例である。
 各仮想画像フレームに設定する相対角度パラメータ:Rrotの設定態様を変更することで、例えば、図5、図6に示すように、画像の進行に応じて、回転角度オフセット:Rrot×θrotが少しずつ減少または増加する設定としてもよい。これらの処理によって、画像フレームの進行に応じて、画像の回転角度が少しずつ減少または増加するといった処理が可能となる。
 その他のスケールオフセット:Rpos×Vscale、移動成分オフセット:Rpos×Vtranslateについても同様の処理が可能である。
  (ステップS206)
 次に、情報処理装置は、ステップS206において、ステップS205において生成した仮想画像コンテンツを、情報処理装置の表示部に表示中のカメラ撮影画像に重畳する。
  (ステップS207)
 次に、情報処理装置はステップS207において、情報処理装置の表示部(ディスプレイ)に最終結果としての撮影画像に仮想画像を重畳したAR画像を出力する。
  (ステップS208)
 ステップS208において、予め設定した終了条件、例えば画像撮影処理の終了、あるいはアプリケーションの終了などの終了条件が発生したか否かを判定し、終了条件が発生した場合は無処理を終了する。終了条件が発生しない場合は、ステップS201に戻り、同様の処理を繰り返す。
 このようにして、例えば図1(B)を参照して説明したように、表示位置や表示角度が順次変更された仮想画像が情報処理装置の表示部に表示中の撮影画像に重畳され表示されることになる。
  [3.情報処理装置の構成例について]
 図7に、上述した処理を実行する情報処理装置の構成例を示す。
 情報処理装置は、図2のフローチャートを参照して説明したコンテンツ生成処理を実行するコンテンツ生成部120と、例えば図2を参照して説明したコンテンツ生成処理において生成したコンテンツおよびメタデータを記憶する記憶部140、さらに、図3のフローチャートを参照して説明したコンテンツ表示処理を実行するコンテンツ表示制御部160を有する。
 コンテンツ生成部120は、図2を参照して説明したコンテンツ生成処理を実行する。
 コンテンツ生成部120に示す各構成の実行する処理について、図2のフローの各ステップの処理と対応付けて説明する。
 コンテンツ生成部120の撮像部(カメラ)121は、図2に示すフローのステップS102のカメラ画像取得処理を実行する。
 距離推定部122が、図2のフローのステップS103の被写体距離の算出処理を実行する。
 相対位置・角度算出部124は、図2のフローのステップS104の処理、すなわち、仮想画像として表示する動画像構成フレーム対応のメタデータを各画像に設定する。すなわち、
 相対位置パラメータ:Rpos=0~1
 相対角度パラメータ:Rrot=0~1
 これらの各パラメータを画像対応のメタデータとして設定する。
 なお、先に図2のフローのステップS104の処理について説明したように、これらのパラメータは、モードに応じたパラメータとなる。すなわち、
 シンプルモード、
 コンスタントモード、
 これらのモートに応じてパラメータが設定される。
 これらのモードは、入力部123を介したユーザ入力に従って設定される。
 相対位置・角度算出部124の算出した、
 相対位置パラメータ:Rpos=0~1
 相対角度パラメータ:Rrot=0~1
 これらのパラメータは、各画像対応のメタデータとして、各画像に対応付けて記憶部140のメタデータ記憶部142に格納される。
 画像処理部125は、撮像部(カメラ)121の取得したコンテンツ、すなわち仮想画像の動画コンテンツを動画コンテンツデータベース141に格納する。
 なお、図7には、記憶部140に、動画コンテンツデータベース141と、メタデータ記憶部142を個別に示しているが、画像とメタデータは、1つのデータベース内に記憶してもよい。いずれの場合も、メタデータは各画像フレームに対応づけられて記録される。
 次に、コンテンツ表示制御部160の構成について説明する。
 コンテンツ表示制御部160に示す各構成の実行する処理について、図3のフローの各ステップの処理と対応付けて説明する。
 コンテンツ表示制御部160の撮像部(カメラ)161は、図3に示すフローのステップS201のカメラ画像取得処理を実行する。
 撮影画像は、表示部167に出力され、表示される。
 画像認識部162、認識判定部163は、図3のフローのステップS202の処理、すなわち、カメラ位置・姿勢算出情報の取得処理と取得可否の判定処理を実行する。具体的には、例えば図1に示すポスターなどの被写体に設定されたマーカの認識処理を実行する。
 重畳仮想画像生成部165は、図3に示すフローのステップS205の処理、すなわち、表示部167に表示する仮想画像を生成する。
 データ取得部164は、動画コンテンツデータベース141に格納されたドウガコンテンツを取得し、さらに、メタデータ記憶部142に格納されたメタデータを取得して重畳仮想画像生成部165に出力する。
 なお、コンテンツが符号化されて記録されている場合、データ取得部164はデコードして重畳仮想画像生成部165に出力する。
 重畳仮想画像生成部165は、データ取得部164を介して、仮想画像動画コンテンツと、各フレーム対応のメタデータを入力する。
 さらに、重畳仮想画像生成部165は、認識判定部163から、カメラ位置・姿勢情報を取得する。
 重畳仮想画像生成部165は、先に説明した図3のフローのステップS205の処理を実行する。
 すなわち、各画像フレームに対応して設定されたメタデータ、すなわち、
 相対位置パラメータ:Rpos=0~1、
 相対角度パラメータ:Rrot=0~1、
 これらのパラメータを用いて、各画像フレームの仮想画像を変換するパラメータとして、以下のオフセット情報を算出する。
 (1)回転角度オフセット:Rrot×θrot、
 (2)スケールオフセット:Rpos×Vscale、
 (3)移動成分オフセット:Rpos×Vtranslate、
 これらのオフセット情報を用いて、画像フレームの変換処理を実行して、表示用の変換仮想画像を生成する。
 動画重畳部166は、図3のフローのステップS206~S207の処理、すなわち、仮想画像を、表示部167に表示中のカメラ撮影画像に重畳したAR画像を出力する。
 なお、図7に示す構成は、情報処理装置の主要構成を示す図であり、情報処理装置は、図に示す構成の他、例えば、図2、図3を参照して説明した処理を制御するCPU等を有する制御部や、制御部において実行するプログラムを格納した記憶部などを有する。
 このようにして、仮想画像がクライアントの表示部に表示中の撮影画像に重畳され表示されることになる。
  [4.変形実施例について]
 以下、上述した実施例の情報処理装置の構成または処理を一部変更した変形実施例について説明する。
 以下の3つの変形実施例について、順次説明する。
 (1)仮想画像コンテンツ生成時の被写体の位置に関する制約を設定した実施例
 (2)仮想画像表示処理時の画像エッジの加工処理を行なう実施例
 (3)複数の仮想画像に対する処理を行なう実施例
 (4)処理の一部をネットワーク接続したサーバで実行する処理例
 以下、これらの各変形実施例について説明する。
  [4-1.仮想画像コンテンツ生成時の被写体の位置に関する制約を設定した実施例について]
 まず、仮想画像コンテンツ生成時の被写体の位置に関する制約を設定した実施例について説明する。
 本実施例は、先に説明した図2のフローチャートに従った仮想画像の動画コンテンツの生成時に、仮想画像として重畳表示する被写体(オブジェクト)の位置、すなわち、カメラとの相対位置に制限を設定して仮想画像コンテンツを生成する実施例である。
 具体的には、仮想画像として重畳表示する被写体(オブジェクト)を撮影する場合、カメラに対する被写体位置について予め制限し、許容位置内で重畳表示する被写体(オブジェクト)を撮影した仮想画像コンテンツを生成可能とした実施例である。
 具体的には、
 カメラに対する被写体の撮影角度について、
 予め規定した所定の上下角度範囲内、
 予め規定した所定の左右角度範囲内、
 さらに、
 カメラからの被写体距離も予め規定した所定の距離範囲、
 これらの各制限を設け、重畳表示用の仮想画像コンテンツを生成させる。
 図8(a)は、被写体に対するカメラの左右角度の制限の設定例を示す図である。
 図8(b)は、被写体に対するカメラの上下角度の制限と、被写体とカメラ間の距離の制限の設定例を示す図である。
 このように仮想画像オブジェクトの撮影において、撮影角度と距離に対する制約を持たせることで、より自然なARでの表現を実現する。
 なお、この上下・左右角度、及び距離に対する制約情報のデータは各動画に紐付けられる。もしくは、各動画における各フレームに紐付けられていても良い。
 例えば人がポスターから飛び出すようなコンテンツを考える場合、カメラを左右方向にふった場合は自然にみえるが、上下方向に振るとありえない方向に人が飛び出してきているように見えてしまい、不自然になってしまう。一般的に、垂直な壁に貼ったポスターという認識対象を想定すると、上下方向に大きくふることは想定しづらいが、フェイルセーフの意味でも、各動画コンテンツに「視野角」のような定義で上下方向の限界角度を指定することで、その限界角度を超えた状態でポスターを認識した場合はきちんと角度内に収まるような誘導を行い、それからAR動画コンテンツの重畳を開始する。
 なお、この角度・距離の許容範囲の設定はコンテンツ依存となる。例えば、人が上方向に飛び出してくるのは不自然だが、鳥なら自然であり、重畳表示する仮想オブジェクトとして鳥を撮影する場合は、上下方向の制約は緩やかにしてよい。
 情報処理装置の記憶部に、コンテンツの種別に応じた許容角度や許容距離のテーブルを格納し、コンテンツ制作者が必要に応じて撮影するコンテンツの種別を選択し、許容角度と距離を確認して撮影することが望ましい。
 なお、コンテンツに応じてテーブルから読み込まれた許容角度情報や許容距離情報に応じて、情報処理装置は、撮影画像を表示する表示部に現在の撮影画像が許容範囲内であるか否かの情報を表示し、許容範囲内の画像撮影を促すための指示アイコンや説明などを表示する。
 図9に指示アイコンと説明の表示例を示す。
 図9(a1)~(a3)は、カメラと被写体との距離の許容最大距離(Xmax)を5mに設定した場合の撮影画像とアイコンの表示例を示している。
 (a1)~(a3)は以下の状態を示している。
 (a1)撮影画像の被写体距離(Xactual)が10mであり、カメラを被写体に近づける指示アイコンと指示情報を表示している。
 (a2)撮影画像の被写体距離(Xactual)が7mであり、カメラを被写体に近づける指示アイコンと指示情報を表示している。
 (a3)撮影画像の被写体距離(Xactual)が5mであり、許容最大距離(Xmax)に一致したので、指示アイコン、指示情報の表示が消えた状態である。
 図9(b1)~(b3)は、カメラと被写体との上下角度の許容最大角度(Φmax)を15度に設定した場合の撮影画像とアイコンの表示例を示している。
 (b1)~(b3)は以下の状態を示している。
 (b1)撮影画像の被写体に対するカメラの上下角度(Φactual)が45度であり、カメラの上下角度をより垂直に向けるように指示アイコンと指示情報を表示している。
 (b2)撮影画像の被写体に対するカメラの上下角度(Φactual)が25度であり、カメラの上下角度をより垂直に向けるように指示アイコンと指示情報を表示している。
 (b3)撮影画像の被写体に対するカメラの上下角度(Φactual)が15度であり、許容最大角度(Φmax)に一致したので、指示アイコン、指示情報の表示が消えた状態である。
 このように、仮想画像コンテオンツの撮影時に、指示情報を表示することで、ユーザが許容範囲でコンテンツ撮影を行うことができる。
  [4-2.仮想画像表示処理時の画像エッジの加工処理を行なう実施例について]
 次に、仮想画像表示処理時の画像エッジの加工処理を行なう実施例について説明する。
 本実施例は、先に説明した図3のフローチャートに従った仮想画像の表示処理時に、撮影画像に対して違和感のない仮想画像の重畳表示を行うため、例えば撮影オブジェクトとの境界領域にある仮想画像のエッジ部分をぼかすなどのエッジ処理(マスク処理)を行う実施例である。
 本構成は、AR動画コンテンツを撮影する際に、重畳するオブジェクトの一部が画角から外れてしまっても、違和感を最小化させる見せ方を実現するものである。
 仮想画像の重畳表示の際に、例えば、重畳するオブジェクトの一部が撮影画角から外れており、かつ、重畳するオブジェクトがクライアント端末のディスプレイの画角に全て収まってしまう場合に、仮想画像オブジェクトのエッジをぼかすなどの処理をすることで違和感を減らす。
 例えば、図10(A)は、本実施例のマスク処理を適用しない場合の仮想オブジェクトの表示例である。
 撮影画像中に表示した仮想画像(人物)311の下側端部のエッジ領域312において、直線的に被写体画像が切れており、不自然に見える。
 一方、図10(B)は、本実施例のマスク処理を適用した場合の仮想オブジェクトの表示例である。
 撮影画像中に表示した仮想画像(人物)321の下側端部のエッジ領域322がぼかすマスク適用処理が施され、不自然さが解消される。
 図11に、本実施例の適応的マスキング処理の処理シーケンスについて説明するフローを示す。なお、このフローに示す処理は、図3を参照して説明したフローにおけるステップS206の「仮想画像の重畳処理」において実行される。
 図11のフローの各ステップの処理について説明する。
  (ステップS301)
 まず、情報処理装置は、ステップS301において、仮想画像コンテンツフレーム端判定を行う。
 描画しようとしている仮想画像コンテンツの処理フレームで、仮想画像オブジェクトがコンテンツの画角に収まっているかを判定する。具体的には、重畳する仮想画像コンテンツの上下左右の各外側1ラインでのアルファ値1がnピクセル以上連続で続くか否かを調べる。nは任意の閾値とする。上下左右の各ラインに対してオブジェクト端が見切れていないかを判定する。なお、この処理は事前に生成側で行い、メタデータを受信することで実現しても良い。
  (ステップS302)
 次に、ステップS302において、カメラ撮影画像端非衝突判定処理を行なう。
 ステップSZ301において、仮想画像の処理フレームのオブジェクト端が見切れている場合、実際にカメラ画像にコンテンツを重畳する位置で見切れている部分がみえてしまうかを判定する。
 元の動画ソースで見切れている部分が、重畳した時にも完全に見切れていれば問題ないが、重畳した時にその端の部分が見えてしまっていると、違和感が大きい。すなわち、図10(A)に示すような不自然な直線的エッジが見えてしまう。
 このような場合は、ステップS303に進む。
  (ステップS303)
 ステップS303において、仮想画像コンテンツのエッジの画像処理を行なう。
 ステップS302において、カメラ撮影画像に見切れている部分が写り込んでいると判定された場合、その方向の端だけ適応的にぼかすなどの処理を行う。
 すなわち、図10(B)に示すようなエッジ領域のぼかし処理を行なう。
  (ステップS304)
 最後に、最終的な結果、すなわち、図10(B)に示すような仮想画像と撮影画像との境界領域にある仮想画像のエッジをぼかした仮想画像を出力する。
 なお、この処理を適用する場合、仮想画像端がカメラフレームから出たり入ったりする状態だとエッジの画像処理がなされるフレームとなされないフレームが交互に発生しバタバタしてしまう。そのため、実運用上は、ローパスフィルターなどを挿入し、ある程度、時系列での平滑化をすることが望ましい。
 図11に示すフローに従った適応的マスキング処理を実行する情報処理装置の構成例を図12に示す。
 図12に示す情報処理装置は、先に図7を参照して説明した情報処理装置のコンテンツ表示制御部160内に、適応的マスク処理部171を追加した点のみが異なる。
 適応的マスク処理部171は、図11を参照して説明した処理を実行する。
 その他の構成は、図7を参照して説明した構成と同様である。
  [4-3.複数の仮想画像に対する処理を行なう実施例について]
 次に、複数の仮想画像に対する処理を行なう実施例について説明する。
 本実施例は、先に説明した図2のフローチャートに従った仮想画像の動画コンテンツの生成時に、仮想画像として重畳表示するオブジェクトが複数、存在する場合の処理例である。
 仮想画像コンテンツの撮影時に複数のオブジェクトが存在する場合、オブジェクトごとに距離が異なる場合が想定できる。そのような場合、本実施例ではコンテンツ生成時にオブジェクトの切り出し処理を行い、それぞれを別のコンテンツとして取り扱い、重畳時に合成することで、複数のコンテンツを破綻なく取り扱う。
 なお、複数のオブジェクト、すなわち重畳表示予定の複数の仮想オブジェクトが撮影カメラから見て重なり合っている場合、便宜的に同じ仮想オブジェクトとして取り扱う。ただし、もし距離が大幅に異なる複数のオブジェクトを重畳することを想定するのであれば、重なり合わないように撮影することが望ましい。
 ただし、複数のオブジェクトが重なりあうときに距離がある程度一致している場合、例えば、2人が別の方向から登場して最後抱きあい、ポスターの中に帰っていくといった設定の2人の人物の場合、登場する1人目をオブジェクトA、登場する2人目をオブジェクトB、1人目と2人目が重なりあったものをオブジェクトCとして、計3オブジェクトとして処理を行う。
 図13に本実施例の処理を行なう情報処理装置の構成例を示す。
 図13に示す情報処理装置は、先に図7を参照して説明した情報法処理装置のコンテンツ生成部120内に、オブジェクト切り出し部181を追加した点のみが異なる。
 オブジェクト切り出し部181は、上述したように、仮想画像コンテンツの生成時に撮影する画像内に複数の仮想オブジェクトが存在する場合に、それぞれの仮想オブジェクトの切り出し処理を行なう。
 なお、切り出した仮想オブジェクトに対しては、その後、個別のメタデータ、すなわち前述した相対位置パラメータRpos、相対角度パラメータRrotを個別に算出し、個別のメタデータとして設定して記憶部に格納する。
 また、コンテンツ表示制御部160において仮想画像を重畳表示する場合は、重畳画像生成部165は、各オブジェクトに対して各パラメータを適用した個別の重畳仮想画像生成処理を実行して、生成した仮想画像を重畳表示する。
 その他の構成は、図7を参照して説明した構成と同様である。
  [4-4.処理の一部をネットワーク接続したサーバで実行する処理例について]
 上述した実施例は、全ての処理を情報処理装置において実行する実施例として説明した。
 しかし、これらの処理の一部は、情報処理装置とネットワーク接続したサーバにおいて実行する構成としてもよい。
 例えば、スマートフォン等の情報処理装置は、カメラでの撮影処理のみを実行し、サーバが重畳表示する仮想画像を提供する構成が可能である。
 サーバは、先に図2を参照して説明した処理を実行し、動画シーケンスに応じて表示位置と表示角度を制御した仮想動画コンテンツを情報処理装置(クライアント)に提供する。
 情報処理装置(クライアント)は、サーバから受信した仮想画像コンテンツを、撮影画像に重畳して表示する。
 なお、この場合、情報処理装置(クライアント)は、サーバに対して、提供する仮想画像コンテンツを特定するための情報、例えば、図1(B)に示すポスター11に設定されたマーカなどの情報を提供する。
 このような処理例とすることで、情報処理装置(クライアント)の処理負荷の軽減が実現される。
  [5.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) 撮像部で撮像される撮像画像を取得する取得部と、
 前記撮像画像に、入力画像を変形することで生成される仮想画像を重畳して表示部に表示させるデータ処理部とを有し、
 前記データ処理部は、
 仮想的に設定される前記撮像部と入力画像との相対位置、または相対角度のいずれかを時系列に変化させることで生成される前記仮想画像を前記表示部に表示させる、
情報処理装置。
 (2)前記データ処理部は、前記仮想画像の動画コンテンツの各フレームに対応付けて設定されたメタデータを適用した画像変換処理を実行して少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像を生成する前記(1)に記載の情報処理装置。
 (3)前記データ処理部は、前記仮想画像の動画コンテンツの各フレームに対応付けて設定されたメタデータとして、
 仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
 仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
 これらの各パラメータを取得し、取得パラメータを適用して、少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像を生成して前記撮影画像上に重畳表示する前記(2)に記載の情報処理装置。
 (4)前記データ処理部は、前記仮想画像の初期画像に対応するモデルビュー行列Mmarkerを、前記仮想画像の最終画像に対応するモデルビュー行列Mdisplayに変換する変換パラメータを算出し、算出した変換パラメータに対して、各仮想画像フレームに対応して設定されたメタデータである。前記相対位置パラメータRpos、または、前記相対角度パラメータRrotを乗算して、各仮想画像フレームの変換処理に適用するオフセット情報を算出し、算出したオフセット情報を適用した仮想画像フレームの変換処理を実行して、少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像の動画を生成する前記(3)に記載の情報処理装置。
 (5)前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各々は、前記仮想画像の初期画像から最終画像に至る各動画像フレームにおいて0~1の範囲で順次変化する値である前記(4)に記載の情報処理装置。
 (6)前記データ処理部は、前記仮想画像の撮影画像に対する重畳表示処理に際して、仮想画像と撮影画像の境界部の仮想画像のぼかし処理を実行する前記(1)~(5)いずれかに記載の情報処理装置。
 (7)前記データ処理部は、前記仮想画像動画コンテンツの生成処理を実行し、仮想画像動画コンテンツ生成処理に際して、仮想画像動画コンテンツの構成フレームに対して、
 仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
 仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
 上記各パラメータを算出し、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行する前記(1)~(6)いずれかに記載の情報処理装置。
 (8)前記データ処理部は、前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各値を、画像動画コンテンツの各動画像フレームにおける仮想画像の被写体距離に応じて0~1の範囲で設定する前記(7)に記載の情報処理装置。
 (9)前記データ処理部は、前記仮想画像の初期画像から最終画像に至る各動画像フレームに対して0~1の範囲で順次変化する値を、前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの値として設定する前記(7ょまたは(8)に記載の情報処理装置。
 (10)前記データ処理部は、前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各々の値を、モード設定に応じて異なる態様で前記仮想画像を構成する各動画像フレームに対して設定する前記(9)に記載の情報処理装置。
 (11)前記データ処理部は、前記仮想画像動画コンテンツの生成処理に際して、予め設定された許容範囲の角度と距離を示す制限情報を表示部に出力し、前記許容範囲の角度と距離内での仮想オブジェクトを含む仮想画像動画コンテンツを生成する前記(7)~(9)いずれかに記載の情報処理装置。
 (12)画像撮影を実行する撮像部と、
 前記撮像部の撮影画像に基づいて仮想画像動画コンテンツを生成するデータ処理部を有し、
 前記データ処理部は、
 仮想画像動画コンテンツ生成処理に際して、仮想画像動画コンテンツの構成フレームに対して、
 仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
 仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
 上記各パラメータを算出し、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行する情報処理装置。
 (13)前記データ処理部は、前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各値を、画像動画コンテンツの各動画像フレームにおける仮想画像の被写体距離に応じて0~1の範囲で設定する前記(12)に記載の情報処理装置。
 (14) 画像撮影を実行する撮像部と、
 前記撮像部の撮影画像を表示する表示部と、
 前記表示部に表示された撮影画像上に仮想画像を重畳表示するデータ処理部を有し、
 前記データ処理部は、
 少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像の動画をサーバから取得し、取得した仮想画像を前記撮影画像上に重畳表示する情報処理装置。
 さらに、上記した装置およびシステムにおいて実行する処理の方法や、処理を実行させるプログラムも本開示の構成に含まれる。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、表示部に表示されたカメラ撮影画像に、時間とともに表示位置や角度を変更した仮想画像を重畳表示する構成が実現される。
 具体的には、撮像部と、撮像部の撮影画像を表示する表示部と、表示部に表示された撮影画像上に仮想画像を重畳表示するデータ処理部を有する。データ処理部は、表示位置、表示角度を時系列に変更した仮想画像の動画を撮影画像上に重畳表示する。データ処理部は、仮想画像コンテンツのフレーム対応メタデータとして、仮想画像の表示位置の決定に適用する相対位置パラメータRposと、仮想画像の表示角度の決定に適用する相対角度パラメータRrot、これらの各パラメータを取得し、取得パラメータを適用して、表示位置または表示角度を時系列に変更した仮想画像を生成して重畳表示する。
 これらの構成により、カメラ撮影画像に、時間とともに表示位置や角度を変更した仮想画像を重畳表示する構成が実現される。
  11 ポスター
  15 カメラ撮影画像
  21 仮想画像
  31 仮想画像
 120 コンテンツ生成部
 121 撮像部(カメラ)
 122 距離推定部
 123 入力部
 124 相対位置・角度算出部
 125 画像処理部
 140 記憶部
 141 メタデータ
 142 動画コンテンツデータベース
 160 コンテンツ表示制御部
 161 撮像部(カメラ)
 162 画像認識部
 163 認識判定部
 164 データ取得部
 165 重畳仮想画像生成部
 166 動画重畳部
 167 表示部
 171 適応的マスク処理部
 181 オブジェクト切り出し部

Claims (18)

  1.  撮像部で撮像される撮像画像を取得する取得部と、
     前記撮像画像に、入力画像を変形することで生成される仮想画像を重畳して表示部に表示させるデータ処理部とを有し、
     前記データ処理部は、
     仮想的に設定される前記撮像部と入力画像との相対位置、または相対角度のいずれかを時系列に変化させることで生成される前記仮想画像を前記表示部に表示させる、
    情報処理装置。
  2.  前記データ処理部は、
     前記仮想画像の動画コンテンツの各フレームに対応付けて設定されたメタデータを適用した画像変換処理を実行して少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像を生成する請求項1に記載の情報処理装置。
  3.  前記データ処理部は、
     前記仮想画像の動画コンテンツの各フレームに対応付けて設定されたメタデータとして、
     仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
     仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
     これらの各パラメータを取得し、取得パラメータを適用して、少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像を生成して前記撮影画像上に重畳表示する請求項2に記載の情報処理装置。
  4.  前記データ処理部は、
     前記仮想画像の初期画像に対応するモデルビュー行列Mmarkerを、
     前記仮想画像の最終画像に対応するモデルビュー行列Mdisplayに変換する変換パラメータを算出し、
     算出した変換パラメータに対して、各仮想画像フレームに対応して設定されたメタデータである。前記相対位置パラメータRpos、または、前記相対角度パラメータRrotを乗算して、各仮想画像フレームの変換処理に適用するオフセット情報を算出し、算出したオフセット情報を適用した仮想画像フレームの変換処理を実行して、少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像の動画を生成する請求項3に記載の情報処理装置。
  5.  前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各々は、前記仮想画像の初期画像から最終画像に至る各動画像フレームにおいて0~1の範囲で順次変化する値である請求項4に記載の情報処理装置。
  6.  前記データ処理部は、
     前記仮想画像の撮影画像に対する重畳表示処理に際して、仮想画像と撮影画像の境界部の仮想画像のぼかし処理を実行する請求項1に記載の情報処理装置。
  7.  前記データ処理部は、
     前記仮想画像動画コンテンツの生成処理を実行し、仮想画像動画コンテンツ生成処理に際して、仮想画像動画コンテンツの構成フレームに対して、
     仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
     仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
     上記各パラメータを算出し、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行する請求項1に記載の情報処理装置。
  8.  前記データ処理部は、
     前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各値を、画像動画コンテンツの各動画像フレームにおける仮想画像の被写体距離に応じて0~1の範囲で設定する請求項7に記載の情報処理装置。
  9.  前記データ処理部は、
     前記仮想画像の初期画像から最終画像に至る各動画像フレームに対して0~1の範囲で順次変化する値を、前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの値として設定する請求項7に記載の情報処理装置。
  10.  前記データ処理部は、
     前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各々の値を、モード設定に応じて異なる態様で前記仮想画像を構成する各動画像フレームに対して設定する請求項9に記載の情報処理装置。
  11.  前記データ処理部は、
     前記仮想画像動画コンテンツの生成処理に際して、予め設定された許容範囲の角度と距離を示す制限情報を表示部に出力し、前記許容範囲の角度と距離内での仮想オブジェクトを含む仮想画像動画コンテンツを生成する請求項7に記載の情報処理装置。
  12.  画像撮影を実行する撮像部と、
     前記撮像部の撮影画像に基づいて仮想画像動画コンテンツを生成するデータ処理部を有し、
     前記データ処理部は、
     仮想画像動画コンテンツ生成処理に際して、仮想画像動画コンテンツの構成フレームに対して、
     仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
     仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
     上記各パラメータを算出し、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行する情報処理装置。
  13.  前記データ処理部は、
     前記相対位置パラメータRpos、および、前記相対角度パラメータRrotの各値を、画像動画コンテンツの各動画像フレームにおける仮想画像の被写体距離に応じて0~1の範囲で設定する請求項12に記載の情報処理装置。
  14.  画像撮影を実行する撮像部と、
     前記撮像部の撮影画像を表示する表示部と、
     前記表示部に表示された撮影画像上に仮想画像を重畳表示するデータ処理部を有し、
     前記データ処理部は、
     少なくとも表示位置または表示角度のいずれかを時系列に変更した仮想画像の動画をサーバから取得し、取得した仮想画像を前記撮影画像上に重畳表示する情報処理装置。
  15.  情報処理装置において実行する情報処理方法であり、
     前記情報処理装置は、撮像部で撮像される撮像画像を取得する取得部と、入力画像を変形することで生成される仮想画像を重畳して表示部に表示させるデータ処理部を有し、
     前記データ処理部は、
     仮想的に設定される前記撮像部と入力画像との相対位置、または相対角度のいずれかを時系列に変化させることで生成される前記仮想画像を前記表示部に表示させる情報処理方法。
  16.  情報処理装置において実行する情報処理方法であり、
     前記情報処理装置は、画像撮影を実行する撮像部と、前記撮像部の撮影画像に基づいて仮想画像動画コンテンツを生成するデータ処理部を有し、
     前記データ処理部は、
     仮想画像動画コンテンツ生成処理に際して、仮想画像動画コンテンツの構成フレームに対して、
     仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
     仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
     上記各パラメータを算出し、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行する情報処理方法。
  17.  情報処理装置において情報処理を実行させるプログラムであり、
     前記情報処理装置は、撮像部で撮像される撮像画像を取得する取得部と、
     前記撮像画像に、入力画像を変形することで生成される仮想画像を重畳して表示部に表示させるデータ処理部とを有し、
     前記プログラムは、前記データ処理部に、
     仮想的に設定される前記撮像部と入力画像との相対位置、または相対角度のいずれかを時系列に変化させることで生成される前記仮想画像を前記表示部に表示させるプログラム。
  18.  情報処理装置において情報処理を実行させるプログラムであり、
     前記情報処理装置は、画像撮影を実行する撮像部と、前記撮像部の撮影画像に基づいて仮想画像動画コンテンツを生成するデータ処理部を有し、
     前記プログラムは、前記データ処理部に、
     仮想画像動画コンテンツ生成処理に際して、仮想画像動画コンテンツの構成フレームに対して、
     仮想画像の表示位置の決定に適用する相対位置パラメータRpos、
     仮想画像の表示角度の決定に適用する相対角度パラメータRrot、
     上記各パラメータを算出させ、算出したパラメータを画像フレーム対応のメタデータとして記憶部に格納する処理を実行させるプログラム。
PCT/JP2013/061996 2012-06-12 2013-04-24 情報処理装置、および情報処理方法、並びにプログラム WO2013187130A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2014521000A JP5971335B2 (ja) 2012-06-12 2013-04-24 情報処理装置、および情報処理方法、並びにプログラム
BR112014030579A BR112014030579A2 (pt) 2012-06-12 2013-04-24 dispositivo e método de processamento de informação, e, programa
EP13803623.1A EP2860702A4 (en) 2012-06-12 2013-04-24 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
CN201380029793.3A CN104335251A (zh) 2012-06-12 2013-04-24 信息处理设备、信息处理方法和程序
US14/405,262 US20150145888A1 (en) 2012-06-12 2013-04-24 Information processing device, information processing method, and program
IN10336DEN2014 IN2014DN10336A (ja) 2012-06-12 2014-12-04

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-133320 2012-06-12
JP2012133320 2012-06-12

Publications (1)

Publication Number Publication Date
WO2013187130A1 true WO2013187130A1 (ja) 2013-12-19

Family

ID=49757965

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/061996 WO2013187130A1 (ja) 2012-06-12 2013-04-24 情報処理装置、および情報処理方法、並びにプログラム

Country Status (7)

Country Link
US (1) US20150145888A1 (ja)
EP (1) EP2860702A4 (ja)
JP (1) JP5971335B2 (ja)
CN (1) CN104335251A (ja)
BR (1) BR112014030579A2 (ja)
IN (1) IN2014DN10336A (ja)
WO (1) WO2013187130A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104808956A (zh) * 2014-01-23 2015-07-29 富士通株式会社 用于控制显示的系统和方法
WO2015128633A1 (en) * 2014-02-26 2015-09-03 Sony Computer Entertainment Europe Limited Image encoding and display
WO2015182227A1 (ja) * 2014-05-30 2015-12-03 ソニー株式会社 情報処理装置および情報処理方法
JP2020533699A (ja) * 2017-09-11 2020-11-19 ナイキ イノベイト シーブイ ターゲット検索のための、およびジオキャッシングを使用するための装置、システム、および方法
US11509653B2 (en) 2017-09-12 2022-11-22 Nike, Inc. Multi-factor authentication and post-authentication processing system
WO2023171355A1 (ja) * 2022-03-07 2023-09-14 ソニーセミコンダクタソリューションズ株式会社 撮像システムおよび映像処理方法、並びにプログラム
JP7429633B2 (ja) 2020-12-08 2024-02-08 Kddi株式会社 情報処理システム、端末、サーバ及びプログラム
US11961106B2 (en) 2017-09-12 2024-04-16 Nike, Inc. Multi-factor authentication and post-authentication processing system

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
JP6264972B2 (ja) * 2014-03-18 2018-01-24 富士通株式会社 表示装置、表示制御プログラム、および表示制御方法
US9959292B2 (en) * 2014-09-30 2018-05-01 Ricoh Company, Ltd. Application program, smart device, information processing apparatus, information processing system, and information processing method
CN105979099B (zh) * 2016-06-28 2019-06-04 Oppo广东移动通信有限公司 在预览界面增加景物的方法、装置及拍照设备
JP2018195254A (ja) * 2017-05-22 2018-12-06 富士通株式会社 表示制御プログラム、表示制御装置及び表示制御方法
CN107733874B (zh) * 2017-09-20 2021-03-30 平安科技(深圳)有限公司 信息处理方法、装置、计算机设备和存储介质
US11972529B2 (en) 2019-02-01 2024-04-30 Snap Inc. Augmented reality system
CN110610454A (zh) * 2019-09-18 2019-12-24 上海云绅智能科技有限公司 透视投影矩阵的计算方法及装置、终端设备、存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000032398A (ja) * 1998-07-09 2000-01-28 Matsushita Electric Ind Co Ltd 画像処理装置
JP2008046806A (ja) * 2006-08-14 2008-02-28 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法、画像処理装置およびプログラム
JP2010239206A (ja) * 2009-03-30 2010-10-21 Sony Corp 電子機器、表示制御方法およびプログラム
JP2011043419A (ja) 2009-08-21 2011-03-03 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
JP2012053776A (ja) * 2010-09-02 2012-03-15 Ntt Comware Corp 表示画像検索装置、表示装置、表示画像検索システム、および、表示画像検索方法
JP2012058838A (ja) 2010-09-06 2012-03-22 Sony Corp 画像処理装置、プログラム及び画像処理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60233985A (ja) * 1984-05-07 1985-11-20 Nec Corp デジタル映像信号の特殊効果発生装置
US7224851B2 (en) * 2001-12-04 2007-05-29 Fujifilm Corporation Method and apparatus for registering modification pattern of transmission image and method and apparatus for reproducing the same
US20070205963A1 (en) * 2006-03-03 2007-09-06 Piccionelli Gregory A Heads-up billboard
JP2007243411A (ja) * 2006-03-07 2007-09-20 Fujifilm Corp 画像処理装置、方法およびプログラム
JP5094663B2 (ja) * 2008-09-24 2012-12-12 キヤノン株式会社 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法
US8643642B2 (en) * 2009-08-17 2014-02-04 Mistretta Medical, Llc System and method of time-resolved, three-dimensional angiography
KR101572892B1 (ko) * 2010-05-06 2015-11-30 엘지전자 주식회사 이동 단말기 및 이것의 영상 디스플레이 방법
CN102446192A (zh) * 2010-09-30 2012-05-09 国际商业机器公司 在虚拟世界中评估关注度的方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000032398A (ja) * 1998-07-09 2000-01-28 Matsushita Electric Ind Co Ltd 画像処理装置
JP2008046806A (ja) * 2006-08-14 2008-02-28 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法、画像処理装置およびプログラム
JP2010239206A (ja) * 2009-03-30 2010-10-21 Sony Corp 電子機器、表示制御方法およびプログラム
JP2011043419A (ja) 2009-08-21 2011-03-03 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
JP2012053776A (ja) * 2010-09-02 2012-03-15 Ntt Comware Corp 表示画像検索装置、表示装置、表示画像検索システム、および、表示画像検索方法
JP2012058838A (ja) 2010-09-06 2012-03-22 Sony Corp 画像処理装置、プログラム及び画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2860702A4

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015138445A (ja) * 2014-01-23 2015-07-30 富士通株式会社 表示制御方法、情報処理装置、および表示制御プログラム
CN104808956A (zh) * 2014-01-23 2015-07-29 富士通株式会社 用于控制显示的系统和方法
US9792731B2 (en) 2014-01-23 2017-10-17 Fujitsu Limited System and method for controlling a display
CN106413829B (zh) * 2014-02-26 2020-04-21 索尼互动娱乐欧洲有限公司 图像编码和显示
WO2015128633A1 (en) * 2014-02-26 2015-09-03 Sony Computer Entertainment Europe Limited Image encoding and display
CN106413829A (zh) * 2014-02-26 2017-02-15 索尼电脑娱乐欧洲有限公司 图像编码和显示
US10306202B2 (en) 2014-02-26 2019-05-28 Sony Interactive Entertainment Europe Limited Image encoding and display
US10636185B2 (en) 2014-05-30 2020-04-28 Sony Corporation Information processing apparatus and information processing method for guiding a user to a vicinity of a viewpoint
WO2015182227A1 (ja) * 2014-05-30 2015-12-03 ソニー株式会社 情報処理装置および情報処理方法
JP2020533699A (ja) * 2017-09-11 2020-11-19 ナイキ イノベイト シーブイ ターゲット検索のための、およびジオキャッシングを使用するための装置、システム、および方法
JP7001818B2 (ja) 2017-09-11 2022-01-20 ナイキ イノベイト シーブイ ターゲット検索のための、およびジオキャッシングを使用するための装置、システム、および方法
JP2022050473A (ja) * 2017-09-11 2022-03-30 ナイキ イノベイト シーブイ ターゲット検索のための、およびジオキャッシングを使用するための装置、システム、および方法
US11410191B2 (en) 2017-09-11 2022-08-09 Nike, Inc. Apparatus, system, and method for target search and using geocaching
JP7286750B2 (ja) 2017-09-11 2023-06-05 ナイキ イノベイト シーブイ ターゲット検索のための、およびジオキャッシングを使用するための装置、システム、および方法
US11978076B2 (en) 2017-09-11 2024-05-07 Nike, Inc. Apparatus, system, and method for target search and using geocaching
US11509653B2 (en) 2017-09-12 2022-11-22 Nike, Inc. Multi-factor authentication and post-authentication processing system
US11961106B2 (en) 2017-09-12 2024-04-16 Nike, Inc. Multi-factor authentication and post-authentication processing system
JP7429633B2 (ja) 2020-12-08 2024-02-08 Kddi株式会社 情報処理システム、端末、サーバ及びプログラム
WO2023171355A1 (ja) * 2022-03-07 2023-09-14 ソニーセミコンダクタソリューションズ株式会社 撮像システムおよび映像処理方法、並びにプログラム

Also Published As

Publication number Publication date
JPWO2013187130A1 (ja) 2016-02-04
EP2860702A4 (en) 2016-02-10
JP5971335B2 (ja) 2016-08-17
BR112014030579A2 (pt) 2017-09-19
EP2860702A1 (en) 2015-04-15
CN104335251A (zh) 2015-02-04
IN2014DN10336A (ja) 2015-08-07
US20150145888A1 (en) 2015-05-28

Similar Documents

Publication Publication Date Title
JP5971335B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
Liu et al. Content-preserving warps for 3D video stabilization
TWI712918B (zh) 擴增實境的影像展示方法、裝置及設備
JP6119889B2 (ja) 情報処理システムとその処理方法及びプログラム
US20120120113A1 (en) Method and apparatus for visualizing 2D product images integrated in a real-world environment
CN111742347A (zh) 用于图像中的对象的动态照明
CN109906600B (zh) 模拟景深
US11830148B2 (en) Reconstruction of essential visual cues in mixed reality applications
EP2786303A1 (en) Automatic tracking matte system
WO2011075082A1 (en) Method and system for single view image 3 d face synthesis
JP2010128986A (ja) 複合現実感提示システムと仮想光源の輝度調整方法
US20120120071A1 (en) Shading graphical objects based on face images
WO2018225518A1 (ja) 画像処理装置、画像処理方法、プログラム、およびテレコミュニケーションシステム
JP2010140097A (ja) 画像生成方法、画像認証方法、画像生成装置、画像認証装置、プログラム、および記録媒体
JP2007053621A (ja) 画像生成装置
JP7253621B2 (ja) パノラマ映像の手ぶれ補正方法及び携帯端末
US10291845B2 (en) Method, apparatus, and computer program product for personalized depth of field omnidirectional video
JP6621565B2 (ja) 表示制御装置、表示制御方法、及びプログラム
JP2017102896A (ja) シーンにおける光源の反射率パラメータ及び位置を推定する方法及び装置
JP4781981B2 (ja) 動画像生成方法及びシステム
US20230237696A1 (en) Display control apparatus, display control method, and recording medium
KR102558294B1 (ko) 임의 시점 영상 생성 기술을 이용한 다이나믹 영상 촬영 장치 및 방법
JP6320165B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
US10521938B1 (en) System and method for smoothing computer animation curves
JP5787930B2 (ja) ビデオ用の仮想ナビゲーションシステム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13803623

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014521000

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14405262

Country of ref document: US

Ref document number: 2013803623

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2014149167

Country of ref document: RU

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112014030579

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112014030579

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20141205