WO2021117366A1 - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
WO2021117366A1
WO2021117366A1 PCT/JP2020/040442 JP2020040442W WO2021117366A1 WO 2021117366 A1 WO2021117366 A1 WO 2021117366A1 JP 2020040442 W JP2020040442 W JP 2020040442W WO 2021117366 A1 WO2021117366 A1 WO 2021117366A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
virtual object
real object
real
display control
Prior art date
Application number
PCT/JP2020/040442
Other languages
English (en)
French (fr)
Inventor
俊逸 小原
秀憲 青木
浩丈 市川
新太郎 筒井
啓士 松山
一 若林
敦 石原
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to US17/781,212 priority Critical patent/US11995740B2/en
Publication of WO2021117366A1 publication Critical patent/WO2021117366A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position

Definitions

  • the present disclosure relates to an image processing apparatus, an image processing method, and a program. More specifically, an image processing device that generates and displays an Augmented Reality (AR) image that makes it visible that a virtual object such as a character image exists in the same space as a real object that can be observed in reality. Regarding image processing methods and programs.
  • AR Augmented Reality
  • An image that is visually recognized as having a virtual object such as a character image in the same space as a real object that can be observed in reality is called an augmented reality image or an AR (Augmented Reality) image.
  • the AR image is displayed using, for example, a head-mounted display (HMD) worn by the user's eyes, a mobile terminal such as a smartphone (smartphone), or the like.
  • HMD head-mounted display
  • smartphone smartphone
  • the user can enjoy the feeling that the display character in the AR image exists in the real world, for example.
  • An AR image is an image in which real objects and virtual objects coexist. For example, when a part of the virtual object overlaps with the real object in front of it, the virtual object in the overlapping area is hidden. Is required.
  • Such display control is performed by using, for example, the distance measurement result of a real object by a distance sensor (depth sensor) or the like.
  • a distance sensor depth sensor
  • the boundary between the real object and the virtual object will become unclear.
  • flicker occurs at this boundary portion, that is, flicker occurs due to repeated display / non-display of virtual objects.
  • Patent Document 1 International Publication WO2019 / 031015.
  • Patent Document 1 discloses a configuration in which an effect such as a blurring process is displayed on a boundary region of a virtual object of a real object.
  • the present disclosure has been made in view of the above problems, for example, and is an image processing device for performing display control that makes it difficult for the user to recognize flicker that occurs in the boundary region between a real object and a virtual object, and an image processing method. It also provides a program.
  • the first aspect of the disclosure is A real object detector that executes real object detection processing in the real world, It has an AR image display control unit that generates an AR (Augmented Reality) image that makes it appear that the virtual object exists in the same space as the real object and outputs it to the display unit.
  • the AR image display control unit When the position of the real object detected by the real object detection unit is in front of the position where the virtual object to be displayed on the display unit is arranged in the depth direction, at least one of the boundary areas between the virtual object and the real object.
  • the image processing device outputs an additional virtual object to the display unit in the depth direction from the position of the real object so as to hide the unit area.
  • the second aspect of the present disclosure is This is an image processing method executed in an image processing device.
  • the real object detection step in which the real object detection unit executes the real object detection process in the real world
  • the AR image display control unit has an AR image display control step that generates an AR (Augmented Reality) image in which the virtual object is visually recognized as existing in the same space as the real object and outputs the AR image display control unit to the display unit.
  • the AR image display control step is When the position of the real object detected by the real object detection unit is in front of the position where the virtual object to be displayed on the display unit is arranged in the depth direction, at least one of the boundary areas between the virtual object and the real object.
  • the image processing method includes a step of outputting an additional virtual object to the display unit in the depth direction from the position of the real object so as to hide the part area.
  • the third aspect of the present disclosure is A program that executes image processing in an image processing device.
  • a real object detection step that causes the real object detection unit to execute real object detection processing in the real world
  • the AR image display control unit is made to execute an AR image display control step of generating an AR (Augmented Reality) image in which the virtual object is visually recognized as existing in the same space as the real object and outputting it to the display unit.
  • an AR image display control step When the position of the real object detected by the real object detection unit is in front of the position where the virtual object to be displayed on the display unit is arranged in the depth direction, at least one of the boundary areas between the virtual object and the real object.
  • the program of the present disclosure is, for example, a program that can be provided by a storage medium or a communication medium that is provided in a computer-readable format to an information processing device or a computer system that can execute various program codes.
  • a program that can be provided by a storage medium or a communication medium that is provided in a computer-readable format to an information processing device or a computer system that can execute various program codes.
  • system is a logical set configuration of a plurality of devices, and the devices having each configuration are not limited to those in the same housing.
  • a device and a method for performing AR image display control in which the flicker of the boundary region between the virtual object and the real object is not noticeable are realized.
  • a real object detection unit that executes detection processing of a real object in the real world and an AR image in which a virtual object is visually recognized as existing in the same space as the real object are generated and displayed on the display unit. It has an AR image display control unit that outputs, and the AR image display control unit has the position of the real object detected by the real object detection unit in front of the position where the virtual object to be displayed on the display unit is placed in the depth direction.
  • the additional virtual object is output to the display unit in the depth direction from the position of the real object so as to hide at least a part of the boundary area between the virtual object and the real object.
  • FIG. 1 shows a head-mounted display (HMD) type light-transmitting (see-through type) AR image display device 10 as an example of the image processing device of the present disclosure.
  • the user wears a head-mounted display (HMD) type light-transmitting AR image display device 10 so as to cover the user's eyes.
  • HMD head-mounted display
  • the light transmission type AR image display device 10 has a light transmission type (see-through type) display unit (display).
  • a light-transmitting display is attached to the user so as to be set in front of the user.
  • the user can observe the external real object as it is through the light transmission type display unit (display) of the light transmission type AR image display device 10. Further, a virtual object, for example, a virtual object image such as a character image is displayed on the light transmission type display unit (display).
  • the user can observe the external real object and the virtual object image such as a character together through the light transmission type AR image display device 10, as if the virtual object such as a character exists in the real world. You can experience the feeling.
  • FIG. 1 On the right side of FIG. 1, an example of an image that the user can observe through the light transmission type AR image display device 10 is shown.
  • Observation image example 1 is composed of a transmission observation image 21 composed of an external real object observed via a light transmission type AR image display device 10. The virtual object is not displayed in this image example 1.
  • observation image example 2 a virtual object image 22 such as a character image is displayed together with a transmission observation image 21 composed of an external real object observed via the light transmission type AR image display device 10.
  • This image example 2 is an image in which the user can observe both the real object and the virtual object.
  • an image that is visually recognized as having a virtual object such as a character image in the same space as a real object that can be actually observed is called an augmented reality image or an AR (used reality) image.
  • the image processing device of the present disclosure is a device that performs display processing of this AR image.
  • the image processing device of the present disclosure is not limited to the light transmission type AR image display device 10 described with reference to FIG. 1, and can be configured by a device provided with various display units.
  • a camera-photographed image display type AR image display device 31 a smartphone (smartphone) 32, a tablet terminal 33, a PC 34, and the like as shown in FIG. 2 can also be used as the image processing device of the present disclosure.
  • the camera-photographed image display type AR image display device 31 the smartphone (smartphone) 32, the tablet terminal 33, and the PC 34 shown in FIG. 2 display an actual image including an actual object photographed by the camera of each device on a display unit (display). ..
  • a camera is attached to the smartphone (smartphone) 32, the tablet terminal 33, and the PC 34, for example, on the back side or the front side of each device, and the image captured by the camera is displayed on the display unit.
  • a virtual object for example, a virtual object image such as a character image is displayed together with the real object.
  • the user can observe an AR image in which a real object image, which is an image taken by a camera, and a virtual object image such as a character are mixed, and the user feels as if a virtual object such as a character exists in the real world. You can experience it.
  • Real object real object (object)
  • Virtual object an object other than a real object, for example, a 2D image or 3D model to be displayed (typically, for example, 2D image data or 3D model data recorded in a database).
  • AR image An image processed so that when the real object and the display position on the display part of the virtual object overlap, at least a part of the object (real object or virtual object) at a position far in the depth in the overlapping area is not displayed.
  • the display position of the real object or virtual object is in front of the other object in the depth position, if it is a real object, it is visually recognized as it is, and if it is a virtual object, the entire corresponding 3D model is displayed. Is displayed. Further, the AR image may be an image subjected to any other image processing.
  • FIG. 3 is a diagram illustrating a problem in the AR image display process.
  • An AR image is an image in which real objects and virtual objects coexist. For example, when a part of the virtual object overlaps with the real object in front of it (AR image observation user side), it is necessary to control the display so that the virtual object in the overlapping area is hidden.
  • FIG. 3 is a diagram showing an AR image display example in which real objects 61 and 62, which are human beings, pass in front of the virtual object 51.
  • an image processing device that actually controls the display of an AR image sets up a virtual object 51 in the overlapping area when a part of the virtual object 51 overlaps with the real objects 61 and 62 in front of the virtual object 51. Perform display control to hide.
  • This display control is performed by using, for example, the distance measurement result of a real object by a distance sensor (depth sensor) or the like.
  • the boundary between the real object and the virtual object is the noise of the distance sensor. This makes it unclear, and flicker occurs at this boundary, that is, flicker due to repeated display / non-display of virtual objects.
  • FIG. 3 shows an example of this flicker.
  • the boundary portion flicker 71 shown in FIG. 3 is the flicker that occurs at the boundary portion of the overlapping region between the real objects 61 and 62 and the virtual object 51.
  • the image processing device of the present disclosure controls to display an image that is difficult for the user to recognize the flicker that occurs in the boundary area between the real object and the virtual object.
  • FIG. 4 is a diagram illustrating an outline of processing executed by the image processing apparatus of the present disclosure.
  • the image processing device of the present disclosure performs display processing of an AR image composed of a real object and a virtual object, the boundary portion between the real object and the virtual object in front of the virtual object (camera side or AR image observation user side). Display a new additional virtual object in front of the real object so that it hides at least a portion of the area.
  • the new additional virtual objects are the additional virtual objects 81 and 82 shown in FIG.
  • the additional virtual objects 81 and 82 shown in FIG. 4 are virtual objects displayed so as to hide at least a part of the boundary portion between the real objects 61 and 62 and the virtual object 51 located in front of the virtual object 51. ..
  • the additional virtual objects 81 and 82 are displayed at a position in front of the real objects 61 and 62, that is, at a position closer to the camera side or the AR image observation user side.
  • the flicker at the boundary between the real objects 61 and 62 and the virtual object 51 is obscured, and the area that can be perceived as noise is reduced. That is, by displaying the additional virtual object, it becomes difficult for the user (AR image observation user) to recognize the flicker.
  • the type of the additional virtual object to be additionally displayed is selected, for example, by the AR image display application that controls the display of the AR image content. Specifically, for example, a virtual object of the same type as the real object displayed in the AR image is selected and displayed. In the example shown in FIG. 4, since the real objects 61 and 62 in the AR image are humans, the additional virtual objects 81 and 82 to be additionally displayed are also human virtual objects.
  • the type of additional virtual object to be additionally displayed is not limited to the same type as the displayed real object, and any other object that is not unnatural according to the environment of the AR image being displayed may be used.
  • the boundary area between the real object and the virtual object will also move.
  • the additional virtual object is moved along with the movement of the boundary area.
  • the image processing apparatus of the present disclosure performs the display processing of the AR image composed of the real object and the virtual object, the boundary portion between the real object and the virtual object in front of the virtual object (AR image observation user side). Display a new additional virtual object in front of the real object so that it hides at least a portion of the area.
  • This additional virtual object display process obscures the flicker at the boundary between the real object and the virtual object, making it difficult for the user (AR image observation user) to recognize it.
  • FIG. 5 is a diagram illustrating a configuration example of the image processing device 100 of the present disclosure.
  • the image processing device 100 is, for example, each device described above with reference to FIGS. 1 and 2. That is, the image processing device 100 includes a light transmissive AR image display device (HMD) 10 shown in FIG. 1, a camera-photographed image display type AR image display device (HMD) 31, a smartphone, a tablet, and other terminals 33. It is composed of PC34 and the like.
  • HMD light transmissive AR image display device
  • HMD camera-photographed image display type AR image display device
  • the image processing device 100 includes a sensor (camera or the like) 101, a real object detection unit 102, a self-position estimation unit 103, an AR image display control unit 110, an AR content database 121, and an additional virtual object database 122. It has a display unit 130.
  • the AR image display control unit 110 includes an AR content display control unit 111 and an additional virtual object display control unit 112.
  • the sensor (camera, etc.) 101 is composed of a camera that captures an image of the real world in which a real object such as a person exists, and a distance sensor (depth sensor) that acquires a distance value from the camera to the real object.
  • the acquired information (camera captured image, distance image, etc.) of the sensor (camera, etc.) 101 is input to the real object detection unit 102 and the self-position estimation unit 103.
  • the acquired information of the sensor (camera or the like) 101 is, for example, in the real object detection unit 102. It is a luminance image and a distance image to be applied to the real object detection process and the self-position estimation in the self-position estimation unit 103.
  • the distance image is, for example, an image in which the light and shade pixel value information according to the distance from the sensor (camera or the like) 101 is recorded.
  • the image processing device 100 is configured to display the camera-photographed image on the display unit such as the camera-captured AR image display device 31 or the smartphone 32 as shown in FIG. 2, the acquisition information of the sensor (camera or the like) 101 is obtained.
  • the acquisition information of the sensor (camera or the like) 101 is obtained.
  • the real object detection process in the real object detection unit 102 and the self-position estimation in the self-position estimation unit 103 execute the processing by applying the RGB image captured by the camera and the distance image.
  • the real object detection unit 102 analyzes the acquired information (brightness image, distance image, etc.) of the sensor (camera, etc.) 101 to determine the type of real object (human, plant, etc.) in the captured image of the sensor (camera). Analyze the position of each real object.
  • the position of the real object to be analyzed includes a position in the image plane and a distance from the sensor (camera or the like) 101 which is a position in the depth direction.
  • the type and position information of the real object detected by the real object detection unit 102 is output to the AR content display control unit 111 of the AR image display control unit 110 and the virtual object additional display control unit 112.
  • the self-position estimation unit 103 inputs the acquired information (luminance image, distance image, etc.) of the sensor (camera, etc.) 101 to estimate the self-position, specifically, the camera position of the image processing device.
  • the self-position is estimated by applying an existing technique such as SRAM (simultaneous localization and mapping) processing using an image captured by a camera.
  • SRAM semiconductor localization and mapping
  • SLAM is a process of executing camera position identification (localization) and environment map creation (mapping) in parallel.
  • the camera position information of the image processing device 100 which is the analysis result of the self-position estimation unit 103, is output to the AR content display control unit 111 of the AR image display control unit 110 and the virtual object additional display control unit 112.
  • the AR content display control unit 111 of the AR image display control unit 110 executes the display control of the AR content on the display unit 130.
  • the AR content display control unit 111 displays a virtual object acquired from the AR content database 121 together with a real image composed of real objects captured by a sensor (camera or the like) 101. That is, the AR content display processing as described above with reference to FIG. 3 is performed.
  • the AR content display control unit 111 compares the display position of the virtual object with the position of the real object in the virtual object display process, and the real object exists in the area overlapping the virtual object, and the real object is in front of the virtual object ( When it is located on the camera side or the AR image observation user side), the virtual object display control in which the virtual object in the overlapping area is hidden is executed.
  • the additional virtual object display control unit 112 of the AR image display control unit 110 executes the display process of the additional virtual object described above with reference to FIG.
  • the real object hides at least a part of the flicker occurrence area at the boundary between the real object in front of the content-compatible virtual object (camera side or AR image observation user side) and the content-compatible virtual object.
  • the additional virtual object display control unit 112 analyzes the position of the real object detected by the real object detection unit 102 and the self position estimated by the self-position estimation unit 103, and determines the output position of the additional virtual object.
  • the additional virtual object display control unit 112 selects and displays the virtual object to be additionally displayed from the additional virtual object database 122.
  • the virtual object database 122 is a database that stores various types of additional virtual objects.
  • the type of additional virtual object to be displayed is selected, for example, by an AR image display application that controls the display of AR image content. Specifically, for example, a virtual object of the same type as the real object displayed in the AR image is selected and displayed.
  • the selection process is performed such that the additional virtual objects 81 and 82 to be additionally displayed are also human virtual objects.
  • the type of additional virtual object to be additionally displayed is not limited to the same type as the displayed real object, and other objects of a non-natural type according to the environment of the AR image being displayed. All you need is.
  • the boundary area between the real object and the virtual object also moves.
  • the additional virtual object display control unit 112 displays so that the additional virtual object is moved along with the movement of the boundary area.
  • the display unit 130 displays an AR image composed of a real object and a virtual object.
  • the image processing device 100 is the light transmission type (see-through type) AR image display device 10 shown in FIG. 1
  • the actual object image observed by the user is the light transmission type (see-through type) AR image display device 10. It is an object that is transparent and directly observed by the user.
  • the image processing device 100 is a camera-photographed image display type AR image display device 31, a smartphone (smartphone) 32, a tablet terminal 33, a PC 34, etc. shown in FIG. 2, the actual object image observed by the user is a sensor ( It is an image taken by a camera) 101.
  • the dotted line shown in FIG. 5 is a dotted line indicating an input / output line of a camera-captured image.
  • a virtual object is displayed on the display unit 130 together with the real object.
  • the virtual objects displayed on the display unit are the AR content compatible virtual object acquired from the AR content database 121 by the AR content display control unit 111 and the additional virtual object additionally displayed under the control of the additional virtual object display control unit 112. is there.
  • the AR content-compatible virtual object corresponds to, for example, the virtual object 51 shown in FIGS. 3 and 4. That is, it is a virtual object that is scheduled to be output as AR content from the beginning.
  • the additional virtual object is positioned before the real object (camera side or AR image observation user side) so as to hide an area including at least a part of the boundary area between the AR content-compatible virtual object and the real object in front of the virtual object. ) Is a virtual object to be displayed.
  • the display image displayed by these display processes is an image as shown in FIG. 4 described above. That is, an AR image in which a new additional virtual object is displayed is displayed in front of the real object so as to hide at least a part of the boundary portion between the real object and the virtual object in front of the virtual object.
  • the flicker of the boundary portion between the real object and the virtual object is obscured and it becomes difficult for the user (AR image observer) to recognize it.
  • FIG. 6 is a diagram showing a flowchart for explaining a processing sequence executed by the image processing apparatus of the present disclosure.
  • the process according to the flowchart shown in FIG. 6 is a process executed by the image processing apparatus 100 having the configuration shown in FIG.
  • the image processing device 100 includes a CPU having a program execution function, and executes processing according to a flow by using a program stored in a storage unit, for example, an AR image display application.
  • the flow of FIG. 6 shows a process that is repeatedly executed as a process for each image frame or a plurality of image frames taken by the cameras constituting the sensor 101. That is, while the AR image display process on the display unit 130 is being continued, the process shown in the flow of FIG. 6 is repeatedly executed.
  • the processing of each step of the flow shown in FIG. 6 will be described.
  • Step S101 First, the image processing device 100 inputs a camera-captured image and a distance image in step S101. This process is an input process of acquired information of the sensor (camera or the like) 101 of the image processing device 100 shown in FIG.
  • the sensor (camera, etc.) 101 is a camera that captures a real-world image (brightness image or color image) in which a real object such as a person exists, and from the camera to the real object. It is composed of a distance sensor (depth sensor) that acquires a distance image in which the distance value of is set as a shading pixel value.
  • the acquired information (camera captured image, distance image, etc.) of the sensor (camera, etc.) 101 is input to the real object detection unit 102 and the self-position estimation unit 103.
  • Step S102 the image processing device 100 calculates the position of its own device (AR device) in step S102.
  • This process is a process executed by the self-position estimation unit 103 of the image processing device 100 shown in FIG.
  • the self-position estimation unit 103 inputs the acquired information (camera-captured image, distance image, etc.) of the sensor (camera, etc.) 101, and inputs the self-position, specifically, the camera position of the image processing device 100 (sensor (camera, etc.)). ) 101 position) is estimated.
  • the self-position is estimated by applying an existing technique such as SRAM (simultaneous localization and mapping) processing using an image captured by a camera.
  • Steps S103 to S104 The processes of steps S103 to S104 are executed in parallel with the processes of steps S102.
  • the image processing device 100 executes the real object detection process and the distance calculation process in steps S103 to S104.
  • This process is a process executed by the real object detection unit 102 of the image processing device 100 shown in FIG.
  • the real object detection unit 102 analyzes the acquired information (camera captured image, distance image, etc.) of the sensor (camera, etc.) 101 to determine the type of real object (human, plant, etc.) in the captured image of the sensor (camera). , Analyze the position of each real object.
  • the position of the real object to be analyzed includes a position in the image plane and a distance from the sensor (camera or the like) 101 which is a position in the depth direction.
  • the processing of the next steps S111 to S112 and the processing of steps S113 to S116 are also processing to be executed in parallel.
  • the processes of steps S111 to S112 are processes executed by the AR content display control unit 111 of the image processing device 100 shown in FIG.
  • the processes of steps S113 to S116 are processes executed by the additional virtual object display control unit 112 of the image processing device 100 shown in FIG.
  • Step S111 First, the processes of steps S111 to S112 executed by the AR content display control unit 111 of the image processing device 100 shown in FIG. 5 will be described.
  • the AR content display control unit 111 of the image processing device 100 shown in FIG. 5 determines the output mode (output position, distance, etc.) of the AR content compatible virtual object in step S111.
  • the AR content compatible virtual object corresponds to, for example, the virtual object 51 shown in FIGS. 3 and 4. That is, it is a virtual object registered as an output scheduled virtual object in the AR content from the beginning. It is not an additional virtual object such as the additional virtual objects 81 and 82 shown in FIG.
  • the AR content display control unit 111 has acquired from the AR content database 121 together with the actual image composed of the actual objects captured by the sensor (camera or the like) 101. Display virtual objects. That is, the AR content display processing as described above with reference to FIG. 3 is performed.
  • the AR content display control unit 111 compares the display position of the virtual object with the position of the real object in the virtual object display process, and the real object exists in the area overlapping the virtual object, and the real object is in front of the virtual object ( When it is located on the camera side or the AR image observation user side), the virtual object in the overlapping area determines the virtual object display mode to be hidden.
  • Step S112 the AR content display control unit 111 of the image processing device 100 outputs the virtual object to the display unit 130 according to the display mode of the virtual object determined in step S111.
  • Step S113 Next, the processes of steps S113 to S116 executed by the additional virtual object display control unit 112 of the image processing device 100 shown in FIG. 5 will be described.
  • the additional virtual object display control unit 112 of the image processing device 100 shown in FIG. 5 first determines in step S113 whether or not a real object exists in front of the AR content-compatible virtual object display position.
  • the display position of the virtual object corresponding to AR content is a position determined by the AR content display control unit 111 in step S111, that is, a position including a distance from the camera.
  • the position of the real object is the position information of the real object acquired by the real object detection unit 102 in step S103 by analyzing the acquired information (camera captured image, distance image, etc.) of the sensor (camera, etc.) 101. Yes, it is information including the position in the image plane and the distance from the camera, which is the position in the depth direction.
  • the additional virtual object display control unit 112 of the image processing device 100 shown in FIG. 5 determines in step S113 whether or not a real object exists in front of the AR content-compatible virtual object display position. ..
  • step S113 If it is determined in step S113 that the real object exists in front of the AR content-compatible virtual object display position (camera side or AR image observation user side), the process proceeds to step S114. On the other hand, if it is determined in step S113 that the real object does not exist in front of the AR content-compatible virtual object display position, the process returns to step S101 and the process proceeds to the next processing frame.
  • Step S114 If it is determined in step S113 that the real object exists in front of the AR content-compatible virtual object display position, the process proceeds to step S114.
  • step S114 the additional virtual object display control unit 112 of the image processing device 100 shown in FIG. 5 determines whether or not to output the additional virtual object.
  • this output determination process is executed according to a predetermined output determination rule. Specifically, for example, the determination is made according to the following rules.
  • step S114 the additional virtual object display control unit 112 determines whether or not to output the additional virtual object, for example, in accordance with any of the above rules 1 to 3.
  • step S114 If it is determined in step S114 that the additional virtual object is to be output, the process proceeds to step S115. On the other hand, if it is determined in step S114 that the additional virtual object is not output, the process returns to step S101 and proceeds to the processing of the next processing frame.
  • Step S115 If it is determined in step S114 that the additional virtual object is to be output, the process proceeds to step S115.
  • the additional virtual object display control unit 112 of the image processing device 100 shown in FIG. 5 selects an additional virtual object from the additional virtual object database 122.
  • the additional virtual object display control unit 112 selects an object of a non-natural type according to the environment of the AR image displayed on the display unit 130 as the additional virtual object. To do. For example, as shown in FIG. 4, when the display environment of the AR image is "park” or "walking path", virtual objects that do not become unnatural even if they exist in "park” or "walking path", for example, a person, a dog, or a cat Select a type of virtual object such as.
  • step S116 the additional virtual object display control unit 112 sets the additional virtual object selected in step S115 into an area including at least a part of the boundary area between the AR content compatible virtual object and the real object in front of the AR content compatible virtual object. Output.
  • the boundary area between the real object and the virtual object also moves.
  • the additional virtual object display control unit 112 displays so that the additional virtual object is moved along with the movement of the boundary area.
  • the AR image composed of the real object and the virtual object is displayed on the display unit 130.
  • the real object displayed on the display unit 130 is either a real object directly observed by the user or a real object composed of images taken by the camera.
  • the virtual objects displayed on the display unit 130 are a normal AR content compatible virtual object displayed by the AR content display control unit 111 and a virtual object additionally displayed under the control of the additional virtual object display control unit 112. is there.
  • the display image displayed by these display processes is an image as shown in FIG. 4 described above. That is, an AR image in which a new additional virtual object is displayed is displayed in front of the real object so as to hide at least a part of the boundary portion between the real object and the virtual object in front of the virtual object.
  • the flicker of the boundary portion between the real object and the virtual object is obscured and it becomes difficult for the user (AR image observation user) to recognize it.
  • the boundary between the real object and the virtual object is fixed, so that flicker is relatively small.
  • the boundary between the real object and the virtual object also moves, so that the boundary portion flickers a lot.
  • the following embodiment is an example in which a moving real object is detected and the output target of the additional virtual object is limited to the moving real object.
  • the configuration of the image processing device 200 of this embodiment is shown in FIG.
  • FIG. 7 is a diagram illustrating a configuration example of the image processing device 200 of this embodiment.
  • the image processing device 200 is, for example, each device described above with reference to FIGS. 1 and 2. That is, the image processing device 100b includes the light transmissive AR image display device (HMD) 10 shown in FIG. 1, the camera-photographed image display type AR image display device (HMD) 31 shown in FIG. 2, a smartphone, a tablet or other terminal 33, and the like. It is composed of PC34 and the like.
  • HMD light transmissive AR image display device
  • HMD camera-photographed image display type AR image display device
  • the image processing device 200 includes a sensor (camera or the like) 101, a real object detection unit 102, a self-position estimation unit 103, an AR image display control unit 110, an AR content database 121, and an additional virtual object database 122. It has a display unit 130, and further has a moving real object selection unit 201.
  • the AR image display control unit 110 includes an AR content display control unit 111 and an additional virtual object display control unit 112.
  • the difference between the configuration of the image processing device 200 shown in FIG. 7 and the configuration of the image processing device 100 described above with reference to FIG. 5 is that the image processing device 100 shown in FIG. 5 has a moving real object selection unit. This is the point where 201 was added.
  • Other configurations are the same as those of the image processing apparatus 100 shown in FIG.
  • the moving real object selection unit 201 executes a process of selecting only a moving real object from the real objects detected by the real object detection unit 102. As a specific process, for example, a plurality of continuously shot image frames are compared and only moving real objects are selected. Specifically, select moving real objects such as people, cars, dogs, and cats.
  • the selected type of real object with movement (person, car, dog, cat, etc.) and the position of each real object with movement are input from the real object detection unit 102, and the virtual object additional display control of the AR image display control unit 110 is performed.
  • the position of the moving real object includes the position in the image plane and the distance from the camera, which is the position in the depth direction.
  • the virtual object additional display control unit 112 of the AR image display control unit 110 performs display control of the additional virtual object that targets only the moving real object selected by the moving real object selection unit 201.
  • the additional virtual object display control unit 112 selects and displays the virtual object to be additionally displayed from the additional virtual object database 122.
  • the type of additional virtual object to be displayed is selected, for example, by an AR image display application that controls the display of AR image content. Specifically, for example, a virtual object of the same type as the moving real object displayed in the AR image is selected and displayed.
  • the type of additional virtual object to be additionally displayed is not limited to the same type as the displayed real object, and other objects of a non-natural type according to the environment of the AR image being displayed. All you need is.
  • the image processing device 200 of the present embodiment selects only the boundary area of the moving real object in front of the content-compatible virtual object as the processing target, and outputs the additional virtual object. Since the image processing device 200 of this embodiment does not output additional virtual objects in the boundary area of the stationary real object having a low flicker occurrence level, it is possible to prevent a situation in which many additional virtual objects are displayed. It will be possible.
  • FIG. 8 is a diagram showing a flowchart illustrating a processing sequence executed by the image processing apparatus 200 described with reference to FIG. 7.
  • the process according to the flowchart shown in FIG. 8 is executed according to a program stored in the storage unit, for example, an AR image display application, under the control of a CPU having a program execution function.
  • the process shown in the flow of FIG. 8 is a process that is repeatedly executed as a process for each image frame or a plurality of image frames taken by the cameras constituting the sensor 101. That is, while the AR image display process on the display unit 130 is being continued, the process according to the flow of FIG. 8 is repeatedly executed.
  • steps S101 to S104 of the flow shown in FIG. 8 and the processing of steps S111 to S112 are the same as the processing of steps S101 to S104 and the processing of steps S111 to S112 of the flow described above with reference to FIG. It is the processing of.
  • steps S105 and steps S113b to S116b which are processes specific to this embodiment, will be described in detail.
  • Step S101 First, the image processing device 100 inputs a camera-captured image and a distance image in step S101.
  • This process is an acquisition information input process from the sensor (camera or the like) 101 of the image processing device 200 shown in FIG. 7.
  • the acquired information (camera captured image, distance image, etc.) of the sensor (camera, etc.) 101 is input to the real object detection unit 102 and the self-position estimation unit 103.
  • Step S102 the image processing device 100 calculates the position of its own device (AR device) in step S102.
  • This process is a process executed by the self-position estimation unit 103 of the image processing device 200 shown in FIG. 7.
  • the self-position is estimated by applying an existing technique such as SRAM processing using an image captured by a camera.
  • Steps S103 to S104 The processes of steps S103 to S104 are executed in parallel with the processes of steps S102.
  • the image processing device 200 executes the real object detection process and the distance calculation process in steps S103 to S104.
  • This process is a process executed by the real object detection unit 102 of the image processing device 200 shown in FIG. 7.
  • the real object detection unit 102 analyzes the acquired information (camera captured image, distance image, etc.) of the sensor (camera, etc.) 101 to determine the type of real object (human, plant, etc.) in the captured image of the sensor (camera). , Analyze the position of each real object.
  • the position of the real object to be analyzed includes a position in the image plane and a distance from the sensor (camera or the like) 101 which is a position in the depth direction.
  • steps S111 to S112 and the processes of steps S105 to S116b are also executed in parallel.
  • the processes of steps S111 to S112 are processes executed by the AR content display control unit 111 of the image processing device 200 shown in FIG. 7.
  • the processes of steps S105 to S116b are processes executed by the moving real object selection unit 201 and the additional virtual object display control unit 112 of the image processing device 200 shown in FIG. 7.
  • Step S111 First, the processing of steps S111 to S112 executed by the AR content display control unit 111 of the image processing apparatus 200 shown in FIG. 7 will be described.
  • the AR content display control unit 111 of the image processing device 100 shown in FIG. 7 determines the output mode (output position, distance, etc.) of the AR content compatible virtual object in step S111.
  • the AR content-compatible virtual object corresponds to, for example, the virtual object 51 shown in FIGS. 3 and 4. That is, it is a virtual object registered as an output scheduled virtual object in the AR content from the beginning. Not an additional virtual object.
  • the AR content display control unit 111 displays a virtual object acquired from the AR content database 121 together with a real image composed of real objects captured by a sensor (camera or the like) 101. That is, the AR content display processing as described above with reference to FIG. 3 is performed.
  • the AR content display control unit 111 compares the display position of the virtual object with the position of the real object in the virtual object display process, and the real object exists in the area overlapping the virtual object, and the real object is in front of the virtual object ( When it is located on the camera side or the AR image observation user side), the virtual object in the overlapping area determines the virtual object display mode to be hidden.
  • Step S112 the AR content display control unit 111 of the image processing device 200 outputs the virtual object to the display unit 130 according to the display mode of the virtual object determined in step S111.
  • Step S105 Next, the processing of steps S105 to S116b executed by the moving real object selection unit 201 and the additional virtual object display control unit 112 of the image processing device 200 shown in FIG. 7 will be described.
  • the moving real object selection unit 201 of the image processing device 200 shown in FIG. 7 executes the following processing in step S105.
  • step S105 the real object selection unit 201 executes a process of selecting only a moving real object from the real objects detected by the real object detection unit 102 in steps S103 to S104.
  • a process as described above, for example, a plurality of continuously captured image frames are compared and only moving real objects are selected. Specifically, select moving real objects such as people, cars, dogs, and cats.
  • the real object selection unit 201 inputs the type of the selected real object with movement (person, car, dog, cat, etc.) and the position of each real object with movement from the real object detection unit 102, and the AR image display control unit 110. Output to the virtual object additional display control unit 112 of.
  • Step S113b Next, the processes of steps S113b to S116b executed by the additional virtual object display control unit 112 of the image processing device 200 shown in FIG. 7 will be described.
  • the additional virtual object display control unit 112 of the image processing device 200 shown in FIG. 7 first determines in step S113b whether or not there is a moving real object in front of the AR content-compatible virtual object display position.
  • the display position of the virtual object corresponding to AR content is a position determined by the AR content display control unit 111 in step S111, that is, a position including a distance from the camera.
  • the real object detection unit 102 and the real object selection unit 201 with movement analyze the acquired information (image, distance data, etc.) of the sensor (camera, etc.) 101. This is the position information of the moving real object acquired in the above process, and is the information including the position in the image plane and the position in the depth direction from the camera.
  • the additional virtual object display control unit 112 of the image processing device 200 shown in FIG. 7 determines whether there is a real object with movement such as a person in front of the AR content compatible virtual object display position in step S113. Judge whether or not.
  • step S113 If it is determined in step S113 that there is a movement in front of the AR content-compatible virtual object display position and a real object exists, the process proceeds to step S114. On the other hand, in step S113, when it is determined that there is a movement in front of the AR content compatible virtual object display position and the real object does not exist, the process returns to step S101 and the process proceeds to the next processing frame.
  • Step S114 If it is determined in step S113b that there is a movement in front of the AR content-compatible virtual object display position and a real object exists, the process proceeds to step S114.
  • step S114 the additional virtual object display control unit 112 of the image processing device 200 shown in FIG. 7 determines whether or not to output the additional virtual object.
  • This output determination process is executed according to a predetermined output determination rule. Specifically, the determination is made according to the rule described earlier in step S114 of the flow of FIG. If it is determined in step S114 that the additional virtual object is to be output, the process proceeds to step S115. On the other hand, if it is determined in step S114 that the additional virtual object is not output, the process returns to step S101 and proceeds to the processing of the next processing frame.
  • Step S115 If it is determined in step S114 that the additional virtual object is to be output, the process proceeds to step S115.
  • the additional virtual object display control unit 112 of the image processing device 200 shown in FIG. 7 selects an additional virtual object from the additional virtual object database 122.
  • the additional virtual object display control unit 112 selects an object of a type that is not unnatural according to the environment of the AR image displayed on the display unit 130 as the additional virtual object. For example, as shown in FIG. 4, when the display environment of the AR image is "park” or "walking path", virtual objects that do not become unnatural even if they exist in "park” or "walking path", for example, a person, a dog, or a cat Select a type of virtual object such as.
  • step S116b the additional virtual object display control unit 112 includes the additional virtual object selected in step S115 at least a part of the boundary area between the AR content compatible virtual object and the moving real object in front of the AR content compatible virtual object. Output to the area.
  • the additional virtual object display control unit 112 displays so that the additional virtual object is moved along with the movement of the boundary area. By performing this process, it is possible to effectively hide the flicker portion of the moving boundary area.
  • the AR image composed of the real object and the virtual object is displayed on the display unit 130.
  • the real object displayed on the display unit 130 is either a real object directly observed by the user or a real object composed of images taken by the camera.
  • the virtual objects displayed on the display unit 130 are a normal AR content compatible virtual object displayed by the AR content display control unit 111 and a virtual object additionally displayed under the control of the additional virtual object display control unit 112. is there.
  • the display image displayed by these display processes is an image as shown in FIG. 4 described above. That is, an AR in which a new additional virtual object is displayed in front of the moving real object so as to hide at least a part of the boundary between the moving real object and the virtual object like a person in front of the virtual object.
  • the image is displayed.
  • the flicker of the boundary portion between the moving real object and the virtual object is obscured, and it becomes difficult for the user (AR image observer) to recognize it.
  • the type of the additional virtual object to be additionally displayed by the control of the additional virtual object display control unit 112 is an object that matches the real object or an object of a non-natural type according to the environment of the AR image being displayed. I explained that.
  • a specific example of a non-natural type of object according to the environment of the AR image being displayed will be described.
  • (a) an example of the environment of the AR image being displayed and (b) an example of a plurality of combinations of additional virtual objects corresponding to this environment will be described.
  • the additional virtual object display control unit 112 performs a process of selectively acquiring the virtual object stored in the additional virtual object database 122 and outputting it to the display unit 130.
  • the additional virtual object display control unit 112 acquires (captures) the image of the real object detected from the displayed AR image, generates a virtual object image based on the acquired image, and adds the generated virtual object. It may be configured to output to the display unit 130 as a virtual object.
  • the additional virtual object display control unit 112 may generate a virtual object based on the real object and output the generated virtual object to the display unit as an additional virtual object.
  • the additional virtual object display control unit 112 may generate an animation image composed of virtual objects based on the real object, and output the generated animation image as an additional virtual object to the display unit.
  • the additional virtual object database 122 shown in FIGS. 5 and 7 becomes unnecessary.
  • FIG. 9 is an example of the hardware configuration of the image processing apparatus of the present disclosure described with reference to FIGS. 5 and 7.
  • the hardware configuration shown in FIG. 9 will be described.
  • the CPU (Central Processing Unit) 301 functions as a data processing unit that executes various processes according to a program stored in the ROM (Read Only Memory) 302 or the storage unit 308. For example, the process according to the sequence described in the above-described embodiment is executed.
  • the RAM (Random Access Memory) 303 stores programs and data executed by the CPU 301. These CPU 301, ROM 302, and RAM 303 are connected to each other by a bus 304.
  • the CPU 301 is connected to the input / output interface 305 via the bus 304, and the input / output interface 305 has an input unit 306 composed of various sensors, a camera, a switch, a keyboard, a mouse, a microphone, etc., and an output unit 307 composed of a display, a speaker, and the like. Is connected.
  • the storage unit 308 connected to the input / output interface 305 is composed of, for example, a hard disk or the like, and stores programs executed by the CPU 301 and various data.
  • the communication unit 309 functions as a transmission / reception unit for data communication via a network such as the Internet or a local area network, and communicates with an external device.
  • the drive 310 connected to the input / output interface 305 drives a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card, and records or reads data.
  • a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card
  • a real object detection unit that executes real object detection processing in the real world, It has an AR image display control unit that generates an AR (Augmented Reality) image that makes it appear that the virtual object exists in the same space as the real object and outputs it to the display unit.
  • the AR image display control unit When the position of the real object detected by the real object detection unit is in front of the position where the virtual object to be displayed on the display unit is arranged in the depth direction, at least one of the boundary areas between the virtual object and the real object.
  • An image processing device that outputs an additional virtual object to the display unit in the depth direction from the position of the real object so as to hide the unit area.
  • the AR image display control unit is The image processing device according to (1), which outputs an additional virtual object of a type corresponding to the display environment of the AR image displayed on the display unit to the display unit.
  • the AR image display control unit is The image processing device according to (1) or (2), which outputs an additional virtual object of a type corresponding to the type of the real object located in front of the virtual object to the display unit.
  • the AR image display control unit is The image processing device according to (3), which outputs an additional virtual object of the same type as the real object located in front of the virtual object to the display unit.
  • the AR image display control unit is The image processing device according to any one of (1) to (4), which outputs an additional virtual object of the type selected by the AR image display application to the display unit.
  • the AR image display control unit is The image processing device according to any one of (1) to (5), which outputs the additional virtual object to the display unit when the real object located in front of the virtual object is a moving real object.
  • the AR image display control unit is When the real object in front of the virtual object is a moving real object, the additional virtual object is moved and displayed in accordance with the movement of the boundary area between the virtual object and the real object (1) to (6)
  • the image processing apparatus according to any one.
  • the image processing apparatus further includes It has a self-position estimation unit that estimates the position of its own device.
  • the AR image display control unit The position of the real object detected by the real object detection unit and By analyzing the self-position estimated by the self-position estimation unit, The image processing apparatus according to any one of (1) to (7), which determines the output position of the additional virtual object.
  • the image processing apparatus further includes It has an additional virtual object database that stores various types of additional virtual objects.
  • the AR image display control unit The image processing apparatus according to any one of (1) to (8), which outputs an additional virtual object acquired from the additional virtual object database to the display unit.
  • the display unit is a transparent display unit.
  • the transparent display unit is A real object that can be directly observed by the user through the transparent display unit,
  • the image processing apparatus according to any one of (1) to (9), which is a display unit capable of observing virtual objects output by the control of the AR image display control unit.
  • the display unit is a non-transparent display unit.
  • the non-transparent display unit is A real object composed of images taken by a camera and
  • the image processing device according to any one of (1) to (9), which is a display unit that also displays virtual objects output by the control of the AR image display control unit.
  • the AR image display control unit is An AR content display control unit that outputs an AR content-compatible virtual object that is scheduled to be output as AR content from the beginning to the display unit, and An additional virtual object display control unit that outputs the additional virtual object that is not an AR content compatible virtual object scheduled to be output as the AR content to the display unit, and an additional virtual object display control unit.
  • the image processing apparatus according to any one of (1) to (11).
  • the AR image display control unit is Create a virtual object based on the real object
  • the image processing apparatus according to any one of (1) to (12), which outputs the generated virtual object to the display unit as the additional virtual object.
  • the AR image display control unit is The image processing apparatus according to any one of (1) to (13), wherein an animation image composed of a virtual object based on the real object is generated, and the generated animation image is output to the display unit as an additional virtual object.
  • the real object detection step in which the real object detection unit executes the real object detection process in the real world
  • the AR image display control unit has an AR image display control step that generates an AR (Augmented Reality) image in which the virtual object is visually recognized as existing in the same space as the real object and outputs the AR image display control unit to the display unit.
  • the AR image display control step is When the position of the real object detected by the real object detection unit is in front of the position where the virtual object to be displayed on the display unit is arranged in the depth direction, at least one of the boundary areas between the virtual object and the real object.
  • An image processing method including a step of outputting an additional virtual object to the display unit in the depth direction from the position of the real object so as to hide the part area.
  • a program that executes image processing in an image processing device A real object detection step that causes the real object detection unit to execute real object detection processing in the real world,
  • the AR image display control unit is made to execute an AR image display control step of generating an AR (Augmented Reality) image in which the virtual object is visually recognized as existing in the same space as the real object and outputting it to the display unit.
  • an AR image display control step When the position of the real object detected by the real object detection unit is in front of the position where the virtual object to be displayed on the display unit is arranged in the depth direction, at least one of the boundary areas between the virtual object and the real object.
  • the series of processes described in the specification can be executed by hardware, software, or a composite configuration of both.
  • executing processing by software install the program that records the processing sequence in the memory in the computer built in the dedicated hardware and execute it, or execute the program on a general-purpose computer that can execute various processing. It can be installed and run.
  • the program can be pre-recorded on a recording medium.
  • LAN Local Area Network
  • the various processes described in the specification are not only executed in chronological order according to the description, but may also be executed in parallel or individually as required by the processing capacity of the device that executes the processes.
  • the system is a logical set configuration of a plurality of devices, and the devices having each configuration are not limited to those in the same housing.
  • a device and a method for performing AR image display control in which the flicker of the boundary region between the virtual object and the real object is not noticeable are realized.
  • a real object detection unit that executes detection processing of a real object in the real world and an AR image in which a virtual object is visually recognized as existing in the same space as the real object are generated and displayed on the display unit. It has an AR image display control unit that outputs, and the AR image display control unit has the position of the real object detected by the real object detection unit in front of the position where the virtual object to be displayed on the display unit is placed in the depth direction.
  • the additional virtual object is output to the display unit in the depth direction from the position of the real object so as to hide at least a part of the boundary area between the virtual object and the real object.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

仮想オブジェクトと実オブジェクトの境界領域のちらつきを目立たせないAR画像表示制御を行う装置、方法を提供する。実世界上の実オブジェクトの検出処理を実行する実オブジェクト検出部と、仮想オブジェクトが実オブジェクトと同じ空間に存在するように視認されるAR画像を生成して表示部に出力するAR画像表示制御部を有し、AR画像表示制御部は、実オブジェクト検出部が検出した実オブジェクトの位置が、表示部に表示する仮想オブジェクトが配置される位置よりも奥行方向において手前にある場合、仮想オブジェクトと実オブジェクトの境界領域の少なくとも一部領域を隠すように、実オブジェクトの位置よりも奥行方向において手前に追加仮想オブジェクトを表示部に出力する。

Description

画像処理装置、および画像処理方法、並びにプログラム
 本開示は、画像処理装置、および画像処理方法、並びにプログラムに関する。さらに詳細には、現実に観察可能な実オブジェクトと同じ空間にキャラクタ画像等の仮想オブジェクトが存在すると視認されるような拡張現実(AR:Augumented Reality)画像を生成して表示する画像処理装置、および画像処理方法、並びにプログラムに関する。
 現実に観察可能な実オブジェクトと同じ空間にキャラクタ画像等の仮想オブジェクトが存在すると視認されるような画像を拡張現実画像、あるいはAR(Augumented Reality)画像と呼ぶ。
 AR画像は、例えばユーザの目に装着するヘッド・マウント・ディスプレイ(HMD)や、スマホ(スマートフォン)等の携帯端末等を利用して表示される。
 ユーザは、AR画像を観察することで、例えばAR画像中の表示キャラクタが実世界に存在するような感覚を楽しむことができる。
 AR画像は、実オブジェクトと、仮想オブジェクトが混在する画像であるが、例えば仮想オブジェクトの一部領域が、その手前にある実オブジェクトに重なる場合、重なり領域部分の仮想オブジェクトは非表示とする表示制御が必要となる。
 このような表示制御は、例えば距離センサ(デプスセンサ)等による実オブジェクトの距離計測結果を利用して行われる。しかし、距離センサの距離計測精度が不十分な場合や、仮想オブジェクトより前にある実オブジェクトが動く物体である場合には、実オブジェクトと仮想オブジェクトとの重なり領域の境界部分が不明確になり、この境界部分でちらつき、すなわち仮想オブジェクトの表示/非表示の繰り返しによるちらつきが発生するという問題がある。
 なお、このようなちらつきを防止する構成を開示した従来技術として例えば特許文献1(国際公開WO2019/031015号公報)がある。
 この特許文献1は、実オブジェクトの仮想オブジェクトの境界領域にぼかし処理等のエフェクト表示を行う構成を開示している。
 しかし、このような画像処理を行っても、例えば実オブジェクトが動く物体である場合等には境界部分が移動しまうため処理が追い付かず、十分なちらつき低減効果が得られないという問題がある。
国際公開WO2019/031015号公報
 本開示は、例えば上記問題点に鑑みてなされたものであり、実オブジェクトと仮想オブジェクトの境界領域に発生するちらつきを、ユーザに認識しづらくする表示制御を行う画像処理装置、および画像処理方法、並びにプログラムを提供するものである。
 本開示の第1の側面は、
 実世界上の実オブジェクトの検出処理を実行する実オブジェクト検出部と、
 仮想オブジェクトが実オブジェクトと同じ空間に存在するように視認されるAR(Augumented Reality)画像を生成して表示部に出力するAR画像表示制御部を有し、
 前記AR画像表示制御部は、
 前記実オブジェクト検出部が検出した実オブジェクトの位置が、前記表示部に表示する仮想オブジェクトが配置される位置よりも奥行方向において手前にある場合、前記仮想オブジェクトと前記実オブジェクトの境界領域の少なくとも一部領域を隠すように、前記実オブジェクトの位置よりも奥行方向において手前に追加仮想オブジェクトを前記表示部に出力する画像処理装置にある。
 さらに、本開示の第2の側面は、
 画像処理装置において実行する画像処理方法であり、
 実オブジェクト検出部が、実世界上の実オブジェクトの検出処理を実行する実オブジェクト検出ステップと、
 AR画像表示制御部が、仮想オブジェクトが実オブジェクトと同じ空間に存在するように視認されるAR(Augumented Reality)画像を生成して表示部に出力するAR画像表示制御ステップを有し、
 前記AR画像表示制御ステップは、
 前記実オブジェクト検出部が検出した実オブジェクトの位置が、前記表示部に表示する仮想オブジェクトが配置される位置よりも奥行方向において手前にある場合、前記仮想オブジェクトと前記実オブジェクトの境界領域の少なくとも一部領域を隠すように、前記実オブジェクトの位置よりも奥行方向において手前に追加仮想オブジェクトを前記表示部に出力するステップを含む画像処理方法にある。
 さらに、本開示の第3の側面は、
 画像処理装置において画像処理を実行させるプログラムであり、
 実オブジェクト検出部に、実世界上の実オブジェクトの検出処理を実行させる実オブジェクト検出ステップと、
 AR画像表示制御部に、仮想オブジェクトが実オブジェクトと同じ空間に存在するように視認されるAR(Augumented Reality)画像を生成して表示部に出力させるAR画像表示制御ステップを実行させ、さらに、
 前記AR画像表示制御ステップにおいて、
 前記実オブジェクト検出部が検出した実オブジェクトの位置が、前記表示部に表示する仮想オブジェクトが配置される位置よりも奥行方向において手前にある場合、前記仮想オブジェクトと前記実オブジェクトの境界領域の少なくとも一部領域を隠すように、前記実オブジェクトの位置よりも奥行方向において手前に追加仮想オブジェクトを前記表示部に出力する処理を実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、仮想オブジェクトと実オブジェクトの境界領域のちらつきを目立たせないAR画像表示制御を行う装置、方法が実現される。
 具体的には、例えば、実世界上の実オブジェクトの検出処理を実行する実オブジェクト検出部と、仮想オブジェクトが実オブジェクトと同じ空間に存在するように視認されるAR画像を生成して表示部に出力するAR画像表示制御部を有し、AR画像表示制御部は、実オブジェクト検出部が検出した実オブジェクトの位置が、表示部に表示する仮想オブジェクトが配置される位置よりも奥行方向において手前にある場合、仮想オブジェクトと実オブジェクトの境界領域の少なくとも一部領域を隠すように、実オブジェクトの位置よりも奥行方向において手前に追加仮想オブジェクトを表示部に出力する。
 本構成により、仮想オブジェクトと実オブジェクトの境界領域のちらつきを目立たせないAR画像表示制御を行う装置、方法が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
本開示の画像処理装置の構成例と実行する処理について説明する図である。 本開示の画像処理装置の構成例と実行する処理について説明する図である。 AR画像に発生するちらつきについて説明する図である。 本開示の画像処理装置の実行する処理について説明する図である。 本開示の画像処理装置の構成例について説明する図である。 本開示の画像処理装置の実行する処理のシーケンスについて説明するフローチャートを示す図である。 本開示の画像処理装置の構成例について説明する図である。 本開示の画像処理装置の実行する処理のシーケンスについて説明するフローチャートを示す図である。 本開示の画像処理装置のハードウェア構成例について説明する図である。
 以下、図面を参照しながら本開示の画像処理装置、および画像処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
 1.本開示の画像処理装置の実行する処理の概要について
 2.本開示の画像処理装置が解決するAR画像表示処理における問題点について
 3.本開示の画像処理装置の実行する処理の概要について
 4.本開示の画像処理装置の構成例について
 5.本開示の画像処理装置の実行する処理シーケンスについて
 6.追加仮想オブジェクトの出力処理対象とする実オブジェクトを動きのある実オブジェクトに限定した処理を行なう実施例について
 7.追加仮想オブジェクトの出力処理対象とする実オブジェクトを動きのある実オブジェクトに限定した処理を行なう画像処理装置の実行する処理シーケンスについて
 8.本開示の画像処理装置のその他の構成および処理について
 9.画像処理装置のハードウェア構成例について
 10.本開示の構成のまとめ
  [1.本開示の画像処理装置の実行する処理の概要について]
 まず、図1以下を参照して、本開示の画像処理装置の実行する処理の概要について説明する。
 図1には、本開示の画像処理装置の一例として、ヘッド・マウント・ディスプレイ(HMD)型の光透過型(シースルー型)AR画像表示デバイス10を示している。
 ユーザは、ユーザの目を覆うようにヘッド・マウント・ディスプレイ(HMD)型の光透過型AR画像表示デバイス10を装着する。
 光透過型AR画像表示デバイス10は光透過型(シースルー型)の表示部(ディスプレイ)を有する。光透過型の表示部(ディスプレイ)をユーザの目の前の位置に設定するようにユーザに装着する。
 ユーザは、光透過型AR画像表示デバイス10の光透過型の表示部(ディスプレイ)を介して外部の実オブジェクトをそのまま観察することができる。
 さらに、光透過型の表示部(ディスプレイ)には、仮想オブジェクト、例えばキャラクタ画像等の仮想オブジェクト画像が表示される。
 ユーザは、光透過型AR画像表示デバイス10を介して外部の実オブジェクトとキャラクタ等の仮想オブジェクト画像を併せて観察することが可能となり、あたかもキャラクタ等の仮想オブジェクトが実世界に存在するかのような感覚を体感することができる。
 図1の右側には、ユーザが、光透過型AR画像表示デバイス10を介して観察可能な画像の例を示している。
 (a)観察画像例1は、光透過型AR画像表示デバイス10を介して観察される外部の実オブジェクトからなる透過観察画像21によって構成されている。この画像例1には、仮想オブジェクトは表示されていない。
 一方、(b)観察画像例2は、光透過型AR画像表示デバイス10を介して観察される外部の実オブジェクトからなる透過観察画像21に併せて、キャラクタ画像等の仮想オブジェクト画像22を表示した画像例である。この画像例2は、ユーザが実オブジェクトと仮想オブジェクトを併せて観察可能な画像である。
 前述したように、現実に観察可能な実オブジェクトと同じ空間にキャラクタ画像等の仮想オブジェクトが存在すると視認されるような画像を拡張現実画像、あるいはAR(ugumented Reality)画像と呼ぶ。
 本開示の画像処理装置は、このAR画像の表示処理を行う装置である。
 なお、本開示の画像処理装置は、図1を参照して説明した光透過型AR画像表示デバイス10に限らず、様々な表示部を備えた装置によって構成することができる。
 具体的には、例えば、図2に示すようなカメラ撮影画像表示型AR画像表示デバイス31、スマホ(スマートフォン)32、タブレット端末33、PC34等も、本開示の画像処理装置として利用可能である。
 図2に示すカメラ撮影画像表示型AR画像表示デバイス31、スマホ(スマートフォン)32、タブレット端末33、PC34は、各デバイスのカメラが撮影した実オブジェクトを含む実画像を表示部(ディスプレイ)に表示する。
 なお、スマホ(スマートフォン)32、タブレット端末33、PC34には例えば各デバイスの裏側、あるいは表面側にカメラが装着されており、このカメラ撮影画像を表示部に表示する。
 さらに、表示部(ディスプレイ)には、実オブジェクトとともに仮想オブジェクト、例えばキャラクタ画像等の仮想オブジェクト画像を表示する。
 ユーザは、カメラ撮影画像である実オブジェクト画像と、キャラクタ等の仮想オブジェクト画像が混在したAR画像を観察することが可能となり、あたかもキャラクタ等の仮想オブジェクトが実世界に存在するかのような感覚を体感することができる。
 なお、本明細書において説明する「実オブジォクト」、「仮想オブジェクト」、および本開示の情報処理装置が生成する「AR画像」は、以下のように定義される。
 実オブジェクト=リアルな物体(オブジェクト)
 仮想オブジェクト=実オブジェクト以外のオブジェクトであり、例えば表示対象となる2D画像や3Dモデル(典型的には例えばデータベースに記録された2D画像データや3Dモデルデータ)
 AR画像=実オブジェクトと、仮想オブジェクトの表示部上の表示位置が重なる場合、重なり領域において奥行きが遠い位置のオブジェクト(実オブジェクトまたは仮想オブジェクト)の少なくとも一部を表示しないように画像処理した画像。なお、実オブジェクト又は仮想オブジェクトの表示位置がもう一方のオブジェクトよりも奥行位置において手前である場合は、それが実オブジェクトであればそのまま視認され、それが仮想オブジェクトであれば対応する3Dモデルの全体が表示される。またAR画像は、任意の他の画像処理が施された画像であってもよい。
  [2.本開示の画像処理装置が解決するAR画像表示処理における問題点について]
 次に、本開示の画像処理装置が解決するAR画像表示処理における問題点について説明する。
 図3は、AR画像表示処理における問題点について説明する図である。
 AR画像は、実オブジェクトと、仮想オブジェクトが混在する画像である。
 例えば仮想オブジェクトの一部領域が、その手前(AR画像観察ユーザ側)にある実オブジェクトに重なる場合、重なり領域部分の仮想オブジェクトは非表示とする表示制御が必要となる。
 図3は、仮想オブジェクト51の前を、人である実オブジェクト61,62が通り過ぎる状態のAR画像表示例を示した図である。
 AR画像の表示制御を実公する画像処理装置は、図3に示すように、仮想オブジェクト51の一部領域が、その手前の実オブジェクト61,62に重なる場合、重なり領域部分の仮想オブジェクト51を非表示とする表示制御を行う。
 この表示制御は、例えば距離センサ(デプスセンサ)等による実オブジェクトの距離計測結果を利用して行う。
 画像処理装置のデータ処理部は、仮想オブジェクト51を表示する奥行位置(カメラからの距離)と、実オブジェクトの奥行位置(カメラからの距離)を比較して、実オブジェクトの位置(カメラからの距離)が仮想オブジェクト51の表示位置より手前(カメラに近い位置=AR画像観察ユーザ側)である場合、その領域の仮想オブジェクト51を非表示とする表示制御を行う。
 しかし、距離センサの距離計測精度が不十分な場合や、仮想オブジェクトより前にある実オブジェクトが動く物体である場合には、実オブジェクトと仮想オブジェクトとの重なり領域の境界部分が距離センサのノイズ等により不明確になり、この境界部分でちらつき、すなわち仮想オブジェクトの表示/非表示の繰り返しによるちらつきが発生する。
 図3には、このちらつきの例を示している。図3に示す境界部ちらつき71が、実オブジェクト61,62と仮想オブジェクト51との重なり領域の境界部分に発生するちらつきである。
 特に、図3に示すように実オブジェクト61,62が人のように動く物体である場合には、実オブジェクトと仮想オブジェクトとの境界が移動するため、さらに激しいちらつきが発生する。
 本開示の画像処理装置は、実オブジェクトと仮想オブジェクトの境界領域に発生するちらつきを、ユーザが認識しにくい画像を表示する制御を行う。
  [3.本開示の画像処理装置の実行する処理の概要について]
 次に、本開示の画像処理装置の実行する処理の概要について説明する。
 図4は、本開示の画像処理装置の実行する処理の概要について説明する図である。
 本開示の画像処理装置は、実オブジェクトと仮想オブジェクトからなるAR画像の表示処理を行う際、仮想オブジェクトより手前(カメラ側、またはAR画像観察ユーザ側)にある実オブジェクトと仮想オブジェクトとの境界部分の少なくとも一部領域を隠すように、実オブジェクトの手前に新たな追加仮想オブジェクトを表示する。
 新たな追加仮想オブジェクトは、図4に示す追加仮想オブジェクト81,82である。
 図4に示す追加仮想オブジェクト81,82は、仮想オブジェクト51より手前の位置にある実オブジェクト61,62と仮想オブジェクト51との境界部分の少なくとも一部領域を隠すように表示された仮想オブジェクトである。
 この追加仮想オブジェクト81,82は、実オブジェクト61,62より手前の位置、すなわちカメラ側、またはAR画像観察ユーザ側に近い位置に表示する。
 この追加仮想オブジェクト81,82の表示処理により、実オブジェクト61,62と仮想オブジェクト51との境界部分のちらつきが覆い隠されて、ノイズとして知覚されうる領域が少なくなる。つまり追加仮想オブジェクトを表示することでユーザ(AR画像観察ユーザ)にちらつきが認識されにくくなる。
 なお、追加表示する追加仮想オブジェクトの種類は、例えばAR画像コンテンツの表示制御を行うAR画像表示アプリケーションによって選択される。
 具体的には、例えばAR画像中に表示されている実オブジェクトと同じ種類の仮想オブジェクトを選択して表示する。図4に示す例では、AR画像中の実オブジェクト61,62は人であるので、追加表示する追加仮想オブジェクト81,82も人の仮想オブジェクトとする。
 なお、追加表示する追加仮想オブジェクトの種類は、表示されている実オブジェクトと同一の種類に限らず、その他、表示中のAR画像の環境に応じた不自然でない種類のオブジェクトであればよい。
 例えば図4に示すようにAR画像の表示環境が「公園」や「散歩道」である場合、「公園」や「散歩道」に存在しても不自然とならない人、犬、猫等の種類の仮想オブジェクトを選択して表示する。
 なお、実オブジェクトが人のように移動するオブジェクトである場合、実オブジェクトと仮想オブジェクトとの境界領域も移動してしまう。このような場合には、その境界領域の移動に併せて、追加仮想オブジェクトも移動させる。このような処理を行なうことで移動する境界領域のちらつき部分を効果的に隠すことが可能となる。
 このように、本開示の画像処理装置は、実オブジェクトと仮想オブジェクトからなるAR画像の表示処理を行う際、仮想オブジェクトより手前(AR画像観察ユーザ側)にある実オブジェクトと仮想オブジェクトとの境界部分の少なくとも一部領域を隠すように、実オブジェクトの手前に新たな追加仮想オブジェクトを表示する。
 この追加仮想オブジェクトの表示処理により、実オブジェクトと仮想オブジェクトとの境界部分のちらつきが覆い隠されてユーザ(AR画像観察ユーザ)に認識されにくくなる。
  [4.本開示の画像処理装置の構成例について]
 次に、本開示の画像処理装置の構成例について説明する。
 図5は、本開示の画像処理装置100の一構成例について説明する図である。
 画像処理装置100は、例えば先に図1、図2を参照して説明した各装置である。すなわち、画像処理装置100は、図1に示す光透過型AR画像表示デバイス(HMD)10や、図2に示すカメラ撮影画像表示型AR画像表示デバイス(HMD)31、スマホアフ、タブレット他端末33、PC34等によって構成される。
 図5に示すように、画像処理装置100は、センサ(カメラ等)101、実オブジェクト検出部102、自己位置推定部103、AR画像表示制御部110、ARコンテンツデータベース121、追加仮想オブジェクトデータベース122、表示部130を有する。
 なお、AR画像表示制御部110は、ARコンテンツ表示制御部111、追加仮想オブジェクト表示制御部112を有する。
 センサ(カメラ等)101は、人などの実オブジェクトが存在する実世界の画像を撮影するカメラや、カメラから実オブジェクトまでの距離値を取得する距離センサ(デプスセンサ)によって構成される。
 センサ(カメラ等)101の取得情報(カメラ撮影画像、距離画像等)は、実オブジェクト検出部102、自己位置推定部103に入力される。
 なお、画像処理装置100が、図1に示すような光透過型(シースルー型)AR画像表示デバイス10である場合は、センサ(カメラ等)101の取得情報は、例えば、実オブジェクト検出部102における実オブジェクト検出処理や、自己位置推定部103における自己位置推定に適用するための輝度画像と距離画像である。
 距離画像は、例えばセンサ(カメラ等)101からの距離に応じた濃淡画素値情報を記録した画像である。
 また、画像処理装置100が、図2に示すようなカメラ撮影型AR画像表示デバイス31やスマホ32等、カメラ撮影画像を表示部に表示する構成の場合は、センサ(カメラ等)101の取得情報は、例えば、表示部に表示するためのカメラ撮影RGB画像と距離画像となる。実オブジェクト検出部102における実オブジェクト検出処理や、自己位置推定部103における自己位置推定は、カメラ撮影RGB画像と距離画像を適用して処理を実行する。
 実オブジェクト検出部102は、センサ(カメラ等)101の取得情報(輝度画像、距離画像等)を解析して、センサ(カメラ)の撮影画像内の実オブジェクトの種類(人、植物等)と、実オブジェクト各々の位置を解析する。なお、解析する実オブジェクトの位置には、画像平面内の位置と奥行き方向の位置であるセンサ(カメラ等)101からの距離が含まれる。
 実オブジェクト検出部102が検出した実オブジェクトの種類と位置情報は、AR画像表示制御部110のARコンテンツ表示制御部111と、仮想オブジェクト追加表示制御部112に出力される。
 自己位置推定部103は、センサ(カメラ等)101の取得情報(輝度画像、距離画像等)を入力して、自己位置、具体的には、画像処理装置のカメラ位置を推定する。
 例えば、カメラ撮影画像を利用したSRAM(simultaneous localization and mapping)処理等の既存技術を適用して自己位置を推定する。
 なお、SLAMは、カメラ位置同定(ローカリゼーション)と環境地図作成(mapping)を並行して実行する処理である。
 自己位置推定部103の解析結果である画像処理装置100のカメラ位置情報は、AR画像表示制御部110のARコンテンツ表示制御部111と、仮想オブジェクト追加表示制御部112に出力される。
 AR画像表示制御部110のARコンテンツ表示制御部111は、表示部130に対するARコンテンツの表示制御を実行する。
 ARコンテンツ表示制御部111は、センサ(カメラ等)101によって撮影される実オブジェクトによって構成される実画像に併せて、ARコンテンツデータベース121から取得した仮想オブジェクトを表示する。
 すなわち、先に図3を参照して説明したようなARコンテンツの表示処理を行なう。
 なお、ARコンテンツ表示制御部111は、仮想オブジェクト表示処理に際して、仮想オブジェクトの表示位置と実オブジェクトの位置を比較し、仮想オブジェクトと重なる領域に実オブジェクトが存在し、その実オブジェクトが仮想オブジェクトより手前(カメラ側、またはAR画像観察ユーザ側)に位置する場合は、その重なり領域の仮想オブジェクトは非表示とする仮想オブジェクト表示制御を実行する。
 AR画像表示制御部110の追加仮想オブジェクト表示制御部112は、先に図4を参照して説明した追加仮想オブジェクトの表示処理を実行する。
 すなわち、コンテンツ対応仮想オブジェクトより手前(カメラ側、またはAR画像観察ユーザ側)にある実オブジェクトと、コンテンツ対応仮想オブジェクトとの境界部分にあるちらつき発生領域の少なくとも一部領域を隠すように、実オブジェクトの手前に新たな追加仮想オブジェクトを表示する制御を行う。
 なお、追加仮想オブジェクト表示制御部112は、実オブジェクト検出部102が検出した実オブジェクトの位置と、自己位置推定部103が推定した自己位置を解析して、追加仮想オブジェクトの出力位置を決定する。
 追加仮想オブジェクト表示制御部112は、追加仮想オブジェクトデータベース122から、追加表示する仮想オブジェクトを選択して表示する。
 加仮想オブジェクトデータベース122は、様々な種類の追加仮想オブジェクトを格納したデータベースである。
 表示する追加仮想オブジェクトの種類は、例えばAR画像コンテンツの表示制御を行うAR画像表示アプリケーションによって選択される。
 具体的には、例えばAR画像中に表示されている実オブジェクトと同じ種類の仮想オブジェクトを選択して表示する。
 先に説明した図4に示す例では、AR画像中の実オブジェクト61,62は人であるので、追加表示する追加仮想オブジェクト81,82も人の仮想オブジェクトとするといった選択処理を行なう。
 なお、前述したように、追加表示する追加仮想オブジェクトの種類は、表示されている実オブジェクトと同一の種類に限らず、その他、表示中のAR画像の環境に応じた不自然でない種類のオブジェクトであればよい。
 例えば図4に示すようにAR画像の表示環境が「公園」や「散歩道」である場合、「公園」や「散歩道」に存在しても不自然とならない仮想オブジェクト、例えば、人、犬、猫等の種類の仮想オブジェクトを選択して表示する。
 なお、先に図4を参照して説明したように、実オブジェクトが人のように移動するオブジェクトである場合、実オブジェクトと仮想オブジェクトとの境界領域も移動してしまう。このような場合には、追加仮想オブジェクト表示制御部112は、この境界領域の移動に併せて追加仮想オブジェクトも移動させるように表示する。この処理を行なうことで移動する境界領域のちらつき部分を効果的に隠すことが可能となる。
 表示部130は、実オブジェクトと仮想オブジェクトによって構成されるAR画像を表示する。
 なお、画像処理装置100が図1に示す光透過型(シースルー型)AR画像表示デバイス10である場合は、ユーザの観察する実オブジェクト画像は、光透過型(シースルー型)AR画像表示デバイス10を透過してユーザが直接観察するオブジェクトである。
 一方、画像処理装置100が図2に示すカメラ撮影画像表示型AR画像表示デバイス31、スマホ(スマートフォン)32、タブレット端末33、PC34等である場合は、ユーザの観察する実オブジェクト画像は、センサ(カメラ)101によって撮影された画像である。図5に示す点線は、カメラ撮影画像の入出力ラインを示す点線である。
 表示部130には、実オブジェクトに併せて仮想オブジェクトが表示される。
 表示部に表示される仮想オブジェクトは、ARコンテンンツ表示制御部111が、ARコンテンツデータベース121から取得したARコンテンツ対応仮想オブジェクトと、追加仮想オブジェクト表示制御部112の制御によって追加表示される追加仮想オブジェクトである。
 ARコンテンツ対応仮想オブジェクトは、例えば、図3、図4に示す仮想オブジェクト51に対応する。すなわち、ARコンテンツとして当初から出力予定の仮想オブジェクトである。
 一方、追加仮想オブジェクトは、ARコンンテンツ対応仮想オブジェクトと、その前方の実オブジェクトとの境界領域の少なくとも一部を含む領域を隠すように実オブジェクトより前の位置(カメラ側、またはAR画像観察ユーザ側)に表示する仮想オブジェクトである。
 例えば、図4に示す追加仮想オブジェクト81,82である。
 これらの表示処理によって表示される表示画像は、先に説明した図4に示すような画像となる。
 すなわち、仮想オブジェクトより手前にある実オブジェクトと仮想オブジェクトとの境界部分の少なくとも一部領域を隠すように、実オブジェクトの手前に新たな追加仮想オブジェクトが表示されたAR画像が表示される。
 この追加仮想オブジェクトの表示処理により、実オブジェクトと仮想オブジェクトとの境界部分のちらつきが覆い隠されてユーザ(AR画像観察者)に認識されにくくなる。
  [5.本開示の画像処理装置の実行する処理シーケンスについて]
 次に、本開示の画像処理装置の実行する処理シーケンスについて説明する。
 図6は、本開示の画像処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。
 なお、図6に示すフローチャートに従った処理は、図5に示す構成を有する画像処理装置100が実行する処理である。画像処理装置100は、プログラム実行機能を持つCPUを備え、記憶部に格納されたプログラム、例えばAR画像表示アプリケーションを用いてフローに従った処理を実行する。
 なお、図6のフローは、センサ101を構成するカメラの撮影する画像フレーム単位、または複数画像フレーム単位の処理として、繰り返し実行する処理を示している。すなわち表示部130に対するAR画像の表示処理を継続中、図6のフローに示す処理が繰り返し実行される。
 以下、図6に示すフローの各ステップの処理について説明する。
  (ステップS101)
 まず、画像処理装置100は、ステップS101において、カメラ撮影画像、距離画像を入力する。
 この処理は、図5に示す画像処理装置100のセンサ(カメラ等)101の取得情報の入力処理である。
 図5を参照して説明したように、センサ(カメラ等)101は、人などの実オブジェクトが存在する実世界の画像(輝度画像、またはカラー画像)を撮影するカメラや、カメラから実オブジェクトまでの距離値を濃淡画素値として設定した距離画像を取得する距離センサ(デプスセンサ)によって構成される。
 センサ(カメラ等)101の取得情報(カメラ撮影画像、距離画像等)は、実オブジェクト検出部102、自己位置推定部103に入力される。
  (ステップS102)
 次に、画像処理装置100は、ステップS102において、自装置(ARデバイス)位置を算出する。
 この処理は、図5に示す画像処理装置100の自己位置推定部103の実行する処理である。
 自己位置推定部103は、センサ(カメラ等)101の取得情報(カメラ撮影画像、距離画像等)を入力して、自己位置、具体的には、画像処理装置100のカメラ位置(センサ(カメラ等)101の位置)を推定する。
 例えば、カメラ撮影画像を利用したSRAM(simultaneous localization and mapping)処理等の既存技術を適用して自己位置を推定する。
  (ステップS103~S104)
 ステップS103~S104の処理は、ステップS102の処理と並列に実行される。画像処理装置100は、ステップS103~S104において実オブジェクトの検出処理と距離算出処理を実行する。
 この処理は、図5に示す画像処理装置100の実オブジェクト検出部102が実行する処理である。
 実オブジェクト検出部102は、センサ(カメラ等)101の取得情報(カメラ撮影画像、距離画像等)を解析して、センサ(カメラ)の撮影画像内の実オブジェクトの種類(人、植物等)と、実オブジェクト各々の位置を解析する。なお、解析する実オブジェクトの位置は、画像平面内の位置と奥行き方向の位置であるセンサ(カメラ等)101からの距離を含む。
 次のステップS111~S112の処理と、ステップS113~S116の処理も並列に実行する処理である。
 ステップS111~S112の処理は、図5に示す画像処理装置100のARコンテンツ表示制御部111が実行する処理である。
 ステップS113~S116の処理は、図5に示す画像処理装置100の追加仮想オブジェクト表示制御部112が実行する処理である。
  (ステップS111)
 まず、図5に示す画像処理装置100のARコンテンツ表示制御部111が実行するステップS111~S112の処理について説明する。
 図5に示す画像処理装置100のARコンテンツ表示制御部111は、ステップS111において、ARコンテンツ対応仮想オブジェクトの出力態様(出力位置、距離等)を決定する。
 なお、ここでARコンテンツ対応仮想オブジェクトとは、例えば、図3、図4に示す仮想オブジェクト51に対応する。すなわち、ARコンテンツに当初から出力予定仮想オブジェクトとして登録された仮想オブジェクトである。図4に示す追加仮想オブジェクト81,82等の追加仮想オブジェクトではない。
 先に図5を参照して説明したように、ARコンテンツ表示制御部111は、センサ(カメラ等)101によって撮影される実オブジェクトによって構成される実画像に併せて、ARコンテンツデータベース121から取得した仮想オブジェクトを表示する。
 すなわち、先に図3を参照して説明したようなARコンテンツの表示処理を行なう。
 なお、ARコンテンツ表示制御部111は、仮想オブジェクト表示処理に際して、仮想オブジェクトの表示位置と実オブジェクトの位置を比較し、仮想オブジェクトと重なる領域に実オブジェクトが存在し、その実オブジェクトが仮想オブジェクトより手前(カメラ側、またはAR画像観察ユーザ側)に位置する場合は、その重なり領域の仮想オブジェクトは非表示とする仮想オブジェクト表示態様を決定する。
  (ステップS112)
 次に、画像処理装置100のARコンテンツ表示制御部111は、ステップS112において、ステップS111で決定した仮想オブジェクトの表示態様に従って、仮想オブジェクトを表示部130に出力する。
  (ステップS113)
 次に、図5に示す画像処理装置100の追加仮想オブジェクト表示制御部112が実行するステップS113~S116の処理について説明する。
 図5に示す画像処理装置100の追加仮想オブジェクト表示制御部112は、まず、ステップS113において、ARコンテンツ対応仮想オブジェクト表示位置の前方に実オブジェクトが存在するか否かを判定する。
 ARコンテンツ対応仮想オブジェクトの表示位置とは、ARコンテンツ表示制御部111がステップS111において決定した位置、すなわちカメラからの距離を含む位置である。
 また、実オブジェクトの位置とは、ステップS103において、実オブジェクト検出部102が、センサ(カメラ等)101の取得情報(カメラ撮影画像、距離画像等)を解析して取得した実オブジェクトの位置情報であり、画像平面内の位置と奥行き方向の位置であるカメラからの距離を含む情報である。
 図5に示す画像処理装置100の追加仮想オブジェクト表示制御部112は、これらの情報に基づいて、ステップS113において、ARコンテンツ対応仮想オブジェクト表示位置の前方に実オブジェクトが存在するか否かを判定する。
 ステップS113において、ARコンテンツ対応仮想オブジェクト表示位置の前方(カメラ側、またはAR画像観察ユーザ側)に実オブジェクトが存在すると判定した場合は、ステップS114に進む。
 一方、ステップS113において、ARコンテンツ対応仮想オブジェクト表示位置の前方に実オブジェクトが存在しないと判定した場合は、ステップS101に戻り、次の処理フレームの処理に移行する。
  (ステップS114)
 ステップS113において、ARコンテンツ対応仮想オブジェクト表示位置の前方に実オブジェクトが存在すると判定した場合は、ステップS114に進む。
 図5に示す画像処理装置100の追加仮想オブジェクト表示制御部112は、ステップS114において、追加仮想オブジェクトを出力するか否かを判定する。
 なお、この出力判定処理は、予め規定された出力判定規則に従って実行する。具体的には、例えば、以下のような規則に従って判定する。
 (規則例1)追加仮想オブジェクトの出力がなされていない場合は出力し、既に追加仮想オブジェクトを出力済みである場合には出力しない。
 (規則例2)規定時間以内(例えば1分以内)に追加仮想オブジェクトが出力されていない場合は出力し、規定時間以内(例えば1分以内)に追加仮想オブジェクトを出力済みである場合には出力しない。
 (規則例3)規定時間以内(例えば1時間以内)に、今回出力予定の追加仮想オブジェクトと同じ追加仮想オブジェクトが出力されていない場合は出力し、規定時間以内(例えば1時間以内)に今回出力予定の追加仮想オブジェクトと同じ追加仮想オブジェクトを出力済みである場合には出力しない。
 追加仮想オブジェクト表示制御部112は、ステップS114において、例えば上記の規則例1~3のいずれかの規則に従って、追加仮想オブジェクトを出力するか否かを判定する。
 ステップS114において、追加仮想オブジェクトを出力すると判定した場合は、ステップS115に進む。
 一方、ステップS114において、追加仮想オブジェクトを出力しないと判定し場合は、ステップS101に戻り、次の処理フレームの処理に移行する。
  (ステップS115)
 ステップS114において、追加仮想オブジェクトを出力すると判定した場合は、ステップS115に進む。
 図5に示す画像処理装置100の追加仮想オブジェクト表示制御部112は、ステップS115において、追加仮想オブジェクトデータベース122から追加仮想オブジェクトを選択する。
 なお、先に図5を参照して説明したように、追加仮想オブジェクト表示制御部112は、表示部130に表示中のAR画像の環境に応じた不自然でない種類のオブジェクトを追加仮想オブジェクトとして選択する。
 例えば図4に示すようにAR画像の表示環境が「公園」や「散歩道」である場合、「公園」や「散歩道」に存在しても不自然とならない仮想オブジェクト、例えば、人、犬、猫等の種類の仮想オブジェクトを選択する。
  (ステップS116)
 次に、追加仮想オブジェクト表示制御部112は、ステップS116において、ステップS115で選択した追加仮想オブジェクトを、ARコンンテンツ対応仮想オブジェクトと、その前方の実オブジェクトとの境界領域の少なくとも一部を含む領域に出力する。
 なお、先に説明したように、実オブジェクトが人のように移動するオブジェクトである場合、実オブジェクトと仮想オブジェクトとの境界領域も移動してしまう。このような場合には、追加仮想オブジェクト表示制御部112は、この境界領域の移動に併せて追加仮想オブジェクトも移動させるように表示する。この処理を行なうことで移動する境界領域のちらつき部分を効果的に隠すことが可能となる。
 これらの処理の結果、表示部130には、実オブジェクトと仮想オブジェクトによって構成されるAR画像が表示される。
 表示部130に表示される実オブジェクトは、ユーザが直接観察する実オブジェクト、またはカメラ撮影画像によって構成される実オブジェクトのいずれかである。
 また、表示部130に表示される仮想オブジェクトは、ARコンテンンツ表示制御部111によって表示される通常のARコンテンツ対応仮想オブジェクト、および、追加仮想オブジェクト表示制御部112の制御によって追加表示される仮想オブジェクトである。
 これらの表示処理によって表示される表示画像は、先に説明した図4に示すような画像となる。
 すなわち、仮想オブジェクトより手前にある実オブジェクトと仮想オブジェクトとの境界部分の少なくとも一部領域を隠すように、実オブジェクトの手前に新たな追加仮想オブジェクトが表示されたAR画像が表示される。
 この追加仮想オブジェクトの表示処理により、実オブジェクトと仮想オブジェクトとの境界部分のちらつきが覆い隠されてユーザ(AR画像観察ユーザ)に認識されにくくなる。
  [6.追加仮想オブジェクトの出力処理対象とする実オブジェクトを動きのある実オブジェクトに限定した処理を行なう実施例について]
 次に、追加仮想オブジェクトの出力処理対象とする実オブジェクトを動きのある実オブジェクトに限定した処理を行なう実施例について説明する。
 仮想オブジェクトより前にある実オブジェクトが動かない物体である場合には、実オブジェクトと仮想オブジェクトとの境界は固定されるため、比較的ちらつきの発生が少ない。
 しかし、仮想オブジェクトより前にある実オブジェクトが歩行者のように動く物体である場合、実オブジェクトと仮想オブジェクトとの境界も移動するため、境界部分のちらつきが多く発生する。
 以下の実施例は、動きのある実オブジェクトを検出して、追加仮想オブジェクトの出力対象を動きのある実オブジェクトに限定した処理を行なう実施例である。
 本実施例の画像処理装置200の構成を図7に示す。
 図7は、本実施例の画像処理装置200の構成例について説明する図である。
 画像処理装置200は、例えば先に図1、図2を参照して説明した各装置である。すなわち、画像処理装置100bは、図1に示す光透過型AR画像表示デバイス(HMD)10や、図2に示すカメラ撮影画像表示型AR画像表示デバイス(HMD)31、スマホアフ、タブレット他端末33、PC34等によって構成される。
 図7に示すように、画像処理装置200は、センサ(カメラ等)101、実オブジェクト検出部102、自己位置推定部103、AR画像表示制御部110、ARコンテンツデータベース121、追加仮想オブジェクトデータベース122、表示部130を有し、さらに動きあり実オブジェクト選択部201を有する。
 なお、AR画像表示制御部110は、ARコンテンツ表示制御部111、追加仮想オブジェクト表示制御部112を有する。
 この図7に示す画像処理装置200の構成と、先に図5を参照して説明した画像処理装置100の構成との差異は、図5に示す画像処理装置100に、動きあり実オブジェクト選択部201を追加した点である。
 これ以外の構成は図5に示す画像処理装置100の構成と同様の構成である。
 動きあり実オブジェクト選択部201は、実オブジェクト検出部102が検出した実オブジェクトから動きのある実オブジェクトのみを選択する処理を実行する。
 具体的な処理としては、例えば複数の連続撮影画像フレームを比較して、動きのある実オブジェクトのみを選択する。具体的には、人や自動車、犬、猫などの動く実オブジェクトを選択する。
 さらに選択した動きあり実オブジェクトの種類(人、自動車、犬、猫など)と、動きあり実オブジェクト各々の位置を実オブジェクト検出部102から入力してAR画像表示制御部110の仮想オブジェクト追加表示制御部112に出力する。
 なお、動きあり実オブジェクトの位置は、画像平面内の位置と奥行き方向の位置であるカメラからの距離を含む。
 AR画像表示制御部110の仮想オブジェクト追加表示制御部112は、動きあり実オブジェクト選択部201の選択した動きのある実オブジェクトのみを処理対象とした追加仮想オブジェクトの表示制御を行う。
 コンテンツ対応仮想オブジェクトより前にある動く実オブジェクトと、コンテンツ対応仮想オブジェクトとの境界部分にあるちらつき発生領域の少なくとも一部領域を隠すように、動く実オブジェクトの手前に新たな追加仮想オブジェクトを表示する制御を行う。
 追加仮想オブジェクト表示制御部112は、追加仮想オブジェクトデータベース122から、追加表示する仮想オブジェクトを選択して表示する。
 表示する追加仮想オブジェクトの種類は、例えばAR画像コンテンツの表示制御を行うAR画像表示アプリケーションによって選択される。
 具体的には、例えばAR画像中に表示されている動く実オブジェクトと同じ種類の仮想オブジェクトを選択して表示する。
 なお、前述したように、追加表示する追加仮想オブジェクトの種類は、表示されている実オブジェクトと同一の種類に限らず、その他、表示中のAR画像の環境に応じた不自然でない種類のオブジェクトであればよい。
 このように、本実施例の画像処理装置200は、コンテンツ対応仮想オブジェクトの前方にある動く実オブジェクトの境界領域のみを処理対象として選択して、追加仮想オブジェクトを出力する。
 本実施例の画像処理装置200は、ちらつきの発生レベルが低い静止実オブジェクトの境界領域には、追加仮想オブジェクトを出力しないため、たくさんの追加仮想オブジェクトが表示されてしまうといった事態を防止することが可能となる。
  [7.追加仮想オブジェクトの出力処理対象とする実オブジェクトを動きのある実オブジェクトに限定した処理を行なう画像処理装置の実行する処理シーケンスについて]
 次に、図7を参照して説明した画像処理装置200、すなわち、追加仮想オブジェクトの出力処理対象とする実オブジェクトを動きのある実オブジェクトに限定した処理を行なう画像処理装置200の実行する処理シーケンスについて説明する。
 図8は、図7を参照して説明した画像処理装置200の実行する処理シーケンスについて説明するフローチャートを示す図である。
 なお、図8に示すフローチャートに従った処理は、プログラム実行機能を持つCPUの制御により記憶部に格納されたプログラム、例えばAR画像表示アプリケーションに従って実行される。
 なお、図8のフローに示す処理は、センサ101を構成するカメラの撮影する画像フレーム単位、または複数画像フレーム単位の処理として、繰り返し実行する処理である。すなわち表示部130に対するAR画像の表示処理を継続中、図8のフローに従った処理を繰り返し実行する。
 図8に示すフローのステップS101~S104の処理と、ステップS111~S112の処理は、先に図6を参照して説明したフローのステップS101~S104の処理と、ステップS111~S112の処理と同様の処理である。
 以下では、これらの処理については簡単に説明し、本実施例固有の処理となるステップS105、ステップS113b~S116bの処理について詳細に説明する。
  (ステップS101)
 まず、画像処理装置100は、ステップS101において、カメラ撮影画像、距離画像を入力する。
 この処理は、図7に示す画像処理装置200のセンサ(カメラ等)101からの取得情報入力処理である。
 センサ(カメラ等)101の取得情報(カメラ撮影画像、距離画像等)は、実オブジェクト検出部102、自己位置推定部103に入力される。
  (ステップS102)
 次に、画像処理装置100は、ステップS102において、自装置(ARデバイス)位置を算出する。
 この処理は、図7に示す画像処理装置200の自己位置推定部103の実行する処理である。例えば、カメラ撮影画像を利用したSRAM処理等の既存技術を適用して自己位置を推定する。
  (ステップS103~S104)
 ステップS103~S104の処理は、ステップS102の処理と並列に実行される。画像処理装置200は、ステップS103~S104において実オブジェクトの検出処理と距離算出処理を実行する。
 この処理は、図7に示す画像処理装置200の実オブジェクト検出部102が実行する処理である。
 実オブジェクト検出部102は、センサ(カメラ等)101の取得情報(カメラ撮影画像、距離画像等)を解析して、センサ(カメラ)の撮影画像内の実オブジェクトの種類(人、植物等)と、実オブジェクト各々の位置を解析する。なお、解析する実オブジェクトの位置は、画像平面内の位置と奥行き方向の位置であるセンサ(カメラ等)101からの距離を含む。
 次のステップS111~S112の処理と、ステップS105~S116bの処理も並列に実行される。
 ステップS111~S112の処理は、図7に示す画像処理装置200のARコンテンツ表示制御部111が実行する処理である。
 ステップS105~S116bの処理は、図7に示す画像処理装置200の動きあり実オブジェクト選択部201と、追加仮想オブジェクト表示制御部112が実行する処理である。
  (ステップS111)
 まず、図7に示す画像処理装置200のARコンテンツ表示制御部111が実行するステップS111~S112の処理について説明する。
 図7に示す画像処理装置100のARコンテンツ表示制御部111は、ステップS111において、ARコンテンツ対応仮想オブジェクトの出力態様(出力位置、距離等)を決定する。ARコンテンツ対応仮想オブジェクトとは、例えば、図3、図4に示す仮想オブジェクト51に対応する。すなわち、ARコンテンツに当初から出力予定仮想オブジェクトとして登録された仮想オブジェクトである。追加仮想オブジェクトではない。
 ARコンテンツ表示制御部111は、センサ(カメラ等)101によって撮影される実オブジェクトによって構成される実画像に併せて、ARコンテンツデータベース121から取得した仮想オブジェクトを表示する。
 すなわち、先に図3を参照して説明したようなARコンテンツの表示処理を行なう。
 なお、ARコンテンツ表示制御部111は、仮想オブジェクト表示処理に際して、仮想オブジェクトの表示位置と実オブジェクトの位置を比較し、仮想オブジェクトと重なる領域に実オブジェクトが存在し、その実オブジェクトが仮想オブジェクトより手前(カメラ側、またはAR画像観察ユーザ側)に位置する場合は、その重なり領域の仮想オブジェクトは非表示とする仮想オブジェクト表示態様を決定する。
  (ステップS112)
 次に、画像処理装置200のARコンテンツ表示制御部111は、ステップS112において、ステップS111で決定した仮想オブジェクトの表示態様に従って、仮想オブジェクトを表示部130に出力する。
  (ステップS105)
 次に、図7に示す画像処理装置200の動きあり実オブジェクト選択部201と、追加仮想オブジェクト表示制御部112が実行するステップS105~S116bの処理について説明する。
 図7に示す画像処理装置200の動きあり実オブジェクト選択部201は、ステップS105において以下の処理を実行する。
 実オブジェクト選択部201は、ステップS105において、ステップS103~S104で実オブジェクト検出部102が検出した実オブジェクトから動きのある実オブジェクトのみを選択する処理を実行する。
 具体的な処理としては、前述したように、例えば複数の連続撮影画像フレームを比較して、動きのある実オブジェクトのみを選択する。具体的には、人や自動車、犬、猫などの動く実オブジェクトを選択する。
 実オブジェクト選択部201は、選択した動きあり実オブジェクトの種類(人、自動車、犬、猫など)と、動きあり実オブジェクト各々の位置を実オブジェクト検出部102から入力してAR画像表示制御部110の仮想オブジェクト追加表示制御部112に出力する。
  (ステップS113b)
 次に、図7に示す画像処理装置200の追加仮想オブジェクト表示制御部112が実行するステップS113b~S116bの処理について説明する。
 図7に示す画像処理装置200の追加仮想オブジェクト表示制御部112は、まず、ステップS113bにおいて、ARコンテンツ対応仮想オブジェクト表示位置の前方に動きあり実オブジェクトが存在するか否かを判定する。
 ARコンテンツ対応仮想オブジェクトの表示位置とは、ARコンテンツ表示制御部111がステップS111において決定した位置、すなわちカメラからの距離を含む位置である。
 また、動きあり実オブジェクトの位置とは、ステップS103~S105において、実オブジェクト検出部102と動きあり実オブジェクト選択部201が、センサ(カメラ等)101の取得情報(画像、距離データ等)を解析して取得した動きあり実オブジェクトの位置情報であり、画像平面内の位置と奥行き方向の位置であるカメラからの距離を含む情報である。
 図7に示す画像処理装置200の追加仮想オブジェクト表示制御部112は、これらの情報に基づいて、ステップS113において、ARコンテンツ対応仮想オブジェクト表示位置の前方に人等の動きあり実オブジェクトが存在するか否かを判定する。
 ステップS113において、ARコンテンツ対応仮想オブジェクト表示位置の前方に動きあり実オブジェクトが存在すると判定した場合は、ステップS114に進む。
 一方、ステップS113において、ARコンテンツ対応仮想オブジェクト表示位置の前方に動きあり実オブジェクトが存在しないと判定した場合は、ステップS101に戻り、次の処理フレームの処理に移行する。
  (ステップS114)
 ステップS113bにおいて、ARコンテンツ対応仮想オブジェクト表示位置の前方に動きあり実オブジェクトが存在すると判定した場合は、ステップS114に進む。
 図7に示す画像処理装置200の追加仮想オブジェクト表示制御部112は、ステップS114において、追加仮想オブジェクトを出力するか否かを判定する。
 なお、この出力判定処理は、予め規定された出力判定規則に従って実行する。具体的には、先に図6のフローのステップS114において説明した規則に従って判定する。
 ステップS114において、追加仮想オブジェクトを出力すると判定した場合は、ステップS115に進む。
 一方、ステップS114において、追加仮想オブジェクトを出力しないと判定し場合は、ステップS101に戻り、次の処理フレームの処理に移行する。
  (ステップS115)
 ステップS114において、追加仮想オブジェクトを出力すると判定した場合は、ステップS115に進む。
 図7に示す画像処理装置200の追加仮想オブジェクト表示制御部112は、ステップS115において、追加仮想オブジェクトデータベース122から追加仮想オブジェクトを選択する。
 なお、追加仮想オブジェクト表示制御部112は、表示部130に表示中のAR画像の環境に応じた不自然でない種類のオブジェクトを追加仮想オブジェクトとして選択する。
 例えば図4に示すようにAR画像の表示環境が「公園」や「散歩道」である場合、「公園」や「散歩道」に存在しても不自然とならない仮想オブジェクト、例えば、人、犬、猫等の種類の仮想オブジェクトを選択する。
  (ステップS116b)
 次に、追加仮想オブジェクト表示制御部112は、ステップS116bにおいて、ステップS115で選択した追加仮想オブジェクトを、ARコンンテンツ対応仮想オブジェクトと、その前方の動きあり実オブジェクトとの境界領域の少なくとも一部を含む領域に出力する。
 なお、動きあり実オブジェクトは移動するオブジェクトであるので、動きあり実オブジェクトと仮想オブジェクトとの境界領域も移動する。追加仮想オブジェクト表示制御部112は、この境界領域の移動に併せて追加仮想オブジェクトも移動させるように表示する。この処理を行なうことで移動する境界領域のちらつき部分を効果的に隠すことが可能となる。
 これらの処理の結果、表示部130には、実オブジェクトと仮想オブジェクトによって構成されるAR画像が表示される。
 表示部130に表示される実オブジェクトは、ユーザが直接観察する実オブジェクト、またはカメラ撮影画像によって構成される実オブジェクトのいずれかである。
 また、表示部130に表示される仮想オブジェクトは、ARコンテンンツ表示制御部111によって表示される通常のARコンテンツ対応仮想オブジェクト、および、追加仮想オブジェクト表示制御部112の制御によって追加表示される仮想オブジェクトである。
 これらの表示処理によって表示される表示画像は、先に説明した図4に示すような画像となる。
 すなわち、仮想オブジェクトより手前にある人のような動きあり実オブジェクトと仮想オブジェクトとの境界部分の少なくとも一部領域を隠すように、動きあり実オブジェクトの手前に新たな追加仮想オブジェクトが表示されたAR画像が表示される。
 この追加仮想オブジェクトの表示処理により、動きあり実オブジェクトと仮想オブジェクトとの境界部分のちらつきが覆い隠されてユーザ(AR画像観察者)に認識されにくくなる。
  [8.本開示の画像処理装置のその他の構成および処理について]
 次に上述した本開示の画像処理装置のその他の構成および処理について説明する。
 上述した実施例において、追加仮想オブジェクト表示制御部112の制御によって追加表示する追加仮想オブジェクトの種類は、実オブジェクトに一致するオブジェクトや、表示中のAR画像の環境に応じた不自然でない種類のオブジェクトとすると説明した。
 表示中のAR画像の環境に応じた不自然でない種類のオブジェクトの具体例について説明する。
 以下、(a)表示中のAR画像の環境の例と、この環境に対応する(b)追加仮想オブジェクトの複数の組み合わせ例について、説明する。
 (1a)表示中のAR画像の環境=屋外
 (1b)追加仮想オブジェクトの例=自動車、鳥、ドローン、落葉、風船、花火、炎、パラシュート、シャボン玉、タンポポ、雨、雪、霧等、
 (2a)表示中のAR画像の環境=テーマパーク
 (2b)追加仮想オブジェクトの例=着ぐるみ、キャラクタ、ゴースト、岩、マンホールから落ちる水、落ちる文字等、
 (3a)表示中のAR画像の環境=牧場
 (3b)追加仮想オブジェクトの例=牛、馬、羊、やぎ、犬等、
 (4a)表示中のAR画像の環境=水族館
 (4b)追加仮想オブジェクトの例=魚、さめ、イルカ、くじら、ペンギン等、
 (5a)表示中のAR画像の環境=屋内
 (5b)追加仮想オブジェクトの例=机、いす、ドア、自動販売機等、
 (6a)表示中のAR画像の環境=人のいる環境
 (6b)追加仮想オブジェクトの例=人に装着する兜、防止、ヘルメット、衣服等、
 (7a)表示中のAR画像の環境=すべて
 (7b)追加仮想オブジェクトの例=カメラのフラッシュ、落雷、停電を示す暗闇等、
 例えば、上記のような、(a)表示中のAR画像の環境の例と、この環境に対応する(b)追加仮想オブジェクトの組み合わせが表示中のAR画像の環境に応じた不自然でない種類のオブジェクトの例である。
 また、上述した実施例では、追加仮想オブジェクト表示制御部112は、追加仮想オブジェクトデータベース122に格納された仮想オブジェクトを選択取得して表示部130に出力する処理を行なうとして説明した。
 このような予め準備された仮想オブジェクトを取得して表示する処理以外に、例えば以下のような処理を行なう構成としてもよい。
 追加仮想オブジェクト表示制御部112は、表示中のAR画像から検出された実オブジェクトの画像を取得(キャプチャ)し、この取得画像に基づいて、仮想オブジェクト画像を生成して、生成した仮想オブジェクトを追加仮想オブジェクトとして表示部130に出力する構成としてもよい。
 すなわち、追加仮想オブジェクト表示制御部112が、実オブジェクトに基づく仮想オブジェクトを生成し、生成した仮想オブジェクトを、追加仮想オブジェクトとして表示部に出力する構成としてもよい。
 あるいは、追加仮想オブジェクト表示制御部112が、実オブジェクトに基づく仮想オブジェクトから構成されるアニメーション画像を生成し、生成したアニメーション画像を追加仮想オブジェクトとして表示部に出力する構成としてもよい。
 これらの処理を行う場合には、図5、図7に示す追加仮想オブジェクトデータベース122は不要となる。
  [9.画像処理装置のハードウェア構成例について]
 次に、上述した実施例に従った処理を実行する画像処理装置のハードウェア構成例について、図9を参照して説明する。
 図9に示すハードウェアは、図5や図7を参照して説明した本開示の画像処理装置のハードウェア構成の一例である。
 図9に示すハードウェア構成について説明する。
 CPU(Central Processing Unit)301は、ROM(Read Only Memory)302、または記憶部308に記憶されているプログラムに従って各種の処理を実行するデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)303には、CPU301が実行するプログラムやデータなどが記憶される。これらのCPU301、ROM302、およびRAM303は、バス304により相互に接続されている。
 CPU301はバス304を介して入出力インタフェース305に接続され、入出力インタフェース305には、各種センサ、カメラ、スイッチ、キーボード、マウス、マイクロホンなどよりなる入力部306、ディスプレイ、スピーカなどよりなる出力部307が接続されている。
 入出力インタフェース305に接続されている記憶部308は、例えばハードディスク等からなり、CPU301が実行するプログラムや各種のデータを記憶する。通信部309は、インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
 入出力インタフェース305に接続されているドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア311を駆動し、データの記録あるいは読み取りを実行する。
  [10.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) 実世界上の実オブジェクトの検出処理を実行する実オブジェクト検出部と、
 仮想オブジェクトが実オブジェクトと同じ空間に存在するように視認されるAR(Augumented Reality)画像を生成して表示部に出力するAR画像表示制御部を有し、
 前記AR画像表示制御部は、
 前記実オブジェクト検出部が検出した実オブジェクトの位置が、前記表示部に表示する仮想オブジェクトが配置される位置よりも奥行方向において手前にある場合、前記仮想オブジェクトと前記実オブジェクトの境界領域の少なくとも一部領域を隠すように、前記実オブジェクトの位置よりも奥行方向において手前に追加仮想オブジェクトを前記表示部に出力する画像処理装置。
 (2) 前記AR画像表示制御部は、
 前記表示部に表示中のAR画像の表示環境に対応する種類の追加仮想オブジェクトを、前記表示部に出力する(1)に記載の画像処理装置。
 (3) 前記AR画像表示制御部は、
 前記仮想オブジェクトの手前位置にある前記実オブジェクトの種類に対応する種類の追加仮想オブジェクトを、前記表示部に出力する(1)または(2)に記載の画像処理装置。
 (4) 前記AR画像表示制御部は、
 前記仮想オブジェクトの手前位置にある前記実オブジェクトと同一種類の追加仮想オブジェクトを、前記表示部に出力する(3)に記載の画像処理装置。
 (5) 前記AR画像表示制御部は、
 AR画像表示アプリケーションが選択する種類の追加仮想オブジェクトを、前記表示部に出力する(1)~(4)いずれかに記載の画像処理装置。
 (6) 前記AR画像表示制御部は、
 前記仮想オブジェクトの手前位置にある前記実オブジェクトが動きあり実オブジェクトである場合に、前記追加仮想オブジェクトを、前記表示部に出力する(1)~(5)いずれかに記載の画像処理装置。
 (7) 前記AR画像表示制御部は、
 前記仮想オブジェクトの手前位置にある前記実オブジェクトが動きあり実オブジェクトである場合、前記追加仮想オブジェクトを、前記仮想オブジェクトと前記実オブジェクトの境界領域の移動に併せて移動させて表示する(1)~(6)いずれかに記載の画像処理装置。
 (8) 前記画像処理装置は、さらに、
 自装置の位置を推定する自己位置推定部を有し、
 前記AR画像表示制御部は、
 前記実オブジェクト検出部が検出した実オブジェクトの位置と、
 前記自己位置推定部が推定した自己位置を解析して、
 前記追加仮想オブジェクトの出力位置を決定する(1)~(7)いずれかに記載の画像処理装置。
 (9) 前記画像処理装置は、さらに、
 様々な種類の追加仮想オブジェクトを格納した追加仮想オブジェクトデータベースを有し、
 前記AR画像表示制御部は、
 前記追加仮想オブジェクトデータベースから取得した追加仮想オブジェクトを前記表示部に出力する(1)~(8)いずれかに記載の画像処理装置。
 (10) 前記表示部は、透過型表示部であり、
 前記透過型表示部は、
 前記透過型表示部を介して、ユーザが直接観察可能な実オブジェクトと、
 前記AR画像表示制御部の制御によって出力される仮想オブジェクトを併せて観察可能な表示部である(1)~(9)いずれかに記載の画像処理装置。
 (11) 前記表示部は、非透過型表示部であり、
 前記非透過型表示部は、
 カメラ撮影画像によって構成される実オブジェクトと、
 前記AR画像表示制御部の制御によって出力される仮想オブジェクトを併せて表示する表示部である(1)~(9)いずれかに記載の画像処理装置。
 (12) 前記AR画像表示制御部は、
 ARコンテンツとして当初から出力予定のARコンテンツ対応仮想オブジェクトを、前記表示部に出力するARコンテンツ表示制御部と、
 前記ARコンテンツとして当初から出力予定のARコンテンツ対応仮想オブジェクトではない前記追加仮想オブジェクトを、前記表示部に出力する追加仮想オブジェクト表示制御部と、
 を有する(1)~(11)いずれかに記載の画像処理装置。
 (13) 前記AR画像表示制御部は、
 前記実オブジェクトに基づく仮想オブジェクトを生成し、
 生成した仮想オブジェクトを、前記追加仮想オブジェクトとして前記表示部に出力する(1)~(12)いずれかに記載の画像処理装置。
 (14) 前記AR画像表示制御部は、
 前記実オブジェクトに基づく仮想オブジェクトから構成されるアニメーション画像を生成し、生成したアニメーション画像を追加仮想オブジェクトとして前記表示部に出力する(1)~(13)いずれかに記載の画像処理装置。
 (15) 画像処理装置において実行する画像処理方法であり、
 実オブジェクト検出部が、実世界上の実オブジェクトの検出処理を実行する実オブジェクト検出ステップと、
 AR画像表示制御部が、仮想オブジェクトが実オブジェクトと同じ空間に存在するように視認されるAR(Augumented Reality)画像を生成して表示部に出力するAR画像表示制御ステップを有し、
 前記AR画像表示制御ステップは、
 前記実オブジェクト検出部が検出した実オブジェクトの位置が、前記表示部に表示する仮想オブジェクトが配置される位置よりも奥行方向において手前にある場合、前記仮想オブジェクトと前記実オブジェクトの境界領域の少なくとも一部領域を隠すように、前記実オブジェクトの位置よりも奥行方向において手前に追加仮想オブジェクトを前記表示部に出力するステップを含む画像処理方法。
 (16) 画像処理装置において画像処理を実行させるプログラムであり、
 実オブジェクト検出部に、実世界上の実オブジェクトの検出処理を実行させる実オブジェクト検出ステップと、
 AR画像表示制御部に、仮想オブジェクトが実オブジェクトと同じ空間に存在するように視認されるAR(Augumented Reality)画像を生成して表示部に出力させるAR画像表示制御ステップを実行させ、さらに、
 前記AR画像表示制御ステップにおいて、
 前記実オブジェクト検出部が検出した実オブジェクトの位置が、前記表示部に表示する仮想オブジェクトが配置される位置よりも奥行方向において手前にある場合、前記仮想オブジェクトと前記実オブジェクトの境界領域の少なくとも一部領域を隠すように、前記実オブジェクトの位置よりも奥行方向において手前に追加仮想オブジェクトを前記表示部に出力する処理を実行させるプログラム。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、仮想オブジェクトと実オブジェクトの境界領域のちらつきを目立たせないAR画像表示制御を行う装置、方法が実現される。
 具体的には、例えば、実世界上の実オブジェクトの検出処理を実行する実オブジェクト検出部と、仮想オブジェクトが実オブジェクトと同じ空間に存在するように視認されるAR画像を生成して表示部に出力するAR画像表示制御部を有し、AR画像表示制御部は、実オブジェクト検出部が検出した実オブジェクトの位置が、表示部に表示する仮想オブジェクトが配置される位置よりも奥行方向において手前にある場合、仮想オブジェクトと実オブジェクトの境界領域の少なくとも一部領域を隠すように、実オブジェクトの位置よりも奥行方向において手前に追加仮想オブジェクトを表示部に出力する。
 本構成により、仮想オブジェクトと実オブジェクトの境界領域のちらつきを目立たせないAR画像表示制御を行う装置、方法が実現される。
  10 光透過型AR画像表示デバイス
  21 透過観察画像
  22 仮想オブジェクト画像
  31 カメラ撮影画像表示型AR画像表示デバイス
  32 スマホ
  33 タブレット端末
  34 PC
  51 仮想オブジェクト
  61,62 実オブジェクト
  71 境界部ちらつき
  81,82 追加仮想オブジェクト
 100 画像処理装置
 101 センサ(カメラ等)
 102実オブジェクト検出部
 103自己位置推定部
 110 AR画像表示制御部
 111 ARコンテンツ表示制御部
 112 追加仮想オブジェクト表示制御部
 121 ARコンテンツデータベース
 122 追加仮想オブジェクトデータベース
 130 表示部
 201 動きあり実オブジェクト選択部
 301 CPU
 302 ROM
 303 RAM
 304 バス
 305 入出力インタフェース
 306 入力部
 307 出力部
 308 記憶部
 309 通信部
 310 ドライブ
 311 リムーバブルメディア

Claims (16)

  1.  実世界上の実オブジェクトの検出処理を実行する実オブジェクト検出部と、
     仮想オブジェクトが実オブジェクトと同じ空間に存在するように視認されるAR(Augumented Reality)画像を生成して表示部に出力するAR画像表示制御部を有し、
     前記AR画像表示制御部は、
     前記実オブジェクト検出部が検出した実オブジェクトの位置が、前記表示部に表示する仮想オブジェクトが配置される位置よりも奥行方向において手前にある場合、前記仮想オブジェクトと前記実オブジェクトの境界領域の少なくとも一部領域を隠すように、前記実オブジェクトの位置よりも奥行方向において手前に追加仮想オブジェクトを前記表示部に出力する画像処理装置。
  2.  前記AR画像表示制御部は、
     前記表示部に表示中のAR画像の表示環境に対応する種類の追加仮想オブジェクトを、前記表示部に出力する請求項1に記載の画像処理装置。
  3.  前記AR画像表示制御部は、
     前記仮想オブジェクトの手前位置にある前記実オブジェクトの種類に対応する種類の追加仮想オブジェクトを、前記表示部に出力する請求項1に記載の画像処理装置。
  4.  前記AR画像表示制御部は、
     前記仮想オブジェクトの手前位置にある前記実オブジェクトと同一種類の追加仮想オブジェクトを、前記表示部に出力する請求項3に記載の画像処理装置。
  5.  前記AR画像表示制御部は、
     AR画像表示アプリケーションが選択する種類の追加仮想オブジェクトを、前記表示部に出力する請求項1に記載の画像処理装置。
  6.  前記AR画像表示制御部は、
     前記仮想オブジェクトの手前位置にある前記実オブジェクトが動きあり実オブジェクトである場合に、前記追加仮想オブジェクトを、前記表示部に出力する請求項1に記載の画像処理装置。
  7.  前記AR画像表示制御部は、
     前記仮想オブジェクトの手前位置にある前記実オブジェクトが動きあり実オブジェクトである場合、前記追加仮想オブジェクトを、前記仮想オブジェクトと前記実オブジェクトの境界領域の移動に併せて移動させて表示する請求項1に記載の画像処理装置。
  8.  前記画像処理装置は、さらに、
     自装置の位置を推定する自己位置推定部を有し、
     前記AR画像表示制御部は、
     前記実オブジェクト検出部が検出した実オブジェクトの位置と、
     前記自己位置推定部が推定した自己位置を解析して、
     前記追加仮想オブジェクトの出力位置を決定する請求項1に記載の画像処理装置。
  9.  前記画像処理装置は、さらに、
     様々な種類の追加仮想オブジェクトを格納した追加仮想オブジェクトデータベースを有し、
     前記AR画像表示制御部は、
     前記追加仮想オブジェクトデータベースから取得した追加仮想オブジェクトを前記表示部に出力する請求項1に記載の画像処理装置。
  10.  前記表示部は、透過型表示部であり、
     前記透過型表示部は、
     前記透過型表示部を介して、ユーザが直接観察可能な実オブジェクトと、
     前記AR画像表示制御部の制御によって出力される仮想オブジェクトを併せて観察可能な表示部である請求項1に記載の画像処理装置。
  11.  前記表示部は、非透過型表示部であり、
     前記非透過型表示部は、
     カメラ撮影画像によって構成される実オブジェクトと、
     前記AR画像表示制御部の制御によって出力される仮想オブジェクトを併せて表示する表示部である請求項1に記載の画像処理装置。
  12.  前記AR画像表示制御部は、
     ARコンテンツとして当初から出力予定のARコンテンツ対応仮想オブジェクトを、前記表示部に出力するARコンテンツ表示制御部と、
     前記ARコンテンツとして当初から出力予定のARコンテンツ対応仮想オブジェクトではない前記追加仮想オブジェクトを、前記表示部に出力する追加仮想オブジェクト表示制御部と、
     を有する請求項1に記載の画像処理装置。
  13.  前記AR画像表示制御部は、
     前記実オブジェクトに基づく仮想オブジェクトを生成し、
     生成した仮想オブジェクトを、前記追加仮想オブジェクトとして前記表示部に出力する請求項1に記載の画像処理装置。
  14.  前記AR画像表示制御部は、
     前記実オブジェクトに基づく仮想オブジェクトから構成されるアニメーション画像を生成し、生成したアニメーション画像を追加仮想オブジェクトとして前記表示部に出力する請求項1に記載の画像処理装置。
  15.  画像処理装置において実行する画像処理方法であり、
     実オブジェクト検出部が、実世界上の実オブジェクトの検出処理を実行する実オブジェクト検出ステップと、
     AR画像表示制御部が、仮想オブジェクトが実オブジェクトと同じ空間に存在するように視認されるAR(Augumented Reality)画像を生成して表示部に出力するAR画像表示制御ステップを有し、
     前記AR画像表示制御ステップは、
     前記実オブジェクト検出部が検出した実オブジェクトの位置が、前記表示部に表示する仮想オブジェクトが配置される位置よりも奥行方向において手前にある場合、前記仮想オブジェクトと前記実オブジェクトの境界領域の少なくとも一部領域を隠すように、前記実オブジェクトの位置よりも奥行方向において手前に追加仮想オブジェクトを前記表示部に出力するステップを含む画像処理方法。
  16.  画像処理装置において画像処理を実行させるプログラムであり、
     実オブジェクト検出部に、実世界上の実オブジェクトの検出処理を実行させる実オブジェクト検出ステップと、
     AR画像表示制御部に、仮想オブジェクトが実オブジェクトと同じ空間に存在するように視認されるAR(Augumented Reality)画像を生成して表示部に出力させるAR画像表示制御ステップを実行させ、さらに、
     前記AR画像表示制御ステップにおいて、
     前記実オブジェクト検出部が検出した実オブジェクトの位置が、前記表示部に表示する仮想オブジェクトが配置される位置よりも奥行方向において手前にある場合、前記仮想オブジェクトと前記実オブジェクトの境界領域の少なくとも一部領域を隠すように、前記実オブジェクトの位置よりも奥行方向において手前に追加仮想オブジェクトを前記表示部に出力する処理を実行させるプログラム。
PCT/JP2020/040442 2019-12-10 2020-10-28 画像処理装置、および画像処理方法、並びにプログラム WO2021117366A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/781,212 US11995740B2 (en) 2019-12-10 2020-10-28 Image processing device and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019222614 2019-12-10
JP2019-222614 2019-12-10

Publications (1)

Publication Number Publication Date
WO2021117366A1 true WO2021117366A1 (ja) 2021-06-17

Family

ID=76329729

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/040442 WO2021117366A1 (ja) 2019-12-10 2020-10-28 画像処理装置、および画像処理方法、並びにプログラム

Country Status (2)

Country Link
US (1) US11995740B2 (ja)
WO (1) WO2021117366A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023000858A (ja) * 2021-06-18 2023-01-04 ヤフー株式会社 表示制御装置、表示制御方法および表示制御プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106543A (ja) * 2012-11-22 2014-06-09 Canon Inc 画像処理装置、画像処理方法及びプログラム
WO2019031015A1 (ja) * 2017-08-09 2019-02-14 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10803663B2 (en) * 2017-08-02 2020-10-13 Google Llc Depth sensor aided estimation of virtual reality environment boundaries
US10853946B2 (en) * 2018-05-18 2020-12-01 Ebay Inc. Physical object boundary detection techniques and systems

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106543A (ja) * 2012-11-22 2014-06-09 Canon Inc 画像処理装置、画像処理方法及びプログラム
WO2019031015A1 (ja) * 2017-08-09 2019-02-14 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023000858A (ja) * 2021-06-18 2023-01-04 ヤフー株式会社 表示制御装置、表示制御方法および表示制御プログラム
JP7354185B2 (ja) 2021-06-18 2023-10-02 ヤフー株式会社 表示制御装置、表示制御方法および表示制御プログラム

Also Published As

Publication number Publication date
US11995740B2 (en) 2024-05-28
US20220414945A1 (en) 2022-12-29

Similar Documents

Publication Publication Date Title
US11580704B2 (en) Blending virtual environments with situated physical reality
US10223834B2 (en) System and method for immersive and interactive multimedia generation
AU2017254848B2 (en) Image matting using deep learning
US10380803B1 (en) Methods and systems for virtualizing a target object within a mixed reality presentation
JP6246914B2 (ja) 未知の対象物に対する拡張現実コンテンツの生成
WO2016109250A1 (en) Sample based color extraction for augmented reality
WO2016122973A1 (en) Real time texture mapping
CN105659200A (zh) 用于显示图形用户界面的方法、设备和系统
US20170330381A1 (en) Apparatus and method for selectively displaying an operational environment
CN108628436B (zh) 电子装置、显示方法以及非暂态计算机可读取储存媒体
US11914836B2 (en) Hand presence over keyboard inclusiveness
Li et al. Photo-realistic simulation of road scene for data-driven methods in bad weather
JPWO2014010498A1 (ja) 遮光装置および遮光方法、並びにプログラム
WO2021117366A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
Inoue et al. Tracking Robustness and Green View Index Estimation of Augmented and Diminished Reality for Environmental Design
KR102623700B1 (ko) 정보처리장치, 정보처리방법, 및 컴퓨터 프로그램
US10964096B2 (en) Methods for detecting if an object is visible
US20230091536A1 (en) Camera Placement Guidance
KR101314687B1 (ko) 시선 경로 제공장치 및 시선 경로 제공방법
Sundstedt et al. Perceptual rendering of participating media
EP4012663A1 (en) Image processing device, image processing method, and program
JP7433849B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2022055368A1 (en) Method for applying a vignette effect to rendered images
US20240212288A1 (en) Customized passthrough
JP2021170745A (ja) センサ装置、コンテンツ提示装置、カメラ、コントローラ、プログラム、およびコンテンツ提示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20899223

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20899223

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP