WO2016039301A1 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
WO2016039301A1
WO2016039301A1 PCT/JP2015/075373 JP2015075373W WO2016039301A1 WO 2016039301 A1 WO2016039301 A1 WO 2016039301A1 JP 2015075373 W JP2015075373 W JP 2015075373W WO 2016039301 A1 WO2016039301 A1 WO 2016039301A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
transparency
input image
value
visibility
Prior art date
Application number
PCT/JP2015/075373
Other languages
English (en)
French (fr)
Inventor
池内 克史
岳史 大石
大樹 吹上
Original Assignee
国立大学法人東京大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人東京大学 filed Critical 国立大学法人東京大学
Priority to EP15840032.5A priority Critical patent/EP3193327B1/en
Priority to JP2016547437A priority patent/JP6653103B2/ja
Priority to US15/509,113 priority patent/US10055873B2/en
Publication of WO2016039301A1 publication Critical patent/WO2016039301A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/395Arrangements specially adapted for transferring the contents of the bit-mapped memory to the screen
    • G09G5/397Arrangements specially adapted for transferring the contents of two or more bit-mapped memories to the screen simultaneously, e.g. for mixing or overlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/066Adjustment of display parameters for control of contrast
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/026Control of mixing and/or overlay of colours in general
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits

Definitions

  • Some embodiments according to the present invention relate to an image processing apparatus and an image processing method.
  • HMDs head-mounted displays
  • glasses-type wearable displays progressing.
  • a virtual image showing a virtual object or information is often superimposed on a real scene (background) that is directly viewed through a display or a background image displayed on the display.
  • background real scene
  • the virtual image if the virtual image completely blocks the background or an obstacle in the background image, danger may occur during walking. Therefore, the virtual image is often made translucent and superimposed on the background or background image.
  • the virtual image is semi-transparently superimposed, it is difficult to appropriately set the visibility of the virtual object as a drawing result.
  • a background image and a virtual image are mixed and displayed at a certain ratio by alpha blending, the visibility of the virtual image is similar to the brightness of the background image and the virtual image, or the texture of the background image is high in contrast. If it is, it will be significantly reduced.
  • Patent Document 1 discloses an image display device capable of see-through the outside world, and means for displaying an image and means for changing an image display mode according to an image obtained by an imaging operation for receiving an optical image of a subject.
  • An apparatus comprising: is disclosed.
  • Some aspects of the present invention have been made in view of the above-described problems, and an object thereof is to provide an image processing apparatus and an image processing method that allow a user to visually recognize a virtual image.
  • An information processing apparatus receives an input between a first input image and a second input image in which a virtual image is superimposed on the first input image with a first transparency.
  • Receiving input means a first transmittance lower than the first transmittance, and a value obtained by subtracting the second transmittance from 1 to the first input image and the second input image, respectively.
  • a computing means for calculating a value indicating visibility at the second transparency by comparing a computation result obtained by adding the multiplied values and the first input image; and Update means for updating the second transparency according to a comparison result between the value indicating the visibility in the transparency and a target value, and the computing means includes the updated second transparency. The value indicating the visibility is calculated again using.
  • An information processing apparatus includes a first input image, a second input image in which a virtual image is superimposed on the first input image with a first transparency, and the first input image.
  • Input means for receiving an input of a third input image in which a virtual image is superimposed on one input image with the maximum brightness; and the second input image and the third input image include a second By comparing the calculation results for the first input image and the synthesized image obtained by adding the transparency and a value obtained by multiplying the value obtained by subtracting the second transparency from 1, respectively, the second transparency is obtained.
  • An information processing method receives an input of a first input image and a second input image in which a virtual image is superimposed on the first input image with a first transparency. Step, the first input image and the second input image are respectively multiplied by a second transparency lower than the first transparency and a value obtained by subtracting the second transparency from 1
  • a value indicating the visibility using the updated second transparency comprising the step of updating the second transparency according to a comparison result between the value indicating the visibility and a target value. Is calculated again.
  • An information processing method includes: a first input image; a second input image in which a virtual image is superimposed on the first input image with a first transparency; A step of receiving an input of a third input image in which a virtual image is superimposed on one input image with maximum brightness; and a second transmission to the second input image and the third input image.
  • a program includes: a first input image; and a process of receiving an input of a second input image in which a virtual image is superimposed on the first input image with a first transparency.
  • a process of calculating a value indicating visibility in the second transparency by comparing the calculation results for the composite image obtained by addition and the first input image, and the visual recognition in the second transparency A program for causing a computer to execute a process of updating the second transparency according to a comparison result between a value indicating a property and a target value, and using the updated second transparency A value indicating visibility is calculated again.
  • a program includes a first input image, a second input image in which a virtual image is superimposed on the first input image with a first transparency, and the first input image.
  • the computer executes a process for calculating a value indicating the property, a value indicating the visibility in the second transparency, and a process for updating the second transparency according to a comparison result with a target value.
  • “part”, “means”, “apparatus”, and “system” do not simply mean physical means, but “part”, “means”, “apparatus”, “system”. This includes the case where the functions possessed by "are realized by software. Further, even if the functions of one “unit”, “means”, “apparatus”, and “system” are realized by two or more physical means or devices, two or more “parts” or “means”, The functions of “device” and “system” may be realized by a single physical means or device.
  • FIG. 1 is a block diagram illustrating a configuration example of an image processing device according to an embodiment. It is a block diagram which shows the specific example of the hardware constitutions which can mount the image processing apparatus shown in FIG. 1 is a block diagram illustrating a configuration example of an image processing device according to an embodiment.
  • the background image is described as being a real image and the virtual image is an image generated by, for example, CG (Computer Graphics), but is not necessarily limited thereto.
  • CG Computer Graphics
  • a background image may be generated by CG, or an image obtained by photographing a real landscape may be used as a virtual image.
  • the user wears an optical transmission type device such as glasses or a head-mounted display having an image display function, and the virtual image is displayed on the device, and the background is displayed by the user.
  • an optical transmission type device such as glasses or a head-mounted display having an image display function
  • the virtual image is displayed on the device, and the background is displayed by the user.
  • Processing in the case of optical see-through that is directly visually recognized by optical transmission will be described.
  • image processing for video see-through and optical see-through will be mainly described.
  • the present invention is not necessarily limited to this, and similar processing may be applied to image processing in general.
  • Alpha blending is widely known as a technique for synthesizing two different images.
  • the transparency of a virtual object can be changed by adjusting the weight ( ⁇ value) of one image with respect to the other image.
  • the ⁇ value is a parameter indicating the transparency.
  • the magnitude of the ⁇ value does not necessarily correspond to the visibility of the blended virtual image.
  • the visibility of the virtual image greatly depends on the brightness and texture of the background image and the virtual image. That is, even if the images are synthesized with a constant ⁇ value, the visibility of the virtual image varies greatly depending on the types of the background image and the virtual image.
  • the ⁇ value used at the time of synthesis may be optimized using a model that can predict visibility.
  • a visibility prediction model that has been developed to evaluate the visibility of image compression noise or the like generated during image compression or the like is partially corrected and used.
  • the neural predictive model the neural response of the brain to each of the original image and the distorted image is simulated, and the difference between the responses is used as the magnitude of distortion visibility. The simulation of the neural response is performed based on the calculation of the initial visual cortex (V1) of the brain.
  • the input image is replaced with the background image before the virtual image is synthesized and the image after the synthesis, and the visibility of the virtual image is given as a difference in the neural response to these images.
  • the reason why some of the visibility prediction models that have been used for evaluation of image compression noise in the past have been modified is to reduce the calculation cost in order to enable real-time computation, This is to obtain a satisfactory result.
  • the weight ( ⁇ value) at the time of composition of the virtual image is optimized for each pixel so that the visibility of the virtual image approaches a predetermined arbitrary level. This makes it possible to synthesize images with constant and uniform visibility regardless of the types of background images and virtual images.
  • the image processing apparatus 100 includes an image input unit 110, a color space conversion unit 120, a calculation unit 130, an ⁇ value update unit 140, and an image output unit 150.
  • image input unit 110 a color space conversion unit 120
  • calculation unit 130 a calculation unit 130
  • ⁇ value update unit 140 a calculation unit 130
  • image output unit 150 an image output unit 150
  • the image input unit 110 receives a background image and a composite image in which a virtual image is superimposed on the background image.
  • ⁇ value 1, that is, in a non-transparent state.
  • the background image and the composite image are expressed in the RGB color space. It should be noted that the ⁇ value at the time of generating the composite image is not necessarily 1 if it is sufficiently large.
  • the color space conversion unit 120 converts the input background image and composite image from the RGB color space to the CIE L * a * b * color space. This is because the L * a * b * color space is designed so that perceptual uniformity is maintained, and is therefore preferable to a representation method in a color space such as YUV.
  • the color space conversion unit 120 outputs only the L * channel image of the background image and the composite image obtained as a result of the color space conversion to the calculation unit 130. That is, the a * channel and b * channel which are equal luminance color contrast components are ignored. This is because the sensitivity to the color contrast is smaller than the sensitivity to the luminance, and it is considered that the influence of the color contrast is not so great at least under the condition where the luminance contrast exists. By ignoring the a * channel and the b * channel in this way, the overall calculation amount can be reduced, so that the ⁇ value can be calculated in real time (real time).
  • the color space conversion unit 120 outputs the a * channel and the b * channel to the calculation unit 130. May be.
  • the luminance component (L * channel) of the background image and the virtual image are almost the same (the luminance contrast is small), but the color component (a *, b * channel) Are greatly different (color contrast is large).
  • the visibility calculated by the luminance channel is close to zero, and therefore, a correct visibility estimation result can be obtained for the first time by considering the color contrast.
  • the color space conversion unit 120 may switch whether the color space conversion unit 120 outputs the color component to the calculation unit 130 according to the luminance contrast of the background image, the size of the color contrast, and the like.
  • the calculation unit 130 corresponds to the visibility prediction model processing that reproduces the visual processing in the initial visual cortex (V1).
  • the computing unit 130 simulates the response of the neuron corresponding to the subband component of each image, calculates the difference between the responses of the same neuron for the two input images for each pixel, and calculates the difference between the subbands.
  • the pooled data is output as a value indicating visibility.
  • specific processing of the calculation unit 130 will be described.
  • the arithmetic unit 130 first performs a QMF (Quadrature Mirror Filter) wavelet transform process on the input background image and L * channel image of the composite image.
  • QMF Quadrature Mirror Filter
  • the input image is linearly decomposed into a plurality of subbands.
  • a vector w consisting of 12 wavelet coefficients (4 spatial frequency levels ⁇ 3 azimuth components). And one DC component are obtained.
  • the calculation unit 130 performs QMF wavelet conversion including these channels. The same applies to the subsequent processing related to the contrast sensitivity characteristic regarding whether or not the a * and b * channels are considered. In the following description, the case where only the L * channel is considered will be mainly described.
  • the calculation unit 130 calculates the wavelet coefficient and the DC component of the synthesized image synthesized with the ⁇ value by the following formula using the initial value of the ⁇ value.
  • the arithmetic unit 130 reproduces the contrast sensitivity characteristic (CSF: Contrast Sensitivity Function) by multiplying the twelve coefficients included in the wavelet coefficient vector w by a linear gain S according to the following equation. To do.
  • CSF Contrast Sensitivity Function
  • c i and w i indicate the wavelet coefficients of the i-th filter after multiplication and before multiplication, respectively.
  • S i is a gain for the i-th filter and is obtained by the following function.
  • o 1, 2, 3 respectively.
  • a o represents the maximum gain in the direction o.
  • s is the width of the function, and ⁇ is a constant that determines the sharpness of attenuation.
  • the arithmetic unit 130 performs a division normalization process on the wavelet coefficient that has been subjected to such a process, and obtains a contrast response r.
  • ⁇ i is a saturation constant for the i-th filter and determines the point at which response saturation begins in addition to preventing division by zero.
  • H ik is a weighting function that determines the strength of suppression given to the i-th filter by the k-th filter.
  • is a constant.
  • the weighting function H ik basically increases the weight (suppression works greatly) as the k-th filter has a feature closer to the i-th filter, and is defined by the following equation.
  • (E, o) and (e ′, o ′) represent the spatial frequency level and direction in which the i-th and k-th filters have selections, respectively.
  • K is a constant determined so that the sum of H ik for all k is 1.
  • ⁇ e and ⁇ o are constants that determine the spread of weights in the spatial frequency dimension and the azimuth dimension, respectively.
  • the weighting function H ik does not assume an effect from pixels near the pixel to be processed. This is because it is computationally expensive to access the surrounding pixels each time in order to determine the visibility of each pixel, and in order to reproduce the contrast response, the influence of neighboring pixels is not necessarily limited. This is because it is not considered large.
  • the ⁇ value can be calculated in real time (real time) by not considering the operation of neighboring pixels in the divi- sion normalization process.
  • the weighting function H ik considering the influence of neighboring pixels may be used.
  • the calculation unit 130 also calculates a response r L based on local brightness for the DC component obtained as a result of the wavelet transform by the following formula.
  • w L represents a coefficient of the low-pass filter
  • is a linear gain for the coefficient.
  • the calculation unit 130 similarly uses the expressions (2), (4), and (6) to calculate the contrast response and the response to local brightness for the wavelet coefficients and DC components of the input background image. Calculate for each pixel.
  • the calculation unit 130 pools the difference between the response to the composite image based on the current ⁇ value and the response to the background image for each pixel according to the following formula, and sets this as the current visibility value.
  • d xy represents the difference between the pooled responses at pixel (x, y).
  • r L and r L ′ represent the response to local brightness for each of the two images.
  • the ⁇ value update unit 140 searches for an optimum ⁇ value for each pixel in order to realize the visibility as a target (target value).
  • the search is performed by a binary search method.
  • the target value of visibility can be individually set by the user.
  • the ⁇ value update unit 140 calculates a value indicating visibility when blended with the current ⁇ value and a value indicating target visibility (target value) calculated by the calculation unit 130. In comparison, if the current visibility is higher than the target, the ⁇ value is decreased by the step size, and if it is lower, the ⁇ value is increased by the step size. After updating the ⁇ value in this way, the process of outputting the ⁇ value to the calculation unit 130 and calculating the value indicating the visibility of the composite image again is repeated a predetermined number of steps (for example, 8 steps). At this time, the initial value of the step size can be set to 0.25, for example. This step size value is reduced by half each time the step proceeds. The ⁇ value obtained after repeating a predetermined number of steps can be the optimum value obtained as a result of the search.
  • the ⁇ value is optimized for each pixel. If this value is used as it is, discontinuity may occur between pixels, and an unnatural result may occur. Therefore, the ⁇ value updating unit 140 may smooth the change of the ⁇ value for each pixel by averaging the ⁇ values of the respective pixels within the range of the square window having a certain size.
  • the image output unit 150 blends the background image and the composite image using the calculated optimal ⁇ value. Blending is performed in accordance with the above equation (1) on the L * a * b * color space, and after being combined, the image returned to the RGB color space is output.
  • the image processing apparatus 100 includes a CPU (Central Processing Unit) 201, a memory 203, a GPU (Graphics Processing Unit) 205, a display device 207, an input interface (I / F) unit 209, a storage device 211, A communication I / F unit 213 and a data I / F unit 215 are included.
  • a CPU Central Processing Unit
  • memory 203 a memory 203
  • GPU Graphics Processing Unit
  • I / F input interface
  • storage device 211 A communication I / F unit 213 and a data I / F unit 215 are included.
  • the CPU 201 controls various processes in the image processing apparatus 100.
  • the CPU 201 passes the camera image (background image) stored in the memory 203 that is the source of the input image of the process described with reference to FIG. 1 to the GPU 205, and then generates a synthesized image and optimizes the ⁇ value for the image.
  • the GPU 205 can be instructed to perform processing related to the above.
  • the processing performed by the CPU 201 can be realized as a program that is temporarily stored in the memory 203 and mainly operates on the CPU 201.
  • the memory 203 is a storage medium such as a RAM (Random Access Memory).
  • the memory 203 temporarily stores data including a program code of a program executed by the CPU 201 and a background image necessary for executing the program.
  • the GPU 205 is a processor provided separately from the CPU for performing image processing, for example.
  • the processing performed by the image input unit 110, the color space conversion unit 120, the calculation unit 130, the ⁇ value update unit 140, and the image output unit 150 illustrated in FIG. 1 can be all realized on the GPU 205.
  • the program related to the calculation unit 130 and the ⁇ value update unit 140 is realized by a pixel shader that can be programmed in units of pixels, these processes can be executed in units of pixels in parallel. Thereby, the ⁇ value estimation performed by the image processing apparatus 100 can be realized in real time.
  • the display device 207 is a device for displaying a composite image processed by the GPU 205.
  • Specific examples of the display device 207 include an HMD, a liquid crystal display, an organic EL (Electro-Luminescence) display, and the like.
  • the display device 207 may be provided outside the image processing apparatus 100. In that case, the display device 207 is connected to the image processing apparatus 100 via, for example, a display cable.
  • the input I / F unit 209 is a device for receiving input from the user.
  • the visibility target value required by the ⁇ value update unit 140 can be input by the user from the input I / F unit 209.
  • Specific examples of the input I / F unit 209 include a keyboard, a mouse, and a touch panel.
  • the input I / F unit 209 may be connected to the image processing apparatus 100 via a communication interface such as USB (Universal Serial Bus), for example.
  • USB Universal Serial Bus
  • the storage device 211 is a non-volatile storage medium such as a hard disk or a flash memory.
  • the storage device 211 can store an operating system, various programs for realizing an image processing function using the GPU 205, a virtual image to be synthesized, and the like. Programs and data stored in the storage device 211 are referred to by the CPU 201 by being loaded into the memory 203 as necessary.
  • the communication I / F unit 213 is a device for performing data communication with a device external to the image processing device 100, for example, a photographing device (camera device) (not shown) attached to the image processing device 100 by wire or wireless. is there. In this case, the communication I / F unit 213 receives an input of an image frame constituting a video that is a background image.
  • the data I / F unit 215 is a device for inputting data from the outside of the image processing apparatus 100.
  • a specific example of the data I / F unit 215 is a drive device for reading data stored in various storage devices.
  • the data I / F unit 215 may be provided outside the image processing apparatus 100. In that case, the data I / F unit 215 is connected to the image processing apparatus 100 via an interface such as a USB.
  • the preferable ⁇ value is calculated by estimating the visibility mainly considering only the luminance contrast (L * channel).
  • the present invention is not limited to this.
  • the visibility can be estimated appropriately. In such a case, it is considered that the visibility is estimated in consideration of all three channels L *, a *, and b *, and a suitable ⁇ value is calculated. More specifically, for example, depending on whether or not the difference in the luminance channel is below a certain threshold value, the calculation unit 130 performs the calculation only with the L * channel or includes the a * and b * channels. You may make it switch whether calculation is performed.
  • the necessity of the color component changes depending on the presence or absence of contrast masking. Specifically, in a situation where the contrast masking effect from the background image is high, if visibility is calculated using only the luminance channel, the visibility is likely to be evaluated low. In such a situation, if the color of the virtual image is significantly different from the background image, the visibility obtained from the color channel increases, so by considering all the channels of L *, a *, b *, Visibility can be suitably evaluated.
  • the technique using the image processing apparatus according to the present embodiment (hereinafter referred to as “Visibility-enhanced blending”) sets the brightness of the virtual image for each pixel so that the visibility of the displayed virtual image is equal to or higher than a predetermined level. Optimize to.
  • the image processing apparatus 300 includes an image input unit 310, a color space conversion unit 320, a calculation unit 330, an ⁇ value update unit 340, and an image output unit 350.
  • image input unit 310 receives an image input signal from a color space conversion unit 320
  • calculation unit 330 calculates an ⁇ value update unit 340
  • image output unit 350 outputs an image output unit 350.
  • the image input unit 310 includes (A) a background image obtained by capturing a background visually recognized by the user, (B) a simulation result image obtained by predicting a video visually recognized by the user in a state where the visibility improving process is not performed, and (C) a virtual image.
  • A a background image obtained by capturing a background visually recognized by the user
  • B a simulation result image obtained by predicting a video visually recognized by the user in a state where the visibility improving process is not performed
  • C a virtual image.
  • the input image (B) is generated by a process of adding the virtual object multiplied by ⁇ to the entire background image multiplied by (1 ⁇ ).
  • the input image of (C) is generated by maximizing the value of the L * channel on the CIE L * a * b * color space.
  • the processing performed by the color space conversion unit 320 and the ⁇ value update unit 340 is the same as that of the color space conversion unit 120 in the first embodiment, and thus description thereof is omitted.
  • the processing performed by the calculation unit 330 is basically the same as that of the calculation unit 130 in the first embodiment. However, the wavelet coefficient and the DC component that are the targets for which the arithmetic unit 330 performs the CSF simulation are different.
  • I 1 and I 2 in the expression (1) are the wavelet coefficients and DC components of the background image and the synthesized image, but in the second embodiment, I 1 and I 2 are the input image, respectively. It is the wavelet coefficient and DC component which performed wavelet transformation on the L * a * b * color space of (C) and (B).
  • the image output unit 350 uses the ⁇ value optimized by the ⁇ value update unit 340 searching for a predetermined number of steps, for example, 8 steps, in the L * a * b * color space.
  • the virtual image included in (B) and the virtual image with the maximum luminance (the virtual image included in the input image (C)) are blended, and the result of returning this to the RGB color space is the final output.
  • the image output unit 350 displays the optimized virtual image of the ⁇ value output from the image output unit 350 on the display device.
  • An example of a hardware configuration when the above-described image processing apparatus 300 is realized by a computer is the same as that of the first embodiment except that an optical see-through device can be used for the display device 207.
  • the visibility of the virtual image can be raised to an arbitrary level without depending on the brightness or texture of the background.
  • Image processing device 110 Image input unit 120: Color space conversion unit 130: Calculation unit 140: ⁇ value update unit 150: Image output unit 201: CPU 203: Memory 207: Display device 209: Input interface unit 211: Storage device 213: Communication interface unit 215: Data interface unit 300: Image processing device 310: Image input unit 320: Color space conversion unit 330: Calculation unit 340: ⁇ value Update unit 350: image output unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

ユーザが好適に仮想画像を視認することのできる画像処理装置及び画像処理方法を提供することを課題とする。画像処理装置100は、画像入力部110と、演算部130と、α値更新部140とを備える。画像入力部110は、第1の入力画像と、第1の入力画像の上に仮想画像が第1の透過度により重畳された第2の入力画像との入力を受ける。演算部130は、第1の入力画像及び第2の入力画像に、第2の透過度、及び1から第2の透過度を減算した値をそれぞれ乗算した値を加算して得られる合成画像と、第1の入力画像とに対する演算結果の比較により、第2の透過度における視認性を示す値を算出する。α値更新部140は、第2の透過度における視認性を示す値と、目標値との比較結果に応じて、第2の透過度を更新する。演算部130は、更新された第2の透過度を用いて視認性を示す値を再度算出する。

Description

画像処理装置および画像処理方法
 本発明に係るいくつかの態様は、画像処理装置および画像処理方法に関する。
 近年、ヘッドマウントディスプレイ(HMD)やメガネ型等のウェアラブル・ディスプレイなどのウェアラブル端末上に仮想物体や情報を表示することにより、現実風景と仮想情報とを同時に見られるようにする技術の研究開発が進んでいる。このような技術においては、ディスプレイを介して直接視認される現実風景(背景)、またはディスプレイ上に表示される背景画像の上に、仮想物体や情報を示す仮想画像を重畳させることが多い。このような場合に、仮想画像が背景または背景画像中の障害物等を完全に遮断してしまうと、歩行時等に危険が生じる場合がある。よって、仮想画像は半透明にして背景または背景画像に重畳されることが多い。
 しかしながら、仮想画像を半透明に重畳させる場合、描画結果の仮想物体の視認性を適切に設定することが難しい。例えば、アルファブレンディングにより背景画像と仮想画像とを一定の比率で混合して表示した場合、仮想画像の視認性は、背景画像と仮想画像の明るさが似ていたり、背景画像のテクスチャが高コントラストであったりする場合に、著しく低下する。
 特許文献1には、外界をシースルー可能な画像表示装置であって、画像を表示する手段と、被写体の光像を受光する撮像動作により得られた画像に応じて画像の表示態様を変更する手段とを備える装置が開示されている。
特開2007-121625号公報
 しかしながら、特許文献1記載の手法においても、被写体の画像に応じて表示態様を変えているだけである。すなわち、背景または背景画像に仮想画像が重畳された、合成後の画像がユーザにどのように視認されるかについてまでは考慮されていない。
 本発明のいくつかの態様は前述の課題に鑑みてなされたものであり、ユーザが好適に仮想画像を視認することのできる画像処理装置及び画像処理方法を提供することを目的の1つとする。
 本発明の1の態様に係る情報処理装置は、第1の入力画像と、前記第1の入力画像の上に仮想画像が第1の透過度により重畳された第2の入力画像との入力を受ける入力手段と、前記第1の入力画像及び前記第2の入力画像に、前記第1の透過度よりも低い第2の透過度、及び1から前記第2の透過度を減算した値をそれぞれ乗算した値を加算して得られる合成画像と、前記第1の入力画像とに対する演算結果の比較により、前記第2の透過度における視認性を示す値を算出する演算手段と、前記第2の透過度における前記視認性を示す値と、目標値との比較結果に応じて、前記第2の透過度を更新する更新手段とを備え、前記演算手段は、更新された前記第2の透過度を用いて前記視認性を示す値を再度算出する。
 本発明の1の態様に係る情報処理装置は、第1の入力画像と、前記第1の入力画像の上に仮想画像が第1の透過度により重畳された第2の入力画像と、前記第1の入力画像の上に仮想画像が最大の明るさで重畳された第3の入力画像との入力を受ける入力手段と、前記第2の入力画像及び前記第3の入力画像に、第2の透過度、及び1から前記第2の透過度を減算した値をそれぞれ乗算した値を加算して得られる合成画像と、前記第1の入力画像とに対する演算結果の比較により、前記第2の透過度における視認性を示す値を算出する演算手段と、前記第2の透過度における前記視認性を示す値と、目標値との比較結果に応じて、前記第2の透過度を更新する更新手段とを備え、前記演算手段は、更新された前記第2の透過度を用いて前記視認性を示す値を再度算出する。
 本発明の1の態様に係る情報処理方法は、第1の入力画像と、前記第1の入力画像の上に仮想画像が第1の透過度により重畳された第2の入力画像の入力を受けるステップと、前記第1の入力画像及び前記第2の入力画像に、前記第1の透過度よりも低い第2の透過度、及び1から前記第2の透過度を減算した値をそれぞれ乗算した値を加算して得られる合成画像と、前記第1の入力画像とに対する演算結果の比較により、前記第2の透過度における視認性を示す値を演算するステップと、前記第2の透過度における前記視認性を示す値と、目標値との比較結果に応じて、前記第2の透過度を更新するステップとを備え、更新された前記第2の透過度を用いて前記視認性を示す値を再度算出する。
 本発明の1の態様に係る情報処理方法は、第1の入力画像と、前記第1の入力画像の上に仮想画像が第1の透過度により重畳された第2の入力画像と、前記第1の入力画像の上に仮想画像が最大の明るさで重畳された第3の入力画像との入力を受けるステップと、前記第2の入力画像及び前記第3の入力画像に、第2の透過度、及び1から前記第2の透過度を減算した値をそれぞれ乗算した値を加算して得られる合成画像と、前記第1の入力画像とに対する演算結果の比較により、前記第2の透過度における視認性を示す値を算出するステップと、前記第2の透過度における前記視認性を示す値と、目標値との比較結果に応じて、前記第2の透過度を更新するステップとを備え、更新された前記第2の透過度を用いて前記視認性を示す値を再度算出する。
 本発明の1の態様に係るプログラムは、第1の入力画像と、前記第1の入力画像の上に仮想画像が第1の透過度により重畳された第2の入力画像の入力を受ける処理と、前記第1の入力画像及び前記第2の入力画像に、前記第1の透過度よりも低い第2の透過度、及び1から前記第2の透過度を減算した値をそれぞれ乗算した値を加算して得られる合成画像と、前記第1の入力画像とに対する演算結果の比較により、前記第2の透過度における視認性を示す値を演算する処理と、前記第2の透過度における前記視認性を示す値と、目標値との比較結果に応じて、前記第2の透過度を更新する処理とをコンピュータに実行させるプログラムであって、更新された前記第2の透過度を用いて前記視認性を示す値を再度算出する。
 本発明の1の態様に係るプログラムは、第1の入力画像と、前記第1の入力画像の上に仮想画像が第1の透過度により重畳された第2の入力画像と、前記第1の入力画像の上に仮想画像が最大の明るさで重畳された第3の入力画像との入力を受ける処理と、前記第2の入力画像及び前記第3の入力画像に、第2の透過度、及び1から前記第2の透過度を減算した値をそれぞれ乗算した値を加算して得られる合成画像と、前記第1の入力画像とに対する演算結果の比較により、前記第2の透過度における視認性を示す値を算出する処理と、前記第2の透過度における前記視認性を示す値と、目標値との比較結果に応じて、前記第2の透過度を更新する処理とをコンピュータに実行させるプログラムであって、更新された前記第2の透過度を用いて前記視認性を示す値を再度算出する。
 なお、本発明において、「部」や「手段」、「装置」、「システム」とは、単に物理的手段を意味するものではなく、その「部」や「手段」、「装置」、「システム」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や「手段」、「装置」、「システム」が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や「手段」、「装置」、「システム」の機能が1つの物理的手段や装置により実現されても良い。
1の実施形態に係る画像処理装置の構成例を示すブロック図である。 図1に示す画像処理装置を実装可能なハードウェア構成の具体例を示すブロック図である。 1の実施形態に係る画像処理装置の構成例を示すブロック図である。
 以下に本発明の実施形態を説明する。以下の説明及び参照する図面の記載において、同一又は類似の構成には、それぞれ同一又は類似の符号が付されている。
 以下では、背景画像に仮想画像を重畳する画像処理装置について説明する。なお、背景画像は実画像、仮想画像は例えばCG(Computer Graphics)等により生成された画像である場合を中心に説明するが、必ずしもそれに限られるものではない。例えば、背景画像がCGにより生成されても良いし、実風景を撮影した画像を仮想画像に用いても良い。
 第1の実施形態では、撮影された背景画像に仮想画像を重畳するビデオ・シースルーの場合の処理を説明する。また第2の実施形態では、ユーザが、画像表示機能を有する例えばメガネやヘッドマウントディスプレイ等の光学透過型の装置を装着した上で、仮想画像は当該装置の上に表示され、背景はユーザが光学透過により直接視認するオプティカル・シースルーの場合の処理を説明する。
 なお、以下の説明では、ビデオ・シースルー及びオプティカル・シースルーに対する画像処理の場合を中心に説明するが、必ずしもこれに限られるものではなく、画像処理全般に同様の処理を適用することも考えられる。
 (1 第1の実施形態)
 上述したように、第1の実施形態では、撮影された背景画像に仮想画像を重畳するビデオ・シースルーを行う画像処理装置について説明する。本画像処理装置による手法(以下、Visibility-based blendingともいう。)は、背景画像と背景画像の明るさやテクスチャに依存せずに、常に任意の視認性を得ることを可能とする。
 背景画像に仮想画像を半透明に表示する場合には、仮想画像を一定の視認性で表示できることが望ましい。しかしながら、2つの画像を、主観的な視認性を基準として合成するための手法は未だに確立されていない。2つの異なる画像を合成する手法として、アルファブレンディングが広く知られている。アルファブレンディングでは、一方の画像のもう一方の画像に対する重み(α値)を調整することにより、仮想物体の透過度を変化させることができる。換言すれば,α値は透過度を示すパラメータである。しかしながら、α値の大きさは、必ずしもブレンドした仮想画像の視認性と対応しているわけではない。例えば、仮想画像を現実の背景画像上に半透明に合成する場合には、仮想画像の視認性は背景画像や仮想画像の明るさやテクスチャに大きく依存する。つまり、一定のα値で画像を合成しても、仮想画像の視認性は、背景画像及び仮想画像の種類により大きく変動する。
 合成する画像によらずに、常に一定の視認性で合成するためには、視認性が予測できるモデルを用いて、合成時に用いるα値を最適化すれば良い。本実施形態ではこのために、画像圧縮等の際に生じる画像圧縮ノイズなどの視認性を評価するために開発されてきた視認性予測モデルを一部修正して使う。神経性予測モデルでは、元画像と歪み画像それぞれに対する脳の神経応答をシミュレートし、その応答の差を歪みの視認性の大きさとして用いる。神経応答のシミュレーションは、脳の初期視覚野(V1)の計算に基づいて行われる。しかしながら、本実施形態においては、入力画像は仮想画像を合成する前の背景画像と、合成後の画像とに置き換えられ、仮想画像の視認性はこれらの画像に対する神経応答の差分として与えられる。なお、従来画像圧縮ノイズ等の評価のために使用されてきた視認性予測モデルを一部修正して用いている理由は、リアルタイムでの演算を可能とするために計算コストを抑えるためや、良好な結果を得るためである。
 本実施形態に係るVisibility-based blendingでは、仮想画像の視認性が予め定められた任意のレベルに近づくように、仮想画像の合成時の重み(α値)をピクセル毎に最適化する。これにより、背景画像及び仮想画像の種類によらずに、一定かつ一様な視認性で画像を合成することが可能となる。
 以下、図1を参照しながら、本実施形態に係る画像処理装置100の機能構成を説明する。画像処理装置100は、画像入力部110と、色空間変換部120と、演算部130と、α値更新部140と、画像出力部150とを含む。以下、これらの処理について説明する。
 画像入力部110は、背景画像、及び背景画像に仮想画像が重畳された合成画像が入力される。入力される合成画像では、背景画像に対し、仮想画像がα値=1で、すなわち非透過状態で重畳される。ここで、背景画像及び合成画像は、RGB色空間で表現されているものとする。なお、合成画像を生成する際のα値は、十分に大きければ、必ずしも1である必要はない。
 色空間変換部120は、入力された背景画像及び合成画像の両者に対して、RGB色空間からCIE L*a*b*色空間へ変換する。これは、L*a*b*色空間が、知覚的な均等性が保たれるように設計されているため、例えばYUV等の色空間での表現方法よりも好ましいからである。
 色空間変換部120は、この色空間変換の結果得られる、背景画像及び合成画像のL*チャネル画像のみを演算部130へと出力する。つまり、等輝度色コントラスト成分であるa*チャネルやb*チャネルは無視している。これは、色コントラストに対する感度は輝度に対する感度と比べると小さく、少なくとも輝度コントラストが存在する条件下では、色コントラストの影響はさほど大きくないと考えられるからである。このようにa*チャネルやb*チャネルを無視することにより、全体的な演算量を減らすことができるため、実時間(リアルタイム)でのα値の算出を可能としている。
 しかしながら、状況によっては色コントラストを考慮した方が、好適な視認性推定結果を得られる場合もあるため、色空間変換部120は、a*チャネルやb*チャネルを演算部130へ出力するようにしても良い。色コントラストを考慮した方が良い場合としては、例えば、背景画像および仮想画像の輝度成分(L*チャネル)が殆ど同じ(輝度コントラストが小さい)であるが、色成分(a*、b*チャネル)が大きく異なる(色コントラストが大きい)場合が挙げられる。このような場合には、輝度チャネルで計算した視認性がゼロに近くなるため、色コントラストを考慮することで、初めて正しい視認性推定結果を得ることができる。
 よって色空間変換部120は、色空間変換部120は、背景画像の輝度コントラストや色コントラストの大きさ等に応じて、色成分を演算部130へ出力するか否かを切り替えることも考えられる。
 演算部130は、初期視覚野(V1)における視覚処理を再現した視認性予測モデルの処理に相当する。演算部130では、各画像のサブバンド成分に対応する神経細胞の応答がシミュレートされ、2つの入力画像に対する同一の神経細胞の応答の差分をピクセル毎に計算し、この差をサブバンド間でプールしたものを、視認性を示す値として出力する。以下、演算部130の具体的な処理を説明する。
 まず、演算部130では、入力された背景画像及び合成画像のL*チャネル画像に対して、まずQMF(Quadrature Mirror Filter)ウェーブレット変換処理を行う。QMFウェーブレット変換により、入力画像が複数のサブバンドに線形分解され、その結果、それぞれの入力画像の各ピクセルについて、12個のウェーブレット係数(4つの空間周波数レベル×3つの方位成分)からなるベクトルwと1つのDC成分とが得られる。
 なお、色変換部120がL*チャネルのみならずa*、b*チャネルも出力する場合には、演算部130は、これらのチャネルも含めてQMFフェーブレット変換を行う。a*、b*チャネルの考慮の有無につき、続くコントラスト感度特性に関する処理なども同様である。以下の説明では、L*チャネルのみを考慮する場合を中心に説明する。
 次に、演算部130は、α値の初期値を用いて、以下の式により当該α値で合成した合成画像のウェーブレット係数及びDC成分を算出する。
Figure JPOXMLDOC01-appb-M000001
 ここで、I1及びI2は、入力された背景画像及び合成画像(α値=1で背景画像と仮想画像を合成した画像)のウェーブレット係数又はDC成分を示す。QMFウェーブレット変換は線形変換であるため、ここで得られたウェーブレット係数及びDC成分の線形和は、現在のα値で2つの入力画像をブレンドした後にウェーブレット変換した場合のウェーブレット係数及びDC成分に等しい。
 次に、演算部130は、ウェーブレット係数のベクトルwに含まれる12個の係数に対して、以下の式に従って線形なゲインSを乗算することにより、コントラスト感度特性(CSF:Contrast Sensitivity Function)を再現する。
Figure JPOXMLDOC01-appb-M000002
 ここで、ciとwiは、それぞれ、ゲインを乗算した後と乗算する前の、i番目のフィルタのウェーブレット係数を示す。Siはi番目のフィルタに対するゲインであり、以下の関数により求められる。
Figure JPOXMLDOC01-appb-M000003
 この式において、eとoはそれぞれ空間周波数帯及び方位成分の番号を表し、空間周波数帯は高い方から低い方へe=1,2,3,4とし、方位成分は水平、斜め、垂直をそれぞれo=1,2,3とする。Aoは方位oにおける最大のゲインを表す。sは関数の幅を、θは減衰の鋭さを決定する定数とする。
 このような処理が施されたウェーブレット係数に対し、演算部130はdivisive normalization処理を行い、コントラスト応答rを得る。
Figure JPOXMLDOC01-appb-M000004
 この式において、βiはi番目のフィルタに対する飽和定数であり、ゼロ除算を防ぐほか、応答の飽和が始まる点を決める。Hikはk番目のフィルタがi番目のフィルタに与える抑制の強さを決める重み付け関数である。γは定数である。
 重み付け関数Hikは、基本的にk番目のフィルタがi番目のフィルタと近い特徴を持つほど重みが大きくなる(抑制が大きく働く)ことが想定されており、以下の式により定義される。
Figure JPOXMLDOC01-appb-M000005
 (e,o)及び(e’,o’)は、それぞれi番目とk番目のフィルタが選択制を持つ空間周波数レベルと方位を表す。Kは全てのkに対するHikの総和が1となるように定められる定数である。σeとσoとはそれぞれ空間周波数次元と方位次元における重みの広がりを決める定数である。
 ここで、重み付け関数Hikでは、処理対象のピクセルの近傍のピクセルからの作用は想定していない。これは、各ピクセルの視認性を求めるために、周囲のピクセルにも毎回アクセスするのは計算上のコストが高く、またその割にはコントラスト応答を再現する上では、近傍のピクセルの影響は必ずしも大きくないと考えられるからである。本実施形態のように、divisive normalization処理において近傍のピクセルの作用を考慮しないことにより、実時間(リアルタイム)でのα値算出を可能とすることができる。
 ただし、演算速度が十分に速い計算機を使用する場合や、必ずしも実時間での演算に拘る必要がない場合には、近傍のピクセルの影響をも考慮した重み付け関数Hikとすることも考えられる。
 また、演算部130は、ウェーブレット変換の結果得られるDC成分についても、局所的な明るさに基づく応答rLを以下の式により算出する。
Figure JPOXMLDOC01-appb-M000006
 ここで、wLは低域通過フィルタの係数を表し、ωはその係数に対する線形なゲインである。このような明るさに基づく応答rLを視認性において考慮する理由は、背景画像と、合成する仮想画像とが重なる領域が共になめらかな面を持っていた場合に、視認性が過小評価され、ブレンディング結果にエラーが生じることになるからである。このようなテクスチャの少ない滑らかな領域は、空やコンクリートの壁、影で暗くなっている箇所など、自然画像中に多く存在している。
 演算部130は、入力された背景画像のウェーブレット係数及びDC成分についても、同様に(2)式、(4)式、及び(6)式を用いてコントラスト応答及び局所的な明るさに対する応答をピクセル毎に計算する。
 最後に、演算部130は、以下の式に従って、現在のα値による合成画像に対する応答と、背景画像に対する応答との差分をピクセル毎にプーリングし、これを現在の視認性の値とする。
Figure JPOXMLDOC01-appb-M000007
 ここでdxyはピクセル(x,y)においてプールされた応答の差分を表す。ri及びri’は背景画像及び現在のα値による合成画像それぞれに対するi番目のフィルタへの応答を表す。nはフィルタの数を表すため、ここではn=12となる。rLとrL’は、2つの画像それぞれに対する局所的な明るさへの応答を表す。
 α値更新部140は、ターゲット(目標値)となる視認性を実現するのに最適なα値の探索を、ピクセル毎に行う。探索は2分探索法により行われる。視認性の目標値は、ユーザが個別に設定することができる。
 より具体的には、α値更新部140は、演算部130が算出した、現在のα値でブレンドした時の視認性を示す値と、ターゲットである視認性を示す値(目標値)とを比較し、現在の視認性がターゲットよりも高ければα値をステップサイズ分引き下げ、低ければα値をステップサイズ分引き上げる。このようにしてα値を更新した上で、このα値を演算部130へ出力して再度合成画像の視認性を示す値を演算させる処理を、所定のステップ数(例えば8ステップ)繰り返す。このとき、ステップサイズの初期値は、例えば0.25とすることができる。このステップサイズの値は、ステップが進む毎に半分に減じられる。所定のステップ数繰り返した後に得られるα値を、探索の結果得られる最適値とすることができる。
 しかしながら、前述のとおり、本実施形態においてα値はピクセル毎に最適化されるため、これをそのまま用いるとピクセル間に不連続性を生じ、不自然な結果となる場合がある。そこでα値更新部140は、一定サイズの正方形窓の範囲内でそれぞれのピクセルのα値を平均化することで、α値のピクセル毎の変化を滑らかにしても良い。
 画像出力部150は、算出された最適なα値を用いて、背景画像及び合成画像のブレンディングを行う。ブレンディングはL*a*b*色空間上で上記(1)式に従って行われ、合成後にRGB色空間に戻したものが出力される。
 (1.2 ハードウェア構成の具体例)
 以下、図2を参照しながら、上述してきた画像処理装置100をコンピュータにより実現する場合のハードウェア構成の一例を説明する。図2に示すように、画像処理装置100は、CPU(Central Processing Unit)201、メモリ203、GPU(Graphics Processing Unit)205、表示装置207、入力インタフェース(I/F)部209、記憶装置211、通信I/F部213、及びデータI/F部215を含む。
 CPU201は、画像処理装置100内の各種処理を制御する。例えばCPU201は、図1で説明した処理の入力画像の元となるメモリ203に記憶されるカメラ画像(背景画像)をGPU205へ渡した上で、当該画像に関する合成画像の生成やα値の最適化等に関する処理を行うべくGPU205へ指示することができる。CPU201で行われる処理は、メモリ203に一時記憶された上で主にCPU201上で動作するプログラムとして実現可能である。
 メモリ203は、例えばRAM(Random Access Memory)等の記憶媒体である。メモリ203は、CPU201によって実行されるプログラムのプログラムコードや、プログラムの実行時に必要となる背景画像等を含むデータを一時的に記憶する。
 GPU205は、例えば画像処理を行うためにCPUとは別に設けられたプロセッサである。図1に示した画像入力部110、色空間変換部120、演算部130、α値更新部140及び画像出力部150が行う処理は、全てGPU205上で実現することができる。特に、演算部130及びα値更新部140に係るプログラムが、ピクセル単位でプログラミングができるピクセルシェーダにより実現されていれば、これらの処理をピクセル単位で並列に実行することが可能となる。これにより、画像処理装置100が行うα値推定を実時間で実現できる。
 この他、図1、図3における処理で入力画像の1つとなる背景画像の上に所定の透過度(透過度1の場合も含む)で仮想画像が重畳される合成画像の生成も、GPU205上で行うことが可能である。
 表示装置207は、GPU205が処理した合成画像等を表示するためのデバイスである。表示装置207の具体例としては、HMDの他、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等が挙げられる。表示装置207は、画像処理装置100の外部に設けられても良い。その場合、表示装置207は、例えばディスプレイケーブル等を介して画像処理装置100に接続される。
 入力I/F部209は、ユーザからの入力を受け付けるためのデバイスである。例えば、α値更新部140が必要とする視認性の目標値の値は、入力I/F部209からユーザが入力することが可能である。入力I/F部209の具体例としては、例えばキーボードやマウス、タッチパネル等が挙げられる。入力I/F部209は、例えばUSB(Universal Serial Bus)等の通信インタフェースを介して画像処理装置100に接続されても良い。
 記憶装置211は、例えばハードディスクやフラッシュメモリ等の不揮発性の記憶媒体である。記憶装置211は、オペレーティングシステムや、GPU205を用いた画像処理機能を実現するための各種プログラム、合成対象の仮想画像等を記憶することができる。記憶装置211に記憶されているプログラムやデータは、必要に応じてメモリ203にロードされることにより、CPU201から参照される。
 通信I/F部213は、画像処理装置100の外部の装置、例えば画像処理装置100に取り付けられた図示しない撮影装置(カメラデバイス)等との間で有線又は無線によりデータ通信するためのデバイスである。この場合、通信I/F部213は背景画像となる映像を構成する画像フレームの入力を受ける。
 データI/F部215は、画像処理装置100の外部からデータを入力するためのデバイスである。データI/F部215の具体例としては、各種記憶装置に記憶されているデータを読み取るためのドライブ装置等がある。データI/F部215は、画像処理装置100の外部に設けられても良い。その場合、データI/F部215は、例えばUSB等のインタフェースを介して画像処理装置100に接続される。
 (1.3 本実施形態に係る効果)
 本実施形態に係るVisibility-based blendingを用いれば、背景画像の明るさやテクスチャ等に依存せずに、設定された視認性に応じた均一な視認性で仮想画像を提示することが可能となる。
 (1.4 変形例)
 上述の実施形態では、主に輝度コントラスト(L*チャネル)のみを考慮して視認性を推定することにより、好適なα値を算出していたが、これに限られるものではない。上述の通り、例えば合成画像と背景画像との間に輝度(L*チャネル)の差が殆ど無い、即ち輝度コントラストが小さい場合には、色コントラスト(a*、b*チャネル)を考慮した方が、視認性を好適に推定することができる。このような場合には、L*、a*、b*の3チャネル全てを考慮して視認性を推定し、好適なα値を算出することが考えられる。より具体的には、例えば、輝度チャネルの差が一定の閾値を下回っているか否かに応じて、L*チャネルのみで演算を行うか、或いはa*及びb*チャネルを含めて演算部130が演算を行うかを切り替えるようにしても良い。
 また、背景画像と合成画像との間で、輝度成分も色成分も両方異なる場合には、コントラストマスキングの有無で色成分の必要性の大きさが変わる。具体的には、背景画像からのコントラストマスキング効果が高い状況では、輝度チャネルのみで視認性を計算すると、視認性が低く評価されやすい。このような状況では、仮想画像の色が背景画像と大きく異なるのであれば、色チャネルから得られる視認性が大きくなるため、L*、a*、b*の全てのチャネルを考慮することで、視認性を好適に評価することができる。
 (2 第2の実施形態)
 続いて、第2の実施形態について説明する。上述の通り、第1の実施形態では、撮影された背景画像に仮想画像を重畳するビデオ・シースルーを行う画像処理装置について説明した。第2の実施形態では、現実世界の光とデバイスから出力された光とを、ハーフミラーを通して合算したものをユーザが見るオプティカル・シースルーを行う画像処理装置について説明する。オプティカル・シースルーでは、仮想画像は必然的に半透明表示となる。こうした状況下では、現実風景から入射する光の強さやデバイスが発する光の強さに加えて、現実風景中において仮想情報が重なる部分のテクスチャや構造も、仮想画像の視認性に影響すると考えられる。
 本実施形態に係る画像処理装置による手法(以下、Visibility-enhanced blending)は、表示される仮想画像の視認性が予め定められた任意のレベル以上となるように、仮想画像の明るさをピクセル毎に最適化する。
 以下、図3を参照しながら、本実施形態に係る画像処理装置300の機能構成を説明する。画像処理装置300は、画像入力部310と、色空間変換部320と、演算部330と、α値更新部340と、画像出力部350とを含む。以下、これらの処理について説明する。
 画像入力部310は、(A)ユーザが視認する背景を撮影した背景画像、(B)視認性向上処理がなされていない状態で、ユーザが視認する映像を予測したシミュレーション結果画像、(C)仮想画像が最大の明るさで表示された場合に、ユーザが視認する映像を予測したシミュレーション結果画像、の3つの入力を受ける。(B)の入力画像は、背景画像全体に(1-α)を乗算したものに、αを乗算した仮想物体を加算する処理により生成される。(C)の入力画像は、CIE L*a*b*色空間上で、L*チャネルの値を最大にすることで生成される。
 色空間変換部320及びα値更新部340が行う処理は、第1の実施形態における色空間変換部120と同様であるため、説明を省略する。
 演算部330が行う処理も、基本的には第1の実施形態における演算部130と同様である。しかしながら、演算部330がCSFシミュレーションを行う対象となるウェーブレット係数及びDC成分が異なる。第1の実施形態では、式(1)においてI1及びI2は背景画像及び合成画像のウェーブレット係数及びDC成分であったが、第2の実施形態では、I1及びI2はそれぞれ入力画像(C)及び(B)のL*a*b*色空間上でウェーブレット変換を行ったウェーブレット係数及びDC成分である。
 画像出力部350は、α値更新部340が例えば8ステップ分等の所定のステップ数探索が行われることにより最適化されたα値を用いて、L*a*b*色空間において、入力画像(B)に含まれる仮想画像と、最大輝度の仮想画像(入力画像(C)に含まれる仮想画像)とをブレンディングし、これをRGB色空間に戻した結果を最終的な出力とする。
 オプティカル・シースルー型デバイス(表示装置)に提示する場合には、背景と仮想画像との合成はハーフミラーにより物理的に行われる。従って、画像出力部350は、画像出力部350から出力された、最適化されたα値の仮想画像を表示装置に表示する。
 上述してきた画像処理装置300をコンピュータにより実現する場合のハードウェア構成の一例は、表示装置207にオプティカル・シースルー型デバイスを用いることができる点を除いて第1実施形態と同様である。
 本実施形態に係るVisibility-enhanced blendingを用いれば、背景の明るさやテクスチャ等に依存せずに、仮想画像の視認性を任意の水準まで引き上げることが可能となる。
100 :画像処理装置
110 :画像入力部
120 :色空間変換部
130 :演算部
140 :α値更新部
150 :画像出力部
201 :CPU
203 :メモリ
207 :表示装置
209 :入力インタフェース部
211 :記憶装置
213 :通信インタフェース部
215 :データインタフェース部
300 :画像処理装置
310 :画像入力部
320 :色空間変換部
330 :演算部
340 :α値更新部
350 :画像出力部
 

Claims (18)

  1.  第1の入力画像と、前記第1の入力画像の上に仮想画像が第1の透過度により重畳された第2の入力画像との入力を受ける入力手段と、
     前記第1の入力画像及び前記第2の入力画像に、前記第1の透過度よりも低い第2の透過度、及び1から前記第2の透過度を減算した値をそれぞれ乗算した値を加算して得られる合成画像と、前記第1の入力画像とに対する演算結果の比較により、前記第2の透過度における視認性を示す値を算出する演算手段と、
     前記第2の透過度における前記視認性を示す値と、目標値との比較結果に応じて、前記第2の透過度を更新する更新手段と
    を備え、
     前記演算手段は、更新された前記第2の透過度を用いて前記視認性を示す値を再度算出する、
    画像処理装置。
  2.  前記演算手段による演算及び前記更新手段による更新は、画素毎に行われる、
    請求項1記載の画像処理装置。
  3.  前記更新手段は、2分探索法による探索により前記第2の透過度を更新する、
    請求項1又は請求項2記載の画像処理装置。
  4.  前記視認性を示す値は、コントラスト感度特性及びコントラスト応答に関する、
    請求項1乃至請求項3のいずれか1項記載の画像処理装置。
  5.  前記演算手段は、
     前記第1の入力画像及び前記第2の入力画像をウェーブレット変換し、
     当該変換の結果得られる前記第1の入力画像に関するウェーブレット係数及びDC成分と、前記第2の入力画像に関するウェーブレット係数及びDC成分とを、前記第2の透過度と、1から前記第2の透過度を減算した値とでそれぞれ乗算した値を加算する、
    請求項1乃至請求項4のいずれか1項記載の画像処理装置。
  6.  前記演算手段は、
     前記加算の結果得られる値にゲインを乗算し、
     前記ゲインを乗算した値にDivisive Normalization処理することによりコントラスト応答値を算出する、
    請求項5記載の画像処理装置。
  7.  前記演算手段は、前記第1の入力画像及び前記第2の入力画像の輝度成分に基づき、前記視認性を示す値を算出する、
    請求項1乃至請求項6のいずれか1項記載の画像処理装置。
  8.  前記演算手段は、前記第1の入力画像と前記仮想画像に応じて、輝度成分のみに基づき前記視認性を示す値を算出するか、輝度成分及び色成分の両者に基づき前記視認性を示す値を算出するかを切り替える、
    請求項1乃至請求項6のいずれか1稿記載の画像処理装置。
  9.  第1の入力画像と、前記第1の入力画像の上に仮想画像が第1の透過度により重畳された第2の入力画像と、前記第1の入力画像の上に仮想画像が最大の明るさで重畳された第3の入力画像との入力を受ける入力手段と、
     前記第2の入力画像及び前記第3の入力画像に、第2の透過度、及び1から前記第2の透過度を減算した値をそれぞれ乗算した値を加算して得られる合成画像と、前記第1の入力画像とに対する演算結果の比較により、前記第2の透過度における視認性を示す値を算出する演算手段と、
     前記第2の透過度における前記視認性を示す値と、目標値との比較結果に応じて、前記第2の透過度を更新する更新手段と
    を備え、
     前記演算手段は、更新された前記第2の透過度を用いて前記視認性を示す値を再度算出する、
    画像処理装置。
  10.  前記演算手段による演算及び前記更新手段による更新は、画素毎に行われる、
    請求項9記載の画像処理装置。
  11.  前記更新手段は、2分探索法による探索により前記第2の透過度を更新する、
    請求項7又は請求項8記載の画像処理装置。
  12.  前記視認性を示す値は、コントラスト感度特性及びコントラスト応答に関する、
    請求項9乃至請求項11のいずれか1項記載の画像処理装置。
  13.  前記演算手段は、
     前記第1の入力画像、前記第2の入力画像、及び前記第3の入力画像をウェーブレット変換し、
     当該変換の結果得られる前記第2の入力画像に関するウェーブレット係数及びDC成分と、前記第3の入力画像に関するウェーブレット係数及びDC成分とを、前記第2の透過度と、1から前記第2の透過度を減算した値とでそれぞれ乗算した値を加算する、
    請求項9乃至請求項12のいずれか1項記載の画像処理装置。
  14.  前記演算手段は、
     前記加算の結果得られる値にゲインを乗算し、
     前記ゲインを乗算した値にDivisive Normalization処理することによりコントラスト応答値を算出する、
    請求項13記載の画像処理装置。
  15.  第1の入力画像と、前記第1の入力画像の上に仮想画像が第1の透過度により重畳された第2の入力画像の入力を受けるステップと、
     前記第1の入力画像及び前記第2の入力画像に、前記第1の透過度よりも低い第2の透過度、及び1から前記第2の透過度を減算した値をそれぞれ乗算した値を加算して得られる合成画像と、前記第1の入力画像とに対する演算結果の比較により、前記第2の透過度における視認性を示す値を演算するステップと、
     前記第2の透過度における前記視認性を示す値と、目標値との比較結果に応じて、前記第2の透過度を更新するステップと
    を備え、
     更新された前記第2の透過度を用いて前記視認性を示す値を再度算出する、
    画像処理装置の画像処理方法。
  16.  第1の入力画像と、前記第1の入力画像の上に仮想画像が第1の透過度により重畳された第2の入力画像と、前記第1の入力画像の上に仮想画像が最大の明るさで重畳された第3の入力画像との入力を受けるステップと、
     前記第2の入力画像及び前記第3の入力画像に、第2の透過度、及び1から前記第2の透過度を減算した値をそれぞれ乗算した値を加算して得られる合成画像と、前記第1の入力画像とに対する演算結果の比較により、前記第2の透過度における視認性を示す値を算出するステップと、
     前記第2の透過度における前記視認性を示す値と、目標値との比較結果に応じて、前記第2の透過度を更新するステップと
    を備え、
     更新された前記第2の透過度を用いて前記視認性を示す値を再度算出する、
    画像処理装置の画像処理方法。
  17.  第1の入力画像と、前記第1の入力画像の上に仮想画像が第1の透過度により重畳された第2の入力画像の入力を受ける処理と、
     前記第1の入力画像及び前記第2の入力画像に、前記第1の透過度よりも低い第2の透過度、及び1から前記第2の透過度を減算した値をそれぞれ乗算した値を加算して得られる合成画像と、前記第1の入力画像とに対する演算結果の比較により、前記第2の透過度における視認性を示す値を演算する処理と、
     前記第2の透過度における前記視認性を示す値と、目標値との比較結果に応じて、前記第2の透過度を更新する処理と
    をコンピュータに実行させるプログラムであって、
     更新された前記第2の透過度を用いて前記視認性を示す値を再度算出する、
    プログラム。
  18.  第1の入力画像と、前記第1の入力画像の上に仮想画像が第1の透過度により重畳された第2の入力画像と、前記第1の入力画像の上に仮想画像が最大の明るさで重畳された第3の入力画像との入力を受ける処理と、
     前記第2の入力画像及び前記第3の入力画像に、第2の透過度、及び1から前記第2の透過度を減算した値をそれぞれ乗算した値を加算して得られる合成画像と、前記第1の入力画像とに対する演算結果の比較により、前記第2の透過度における視認性を示す値を算出する処理と、
     前記第2の透過度における前記視認性を示す値と、目標値との比較結果に応じて、前記第2の透過度を更新する処理と
    をコンピュータに実行させるプログラムであって、
     更新された前記第2の透過度を用いて前記視認性を示す値を再度算出する、
    プログラム。
     
PCT/JP2015/075373 2014-09-08 2015-09-07 画像処理装置および画像処理方法 WO2016039301A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP15840032.5A EP3193327B1 (en) 2014-09-08 2015-09-07 Image processing device and image processing method
JP2016547437A JP6653103B2 (ja) 2014-09-08 2015-09-07 画像処理装置および画像処理方法
US15/509,113 US10055873B2 (en) 2014-09-08 2015-09-07 Image processing device and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014182629 2014-09-08
JP2014-182629 2014-09-08

Publications (1)

Publication Number Publication Date
WO2016039301A1 true WO2016039301A1 (ja) 2016-03-17

Family

ID=55459049

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/075373 WO2016039301A1 (ja) 2014-09-08 2015-09-07 画像処理装置および画像処理方法

Country Status (4)

Country Link
US (1) US10055873B2 (ja)
EP (1) EP3193327B1 (ja)
JP (1) JP6653103B2 (ja)
WO (1) WO2016039301A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112771473A (zh) * 2018-09-07 2021-05-07 苹果公司 将来自真实环境的影像插入虚拟环境中
JP7544359B2 (ja) 2021-05-18 2024-09-03 日本電信電話株式会社 最適化装置、訓練装置、合成装置、それらの方法、およびプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6996147B2 (ja) 2017-07-27 2022-01-17 株式会社大林組 検査処理システム、検査処理方法及び検査処理プログラム
JP6939195B2 (ja) * 2017-07-27 2021-09-22 株式会社大林組 検査処理システム、検査処理方法及び検査処理プログラム
TWI808321B (zh) * 2020-05-06 2023-07-11 圓展科技股份有限公司 應用於畫面顯示的物件透明度改變方法及實物投影機

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007121625A (ja) * 2005-10-27 2007-05-17 Konica Minolta Photo Imaging Inc 画像表示装置
JP2008054195A (ja) * 2006-08-28 2008-03-06 Funai Electric Co Ltd 映像信号処理装置
WO2012162806A1 (en) * 2011-06-01 2012-12-06 Zhou Wang Method and system for structural similarity based perceptual video coding

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6023302A (en) * 1996-03-07 2000-02-08 Powertv, Inc. Blending of video images in a home communications terminal
CA2679864A1 (en) * 2007-03-07 2008-09-12 Telefonaktiebolaget L M Ericsson (Publ) Display controller, electronic apparatus and method for creating a translucency effect using color model transform
JP4909176B2 (ja) * 2007-05-23 2012-04-04 キヤノン株式会社 複合現実感提示装置及びその制御方法、コンピュータプログラム
US9087471B2 (en) * 2011-11-04 2015-07-21 Google Inc. Adaptive brightness control of head mounted display
DE102012105170B3 (de) * 2012-06-14 2013-09-26 Martin Göbel Vorrichtung zur Erzeugung eines virtuellen Lichtabbilds
WO2014160342A1 (en) * 2013-03-13 2014-10-02 The University Of North Carolina At Chapel Hill Low latency stabilization for head-worn displays
CN106030664B (zh) * 2014-02-18 2020-01-07 索尼公司 在电子显示器上叠加两个图像的方法和计算装置
US10268041B2 (en) * 2014-05-24 2019-04-23 Amalgamated Vision Llc Wearable display for stereoscopic viewing
US10101586B2 (en) * 2014-12-24 2018-10-16 Seiko Epson Corporation Display device and control method for display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007121625A (ja) * 2005-10-27 2007-05-17 Konica Minolta Photo Imaging Inc 画像表示装置
JP2008054195A (ja) * 2006-08-28 2008-03-06 Funai Electric Co Ltd 映像信号処理装置
WO2012162806A1 (en) * 2011-06-01 2012-12-06 Zhou Wang Method and system for structural similarity based perceptual video coding

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
FUKIAGE, TAIKI ET AL.: "Visibility-based blending for real-time applications", IEEE INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY 2014, 10 September 2014 (2014-09-10), pages 63 - 72, XP032676209, Retrieved from the Internet <URL:http://ieeexplore.ieee.org/xpl/articleDetails.jsp?arnumber=6948410&newsearch=true&queryText=Visibility-based%20blending%20for%20real-time%20applications><DOI:10.1109/ISMAR.2014.6948410> doi:10.1109/ISMAR.2014.6948410 *
See also references of EP3193327A4 *
TAIKI FUKIAGE ET AL.: "Reduction of contradictory partial occlusion in Mixed Reality by using characteristics of transparency perception", IPSJ SIG NOTES 2012 (HEISEI 24) NENDO 5, vol. 2012, no. 1, 15 February 2013 (2013-02-15), pages 1 - 8, XP032309059, ISSN: 1884-0930 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112771473A (zh) * 2018-09-07 2021-05-07 苹果公司 将来自真实环境的影像插入虚拟环境中
US12094069B2 (en) 2018-09-07 2024-09-17 Apple Inc. Inserting imagery from a real environment into a virtual environment
JP7544359B2 (ja) 2021-05-18 2024-09-03 日本電信電話株式会社 最適化装置、訓練装置、合成装置、それらの方法、およびプログラム

Also Published As

Publication number Publication date
JP6653103B2 (ja) 2020-02-26
US10055873B2 (en) 2018-08-21
EP3193327A1 (en) 2017-07-19
EP3193327B1 (en) 2021-08-04
JPWO2016039301A1 (ja) 2017-06-15
EP3193327A4 (en) 2018-03-07
US20170256083A1 (en) 2017-09-07

Similar Documents

Publication Publication Date Title
EP1958185B1 (en) Methods and apparatus for determining high quality sampling data from low quality sampling data
WO2016039301A1 (ja) 画像処理装置および画像処理方法
JP7504120B2 (ja) 高分解能なリアルタイムでのアーティスティックスタイル転送パイプライン
CN109817170A (zh) 像素补偿方法、装置和终端设备
CN107451974B (zh) 一种高动态范围图像的自适应再现显示方法
US11948245B2 (en) Relighting images and video using learned lighting and geometry
Yu et al. Underwater vision enhancement based on GAN with dehazing evaluation
US20240127402A1 (en) Artificial intelligence techniques for extrapolating hdr panoramas from ldr low fov images
CN115205157B (zh) 图像处理方法和系统、电子设备和存储介质
Tiant et al. GPU-accelerated local tone-mapping for high dynamic range images
CN110009676B (zh) 一种双目图像的本征性质分解方法
Li et al. A structure and texture revealing retinex model for low-light image enhancement
Bae et al. Non-iterative tone mapping with high efficiency and robustness
WO2019224947A1 (ja) 学習装置、画像生成装置、学習方法、画像生成方法及びプログラム
Tariq et al. Perceptually adaptive real-time tone mapping
Cao et al. A Perceptually Optimized and Self-Calibrated Tone Mapping Operator
US20240312091A1 (en) Real time film grain rendering and parameter estimation
Zhao et al. RIRO: From Retinex-Inspired Reconstruction Optimization Model to Deep Low-Light Image Enhancement Unfolding Network
TWI547902B (zh) 採用梯度域梅特羅波利斯光傳輸以呈像圖形之方法與系統
CN118762117A (zh) 虚拟模型的灯光渲染方法、设备、介质和程序产品
Krishna et al. A subjective and objective quality assessment of tone-mapped images
Ling et al. Visualization of high dynamic range image with retinex algorithm
Mollis Real-time Hardware Based Tone Reproduction
Piao et al. HDR image display combines weighted least square filtering with color appearance model
KR20090057547A (ko) 단말기의 이미지 필터링을 위한 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15840032

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016547437

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15509113

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2015840032

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015840032

Country of ref document: EP