WO2017217011A1 - 画像処理装置および重畳画像生成方法 - Google Patents

画像処理装置および重畳画像生成方法 Download PDF

Info

Publication number
WO2017217011A1
WO2017217011A1 PCT/JP2017/005717 JP2017005717W WO2017217011A1 WO 2017217011 A1 WO2017217011 A1 WO 2017217011A1 JP 2017005717 W JP2017005717 W JP 2017005717W WO 2017217011 A1 WO2017217011 A1 WO 2017217011A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
luminance
adjustment
value
function
Prior art date
Application number
PCT/JP2017/005717
Other languages
English (en)
French (fr)
Inventor
幸代 青木
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to JP2018523301A priority Critical patent/JP6527641B2/ja
Priority to EP17812920.1A priority patent/EP3474539B1/en
Priority to US16/305,435 priority patent/US10839499B2/en
Publication of WO2017217011A1 publication Critical patent/WO2017217011A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • G09G2320/0646Modulation of illumination source brightness and image signal correlated to each other
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data

Definitions

  • the present invention relates to an image processing apparatus and a superimposed image generation method for displaying a plurality of image data in a superimposed manner.
  • HDR High Dynamic Range
  • the present invention has been made in view of these problems, and an object of the present invention is to provide a technique capable of displaying a plurality of images in a balanced manner in a balanced manner regardless of a difference in luminance range.
  • An aspect of the present invention relates to an image processing apparatus.
  • the image processing apparatus includes a first image acquisition unit that acquires data of a first image, a second image acquisition unit that acquires data of a second image to be superimposed on the first image, a first image, and a first image Generate and output superimposed image data by performing alpha blending using a brightness range adjustment unit that adjusts the brightness range of at least one of the two images according to a predetermined rule, and image data with the adjusted brightness range. And an output value calculation unit.
  • the superimposed image generation method includes a step of acquiring data of a first image, a step of acquiring data of a second image to be superimposed and displayed on the first image, and at least one of the first image and the second image A step of adjusting the luminance range according to a predetermined rule stored in a memory, and a step of generating data of a superimposed image by performing alpha blend processing using data of the image whose luminance range has been adjusted, and outputting the data to a display device It is characterized by including these.
  • a plurality of images can be superimposed and displayed in a balanced manner regardless of the difference in luminance range.
  • FIG. 3 is a diagram schematically showing a display image that can be generated when the luminance ranges of the first image and the second image are greatly different in the superimposition processing shown in FIG. 2.
  • FIG. 2 It is a figure which shows the internal circuit structure of the information processing apparatus in this Embodiment. It is a figure which shows the structure of the functional block of the information processing apparatus in this Embodiment. It is a figure for qualitatively explaining the adjustment rule of the brightness range in the present embodiment. It is a figure which shows the example of the function f which converts the brightness
  • FIG. 1 shows a configuration example of an information processing system in the present embodiment.
  • the information processing system includes an information processing device 10, an input device 14, and a display device 16.
  • the information processing apparatus 10 may be connectable to a server or the like that provides various contents via a network 8 such as the Internet.
  • the input device 14 detects general physical devices such as a controller, a keyboard, a mouse, a joystick, and a touch pad, an imaging device that captures the real world such as a user, a microphone that acquires sound, and various physical values.
  • a sensor or any combination thereof may be used.
  • the display device 16 is realized by a liquid crystal display, a plasma display, an organic EL display, or the like that displays an image. Further, a speaker that outputs sound may be provided.
  • the input device 14 and the display device 16 may be connected to the information processing device 10 by a wired cable, or may be wirelessly connected by a wireless LAN (Local Area Network) or the like. Further, the external shapes of the input device 14, the display device 16, and the information processing device 10 are not limited to those illustrated in the drawings, and for example, two or more of them may be integrally formed.
  • the information processing apparatus 10 receives a signal related to a user operation from the input apparatus 14, performs processing according to the signal, generates display image data, and outputs the display image data to the display apparatus 16.
  • the information processing apparatus 10 may be a game machine, a personal computer, a tablet terminal, a mobile terminal, a mobile phone, or the like.
  • the contents of the processing performed by the information processing apparatus 10 may vary depending on the form of the information processing apparatus 10 and the application selected by the user.
  • the information processing apparatus 10 advances an electronic game designated by the user according to a user operation, and generates and outputs data of the game screen at a predetermined frame rate.
  • moving image data may be acquired from the server via the network 8, and sequentially decoded and output.
  • the purpose of use of the information processing apparatus 10 may be various, and the content of information processing to be performed differs accordingly.
  • an explanation will be given with emphasis on a technique for displaying a plurality of images in a superimposed manner, such as an image generated as a result of such information processing or an image representing information to be presented.
  • FIG. 2 schematically shows an image generated by the information processing apparatus 10 in the present embodiment.
  • the image 200a is an image that is mainly displayed, such as a game or a moving image.
  • the image 200b is an image that is temporarily displayed as necessary, and the illustrated example includes a dialog box that allows the user to input an address and a password for login.
  • the information processing apparatus 10 superimposes the image 200b including the dialog box on the image 200a that was originally displayed, and generates and outputs a display image 202.
  • an image located behind the superimposed image 200a is referred to as a first image
  • an image 200b located in front of the superimposed image 200b is referred to as a second image.
  • the principle described below is the same.
  • the brightness F out of each pixel of the display image 202 is basically determined by an alpha blend process represented by the following equation.
  • F out (1 ⁇ ) Fb 1 + ⁇ Fb 2 (Formula 1)
  • Fb 1 and Fb 2 are the luminance of the pixel in the first image and the second image, respectively
  • is a general ⁇ value set for the pixel in the second image, that is, 0 or more indicating the transparency. The value is 0 or less.
  • the luminances Fb 1 and Fb 2 are set for each of the three channels, but here they are collectively referred to as luminances Fb 1 and Fb 2 .
  • the ⁇ value is changed from 0 to 1 in the entire image, the color of the second image gradually becomes darker from the state where only the first image is displayed, and the second image is finally displayed opaquely. Will be. If the ⁇ value is an intermediate value larger than 0 and smaller than 1, the second image becomes translucent and the first image can be seen through.
  • FIG. 3 schematically illustrates a display image that can be generated when the luminance ranges of the first image and the second image are greatly different in the superimposition processing illustrated in FIG. 2.
  • the former luminance Fb 1 may be 100 times or more the latter luminance Fb 2 .
  • is set to 1.0
  • the first term of Equation 1 becomes dominant and there is a possibility that the intended translucency may not be expressed.
  • the sun 206 having a high luminance in the first image may be dominantly seen.
  • to make the second image as opaque as possible to make it as easy to see as possible means to move away from the transparency that was originally desired as an image expression.
  • the luminance of the display image is greatly changed by a slight change of the ⁇ value.
  • the brightness F out of the display image is 100 nit even when the ⁇ value changes by only 0.01. Change.
  • the originally intended image expression can be realized by adjusting the luminance range of the image according to the ⁇ value.
  • FIG. 4 shows the internal circuit configuration of the information processing apparatus 10.
  • the information processing apparatus 10 includes a CPU (Central Processing Unit) 23, a GPU (Graphics Processing Unit) 24, and a main memory 26. These units are connected to each other via a bus 30.
  • An input / output interface 28 is further connected to the bus 30.
  • the input / output interface 28 outputs data to a peripheral device interface such as USB or IEEE1394, a communication unit 32 including a wired or wireless LAN network interface, a storage unit 34 such as a hard disk drive or a nonvolatile memory, and the display device 16.
  • An output unit 36, an input unit 38 for inputting data from the input device 14, and a recording medium driving unit 40 for driving a removable recording medium such as a magnetic disk, an optical disk or a semiconductor memory are connected.
  • the CPU 23 controls the entire information processing apparatus 10 by executing the operating system stored in the storage unit 34.
  • the CPU 23 also executes various programs read from the removable recording medium and loaded into the main memory 26 or downloaded via the communication unit 32.
  • the communication unit 32 also establishes communication with an external device such as a server via the network 8 to acquire electronic content data such as a moving image or transmit data generated inside the information processing device 10. Also good.
  • the GPU 24 has a function of a geometry engine and a function of a rendering processor, performs a drawing process according to a drawing command from the CPU 23, and stores display image data in a frame buffer (not shown).
  • the display image stored in the frame buffer is converted into a video signal and output to the output unit 36.
  • the main memory 26 is composed of RAM (Random Access Memory) and stores programs and data necessary for processing.
  • FIG. 5 shows a functional block configuration of the information processing apparatus 10.
  • Each functional block shown in FIG. 5 can be realized in terms of hardware by the configuration of the CPU, GPU, various memories, data bus, etc. shown in FIG. 4, and in terms of software, it is loaded into a memory from a recording medium, It is realized by a program that exhibits various functions such as a data input function, a data holding function, an arithmetic function, an image processing function, and a communication function. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.
  • the information processing apparatus 10 includes an input information acquisition unit 50 that acquires input information from the input device 14, an information processing unit 52 that performs information processing according to a user operation such as a game, and an image generation unit that generates data of an image to be displayed 54, an image data storage unit 53 that stores data necessary for image generation, a superimposition processing unit 56 that superimposes a plurality of images, and an image output unit 58 that outputs display image data to the display device 16.
  • the input information acquisition unit 50 is realized by the input unit 38, the CPU 23, and the like, and acquires data indicating the contents of the user operation from the input device 14.
  • the user operation may be performed on a general information processing apparatus, such as selection of an application to be executed or content to be output, start / end of processing, command input, and the like.
  • the input information acquisition unit 50 may acquire a captured image and detection result data.
  • the input information acquisition unit 50 may also acquire electronic content data such as moving images from the server via the network 8.
  • the input information acquisition unit 50 supplies the acquired data to the information processing unit 52 and the image generation unit 54 as appropriate.
  • the information processing unit 52 is realized by the CPU 23, the main memory 26, and the like, and performs information processing such as a game based on data supplied from the input information acquisition unit 50. As described above, the content of the process performed by the information processing unit 52 is not particularly limited as long as it includes image display.
  • the image generation unit 54 is realized by the GPU 24, the main memory 26, and the like, and generates an image to be displayed in accordance with a request from the information processing unit 52. For example, when the information processing unit 52 executes a game, the image generation unit 54 uses the data stored in the image data storage unit 53 to draw a game image corresponding to a user operation at a predetermined frame rate.
  • the video data designated by the information processing unit 52 may be decrypted and expanded.
  • the moving image may be acquired from an imaging device as the input device 14, may be distributed from a server via the network 8, or may be stored in the image data storage unit 53.
  • the game image or moving image generated in this way is referred to as a first image.
  • the image generation unit 54 further generates a second image as necessary.
  • the second image may be displayed at any time by being called by the user, or may be displayed at a timing determined by the information processing unit 52 in accordance with the progress of the game or video. Alternatively, it may be displayed constantly at one corner of the screen.
  • data stored in the image data storage unit 53 may be used, or data acquired by the input information acquisition unit 50 from an external device such as an imaging device or a server may be used.
  • the second image is an image to be superimposed and displayed on the first image, and the transparency is set by an ⁇ value.
  • the ⁇ value may be set for each pixel or each region, or may be a fixed value for the entire image. The setting may be changed with time.
  • the image generation unit 54 outputs the generated first image data to the image output unit 58. During a period in which the second image needs to be superimposed, the image generation unit 54 outputs the data of the first image and the second image to the superimposition processing unit 56.
  • the superimposition processing unit 56 is realized by the CPU 23, the GPU 24, the main memory 26, and the like, and includes a first image acquisition unit 60 that acquires data of the first image, a second image acquisition unit 62 that acquires data of the second image, and a luminance range. It includes a luminance range adjustment unit 64 for adjustment, an adjustment rule storage unit 66 for storing a luminance range adjustment rule, and an output value calculation unit 68 for calculating a pixel value of a display image in which the second image is superimposed on the first image.
  • the first image acquisition unit 60 and the second image acquisition unit 62 acquire data of the first image and the second image from the image generation unit 54, respectively.
  • the second image data includes ⁇ value setting data.
  • the brightness range adjustment unit 64 adjusts the brightness range of the first image, the second image, or both as needed based on the setting of the ⁇ value.
  • the excess luminance is reduced in the entire image or in a part of the image area so that the balance of both luminances is intended at the time of superimposition and necessary information can be seen at a glance.
  • the degree of reduction is changed according to the ⁇ value set in the second image.
  • the luminance range of the first image is large as described above and can be adjusted.
  • the ⁇ value is close to 1
  • the luminance range of the first image does not have to be reduced so much.
  • the ⁇ value is close to 1
  • the degree of reduction of the luminance range of the first image is increased, which hinders the second image. Do not become.
  • the adjustment process may be omitted when the first image and the second image have the same luminance range, or when it is not necessary to suppress the luminance for expression. Whether to perform the adjustment may be set for each image, or may be set for each region or each pixel. Such setting information is supplied together with the second image data by the image generation unit 54.
  • the luminance range adjustment unit 64 performs adjustment with reference to the adjustment rule stored in advance in the adjustment rule storage unit 66. When a plurality of adjustment rules are stored, the image generation unit 54 designates one of them or notifies a necessary parameter. Specific examples of the adjustment rules will be described later.
  • the output value calculation unit 68 performs alpha blending using the pixel values of the first image and the second image whose luminance range is adjusted as necessary, and calculates the pixel value of the display image. In the case of an RGB image, calculation is performed for each channel.
  • the output value calculation unit 68 outputs the calculated result to the image output unit 58.
  • the image output unit 58 is realized by the GPU 24, the main memory 26, the output unit 36, and the like, and the first image data supplied from the image generation unit 54 or the second image supplied from the superimposition processing unit 56 is superimposed on the image. Data is sequentially output to the display device 16.
  • the superimposition processing unit 56 may be realized as an image processing apparatus that receives two types of image data from the outside and outputs the image data formed by superimposing them to the outside.
  • a device having a function of generating a second image and a function of the superimposition processing unit 56 may be provided as an image processing device separately from a device that processes a game or the like and generates a first image.
  • FIG. 6 is a diagram for qualitatively explaining the adjustment rule of the luminance range.
  • the graph shows how the maximum value of the luminance range of the first image is changed with respect to the ⁇ value of the second image when the first image is generated by HDR and the second image is generated by SDR. Show.
  • the vertical axis of the graph is the maximum value of the luminance range, the maximum luminance of the HDR image is expressed as FH, and the maximum luminance of the SDR image is expressed as FS.
  • the horizontal axis of the graph is the ⁇ value set for the second image, and can be set from 0 to 1.0.
  • the maximum luminances FH and FS may be maximum luminance values that can be defined by HDR and SDR, or may be maximum luminance values that are actually given as pixel values on each image. In the former case, FH takes values such as 10000 nit, 1000 nit, and 2000 nit, and FS takes values of 100 nit, 400 nit, 280 nit, and the like. The same applies to the following description.
  • the maximum brightness is FH.
  • the maximum luminance decreases, and the amount of adjustment is controlled so that the maximum luminance reaches FS when ⁇ is 1.0.
  • a conversion rule for uniquely determining the adjusted luminance from the original luminance is determined in advance so that the maximum luminance varies depending on the ⁇ value.
  • the illustrated example merely qualitatively shows the change in the adjustment amount with respect to the ⁇ value, and does not limit the actual change in the maximum luminance.
  • the maximum luminance decreases linearly with respect to the ⁇ value, but it may be a function of quadratic or higher of ⁇ or a discontinuous change.
  • the conversion rule for the ⁇ value may be set.
  • the conversion rule may be switched for each finite range of ⁇ values.
  • Fb 1 and Fb 2 are the luminances of the original pixels of the first image and the second image, as in Equation 1, and f is a function for converting the luminance of the first image into the adjusted luminance.
  • FIG. 7 shows an example of a function f for converting luminance.
  • the function f is a function for uniquely determining the adjusted luminance with respect to the luminances Fb 1 and Fb 2 (hereinafter collectively referred to as luminance Fb) given as pixel values of the image to be adjusted.
  • luminance Fb luminance
  • the function f is changed according to the ⁇ value set for the second image as described above.
  • the function is such that the output range decreases as the ⁇ value increases.
  • Vp ( ⁇ ) of the function f is changed as shown in FIG. FIG. 7 illustrates the function f when the ⁇ value is 0, 0.5, and 1.0.
  • Vp (0) and Vp (1.0) can be appropriately determined according to the luminance range of the original image and the luminance range desired to be finally stored.
  • Vp ( ⁇ ) is a linear function as shown in FIG. 6, the function f shown in FIG. 7 decreases linearly with increasing ⁇ and increases linearly with the original luminance Fb. Function. Specifically, it can be expressed by the following formula.
  • FIG. 7 shows a function f (Fb) for a discrete value of ⁇ value
  • luminance conversion can be performed for a continuous ⁇ value by using Equation 5.
  • the format of the function f is not limited thereto. That is, in the adjustment rule storage unit 66, the function f may be stored as a two-variable equation of ⁇ and Fb as in Equation 5, or the function f (Fb) for each discrete ⁇ value or numerical value range thereof. May be stored in the form of a mathematical expression or a table.
  • the luminance range before and after the adjustment is set to 0 as the minimum value, but an offset may be added to the luminance range in implementation. In this case, the same can be considered by removing the offset.
  • the value used for the calculation does not directly represent luminance, but the same effect can be obtained by setting an appropriate function based on that.
  • a tone mapping technique for converting the original image data into luminance suitable for display may be applied.
  • the following formula is used as a tone map.
  • Example 2 (N ⁇ Fb) / ((M ⁇ Fb / V) +1)
  • N and M may be constants or functions depending on ⁇ .
  • the function f can be expressed as follows.
  • the following function f may be used when 0 ⁇ ⁇ 1.
  • f ( ⁇ , Fb) ⁇ ⁇ f (1.0, Fb) + (1 ⁇ ) ⁇ f (0, Fb)
  • a known tone map and adjustment according to the ⁇ value may be appropriately combined.
  • the ⁇ value described so far may be replaced with a function of the ⁇ value.
  • a function A ( ⁇ ) described later may be introduced.
  • the luminance Fb 1 of the first image of the target pixel is 10000 nit
  • the luminance Fb 2 of the second image is 50 nit
  • FIG. 8 shows another example of the function f for converting the luminance.
  • the example shown in FIG. 7 is a function that linearly increases the output value in the entire range of the original luminance Fb at any ⁇ value. That is, a value obtained by reducing the original luminance Fb at a rate determined by ⁇ is set as the adjusted luminance.
  • the presence / absence of adjustment and the function f are made different for each luminance block obtained by dividing the range of the original luminance Fb.
  • the range (0, F max ) of the original luminance Fb is divided by the threshold value F th to form two luminance blocks.
  • the luminance block of 0 ⁇ Fb ⁇ F th the luminance is not adjusted, and in the luminance block of F th ⁇ Fb ⁇ F max , the luminance is reduced at a rate determined by the ⁇ value as shown in FIG. Yes.
  • the maximum value V ( ⁇ ) of the function f satisfies the condition shown in FIG. 6, the luminance range can be suppressed to the target value.
  • the number of divisions of the luminance range is not limited to two.
  • the function f that defines the conversion rule may be switched.
  • a function f determined by another method to be described later may be used as an introduction candidate, and an optimal one may be selected for each luminance block.
  • a luminance block for linearly or linearly interpolating may be provided so that the function f is continuously changed with respect to the luminance Fb, particularly when the functions f determined by different methods are combined. Thereby, it is possible to prevent a large difference in luminance after adjustment near the boundary of the luminance block.
  • FIG. 9 shows still another example of the function f for converting the luminance.
  • the change with respect to the original luminance Fb is a curve.
  • the maximum value Vp ( ⁇ ) of the function f may be the same as described in FIG. In this way, the maximum value Vp is determined for the ⁇ value, and a curve is determined for the range of the brightness Fb.
  • FIG. 10 shows, as yet another example of the function f for converting the luminance, a method of converting luminance equal to or higher than a predetermined value into the predetermined value, that is, suppressing (clamping) the predetermined value as an upper limit.
  • Vc ( ⁇ ) is the upper limit of the luminance after adjustment, and is determined according to the ⁇ value.
  • Vc (0) FH
  • Vc ( ⁇ ) is set to satisfy the above condition in the range of 0 ⁇ ⁇ ⁇ 1.
  • Vc ( ⁇ ) is defined as follows.
  • Vc ( ⁇ ) Vc (0) ⁇ A ( ⁇ ) ⁇ (Vc (0) ⁇ Vc (1.0))
  • the upper limit Vc ( ⁇ ) corresponding to the ⁇ value is determined, and as a result, the luminance can be clamped to the extent corresponding to the ⁇ value by Expression 7.
  • the function A ( ⁇ ) is appropriately determined according to the actual image content, the purpose of synthesis, and the like.
  • the function A ( ⁇ ) is an element that determines how much high-intensity pixels are suppressed in an intermediate value of ⁇ , and in addition to the ease of viewing the actually displayed image, the ⁇ value is gradually changed. It is desirable to optimize from the viewpoint of whether the desired effect can be obtained.
  • the following definition can be considered as the function A ( ⁇ ).
  • Example 1: A ( ⁇ )
  • Example 2: A ( ⁇ ) ⁇ 2
  • Example 3: A ( ⁇ ) 1- (1- ⁇ ) 2
  • may be replaced with a function B ( ⁇ ) of ⁇ .
  • the function B ( ⁇ ) may be defined as follows.
  • Example 4 when 0 ⁇ ⁇ ⁇ a1, the adjustment is such that the upper limit of the luminance does not change due to a change in ⁇ .
  • Example 5 when a2 ⁇ ⁇ 1.0, the upper limit of luminance is not changed by the change of ⁇ .
  • FIG. 11 shows an example in which Example 3 and Example 4 are combined as the function B ( ⁇ ). That is, the function B ( ⁇ ) is defined as follows.
  • the upper limit of luminance can be optimized according to the situation by combining Vc (0), Vc (1.0), A ( ⁇ ), and B ( ⁇ ) from various candidates as described above.
  • function A ( ⁇ ) from Equation 7
  • the upper limit Vc (0.5) of luminance is 5050 nit.
  • the upper limit Vc ( ⁇ ) of the luminance after adjustment obtained by Expression 8 using the functions A ( ⁇ ) and B ( ⁇ ) exemplified so far is the maximum value Vp ( ⁇ of the function shown in FIGS. ).
  • Vp ( ⁇ ) the maximum value of the function shown in FIGS.
  • two functions f are defined depending on whether the ⁇ value is a or less. become.
  • FIG. 13 is a diagram for explaining a mode in which the luminance range is adjusted for a part of an image.
  • the upper image 300 shows the second image to be superimposed on the first image such as a game image as described with reference to FIG.
  • the image 300 includes an area 302 including a character string display such as “E-mail address”, a field in which the user inputs the character string, a GUI (Graphical User Interface) for confirming the input, and the outside of the area 302.
  • the region 304 includes a fill color and a pattern.
  • the region 302 is a luminance range adjustment target and the region 304 is a non-adjustment target.
  • the image generation unit 54 generates a mask image 310 representing whether or not adjustment is necessary as a pixel value, and supplies the mask image 310 to the superimposition processing unit 56 together with the second image data.
  • the luminance range adjustment unit 64 of the superimposition processing unit 56 performs the luminance range adjustment only on the area specified by the mask image 310.
  • the mask image shown in FIG. 13 is a binary image for setting whether or not to adjust the luminance range. However, the gradation is increased, and the function f and various parameters that determine it are manipulated for each pixel. It may be used to
  • the present embodiment described above in the image representation in which a plurality of images are superimposed and displayed at the same time, at least one of the luminance ranges is adjusted so that there is no significant difference in the luminance of the overlapping pixels.
  • the luminance range adjustment unit 64 further performs at least one of processing for converting the color space for range adjustment on the image to be adjusted and processing for converting the color space for alpha blending after adjustment. May be.
  • the RGB data representing the original image may be converted into luminance and color difference (YUV) data, and the luminance (Y) range may be adjusted and then returned to the RGB data for alpha blending processing. . Even if it does in this way, the effect similar to this Embodiment is acquired.
  • the present invention can be used for various information processing devices such as game devices, image processing devices, image reproduction devices, personal computers, and information processing systems including any of them.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Circuits (AREA)

Abstract

情報処理装置10の画像生成部54は、複数の画像を重畳表示させる必要がある期間、当該画像のデータを重畳処理部56に供給する。重畳処理部56の第1画像取得部60、第2画像取得部62は、重畳表示させる第1画像、第2画像をそれぞれ取得する。輝度レンジ調整部64は、第2画像に設定されたα値に応じた調整量で、必要に応じて少なくともどちらかの輝度レンジを調整する。出力値算出部68は調整後の画像を用いてアルファブレンド計算を行うことにより表示画像の画素値を決定し、画像出力部58に出力する。

Description

画像処理装置および重畳画像生成方法
 本発明は、複数の画像データを重畳表示させる画像処理装置および重畳画像生成方法に関する。
 従来、テレビジョン放送や配信動画などの映像表示において画質を向上させるための様々な技術が開発されてきた。近年では解像度や色域を向上させる技術に加え、輝度のレンジを拡大したHDR(High Dynamic Range)の信号を処理する技術が普及しつつある。従来のSDR(Standard Dynamic Range)と比較し、HDRは輝度の許容範囲が100倍程になるため、太陽光の反射光など実世界で眩しいと感じるような対象を、画像上でもよりリアルに表現することができる。
 テレビジョン放送や配信動画のみならず、ゲーム画像などコンピュータグラフィクスの世界でも、HDRの画像表現が可能になれば、仮想世界をよりリアルなものにできる。一方、ゲームなど多様な情報を提示する必要があるコンテンツの場合は特に、ダイアログボックス、ヘルプ画面、コントロールパネル、インジケータなどの各種情報を、主たる画像に重畳させて臨機応変に表示できるようにすることが望ましい。この場合、主たる画像によって表されるリアル性を追求した世界観を隠蔽によって必要以上に損なうことなく、かつ必要な情報が一見して視認できるような表示技術が求められる。
 本発明はこうした課題に鑑みてなされたものであり、その目的は、輝度レンジの差によらず、複数の画像をバランスよく重畳表示させることのできる技術を提供することにある。
 本発明のある態様は画像処理装置に関する。この画像処理装置は、第1画像のデータを取得する第1画像取得部と、第1画像上に重畳表示させるべき第2画像のデータを取得する第2画像取得部と、第1画像および第2画像の少なくともいずれかの輝度レンジを、所定の規則に従い調整する輝度レンジ調整部と、輝度レンジが調整された画像のデータを用いてアルファブレンド処理することにより、重畳画像のデータを生成し出力する出力値算出部と、を備えたことを特徴とする。
 本発明の別の態様は重畳画像生成方法に関する。この重畳画像生成方法は、第1画像のデータを取得するステップと、第1画像上に重畳表示させるべき第2画像のデータを取得するステップと、第1画像および第2画像の少なくともいずれかの輝度レンジを、メモリに格納された所定の規則に従い調整するステップと、輝度レンジが調整された画像のデータを用いてアルファブレンド処理することにより、重畳画像のデータを生成し表示装置に出力するステップと、を含むことを特徴とする。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。
 本発明によると、輝度レンジの差によらず、複数の画像をバランスよく重畳表示させることができる。
本実施の形態における情報処理システムの構成例を示す図である。 本実施の形態において情報処理装置が生成する画像を模式的に示す図である。 図2に示した重畳処理において、第1画像と第2画像の輝度レンジが大きく異なる場合に生成され得る表示画像を模式的に示す図である。 本実施の形態における情報処理装置の内部回路構成を示す図である。 本実施の形態における情報処理装置の機能ブロックの構成を示す図である。 本実施の形態における輝度レンジの調整規則を定性的に説明するための図である。 本実施の形態における、輝度を変換する関数fの例を示す図である。 本実施の形態における、輝度を変換する関数fの別の例を示す図である。 本実施の形態における、輝度を変換する関数fのさらに別の例を示す図である。 本実施の形態における、輝度を変換する関数fのさらに別の例を示す図である。 本実施の形態における関数B(α)の例を示す図である。 本実施の形態における関数B(α)の変形例を示す図である。 本実施の形態において画像の一部に対し輝度レンジを調整する態様を説明するための図である。
 図1は本実施の形態における情報処理システムの構成例を示す。情報処理システムは、情報処理装置10、入力装置14、表示装置16を含む。図示するように情報処理装置10はインターネットなどのネットワーク8を介して各種コンテンツを提供するサーバ等と接続可能としてもよい。入力装置14はコントローラ、キーボード、マウス、ジョイスティック、タッチパッドなどユーザ操作が可能な一般的な入力装置のほか、ユーザなど実世界を撮影する撮像装置、音声を取得するマイク、各種物理値を検出するセンサや、それらのうちいずれかの組み合わせでもよい。
 表示装置16は、画像を表示する液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイなどで実現する。さらに音声を出力するスピーカを備えていてもよい。入力装置14および表示装置16は、情報処理装置10に有線ケーブルで接続されてよく、また無線LAN(Local Area Network)などにより無線接続されてもよい。また入力装置14、表示装置16、情報処理装置10の外観形状は図示するものに限らず、例えばそれらのうち2つ以上が一体的に形成されていてもよい。
 情報処理装置10は、ユーザ操作に係る信号を入力装置14から受信し、それに応じた処理を実施して表示画像のデータを生成し、表示装置16に出力する。情報処理装置10はゲーム機、パーソナルコンピュータ、タブレット端末、携帯端末、携帯電話などのいずれであってもよい。そのような情報処理装置10の形態や、ユーザが選択したアプリケーションなどに応じて、情報処理装置10が行う処理の内容は様々であってよい。
 例えば情報処理装置10は、ユーザが指定した電子ゲームをユーザ操作に応じて進捗させ、そのゲーム画面のデータを所定のフレームレートで生成し出力する。あるいはネットワーク8を介して動画のデータをサーバから取得し、それを逐次復号して出力してもよい。このように情報処理装置10の使用目的は様々であってよく、それに応じて実施する情報処理の内容も異なるため、詳細な説明は省略する。以後、そのような情報処理の結果として生成された画像や、提示すべき情報を表した画像など、複数の画像を重畳表示させる手法に重点を置いて説明する。
 図2は、本実施の形態において情報処理装置10が生成する画像を模式的に示している。画像200aは例えばゲームや動画など、主として表示される画像である。画像200bは必要に応じて一時的に表示される画像であり、図示する例はユーザにログインのためのアドレスとパスワードを入力させるダイアログボックスを含む。このようなダイアログボックスを表示させる必要が生じると、情報処理装置10は、元から表示させていた画像200aにダイアログボックスを含む画像200bを重畳させ、表示画像202を生成して出力する。
 このときなるべく広い領域で、画像200bを介して画像200aが透けて見えるようにすることで、ゲームや動画など画像200aの世界観が途切れることなく必要な情報を示すことができる。さらに画像200bの透明度を時間変化させれば、ダイアログボックスが徐々に出現したり消滅したりする演出もできる。
 複数の画像を重畳表示させるケースは、図示する例以外にも様々に考えられることは当業者には理解されるところである。例えばレースゲームの場合、ドライバの視野を示す主たる画像に、コース全体を俯瞰した画像を追加で表示することが考えられる。映画を表示させる場合は、あらすじや出演者などの書誌情報を示す画像や、再生、一時停止、早送りなどの操作パネルを付加的に表示することが考えられる。このように状況や表示すべき内容によって、重畳させる位置、面積、期間も様々でよい。
 以後、画像200aのように重畳時に背後に位置する画像を第1画像、画像200bのように重畳時に前面に位置する画像を第2画像と呼ぶ。ただし3つ以上の画像を重ね合わせて表示しても、以下に述べる原理は同様である。上述のように透過性を持たせて画像を重畳表示させるため、基本的には次式で表されるアルファブレンド処理により、表示画像202の各画素の輝度Foutを決定する。
 Fout=(1-α)Fb+αFb2      (式1)
 ここでFb、Fbはそれぞれ、第1画像、第2画像における当該画素の輝度、αは第2画像の当該画素に設定された一般的なα値、すなわち透過度を示す0以上1.0以下の値である。なおRGB画像であれば、輝度Fb、Fbは当該3チャンネルのそれぞれに設定されるが、ここではそれらを総称して輝度Fb、Fbとしている。例えば画像全体においてα値を0から1まで変化させると、第1画像のみが表示されている状態から徐々に第2画像の色が濃くなっていき、最終的に第2画像が不透明に表示されることになる。α値を0より大きく1より小さい中間値とすれば、第2画像が半透明の状態となり、第1画像が透けて見えることになる。
 図3は、図2に示した重畳処理において、第1画像と第2画像の輝度レンジが大きく異なる場合に生成され得る表示画像を模式的に示している。例えば第1画像がHDR、第2画像がSDRで描画されている場合、前者の輝度Fbが後者の輝度Fbの100倍以上になることが考えられる。この場合、αを1.0にしない限り式1の第1項が支配的になり、意図するような半透明が表現されない可能性がある。例えば第1画像に最大輝度(Fb=10000nit)で表された強い白色を第2画像の黒色(Fb=0nit)と1:99の比(α=0.01)で合成しても、Fout=100nitとなり、出力画像における当該画素は黒にはほど遠い色になってしまう。
 このため表示画像204に示すように、第2画像を不透明に近い設定としても、第1画像で高い輝度を有する太陽206などが支配的に見えてしまうことがあり得る。その結果、第2画像が見づらくなったり、示した文字が判読できなかったりすることも考えられる。また、できるだけ見やすくしようと第2画像を不透明に近づけることは、本来、画像表現として望まれていた透明感から遠ざかることを意味する。
 さらに、α値の僅かな変化で表示画像の輝度が大きく変化してしまう問題も生じる。例えば上述同様、第1画像の強い白色(Fb=10000nit)に第2画像の黒色(Fb=0nit)を重ねる場合、α値の僅か0.01の変化でも表示画像の輝度Foutが100nit変化する。
 このため、α値を画像平面上で徐々に変化させてグラデーションを表現したり、α値の時間変化により画像をクロスフェードさせたりする場合でも、滑らかな変化が実現されないことがあり得る。特にα値の0.99から1.0への変化に対し、表示画像上では白から黒への急激な変化等が生じることになる。
 なお第2画像をHDRの輝度レンジで生成しても、より鮮明に見せたい文字や図などが表された領域の輝度レンジがSDR程度に小さければ同様の状況が生じる。そこで本実施の形態では、複数の画像をアルファブレンドにより重畳表示させる際、α値に応じて画像の輝度レンジを調整することにより、本来意図した画像表現を実現できるようにする。
 図4は情報処理装置10の内部回路構成を示している。情報処理装置10は、CPU(Central Processing Unit)23、GPU(Graphics Processing Unit)24、メインメモリ26を含む。これらの各部は、バス30を介して相互に接続されている。バス30にはさらに入出力インターフェース28が接続されている。入出力インターフェース28には、USBやIEEE1394などの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなる通信部32、ハードディスクドライブや不揮発性メモリなどの記憶部34、表示装置16へデータを出力する出力部36、入力装置14からデータを入力する入力部38、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部40が接続される。
 CPU23は、記憶部34に記憶されているオペレーティングシステムを実行することにより情報処理装置10の全体を制御する。CPU23はまた、リムーバブル記録媒体から読み出されてメインメモリ26にロードされた、あるいは通信部32を介してダウンロードされた各種プログラムを実行する。通信部32はまた、ネットワーク8を介してサーバなど外部の装置と通信を確立し、動画像など電子コンテンツのデータを取得したり、情報処理装置10内部で生成されたデータを送信したりしてもよい。
 GPU24は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU23からの描画命令に従って描画処理を行い、図示しないフレームバッファに表示画像のデータを格納する。そしてフレームバッファに格納された表示画像をビデオ信号に変換して出力部36に出力する。メインメモリ26はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。
 図5は情報処理装置10の機能ブロックの構成を示している。図5に示す各機能ブロックは、ハードウェア的には、図4に示したCPU、GPU、各種メモリ、データバスなどの構成で実現でき、ソフトウェア的には、記録媒体などからメモリにロードした、データ入力機能、データ保持機能、演算機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
 情報処理装置10は、入力装置14からの入力情報を取得する入力情報取得部50、ゲームなどユーザ操作に応じた情報処理を行う情報処理部52、表示すべき画像のデータを生成する画像生成部54、画像の生成に必要なデータを格納する画像データ記憶部53、複数の画像を重畳させる重畳処理部56、および、表示画像のデータを表示装置16に出力する画像出力部58を含む。
 入力情報取得部50は入力部38やCPU23などで実現され、ユーザ操作の内容を示すデータを入力装置14から取得する。ここでユーザ操作とは、実行するアプリケーションや出力するコンテンツの選択、処理の開始/終了、コマンド入力など、一般的な情報処理装置に対しなされるものでよい。入力装置14として撮像装置や各種センサを導入する場合、入力情報取得部50は撮影画像や検出結果のデータを取得してもよい。入力情報取得部50はまた、動画など電子コンテンツのデータをネットワーク8を介してサーバから取得してもよい。入力情報取得部50は取得したデータを、情報処理部52や画像生成部54に適宜供給する。
 情報処理部52はCPU23やメインメモリ26などで実現され、入力情報取得部50から供給されたデータに基づきゲームなどの情報処理を実施する。上述のとおり情報処理部52が実施する処理は、画像の表示を伴うものであればその内容は特に限定されない。画像生成部54はGPU24やメインメモリ26などで実現され、情報処理部52からの要求に従い表示すべき画像を生成する。例えば情報処理部52がゲームを実行する場合、画像生成部54は画像データ記憶部53に格納されたデータを用いて、ユーザ操作に応じたゲーム画像を所定のフレームレートで描画する。
 あるいは情報処理部52が指定した動画のデータを復号、伸張してもよい。動画は入力装置14たる撮像装置から取得されたものでもよいし、ネットワーク8を介してサーバから配信されたものや、画像データ記憶部53に格納されたものなどでもよい。以後、このようにして生成したゲーム画像や動画像を第1画像とする。画像生成部54はさらに、必要に応じて第2画像を生成する。第2画像はユーザが呼び出すことにより随時表示されるものでもよいし、ゲームや動画の進捗に応じて情報処理部52が決定したタイミングで表示されるものでもよい。または画面の片隅などに常時表示されるものでもよい。
 当該画像の生成には、画像データ記憶部53に格納されたデータを用いてもよいし、撮像装置やサーバなど外部の装置から入力情報取得部50が取得したデータを用いてもよい。いずれにしろ第2画像は、第1画像上に重畳表示させる画像であり、どのような透過度で表示するかをα値で設定しておく。α値は画素ごとや領域ごとに設定してもよいし、画像全体で固定値としてもよい。また当該設定を時間変化させてもよい。
 第2画像を重畳させる必要がない期間、画像生成部54は、生成した第1画像のデータを画像出力部58に出力する。第2画像を重畳させる必要がある期間、画像生成部54は第1画像および第2画像のデータを重畳処理部56に出力する。
 重畳処理部56はCPU23、GPU24、メインメモリ26などで実現され、第1画像のデータを取得する第1画像取得部60、第2画像のデータを取得する第2画像取得部62、輝度レンジを調整する輝度レンジ調整部64、輝度レンジの調整規則を格納する調整規則記憶部66、第1画像に第2画像を重畳させた表示画像の画素値を算出する出力値算出部68を含む。
 第1画像取得部60、第2画像取得部62はそれぞれ、画像生成部54から第1画像、第2画像のデータを取得する。上述のとおり第2画像のデータにはα値の設定データが含まれる。輝度レンジ調整部64は当該α値の設定に基づき、必要に応じて第1画像、第2画像、または双方の輝度レンジを調整する。定性的には、重畳時に双方の輝度のバランスが意図したような状態となり、必要な情報が一見して視認できるように、画像全体あるいは一部の領域で、過多となっている輝度を縮小する。ここで、当該縮小の度合いを第2画像に設定されたα値によって変化させる。
 例えば上述のとおり第1画像の輝度レンジが大きく、調整対象となり得るケースを考える。α値が0に近い設定では、第2画像より第1画像に重心が置かれていると考えられるため、第1画像の輝度レンジはそれほど縮小しなくてよい。一方、α値が1に近い設定では、第1画像より第2画像に重心が置かれていると考えられるため、第1画像の輝度レンジの縮小の度合いを大きくし、第2画像の邪魔にならないようにする。このようにα値の設定を介して意図されるバランスを推定し、それに応じて輝度レンジを調整することにより、画像上で実現されている高いコントラストを必要以上に抑え込むことなく、必要な情報を確実に提示できる。
 第1画像と第2画像が同程度の輝度レンジを有する場合や、表現上、輝度の抑え込みを必要としない場合などは、調整処理を省略してよい。調整を行うか否かは画像ごとに設定してもよいし、領域ごと、画素ごとに設定してもよい。そのような設定情報は、画像生成部54が第2画像のデータとともに供給する。輝度レンジ調整部64は、調整規則記憶部66にあらかじめ格納された調整規則を参照して調整を行う。調整規則が複数、格納されている場合は、画像生成部54がそのいずれかを指定したり、必要なパラメータを通知したりする。調整規則の具体例は後に述べる。
 出力値算出部68は、必要に応じて輝度レンジが調整された第1画像と第2画像の画素値を用いてアルファブレンドを行い、表示画像の画素値を算出する。RGB画像であればチャンネルごとに計算を行う。出力値算出部68は算出した結果を画像出力部58に出力する。画像出力部58はGPU24、メインメモリ26、出力部36などで実現され、画像生成部54から供給された第1画像のデータ、または重畳処理部56から供給された第2画像を重畳した画像のデータを、表示装置16に順次出力する。
 これにより、ゲーム画像や動画像などの主たる画像上に、必要に応じて別の画像が重畳された画像が、元の輝度レンジによらず意図したバランスで表示される。なお重畳処理部56は、外部から2種類の画像のデータを入力し、それらを重畳させてなる画像のデータを外部に出力する画像処理装置として実現しもよい。あるいはゲームなどを処理し第1画像を生成する装置とは別に、第2画像を生成する機能と重畳処理部56の機能とを有する装置を画像処理装置として設けてもよい。
 次に、輝度レンジ調整部64が行う輝度レンジの調整手法について説明する。図6は輝度レンジの調整規則を定性的に説明するための図である。同図は一例として、第1画像がHDR、第2画像がSDRで生成されるとき、第2画像のα値に対し第1画像の輝度レンジの最大値をどのように変化させるかをグラフで示している。グラフの縦軸が輝度レンジの最大値であり、HDR画像の最大輝度をFH、SDR画像の最大輝度をFSと表記している。
 グラフの横軸は第2画像に設定されるα値であり、0から1.0までの設定が可能である。なお最大輝度FH、FSは、HDR、SDRのそれぞれで定義可能な輝度の最大値でもよいし、各画像上で画素値として実際に与えられている輝度の最大値でもよい。前者の場合、FHは10000nit、1000nit、2000nit、FSは100nit、400nit、280nitなどの値をとる。以後の説明でも同様である。
 同グラフに示すように、αが0のときは基本的には輝度レンジの調整が不要のため、最大輝度はFHとなる。そしてαの設定値が大きくなるほど最大輝度が小さくなり、αが1.0のときに最大輝度がFSに到達するように調整量を制御する。このようにすることで、α値の設定から斟酌される、意図された視認性のバランスに対応するように輝度レンジを最適化できる。またα値を画像平面上、または時間軸上で徐々に変化させる態様において、表示上も透過度の滑らかな変化を実現できる。
 このように最大輝度がα値によって変化するように、元の輝度から調整後の輝度を一意に定める変換規則をあらかじめ決定しておく。なお図示する例はα値に対する調整量の変化を定性的に示しているに過ぎず、実際の最大輝度の変化を限定するものではない。すなわち同グラフでは、最大輝度がα値に対し線形に減少するが、αの二次以上の関数としてもよいし、不連続な変化としてもよい。例えば画面構成上、α値の設定が0.5および1.0のみであることが事前に判明している場合は、当該α値に対する変換規則のみを設定してもよい。またα値の有限範囲ごとに変換規則を切り替えてもよい。
 輝度レンジ調整部64による輝度レンジの調整と、出力値算出部68によるアルファブレンドをまとめると次の式で表される。
 Fout=(1-α)・f(α,Fb)+αFb   (式2)
 ここでFb、Fbは式1と同様、第1画像、第2画像の元の画素が有する輝度であり、fは第1画像の輝度を調整後の輝度に変換する関数である。上述のとおり関数fは第2画像のα値に依存する。例えばα=0、すなわち第2画像が透明のときは元の値のまま、つまり
 f(0,Fb)=Fb
とする。α=1、すなわち第2画像が不透明のときは調整量が最大となるような関数とする。
 双方がHDRの場合など、第1画像と第2画像を共に調整対象とすることも考えられる。この場合、式2を拡張させれば、次式のように表すことができる。
 Fout=(1-α)・f(α,Fb)+α・f(α,Fb)  (式3)
ここでfは第1画像の輝度を変換する関数、fは第2画像の輝度を変換する関数である。式3により、第1画像、第2画像のどちらに著しく高い輝度の物が存在しても、重畳されたときにそれが邪魔をして、他方の比較的低い輝度の物が意図したように見えない状況を回避できる。
 なお本実施の形態では、重畳時に前面に位置する第2画像のα値に着目しているため、関数fは、図6で示したようにα値の増加に対し輝度レンジを狭めていくように設定する。一方、関数fは逆に、α値の増加に対し輝度レンジを広げていくように設定する。また元の輝度Fb、Fbに対する関数f、fの変化のさせ方は、重畳表示の目的や画像の性質などによって、両者で同じとしてもよいし異ならせてもよい。同様に考え、第2画像の輝度レンジのみを調整する場合は次の式となる。
 Fout=(1-α)Fb+α・f(α,Fb)    (式4)
 図7は輝度を変換する関数fの例を示している。上述のとおり関数fは、調整対象の画像の画素値として与えられる輝度Fb、Fb(以後、総称して輝度Fbとする)に対し調整後の輝度を一意に決定するための関数であり、同図の例では、輝度Fbに対し線形に変化させている。さらに関数fは、上述のとおり第2画像に設定されたα値によって変化させる。同図および以後の説明では、第1画像を調整対象とした場合を想定する。そのため図6を参照して説明したように、α値が大きいほど出力レンジが小さくなるような関数とする。
 つまり関数fの最大値Vp(α)には、図6で示したような変化を持たせる。図7ではα値が0、0.5、1.0のときの関数fを例示しており、それらの最大値Vp(0)、Vp(0.5)、Vp(1.0)は、図6のグラフ上の点である。このとき、Vp(0)=FH、Vp(1.0)=FSとなる。ただしα=1.0のときはSDRの輝度レンジ以内に収めればよいと考えると、Vp(1.0)≦FSとして定義してもよい。その他、Vp(0)およびVp(1.0)は、元の画像の輝度レンジ、最終的に収めたい輝度レンジに応じて適宜決定できる。
 Vp(α)を図6で示したような一次関数とした場合、図7で示した関数fは、αの増加に対して線形に減少し、元の輝度Fbに対して線形に増加するような関数となる。具体的には次のような式で表せる。
Figure JPOXMLDOC01-appb-M000001
 なお第2画像を調整対象とする場合は、例えばαを1-αに置き換えることにより、α値の増加に対し出力値を線形に減少させることができる。図7ではα値の離散的な値に対する関数f(Fb)を示しているが、式5を用いれば連続的なα値に対し輝度変換が可能である。ただし関数fの形式はそれに限らない。すなわち調整規則記憶部66には、関数fを式5のようにαとFbの2変数の数式として格納してもよいし、離散的なα値、あるいはその数値範囲ごとに関数f(Fb)を数式あるいはテーブルの形式で格納してもよい。
 なお図7に係る説明および以後の説明では、調整前後の輝度レンジはいずれも0を最小値としているが、実装上、輝度のレンジにオフセットが加算されている場合がある。この場合も、オフセット分を除くことにより同様に考えることができる。またビットコード空間でアルファブレンドを行う実装においては、計算に用いる値は直接輝度を表すものではないが、それを踏まえた適切な関数を設定することで、同様の効果を得ることができる。
 式5の代わりとして、元の画像データを表示に適した輝度に変換するトーンマッピングの技術を応用してもよい。例えばトーンマップとして次のような式を用いる。
 例1:N・Fb/(Fb+M)
 例2:(N・Fb)/((M・Fb/V)+1)
 ここでN、Mは定数としてもよいし、αに依存する関数としてもよい。例えばN=1、M(α)=αとした場合、関数fは次のように表せる。
Figure JPOXMLDOC01-appb-M000002
 あるいは、α=0のときにトーンマップを使用し、0<α<1の範囲では、α=0およびα=1.0のときの調整後の輝度をα値に応じて補間した値としてもよい。すなわち0<α<1において次のような関数fとしてもよい。
 f(α,Fb)=α・f(1.0,Fb)+(1-α)・f(0,Fb)
なおいずれの場合も、トーンマップを利用する際は対象画素の輝度Fbのみならず、周囲の画素の輝度値も利用して調整後の値を求めてよい。また公知のトーンマップとα値に応じた調整とを適宜組み合わせてもよい。さらに、これまで述べたα値をα値の関数に置き換えてもよい。当該関数として、後に述べる関数A(α)を導入してもよい。
 式6においてV=Vp(0)とし、対象画素の第1画像の輝度Fbを10000nit、第2画像の輝度Fbを50nitとすると、第1画像の調整後の輝度は、α=0のとき10000nit、α=0.5のとき196.1nit、α=1.0のとき99.0nitとなる。その結果、アルファブレンド後の輝度Foutは式2により、α=0のとき10000nit、α=0.5のとき123nit、α=1.0のとき50nitとなる。
 またα値のうち使用する範囲(例えばα>0.1)において例2を適用し、α=0においてf(0,Fb)=Fbとした場合、上記の画素合成においてα=0のとき10000nit、α=0.5のとき99.0nit、α=1.0のとき99.0nitとなる。その結果、アルファブレンド後の輝度Foutは式2により、α=0のとき10000nit、α=0.5のとき75nit、α=1.0のとき50nitとなる。
 図8は、輝度を変換する関数fの別の例を示している。図7で示した例は、どのα値でも、元の輝度Fbの全範囲において出力値が線形増加する関数であった。つまり元の輝度Fbを、αで定まる割合で縮小した値を調整後の輝度とした。一方、元の輝度Fbの範囲を分割してなる輝度ブロックごとに調整の有無や関数fを異ならせることが考えられる。
 図8の例では、元の輝度Fbの範囲(0,Fmax)を、しきい値Fthで分割して2つの輝度ブロックを形成している。そして0≦Fb≦Fthの輝度ブロックでは輝度の調整は行わず、Fth<Fb≦Fmaxの輝度ブロックにおいて、図7で示したのと同様にα値によって定まる割合で輝度を縮小している。このときも、関数fの最大値V(α)が図6のような条件を満たすようにすれば、輝度レンジを目標値まで抑え込むことができる。
 このようにすると、重畳しても視認性を妨げないようなSDR程度の範囲の輝度Fbについては元の値を尊重することにより、必要以上の調整を行わないようにできる。なお輝度範囲の分割数は2つに限らない。また輝度ブロックによって調整の有無を切り替えるのみならず、変換規則を定める関数fを切り替えてもよい。例えば後述する別の方式で決定した関数fも導入候補とし、輝度ブロックごとに最適なものを選択してもよい。
 なお異なる方式で決定した関数fを組み合わせる場合は特に、関数fを輝度Fbに対し連続に変化させるように、線形あるいは曲線で補間するための輝度ブロックを設けてもよい。これにより、輝度ブロックの境界近傍で、調整後の輝度に大きな差が生じるのを防ぐことができる。
 図9は、輝度を変換する関数fのさらに別の例を示している。この例では、0<αの範囲において、元の輝度Fbに対する変化を曲線としている。このとき関数fの最大値Vp(α)は、図7で説明したのと同様でよい。そのように最大値Vpをα値に対し決定したうえ、輝度Fbの範囲に対して曲線を決定する。例えばα=1.0のときの関数fを、Vp(1.0)を通るようなガンマ曲線、すなわちべき関数とし、0<α<1.0の範囲では、αが0の時の関数f(Fb)=Fbと当該ガンマ曲線を所定の規則で内挿するような曲線とする。このとき、BT.709やBT.2020など、色空間の変換に想定される規格を踏まえた曲線とすることで、調整後の画像における色の歪みを抑えることができる。
 図10は、輝度を変換する関数fのさらに別の例として、所定値以上の輝度を当該所定値に変換する、すなわち当該所定値を上限として抑え込む(クランプする)方式を示している。このときの関数fは次のように表せる。
 f(α,Fb)=min(Vc(α),Fb)    (式7)
ここでVc(α)は調整後の輝度の上限であり、α値に応じて決定する。図ではα=0、0.5、1.0のときの上限をVc(0)、Vc(0.5)、Vc(1.0)として表している。
 例えばHDRの画像の輝度レンジをSDRの輝度レンジに縮小する場合は、Vc(0)=FH、Vc(1.0)=FSとする。ただし、α=0のときは輝度レンジを調整せず、α=1.0のときはSDRの輝度レンジ以内に収める、という拘束条件を考慮すると、次のような条件で定義してもよい。
 Vc(0)≧FH
 Vc(1.0)≦FS
 そして0≦α≦1の範囲で、上記条件を満たすようにVc(α)を設定する。例えばVc(α)を次のように定義する。
 Vc(α)=Vc(0)-A(α)・(Vc(0)-Vc(1.0))   (式8)
ここでA(α)はA(0)=0、A(1.0)=1.0を満たす単調増加関数である。つまり式7により、Vc(0)およびVc(1.0)をαに依存する重みで加重平均した値がVc(α)となる。このような定義により、α値に応じた上限Vc(α)が定まり、ひいては式7によって、α値に応じた程度での輝度のクランプが可能になる。
 関数A(α)は、実際の画像の内容、合成の目的などに応じて適宜決定する。すなわち関数A(α)は、αの中間的な値において、高輝度の画素をどこまで抑え込むかを決定づける要素であるため、実際に表示される画像の見やすさのほか、α値を徐々に変化させることによって望んだ効果が得られるか、といった観点からも最適化することが望ましい。関数A(α)として、例えば次のような定義が考えられる。
 例1:A(α)=α
 例2:A(α)=α
 例3:A(α)=1-(1-α)
 あるいは、上記例1~3においてαをαの関数B(α)に置き換えてもよい。ただし関数B(α)はB(0)=0、B(1.0)=1.0を満たす単調増加関数である。例えば上記例2の代わりに関数B(α)を用いると、式8は次のように表される。
 Vc(α)=Vc(0)-B(α)・(Vc(0)-Vc(1.0))
 関数B(α)を次のように定義してもよい。
 例4:0≦α≦a1のときB(α)=0
    a1<α≦1.0のとき0から1.0に至る単調増加関数
 例5:0≦α≦a2のとき0から1.0に至る単調増加関数
    a2<α≦1.0のときB(α)=1.0
 上記例4によれば、0≦α≦a1のときはαの変化によって輝度の上限が変化しない調整となる。上記例5によれば、a2<α≦1.0のときはαの変化によって輝度の上限が変化しない調整となる。
 図11は関数B(α)として、上記例3および例4を組み合わせた例を示している。すなわち関数B(α)を次のように定義している。
 例6:0≦α≦a1のときB(α)=0
    a1<α≦a2のとき0から1.0に至る単調増加関数
    a2<α≦1.0のときB(α)=1.0
 例えばa1=0.2、a2=0.5とすると、α≦0.2ではB(α)=0のためA(α)=0となり、Vc(α)=Vc(0)、すなわちクランプが発生しない。α>0.5ではB(α)=1.0のためA(α)=1となり、Vc(α)=Vc(1.0)、すなわち輝度がVc(1.0)にクランプされる。なおa1<α≦a2のときの関数B(α)は一次関数に限定されない。また上述のとおり離散的なα値に対し設定してもよい。
 図12は上記例5の変形例として、a1=a2=aとした場合の関数B(α)を示している。すなわち関数B(α)を次のように定義している。
 例6’:0≦α≦aのとき B(α)=0
    a<α≦1.0のとき B(α)=1.0
このように、関数B(α)自体を不連続に変化させてもよい。
 この場合、式8により
 0≦α≦aのとき Vc(α)=Vc(0)
 a<α≦1.0のとき Vc(α)=Vc(1.0)
となり、α値がaより大きいときにのみ、輝度がVc(1.0)にクランプされる態様が実現される。
 式8において、Vc(0)、Vc(1.0)、A(α)、B(α)を、上記のような候補から様々に組み合わせることにより、状況に応じて輝度の上限を最適化できる。例えば、Vc(0)=FH=10000nit、Vc(1.0)=FS=100nit、関数A(α)として上記例1を採用すると、式7から、α=0.5のときの調整後の輝度の上限Vc(0.5)は5050nitとなる。結果として元の画像の輝度Fbに対する調整後の輝度は次の関数fで決定できる。
 f=min(5050,Fb)
 関数A(α)として上記例1の代わりに例3を採用すると、式8から、α=0.5のときの調整後の輝度の上限Vc(0.5)は2575となる。結果として元の画像の輝度Fbに対する調整後の輝度は次の関数fで決定できる。
 f=min(2575,Fb)
 なおこれまで例示した関数A(α)、B(α)を用いて式8により求められる、調整後の輝度の上限Vc(α)は、図7~9で示した関数の最大値Vp(α)にも適用できる。例えば図12で示した不連続な関数A(α)を用いて式8と同様に最大値Vp(α)を求めると、α値がa以下か否かによって関数fが2つ定義されることになる。
 上述のとおり本実施の形態による輝度レンジの調整は、第1画像や第2画像の全体に適用してもよいし、画像の一部領域のみに適用してもよい。図13は画像の一部に対し輝度レンジを調整する態様を説明するための図である。上段の画像300は、図2で説明したようにゲーム画像などの第1画像に重畳させるべき第2画像を示している。この例で画像300は、「E-mail address」といった文字列表示、それに応じてユーザが文字列を入力する欄、入力を確定させるGUI(Graphical User Interface)などを含む領域302と、その外側の塗り潰し色や模様を含む領域304で構成されている。
 このような画像300を半透明で表示させる場合、領域302については輝度レンジの調整対象とし、領域304は調整対象外とすることが考えられる。このとき画像生成部54は、例えば同図下段に示すように、調整の要否を画素値として表したマスク画像310を生成し、第2画像のデータとともに重畳処理部56に供給する。重畳処理部56の輝度レンジ調整部64は、マスク画像310で指定されている領域のみに輝度レンジ調整を施す。
 これにより、画像の構成に応じて必要な部分のみに調整が行える。結果として、第2画像を半透明で重畳させて表示する、という画像表現上の意図と、情報の見やすさとを両立できる。また詳細な把握を必要としない領域まで輝度レンジを調整し、ゲームなど第1画像で表現されている世界観を必要以上に損なうことを回避できる。なお図13で示したマスク画像は、輝度レンジを調整するか否かを設定する2値画像であったが、階調をより大きくし、関数fやそれを決定づける各種パラメータを、画素ごとに操作するのに用いてもよい。
 以上述べた本実施の形態によれば、複数の画像を重畳させて同時に表示させる画像表現において、少なくとも一方の輝度レンジを調整し、重なり合う画素の輝度に著しい差が生じないようにする。このようにすることで、HDRなど輝度レンジが格段に広い画像を表示する場合も、従来のアルファブレンドの機構をそのまま利用して、バランスのとれた合成が可能になる。
 例えば文字列など、比較的低い輝度で表されることが一般的な画像を、撮影画像やコンピュータグラフィックスによる仮想世界など、高いコントラストでリアルな画像表現が望まれる画像上に半透明合成した場合、後者の画像が支配的になりやすい。そのため文字列などを見やすくするためには、透過度を低くして対応することが考えられるが、そのようにすると本来意図した半透明の効果が損なわれてしまう。本実施の形態によれば、半透明による画像の印象を保ったまま、所望の情報を一見して視認できるようになる。
 また、透過度の設定に用いるα値に応じて調整の度合いを変化させたり、画像平面上で調整の有無や調整手法を切り替えたりすることにより、必要以上の輝度の抑制を回避でき、高いコントラストで表されている画像の世界観を可能な限り保つことができる。輝度調整においては、元の輝度に対して調整後の輝度が一意に定まるような関数を適切に選択することにより、画像の内容や構成、合成の目的に応じた最適な調整を画素単位で行える。高輝度の像が表れるか否か、表れる場合はその位置が、状況によって変化する動画像では特に、このような細かい粒度で調整を制御できるようにすることが有効となる。
 以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 例えば本実施の形態では主に、RGBの3チャンネルの画素値としての輝度のレンジを調整する例を説明したが、レンジを調整する対象はそれに限らず、画像が表す輝度成分であればよい。このため輝度レンジ調整部64はさらに、調整対象の画像に対しレンジ調整のために色空間を変換する処理、および、調整後にアルファブレンドのために色空間を変換する処理、の少なくともどちらかを実施してもよい。例えば元の画像を表すRGBのデータを輝度および色差(YUV)のデータに変換し、そのうち輝度(Y)のレンジを調整したうえでRGBデータに戻し、アルファブレンド処理がなされるようにしてもよい。このようにしても、本実施の形態と同様の効果が得られる。
 8 ネットワーク、 10 情報処理装置、 14 入力装置、 16 表示装置、 23 CPU、 24 GPU、 26 メインメモリ、 50 入力情報取得部、 52 情報処理部、 53 画像データ記憶部、 54 画像生成部、 56 重畳処理部、 58 画像出力部、 60 第1画像取得部、 62 第2画像取得部、 64 輝度レンジ調整部、 66 調整規則記憶部、 68 出力値算出部。
 以上のように本発明は、ゲーム装置、画像処理装置、画像再生装置、パーソナルコンピュータなど各種情報処理装置や、それらのいずれかを含む情報処理システムなどに利用可能である。

Claims (14)

  1.  第1画像のデータを取得する第1画像取得部と、
     前記第1画像上に重畳表示させるべき第2画像のデータを取得する第2画像取得部と、
     前記第1画像および第2画像の少なくともいずれかの輝度レンジを、所定の規則に従い調整する輝度レンジ調整部と、
     輝度レンジが調整された画像のデータを用いてアルファブレンド処理することにより、重畳画像のデータを生成し出力する出力値算出部と、
     を備えたことを特徴とする画像処理装置。
  2.  前記輝度レンジ調整部は、あらかじめ設定された、元の輝度を調整後の輝度に変換する変換規則に従い輝度レンジを調整し、当該変換規則は、アルファブレンド処理のために前記第2画像に設定されたアルファ値に応じて変化することを特徴とする請求項1に記載の画像処理装置。
  3.  前記第1画像を調整するとき、その調整に用いる前記変換規則は、前記アルファ値が大きいほど、調整時の輝度レンジの縮小の度合いを大きくするように変化し、前記第2画像を調整するとき、その調整に用いる前記変換規則は、前記アルファ値が大きいほど、調整時の輝度レンジの縮小の度合いを小さくするように変化することを特徴とする請求項2に記載の画像処理装置。
  4.  前記変換規則は、調整後の輝度の最大値が前記アルファ値の1次関数または2次関数として設定されていることを特徴とする請求項2または3に記載の画像処理装置。
  5.  前記変換規則は、調整前の輝度の1次関数またはべき関数として設定されていることを特徴とする請求項2から4のいずれかに記載の画像処理装置。
  6.  前記変換規則は、調整前の輝度が所定値以上であるとき当該所定値を調整後の輝度とする関数として設定されていることを特徴とする請求項2または3に記載の画像処理装置。
  7.  前記変換規則として、前記所定値は、前記アルファ値の1次関数または2次関数として設定されていることを特徴とする請求項6に記載の画像処理装置。
  8.  前記変換規則として、前記アルファ値に依存する重みで調整前後の輝度レンジの最大値を加重平均した値が前記所定値として決定されることを特徴とする請求項6に記載の画像処理装置。
  9.  前記輝度レンジ調整部は、調整対象の画像のうち、領域によって輝度レンジを調整するか否かを切り替えることを特徴とする請求項1から8のいずれかに記載の画像処理装置。
  10.  前記輝度レンジ調整部は、調整対象の画像のうち、領域によって調整のための規則を切り替えることを特徴とする請求項1から9のいずれかに記載の画像処理装置。
  11.  前記輝度レンジ調整部は、調整前の輝度の範囲を分割してなる輝度ブロックごとに、輝度レンジを調整するか否かを切り替えることを特徴とする請求項1から10のいずれかに記載の画像処理装置。
  12.  前記輝度レンジ調整部は、調整前の輝度の範囲を分割してなる輝度ブロックごとに、調整のための規則を切り替えることを特徴とする請求項1から11のいずれかに記載の画像処理装置。
  13.  第1画像のデータを取得するステップと、
     前記第1画像上に重畳表示させるべき第2画像のデータを取得するステップと、
     前記第1画像および第2画像の少なくともいずれかの輝度レンジを、メモリに格納された所定の規則に従い調整するステップと、
     輝度レンジが調整された画像のデータを用いてアルファブレンド処理することにより、重畳画像のデータを生成し表示装置に出力するステップと、
     を含むことを特徴とする画像処理装置による重畳画像生成方法。
  14.  アルファブレンド処理により重畳画像が生成される複数の画像のデータを供給する機能をコンピュータに実現させるコンピュータプログラムであって、
     第1画像のデータを取得する機能と、
     前記第1画像上に重畳表示させるべき第2画像のデータを取得する機能と、
     前記第1画像および第2画像の少なくともいずれかの輝度レンジを、所定の規則に従い調整したうえ、両者の画像のデータを出力する機能と、
     をコンピュータに実現させることを特徴とするコンピュータプログラム。
PCT/JP2017/005717 2016-06-16 2017-02-16 画像処理装置および重畳画像生成方法 WO2017217011A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018523301A JP6527641B2 (ja) 2016-06-16 2017-02-16 画像処理装置および重畳画像生成方法
EP17812920.1A EP3474539B1 (en) 2016-06-16 2017-02-16 Image processing device, and superimposed image generation method
US16/305,435 US10839499B2 (en) 2016-06-16 2017-02-16 Image processing apparatus and superimposed image generation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-120299 2016-06-16
JP2016120299 2016-06-16

Publications (1)

Publication Number Publication Date
WO2017217011A1 true WO2017217011A1 (ja) 2017-12-21

Family

ID=60664084

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/005717 WO2017217011A1 (ja) 2016-06-16 2017-02-16 画像処理装置および重畳画像生成方法

Country Status (4)

Country Link
US (1) US10839499B2 (ja)
EP (1) EP3474539B1 (ja)
JP (1) JP6527641B2 (ja)
WO (1) WO2017217011A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020213366A1 (ja) * 2019-04-16 2020-10-22 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020024550A (ja) * 2018-08-07 2020-02-13 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7256663B2 (ja) * 2019-03-26 2023-04-12 キヤノン株式会社 画像出力装置およびその制御方法
US11216922B2 (en) * 2019-12-17 2022-01-04 Capital One Services, Llc Systems and methods for recognition of user-provided images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012247873A (ja) * 2011-05-25 2012-12-13 Sony Corp 画像処理装置および方法
JP2013044959A (ja) * 2011-08-24 2013-03-04 Canon Inc 画像表示装置及びその制御方法
JP2015141333A (ja) * 2014-01-29 2015-08-03 キヤノン株式会社 画像処理装置、画像処理方法、表示装置、表示装置の制御方法、及び、プログラム
JP2016058889A (ja) * 2014-09-09 2016-04-21 ハンファテクウィン株式会社Hanwha Techwin Co.,Ltd. 画像処理装置および画像処理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004172792A (ja) * 2002-11-19 2004-06-17 Funai Electric Co Ltd 受信装置
KR100663647B1 (ko) 2005-06-01 2007-01-03 삼성전자주식회사 디스플레이장치 및 그 제어방법
KR101547556B1 (ko) * 2009-02-06 2015-08-26 삼성전자주식회사 이미지 표시 방법 및 장치
KR101633379B1 (ko) 2009-03-16 2016-06-27 삼성전자주식회사 자발광형 디스플레이가 적용된 기기에서 소모 전력을 저감시키기 위한 방법 및 장치
US8416262B2 (en) * 2009-09-16 2013-04-09 Research In Motion Limited Methods and devices for displaying an overlay on a device display screen

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012247873A (ja) * 2011-05-25 2012-12-13 Sony Corp 画像処理装置および方法
JP2013044959A (ja) * 2011-08-24 2013-03-04 Canon Inc 画像表示装置及びその制御方法
JP2015141333A (ja) * 2014-01-29 2015-08-03 キヤノン株式会社 画像処理装置、画像処理方法、表示装置、表示装置の制御方法、及び、プログラム
JP2016058889A (ja) * 2014-09-09 2016-04-21 ハンファテクウィン株式会社Hanwha Techwin Co.,Ltd. 画像処理装置および画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3474539A4 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020213366A1 (ja) * 2019-04-16 2020-10-22 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP2020177086A (ja) * 2019-04-16 2020-10-29 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
CN113678192A (zh) * 2019-04-16 2021-11-19 索尼互动娱乐股份有限公司 图像生成装置和图像生成方法
JP7083319B2 (ja) 2019-04-16 2022-06-10 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
US11749232B2 (en) 2019-04-16 2023-09-05 Sony Interactive Entertainment Inc. Image generation apparatus and image generation method
CN113678192B (zh) * 2019-04-16 2024-03-26 索尼互动娱乐股份有限公司 图像生成装置和图像生成方法

Also Published As

Publication number Publication date
EP3474539B1 (en) 2023-03-29
US20190355107A1 (en) 2019-11-21
JP6527641B2 (ja) 2019-06-05
US10839499B2 (en) 2020-11-17
EP3474539A1 (en) 2019-04-24
EP3474539A4 (en) 2019-12-04
JPWO2017217011A1 (ja) 2018-12-20

Similar Documents

Publication Publication Date Title
US10733963B2 (en) Information processing apparatus and image processing method
US8749712B2 (en) Method for processing on-screen display and associated embedded system
US7903173B2 (en) Moving image display device and method for moving image display
WO2017217011A1 (ja) 画像処理装置および重畳画像生成方法
US8922622B2 (en) Image processing device, image processing method, and program
JP5089783B2 (ja) 画像処理装置及びその制御方法
JP2009094902A (ja) 画像合成装置、画像合成方法、プログラムおよび記録媒体
KR101339785B1 (ko) 분할 영상 처리 장치 및 방법 그리고 제어 인자 계산 장치
JP6739257B2 (ja) 画像処理装置とその制御方法及びプログラム
JP6349355B2 (ja) 画像合成装置、情報処理装置、および画像合成方法
US20170168687A1 (en) Image processing method and apparatus for operating in low-power mode
JP2014126774A (ja) 画像処理装置、画像表示装置、および画像処理方法
CN113678192B (zh) 图像生成装置和图像生成方法
WO2020213367A1 (ja) ディスプレイコントローラおよび画像表示方法
JP2005208126A (ja) 画像処理装置および画像処理方法
KR102214439B1 (ko) 저전력 모드를 위한 영상 처리 방법 및 장치
WO2020166206A1 (ja) 画像処理装置及びプログラム
JP2008283392A (ja) 補間画素生成回路
JP2006127368A (ja) 奥行き値によるガンマ補正機能を備えたグラフィックス描画装置
JP2022511416A (ja) ハイダイナミックレンジディスプレイ用のブレンド層の視認性を改善するための方法及びシステム
JPWO2014167616A1 (ja) 画像処理装置
JP2013186247A (ja) 動画表示装置
JPH08275196A (ja) 画像データ処理装置
KR20130127092A (ko) 3차원 자막 표시 장치 및 그 방법
JP2005310071A (ja) ゲーム装置及びゲームプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018523301

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17812920

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017812920

Country of ref document: EP

Effective date: 20190116