JP6349355B2 - Image composition apparatus, information processing apparatus, and image composition method - Google Patents
Image composition apparatus, information processing apparatus, and image composition method Download PDFInfo
- Publication number
- JP6349355B2 JP6349355B2 JP2016157804A JP2016157804A JP6349355B2 JP 6349355 B2 JP6349355 B2 JP 6349355B2 JP 2016157804 A JP2016157804 A JP 2016157804A JP 2016157804 A JP2016157804 A JP 2016157804A JP 6349355 B2 JP6349355 B2 JP 6349355B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- unit
- luminance
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 55
- 238000000034 method Methods 0.000 title claims description 51
- 239000000203 mixture Substances 0.000 title claims description 50
- 238000006243 chemical reaction Methods 0.000 claims description 44
- 230000008569 process Effects 0.000 claims description 39
- 238000012545 processing Methods 0.000 claims description 39
- 230000015572 biosynthetic process Effects 0.000 claims description 20
- 238000003786 synthesis reaction Methods 0.000 claims description 20
- 238000002156 mixing Methods 0.000 claims description 15
- 230000002194 synthesizing effect Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 3
- 235000019557 luminance Nutrition 0.000 description 89
- 230000006870 function Effects 0.000 description 22
- 230000015654 memory Effects 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Landscapes
- Studio Circuits (AREA)
- Editing Of Facsimile Originals (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Processing (AREA)
Description
本発明は、複数の画像を重畳表示させる画像合成装置、それを含む情報処理装置、および画像合成方法に関する。 The present invention relates to an image composition device that superimposes and displays a plurality of images, an information processing device including the same, and an image composition method.
従来、テレビジョン放送や配信動画などの映像表示において画質を向上させるための様々な技術が開発されてきた。近年では解像度や色域を向上させる技術に加え、輝度のレンジを拡大したHDR(High Dynamic Range)の信号を処理する技術が普及しつつある。従来のSDR(Standard Dynamic Range)と比較し、HDRは輝度の許容範囲が100倍程になるため、太陽光の反射光など実世界で眩しいと感じるような対象を、画像上でもよりリアルに表現することができる。テレビジョン放送や配信動画のみならず、ゲーム画像などコンピュータグラフィクスの世界でも、HDRで表現することによって、仮想世界により臨場感を与えられる。 Conventionally, various techniques for improving the image quality in video display such as television broadcasting and distribution video have been developed. In recent years, in addition to techniques for improving resolution and color gamut, techniques for processing HDR (High Dynamic Range) signals with an expanded luminance range are becoming widespread. Compared to the conventional standard dynamic range (SDR), HDR has an allowable luminance range of about 100 times, so that objects that are dazzling in the real world, such as reflected sunlight, can be expressed more realistically on the image. can do. In the world of computer graphics, such as game images, as well as television broadcasts and distribution videos, the virtual world gives a sense of realism when expressed in HDR.
電子コンテンツの種類に関わらず、メインの画像を表示させている最中にヘルプ画面、コントロールパネル、インジケータなど、操作や表示内容に係る付加的な情報を表示させる場合がある。このような副次的な画像の表示には、装置がコンテンツに共通に提供する基本機能が呼び出され利用されることが多い。この場合、コンテンツ本体を表すメインの画像と仕様が異なり、単純に表示させるのみではコンテンツの世界観が大きく損なわれることがあり得る。メインの画像との融合を図る場合、SDRとHDRのように複数の仕様のそれぞれに合わせて副次的な画像の生成機構を準備するのは効率的でない。 Regardless of the type of electronic content, there are cases where additional information related to operations and display contents, such as a help screen, a control panel, and an indicator, is displayed while the main image is being displayed. In order to display such a secondary image, a basic function commonly provided by the apparatus for content is called and used in many cases. In this case, the specification differs from the main image representing the content main body, and the world view of the content can be greatly impaired by simply displaying it. When integrating with a main image, it is not efficient to prepare a secondary image generation mechanism according to each of a plurality of specifications such as SDR and HDR.
本発明はこうした課題に鑑みてなされたものであり、その目的は、コンテンツの画像の輝度レンジが異なっても、共通の生成機構を用いて別途生成した画像を好適に融合させて表示できる技術を提供することにある。 The present invention has been made in view of these problems, and a purpose of the present invention is to provide a technique capable of suitably fusing and displaying separately generated images using a common generation mechanism even if the luminance range of the content image is different. It is to provide.
本発明のある態様は画像合成装置に関する。この画像合成装置は、第1画像のデータを取得する第1画像データ取得部と、第1画像上に重畳表示させるべき第2画像の各画素値に透過度を示すアルファ値を乗算した重畳用の中間画像のデータを取得する重畳データ取得部と、中間画像から第2画像のデータを取得する第2画像データ取得部と、第2画像のデータが表す輝度値を、第1画像のデータが表す輝度の空間における値に変換するデータ変換部と、変換後の第2画像のデータを用いてアルファブレンド処理を実施することにより、第2画像を第1画像上に重畳させた表示画像のデータを生成し出力する合成処理部と、を備えたことを特徴とする。 One embodiment of the present invention relates to an image composition device. The image composition apparatus includes a first image data acquisition unit that acquires data of a first image, and a superposition that is obtained by multiplying each pixel value of a second image to be superimposed and displayed on the first image by an alpha value that indicates transparency. A superimposition data acquisition unit for acquiring the intermediate image data, a second image data acquisition unit for acquiring the second image data from the intermediate image, and the luminance value represented by the second image data by the first image data Data of a display image obtained by superimposing the second image on the first image by performing an alpha blending process using the data conversion unit that converts the value into a value in the luminance space to be represented and the converted second image data And a synthesis processing unit for generating and outputting the data.
本発明の別の態様は情報処理装置に関する。この情報処理装置は、電子コンテンツを実行し第1画像のデータを生成する画像生成部と、第1画像上に第2画像を重畳表示させる必要が生じたとき、当該第2画像のデータを生成したうえ、各画素値に透過度を示すアルファ値を乗算した重畳用の中間画像のデータを生成する重畳データ生成部と、第1画像のデータと中間画像のデータを取得し、第2画像を第1画像上に重畳させた表示画像のデータを生成する画像合成部と、画像生成部および画像合成部のどちらかから画像のデータを取得し表示装置に出力する画像出力部と、を備え、画像合成部は、中間画像から第2画像のデータを取得する第2画像データ取得部と、第2画像のデータが表す輝度値を、第1画像のデータが表す輝度の空間における値に変換するデータ変換部と、変換後の第2画像のデータを用いてアルファブレンド処理を実施することにより表示画像のデータを生成する合成処理部と、を備えたことを特徴とする。 Another aspect of the present invention relates to an information processing apparatus. The information processing apparatus generates an image generation unit that executes electronic content and generates data of the first image, and generates data of the second image when it is necessary to display the second image superimposed on the first image. In addition, a superimposition data generation unit that generates data for a superimposition intermediate image obtained by multiplying each pixel value by an alpha value indicating transparency, the first image data and the intermediate image data are acquired, and the second image is acquired. An image composition unit that generates display image data superimposed on the first image, and an image output unit that acquires image data from either the image generation unit or the image composition unit and outputs the image data to the display device, The image composition unit converts a luminance value represented by the second image data into a value in the luminance space represented by the first image data, and a second image data obtaining unit that obtains the second image data from the intermediate image. Data converter and after conversion A synthesizing unit which generates data of a display image by performing the alpha blending process using the data of the second image, characterized by comprising a.
本発明の別の態様は画像合成方法に関する。この画像合成方法は画像合成装置が、第1画像のデータを取得するステップと、第1画像上に重畳表示させるべき第2画像の各画素値に透過度を示すアルファ値を乗算した重畳用の中間画像のデータを取得するステップと、中間画像から第2画像のデータを取得するステップと、第2画像のデータが表す輝度値を、第1画像のデータが表す輝度の空間における値に変換するステップと、変換後の第2画像のデータを用いてアルファブレンド処理を実施することにより、第2画像を第1画像上に重畳させた表示画像のデータを生成し、表示装置に出力するステップと、を含むことを特徴とする。 Another embodiment of the present invention relates to an image composition method. In this image composition method, the image composition apparatus obtains the data of the first image, and superimposes obtained by multiplying each pixel value of the second image to be superimposed and displayed on the first image by an alpha value indicating transparency. The step of acquiring the data of the intermediate image, the step of acquiring the data of the second image from the intermediate image, and the luminance value represented by the data of the second image are converted into values in the luminance space represented by the data of the first image. And a step of generating alpha image processing using the converted second image data to generate display image data in which the second image is superimposed on the first image, and outputting the display image data to the display device; , Including.
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。 Note that any combination of the above-described components, and the expression of the present invention converted between a method, an apparatus, a system, a computer program, a recording medium on which the computer program is recorded, and the like are also effective as an aspect of the present invention. .
本発明によると、コンテンツの画像の輝度レンジが異なっても、共通の生成機構を用いて別途生成した画像を好適に融合させて表示できる。 According to the present invention, even if the luminance range of the content image is different, it is possible to display an image that has been separately generated using a common generation mechanism and that is suitably fused.
図1は本実施の形態における情報処理システムの構成例を示す。情報処理システムは、情報処理装置10、入力装置14、表示装置16を含む。図示するように情報処理装置10はインターネットなどのネットワーク8を介して各種コンテンツを提供するサーバ等と接続可能としてもよい。入力装置14はコントローラ、キーボード、マウス、ジョイスティック、タッチパッドなどユーザ操作が可能な一般的な入力装置のほか、ユーザなど実世界を撮影する撮像装置、音声を取得するマイク、各種物理値を検出するセンサや、それらのうちいずれかの組み合わせでもよい。 FIG. 1 shows a configuration example of an information processing system in the present embodiment. The information processing system includes an information processing device 10, an input device 14, and a display device 16. As illustrated, the information processing apparatus 10 may be connectable to a server or the like that provides various contents via a network 8 such as the Internet. The input device 14 detects general physical devices such as a controller, a keyboard, a mouse, a joystick, and a touch pad, an imaging device that captures the real world such as a user, a microphone that acquires sound, and various physical values. A sensor or any combination thereof may be used.
表示装置16は、画像を表示する液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイなどで実現する。さらに音声を出力するスピーカを備えていてもよい。入力装置14および表示装置16は、情報処理装置10に有線ケーブルで接続されてよく、また無線LAN(Local Area Network)などにより無線接続されてもよい。また入力装置14、表示装置16、情報処理装置10の外観形状は図示するものに限らず、例えばそれらのうち2つ以上が一体的に形成されていてもよい。 The display device 16 is realized by a liquid crystal display, a plasma display, an organic EL display, or the like that displays an image. Further, a speaker that outputs sound may be provided. The input device 14 and the display device 16 may be connected to the information processing device 10 by a wired cable, or may be wirelessly connected by a wireless LAN (Local Area Network) or the like. Further, the external shapes of the input device 14, the display device 16, and the information processing device 10 are not limited to those illustrated in the drawings, and for example, two or more of them may be integrally formed.
情報処理装置10は、ユーザ操作に係る信号を入力装置14から受信し、それに応じた処理を実施して表示画像のデータを生成し、表示装置16に出力する。情報処理装置10はゲーム機、パーソナルコンピュータ、タブレット端末、携帯端末、携帯電話などのいずれであってもよい。そのような情報処理装置10の形態や、ユーザが選択したアプリケーションなどに応じて、情報処理装置10が行う処理の内容は様々であってよい。 The information processing apparatus 10 receives a signal related to a user operation from the input device 14, performs processing according to the signal, generates display image data, and outputs the display image data to the display device 16. The information processing apparatus 10 may be a game machine, a personal computer, a tablet terminal, a mobile terminal, a mobile phone, or the like. The contents of the processing performed by the information processing apparatus 10 may vary depending on the form of the information processing apparatus 10 and the application selected by the user.
例えば情報処理装置10は、ユーザが指定した電子ゲームをユーザ操作に応じて進捗させ、そのゲーム画面のデータを所定のフレームレートで生成し出力する。あるいはネットワーク8を介して動画のデータをサーバから取得し、それを逐次復号して出力してもよい。このように情報処理装置10の使用目的は様々であってよく、それに応じて実施する情報処理の内容も異なるため、詳細な説明は省略する。以後、そのような情報処理の結果として生成された画像や、提示すべき情報を表した画像など、複数の画像を重畳表示させる手法に重点を置いて説明する。 For example, the information processing apparatus 10 advances an electronic game designated by the user according to a user operation, and generates and outputs data of the game screen at a predetermined frame rate. Alternatively, moving image data may be acquired from the server via the network 8, and sequentially decoded and output. As described above, the purpose of use of the information processing apparatus 10 may be various, and the content of information processing to be performed differs accordingly. Hereinafter, an explanation will be given with emphasis on a technique for displaying a plurality of images in a superimposed manner, such as an image generated as a result of such information processing or an image representing information to be presented.
図2は、本実施の形態において情報処理装置10が生成する画像を模式的に示している。画像200aは例えばゲームや動画など、主として表示される画像である。画像200bは必要に応じて一時的に表示される画像であり、図示する例はユーザにログインのためのアドレスとパスワードを入力させるダイアログボックスを含む。このようなダイアログボックスを表示させる必要が生じると、情報処理装置10は、元から表示させていた画像200aにダイアログボックスを含む画像200bを重畳させ、表示画像202を生成して出力する。 FIG. 2 schematically shows an image generated by the information processing apparatus 10 in the present embodiment. The image 200a is an image that is mainly displayed, such as a game or a moving image. The image 200b is an image that is temporarily displayed as necessary, and the illustrated example includes a dialog box that allows the user to input an address and a password for login. When such a dialog box needs to be displayed, the information processing apparatus 10 superimposes the image 200b including the dialog box on the image 200a that was originally displayed, and generates and outputs a display image 202.
このときなるべく広い領域で、画像200bを介して画像200aが透けて見えるようにすることで、ゲームや動画など画像200aの世界観が途切れることなく必要な情報を好適に融合させることができる。さらに画像200bの透明度を時間変化させれば、ダイアログボックスが徐々に出現したり消滅したりする演出もできる。 At this time, by making the image 200a visible through the image 200b in as wide a region as possible, necessary information can be suitably fused without interruption of the world view of the image 200a such as a game or a moving image. Furthermore, if the transparency of the image 200b is changed with time, it is possible to produce an effect that the dialog box gradually appears or disappears.
複数の画像を重畳表示させるケースは、図示する例以外にも様々に考えられることは当業者には理解されるところである。例えばレースゲームの場合、ドライバの視野を示す主たる画像に、コース全体を俯瞰した画像を追加で表示することが考えられる。映画を表示させる場合は、あらすじや出演者などの書誌情報を示す画像や、再生、一時停止、早送りなどの操作パネルを付加的に表示することが考えられる。このように状況や表示すべき内容によって、重畳させる位置、面積、期間も様々でよい。以後、画像200aのように重畳時に背後に位置する画像を第1画像、画像200bのように重畳時に前面に位置する画像を第2画像と呼ぶ。ただし3つ以上の画像を重ね合わせて表示しても、以下に述べる原理は同様である。 It should be understood by those skilled in the art that there are various cases in which a plurality of images are superimposed and displayed in addition to the illustrated example. For example, in the case of a racing game, it may be possible to additionally display an image in which the entire course is viewed over the main image showing the driver's field of view. When displaying a movie, it may be possible to additionally display an image indicating bibliographic information such as a synopsis or a performer, or an operation panel such as playback, pause, or fast-forward. As described above, the overlapping position, area, and period may vary depending on the situation and the content to be displayed. Hereinafter, an image located behind the superimposed image 200a is referred to as a first image, and an image 200b located in front of the superimposed image 200b is referred to as a second image. However, even if three or more images are superimposed and displayed, the principle described below is the same.
まず本実施の形態における情報処理装置の特徴を明らかにするため、よりシンプルな構成で表示画像202を生成する態様について述べる。図3は、第1画像と第2画像を合成して表示画像を生成する画像合成装置の機能ブロックを例示している。画像合成装置300は図1で示したような情報処理装置に含まれ、ユーザからの要求などに従い第2画像を重畳表示させる際に機能する。 First, in order to clarify the features of the information processing apparatus according to this embodiment, an aspect in which the display image 202 is generated with a simpler configuration will be described. FIG. 3 illustrates functional blocks of an image composition apparatus that generates a display image by combining the first image and the second image. The image composition apparatus 300 is included in the information processing apparatus as shown in FIG. 1 and functions when the second image is superimposed and displayed according to a request from the user.
画像合成装置300は、第1画像のデータを取得する第1画像データ取得部302、第2画像のデータを取得する重畳データ取得部304、および、第1画像上に第2画像を重畳させて合成する合成部306を含む。上述のとおり第1画像はゲームなど電子コンテンツの主たる画像であり、アプリケーションを実行する機能により別途生成されたり、ネットワーク8を介して外部のサーバから送信されたりする。 The image composition device 300 includes a first image data acquisition unit 302 that acquires data of a first image, a superimposition data acquisition unit 304 that acquires data of a second image, and a second image superimposed on the first image. A combining unit 306 for combining is included. As described above, the first image is a main image of electronic content such as a game, and is separately generated by a function for executing an application or transmitted from an external server via the network 8.
第2画像は例えば、情報処理装置が提供する機能を利用して生成される。合成部306は第1画像データ取得部302および重畳データ取得部304から、第1画像および第2画像のデータをそれぞれ取得し、図2で示したように合成して表示画像を生成し出力する。上述のように透過性を持たせて第2画像を重畳表示させるため、合成部306は次式で表されるアルファブレンド処理により、表示画像の各画素の輝度Foutを決定する。
Fout=(1−α)Fb1+αFb2 (式1)
For example, the second image is generated using a function provided by the information processing apparatus. The synthesizing unit 306 acquires the first image data and the second image data from the first image data acquisition unit 302 and the superimposed data acquisition unit 304, respectively, and generates and outputs a display image by combining them as shown in FIG. . In order to superimpose and display the second image with transparency as described above, the synthesis unit 306 determines the luminance F out of each pixel of the display image by an alpha blend process represented by the following equation.
F out = (1−α) Fb 1 + αFb 2 (Formula 1)
ここでFb1、Fb1はそれぞれ、第1画像、第2画像における当該画素の輝度、αは第2画像の当該画素に設定された一般的なα値、すなわち透過度を示す0以上1.0以下の値である。例えば画像全体においてα値を0から1まで変化させると、第1画像のみが表示されている状態から徐々に第2画像の色が濃くなっていき、最終的に第2画像が不透明に表示されることになる。α値を0より大きく1より小さい中間値とすれば、第2画像がその数値に応じた濃さで半透明の状態となり、第1画像が透けて見えることになる。 Here, Fb 1 and Fb 1 are the luminance of the pixel in the first image and the second image, respectively, and α is a general α value set for the pixel of the second image, that is, 0 or more indicating transparency. The value is 0 or less. For example, when the α value is changed from 0 to 1 in the entire image, the color of the second image gradually becomes darker from the state where only the first image is displayed, and the second image is finally displayed opaquely. Will be. If the α value is an intermediate value larger than 0 and smaller than 1, the second image becomes translucent with a density corresponding to the numerical value, and the first image can be seen through.
なお第1画像、第2画像がRGB画像であれば、輝度Fb1、Fb2は当該3チャンネルのそれぞれに設定されるが、本実施の形態ではそれらを総称して輝度Fb1、Fb2と表す。また輝度Fb1、Fb2およびα値はそれぞれ画素ごとに設定されるため、厳密には画像平面における2次元の位置座標(x,y)に依存するが、式1は同じ位置の画素に係る計算を前提としているため位置座標は示していない。以下の記載も同様である。 If the first image and the second image are RGB images, the luminances Fb 1 and Fb 2 are set for each of the three channels. In the present embodiment, they are collectively referred to as luminances Fb 1 and Fb 2 . Represent. Further, since the luminance values Fb 1 , Fb 2 and α value are set for each pixel, strictly speaking, although it depends on the two-dimensional position coordinates (x, y) on the image plane, Equation 1 relates to the pixels at the same position. Position coordinates are not shown because calculation is assumed. The following description is also the same.
第2画像は当初より第1画像に重畳させることを意図して生成されるため、その見せ方を決定づけるα値とセットで提供される。すなわち重畳データ取得部304は、各画素の輝度Fb2とともにα値も取得し、合成部306に供給する。ここで第2画像とα値がセットで生成されることに鑑みれば、画素ごとに決定したα値を、第2画像の画素値として表される輝度Fb2に乗算しておくと効率がよい。すなわち第2画像が生成される段階でα値を乗算した値αFb2を計算してしまえば、式1の右辺第2項が計算済みとなるため、アルファブレンド処理が実質上、分散される。 Since the second image is generated with the intention of being superimposed on the first image from the beginning, the second image is provided as a set with an α value that determines how the second image is displayed. That is, the superimposition data acquisition unit 304 acquires the α value together with the luminance Fb 2 of each pixel, and supplies it to the synthesis unit 306. Here, considering that the second image and the α value are generated as a set, it is efficient to multiply the α value determined for each pixel by the luminance Fb 2 represented as the pixel value of the second image. . That is, if the value αFb 2 obtained by multiplying the α value is calculated at the stage where the second image is generated, the second term on the right side of Equation 1 is already calculated, so that the alpha blending process is substantially dispersed.
この場合、合成部306は重畳データ取得部304から、乗算値αFb2を画素値とする重畳用の中間画像と、α値を画素値とするα画像を取得する。そしてα画像と第1画像を用いて式1の右辺第1項を算出し、当該中間画像の画素値を加算することにより表示画像の画素値が求められる。このようにすることでアルファブレンド処理を効率化でき、第1画像と第2画像を融合させた表示画像を少ないレイテンシで出力できる。 In this case, the synthesizing unit 306 acquires from the superimposition data acquisition unit 304 an intermediate image for superimposition using the multiplication value αFb 2 as a pixel value and an α image using the α value as a pixel value. Then, the first term on the right side of Equation 1 is calculated using the α image and the first image, and the pixel value of the display image is obtained by adding the pixel value of the intermediate image. By doing so, the alpha blending process can be made more efficient, and a display image obtained by fusing the first image and the second image can be output with less latency.
式1は第1画像のα値を考慮しない計算式であったが、第1画像にも透過度を設定する場合、下式により表示画像の各画素の輝度Foutを計算できる。
αout=(1−α2)α1+α2
Fout=(α1(1−α2)Fb1+α2Fb2 )/ αout (式2)
Expression 1 is a calculation expression that does not consider the α value of the first image. However, when the transparency is also set for the first image, the brightness F out of each pixel of the display image can be calculated by the following expression.
α out = (1−α 2 ) α 1 + α 2
F out = (α 1 (1-α 2 ) Fb 1 + α 2 Fb 2 ) / α out (Formula 2)
ここでα1、α2は、第1画像、第2画像の各画素にそれぞれ設定されたα値である。なお第1画像が不透明のとき、すなわちα1=1のとき、式2は式1で表される。このように各画像のそれぞれにα値が設定されている場合も、α値と輝度値の乗算値、例えばα1Fb1、α2Fb2を画素値とする中間画像のデータをそれぞれ生成しておくことにより、合成部306が実施する式2の計算処理を効率化できる。 Here, α 1 and α 2 are α values respectively set for the pixels of the first image and the second image. When the first image is opaque, that is, when α 1 = 1, Expression 2 is expressed by Expression 1. As described above, even when an α value is set for each image, intermediate image data having a pixel value of a multiplication value of the α value and the luminance value, for example, α 1 Fb 1 and α 2 Fb 2, is generated. By doing so, the calculation process of Formula 2 performed by the synthesis unit 306 can be made more efficient.
これらの構成において、輝度を定義する空間が第1画像と第2画像で異なる場合を考える。例えば第2画像を定常的にSDRで表現している一方、処理するコンテンツがHDRで表現されている場合がこれにあたる。SDRとHDRでは、同じ10bitのデータ値であっても、それが指す輝度の値が異なる。そのため当該データを同等のものとして式1、あるいは式2にそのまま代入することはできず、その前のいずれかの段階で輝度の変換が必要となる。SDRとHDRに限らず、輝度を定義する空間が異なれば、アルファブレンド処理のためにはどちらかの空間に揃える必要がある。 In these configurations, let us consider a case where the space defining the luminance differs between the first image and the second image. For example, this is the case where the second image is constantly expressed in SDR while the content to be processed is expressed in HDR. In SDR and HDR, even if the data value is the same 10 bits, the luminance value indicated by the data value is different. For this reason, the data cannot be substituted as is in Formula 1 or Formula 2 as equivalent, and luminance conversion is required at any stage before that. In addition to SDR and HDR, if the space defining the brightness is different, it is necessary to align with either space for alpha blending processing.
第1画像がHDR、第2画像がSDRのケースでは、第1画像で表現されている、よりリアルな世界観を失うことがないよう、第2画像の輝度を、HDRの空間で表すことが望ましい。しかしながら上述の通り、合成処理の効率を上げるために画像の輝度にα値を乗算した中間画像の状態でデータを取得した場合、輝度の変換が正しくなされないことが考えられる。本実施の形態では、状況に応じた必要最小限の処理の切り替えで輝度の変換を正確に実施できるようにする。これにより、輝度空間の変化も許容しつつ第1画像に第2画像を好適に融合させるとともに、無為に処理効率が低下しないようにする。 In the case where the first image is HDR and the second image is SDR, the brightness of the second image can be expressed in the HDR space so as not to lose the more realistic view of the world expressed in the first image. desirable. However, as described above, when data is acquired in the state of an intermediate image obtained by multiplying the luminance of the image by an α value in order to increase the efficiency of the synthesis process, it is conceivable that the luminance conversion is not correctly performed. In the present embodiment, luminance conversion can be performed accurately with minimum necessary process switching according to the situation. Accordingly, the second image is suitably fused with the first image while allowing a change in the luminance space, and the processing efficiency is not reduced unnecessarily.
図4は情報処理装置10の内部回路構成を示している。情報処理装置10は、CPU(Central Processing Unit)23、GPU(Graphics Processing Unit)24、メインメモリ26を含む。これらの各部は、バス30を介して相互に接続されている。バス30にはさらに入出力インターフェース28が接続されている。入出力インターフェース28には、USBやIEEE1394などの周辺機器インターフェースや、ネットワーク8などへ接続する有線または無線LANのネットワークインターフェースからなる通信部32、ハードディスクドライブや不揮発性メモリなどの記憶部34、表示装置16へデータを出力する出力部36、入力装置14からデータを入力する入力部38、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部40が接続される。 FIG. 4 shows the internal circuit configuration of the information processing apparatus 10. The information processing apparatus 10 includes a CPU (Central Processing Unit) 23, a GPU (Graphics Processing Unit) 24, and a main memory 26. These units are connected to each other via a bus 30. An input / output interface 28 is further connected to the bus 30. The input / output interface 28 includes a communication unit 32 including a peripheral device interface such as USB and IEEE1394, a wired or wireless LAN network interface connected to the network 8, a storage unit 34 such as a hard disk drive or a nonvolatile memory, and a display device. An output unit 36 for outputting data to 16, an input unit 38 for inputting data from the input device 14, and a recording medium driving unit 40 for driving a removable recording medium such as a magnetic disk, an optical disk or a semiconductor memory are connected.
CPU23は、記憶部34に記憶されているオペレーティングシステムを実行することにより情報処理装置10の全体を制御する。CPU23はまた、リムーバブル記録媒体から読み出されてメインメモリ26にロードされた、あるいは通信部32を介してダウンロードされた各種プログラムを実行する。通信部32はまた、ネットワーク8を介してサーバなど外部の装置と通信を確立し、動画像など電子コンテンツのデータを取得したり、情報処理装置10内部で生成されたデータを送信したりしてもよい。 The CPU 23 controls the entire information processing apparatus 10 by executing an operating system stored in the storage unit 34. The CPU 23 also executes various programs read from the removable recording medium and loaded into the main memory 26 or downloaded via the communication unit 32. The communication unit 32 also establishes communication with an external device such as a server via the network 8 to acquire electronic content data such as a moving image or transmit data generated inside the information processing device 10. Also good.
GPU24は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU23からの描画命令に従って描画処理を行い、図示しないフレームバッファに表示画像のデータを格納する。そしてフレームバッファに格納された表示画像をビデオ信号に変換して出力部36に出力する。メインメモリ26はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。 The GPU 24 has a function of a geometry engine and a function of a rendering processor, performs a drawing process according to a drawing command from the CPU 23, and stores display image data in a frame buffer (not shown). The display image stored in the frame buffer is converted into a video signal and output to the output unit 36. The main memory 26 is constituted by a RAM (Random Access Memory), and stores programs and data necessary for processing.
図5は情報処理装置10の機能ブロックの構成を示している。図5に示す各機能ブロックは、ハードウェア的には、図4に示したCPU、GPU、各種メモリ、データバスなどの構成で実現でき、ソフトウェア的には、記録媒体などからメモリにロードした、データ入力機能、データ保持機能、演算機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。 FIG. 5 shows a functional block configuration of the information processing apparatus 10. Each functional block shown in FIG. 5 can be realized in terms of hardware by the configuration of the CPU, GPU, various memories, data bus, etc. shown in FIG. 4, and in terms of software, it is loaded into a memory from a recording medium, It is realized by a program that exhibits various functions such as a data input function, a data holding function, an arithmetic function, an image processing function, and a communication function. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.
情報処理装置10は、入力装置14からの入力情報を取得する入力情報取得部50、ゲームなどユーザ操作に応じた情報処理を行う情報処理部52、第1画像のデータを生成する画像生成部54、第2画像とα値のデータを生成する重畳データ生成部56、第1、第2の画像を合成する画像合成部58、および、表示画像のデータを表示装置16に出力する画像出力部60を含む。 The information processing apparatus 10 includes an input information acquisition unit 50 that acquires input information from the input device 14, an information processing unit 52 that performs information processing according to a user operation such as a game, and an image generation unit 54 that generates data of a first image. A superimposition data generation unit 56 that generates α value data with the second image, an image synthesis unit 58 that combines the first and second images, and an image output unit 60 that outputs display image data to the display device 16. including.
入力情報取得部50は入力部38やCPU23などで実現され、ユーザ操作の内容を示すデータを入力装置14から取得する。ここでユーザ操作とは、実行するアプリケーションや出力するコンテンツの選択、処理の開始/終了、コマンド入力など、一般的な情報処理装置に対しなされるものでよい。このような操作の一つとして、第2画像として表される各種情報の表示要求が含まれる。 The input information acquisition unit 50 is realized by the input unit 38, the CPU 23, and the like, and acquires data indicating the contents of the user operation from the input device 14. Here, the user operation may be performed on a general information processing apparatus, such as selection of an application to be executed or content to be output, start / end of processing, command input, and the like. One of such operations includes a display request for various information represented as a second image.
入力装置14として撮像装置や各種センサを導入する場合、入力情報取得部50は撮影画像やセンサの出力値などのデータを取得してもよい。入力情報取得部50はまた、動画など電子コンテンツのデータをネットワーク8を介してサーバから取得してもよい。入力情報取得部50は取得したデータを、その内容に応じて情報処理部52、重畳データ生成部56に適宜供給する。 When an imaging device or various sensors are introduced as the input device 14, the input information acquisition unit 50 may acquire data such as a captured image and an output value of the sensor. The input information acquisition unit 50 may also acquire electronic content data such as moving images from the server via the network 8. The input information acquisition unit 50 appropriately supplies the acquired data to the information processing unit 52 and the superimposed data generation unit 56 according to the contents.
情報処理部52はCPU23やメインメモリ26などで実現され、入力情報取得部50から供給されたデータに基づきゲームなどの情報処理を実施する。上述のとおり情報処理部52が実施する処理は、画像の表示を伴うものであればその内容は特に限定されない。画像生成部54はGPU24やメインメモリ26などで実現され、情報処理部52からの要求に従い第1画像のデータを生成する。例えば情報処理部52がゲームを実行する場合、画像生成部54はユーザ操作やセンサの出力値などに応じたゲーム画像を所定のフレームレートで描画する。 The information processing unit 52 is realized by the CPU 23, the main memory 26, and the like, and performs information processing such as a game based on data supplied from the input information acquisition unit 50. As described above, the content of the process performed by the information processing unit 52 is not particularly limited as long as it includes image display. The image generation unit 54 is realized by the GPU 24, the main memory 26, and the like, and generates data of the first image according to a request from the information processing unit 52. For example, when the information processing unit 52 executes a game, the image generation unit 54 draws a game image according to a user operation, a sensor output value, or the like at a predetermined frame rate.
あるいは画像生成部54は、情報処理部52が指定した動画のデータを復号、伸張してもよい。動画のデータは情報処理装置10内部で保持していてもよいし、ネットワーク8を介してサーバからストリーム転送されたものや撮像装置がその場で撮影したものなどでもよい。第2画像を重畳させる必要がない期間、画像生成部54は、生成した第1画像のデータを画像出力部60に出力する。第2画像を重畳させる必要がある期間、画像生成部54は生成した第1画像のデータを画像合成部58に出力する。 Alternatively, the image generation unit 54 may decode and expand the moving image data designated by the information processing unit 52. The data of the moving image may be held in the information processing apparatus 10, may be streamed from the server via the network 8, or may be captured on the spot by the imaging apparatus. During a period when it is not necessary to superimpose the second image, the image generation unit 54 outputs the generated first image data to the image output unit 60. During a period in which the second image needs to be superimposed, the image generation unit 54 outputs the generated first image data to the image synthesis unit 58.
重畳データ生成部56はCPU23、GPU24、メインメモリ26などで実現され、必要に応じて第2画像のデータを生成する。第2画像はユーザが呼び出すことにより随時表示されるものでもよいし、ゲームや動画の進捗に応じて情報処理部52が決定したタイミングで表示されるものでもよい。または画面の片隅などに常時表示されるものでもよい。当該画像の生成には、内部で保持する画像データを用いてもよいし、撮像装置やサーバなど外部の装置から入力情報取得部50が取得したデータを用いてもよい。 The superimposed data generation unit 56 is realized by the CPU 23, the GPU 24, the main memory 26, and the like, and generates data of the second image as necessary. The second image may be displayed at any time by being called by the user, or may be displayed at a timing determined by the information processing unit 52 in accordance with the progress of the game or video. Alternatively, it may be displayed constantly at one corner of the screen. For the generation of the image, image data held inside may be used, or data acquired by the input information acquisition unit 50 from an external device such as an imaging device or a server may be used.
また重畳データ生成部56は、第2画像をどのような透過度で表示するかを決定づけるα値を、第2画像に対応づけて画素ごとに決定する。α値を時間変化させることにより、第2画像が徐々に出現したり消滅したりするようにしてもよい。さらに本実施の形態における重畳データ生成部56は上述のとおり、画素ごとに決定したα値を、第2画像の画素値として表される輝度Fb2に乗算することにより、乗算値αFb2を画素値とする重畳用の中間画像を生成しておく。 In addition, the superimposition data generation unit 56 determines, for each pixel, an α value that determines how much the second image is displayed, in association with the second image. The second image may gradually appear or disappear by changing the α value with time. Furthermore, as described above, the superimposition data generation unit 56 in the present embodiment multiplies the luminance value Fb 2 expressed as the pixel value of the second image by the α value determined for each pixel, thereby obtaining the multiplication value αFb 2 as a pixel. An intermediate image for superimposition is generated as a value.
なお第1画像にもα値を設定する場合、画像生成部54は当該画像に設定されたα値、α1を用いた乗算値α1Fb1を、重畳データ生成部56は当該画像に設定されたα値、α2を用いた乗算値α2Fb2を、それぞれ画素値とする中間画像を生成する。ただし以後の説明では、第2画像のα値を単に「α」と表記する。重畳データ生成部56は、生成した重畳用の中間画像のデータと、α値を画素値とするα画像のデータを画像合成部58に出力する。 When the α value is also set in the first image, the image generation unit 54 sets the α value set in the image, the multiplication value α 1 Fb 1 using α 1 , and the superimposition data generation unit 56 sets the image in the image. Then, an intermediate image is generated in which each of the α value and the multiplication value α 2 Fb 2 using α 2 is a pixel value. However, in the following description, the α value of the second image is simply expressed as “α”. The superimposition data generation unit 56 outputs the generated intermediate image data for superimposition and α image data having an α value as a pixel value to the image synthesis unit 58.
画像合成部58はCPU23、GPU24、メインメモリ26などで実現される。図3で示した画像合成装置300と同様、画像合成部58を、2つの画像のデータを重ね合わせて表示画像を出力する画像合成装置として実現してもよい。詳細には画像合成部58は、重畳用のデータを取得する重畳データ取得部62、第1画像のデータを取得する第1画像データ取得部64、輝度を定義する空間を変換する輝度空間変換部66、アルファブレンド処理により表示画像のデータを生成する合成処理部72を含む。 The image composition unit 58 is realized by the CPU 23, the GPU 24, the main memory 26, and the like. Similar to the image synthesizing apparatus 300 shown in FIG. 3, the image synthesizing unit 58 may be realized as an image synthesizing apparatus that superimposes data of two images and outputs a display image. Specifically, the image composition unit 58 includes a superimposition data acquisition unit 62 that acquires data for superimposition, a first image data acquisition unit 64 that acquires data of the first image, and a luminance space conversion unit that converts a space that defines luminance. 66, a synthesis processing unit 72 that generates display image data by alpha blend processing.
重畳データ取得部62は、第2画像の輝度とα値との乗算値αFb2を画素値とする重畳用の中間画像のデータと、α値を画素値とするα画像のデータを、重畳データ生成部56から取得する。第1画像データ取得部64は、第1画像のデータを画像生成部54から取得し合成処理部72に供給する。また第1画像データ取得部64は、データ解析等により特定した第1画像の輝度空間に基づき、第2画像の輝度空間を変換する必要性の有無を判定する。 The superimposition data acquisition unit 62 converts superimposition intermediate image data having a pixel value of the multiplication value αFb 2 of the brightness of the second image and the α value, and α image data having the α value as a pixel value. Obtained from the generation unit 56. The first image data acquisition unit 64 acquires the first image data from the image generation unit 54 and supplies the first image data to the synthesis processing unit 72. The first image data acquisition unit 64 determines whether or not it is necessary to convert the luminance space of the second image based on the luminance space of the first image specified by data analysis or the like.
典型的には、第2画像が定常的にSDRで表現される一方、第1画像がHDRで表現されている場合、第1画像データ取得部64は第2画像の輝度空間を変換する必要があると判定する。ただし輝度を定義する空間が異なれば、SDR/HDRの違いに限らず変換が必要と判定する。第2画像の生成機能が、コンテンツを実行するシステム側でいくらか固定化されている一方、第1画像はコンテンツ側での高い自由度で作成されている場合、往々にしてそのような状況が発生し得る。 Typically, when the second image is steadily expressed in SDR while the first image is expressed in HDR, the first image data acquisition unit 64 needs to convert the luminance space of the second image. Judge that there is. However, if the space for defining the brightness is different, it is determined that conversion is necessary, not limited to the difference in SDR / HDR. Such a situation often occurs when the second image generation function is somewhat fixed on the content execution system side while the first image is created with a high degree of freedom on the content side. Can do.
輝度空間の変換が必要な場合、第1画像データ取得部64は重畳データ取得部62にその旨を通知する。あるいは第1画像データ取得部64が第1画像の輝度空間を通知し、重畳データ取得部62が第1画像、第2画像の双方に鑑み変換の必要性について判定してもよい。重畳データ取得部62は、輝度空間の変換の必要性の有無に応じて、取得したデータの供給先を切り替える。具体的には、輝度空間を変換する必要がない場合、重畳データ取得部62は、取得したデータをそのまま合成処理部72に供給する。輝度空間を変換する必要がある場合、重畳データ取得部62は、取得したデータを輝度空間変換部66に供給する。 When the luminance space needs to be converted, the first image data acquisition unit 64 notifies the superimposed data acquisition unit 62 to that effect. Alternatively, the first image data acquisition unit 64 may notify the luminance space of the first image, and the superimposed data acquisition unit 62 may determine the necessity for conversion in view of both the first image and the second image. The superimposition data acquisition unit 62 switches the supply destination of the acquired data depending on whether or not the luminance space needs to be converted. Specifically, when it is not necessary to convert the luminance space, the superimposed data acquisition unit 62 supplies the acquired data to the synthesis processing unit 72 as it is. When it is necessary to convert the luminance space, the superimposed data acquisition unit 62 supplies the acquired data to the luminance space conversion unit 66.
重畳データ取得部62から直接、データを取得した場合、合成処理部72は当該データと、第1画像データ取得部64から取得した第1画像のデータを、上述の式1または式2に代入して表示画像の画素値を算出する。計算式の一部が計算済みであることにより、アルファブレンド処理を効率化でき、レイテンシを抑えられる。 When data is acquired directly from the superimposition data acquisition unit 62, the composition processing unit 72 substitutes the data and the first image data acquired from the first image data acquisition unit 64 into the above Equation 1 or Equation 2. To calculate the pixel value of the display image. Since a part of the calculation formula has been calculated, the alpha blend process can be made more efficient and the latency can be suppressed.
輝度空間変換部66は、重畳データ取得部62から供給されたデータを用いて、第2画像の輝度空間を変換する。詳細には輝度空間変換部66は、第2画像データ取得部68とデータ変換部70を含む。第2画像データ取得部68は、重畳データ取得部62から供給された、重畳用の中間画像の各画素値を1/α倍することにより、第2画像の輝度Fb2の成分を取得する。データ変換部70はそのようにして得た第2画像の輝度Fb2を、第1画像の輝度空間での値に変換する。 The luminance space conversion unit 66 converts the luminance space of the second image using the data supplied from the superimposed data acquisition unit 62. Specifically, the luminance space conversion unit 66 includes a second image data acquisition unit 68 and a data conversion unit 70. The second image data acquisition unit 68 acquires the component of the brightness Fb 2 of the second image by multiplying each pixel value of the intermediate image for superimposition supplied from the superimposition data acquisition unit 62 by 1 / α. The data converter 70 the luminance Fb 2 of the second image so obtained is converted to a value of a luminance space of the first image.
例えば第1画像の輝度レンジが第2画像の輝度レンジより大きい場合、第2画像の最大輝度が第1画像の最大輝度の1/a(ただしaは1<aを満たす所定値)に位置するように輝度レンジ全体を縮小する。このとき、元の輝度によって縮小割合を変化させるなど適切な変換式を用いることにより、変換前後で画像の印象が変化しないようにすることが望ましい。 For example, when the luminance range of the first image is larger than the luminance range of the second image, the maximum luminance of the second image is located at 1 / a of the maximum luminance of the first image (where a is a predetermined value satisfying 1 <a). Reduce the entire brightness range. At this time, it is desirable to prevent the image impression from changing before and after conversion by using an appropriate conversion formula such as changing the reduction ratio according to the original luminance.
第2画像データ取得部68により第2画像の輝度成分のみを取り出し、変換処理を施すため、従来提案されているような輝度から輝度への空間変換の式をそのまま適用しても、好適な結果を得ることができる。データ変換部70は、そのようにして変換した第2画像のデータとα画像を合成処理部72に供給する。 Since only the luminance component of the second image is extracted by the second image data acquisition unit 68 and subjected to the conversion process, a suitable result can be obtained even if the formula of spatial conversion from luminance to luminance as conventionally proposed is applied as it is. Can be obtained. The data conversion unit 70 supplies the second image data and the α image thus converted to the composition processing unit 72.
輝度空間変換部66からデータを取得した場合、合成処理部72は当該データと、第1画像データ取得部64から取得した第1画像のデータを、上述の式1または式2に代入して表示画像の画素値を算出する。この場合、合成処理部72はまず、第2画像の変換後の輝度にα値を乗算したうえで、計算式に適宜代入することにより表示画像の画素値を算出する。これにより、第1画像の輝度がどのような空間で定義されていても、第2画像の生成処理は変更せずに、本来意図したバランスで好適に両者を融合させることができる。 When the data is acquired from the luminance space conversion unit 66, the composition processing unit 72 displays the data and the first image data acquired from the first image data acquisition unit 64 by substituting the data into the above Equation 1 or Equation 2. The pixel value of the image is calculated. In this case, the composition processing unit 72 first calculates the pixel value of the display image by multiplying the converted luminance of the second image by the α value and appropriately substituting it into the calculation formula. As a result, regardless of the space in which the luminance of the first image is defined, the generation processing of the second image can be suitably fused with the originally intended balance without changing the second image generation processing.
合成処理部72は算出した結果を画像出力部60に出力する。画像出力部60はGPU24、メインメモリ26、出力部36などで実現され、画像生成部54から供給された第1画像のデータ、または画像合成部58から供給された第2画像を重畳した画像のデータを、適切なタイミングで表示装置16に順次出力する。 The composition processing unit 72 outputs the calculated result to the image output unit 60. The image output unit 60 is realized by the GPU 24, the main memory 26, the output unit 36, and the like. The image output unit 60 superimposes the first image data supplied from the image generation unit 54 or the second image supplied from the image composition unit 58. Data is sequentially output to the display device 16 at an appropriate timing.
次に、本実施の形態における輝度空間変換部66が、重畳用の中間画像のデータから第2画像の輝度成分を取得してから変換処理を施す効果について説明する。図6は、中間画像をそのまま変換した場合と、本実施の形態により第2画像の輝度成分を取得してから変換した場合の、表示画像の輝度を比較している。この例では第1画像の輝度Fb1、第2画像の輝度Fb2を両方、HDRの階調で524としている。この場合、例えば式1のアルファブレンド計算によれば、表示画像の輝度を表す出力値Foutはα値によらず524となるはずである。 Next, an effect will be described in which the luminance space conversion unit 66 according to the present embodiment obtains the luminance component of the second image from the intermediate image data for superimposition and then performs the conversion process. FIG. 6 compares the luminance of the display image when the intermediate image is converted as it is and when the luminance component of the second image is acquired and converted according to the present embodiment. In this example, the brightness Fb 1 of the first image and the brightness Fb 2 of the second image are both 524 in HDR gradation. In this case, for example, according to the alpha blend calculation of Equation 1, the output value F out representing the luminance of the display image should be 524 regardless of the α value.
まずグラフ80は、第2画像の輝度Fb2にα値が乗算された状態で変換処理を施した結果である。この場合、変換した結果を式1の右辺第2項とすると、全体として次のような式となる。
Fout=(1−α)Fb1+f(αFb2) (式3)
ここでfは、第2画像の輝度を第1画像の輝度空間で表すための変換用の関数である。関数fが、元の輝度Fb2によらずそれを1/a倍(ただしaは1<aを満たす所定値)するなど単純な線形変換であった場合、式3は次のように置き換えられる。
Fout=(1−α)Fb1+αf(Fb2) (式4)
First, the graph 80 is a result of performing the conversion process in a state where the brightness Fb 2 of the second image is multiplied by the α value. In this case, if the converted result is the second term on the right side of Equation 1, the following equation is obtained as a whole.
F out = (1−α) Fb 1 + f (αFb 2 ) (Formula 3)
Here, f is a function for conversion for expressing the luminance of the second image in the luminance space of the first image. Function f, if (the proviso a predetermined value satisfy 1 <a) 1 / a times it regardless of the original luminance Fb 2 was a simple linear transformation such as, Equation 3 is replaced by: .
F out = (1−α) Fb 1 + αf (Fb 2 ) (Formula 4)
式4は、第2画像の輝度Fb2を関数fで変換したうえで第1画像とアルファブレンドする正規の式に他ならない。一方、関数fを元の輝度Fb2の範囲によって変化させたり、べき関数など所定の曲線としたりする場合、式3は式4のように正しい式には置き換わらない。具体的にはグラフ80で例示されるように、αが0および1.0のときはそれぞれFout=Fb1およびf(Fb2)となるため、出力値Fout=524と正確な値が得られるが、0<α<1.0の範囲では、Foutが524と異なる値となってしまう。 Expression 4 is nothing but a normal expression for alpha blending with the first image after converting the brightness Fb 2 of the second image with the function f. On the other hand, when the function f is changed according to the range of the original luminance Fb 2 or is a predetermined curve such as a power function, the expression 3 is not replaced with a correct expression like the expression 4. Specifically, as illustrated in the graph 80, when α is 0 and 1.0, since F out = Fb 1 and f (Fb 2 ), respectively, an output value F out = 524 and an accurate value are obtained. As a result, F out becomes a value different from 524 in the range of 0 <α <1.0.
これは、式3の右辺第2項において、輝度Fb2に0<α<1.0のα値が乗算されていることにより、関数fの入力値としての見かけ上の輝度が実際より小さくなるためである。例えば輝度Fb2が小さいほど変換処理における縮小の度合いが小さくなるよう、輝度Fb2の増加に対し単調減少する係数k(Fb2)(ただし1/a<k≦1.0、1/aは上述した、元の空間での最大輝度を変換後の空間で表したときの当該空間の最大輝度に対する割合)を用い、
f(Fb2)=k(Fb2)・Fb2 (式5)
なる関数を与えた場合、Fb2の代わりにαFb2が入ることにより係数k(Fb2)が大きくなる。
This is because, in the second term on the right side of Equation 3, the apparent brightness as the input value of the function f becomes smaller than the actual brightness by multiplying the brightness Fb 2 by an α value of 0 <α <1.0. Because. For example, a coefficient k (Fb 2 ) that monotonously decreases with an increase in the luminance Fb 2 so that the smaller the luminance Fb 2 is, the smaller the degree of reduction in the conversion process is (where 1 / a <k ≦ 1.0, 1 / a is Using the above-described ratio of the maximum brightness in the original space to the maximum brightness of the space when expressed in the space after conversion)
f (Fb 2 ) = k (Fb 2 ) · Fb 2 (Formula 5)
If you give made function, the coefficient k (Fb 2) by ArufaFb 2 enters the place of Fb 2 increases.
その効果はα値が小さいほど顕著になる。kの設定によっては輝度Fb2が比較的大きな値にもかかわらず縮小されず、すなわち実質的に変換されずにアルファブレンドの計算に用いられてしまうこともあり得る。グラフ80の例ではそのような効果に起因して、α値が0の近傍になるまで出力値Foutが増加し続け、720程度の極大値となっている。このような場合、例えば第2画像を表示後、フェードアウトするようにα値を0に近づけていっても、第2画像がむしろ濃くなっていき、ある時点で急速に消滅していくような不自然な変化となってしまう。 The effect becomes more remarkable as the α value is smaller. Depending on the setting of k, the brightness Fb 2 may not be reduced despite the relatively large value, that is, it may be used for the calculation of the alpha blend without being substantially converted. In the example of the graph 80, due to such an effect, the output value Fout continues to increase until the α value becomes close to 0, and reaches a maximum value of about 720. In such a case, for example, after the second image is displayed, even if the α value is brought close to 0 so that it fades out, the second image becomes rather dark and does not disappear rapidly at a certain point. It will be a natural change.
一方、本実施の形態によれば、重畳用の中間画像から第2画像の輝度成分を取り出したうえで変換処理を施すため、α値によらず式4が正しく計算され、グラフ82に示すように常に正確な出力値524が得られる。すなわち輝度空間の変換処理にα値の設定が影響することがなくなり、本来意図した表示上の効果を実現できる。また、α値を考慮して特殊な変換関数を導入するといった必要がないため、輝度の空間のみを考慮した様々な関数から適切なものを自由に選択することができる。ひいては、表現上の自由度や輝度空間の対応範囲をより広げることができる。アルファブレンド計算に式2を用いる場合も同様である。 On the other hand, according to the present embodiment, since the luminance component of the second image is extracted from the intermediate image for superimposition and the conversion process is performed, Equation 4 is correctly calculated regardless of the α value, as shown in the graph 82. Therefore, an accurate output value 524 is always obtained. That is, the α value setting does not affect the luminance space conversion process, and the intended display effect can be realized. Further, since it is not necessary to introduce a special conversion function in consideration of the α value, an appropriate one can be freely selected from various functions considering only the luminance space. As a result, the degree of freedom in expression and the corresponding range of the luminance space can be further expanded. The same applies when Expression 2 is used for alpha blend calculation.
次に上記構成によって実現される情報処理装置の動作について説明する。図7は本実施の形態における情報処理装置10が表示画像を生成、出力する処理手順を示すフローチャートである。このフローチャートはユーザが情報処理装置10の電源を入れるなどしてゲームや動画などのコンテンツの選択入力をしたときなどに開始される。このとき、情報処理部52は、選択されたコンテンツに必要な情報処理を実施し、画像生成部54がその画像を第1画像として生成する(S10)。 Next, the operation of the information processing apparatus realized by the above configuration will be described. FIG. 7 is a flowchart showing a processing procedure in which the information processing apparatus 10 according to the present embodiment generates and outputs a display image. This flowchart is started when a user selects and inputs content such as a game or a video by turning on the information processing apparatus 10. At this time, the information processing unit 52 performs information processing necessary for the selected content, and the image generation unit 54 generates the image as a first image (S10).
ここでユーザからの要求やコンテンツとしての設定などにより、各種情報を表す第2画像を表示させる必要が生じなければ(S12のN)、第1画像を表示画像として、画像出力部60が表示装置16へ出力することで当該画像が表示される(S24)。第2画像を表示させる必要が生じたら(S12のY)、重畳データ生成部56は、表示すべき第2画像のデータを生成するとともに、その表示のさせ方を決定づけるα値を画素ごとに決定し、それを画素値とするα画像と、第2画像にα値を乗算した重畳用の中間画像とを生成する(S14)。 Here, if it is not necessary to display the second image representing various information due to a request from the user, setting as content, or the like (N in S12), the image output unit 60 displays the first image as a display image. By outputting to 16, the image is displayed (S24). When it is necessary to display the second image (Y in S12), the superimposed data generation unit 56 generates data of the second image to be displayed and determines an α value that determines how to display the data for each pixel. Then, an α image having the pixel value as the pixel value and an intermediate image for superimposition obtained by multiplying the second image by the α value are generated (S14).
重畳データ生成部56は中間画像とα画像のデータを画像合成部58に供給する。このとき画像生成部54も、第1画像のデータを画像合成部58に供給する。第1画像、第2画像の双方がSDRで表現されているなど、第2画像の輝度空間の変換が必要ない場合(S16のN)、画像合成部58の合成処理部72は、取得したデータをそのまま利用しアルファブレンド処理を実施する(S22)。 The superimposed data generation unit 56 supplies the intermediate image and α image data to the image synthesis unit 58. At this time, the image generation unit 54 also supplies the first image data to the image synthesis unit 58. When conversion of the luminance space of the second image is not necessary, such as when both the first image and the second image are expressed in SDR (N in S16), the composition processing unit 72 of the image composition unit 58 acquires the acquired data. Is used as it is, and an alpha blending process is carried out (S22).
すなわち第1画像データ取得部64から得たデータと重畳データ取得部62から得たデータ(αFb2およびα)を用いて、式1または式2により表示画像のデータを算出する。第2画像がSDRであるのに対し、第1画像がHDRで表現されているなど、輝度空間の変換が必要な場合(S16のY)、重畳データ取得部62は、取得したデータを輝度空間変換部66に供給することにより、第2画像の輝度空間を変換させる。 In other words, the display image data is calculated by Expression 1 or Expression 2 using the data obtained from the first image data acquisition unit 64 and the data (αFb 2 and α) obtained from the superimposed data acquisition unit 62. When conversion of the luminance space is necessary, such as when the first image is expressed in HDR while the second image is SDR (Y in S16), the superimposed data acquisition unit 62 converts the acquired data into the luminance space. By supplying to the conversion unit 66, the luminance space of the second image is converted.
具体的には、まず第2画像データ取得部68が、中間画像の各画素値に1/αを乗算することにより第2画像の輝度Fb2を取得し(S18)、データ変換部70が当該輝度に対し空間変換処理を施す(S20)。そして合成処理部72は、変換後のデータを用いてアルファブレンド処理を実施する(S22)。すなわち第1画像データ取得部64から得たデータと輝度空間変換部66から得たデータ(f(Fb2)およびα)を用いて表示画像のデータを算出する。 Specifically, first, the second image data acquisition unit 68 acquires the luminance Fb 2 of the second image by multiplying each pixel value of the intermediate image by 1 / α (S18), and the data conversion unit 70 A space conversion process is performed on the luminance (S20). Then, the composition processing unit 72 performs alpha blend processing using the converted data (S22). That is, the display image data is calculated using the data obtained from the first image data acquisition unit 64 and the data (f (Fb 2 ) and α) obtained from the luminance space conversion unit 66.
輝度空間を変換したか否かに関わらず、合成処理部72は第1画像、第2画像を合成してなる表示画像のデータを画像出力部60へ順次出力し、画像出力部60が表示装置16へ出力することで当該画像が表示される(S24)。ユーザ操作やコンテンツ終了により処理を終了させる必要がなければ(S26のN)、S10〜S24の処理を画像フレーム単位で繰り返す。 Regardless of whether or not the luminance space has been converted, the composition processing unit 72 sequentially outputs display image data formed by combining the first image and the second image to the image output unit 60, and the image output unit 60 displays the display device. By outputting to 16, the image is displayed (S24). If it is not necessary to terminate the process due to user operation or content termination (N in S26), the processes in S10 to S24 are repeated for each image frame.
これにより表示装置16には、コンテンツで表される輝度空間によらず、必要な期間に付加的な画像をコンテンツのメイン画像に融合させて表示させることができる。なお第2画像が静止画の場合など表示済みの画像フレームから更新する必要がない場合、S14〜S20の処理は適宜省略してよい。また各ステップは画素単位など所定の単位でパイプライン処理してよい。ユーザ操作などにより処理を終了させるタイミングが到来した時点で全ての処理を終了する(S26のY) As a result, the display device 16 can display an additional image combined with the main image of the content during a necessary period regardless of the luminance space represented by the content. If there is no need to update the displayed image frame such as when the second image is a still image, the processes of S14 to S20 may be omitted as appropriate. Each step may be pipelined in a predetermined unit such as a pixel unit. All processes are terminated when the timing for terminating the process is reached by a user operation or the like (Y in S26).
以上述べた本実施の形態によれば、情報表示など付加的な画像を、アルファブレンドによりコンテンツのメイン画像に重畳することにより、双方の画像を融合させて表示する。このとき重畳させる画像については、α値を乗算した重畳用の中間画像を生成しておくことによりアルファブレンド処理を効率化できる。さらに、メイン画像の輝度を定義する空間が重畳させる画像と異なる場合、中間画像から元の画像データに戻す機構を設けておくことにより、メイン画像に合わせた輝度空間へ正しく変換できるようにする。 According to the present embodiment described above, an additional image such as information display is superimposed on the main image of the content by alpha blending, and both images are merged and displayed. For the image to be superimposed at this time, the alpha blending process can be made more efficient by generating an intermediate image for superimposition multiplied by the α value. Further, when the space defining the luminance of the main image is different from the image to be superimposed, a mechanism for returning from the intermediate image to the original image data is provided so that it can be correctly converted into the luminance space matched to the main image.
これにより、変換が必要ないコンテンツでは低いレイテンシで、コンテンツの世界観を大きく損なうことなく付加的な画像を表示できる一方、様々な輝度空間で表されたコンテンツへの対応も可能になる。空間変換を合成処理の直前で実施することにより、画像生成の段階では共通の機構を利用することができ、導入コストを低く抑えられる。また、中間画像から元の画像の輝度成分のみを取りだして変換するため、変換処理とアルファブレンド処理の双方を、互いに影響されることなく正確に行える。結果として双方の処理に対する設定も自由に行える。 As a result, content that does not require conversion can be displayed with low latency and an additional image can be displayed without significantly impairing the world view of the content, while being able to handle content expressed in various luminance spaces. By performing the spatial conversion immediately before the synthesis process, a common mechanism can be used at the image generation stage, and the introduction cost can be kept low. In addition, since only the luminance component of the original image is extracted from the intermediate image and converted, both the conversion process and the alpha blend process can be performed accurately without being influenced by each other. As a result, settings for both processes can be made freely.
以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described based on the embodiments. Those skilled in the art will understand that the above-described embodiment is an exemplification, and that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are also within the scope of the present invention. is there.
例えば本実施の形態では主に、第2画像の輝度にα値を乗算した中間画像を生成する場合について述べたが、それに限らずガンマ補正など、輝度に何らかの演算が施されているデータであれば、画像合成部の機能を同様に適用できる。すなわち輝度空間の変換が必要な場合、画像合成部はまずその逆演算を行うことにより輝度のデータを取得してから変換を実施する。これにより本実施の形態と同様、メイン画像の輝度空間によらず本来意図した重畳画像の表現が可能になるとともに、変換の必要がない環境においては元の処理機構をそのまま活用できる。 For example, in the present embodiment, the case of generating an intermediate image obtained by multiplying the luminance of the second image by the α value has been described. However, the present invention is not limited to this, and may be data that has undergone some calculation on luminance, such as gamma correction. For example, the function of the image composition unit can be similarly applied. That is, when the luminance space needs to be converted, the image composition unit first performs the inverse operation to obtain the luminance data, and then performs the conversion. As in this embodiment, this makes it possible to express the originally intended superimposed image regardless of the luminance space of the main image, and the original processing mechanism can be used as it is in an environment where conversion is not necessary.
また本実施の形態では主に、第1画像がHDRで表現されている場合に、SDRで表現されている第2画像の輝度を、それに合わせて変換する例について説明したが、変換前後の空間はそれに限らない。例えば第1画像がSDR、第2画像がHDRで表現されている場合に第2画像をSDRの空間に変換してもよい。またSDR、HDR以外の空間を対象としてもよい。 In the present embodiment, an example has been described in which, when the first image is expressed in HDR, the luminance of the second image expressed in SDR is converted in accordance with that, the space before and after the conversion is described. Is not limited to that. For example, when the first image is expressed in SDR and the second image is expressed in HDR, the second image may be converted into an SDR space. A space other than SDR and HDR may be targeted.
8 ネットワーク、 10 情報処理装置、 14 入力装置、 16 表示装置、 23 CPU、 24 GPU、 26 メインメモリ、 50 入力情報取得部、 52 情報処理部、 54 画像生成部、 56 重畳データ生成部、 58 画像合成部、 60 画像出力部、 62 重畳データ取得部、 64 第1画像データ取得部、 66 輝度空間変換部、 68 第2画像データ取得部、 70 データ変換部、 72 合成処理部。 8 network, 10 information processing device, 14 input device, 16 display device, 23 CPU, 24 GPU, 26 main memory, 50 input information acquisition unit, 52 information processing unit, 54 image generation unit, 56 superimposed data generation unit, 58 image A synthesis unit, 60 image output unit, 62 superimposition data acquisition unit, 64 first image data acquisition unit, 66 luminance space conversion unit, 68 second image data acquisition unit, 70 data conversion unit, 72 synthesis processing unit.
Claims (8)
重畳表示用に生成された第2画像の各画素値に、アルファブレンド処理の一部として透過度を示すアルファ値を乗算してなる重畳用の中間画像のデータを取得する重畳データ取得部と、
前記中間画像から前記第2画像のデータを取得する第2画像データ取得部と、
前記第2画像のデータが表す輝度値を、前記第1画像のデータが表す輝度の空間における値に変換するデータ変換部と、
変換後の前記第2画像のデータを用いてアルファブレンド処理を実施することにより、前記第2画像を前記第1画像上に重畳させた表示画像のデータを生成し出力する合成処理部と、
を備えたことを特徴とする画像合成装置。 A first image data acquisition unit for acquiring data of the first image;
Each pixel value of the second image generated for superimposed display, the overlay data acquisition unit for acquiring data of the intermediate image for formed by multiplying an alpha value indicating transparency superimposed as part of the alpha blending process,
A second image data acquisition unit for acquiring data of the second image from the intermediate image;
A data conversion unit that converts a luminance value represented by the data of the second image into a value in a luminance space represented by the data of the first image;
A synthesis processing unit that generates and outputs display image data in which the second image is superimposed on the first image by performing alpha blend processing using the converted second image data;
An image composition device comprising:
前記合成処理部は、前記合成処理部から前記中間画像のデータを取得したとき、当該中間画像のデータを用いて残りのアルファブレンド処理を実施することを特徴とする請求項1または2に記載の画像合成装置。 The superimposed data acquisition unit supplies the intermediate image data to the synthesis processing unit when it is not necessary to convert the luminance value represented by the data of the second image,
The said synthetic | combination process part implements the remaining alpha blend processes using the data of the said intermediate image, when the data of the said intermediate image are acquired from the said synthetic | combination process part. Image composition device.
前記第1画像上に重畳用の第2画像を重畳表示させる必要が生じたとき、当該第2画像のデータを生成したうえ、各画素値に透過度を示すアルファ値を乗算した重畳用の中間画像のデータを生成することによりアルファブレンド処理の一部を実施する重畳データ生成部と、
前記第1画像のデータと前記中間画像のデータを取得し、前記第2画像を前記第1画像上に重畳させた表示画像のデータを生成する画像合成部と、
前記画像生成部および前記画像合成部のどちらかから画像のデータを取得し表示装置に出力する画像出力部と、
を備え、前記画像合成部は、
前記中間画像から前記第2画像のデータを取得する第2画像データ取得部と、
前記第2画像のデータが表す輝度値を、前記第1画像のデータが表す輝度の空間における値に変換するデータ変換部と、
変換後の前記第2画像のデータを用いてアルファブレンド処理を実施することにより前記表示画像のデータを生成する合成処理部と、
を備えたことを特徴とする情報処理装置。 An image generation unit that executes electronic content and generates data of the first image;
When necessary to superimpose a second image for superimposing on said first image is generated, after having generated the data of the second image, an intermediate for superimposing multiplied by the alpha value indicating transparency to each pixel value A superimposition data generation unit that performs part of the alpha blending process by generating image data;
An image composition unit that obtains data of the first image and data of the intermediate image, and generates display image data in which the second image is superimposed on the first image;
An image output unit that acquires image data from either the image generation unit or the image synthesis unit and outputs the image data to a display device;
The image composition unit comprises:
A second image data acquisition unit for acquiring data of the second image from the intermediate image;
A data conversion unit that converts a luminance value represented by the data of the second image into a value in a luminance space represented by the data of the first image;
A synthesis processing unit that generates data of the display image by performing an alpha blending process using the data of the second image after conversion;
An information processing apparatus comprising:
重畳表示用に生成された第2画像の各画素値に、アルファブレンド処理の一部として透過度を示すアルファ値を乗算してなる重畳用の中間画像のデータを取得するステップと、
前記中間画像から前記第2画像のデータを取得するステップと、
前記第2画像のデータが表す輝度値を、前記第1画像のデータが表す輝度の空間における値に変換するステップと、
変換後の前記第2画像のデータを用いてアルファブレンド処理を実施することにより、前記第2画像を前記第1画像上に重畳させた表示画像のデータを生成し、表示装置に出力するステップと、
を含むことを特徴とする画像合成装置による画像合成方法。 Obtaining data of a first image;
Each pixel value of the second image generated for superimposed display, acquiring data of the intermediate image for formed by multiplying an alpha value indicating transparency superimposed as part of the alpha blending process,
Obtaining data of the second image from the intermediate image;
Converting the luminance value represented by the data of the second image into a value in the luminance space represented by the data of the first image;
Performing alpha blending using the converted second image data to generate display image data in which the second image is superimposed on the first image, and outputting the display image data to a display device; ,
An image composition method by an image composition apparatus characterized by comprising:
重畳表示用に生成された第2画像の各画素値に、アルファブレンド処理の一部として透過度を示すアルファ値を乗算してなる重畳用の中間画像のデータを取得する機能と、
前記中間画像から前記第2画像のデータを取得する機能と、
前記第2画像のデータが表す輝度値を、前記第1画像のデータが表す輝度の空間における値に変換する機能と、
変換後の前記第2画像のデータを用いてアルファブレンド処理を実施することにより、前記第2画像を前記第1画像上に重畳させた表示画像のデータを生成し出力する機能と、
をコンピュータに実現させることを特徴とするコンピュータプログラム。 A function of acquiring data of the first image;
Each pixel value of the second image generated for superimposed display, the function of acquiring the data of the intermediate image for superimposition obtained by multiplying an alpha value indicating transparency as part of the alpha blending process,
A function of acquiring data of the second image from the intermediate image;
A function of converting a luminance value represented by the data of the second image into a value in a luminance space represented by the data of the first image;
A function of generating and outputting display image data in which the second image is superimposed on the first image by performing alpha blend processing using the converted second image data;
A computer program for causing a computer to realize the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016157804A JP6349355B2 (en) | 2016-08-10 | 2016-08-10 | Image composition apparatus, information processing apparatus, and image composition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016157804A JP6349355B2 (en) | 2016-08-10 | 2016-08-10 | Image composition apparatus, information processing apparatus, and image composition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018025996A JP2018025996A (en) | 2018-02-15 |
JP6349355B2 true JP6349355B2 (en) | 2018-06-27 |
Family
ID=61193929
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016157804A Active JP6349355B2 (en) | 2016-08-10 | 2016-08-10 | Image composition apparatus, information processing apparatus, and image composition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6349355B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7083319B2 (en) * | 2019-04-16 | 2022-06-10 | 株式会社ソニー・インタラクティブエンタテインメント | Image generator and image generation method |
US11488349B2 (en) | 2019-06-28 | 2022-11-01 | Ati Technologies Ulc | Method and apparatus for alpha blending images from different color formats |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007066268A (en) * | 2005-09-02 | 2007-03-15 | Sony Corp | Image processor, method, and program |
JP4971483B2 (en) * | 2010-05-14 | 2012-07-11 | 任天堂株式会社 | Image display program, image display apparatus, image display system, and image display method |
JP6381215B2 (en) * | 2014-01-29 | 2018-08-29 | キヤノン株式会社 | Image processing apparatus, image processing method, display apparatus, display apparatus control method, and program |
-
2016
- 2016-08-10 JP JP2016157804A patent/JP6349355B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018025996A (en) | 2018-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6855205B2 (en) | Information processing equipment and image processing method | |
US8749712B2 (en) | Method for processing on-screen display and associated embedded system | |
US8922622B2 (en) | Image processing device, image processing method, and program | |
JP2008300980A (en) | Image processor and image processing method | |
JP6527641B2 (en) | Image processing apparatus and superimposed image generation method | |
JP2015226164A (en) | Image processing apparatus and program | |
JP6349355B2 (en) | Image composition apparatus, information processing apparatus, and image composition method | |
WO2008020506A1 (en) | Image display control device, image display method, and information storage medium | |
JP2019087844A (en) | Image processing apparatus, display apparatus, and image processing method | |
JP6739257B2 (en) | Image processing apparatus, control method thereof, and program | |
JP2010152518A (en) | Image processor and image processing method | |
JP6821269B2 (en) | Image processing device and image processing method | |
JP2008077371A (en) | Image processor, method for controlling image processor and program | |
JP2014126774A (en) | Image processor, image display device and image processing method | |
JP2006303631A (en) | On-screen display device and on-screen display generation method | |
JP2006301029A (en) | On-screen display apparatus and on-screen display creating method | |
WO2020213366A1 (en) | Image generation device and image generation method | |
JP5669456B2 (en) | Image display apparatus and control method thereof | |
WO2020213367A1 (en) | Display controller, and image display method | |
JP2001204962A (en) | Recording medium having image displaying program recorded thereon, method of displaying image, and game apparatus | |
JP2012244258A (en) | Electronic apparatus, method of controlling the same, and control program for the same | |
JP4563070B2 (en) | GAME DEVICE AND GAME PROGRAM | |
JPH1175054A (en) | Method and device for synthesizing image and information processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180309 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180508 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180604 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6349355 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |