JP5924932B2 - Image processing apparatus and control method thereof - Google Patents
Image processing apparatus and control method thereof Download PDFInfo
- Publication number
- JP5924932B2 JP5924932B2 JP2011286519A JP2011286519A JP5924932B2 JP 5924932 B2 JP5924932 B2 JP 5924932B2 JP 2011286519 A JP2011286519 A JP 2011286519A JP 2011286519 A JP2011286519 A JP 2011286519A JP 5924932 B2 JP5924932 B2 JP 5924932B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- block
- frequency distribution
- eye image
- blocks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、画像処理装置及びその制御方法に関する。 The present invention relates to an image processing apparatus and a control method thereof.
近年、立体映画システムや業務用モニタ、アミューズメント用ゲーム機やCG作成、医療現場等で、観察者から立体的に見える画像(3次元画像、3D画像、立体画像)を表示可能なディスプレイが普及しつつある。従来の非立体的な画像(2次元画像、2D画像)の高画質化技術に関しても立体画像に対応させる必要性が生じている。
立体画像では、左右の眼用に異なる画像(以下、左目に入る画像をL画像、右目に入る画像をR画像とする)を表示することで、視聴者に視差を知覚させ、立体感を生み出している。
In recent years, displays that can display stereoscopic images (three-dimensional images, three-dimensional images, three-dimensional images) from observers have become widespread in stereoscopic movie systems, commercial monitors, amusement game machines, CG creation, medical sites, etc. It's getting on. With respect to conventional techniques for improving the image quality of non-stereoscopic images (two-dimensional images, two-dimensional images), there is a need to correspond to stereoscopic images.
In a stereoscopic image, different images are used for the left and right eyes (hereinafter, an image entering the left eye is referred to as an L image, and an image entering the right eye is referred to as an R image), thereby allowing the viewer to perceive parallax and create a stereoscopic effect. ing.
従来の2D画像に対する高画質化処理では、例えば図11(A)に示すように、ハードウェア(H/W)処理で画像の色や明るさなどの度数分布を取得し、当該度数分布の情報に基づいてファームウェア(F/W)処理で画像のガンマ補正が適応的に行われる。図11(A)の例では、1秒間に60フレームの画像データが入力され、入力から2フレーム(1/30秒)遅延したタイミングで高画質化処理の演算結果が反映された画像データが出力される。 In the conventional high image quality processing for 2D images, for example, as shown in FIG. 11A, a frequency distribution such as image color and brightness is obtained by hardware (H / W) processing, and information on the frequency distribution is obtained. Based on the above, gamma correction of the image is adaptively performed by firmware (F / W) processing. In the example of FIG. 11A, 60 frames of image data are input per second, and image data reflecting the calculation result of the image quality improvement processing is output at a timing delayed by 2 frames (1/30 seconds) from the input. Is done.
入力される立体画像のL画像及びR画像の平均輝度レベル及びダイナミックレンジをそれぞれ個別に取得し、それに基づいてL画像又はR画像に対し画像処理を行ってL画像とR画像の特性を一致させる技術が提案されている(例えば、特許文献1参照)。 The average luminance level and dynamic range of the input L image and R image of the stereoscopic image are individually acquired, and based on this, image processing is performed on the L image or R image to match the characteristics of the L image and R image. A technique has been proposed (see, for example, Patent Document 1).
立体画像の伝送方式に、L画像及びR画像をフレームシーケンシャルで伝送するものがある。図11(B)は、このようなフレームシーケンシャル方式で伝送される立体画像に対し、L画像及びR画像それぞれの度数分布に基づきガンマ補正等の高画質化処理を行う例を示す図である。図11(B)の例では、1秒間にL画像及びR画像それぞれ60フレーム、合わせて120フレームの画像データが入力される。図11(A)の場合と同様、入力から1/30秒遅延したタイミングで高画質化処理後の画像を出力するものとする。すなわち、L画像及びR画像合わせて4フレーム遅延したタイミングで、高画質化処理演算を適用した画像データを出力する。そのためには、例えばL画像1の度数分布1LをH/Wが取得すると、その次のR画像1が入力されるタイミング(1フレーム後)でF/WがL画像1の度数分布1LをH/Wより取得し、当該度数分布1Lを用いて高画質化処理演算を行う。この時、F/Wの処理は、次のL画像2が入力されるタイミング(2フレーム後)より前に完了しなければならない。つまり、高画質化処理演算は1フレームの時間内に行う必要がある。
There is a stereoscopic image transmission method in which an L image and an R image are transmitted in a frame sequential manner. FIG. 11B is a diagram illustrating an example in which high-quality processing such as gamma correction is performed on a stereoscopic image transmitted by such a frame sequential method based on the frequency distribution of each of the L image and the R image. In the example of FIG. 11B, 60 frames of image data for each of the L image and the R image are input per second, for a total of 120 frames. As in the case of FIG. 11A, it is assumed that the image after the image quality enhancement processing is output at a timing delayed by 1/30 second from the input. That is, the image data to which the image quality improvement processing calculation is applied is output at a timing delayed by 4 frames for the L image and the R image. For this purpose, for example, when the H / W acquires the frequency distribution 1L of the
しかし、L画像及びR画像の画素数が図11(A)の2D画像の画素数と同じであるとすると、例えばL画像1の高画質化処理演算に要する時間1302は、図11(A)に示す2D画像の1フレームの画像の高画質化処理演算に要する時間1304と同じである。この場合、図11(B)に示すように、高画質化処理演算に要する時間が1フレームの時
間を超えてしまうことがあり得る。そうすると、図11(B)に示すように、L画像1の高画質化処理演算が次のL画像2の入力タイミングより前に完了しなくなる。そして、高画質化処理演算の開始タイミングが徐々に遅れていき、L画像2の段階で、画像出力タイミングが到来しても高画質化処理演算が完了していない状態(オーバーフロー1303)が生じてしまう。オーバーフローを回避するためには、図11(B)の1フレームの期間(1/120秒)は図11(A)の1フレームの期間(1/60秒)の半分であるから、図11(A)の場合の2倍の処理能力を有する高価なCPUを用いる必要があることになる。
However, if the number of pixels of the L image and the R image is the same as the number of pixels of the 2D image in FIG. 11A, for example, the time 1302 required for the high image quality processing of the
これに対し、図11(C)に示すように、H/WがL画像とR画像の2画像分の度数分布を取得してメモリに書き込み、F/WがメモリからL画像とR画像の2画像分の度数分布の情報を読み込んでL画像とR画像の高画質化演算を行うことが考えられる。この場合、L画像とR画像の高画質化処理演算を2フレーム(1/60秒)の時間内に完了すればオーバーフローを回避できるので、図11(B)の場合よりもCPUへの要求性能を低くできると考えられる。 On the other hand, as shown in FIG. 11C, H / W acquires the frequency distribution for two images of L image and R image and writes them to the memory, and F / W reads the L image and R image from the memory. It is conceivable to read the frequency distribution information for two images and perform a high image quality calculation of the L and R images. In this case, overflow can be avoided if the image quality enhancement processing operation for the L image and the R image is completed within the time of 2 frames (1/60 seconds), so that the required performance to the CPU is higher than in the case of FIG. Can be lowered.
しかしながら、F/WはL画像とR画像の2画像分の度数分布の情報をメモリから読み出す必要があるため、度数分布の情報の読み出しに要する時間はL画像のみ又はR画像のみの1画像分の度数分布を読み出す場合の2倍必要になる。そのため、場合によっては高画質化処理演算が2フレームの時間内に完了しない可能性がある。また、メモリにL画像とR画像の2画像分の度数分布の情報を保存する必要があるため、必要なメモリ容量が増大しコスト増の要因となる。 However, since the F / W needs to read the frequency distribution information for two images of the L image and the R image from the memory, the time required for reading the frequency distribution information is one image of only the L image or only the R image. This is twice as much as when the frequency distribution is read out. Therefore, in some cases, there is a possibility that the image quality improvement processing calculation is not completed within the time of 2 frames. Further, since it is necessary to store the frequency distribution information for two images of the L image and the R image in the memory, the necessary memory capacity increases, which causes an increase in cost.
そこで、本発明は、L画像及びR画像がフレームシーケンシャル方式で入力される立体画像の画像処理において、CPUの性能やメモリの容量を増やすことなくオーバーフローを回避することができる技術を提供することを目的とする。 Therefore, the present invention provides a technique capable of avoiding overflow without increasing CPU performance or memory capacity in image processing of a stereoscopic image in which L images and R images are input in a frame sequential manner. Objective.
本発明は、左目用画像及び右目用画像が交互に連続して入力される入力手段と、
連続して入力される左目用画像及び右目用画像をそれぞれ複数のブロックに分割し、前記左目用画像及び右目用画像の各ブロックの階調毎の度数分布を合算した合算度数分布を各ブロックに対して取得する度数分布取得手段と、
前記左目用画像及び右目用画像のそれぞれに含まれるオブジェクト画像の位置を検出する検出手段と、
前記各ブロックの前記合算度数分布において、度数が、前記オブジェクト画像の位置に応じて決定された閾値を超えるピーク階調に基づき、前記左目用画像及び右目用画像の前記各ブロックに適用するための階調変換関数を決定する決定手段と、
前記左目用画像及び右目用画像の前記各ブロックに、対応する前記階調変換関数を用いて画像処理を施す画像処理手段と、
を備えることを特徴とする画像処理装置である。
The present invention includes an input means for the left eye images and the right-eye image picture are successively input alternately,
The left eye image and the right eye image that are continuously input are each divided into a plurality of blocks, and the frequency distribution for each gradation of each block of the left eye image and the right eye image is added to each block. and the frequency distribution acquisition means that Tokusu taken for,
Detecting means for detecting a position of an object image included in each of the left-eye image and the right-eye image;
Applying the in the sum frequency distribution of each block, the frequency is, the blocks of the basis of the rupees click tone exceeds a threshold determined in accordance with the position of the object image, the left eye image and the right-eye image Determining means for determining a gradation conversion function for
Wherein said each block of the left-eye image and the right-eye image, and facilities to the image processing means the image processing using the gradation conversion function corresponding,
An image processing apparatus comprising:
本発明は、左目用画像及び右目用画像が交互に連続して入力される入力工程と、
連続して入力される左目用画像及び右目用画像をそれぞれ複数のブロックに分割し、前記左目用画像及び右目用画像の各ブロックの階調毎の度数分布を合算した合算度数分布を各ブロックに対して取得する度数分布取得工程と、
前記左目用画像及び前記右目用画像のそれぞれに含まれるオブジェクト画像の位置を検出する検出工程と、
前記各ブロックの前記合算度数分布において、度数が、前記オブジェクト画像の位置に応じて決定された閾値を超えるピーク階調に基づき、前記左目用画像及び右目用画像の前記各ブロックに適用するための階調変換関数を決定する決定工程と、
前記左目用画像及び右目用画像の前記各ブロックに、対応する前記階調変換関数を用いて画像処理を施す画像処理工程と、
を有することを特徴とする画像処理装置の制御方法である。
The present invention includes an input step of left eye image and the right-eye image picture are successively input alternately,
The left eye image and the right eye image that are continuously input are each divided into a plurality of blocks, and the frequency distribution for each gradation of each block of the left eye image and the right eye image is added to each block. and the frequency distribution acquisition step that Tokusu taken for,
A detection step of detecting a position of an object image included in each of the left-eye image and the right-eye image;
Applying the in the sum frequency distribution of each block, the frequency is, the blocks of the basis of the rupees click tone exceeds a threshold determined in accordance with the position of the object image, the left eye image and the right-eye image A determination step of determining a gradation conversion function for
Wherein said each block of the left-eye image and the right-eye image, and facilities to the image processing step the image processing using the gradation conversion function corresponding,
A control method for an image processing apparatus, comprising:
本発明によれば、L画像及びR画像をフレームシーケンシャル方式で入力される立体画像の画像処理において、CPUの性能やメモリの容量を増やすことなくオーバーフローを回避することができる。 According to the present invention, in image processing of a stereoscopic image in which L images and R images are input in a frame sequential manner, overflow can be avoided without increasing CPU performance or memory capacity.
(実施例1)
以下、本発明の実施例1について説明する。
実施例1では、立体画像のL画像及びR画像の度数分布をH/Wで合算して合算度数分布をメモリ(SRAM)に保存し、F/Wが当該合算度数分布に基づいてL画像及びR画像の高画質化処理を行う。これによれば、メモリの容量は1画像分の度数分布の情報を保存するための容量と同等でよく、かつF/Wがメモリから度数分布の情報を読み出すのに要する時間も1画像分の度数分布の情報を読み出すのに要する時間と同等になる。従って、メモリからの度数分布の情報の読み出し時間のために高画質化処理演算に要する時間が長くなることを抑制できる。以下、詳細に説明する。
Example 1
In the first embodiment, the frequency distributions of the L image and the R image of the stereoscopic image are added together by H / W, and the combined frequency distribution is stored in a memory (SRAM), and the F / W is based on the combined frequency distribution. R image quality enhancement processing is performed. According to this, the capacity of the memory may be equal to the capacity for storing the frequency distribution information for one image, and the time required for the F / W to read the frequency distribution information from the memory is also equivalent to one image. This is equivalent to the time required to read the frequency distribution information. Therefore, it is possible to suppress an increase in the time required for the image quality improvement processing calculation due to the time for reading the frequency distribution information from the memory. Details will be described below.
図1は、本実施例に係る画像処理装置100の機能構成を示すブロック図である。本実施例では、図1の入力部101、デコード部102、度数分布取得部103、画像処理部105、メモリ106はH/Wで構成され、高画質化処理演算部104はF/Wにより処理されるものとする。F/Wによる処理は制御部107(CPU)がROM(不図示)等に記憶されたプログラムをRAM(不図示)に読み込み実行することにより行われるソフトウェア処理である。なお、制御部107は、H/W部分を構成する入力部101、デコード部102,度数分布取得部103,画像処理部105,メモリ106の動作を制御する。以下、図1のブロック図を用いて説明する。
FIG. 1 is a block diagram illustrating a functional configuration of the
画像処理装置100は、図示していない外部接続機器等からL画像及びR画像からなる立体画像の画像データを入力する。画像データは入力部101に入力された後、デコード部102にて復号される。復号された画像データは、内部バスを経由し、度数分布取得部103に渡される。画像データは左目用画像データ(L画像データ)と右目用画像データ(R画像データ)とが交互に入力される。
The
度数分布取得部103は、連続して入力されるL画像及びR画像の階調毎の度数分布を取得する。度数分布取得部103は、交互に連続して入力されるL画像及びR画像の画像データから、L画像の度数分布とR画像の度数分布とをそれぞれ取得し、それらを合算した合算度数分布を取得し、合算度数分布の情報をメモリ106に保存する。度数分布取得部103において度数分布の取得が行われたL画像及びR画像の画像データは、画像処理部105へ入力される。
The frequency
高画質化処理演算部104は、度数分布取得部103にて算出された合算度数分布の情報をメモリ106から読み出すことにより取得し、当該合算度数分布を用いて画像を高画質化するための演算処理を行う。例えば、高画質化処理演算部104は、合算度数分布において度数が所定の閾値を超える階調をピーク階調として検出し、検出したピーク階調に基づき、L画像とR画像の入力階調を出力階調に変換するための階調変換関数を決定する。F/Wは演算結果を画像処理部105の有するレジスタに設定することで画像の高画質化処理が実行される。
The image quality improvement
画像処理部105は、高画質化処理演算部104にて演算された高画質化処理演算結果をレジスタから読み出し、当該レジスタ値をもとに、入力されるL画像及びR画像の画像データに対し画像処理を行う。画像処理部105は、画像処理を施したL画像及びR画像の画像データを出力する。出力先は、画像データに基づく画像を表示する液晶表示装置等の画像表示装置、画像データを記憶する記憶装置、画像データに対し他の画像処理を施す画像処理装置等である。
The
図2は、本発明の実施例1における画像処理装置100の高画質化処理を示すフローチャートである。
S201において、デコード部102は、復号して得られた立体画像データのうち、L画像データを度数分布取得部103へ入力する。
S202において、度数分布取得部103は、入力されたL画像データの度数分布を取得する。
S203において、度数分布取得部103は、取得したL画像データの度数分布の情報をメモリ106に保存する。L画像データの度数分布取得処理はS201からS203によって行われる。
FIG. 2 is a flowchart showing image quality improvement processing of the
In step S <b> 201, the
In S202, the frequency
In step S <b> 203, the frequency
次に、S204において、デコード部102は、復号して得られた立体画像のうち、R画像データを度数分布取得部103へ入力する。
S205において、度数分布取得部103は、入力されたR画像データの度数分布を取得する。
S206において、度数分布取得部103は、取得したR画像データの度数分布を、S203にて保存したL画像データの度数分布と合算し、合算度数分布を算出する。
Next, in S <b> 204, the
In S205, the frequency
In S206, the frequency
S207において、度数分布取得部103は、S206にて算出した合算度数分布の情報を、メモリ106に保存する。
S208において、高画質化処理演算部104は、S207にて保存した合算度数分布の情報をメモリ106から読み出し、高画質化処理演算を行う。高画質化処理演算としては、例えば、合算度数分布に基づきγカーブを算出する処理等が挙げられる。
S209において、画像処理部105は、S208における演算結果に基づき、入力される画像データに対し画像処理を行う。これにより入力される画像データに対し適応的な高画質化処理が実行されることになる。
In S <b> 207, the frequency
In S208, the image quality improvement
In step S209, the
図3は、実施例1に係る画像処理の実際の画像への適用例を示した図である。
図3の例では、L画像301及びR画像302は、それぞれ高輝度の背景画像に2つの
低輝度のオブジェクト(物体)の画像が描画される画像である。図3において、度数分布のグラフは横軸が階調、縦軸が各階調における度数を示す。L画像の度数分布303及びR画像の度数分布304では、それぞれ高輝度領域及び低輝度領域に排気絵画像及び物体画像に応じたピークがある。また、L画像の度数分布303とR画像の度数分布304を合算した合算度数分布305にも同様の傾向が見られることがわかる。
FIG. 3 is a diagram illustrating an application example of the image processing according to the first embodiment to an actual image.
In the example of FIG. 3, the
本実施例の画像表示装置では、L画像の度数分布303とR画像の度数分布304を合算した合算度数分布305がメモリに保存され、F/Wが当該合算度数分布305をメモリから読み出し、それに基づきL画像及びR画像の高画質化処理を行う。
In the image display apparatus of this embodiment, a combined
図4は、実施例1における画像処理の流れを概念的に示した図である。図4において横軸は時間を表す。
図4に示すように、本実施例では、立体画像は、L画像及びR画像が1秒間にそれぞれ60フレーム、合わせて120フレームのフレームシーケンシャル方式で画像処理装置100に入力されるものとする。従って、L画像が入力されてから次のR画像が入力されるまでは1/120秒である。本実施例では、画像データが入力されてから4フレーム遅延したタイミング、すなわち入力されてから1/30秒遅延したタイミングで、高画質化処理後の画像データを出力するものとする。H/W処理は、L画像及びR画像の度数分布の取得、合算度数分布の算出、及び合算度数分布のメモリへの保存を行う。F/W処理は、メモリからの合算度数分布の取得、合算度数分布に基づく高画質化処理演算を行う。
FIG. 4 is a diagram conceptually showing a flow of image processing in the first embodiment. In FIG. 4, the horizontal axis represents time.
As shown in FIG. 4, in this embodiment, it is assumed that the stereoscopic image is input to the
図4に示すようにH/WはL画像1の度数分布1Lを取得し、その後入力されるR画像1の度数分布1Rを取得し、それらを合算した合算度数分布1Sの情報をメモリに保存する。F/Wは、次のL画像(L画像2)が入力されるタイミングで、メモリから合算度数分布1Sの情報を読み出し、合算度数分布1Sに基づき高画質化処理演算を行う。このF/Wの処理がオーバーフローしないためには、合算度数分布1Sの情報を読み出すタイミングから次のL画像(L画像3)が入力されるタイミングまでの2フレームの期間(1/60秒)内に高画質化処理演算が完了すればよい。また、F/Wがメモリから合算度数分布1Sの情報を読み出すのに要する時間は、L画像又はR画像の1画像分の度数分布の情報をメモリから読み出すのに要する時間と同等である。従って、本実施例の高画質化処理演算は、図11(A)に示したような2D画像の画像処理を行う場合と同等の負荷であり、かつ同等の時間内に実行完了すればよいため、図11(A)の場合と同等の処理性能のCPUを用いてもオーバーフローを回避できる。
As shown in FIG. 4, the H / W acquires the frequency distribution 1L of the
以上のように画像処理装置100の画像処理を制御することにより、立体画像に対してL画像及びR画像の2画像分の度数分布の情報を取得及び保持するのではなく、L画像及びR画像の度数分布を合算した合算度数分布の情報が取得及び保持される。そして、F/Wが合算度数分布の情報を用いてL画像及びR画像の高画質化処理が行われるので、2D画像の高画質化処理と同等の処理性能のCPU及び容量のメモリの構成でオーバーフローを回避することが可能となる。
By controlling the image processing of the
(実施例2)
実施例2では、画像を複数のブロックに分割し、各ブロックの度数分布に応じて高画質化処理を行う場合について説明する。特に、本実施例では各ブロックの度数分布に応じて階調変換特性を変更する処理(ダイナミックγ処理)について説明する。
(Example 2)
In the second embodiment, a case will be described in which an image is divided into a plurality of blocks and image quality improvement processing is performed according to the frequency distribution of each block. In particular, in this embodiment, a process (dynamic γ process) for changing the gradation conversion characteristics according to the frequency distribution of each block will be described.
実施例1では、L画像及びR画像の度数分布を合算し、得られた合算度数分布に基づき画像の高画質化処理演算を行う方法について説明した。本実施例では、更に、ブロックごとの度数分布のピークを検出しダイナミックγ処理を行う。そのために、本実施例では、度数分布の合算に加えて、例えば図3の物体画像のような、度数分布のピークに影響を与
え得る画像が存在するブロックが、L画像とR画像とで異なるか否かの判定を行う。
In the first embodiment, the method of adding the frequency distributions of the L image and the R image and performing the image quality enhancement processing calculation on the basis of the obtained combined frequency distribution has been described. In the present embodiment, the peak of the frequency distribution for each block is further detected and dynamic γ processing is performed. For this reason, in this embodiment, in addition to the summation of the frequency distributions, for example, the block in which an image that can affect the peak of the frequency distribution, such as the object image in FIG. It is determined whether or not.
図5は、L画像及びR画像において度数分布のピークに影響を与え得る画像の存在するブロックがL画像とR画像とで異なる場合の例を示す図である。
図5の例では、図3と同様、高輝度の背景画像に低輝度の物体A,Bの画像が存在する。また、L画像及びR画像はそれぞれ横3ブロック×縦3ブロックの全9ブロックに分割される。L画像及びR画像それぞれにおける各ブロックに付されている番号(1〜9)は、ブロック分割の識別子を示している。
FIG. 5 is a diagram illustrating an example of a case where a block in which an image that can affect the peak of the frequency distribution in the L image and the R image is different between the L image and the R image.
In the example of FIG. 5, as in FIG. 3, images of low-luminance objects A and B exist in a high-luminance background image. Each of the L image and the R image is divided into a total of 9 blocks of 3 horizontal blocks × 3 vertical blocks. The numbers (1 to 9) given to the respective blocks in the L image and the R image indicate block division identifiers.
図5における物体A、物体Bの画像にはそれぞれ立体的に見えるように視差がついている。そのため、物体の画像の位置によっては、視差のためにL画像とR画像とでその画像の存在するブロックが異なる場合が存在する。図5の例では、物体Aの画像は、視差が小さく、ブロック1の中央部分に位置しているため、L画像及びR画像それぞれで同じブロック1に属している。一方、物体Bの画像は、視差が大きく、ブロック分割の境界付近に位置しているため、L画像ではブロック2に、R画像ではブロック3に属している。
The images of the object A and the object B in FIG. 5 have parallax so that they can be seen stereoscopically. Therefore, depending on the position of the image of the object, there are cases where the blocks in which the image exists are different between the L image and the R image due to parallax. In the example of FIG. 5, the image of the object A has a small parallax and is located at the center portion of the
図5に示す画像の場合に、L画像とR画像の度数分布をブロック毎に合算することを考える。
図6は、図5の例で示したL画像とR画像の度数分布をブロック毎に合算し、当該合算度数分布に基づきダイナミックγ処理で用いる度数分布のピークを見つける処理を概念的に示した図である。度数分布のピークとは、図6の合算度数分布の局所的にピークになった部分(図6の符号601)のことである。本実施例のダイナミックγ処理では閾値(図6の符号602)を設け、閾値以上の度数を持つ階調をピーク階調として検出する。本実施例では、検出されたピーク階調を注目物体の階調(以下、注目階調と呼ぶ)と判断し、注目階調に多くの階調が割り当てられるような階調変換が行われるように動的に階調変換関数であるγカーブを生成する。
In the case of the image shown in FIG. 5, let us consider adding the frequency distribution of the L image and the R image for each block.
FIG. 6 conceptually shows a process of adding the frequency distribution of the L image and the R image shown in the example of FIG. 5 for each block and finding the peak of the frequency distribution used in the dynamic γ processing based on the combined frequency distribution. FIG. The peak of the frequency distribution is a portion (
立体画像の場合、図5の物体Bの画像のように、L画像とR画像の視差のために同一の物体の画像が異なるブロックに存在する場合がある。このような場合に、L画像とR画像の度数分布を合算すると、例えばブロック2の場合、L画像の度数分布には物体Bの画像に対応するピークがあるがR画像の度数分布にはそのピークがない。同様に、ブロック3の場合、R画像の度数分布には物体Bの画像に対応するピークがあるがL画像の度数分布にはそのピークがない。そのため、ブロック2の合算度数分布も、ブロック3の合算度数分布も、物体Bの画像に対応するピークが閾値602を超えなくなり、結果としてピークとして検出されない。これに対し、ピーク検出の閾値を下げることが考えられる。しかし、ピーク検出のための閾値を下げると、特に同一物体の画像がL画像とR画像とで同じブロックに存在する場合に、検出感度が高くなりすぎてピークではない階調をピークと誤検出してしまう可能性がある。
In the case of a stereoscopic image, like the image of the object B in FIG. 5, the image of the same object may exist in different blocks due to the parallax between the L image and the R image. In such a case, the frequency distribution of the L image and the R image is summed up. For example, in the case of the
そこで、本実施例2では、同一物体の画像がL画像とR画像とで異なるブロックに存在していることを検出し、当該物体の画像が属するブロックに関してのみピーク検出のための閾値を既定値よりも下げる処理を行う。これにより、同一の物体の画像がL画像とR画像とで異なるブロックに存在する場合に、いずれのブロックにおいても当該物体の画像に対応する階調をピークとして検出することができる。以下、本実施例2について詳細に説明する。 Therefore, in the second embodiment, it is detected that the same object image exists in different blocks in the L image and the R image, and the threshold value for peak detection is set to a predetermined value only for the block to which the image of the object belongs. Lower the process. Thereby, when the image of the same object exists in different blocks in the L image and the R image, the gradation corresponding to the image of the object can be detected as a peak in any block. Hereinafter, the second embodiment will be described in detail.
図7は、本実施例2に係る画像処理装置700の装置構成を示すブロック図である。本実施例では、入力部701、デコード部702、度数分布取得部703、画像処理部704、視差測定部705、メモリ709はH/Wで構成されるものとする。また、ブロック境界判定部706、ピーク検出部707、高画質化処理演算部708はF/Wにより処理
されるものとする。F/Wによる処理は制御部709(CPU)がROM(不図示)等に記憶されたプログラムをRAM(不図示)に読み込み実行することにより行われるソフトウェア処理である。なお、制御部709は、H/W部分を構成する入力部701、デコード部702、度数分布取得部703、画像処理部704、視差測定部705、メモリ709の動作を制御する。
FIG. 7 is a block diagram illustrating an apparatus configuration of the
画像処理装置700は、図示していない外部接続機器等から画像データを受信する。画像データは入力部701に入力された後、デコード部702にて復号される。復号された画像データは、内部バスを経由し、度数分布取得部703及び視差測定部705に渡される。
The
度数分布取得部703は、連続して入力されるL画像及びR画像の階調毎の度数分布を取得する。度数分布取得部703は、交互に連続して入力されるL画像及びR画像の画像データから、ブロック毎にL画像とR画像の度数分布をそれぞれ取得する。そして、度数分布取得部703は、ブロック毎にL画像とR画像の度数分布を合算して合算度数分布を取得し、合算度数分布の情報を図示しないメモリに保存する。
The frequency
視差測定部705は、デコード部702にてデコードされた立体画像のL画像及びR画像の画像データ同士を比較し、視差を測定する。視差測定部705は、立体画像中のオブジェクトの画像の検出をパターンマッチングやエッジ検出等の公知の手法により行い、オブジェクトの画像毎にL画像における表示位置とR画像における表示位置とから視差を算出する。視差測定部705にて測定した視差量は、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像が存在するか否かを検出するために用いられる。
The
ブロック境界判定部706は、視差測定部705にて測定した視差量に基づき、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像が存在するか否かを判定し、判定結果を後段のピーク検出部707に渡す。
Based on the amount of parallax measured by the
ピーク検出部707は、度数分布取得部703にて取得した合算度数分布の情報と、ブロック境界判定部706による判定結果とに基づいて、度数分布のピーク階調をブロック毎に検出する。本実施例では、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像が存在するブロックについては度数分布のピーク検出の閾値を既定値より下げる。
The
高画質化処理演算部708では、ピーク検出部707にて検出されたピーク階調の情報に基づき、画像を高画質化するための演算処理を行う。F/Wは演算結果を画像処理部704の有するレジスタに設定することで画像の高画質化処理を実行できる。ここでは、高画質化処理演算部708は、ピーク検出部707にて検出したピーク階調に対して多くの階調を割り当てるようなγカーブを適応的に作成する。
The image quality improvement
画像処理部704では、高画質化処理演算部708にて演算された結果をレジスタから読み出し、当該レジスタ値をもとに画像処理(ダイナミックγ処理)を行う。これにより、高画質化処理演算部708が作成したγカーブが画像データに反映される。
The
図8は、実施例2における画像処理装置700の高画質化処理を示すフローチャートである。
S801からS807までの処理は、実施例1の図2におけるS201からS207までの処理と同様なので説明を割愛する。ただし、L画像及びR画像ともにブロックに分割し、S802、S805、S806における度数分布の取得及び合算処理はブロック毎に行われる点については実施例1と異なる。また、度数分布や合算度数分布のメモリ709
への保存もブロック毎に行われる。
FIG. 8 is a flowchart illustrating image quality improvement processing of the
Since the processing from S801 to S807 is the same as the processing from S201 to S207 in FIG. However, the L image and the R image are both divided into blocks, and the frequency distribution acquisition and summing processing in S802, S805, and S806 is performed for each block, which is different from the first embodiment. In addition, a frequency distribution and a combined
Saving is also performed for each block.
S808において、視差測定部705は、立体画像のL画像とR画像の視差を測定する。本実施例では、L画像とR画像の視差をパターンマッチングによって求め、求めた視差をパラメータとして用いて、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像があるか否かを判断する。図9はL画像とR画像のパターンマッチングにより物体の画像毎に視差を測定する例を示した図である。図9(A)に示すように、画像には、図3と同様、高輝度の背景画像に低輝度の物体画像A,Bが存在し、L画像とR画像のパターンマッチングにより、図9(B)に示すように、物体Aの視差PA及び物体Bの視差PBが測定される。
In step S808, the
パターンマッチング自体は立体画像の視差取得の方法として一般的な方法を使用することができる。また、本実施例では、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像を検出できれば良いので、パターンマッチング以外の方法を用いて視差を測定してもよい。また、立体画像の視差量がメタデータとして立体画像データに付与される場合は、当該メタデータから視差量の情報を取得してもよい。 The pattern matching itself can use a general method as a method for acquiring parallax of a stereoscopic image. Further, in this embodiment, it is only necessary to detect images of the same object that are present in different blocks between the L image and the R image. Therefore, the parallax may be measured using a method other than pattern matching. In addition, when the parallax amount of the stereoscopic image is added to the stereoscopic image data as metadata, information on the parallax amount may be acquired from the metadata.
S809において、ブロック境界判定部706は、S808にて測定した視差に基づき、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像があるか否かの判定を行う。パターンマッチングによって物体の画像中の位置とその視差が求められる。この画像中の物体の位置と視差の情報と、各ブロックのサイズ(縦と横のピクセル数)の情報に基づき、その物体の画像がL画像とR画像とで2つのブロックにまたがって(ブロック境界を越えて)存在するか否かを判定することができる。
In step S809, the block
図9(C)は、物体Bの画像がL画像とR画像とで異なるブロック(図9(C)ではブロック2、3)に存在すると判定されたことを示した図である。これらのブロックに関しては、ピーク検出部707は、次のS810のピーク検出の際にピーク検出の閾値を下げる処理を行う。
FIG. 9C is a diagram showing that it is determined that the image of the object B exists in different blocks (
S810において、ピーク検出部707は、S809の判定の結果、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像があると判定されたブロックに対して、ピーク検出の閾値を下げる処理を行う。
一方、S811において、ピーク検出部707は、S809の判定の結果、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像がないと判定されたブロックに対して、デフォルトのピーク検出の閾値(既定値)を用いるよう決定する。
In step S810, the
On the other hand, in step S811, the
図10は、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像があるブロックのピーク検出の閾値を下げた場合のピーク検出結果を示す図である。上記の例では、ブロック2とブロック3に関して、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像が存在するため、図10に示すように、閾値がデフォルトの閾値Aから閾値Bへ下げられている。一方、ブロック1に関しては同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像が存在しないため、デフォルトの閾値Aが用いられる。
FIG. 10 is a diagram illustrating the peak detection result when the peak detection threshold of a block having an image of the same object that is present in different blocks of the L image and the R image is lowered. In the above example, for
これにより、合算度数分布において物体Bの画像に基づくピークがブロック1ほど高くなっていないブロック2とブロック3に関しても、ピーク検出の閾値が下げられることによって、物体Bの画像に基づくピークを注目階調として検出することが可能となる。図10は、ブロック1、2、3いずれにおいても、物体A又は物体Bの画像に基づくピークを注目階調として検出できたことを示している。
As a result, the peak based on the image of the object B is also reduced by reducing the peak detection threshold for the
本実施例では同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像があるブロックについてピーク検出のための閾値を下げる例を説明した。しかし、当該ブロックの度数分布又は合算度数分布の度数を増加させる補正を行い、閾値は全ブロックで共通としても良い。度数を増加させることでピーク検出の閾値を下げなくても、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像があるブロックにおいてピークを検出することが可能となる。 In the present embodiment, the example in which the threshold for peak detection is lowered for blocks having the same object and having images in different blocks in the L image and the R image has been described. However, a correction may be performed to increase the frequency distribution of the block or the combined frequency distribution, and the threshold value may be common to all blocks. By increasing the frequency, it is possible to detect a peak in a block having an image of the same object and existing in different blocks of the L image and the R image without lowering the peak detection threshold.
S812において、ピーク検出部707は、ブロック毎に、S810とS811にて決定したピーク検出閾値を用いて、L画像とR画像の度数分布を合算した合算度数分布のピークを検出する。
S813において、高画質化処理演算部708は、ブロック毎に、S812にて検出されたピークの情報に基づき、当該ピークが存在する階調に対して多くの階調を割り当てるようにγカーブを作成する。
S814において、画像処理部704は、S813にて作成したγカーブを入力された画像データに適用する。
In S812, the
In step S813, the image quality improvement
In step S814, the
以上のように本実施例の画像処理装置700では、ブロック毎にL画像及びR画像の度数分布を合算した合算度数分布を取得し、合算度数分布のうち度数が閾値を超える階調をピーク階調(注目階調)として検出する。そして、ピーク階調近傍に多くの階調が割り当てられるような適応的な階調変換をブロック毎に行う。このとき、立体画像中の同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像があるブロックを検出し、当該ブロックについてはピーク階調を検出するための閾値を下げる処理を行う。これにより、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像があるブロックについても、その画像に基づくピークを検出することが可能となり、視差が大きい立体画像であっても最適なγカーブを適応的に生成し適用することができる。
As described above, the
なお、図5は、物体Bの画像がL画像ではブロック2に存在し、R画像ではブロック3に存在し、L画像とR画像のいずれにおいても物体Bの画像とブロック境界とが重なっていなかったが、図12に示すようにブロック境界と物体画像とが重なる場合も想定される。この場合、L画像とR画像の少なくともいずれかにおいて、物体画像は複数のブロックにまたがって存在している。このような状態では、ブロック境界判定部706は、図8のS809にて、複数のブロックのそれぞれに物体画像がどの程度の割合(面積、画素数の割合)で存在するか検出し、もっとも存在する割合が大きいブロックがL画像とR画像とで異なるか否か判定する。異なる場合に、S810の処理に進み、異ならない場合に、S811の処理に進むようにしても良い。
In FIG. 5, the image of the object B exists in the
物体がブロック境界を越えた場合の各ブロックの閾値の決定方法について図13〜図15を用いて説明する。図13〜図15は、立体視される画像が図12である場合において、それぞれブロック1〜3での閾値の決定方法を説明した図である。
A method for determining the threshold value of each block when the object crosses the block boundary will be described with reference to FIGS. FIGS. 13 to 15 are diagrams illustrating threshold value determination methods in
ブロック1については、図13より、L画像の物体Aは全てブロック1に含まれているが、R画像の物体Aが、ブロック1とブロック2との境界をまたがっている。よって、ブロック1の閾値は、物体Aの画像がブロック1とブロック2との境界からブロック2側へ越えた分だけ下げるように決定される。つまり図13の図から、R画像において物体Aが、ブロック1とブロック2の境界からブロック2側へ越えた距離(はみ出した分)d1ARに対応する値だけ閾値を下げる。ただし、距離d1ARが所定値より小さい場合には、度数分布のピーク値の検出への影響が少ないとして、該距離を閾値の決定(補正)に用いなくてもよい。ブロック2側へ超えた分に対応する値とは、例えば、物体Aの画像のうちブロック2に含まれる部分の画素数とすることができる。或いは、境界に垂直な方向(ブロック1とブロック2との関係では横方向)の距離が大きいほど大きくなるように定めら
れる値とすることができる。以下の説明でも同様である。
As for
次にブロック2について図14を用いて説明する。ブロック2では、L画像の物体Bが隣接するブロック3との境界にまたがり、R画像の物体Aが隣接するブロック1との境界にまたがり、物体Bが隣接するブロック3との境界にまたがっている。この場合、L画像において物体Bが、ブロック2とブロック3との境界からブロック3側へ越えた距離d2BLの分だけ閾値を下げる。ただし、距離d2BLが所定値より小さい場合には、度数分布のピーク値の検出への影響が少ないとして、該距離を閾値の決定に用いなくてもよい。
Next, block 2 will be described with reference to FIG. In
また、R画像において物体Aは、ブロック2とブロック1との境界からブロック1側へ距離d2ARの分だけ越えているものの、物体AはL画像においてはブロック2に含まれていないため、ブロック2にて物体Aのピーク検出をする必要がない。よって、物体AがR画像においてブロック1へはみ出した距離d2ARの分は、ブロック2の閾値決定には用いないものとする。従って、距離d2ARの分はブロック2の閾値に影響しない。R画像において物体Bは、ブロック2とブロック3との境界からブロック3側へ距離d2BRの分だけ越えている。ブロックBはL画像においてもブロック2に含まれるため、距離d2BRの分だけ閾値が下げられる。以上より、ブロック2の閾値は、(d2BL+d2BR)の分だけ下げられる。
In the R image, the object A exceeds the boundary between the
最後に、ブロック3について図15を用いて説明する。ブロック3の場合、物体Bが含まれている量が多いため、物体Bがブロック境界を超えた距離分だけ、ピーク検出閾値を下げる。図15では、物体BはL画像の場合ブロック2側へ距離d3BLの分だけはみ出しており、R画像の場合ブロック2側へ距離d2BRの分だけはみ出している。従って、ピーク検出閾値を(d3BL+d3BR)の分だけ下げられる。
以上によって、図12のように物体の画像がブロック境界にまたがる場合においても実施例2と同様の効果を得ることが可能となる。
上記の実施例の高画質化処理としては、フレーム毎に度数分布に基づいて設定したガンマ補正を行うことを例示できる。また、高画質化処理としては、ガンマ補正に限らず、高解像度化、ノイズ除去、エッジ強調等の処理であっても良いし、これらを組み合わせた画像処理であっても良い。
Finally, block 3 will be described with reference to FIG. In the case of
As described above, even when the object image extends over the block boundary as shown in FIG. 12, it is possible to obtain the same effect as in the second embodiment.
An example of the high image quality processing of the above embodiment is performing gamma correction set based on the frequency distribution for each frame. Further, the image quality enhancement processing is not limited to gamma correction, and may be processing such as high resolution, noise removal, and edge enhancement, or image processing that combines these.
100 立体画像表示装置
101 入力部
103 度数分布取得部
104 高画質化処理演算部
105 画像処理部
DESCRIPTION OF
Claims (7)
連続して入力される左目用画像及び右目用画像をそれぞれ複数のブロックに分割し、前記左目用画像及び右目用画像の各ブロックの階調毎の度数分布を合算した合算度数分布を各ブロックに対して取得する度数分布取得手段と、
前記左目用画像及び右目用画像のそれぞれに含まれるオブジェクト画像の位置を検出する検出手段と、
前記各ブロックの前記合算度数分布において、度数が、前記オブジェクト画像の位置に応じて決定された閾値を超えるピーク階調に基づき、前記左目用画像及び右目用画像の前記各ブロックに適用するための階調変換関数を決定する決定手段と、
前記左目用画像及び右目用画像の前記各ブロックに、対応する前記階調変換関数を用いて画像処理を施す画像処理手段と、
を備えることを特徴とする画像処理装置。 Input means for the left eye image and the right-eye image picture are successively input alternately,
The left eye image and the right eye image that are continuously input are each divided into a plurality of blocks, and the frequency distribution for each gradation of each block of the left eye image and the right eye image is added to each block. and the frequency distribution acquisition means that Tokusu taken for,
Detecting means for detecting a position of an object image included in each of the left-eye image and the right-eye image;
Applying the in the sum frequency distribution of each block, the frequency is, the blocks of the basis of the rupees click tone exceeds a threshold determined in accordance with the position of the object image, the left eye image and the right-eye image Determining means for determining a gradation conversion function for
Wherein said each block of the left-eye image and the right-eye image, and facilities to the image processing means the image processing using the gradation conversion function corresponding,
An image processing apparatus comprising:
前記判定手段が前記第1ブロックと前記第2ブロックとが異なると判定した場合、前記決定手段は、少なくとも前記第1ブロックにおける前記閾値を、前記判定手段が前記第1ブロックと前記第2ブロックとが異ならないと判定した場合より小さくする請求項1に記載の画像処理装置。 Depending on the position of the object image detected by the detection unit, a first block the object picture image in the left eye image is present, and a second block wherein the object image picture in said right eye image exists , but example Bei determining means for determining whether differ,
If the determination means determines that said first block and the second block are different, said determining means, said threshold value in at least the first block, the determining means and the first block and the second block The image processing apparatus according to claim 1, wherein the image processing apparatus is smaller than a case where it is determined that they are not different .
前記判定手段が前記第1ブロックと前記第2ブロックとが異なると判定した場合、前記度数分布取得手段は、少なくとも前記第1ブロックの合算度数分布に対し度数を増加させる補正を行う請求項1に記載の画像処理装置。 Depending on the position of the object image detected by the detection unit, a first block the object picture image in the left eye image is present, and a second block wherein the object image picture in said right eye image exists , but example Bei determining means for determining whether differ,
The said frequency distribution acquisition means performs correction | amendment which makes frequency increase at least with respect to the total frequency distribution of a said 1st block, when the said determination means determines with the said 1st block and the said 2nd block differing. The image processing apparatus described.
前記判定手段は、前記視差取得手段により取得された前記視差と、前記オブジェクト画像の位置と、各ブロックの位置と、に基づき、前記オブジェクト画像が前記左目用画像及び前記右目用画像それぞれにおいて異なるブロックに存在するか否かを判定する請求項2又は3に記載の画像処理装置。 Comprising a parallax acquisition means for acquiring a parallax between the object image picture in said object picture image and the right eye image in the left eye image,
The determination means, the parallax acquired by the parallax acquisition unit, a position of the object image picture, the position of each block, based on said object image image the left eye image and the right-eye image The image processing apparatus according to claim 2 , wherein each of the image processing apparatuses determines whether the blocks are present in different blocks.
連続して入力される左目用画像及び右目用画像をそれぞれ複数のブロックに分割し、前記左目用画像及び右目用画像の各ブロックの階調毎の度数分布を合算した合算度数分布を各ブロックに対して取得する度数分布取得工程と、
前記左目用画像及び前記右目用画像のそれぞれに含まれるオブジェクト画像の位置を検出する検出工程と、
前記各ブロックの前記合算度数分布において、度数が、前記オブジェクト画像の位置に応じて決定された閾値を超えるピーク階調に基づき、前記左目用画像及び右目用画像の前記各ブロックに適用するための階調変換関数を決定する決定工程と、
前記左目用画像及び右目用画像の前記各ブロックに、対応する前記階調変換関数を用いて画像処理を施す画像処理工程と、
を有することを特徴とする画像処理装置の制御方法。 An input step of left eye image and the right-eye image picture are successively input alternately,
The left eye image and the right eye image that are continuously input are each divided into a plurality of blocks, and the frequency distribution for each gradation of each block of the left eye image and the right eye image is added to each block. and the frequency distribution acquisition step that Tokusu taken for,
A detection step of detecting a position of an object image included in each of the left-eye image and the right-eye image;
Applying the in the sum frequency distribution of each block, the frequency is, the blocks of the basis of the rupees click tone exceeds a threshold determined in accordance with the position of the object image, the left eye image and the right-eye image A determination step of determining a gradation conversion function for
Wherein said each block of the left-eye image and the right-eye image, and facilities to the image processing step the image processing using the gradation conversion function corresponding,
A control method for an image processing apparatus, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011286519A JP5924932B2 (en) | 2011-12-27 | 2011-12-27 | Image processing apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011286519A JP5924932B2 (en) | 2011-12-27 | 2011-12-27 | Image processing apparatus and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013135434A JP2013135434A (en) | 2013-07-08 |
JP5924932B2 true JP5924932B2 (en) | 2016-05-25 |
Family
ID=48911820
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011286519A Expired - Fee Related JP5924932B2 (en) | 2011-12-27 | 2011-12-27 | Image processing apparatus and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5924932B2 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5089783B2 (en) * | 2010-04-30 | 2012-12-05 | キヤノン株式会社 | Image processing apparatus and control method thereof |
JP2011250229A (en) * | 2010-05-28 | 2011-12-08 | Sony Corp | Video signal processing apparatus, video signal processing method, and computer program |
-
2011
- 2011-12-27 JP JP2011286519A patent/JP5924932B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013135434A (en) | 2013-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9378583B2 (en) | Apparatus and method for bidirectionally inpainting occlusion area based on predicted volume | |
US9171373B2 (en) | System of image stereo matching | |
US9582928B2 (en) | Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching | |
KR101502362B1 (en) | Apparatus and Method for Image Processing | |
US9014463B2 (en) | System for real-time stereo matching | |
JP6998388B2 (en) | Methods and equipment for processing image property maps | |
US8643677B2 (en) | Image processing apparatus and image processing method, and program therefor | |
US20160112659A1 (en) | Image processing apparatus and image processing method, and program | |
US10115207B2 (en) | Stereoscopic image processing method and apparatus thereof | |
KR20120074925A (en) | Method for filling common hole and 3d video system thereof | |
JP2016038567A (en) | Display device and control method of the same | |
KR102247565B1 (en) | Method and apparatus for redndering | |
CN108431751B (en) | Background removal | |
US8982187B2 (en) | System and method of rendering stereoscopic images | |
US20130279799A1 (en) | Image processing device, image processing method, and image processing program | |
JP2017021759A (en) | Image processor, image processing method and program | |
EP2887310A1 (en) | Method and apparatus for processing light-field image | |
JP2008521081A (en) | Image rendering based on image segmentation | |
US20180232945A1 (en) | Image processing apparatus, image processing system, image processing method, and storage medium | |
KR101373704B1 (en) | Video processing method using adaptive weighted prediction | |
JP5924932B2 (en) | Image processing apparatus and control method thereof | |
JP6740228B2 (en) | Method, apparatus and system for reducing crosstalk in an autostereoscopic display | |
US20120170841A1 (en) | Image processing apparatus and method | |
KR101582578B1 (en) | Apparatus and methdo for processing graphic | |
JP5623156B2 (en) | Image processing apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150709 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150804 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151002 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160419 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5924932 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |