JP5924932B2 - Image processing apparatus and control method thereof - Google Patents

Image processing apparatus and control method thereof Download PDF

Info

Publication number
JP5924932B2
JP5924932B2 JP2011286519A JP2011286519A JP5924932B2 JP 5924932 B2 JP5924932 B2 JP 5924932B2 JP 2011286519 A JP2011286519 A JP 2011286519A JP 2011286519 A JP2011286519 A JP 2011286519A JP 5924932 B2 JP5924932 B2 JP 5924932B2
Authority
JP
Japan
Prior art keywords
image
block
frequency distribution
eye image
blocks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011286519A
Other languages
Japanese (ja)
Other versions
JP2013135434A (en
Inventor
知寛 高見
知寛 高見
鈴木 康夫
康夫 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011286519A priority Critical patent/JP5924932B2/en
Publication of JP2013135434A publication Critical patent/JP2013135434A/en
Application granted granted Critical
Publication of JP5924932B2 publication Critical patent/JP5924932B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置及びその制御方法に関する。   The present invention relates to an image processing apparatus and a control method thereof.

近年、立体映画システムや業務用モニタ、アミューズメント用ゲーム機やCG作成、医療現場等で、観察者から立体的に見える画像(3次元画像、3D画像、立体画像)を表示可能なディスプレイが普及しつつある。従来の非立体的な画像(2次元画像、2D画像)の高画質化技術に関しても立体画像に対応させる必要性が生じている。
立体画像では、左右の眼用に異なる画像(以下、左目に入る画像をL画像、右目に入る画像をR画像とする)を表示することで、視聴者に視差を知覚させ、立体感を生み出している。
In recent years, displays that can display stereoscopic images (three-dimensional images, three-dimensional images, three-dimensional images) from observers have become widespread in stereoscopic movie systems, commercial monitors, amusement game machines, CG creation, medical sites, etc. It's getting on. With respect to conventional techniques for improving the image quality of non-stereoscopic images (two-dimensional images, two-dimensional images), there is a need to correspond to stereoscopic images.
In a stereoscopic image, different images are used for the left and right eyes (hereinafter, an image entering the left eye is referred to as an L image, and an image entering the right eye is referred to as an R image), thereby allowing the viewer to perceive parallax and create a stereoscopic effect. ing.

従来の2D画像に対する高画質化処理では、例えば図11(A)に示すように、ハードウェア(H/W)処理で画像の色や明るさなどの度数分布を取得し、当該度数分布の情報に基づいてファームウェア(F/W)処理で画像のガンマ補正が適応的に行われる。図11(A)の例では、1秒間に60フレームの画像データが入力され、入力から2フレーム(1/30秒)遅延したタイミングで高画質化処理の演算結果が反映された画像データが出力される。   In the conventional high image quality processing for 2D images, for example, as shown in FIG. 11A, a frequency distribution such as image color and brightness is obtained by hardware (H / W) processing, and information on the frequency distribution is obtained. Based on the above, gamma correction of the image is adaptively performed by firmware (F / W) processing. In the example of FIG. 11A, 60 frames of image data are input per second, and image data reflecting the calculation result of the image quality improvement processing is output at a timing delayed by 2 frames (1/30 seconds) from the input. Is done.

入力される立体画像のL画像及びR画像の平均輝度レベル及びダイナミックレンジをそれぞれ個別に取得し、それに基づいてL画像又はR画像に対し画像処理を行ってL画像とR画像の特性を一致させる技術が提案されている(例えば、特許文献1参照)。   The average luminance level and dynamic range of the input L image and R image of the stereoscopic image are individually acquired, and based on this, image processing is performed on the L image or R image to match the characteristics of the L image and R image. A technique has been proposed (see, for example, Patent Document 1).

特開平2−058993号公報Japanese Patent Laid-Open No. 2-058933

立体画像の伝送方式に、L画像及びR画像をフレームシーケンシャルで伝送するものがある。図11(B)は、このようなフレームシーケンシャル方式で伝送される立体画像に対し、L画像及びR画像それぞれの度数分布に基づきガンマ補正等の高画質化処理を行う例を示す図である。図11(B)の例では、1秒間にL画像及びR画像それぞれ60フレーム、合わせて120フレームの画像データが入力される。図11(A)の場合と同様、入力から1/30秒遅延したタイミングで高画質化処理後の画像を出力するものとする。すなわち、L画像及びR画像合わせて4フレーム遅延したタイミングで、高画質化処理演算を適用した画像データを出力する。そのためには、例えばL画像1の度数分布1LをH/Wが取得すると、その次のR画像1が入力されるタイミング(1フレーム後)でF/WがL画像1の度数分布1LをH/Wより取得し、当該度数分布1Lを用いて高画質化処理演算を行う。この時、F/Wの処理は、次のL画像2が入力されるタイミング(2フレーム後)より前に完了しなければならない。つまり、高画質化処理演算は1フレームの時間内に行う必要がある。   There is a stereoscopic image transmission method in which an L image and an R image are transmitted in a frame sequential manner. FIG. 11B is a diagram illustrating an example in which high-quality processing such as gamma correction is performed on a stereoscopic image transmitted by such a frame sequential method based on the frequency distribution of each of the L image and the R image. In the example of FIG. 11B, 60 frames of image data for each of the L image and the R image are input per second, for a total of 120 frames. As in the case of FIG. 11A, it is assumed that the image after the image quality enhancement processing is output at a timing delayed by 1/30 second from the input. That is, the image data to which the image quality improvement processing calculation is applied is output at a timing delayed by 4 frames for the L image and the R image. For this purpose, for example, when the H / W acquires the frequency distribution 1L of the L image 1, the F / W sets the frequency distribution 1L of the L image 1 to H at the timing (after one frame) when the next R image 1 is input. / W and the image quality enhancement processing calculation is performed using the frequency distribution 1L. At this time, the F / W processing must be completed before the next L image 2 is input (after two frames). That is, it is necessary to perform the image quality improvement processing calculation within the time of one frame.

しかし、L画像及びR画像の画素数が図11(A)の2D画像の画素数と同じであるとすると、例えばL画像1の高画質化処理演算に要する時間1302は、図11(A)に示す2D画像の1フレームの画像の高画質化処理演算に要する時間1304と同じである。この場合、図11(B)に示すように、高画質化処理演算に要する時間が1フレームの時
間を超えてしまうことがあり得る。そうすると、図11(B)に示すように、L画像1の高画質化処理演算が次のL画像2の入力タイミングより前に完了しなくなる。そして、高画質化処理演算の開始タイミングが徐々に遅れていき、L画像2の段階で、画像出力タイミングが到来しても高画質化処理演算が完了していない状態(オーバーフロー1303)が生じてしまう。オーバーフローを回避するためには、図11(B)の1フレームの期間(1/120秒)は図11(A)の1フレームの期間(1/60秒)の半分であるから、図11(A)の場合の2倍の処理能力を有する高価なCPUを用いる必要があることになる。
However, if the number of pixels of the L image and the R image is the same as the number of pixels of the 2D image in FIG. 11A, for example, the time 1302 required for the high image quality processing of the L image 1 is as shown in FIG. This is the same as the time 1304 required for the high image quality processing calculation of the image of one frame of the 2D image shown in FIG. In this case, as shown in FIG. 11B, the time required for the image quality improvement processing calculation may exceed the time of one frame. Then, as shown in FIG. 11B, the image quality enhancement processing calculation of the L image 1 is not completed before the input timing of the next L image 2. Then, the start timing of the image quality improvement processing calculation is gradually delayed, and at the stage of the L image 2, there is a state (overflow 1303) in which the image quality improvement processing operation is not completed even when the image output timing arrives. End up. In order to avoid overflow, the period of 1 frame (1/120 seconds) in FIG. 11B is half of the period of 1 frame (1/60 seconds) in FIG. Therefore, it is necessary to use an expensive CPU having a processing capacity twice that in the case of A).

これに対し、図11(C)に示すように、H/WがL画像とR画像の2画像分の度数分布を取得してメモリに書き込み、F/WがメモリからL画像とR画像の2画像分の度数分布の情報を読み込んでL画像とR画像の高画質化演算を行うことが考えられる。この場合、L画像とR画像の高画質化処理演算を2フレーム(1/60秒)の時間内に完了すればオーバーフローを回避できるので、図11(B)の場合よりもCPUへの要求性能を低くできると考えられる。   On the other hand, as shown in FIG. 11C, H / W acquires the frequency distribution for two images of L image and R image and writes them to the memory, and F / W reads the L image and R image from the memory. It is conceivable to read the frequency distribution information for two images and perform a high image quality calculation of the L and R images. In this case, overflow can be avoided if the image quality enhancement processing operation for the L image and the R image is completed within the time of 2 frames (1/60 seconds), so that the required performance to the CPU is higher than in the case of FIG. Can be lowered.

しかしながら、F/WはL画像とR画像の2画像分の度数分布の情報をメモリから読み出す必要があるため、度数分布の情報の読み出しに要する時間はL画像のみ又はR画像のみの1画像分の度数分布を読み出す場合の2倍必要になる。そのため、場合によっては高画質化処理演算が2フレームの時間内に完了しない可能性がある。また、メモリにL画像とR画像の2画像分の度数分布の情報を保存する必要があるため、必要なメモリ容量が増大しコスト増の要因となる。   However, since the F / W needs to read the frequency distribution information for two images of the L image and the R image from the memory, the time required for reading the frequency distribution information is one image of only the L image or only the R image. This is twice as much as when the frequency distribution is read out. Therefore, in some cases, there is a possibility that the image quality improvement processing calculation is not completed within the time of 2 frames. Further, since it is necessary to store the frequency distribution information for two images of the L image and the R image in the memory, the necessary memory capacity increases, which causes an increase in cost.

そこで、本発明は、L画像及びR画像がフレームシーケンシャル方式で入力される立体画像の画像処理において、CPUの性能やメモリの容量を増やすことなくオーバーフローを回避することができる技術を提供することを目的とする。   Therefore, the present invention provides a technique capable of avoiding overflow without increasing CPU performance or memory capacity in image processing of a stereoscopic image in which L images and R images are input in a frame sequential manner. Objective.

本発明は、目用画像及び右目用画像が交互に連続して入力される入力手段と、
連続して入力される左目用画像及び右目用画像をそれぞれ複数のブロックに分割し、前記左目用画像及び右目用画像の各ブロックの階調毎の度数分布を合算した合算度数分布を各ブロックに対して得する度数分布取得手段と、
前記左目用画像及び右目用画像のそれぞれに含まれるオブジェクト画像の位置を検出する検出手段と、
前記各ブロックの前記合算度数分布において度数が、前記オブジェクト画像の位置に応じて決定された閾値を超えるピーク階調に基づき、前記左目用画像及び右目用画像の前記各ブロックに適用するための階調変換関数を決定する決定手段と、
前記左目用画像及び右目用画像の前記各ブロックに、対応する前記階調変換関数を用いて画像処理を施画像処理手段と、
を備えることを特徴とする画像処理装置である。
The present invention includes an input means for the left eye images and the right-eye image picture are successively input alternately,
The left eye image and the right eye image that are continuously input are each divided into a plurality of blocks, and the frequency distribution for each gradation of each block of the left eye image and the right eye image is added to each block. and the frequency distribution acquisition means that Tokusu taken for,
Detecting means for detecting a position of an object image included in each of the left-eye image and the right-eye image;
Applying the in the sum frequency distribution of each block, the frequency is, the blocks of the basis of the rupees click tone exceeds a threshold determined in accordance with the position of the object image, the left eye image and the right-eye image Determining means for determining a gradation conversion function for
Wherein said each block of the left-eye image and the right-eye image, and facilities to the image processing means the image processing using the gradation conversion function corresponding,
An image processing apparatus comprising:

本発明は、目用画像及び右目用画像が交互に連続して入力される入力工程と、
連続して入力される左目用画像及び右目用画像をそれぞれ複数のブロックに分割し、前記左目用画像及び右目用画像の各ブロックの階調毎の度数分布を合算した合算度数分布を各ブロックに対して得する度数分布取得工程と、
前記左目用画像及び前記右目用画像のそれぞれに含まれるオブジェクト画像の位置を検出する検出工程と、
前記各ブロックの前記合算度数分布において度数が、前記オブジェクト画像の位置に応じて決定された閾値を超えるピーク階調に基づき、前記左目用画像及び右目用画像の前記各ブロックに適用するための階調変換関数を決定する決定工程と、
前記左目用画像及び右目用画像の前記各ブロックに、対応する前記階調変換関数を用いて画像処理を施画像処理工程と、
有することを特徴とする画像処理装置の制御方法である。
The present invention includes an input step of left eye image and the right-eye image picture are successively input alternately,
The left eye image and the right eye image that are continuously input are each divided into a plurality of blocks, and the frequency distribution for each gradation of each block of the left eye image and the right eye image is added to each block. and the frequency distribution acquisition step that Tokusu taken for,
A detection step of detecting a position of an object image included in each of the left-eye image and the right-eye image;
Applying the in the sum frequency distribution of each block, the frequency is, the blocks of the basis of the rupees click tone exceeds a threshold determined in accordance with the position of the object image, the left eye image and the right-eye image A determination step of determining a gradation conversion function for
Wherein said each block of the left-eye image and the right-eye image, and facilities to the image processing step the image processing using the gradation conversion function corresponding,
A control method for an image processing apparatus, comprising:

本発明によれば、L画像及びR画像をフレームシーケンシャル方式で入力される立体画像の画像処理において、CPUの性能やメモリの容量を増やすことなくオーバーフローを回避することができる。   According to the present invention, in image processing of a stereoscopic image in which L images and R images are input in a frame sequential manner, overflow can be avoided without increasing CPU performance or memory capacity.

実施例1に係る立体画像表示装置の概略構成を示すブロック図1 is a block diagram illustrating a schematic configuration of a stereoscopic image display device according to Embodiment 1. FIG. 実施例1に係る立体画像の高画質化処理を示すフローチャート3 is a flowchart illustrating a high quality image processing of a stereoscopic image according to the first embodiment. L画像とR画像の度数分布及びそれらを合算した度数分布を示す図The figure which shows frequency distribution of L image and R image, and frequency distribution which added them together 実施例1における高画質化処理の流れを概念的に示す図The figure which shows notionally the flow of the image quality improvement process in Example 1. L画像とR画像とで異なるブロックに画像が存在する場合の例を示す図The figure which shows the example in case an image exists in a different block by L image and R image L画像とR画像の度数分布及びそれらを合算した度数分布を示す図The figure which shows frequency distribution of L image and R image, and frequency distribution which added them together 実施例2に係る立体画像表示装置の概略構成を示すブロック図FIG. 6 is a block diagram illustrating a schematic configuration of a stereoscopic image display apparatus according to the second embodiment. 実施例2に係る立体画像の高画質化処理を示すフローチャート7 is a flowchart illustrating a high quality image processing of a stereoscopic image according to the second embodiment. L画像とR画像の視差測定の概念図Conceptual diagram of parallax measurement of L and R images L画像とR画像の度数分布及びそれらを合算した度数分布を示す図The figure which shows frequency distribution of L image and R image, and frequency distribution which added them together 従来技術における高画質化処理の流れを概念的に示す図A diagram conceptually showing the flow of high image quality processing in the prior art L画像とR画像とで物体の画像がブロック境界に存在する場合を示す図The figure which shows the case where the image of an object exists in a block boundary by L image and R image 図12においてブロック1のピーク検出閾値を下げる方法を示す図FIG. 12 is a diagram showing a method of lowering the peak detection threshold of block 1 in FIG. 図12においてブロック2のピーク検出閾値を下げる方法を示す図FIG. 12 is a diagram showing a method for lowering the peak detection threshold of block 2 in FIG. 図12においてブロック3のピーク検出閾値を下げる方法を示す図FIG. 12 is a diagram showing a method of lowering the peak detection threshold of block 3 in FIG.

(実施例1)
以下、本発明の実施例1について説明する。
実施例1では、立体画像のL画像及びR画像の度数分布をH/Wで合算して合算度数分布をメモリ(SRAM)に保存し、F/Wが当該合算度数分布に基づいてL画像及びR画像の高画質化処理を行う。これによれば、メモリの容量は1画像分の度数分布の情報を保存するための容量と同等でよく、かつF/Wがメモリから度数分布の情報を読み出すのに要する時間も1画像分の度数分布の情報を読み出すのに要する時間と同等になる。従って、メモリからの度数分布の情報の読み出し時間のために高画質化処理演算に要する時間が長くなることを抑制できる。以下、詳細に説明する。
Example 1
Embodiment 1 of the present invention will be described below.
In the first embodiment, the frequency distributions of the L image and the R image of the stereoscopic image are added together by H / W, and the combined frequency distribution is stored in a memory (SRAM), and the F / W is based on the combined frequency distribution. R image quality enhancement processing is performed. According to this, the capacity of the memory may be equal to the capacity for storing the frequency distribution information for one image, and the time required for the F / W to read the frequency distribution information from the memory is also equivalent to one image. This is equivalent to the time required to read the frequency distribution information. Therefore, it is possible to suppress an increase in the time required for the image quality improvement processing calculation due to the time for reading the frequency distribution information from the memory. Details will be described below.

図1は、本実施例に係る画像処理装置100の機能構成を示すブロック図である。本実施例では、図1の入力部101、デコード部102、度数分布取得部103、画像処理部105、メモリ106はH/Wで構成され、高画質化処理演算部104はF/Wにより処理されるものとする。F/Wによる処理は制御部107(CPU)がROM(不図示)等に記憶されたプログラムをRAM(不図示)に読み込み実行することにより行われるソフトウェア処理である。なお、制御部107は、H/W部分を構成する入力部101、デコード部102,度数分布取得部103,画像処理部105,メモリ106の動作を制御する。以下、図1のブロック図を用いて説明する。   FIG. 1 is a block diagram illustrating a functional configuration of the image processing apparatus 100 according to the present embodiment. In this embodiment, the input unit 101, the decoding unit 102, the frequency distribution acquisition unit 103, the image processing unit 105, and the memory 106 in FIG. 1 are configured by H / W, and the image quality improvement processing calculation unit 104 performs processing by F / W. Shall be. F / W processing is software processing performed by the control unit 107 (CPU) reading and executing a program stored in a ROM (not shown) or the like in a RAM (not shown). The control unit 107 controls operations of the input unit 101, the decoding unit 102, the frequency distribution acquisition unit 103, the image processing unit 105, and the memory 106 that constitute the H / W part. Hereinafter, description will be made with reference to the block diagram of FIG.

画像処理装置100は、図示していない外部接続機器等からL画像及びR画像からなる立体画像の画像データを入力する。画像データは入力部101に入力された後、デコード部102にて復号される。復号された画像データは、内部バスを経由し、度数分布取得部103に渡される。画像データは左目用画像データ(L画像データ)と右目用画像データ(R画像データ)とが交互に入力される。   The image processing apparatus 100 inputs image data of a stereoscopic image composed of an L image and an R image from an external connection device or the like (not shown). The image data is input to the input unit 101 and then decoded by the decoding unit 102. The decoded image data is transferred to the frequency distribution acquisition unit 103 via the internal bus. As the image data, left-eye image data (L image data) and right-eye image data (R image data) are alternately input.

度数分布取得部103は、連続して入力されるL画像及びR画像の階調毎の度数分布を取得する。度数分布取得部103は、交互に連続して入力されるL画像及びR画像の画像データから、L画像の度数分布とR画像の度数分布とをそれぞれ取得し、それらを合算した合算度数分布を取得し、合算度数分布の情報をメモリ106に保存する。度数分布取得部103において度数分布の取得が行われたL画像及びR画像の画像データは、画像処理部105へ入力される。   The frequency distribution acquisition unit 103 acquires a frequency distribution for each gradation of the L image and the R image that are continuously input. The frequency distribution acquisition unit 103 acquires the frequency distribution of the L image and the frequency distribution of the R image from the image data of the L image and the R image that are alternately input continuously, and adds the frequency distribution of the L image and the R image. The information on the combined frequency distribution is acquired and stored in the memory 106. The image data of the L image and the R image for which the frequency distribution is acquired by the frequency distribution acquisition unit 103 is input to the image processing unit 105.

高画質化処理演算部104は、度数分布取得部103にて算出された合算度数分布の情報をメモリ106から読み出すことにより取得し、当該合算度数分布を用いて画像を高画質化するための演算処理を行う。例えば、高画質化処理演算部104は、合算度数分布において度数が所定の閾値を超える階調をピーク階調として検出し、検出したピーク階調に基づき、L画像とR画像の入力階調を出力階調に変換するための階調変換関数を決定する。F/Wは演算結果を画像処理部105の有するレジスタに設定することで画像の高画質化処理が実行される。   The image quality improvement processing calculation unit 104 acquires the information of the combined frequency distribution calculated by the frequency distribution acquisition unit 103 by reading it from the memory 106, and performs an operation for improving the image quality of the image using the combined frequency distribution. Process. For example, the image quality improvement processing calculation unit 104 detects a gradation whose frequency exceeds a predetermined threshold in the combined frequency distribution as a peak gradation, and based on the detected peak gradation, the input gradation of the L image and the R image is determined. A gradation conversion function for converting to output gradation is determined. The F / W sets the calculation result in a register included in the image processing unit 105 to execute image quality enhancement processing.

画像処理部105は、高画質化処理演算部104にて演算された高画質化処理演算結果をレジスタから読み出し、当該レジスタ値をもとに、入力されるL画像及びR画像の画像データに対し画像処理を行う。画像処理部105は、画像処理を施したL画像及びR画像の画像データを出力する。出力先は、画像データに基づく画像を表示する液晶表示装置等の画像表示装置、画像データを記憶する記憶装置、画像データに対し他の画像処理を施す画像処理装置等である。   The image processing unit 105 reads out the image quality improvement processing calculation result calculated by the image quality improvement processing calculation unit 104 from the register, and based on the register value, the image data of the input L image and R image Perform image processing. The image processing unit 105 outputs the image data of the L image and the R image subjected to the image processing. The output destination is an image display device such as a liquid crystal display device that displays an image based on the image data, a storage device that stores the image data, an image processing device that performs other image processing on the image data, and the like.

図2は、本発明の実施例1における画像処理装置100の高画質化処理を示すフローチャートである。
S201において、デコード部102は、復号して得られた立体画像データのうち、L画像データを度数分布取得部103へ入力する。
S202において、度数分布取得部103は、入力されたL画像データの度数分布を取得する。
S203において、度数分布取得部103は、取得したL画像データの度数分布の情報をメモリ106に保存する。L画像データの度数分布取得処理はS201からS203によって行われる。
FIG. 2 is a flowchart showing image quality improvement processing of the image processing apparatus 100 according to the first embodiment of the present invention.
In step S <b> 201, the decoding unit 102 inputs L image data of the stereoscopic image data obtained by decoding to the frequency distribution acquisition unit 103.
In S202, the frequency distribution acquisition unit 103 acquires the frequency distribution of the input L image data.
In step S <b> 203, the frequency distribution acquisition unit 103 stores the acquired frequency distribution information of the L image data in the memory 106. The frequency distribution acquisition processing of the L image data is performed from S201 to S203.

次に、S204において、デコード部102は、復号して得られた立体画像のうち、R画像データを度数分布取得部103へ入力する。
S205において、度数分布取得部103は、入力されたR画像データの度数分布を取得する。
S206において、度数分布取得部103は、取得したR画像データの度数分布を、S203にて保存したL画像データの度数分布と合算し、合算度数分布を算出する。
Next, in S <b> 204, the decoding unit 102 inputs R image data among the three-dimensional images obtained by decoding to the frequency distribution acquisition unit 103.
In S205, the frequency distribution acquisition unit 103 acquires the frequency distribution of the input R image data.
In S206, the frequency distribution acquisition unit 103 adds the frequency distribution of the acquired R image data with the frequency distribution of the L image data stored in S203, and calculates a combined frequency distribution.

S207において、度数分布取得部103は、S206にて算出した合算度数分布の情報を、メモリ106に保存する。
S208において、高画質化処理演算部104は、S207にて保存した合算度数分布の情報をメモリ106から読み出し、高画質化処理演算を行う。高画質化処理演算としては、例えば、合算度数分布に基づきγカーブを算出する処理等が挙げられる。
S209において、画像処理部105は、S208における演算結果に基づき、入力される画像データに対し画像処理を行う。これにより入力される画像データに対し適応的な高画質化処理が実行されることになる。
In S <b> 207, the frequency distribution acquisition unit 103 stores the information on the combined frequency distribution calculated in S <b> 206 in the memory 106.
In S208, the image quality improvement processing calculation unit 104 reads the information of the combined frequency distribution stored in S207 from the memory 106, and performs the image quality improvement processing calculation. Examples of the high image quality processing calculation include a process of calculating a γ curve based on a combined frequency distribution.
In step S209, the image processing unit 105 performs image processing on the input image data based on the calculation result in step S208. As a result, adaptive image quality enhancement processing is performed on the input image data.

図3は、実施例1に係る画像処理の実際の画像への適用例を示した図である。
図3の例では、L画像301及びR画像302は、それぞれ高輝度の背景画像に2つの
低輝度のオブジェクト(物体)の画像が描画される画像である。図3において、度数分布のグラフは横軸が階調、縦軸が各階調における度数を示す。L画像の度数分布303及びR画像の度数分布304では、それぞれ高輝度領域及び低輝度領域に排気絵画像及び物体画像に応じたピークがある。また、L画像の度数分布303とR画像の度数分布304を合算した合算度数分布305にも同様の傾向が見られることがわかる。
FIG. 3 is a diagram illustrating an application example of the image processing according to the first embodiment to an actual image.
In the example of FIG. 3, the L image 301 and the R image 302 are images in which two low-brightness objects (objects) are drawn on a high-brightness background image. In the graph of the frequency distribution in FIG. 3, the horizontal axis indicates the gradation, and the vertical axis indicates the frequency at each gradation. In the frequency distribution 303 of the L image and the frequency distribution 304 of the R image, there are peaks corresponding to the exhaust picture image and the object image in the high luminance region and the low luminance region, respectively. It can also be seen that the same tendency is seen in the combined frequency distribution 305 obtained by adding up the frequency distribution 303 of the L image and the frequency distribution 304 of the R image.

本実施例の画像表示装置では、L画像の度数分布303とR画像の度数分布304を合算した合算度数分布305がメモリに保存され、F/Wが当該合算度数分布305をメモリから読み出し、それに基づきL画像及びR画像の高画質化処理を行う。   In the image display apparatus of this embodiment, a combined frequency distribution 305 obtained by adding the frequency distribution 303 of the L image and the frequency distribution 304 of the R image is stored in the memory, and the F / W reads the combined frequency distribution 305 from the memory, Based on this, high quality processing of the L image and the R image is performed.

図4は、実施例1における画像処理の流れを概念的に示した図である。図4において横軸は時間を表す。
図4に示すように、本実施例では、立体画像は、L画像及びR画像が1秒間にそれぞれ60フレーム、合わせて120フレームのフレームシーケンシャル方式で画像処理装置100に入力されるものとする。従って、L画像が入力されてから次のR画像が入力されるまでは1/120秒である。本実施例では、画像データが入力されてから4フレーム遅延したタイミング、すなわち入力されてから1/30秒遅延したタイミングで、高画質化処理後の画像データを出力するものとする。H/W処理は、L画像及びR画像の度数分布の取得、合算度数分布の算出、及び合算度数分布のメモリへの保存を行う。F/W処理は、メモリからの合算度数分布の取得、合算度数分布に基づく高画質化処理演算を行う。
FIG. 4 is a diagram conceptually showing a flow of image processing in the first embodiment. In FIG. 4, the horizontal axis represents time.
As shown in FIG. 4, in this embodiment, it is assumed that the stereoscopic image is input to the image processing apparatus 100 by a frame sequential method in which an L image and an R image are 60 frames each per second and a total of 120 frames. Therefore, it takes 1/120 seconds from the input of the L image to the input of the next R image. In this embodiment, it is assumed that the image data after the image quality enhancement processing is output at a timing delayed by 4 frames after the image data is input, that is, at a timing delayed by 1/30 second after the input. In the H / W process, the frequency distribution of the L image and the R image is acquired, the combined frequency distribution is calculated, and the combined frequency distribution is stored in the memory. In the F / W process, the total frequency distribution is acquired from the memory, and the image quality improvement processing calculation is performed based on the total frequency distribution.

図4に示すようにH/WはL画像1の度数分布1Lを取得し、その後入力されるR画像1の度数分布1Rを取得し、それらを合算した合算度数分布1Sの情報をメモリに保存する。F/Wは、次のL画像(L画像2)が入力されるタイミングで、メモリから合算度数分布1Sの情報を読み出し、合算度数分布1Sに基づき高画質化処理演算を行う。このF/Wの処理がオーバーフローしないためには、合算度数分布1Sの情報を読み出すタイミングから次のL画像(L画像3)が入力されるタイミングまでの2フレームの期間(1/60秒)内に高画質化処理演算が完了すればよい。また、F/Wがメモリから合算度数分布1Sの情報を読み出すのに要する時間は、L画像又はR画像の1画像分の度数分布の情報をメモリから読み出すのに要する時間と同等である。従って、本実施例の高画質化処理演算は、図11(A)に示したような2D画像の画像処理を行う場合と同等の負荷であり、かつ同等の時間内に実行完了すればよいため、図11(A)の場合と同等の処理性能のCPUを用いてもオーバーフローを回避できる。   As shown in FIG. 4, the H / W acquires the frequency distribution 1L of the L image 1, acquires the frequency distribution 1R of the input R image 1 and stores the information of the combined frequency distribution 1S obtained by adding them in the memory. To do. F / W reads the information of the combined frequency distribution 1S from the memory at the timing when the next L image (L image 2) is input, and performs an image quality improvement processing calculation based on the combined frequency distribution 1S. In order to prevent this F / W processing from overflowing, within a period of 2 frames (1/60 seconds) from the timing of reading the information of the combined frequency distribution 1S to the timing of inputting the next L image (L image 3) It suffices to complete the image quality improvement processing calculation. The time required for the F / W to read the information of the combined frequency distribution 1S from the memory is equivalent to the time required to read the frequency distribution information for one image of the L image or the R image from the memory. Therefore, the high image quality processing calculation of the present embodiment has the same load as that in the case of performing the image processing of the 2D image as shown in FIG. 11A and needs only to be executed within the same time. Even if a CPU having a processing performance equivalent to that in the case of FIG.

以上のように画像処理装置100の画像処理を制御することにより、立体画像に対してL画像及びR画像の2画像分の度数分布の情報を取得及び保持するのではなく、L画像及びR画像の度数分布を合算した合算度数分布の情報が取得及び保持される。そして、F/Wが合算度数分布の情報を用いてL画像及びR画像の高画質化処理が行われるので、2D画像の高画質化処理と同等の処理性能のCPU及び容量のメモリの構成でオーバーフローを回避することが可能となる。   By controlling the image processing of the image processing apparatus 100 as described above, the information on the frequency distribution of the two images of the L image and the R image is not acquired and held for the stereoscopic image, but the L image and the R image are stored. The information of the combined frequency distribution obtained by adding the frequency distributions is acquired and held. Since the image quality enhancement processing of the L image and the R image is performed using the information of the combined frequency distribution of the F / W, the CPU and the capacity of the memory have the same processing performance as the image enhancement processing of the 2D image. Overflow can be avoided.

(実施例2)
実施例2では、画像を複数のブロックに分割し、各ブロックの度数分布に応じて高画質化処理を行う場合について説明する。特に、本実施例では各ブロックの度数分布に応じて階調変換特性を変更する処理(ダイナミックγ処理)について説明する。
(Example 2)
In the second embodiment, a case will be described in which an image is divided into a plurality of blocks and image quality improvement processing is performed according to the frequency distribution of each block. In particular, in this embodiment, a process (dynamic γ process) for changing the gradation conversion characteristics according to the frequency distribution of each block will be described.

実施例1では、L画像及びR画像の度数分布を合算し、得られた合算度数分布に基づき画像の高画質化処理演算を行う方法について説明した。本実施例では、更に、ブロックごとの度数分布のピークを検出しダイナミックγ処理を行う。そのために、本実施例では、度数分布の合算に加えて、例えば図3の物体画像のような、度数分布のピークに影響を与
え得る画像が存在するブロックが、L画像とR画像とで異なるか否かの判定を行う。
In the first embodiment, the method of adding the frequency distributions of the L image and the R image and performing the image quality enhancement processing calculation on the basis of the obtained combined frequency distribution has been described. In the present embodiment, the peak of the frequency distribution for each block is further detected and dynamic γ processing is performed. For this reason, in this embodiment, in addition to the summation of the frequency distributions, for example, the block in which an image that can affect the peak of the frequency distribution, such as the object image in FIG. It is determined whether or not.

図5は、L画像及びR画像において度数分布のピークに影響を与え得る画像の存在するブロックがL画像とR画像とで異なる場合の例を示す図である。
図5の例では、図3と同様、高輝度の背景画像に低輝度の物体A,Bの画像が存在する。また、L画像及びR画像はそれぞれ横3ブロック×縦3ブロックの全9ブロックに分割される。L画像及びR画像それぞれにおける各ブロックに付されている番号(1〜9)は、ブロック分割の識別子を示している。
FIG. 5 is a diagram illustrating an example of a case where a block in which an image that can affect the peak of the frequency distribution in the L image and the R image is different between the L image and the R image.
In the example of FIG. 5, as in FIG. 3, images of low-luminance objects A and B exist in a high-luminance background image. Each of the L image and the R image is divided into a total of 9 blocks of 3 horizontal blocks × 3 vertical blocks. The numbers (1 to 9) given to the respective blocks in the L image and the R image indicate block division identifiers.

図5における物体A、物体Bの画像にはそれぞれ立体的に見えるように視差がついている。そのため、物体の画像の位置によっては、視差のためにL画像とR画像とでその画像の存在するブロックが異なる場合が存在する。図5の例では、物体Aの画像は、視差が小さく、ブロック1の中央部分に位置しているため、L画像及びR画像それぞれで同じブロック1に属している。一方、物体Bの画像は、視差が大きく、ブロック分割の境界付近に位置しているため、L画像ではブロック2に、R画像ではブロック3に属している。   The images of the object A and the object B in FIG. 5 have parallax so that they can be seen stereoscopically. Therefore, depending on the position of the image of the object, there are cases where the blocks in which the image exists are different between the L image and the R image due to parallax. In the example of FIG. 5, the image of the object A has a small parallax and is located at the center portion of the block 1, so that the L image and the R image belong to the same block 1. On the other hand, since the image of the object B has a large parallax and is located near the boundary of block division, it belongs to the block 2 in the L image and to the block 3 in the R image.

図5に示す画像の場合に、L画像とR画像の度数分布をブロック毎に合算することを考える。
図6は、図5の例で示したL画像とR画像の度数分布をブロック毎に合算し、当該合算度数分布に基づきダイナミックγ処理で用いる度数分布のピークを見つける処理を概念的に示した図である。度数分布のピークとは、図6の合算度数分布の局所的にピークになった部分(図6の符号601)のことである。本実施例のダイナミックγ処理では閾値(図6の符号602)を設け、閾値以上の度数を持つ階調をピーク階調として検出する。本実施例では、検出されたピーク階調を注目物体の階調(以下、注目階調と呼ぶ)と判断し、注目階調に多くの階調が割り当てられるような階調変換が行われるように動的に階調変換関数であるγカーブを生成する。
In the case of the image shown in FIG. 5, let us consider adding the frequency distribution of the L image and the R image for each block.
FIG. 6 conceptually shows a process of adding the frequency distribution of the L image and the R image shown in the example of FIG. 5 for each block and finding the peak of the frequency distribution used in the dynamic γ processing based on the combined frequency distribution. FIG. The peak of the frequency distribution is a portion (reference numeral 601 in FIG. 6) where the peak is locally peaked in the combined frequency distribution of FIG. In the dynamic γ processing of this embodiment, a threshold (reference numeral 602 in FIG. 6) is provided, and a gradation having a frequency equal to or higher than the threshold is detected as a peak gradation. In this embodiment, the detected peak gradation is determined as the gradation of the object of interest (hereinafter referred to as the attention gradation), and gradation conversion is performed so that many gradations are assigned to the attention gradation. A γ curve that is a gradation conversion function is dynamically generated.

立体画像の場合、図5の物体Bの画像のように、L画像とR画像の視差のために同一の物体の画像が異なるブロックに存在する場合がある。このような場合に、L画像とR画像の度数分布を合算すると、例えばブロック2の場合、L画像の度数分布には物体Bの画像に対応するピークがあるがR画像の度数分布にはそのピークがない。同様に、ブロック3の場合、R画像の度数分布には物体Bの画像に対応するピークがあるがL画像の度数分布にはそのピークがない。そのため、ブロック2の合算度数分布も、ブロック3の合算度数分布も、物体Bの画像に対応するピークが閾値602を超えなくなり、結果としてピークとして検出されない。これに対し、ピーク検出の閾値を下げることが考えられる。しかし、ピーク検出のための閾値を下げると、特に同一物体の画像がL画像とR画像とで同じブロックに存在する場合に、検出感度が高くなりすぎてピークではない階調をピークと誤検出してしまう可能性がある。   In the case of a stereoscopic image, like the image of the object B in FIG. 5, the image of the same object may exist in different blocks due to the parallax between the L image and the R image. In such a case, the frequency distribution of the L image and the R image is summed up. For example, in the case of the block 2, the frequency distribution of the L image has a peak corresponding to the image of the object B, but the frequency distribution of the R image has that peak. There are no peaks. Similarly, in the case of block 3, the frequency distribution of the R image has a peak corresponding to the image of the object B, but the frequency distribution of the L image has no peak. Therefore, neither the sum frequency distribution of block 2 nor the sum frequency distribution of block 3 has a peak corresponding to the image of the object B exceeding the threshold value 602, and as a result, is not detected as a peak. On the other hand, it is conceivable to lower the peak detection threshold. However, if the threshold for peak detection is lowered, especially when images of the same object exist in the same block for the L image and the R image, the detection sensitivity becomes too high, and a gradation that is not a peak is erroneously detected as a peak. There is a possibility that.

そこで、本実施例2では、同一物体の画像がL画像とR画像とで異なるブロックに存在していることを検出し、当該物体の画像が属するブロックに関してのみピーク検出のための閾値を既定値よりも下げる処理を行う。これにより、同一の物体の画像がL画像とR画像とで異なるブロックに存在する場合に、いずれのブロックにおいても当該物体の画像に対応する階調をピークとして検出することができる。以下、本実施例2について詳細に説明する。   Therefore, in the second embodiment, it is detected that the same object image exists in different blocks in the L image and the R image, and the threshold value for peak detection is set to a predetermined value only for the block to which the image of the object belongs. Lower the process. Thereby, when the image of the same object exists in different blocks in the L image and the R image, the gradation corresponding to the image of the object can be detected as a peak in any block. Hereinafter, the second embodiment will be described in detail.

図7は、本実施例2に係る画像処理装置700の装置構成を示すブロック図である。本実施例では、入力部701、デコード部702、度数分布取得部703、画像処理部704、視差測定部705、メモリ709はH/Wで構成されるものとする。また、ブロック境界判定部706、ピーク検出部707、高画質化処理演算部708はF/Wにより処理
されるものとする。F/Wによる処理は制御部709(CPU)がROM(不図示)等に記憶されたプログラムをRAM(不図示)に読み込み実行することにより行われるソフトウェア処理である。なお、制御部709は、H/W部分を構成する入力部701、デコード部702、度数分布取得部703、画像処理部704、視差測定部705、メモリ709の動作を制御する。
FIG. 7 is a block diagram illustrating an apparatus configuration of the image processing apparatus 700 according to the second embodiment. In the present embodiment, the input unit 701, the decoding unit 702, the frequency distribution acquisition unit 703, the image processing unit 704, the parallax measurement unit 705, and the memory 709 are configured by H / W. In addition, the block boundary determination unit 706, the peak detection unit 707, and the image quality improvement processing calculation unit 708 are processed by F / W. F / W processing is software processing performed by the control unit 709 (CPU) reading a program stored in a ROM (not shown) or the like into a RAM (not shown) and executing it. Note that the control unit 709 controls operations of the input unit 701, the decoding unit 702, the frequency distribution acquisition unit 703, the image processing unit 704, the parallax measurement unit 705, and the memory 709 that constitute the H / W part.

画像処理装置700は、図示していない外部接続機器等から画像データを受信する。画像データは入力部701に入力された後、デコード部702にて復号される。復号された画像データは、内部バスを経由し、度数分布取得部703及び視差測定部705に渡される。   The image processing apparatus 700 receives image data from an external connection device or the like (not shown). The image data is input to the input unit 701 and then decoded by the decoding unit 702. The decoded image data is passed to the frequency distribution acquisition unit 703 and the parallax measurement unit 705 via the internal bus.

度数分布取得部703は、連続して入力されるL画像及びR画像の階調毎の度数分布を取得する。度数分布取得部703は、交互に連続して入力されるL画像及びR画像の画像データから、ブロック毎にL画像とR画像の度数分布をそれぞれ取得する。そして、度数分布取得部703は、ブロック毎にL画像とR画像の度数分布を合算して合算度数分布を取得し、合算度数分布の情報を図示しないメモリに保存する。   The frequency distribution acquisition unit 703 acquires the frequency distribution for each gradation of the L image and the R image that are continuously input. The frequency distribution acquisition unit 703 acquires the frequency distribution of the L image and the R image for each block from the image data of the L image and the R image that are input alternately and continuously. Then, the frequency distribution acquisition unit 703 adds the frequency distribution of the L image and the R image for each block to acquire the total frequency distribution, and stores the information of the total frequency distribution in a memory (not shown).

視差測定部705は、デコード部702にてデコードされた立体画像のL画像及びR画像の画像データ同士を比較し、視差を測定する。視差測定部705は、立体画像中のオブジェクトの画像の検出をパターンマッチングやエッジ検出等の公知の手法により行い、オブジェクトの画像毎にL画像における表示位置とR画像における表示位置とから視差を算出する。視差測定部705にて測定した視差量は、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像が存在するか否かを検出するために用いられる。   The parallax measurement unit 705 compares the image data of the L image and the R image of the stereoscopic image decoded by the decoding unit 702, and measures the parallax. The parallax measurement unit 705 detects an object image in the stereoscopic image by a known method such as pattern matching or edge detection, and calculates the parallax from the display position in the L image and the display position in the R image for each object image. To do. The amount of parallax measured by the parallax measuring unit 705 is used to detect whether there are images of the same object that exist in different blocks between the L image and the R image.

ブロック境界判定部706は、視差測定部705にて測定した視差量に基づき、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像が存在するか否かを判定し、判定結果を後段のピーク検出部707に渡す。   Based on the amount of parallax measured by the parallax measurement unit 705, the block boundary determination unit 706 determines whether there is an image that is an image of the same object and that exists in different blocks between the L image and the R image, The determination result is passed to the peak detection unit 707 in the subsequent stage.

ピーク検出部707は、度数分布取得部703にて取得した合算度数分布の情報と、ブロック境界判定部706による判定結果とに基づいて、度数分布のピーク階調をブロック毎に検出する。本実施例では、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像が存在するブロックについては度数分布のピーク検出の閾値を既定値より下げる。   The peak detection unit 707 detects the peak gradation of the frequency distribution for each block based on the information on the combined frequency distribution acquired by the frequency distribution acquisition unit 703 and the determination result by the block boundary determination unit 706. In the present embodiment, the threshold value for peak detection of the frequency distribution is lowered from a predetermined value for blocks that are images of the same object and that have different images in the L image and the R image.

高画質化処理演算部708では、ピーク検出部707にて検出されたピーク階調の情報に基づき、画像を高画質化するための演算処理を行う。F/Wは演算結果を画像処理部704の有するレジスタに設定することで画像の高画質化処理を実行できる。ここでは、高画質化処理演算部708は、ピーク検出部707にて検出したピーク階調に対して多くの階調を割り当てるようなγカーブを適応的に作成する。   The image quality improvement processing calculation unit 708 performs calculation processing for improving the image quality of the image based on the information of the peak gradation detected by the peak detection unit 707. The F / W can execute image quality enhancement processing by setting the calculation result in a register included in the image processing unit 704. Here, the image quality improvement processing calculation unit 708 adaptively creates a γ curve that assigns many gradations to the peak gradation detected by the peak detection unit 707.

画像処理部704では、高画質化処理演算部708にて演算された結果をレジスタから読み出し、当該レジスタ値をもとに画像処理(ダイナミックγ処理)を行う。これにより、高画質化処理演算部708が作成したγカーブが画像データに反映される。   The image processing unit 704 reads the result calculated by the image quality enhancement processing calculation unit 708 from the register, and performs image processing (dynamic γ processing) based on the register value. Thereby, the γ curve created by the image quality enhancement processing calculation unit 708 is reflected in the image data.

図8は、実施例2における画像処理装置700の高画質化処理を示すフローチャートである。
S801からS807までの処理は、実施例1の図2におけるS201からS207までの処理と同様なので説明を割愛する。ただし、L画像及びR画像ともにブロックに分割し、S802、S805、S806における度数分布の取得及び合算処理はブロック毎に行われる点については実施例1と異なる。また、度数分布や合算度数分布のメモリ709
への保存もブロック毎に行われる。
FIG. 8 is a flowchart illustrating image quality improvement processing of the image processing apparatus 700 according to the second embodiment.
Since the processing from S801 to S807 is the same as the processing from S201 to S207 in FIG. However, the L image and the R image are both divided into blocks, and the frequency distribution acquisition and summing processing in S802, S805, and S806 is performed for each block, which is different from the first embodiment. In addition, a frequency distribution and a combined frequency distribution memory 709
Saving is also performed for each block.

S808において、視差測定部705は、立体画像のL画像とR画像の視差を測定する。本実施例では、L画像とR画像の視差をパターンマッチングによって求め、求めた視差をパラメータとして用いて、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像があるか否かを判断する。図9はL画像とR画像のパターンマッチングにより物体の画像毎に視差を測定する例を示した図である。図9(A)に示すように、画像には、図3と同様、高輝度の背景画像に低輝度の物体画像A,Bが存在し、L画像とR画像のパターンマッチングにより、図9(B)に示すように、物体Aの視差PA及び物体Bの視差PBが測定される。   In step S808, the parallax measurement unit 705 measures the parallax between the L image and the R image of the stereoscopic image. In this embodiment, the parallax between the L image and the R image is obtained by pattern matching, and the obtained parallax is used as a parameter to determine whether there is an image of the same object that exists in different blocks between the L image and the R image. Judge whether or not. FIG. 9 is a diagram illustrating an example in which parallax is measured for each image of an object by pattern matching between an L image and an R image. As shown in FIG. 9A, the image includes low-brightness object images A and B in a high-brightness background image as in FIG. 3, and pattern matching between the L image and the R image results in FIG. As shown in B), the parallax PA of the object A and the parallax PB of the object B are measured.

パターンマッチング自体は立体画像の視差取得の方法として一般的な方法を使用することができる。また、本実施例では、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像を検出できれば良いので、パターンマッチング以外の方法を用いて視差を測定してもよい。また、立体画像の視差量がメタデータとして立体画像データに付与される場合は、当該メタデータから視差量の情報を取得してもよい。   The pattern matching itself can use a general method as a method for acquiring parallax of a stereoscopic image. Further, in this embodiment, it is only necessary to detect images of the same object that are present in different blocks between the L image and the R image. Therefore, the parallax may be measured using a method other than pattern matching. In addition, when the parallax amount of the stereoscopic image is added to the stereoscopic image data as metadata, information on the parallax amount may be acquired from the metadata.

S809において、ブロック境界判定部706は、S808にて測定した視差に基づき、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像があるか否かの判定を行う。パターンマッチングによって物体の画像中の位置とその視差が求められる。この画像中の物体の位置と視差の情報と、各ブロックのサイズ(縦と横のピクセル数)の情報に基づき、その物体の画像がL画像とR画像とで2つのブロックにまたがって(ブロック境界を越えて)存在するか否かを判定することができる。   In step S809, the block boundary determination unit 706 determines whether there is an image of the same object that exists in different blocks between the L image and the R image based on the parallax measured in step S808. The position in the image of the object and its parallax are obtained by pattern matching. Based on information on the position and parallax of the object in this image and information on the size of each block (the number of pixels in the vertical and horizontal directions), the image of the object spans two blocks of an L image and an R image (block It can be determined whether it exists (beyond the boundary).

図9(C)は、物体Bの画像がL画像とR画像とで異なるブロック(図9(C)ではブロック2、3)に存在すると判定されたことを示した図である。これらのブロックに関しては、ピーク検出部707は、次のS810のピーク検出の際にピーク検出の閾値を下げる処理を行う。   FIG. 9C is a diagram showing that it is determined that the image of the object B exists in different blocks (blocks 2 and 3 in FIG. 9C) between the L image and the R image. For these blocks, the peak detection unit 707 performs processing for lowering the peak detection threshold at the time of the next peak detection in S810.

S810において、ピーク検出部707は、S809の判定の結果、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像があると判定されたブロックに対して、ピーク検出の閾値を下げる処理を行う。
一方、S811において、ピーク検出部707は、S809の判定の結果、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像がないと判定されたブロックに対して、デフォルトのピーク検出の閾値(既定値)を用いるよう決定する。
In step S810, the peak detection unit 707 determines the peak detection threshold for blocks that are determined to be in the same object and exist in different blocks in the L image and the R image as a result of the determination in step S809. Perform processing to lower.
On the other hand, in step S811, the peak detection unit 707 determines the default for blocks that are determined to have no image in the different blocks of the L image and the R image as a result of the determination in step S809. Decide to use peak detection threshold (default).

図10は、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像があるブロックのピーク検出の閾値を下げた場合のピーク検出結果を示す図である。上記の例では、ブロック2とブロック3に関して、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像が存在するため、図10に示すように、閾値がデフォルトの閾値Aから閾値Bへ下げられている。一方、ブロック1に関しては同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像が存在しないため、デフォルトの閾値Aが用いられる。   FIG. 10 is a diagram illustrating the peak detection result when the peak detection threshold of a block having an image of the same object that is present in different blocks of the L image and the R image is lowered. In the above example, for block 2 and block 3, there are images that are images of the same object but in different blocks in the L image and the R image. Therefore, as shown in FIG. To threshold B. On the other hand, with respect to the block 1, since there is no image that is an image of the same object and exists in different blocks between the L image and the R image, the default threshold A is used.

これにより、合算度数分布において物体Bの画像に基づくピークがブロック1ほど高くなっていないブロック2とブロック3に関しても、ピーク検出の閾値が下げられることによって、物体Bの画像に基づくピークを注目階調として検出することが可能となる。図10は、ブロック1、2、3いずれにおいても、物体A又は物体Bの画像に基づくピークを注目階調として検出できたことを示している。   As a result, the peak based on the image of the object B is also reduced by reducing the peak detection threshold for the blocks 2 and 3 in which the peak based on the image of the object B is not as high as the block 1 in the combined frequency distribution. It can be detected as a key. FIG. 10 shows that the peak based on the image of the object A or the object B can be detected as the target gradation in any of the blocks 1, 2, and 3.

本実施例では同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像があるブロックについてピーク検出のための閾値を下げる例を説明した。しかし、当該ブロックの度数分布又は合算度数分布の度数を増加させる補正を行い、閾値は全ブロックで共通としても良い。度数を増加させることでピーク検出の閾値を下げなくても、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像があるブロックにおいてピークを検出することが可能となる。   In the present embodiment, the example in which the threshold for peak detection is lowered for blocks having the same object and having images in different blocks in the L image and the R image has been described. However, a correction may be performed to increase the frequency distribution of the block or the combined frequency distribution, and the threshold value may be common to all blocks. By increasing the frequency, it is possible to detect a peak in a block having an image of the same object and existing in different blocks of the L image and the R image without lowering the peak detection threshold.

S812において、ピーク検出部707は、ブロック毎に、S810とS811にて決定したピーク検出閾値を用いて、L画像とR画像の度数分布を合算した合算度数分布のピークを検出する。
S813において、高画質化処理演算部708は、ブロック毎に、S812にて検出されたピークの情報に基づき、当該ピークが存在する階調に対して多くの階調を割り当てるようにγカーブを作成する。
S814において、画像処理部704は、S813にて作成したγカーブを入力された画像データに適用する。
In S812, the peak detection unit 707 detects, for each block, the peak of the combined frequency distribution obtained by adding the frequency distributions of the L image and the R image using the peak detection threshold value determined in S810 and S811.
In step S813, the image quality improvement processing calculation unit 708 creates a γ curve so as to assign a large number of gradations to the gradation in which the peak exists based on the peak information detected in step S812 for each block. To do.
In step S814, the image processing unit 704 applies the γ curve created in step S813 to the input image data.

以上のように本実施例の画像処理装置700では、ブロック毎にL画像及びR画像の度数分布を合算した合算度数分布を取得し、合算度数分布のうち度数が閾値を超える階調をピーク階調(注目階調)として検出する。そして、ピーク階調近傍に多くの階調が割り当てられるような適応的な階調変換をブロック毎に行う。このとき、立体画像中の同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像があるブロックを検出し、当該ブロックについてはピーク階調を検出するための閾値を下げる処理を行う。これにより、同一物体の画像であってL画像とR画像とで異なるブロックに存在する画像があるブロックについても、その画像に基づくピークを検出することが可能となり、視差が大きい立体画像であっても最適なγカーブを適応的に生成し適用することができる。   As described above, the image processing apparatus 700 according to the present exemplary embodiment acquires the combined frequency distribution obtained by adding the frequency distributions of the L image and the R image for each block, and determines the gradation in which the frequency exceeds the threshold in the combined frequency distribution at the peak level. It is detected as a tone (notable tone). Then, adaptive gradation conversion is performed for each block so that many gradations are assigned near the peak gradation. At this time, a process of detecting a block having an image of the same object in a stereoscopic image and having an image existing in different blocks in the L image and the R image, and lowering a threshold for detecting the peak gradation for the block I do. This makes it possible to detect a peak based on an image of the same object that is present in different blocks between the L image and the R image, and has a large parallax. Can optimally generate and apply an optimal γ curve.

なお、図5は、物体Bの画像がL画像ではブロック2に存在し、R画像ではブロック3に存在し、L画像とR画像のいずれにおいても物体Bの画像とブロック境界とが重なっていなかったが、図12に示すようにブロック境界と物体画像とが重なる場合も想定される。この場合、L画像とR画像の少なくともいずれかにおいて、物体画像は複数のブロックにまたがって存在している。このような状態では、ブロック境界判定部706は、図8のS809にて、複数のブロックのそれぞれに物体画像がどの程度の割合(面積、画素数の割合)で存在するか検出し、もっとも存在する割合が大きいブロックがL画像とR画像とで異なるか否か判定する。異なる場合に、S810の処理に進み、異ならない場合に、S811の処理に進むようにしても良い。   In FIG. 5, the image of the object B exists in the block 2 in the L image, exists in the block 3 in the R image, and the image of the object B and the block boundary do not overlap in either the L image or the R image. However, as shown in FIG. 12, the block boundary and the object image may be overlapped. In this case, the object image exists over a plurality of blocks in at least one of the L image and the R image. In such a state, in step S809 in FIG. 8, the block boundary determination unit 706 detects how much the object image exists in each of the plurality of blocks (area, the ratio of the number of pixels), and is most present. It is determined whether or not a block with a large ratio is different between the L image and the R image. If they are different, the process may proceed to S810, and if they are not different, the process may proceed to S811.

物体がブロック境界を越えた場合の各ブロックの閾値の決定方法について図13〜図15を用いて説明する。図13〜図15は、立体視される画像が図12である場合において、それぞれブロック1〜3での閾値の決定方法を説明した図である。   A method for determining the threshold value of each block when the object crosses the block boundary will be described with reference to FIGS. FIGS. 13 to 15 are diagrams illustrating threshold value determination methods in blocks 1 to 3 when the stereoscopically viewed image is FIG. 12.

ブロック1については、図13より、L画像の物体Aは全てブロック1に含まれているが、R画像の物体Aが、ブロック1とブロック2との境界をまたがっている。よって、ブロック1の閾値は、物体Aの画像がブロック1とブロック2との境界からブロック2側へ越えた分だけ下げるように決定される。つまり図13の図から、R画像において物体Aが、ブロック1とブロック2の境界からブロック2側へ越えた距離(はみ出した分)d1ARに対応する値だけ閾値を下げる。ただし、距離d1ARが所定値より小さい場合には、度数分布のピーク値の検出への影響が少ないとして、該距離を閾値の決定(補正)に用いなくてもよい。ブロック2側へ超えた分に対応する値とは、例えば、物体Aの画像のうちブロック2に含まれる部分の画素数とすることができる。或いは、境界に垂直な方向(ブロック1とブロック2との関係では横方向)の距離が大きいほど大きくなるように定めら
れる値とすることができる。以下の説明でも同様である。
As for block 1, all the objects A in the L image are included in block 1 from FIG. 13, but object A in the R image straddles the boundary between block 1 and block 2. Therefore, the threshold value of block 1 is determined so that the image of the object A is lowered by an amount exceeding the boundary between block 1 and block 2 toward the block 2 side. That is, from the diagram of FIG. 13, in the R image, the threshold value is lowered by a value corresponding to the distance d1AR (the amount of protrusion) that the object A exceeds the block 2 side from the boundary between the block 1 and block 2. However, when the distance d1AR is smaller than the predetermined value, it is not necessary to use the distance for determination (correction) of the threshold because the influence on the detection of the peak value of the frequency distribution is small. The value corresponding to the amount exceeding the block 2 side can be, for example, the number of pixels of the portion included in the block 2 in the image of the object A. Alternatively, the value can be set so as to increase as the distance in the direction perpendicular to the boundary (the horizontal direction in the relationship between the block 1 and the block 2) increases. The same applies to the following description.

次にブロック2について図14を用いて説明する。ブロック2では、L画像の物体Bが隣接するブロック3との境界にまたがり、R画像の物体Aが隣接するブロック1との境界にまたがり、物体Bが隣接するブロック3との境界にまたがっている。この場合、L画像において物体Bが、ブロック2とブロック3との境界からブロック3側へ越えた距離d2BLの分だけ閾値を下げる。ただし、距離d2BLが所定値より小さい場合には、度数分布のピーク値の検出への影響が少ないとして、該距離を閾値の決定に用いなくてもよい。   Next, block 2 will be described with reference to FIG. In block 2, the object B of the L image straddles the boundary with the adjacent block 3, the object A of the R image straddles the boundary with the adjacent block 1, and the object B straddles the boundary with the adjacent block 3. . In this case, in the L image, the threshold value is lowered by the distance d2BL that the object B has passed from the boundary between the block 2 and the block 3 to the block 3 side. However, when the distance d2BL is smaller than the predetermined value, it is not necessary to use the distance for determination of the threshold because the influence on the detection of the peak value of the frequency distribution is small.

また、R画像において物体Aは、ブロック2とブロック1との境界からブロック1側へ距離d2ARの分だけ越えているものの、物体AはL画像においてはブロック2に含まれていないため、ブロック2にて物体Aのピーク検出をする必要がない。よって、物体AがR画像においてブロック1へはみ出した距離d2ARの分は、ブロック2の閾値決定には用いないものとする。従って、距離d2ARの分はブロック2の閾値に影響しない。R画像において物体Bは、ブロック2とブロック3との境界からブロック3側へ距離d2BRの分だけ越えている。ブロックBはL画像においてもブロック2に含まれるため、距離d2BRの分だけ閾値が下げられる。以上より、ブロック2の閾値は、(d2BL+d2BR)の分だけ下げられる。   In the R image, the object A exceeds the boundary between the block 2 and the block 1 by the distance d2AR from the boundary between the block 2 and the block 1, but the object A is not included in the block 2 in the L image. It is not necessary to detect the peak of the object A. Therefore, the distance d2AR that the object A protrudes to the block 1 in the R image is not used for determining the threshold value of the block 2. Therefore, the distance d2AR does not affect the threshold value of block 2. In the R image, the object B exceeds the boundary between the block 2 and the block 3 toward the block 3 by the distance d2BR. Since the block B is also included in the block 2 in the L image, the threshold value is lowered by the distance d2BR. As described above, the threshold value of the block 2 is lowered by (d2BL + d2BR).

最後に、ブロック3について図15を用いて説明する。ブロック3の場合、物体Bが含まれている量が多いため、物体Bがブロック境界を超えた距離分だけ、ピーク検出閾値を下げる。図15では、物体BはL画像の場合ブロック2側へ距離d3BLの分だけはみ出しており、R画像の場合ブロック2側へ距離d2BRの分だけはみ出している。従って、ピーク検出閾値を(d3BL+d3BR)の分だけ下げられる。
以上によって、図12のように物体の画像がブロック境界にまたがる場合においても実施例2と同様の効果を得ることが可能となる。
上記の実施例の高画質化処理としては、フレーム毎に度数分布に基づいて設定したガンマ補正を行うことを例示できる。また、高画質化処理としては、ガンマ補正に限らず、高解像度化、ノイズ除去、エッジ強調等の処理であっても良いし、これらを組み合わせた画像処理であっても良い。
Finally, block 3 will be described with reference to FIG. In the case of block 3, since the amount of object B is large, the peak detection threshold is lowered by the distance that object B exceeds the block boundary. In FIG. 15, the object B protrudes by the distance d3BL toward the block 2 in the case of the L image, and protrudes by the distance d2BR toward the block 2 in the case of the R image. Therefore, the peak detection threshold can be lowered by (d3BL + d3BR).
As described above, even when the object image extends over the block boundary as shown in FIG. 12, it is possible to obtain the same effect as in the second embodiment.
An example of the high image quality processing of the above embodiment is performing gamma correction set based on the frequency distribution for each frame. Further, the image quality enhancement processing is not limited to gamma correction, and may be processing such as high resolution, noise removal, and edge enhancement, or image processing that combines these.

100 立体画像表示装置
101 入力部
103 度数分布取得部
104 高画質化処理演算部
105 画像処理部
DESCRIPTION OF SYMBOLS 100 Stereoscopic image display apparatus 101 Input part 103 Frequency distribution acquisition part 104 Image quality improvement process calculating part 105 Image processing part

Claims (7)

目用画像及び右目用画像が交互に連続して入力される入力手段と、
連続して入力される左目用画像及び右目用画像をそれぞれ複数のブロックに分割し、前記左目用画像及び右目用画像の各ブロックの階調毎の度数分布を合算した合算度数分布を各ブロックに対して得する度数分布取得手段と、
前記左目用画像及び右目用画像のそれぞれに含まれるオブジェクト画像の位置を検出する検出手段と、
前記各ブロックの前記合算度数分布において度数が、前記オブジェクト画像の位置に応じて決定された閾値を超えるピーク階調に基づき、前記左目用画像及び右目用画像の前記各ブロックに適用するための階調変換関数を決定する決定手段と、
前記左目用画像及び右目用画像の前記各ブロックに、対応する前記階調変換関数を用いて画像処理を施画像処理手段と、
を備えることを特徴とする画像処理装置。
Input means for the left eye image and the right-eye image picture are successively input alternately,
The left eye image and the right eye image that are continuously input are each divided into a plurality of blocks, and the frequency distribution for each gradation of each block of the left eye image and the right eye image is added to each block. and the frequency distribution acquisition means that Tokusu taken for,
Detecting means for detecting a position of an object image included in each of the left-eye image and the right-eye image;
Applying the in the sum frequency distribution of each block, the frequency is, the blocks of the basis of the rupees click tone exceeds a threshold determined in accordance with the position of the object image, the left eye image and the right-eye image Determining means for determining a gradation conversion function for
Wherein said each block of the left-eye image and the right-eye image, and facilities to the image processing means the image processing using the gradation conversion function corresponding,
An image processing apparatus comprising:
前記検出手段が検出した前記オブジェクト画像の位置に応じて、前記左目用画像における前記オブジェクト画像が存在する第1ブロックと、前記右目用画像における前記オブジェクト画像が存在する第2ブロックと、が異なるか否かを判定する判定手段を備え、
前記判定手段が前記第1ブロックと前記第2ブロックとが異なると判定した場合、前記決定手段は、少なくとも前記第1ブロックにおける前記閾値を、前記判定手段が前記第1ブロックと前記第2ブロックとが異ならないと判定した場合より小さくする請求項1に記載の画像処理装置。
Depending on the position of the object image detected by the detection unit, a first block the object picture image in the left eye image is present, and a second block wherein the object image picture in said right eye image exists , but example Bei determining means for determining whether differ,
If the determination means determines that said first block and the second block are different, said determining means, said threshold value in at least the first block, the determining means and the first block and the second block The image processing apparatus according to claim 1, wherein the image processing apparatus is smaller than a case where it is determined that they are not different .
前記検出手段が検出した前記オブジェクト画像の位置に応じて、前記左目用画像における前記オブジェクト画像が存在する第1ブロックと、前記右目用画像における前記オブジェクト画像が存在する第2ブロックと、が異なるか否かを判定する判定手段を備え、
前記判定手段が前記第1ブロックと前記第2ブロックとが異なると判定した場合、前記度数分布取得手段は、少なくとも前記第1ブロックの合算度数分布に対し度数を増加させる補正を行う請求項1に記載の画像処理装置。
Depending on the position of the object image detected by the detection unit, a first block the object picture image in the left eye image is present, and a second block wherein the object image picture in said right eye image exists , but example Bei determining means for determining whether differ,
The said frequency distribution acquisition means performs correction | amendment which makes frequency increase at least with respect to the total frequency distribution of a said 1st block, when the said determination means determines with the said 1st block and the said 2nd block differing. The image processing apparatus described.
前記左目用画像における前記オブジェクト画像と前記右目用画像における前記オブジェクト画像との間の視差を取得する視差取得手段を備え、
前記判定手段は、前記視差取得手段により取得された前記視差と、前記オブジェクト画像の位置と、各ブロックの位置と、に基づき、前記オブジェクト画像が前記左目用画像及び前記右目用画像それぞれにおいて異なるブロックに存在するか否かを判定する請求項2又は3に記載の画像処理装置。
Comprising a parallax acquisition means for acquiring a parallax between the object image picture in said object picture image and the right eye image in the left eye image,
The determination means, the parallax acquired by the parallax acquisition unit, a position of the object image picture, the position of each block, based on said object image image the left eye image and the right-eye image The image processing apparatus according to claim 2 , wherein each of the image processing apparatuses determines whether the blocks are present in different blocks.
前記オブジェクト画像が、前記左目用画像の複数の前記ブロックにまたがって存在している場合に、前記決定手段は、前記オブジェクト画像が存在する複数の前記ブロックの前記閾値を、前記オブジェクト画像が前記左目用画像の複数の前記ブロックにまたがって存在していない場合よりも小さくなるように決定することを特徴とする請求項1乃至請求項4のいずれか1項に記載の画像処理装置。When the object image exists across a plurality of the blocks of the left-eye image, the determination unit determines the threshold value of the plurality of blocks where the object image exists, and the object image indicates the left-eye. 5. The image processing apparatus according to claim 1, wherein the image processing apparatus is determined so as to be smaller than a case where the image does not exist across the plurality of blocks of the image for use. 前記オブジェクト画像が、前記右目用画像の複数の前記ブロックにまたがって存在している場合に、前記決定手段は、前記オブジェクト画像が存在する複数の前記ブロックの前記閾値を、前記オブジェクト画像が前記右目用画像の複数の前記ブロックにまたがって存在していない場合よりも小さくなるように決定することを特徴とする請求項1乃至請求項4のいずれか1項に記載の画像処理装置。When the object image exists across a plurality of the blocks of the right-eye image, the determination unit determines the threshold value of the plurality of blocks where the object image exists, and the object image indicates the right-eye. 5. The image processing apparatus according to claim 1, wherein the image processing apparatus is determined so as to be smaller than a case where the image does not exist across the plurality of blocks of the image for use. 目用画像及び右目用画像が交互に連続して入力される入力工程と、
連続して入力される左目用画像及び右目用画像をそれぞれ複数のブロックに分割し、前記左目用画像及び右目用画像の各ブロックの階調毎の度数分布を合算した合算度数分布を各ブロックに対して得する度数分布取得工程と、
前記左目用画像及び前記右目用画像のそれぞれに含まれるオブジェクト画像の位置を検出する検出工程と、
前記各ブロックの前記合算度数分布において度数が、前記オブジェクト画像の位置に応じて決定された閾値を超えるピーク階調に基づき、前記左目用画像及び右目用画像の前記各ブロックに適用するための階調変換関数を決定する決定工程と、
前記左目用画像及び右目用画像の前記各ブロックに、対応する前記階調変換関数を用いて画像処理を施画像処理工程と、
有することを特徴とする画像処理装置の制御方法。
An input step of left eye image and the right-eye image picture are successively input alternately,
The left eye image and the right eye image that are continuously input are each divided into a plurality of blocks, and the frequency distribution for each gradation of each block of the left eye image and the right eye image is added to each block. and the frequency distribution acquisition step that Tokusu taken for,
A detection step of detecting a position of an object image included in each of the left-eye image and the right-eye image;
Applying the in the sum frequency distribution of each block, the frequency is, the blocks of the basis of the rupees click tone exceeds a threshold determined in accordance with the position of the object image, the left eye image and the right-eye image A determination step of determining a gradation conversion function for
Wherein said each block of the left-eye image and the right-eye image, and facilities to the image processing step the image processing using the gradation conversion function corresponding,
A control method for an image processing apparatus, comprising:
JP2011286519A 2011-12-27 2011-12-27 Image processing apparatus and control method thereof Expired - Fee Related JP5924932B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011286519A JP5924932B2 (en) 2011-12-27 2011-12-27 Image processing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011286519A JP5924932B2 (en) 2011-12-27 2011-12-27 Image processing apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2013135434A JP2013135434A (en) 2013-07-08
JP5924932B2 true JP5924932B2 (en) 2016-05-25

Family

ID=48911820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011286519A Expired - Fee Related JP5924932B2 (en) 2011-12-27 2011-12-27 Image processing apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5924932B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5089783B2 (en) * 2010-04-30 2012-12-05 キヤノン株式会社 Image processing apparatus and control method thereof
JP2011250229A (en) * 2010-05-28 2011-12-08 Sony Corp Video signal processing apparatus, video signal processing method, and computer program

Also Published As

Publication number Publication date
JP2013135434A (en) 2013-07-08

Similar Documents

Publication Publication Date Title
US9378583B2 (en) Apparatus and method for bidirectionally inpainting occlusion area based on predicted volume
US9171373B2 (en) System of image stereo matching
US9582928B2 (en) Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
KR101502362B1 (en) Apparatus and Method for Image Processing
US9014463B2 (en) System for real-time stereo matching
JP6998388B2 (en) Methods and equipment for processing image property maps
US8643677B2 (en) Image processing apparatus and image processing method, and program therefor
US20160112659A1 (en) Image processing apparatus and image processing method, and program
US10115207B2 (en) Stereoscopic image processing method and apparatus thereof
KR20120074925A (en) Method for filling common hole and 3d video system thereof
JP2016038567A (en) Display device and control method of the same
KR102247565B1 (en) Method and apparatus for redndering
CN108431751B (en) Background removal
US8982187B2 (en) System and method of rendering stereoscopic images
US20130279799A1 (en) Image processing device, image processing method, and image processing program
JP2017021759A (en) Image processor, image processing method and program
EP2887310A1 (en) Method and apparatus for processing light-field image
JP2008521081A (en) Image rendering based on image segmentation
US20180232945A1 (en) Image processing apparatus, image processing system, image processing method, and storage medium
KR101373704B1 (en) Video processing method using adaptive weighted prediction
JP5924932B2 (en) Image processing apparatus and control method thereof
JP6740228B2 (en) Method, apparatus and system for reducing crosstalk in an autostereoscopic display
US20120170841A1 (en) Image processing apparatus and method
KR101582578B1 (en) Apparatus and methdo for processing graphic
JP5623156B2 (en) Image processing apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160419

R151 Written notification of patent or utility model registration

Ref document number: 5924932

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees