JP5243833B2 - Image signal processing circuit, image display device, and image signal processing method - Google Patents

Image signal processing circuit, image display device, and image signal processing method Download PDF

Info

Publication number
JP5243833B2
JP5243833B2 JP2008097714A JP2008097714A JP5243833B2 JP 5243833 B2 JP5243833 B2 JP 5243833B2 JP 2008097714 A JP2008097714 A JP 2008097714A JP 2008097714 A JP2008097714 A JP 2008097714A JP 5243833 B2 JP5243833 B2 JP 5243833B2
Authority
JP
Japan
Prior art keywords
image
processing
spatial frequency
subject distance
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008097714A
Other languages
Japanese (ja)
Other versions
JP2009251839A (en
Inventor
浩司 永田
昌広 影山
茂喜 長屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008097714A priority Critical patent/JP5243833B2/en
Publication of JP2009251839A publication Critical patent/JP2009251839A/en
Application granted granted Critical
Publication of JP5243833B2 publication Critical patent/JP5243833B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像を高解像度化するとともに、立体感や遠近感を効果的に作用させる技術に関する。   The present invention relates to a technique for increasing the resolution of an image and effectively causing a stereoscopic effect and perspective.

最近のテレビ受像機は大画面化が進んでおり、放送や通信、蓄積媒体等から入力された画像信号をそのまま表示するのではなく、デジタル信号処理によって水平・垂直方向の画素数を増やして表示することが一般的に行われている。この際、一般的に知られているsinc関数を用いた補間ローパスフィルタやスプライン関数等によって画素数を増やすだけでは解像度を上げることはできない。従来の高解像度化技術には、入力された複数の画像フレーム(以降、フレームと略記する)を合成して1枚のフレームとすることにより、高解像度化しながら画素数を増やす技術が開示されている(例えば、特許文献1、非特許文献1参照)。   Recent television receivers have become larger in screen size, and do not display image signals input from broadcasting, communication, storage media, etc. as they are, but display them by increasing the number of pixels in the horizontal and vertical directions by digital signal processing. It is generally done. At this time, the resolution cannot be increased only by increasing the number of pixels by an interpolation low-pass filter using a generally known sinc function, a spline function, or the like. Conventional high-resolution technology discloses a technology that increases the number of pixels while increasing the resolution by combining a plurality of input image frames (hereinafter abbreviated as frames) into one frame. (For example, refer to Patent Document 1 and Non-Patent Document 1).

特許文献1および非特許文献1に記載されている高解像度化技術(従来方式)では、(1)位置推定、(2)広帯域補間、(3)加重和、の3つの処理により高解像度化を行う。ここで、(1)位置推定は、入力された複数の画像フレームの各画像データを用いて、各画像データのサンプリング位相(標本化位置)の差を推定するものである。(2)広帯域補間は、原信号に含まれる折返し成分である高周波成分を全て透過する帯域の広いローパスフィルタを用いて補間して、各画像データの画素数(サンプリング点)を増やし、画像データの画素数を高解像度化するものである。(3)加重和は、各高解像度化された画像データに対して、サンプリング位相に応じた重み係数を加味して加重和をとることによって、画素サンプリングの際に生じた折返し成分を打ち消して除去するとともに、原信号の高周波成分を復元するものである。
前記した従来方式(以降、超解像処理という)によれば、表示画像の解像度を高くすることが可能である。
In the high resolution technology (conventional method) described in Patent Document 1 and Non-Patent Document 1, high resolution is achieved by three processes: (1) position estimation, (2) wideband interpolation, and (3) weighted sum. Do. Here, (1) position estimation is to estimate a difference in sampling phase (sampling position) of each image data using each image data of a plurality of input image frames. (2) Wideband interpolation is performed by interpolating using a wide-band low-pass filter that transmits all the high-frequency components included in the original signal to increase the number of pixels (sampling points) of each image data. This is to increase the resolution of the number of pixels. (3) The weighted sum is applied to each high-resolution image data by adding a weighting factor corresponding to the sampling phase and canceling out the aliasing components generated during pixel sampling. In addition, the high frequency component of the original signal is restored.
According to the above-described conventional method (hereinafter referred to as super-resolution processing), it is possible to increase the resolution of the display image.

図13は、超解像処理の手順を説明する図である。図13(a)は処理対象となる元画像を示す図であり、(b)は元画像の空間周波数スペクトルを示す図であり、(c)は超解像処理をした後の処理後画像を示す図であり、(d)は処理後画像の空間周波数スペクトルを示す図である。
図13(a)に示す元画像1001は、(横)Nx×(縦)Nyの画素数によって構成されている。元画像1001は、撮像系または表示系のサンプリング周波数の2分の1の周波数fの帯域幅を有した画像として表示できることになる。したがって、元画像1001の空間周波数スペクトルは、図13(b)に示すように、周波数fよりも高い周波成分が、折り返し成分として混入したものとなる。
超解像処理は、単一または複数の画像を用いて折り返し成分(高周波成分)を復元することによって、表示される画像の周波数帯域幅を広める。その結果、図13(c)に示す様に、(横)2Nx×(縦)2Nyの画素数の処理後画像1002(高解像度化画像)が得られる。この処理後画像1002の空間周波数スペクトルは、図13(d)に示すように、元画像1001の2倍の帯域幅2fを有する。
したがって、超解像処理では、表示画像の解像度を高くすることが可能となる。
特開平9−69755号公報 青木伸,“複数のデジタル画像データによる超解像処理”, Ricoh Technical Report,NOVEMBER, 1998,No.24,p.19-25
FIG. 13 is a diagram for explaining the procedure of super-resolution processing. FIG. 13A is a diagram showing an original image to be processed, FIG. 13B is a diagram showing a spatial frequency spectrum of the original image, and FIG. 13C is a processed image after the super-resolution processing. (D) is a figure which shows the spatial frequency spectrum of the image after a process.
An original image 1001 shown in FIG. 13A is configured by the number of pixels of (horizontal) Nx × (vertical) Ny. The original image 1001 can be displayed as an image having a bandwidth of a frequency f that is half the sampling frequency of the imaging system or the display system. Therefore, as shown in FIG. 13B, the spatial frequency spectrum of the original image 1001 is a mixture of frequency components higher than the frequency f as aliasing components.
In the super-resolution processing, the frequency bandwidth of the displayed image is widened by restoring the aliasing component (high-frequency component) using a single image or a plurality of images. As a result, as shown in FIG. 13C, a processed image 1002 (high resolution image) having the number of pixels of (horizontal) 2Nx × (vertical) 2Ny is obtained. The spatial frequency spectrum of this processed image 1002 has a bandwidth 2f that is twice that of the original image 1001, as shown in FIG.
Therefore, in the super-resolution process, it is possible to increase the resolution of the display image.
JP-A-9-69755 Shin Aoki, “Super-resolution processing using multiple digital image data”, Ricoh Technical Report, NOVEMBER, 1998, No.24, p.19-25

しかしながら、前記超解像処理により画像を高解像度化した場合、元画像に含まれていたぼやけが低減されてしまうため、高解像度化した画像では立体感や遠近感の低下をまねくという問題が発生する。
本発明は、以上のような問題に鑑みてなされたものであり、前記超解像処理による画像の高解像度化と、立体感や遠近感を効果的に作用させることとを両立する技術を提供することを目的とする。
However, when the resolution of the image is increased by the super-resolution processing, the blur included in the original image is reduced, and thus there is a problem that the increased resolution causes a reduction in stereoscopic effect and perspective. To do.
The present invention has been made in view of the problems as described above, and provides a technique that achieves both high resolution of an image by the super-resolution processing and effective action of stereoscopic effect and perspective. The purpose is to do.

前記した課題を解決するために、本発明は、画像中の被写体の奥行きに係る被写体距離に応じて分割して設けた複数の区間と、その区間と画像処理の種類とを関連付けた奥行き情報が記憶される記憶部を備え、入力画像中の被写体の被写体距離を算出し、前記記憶部を参照して、前記算出した前記被写体距離が属する前記区間を特定し、さらに、その特定した前記区間に関連付けられている前記画像処理の種類を特定し、前記特定した種類の前記画像処理を用いて、前記入力画像に対して演算処理を行って処理画像を出力する画像信号処理回路であって、前記画像処理の種類が、少なくとも、前記入力画像の単一フレームまたは複数フレームを用いた合成画像から、空間周波数スペクトルの折り返し成分を復元し空間周波数帯域幅を広げるとともに画素数を水平方向と垂直方向に対して増加する解像度変換処理、空間周波数帯域幅を変えることなく画素数を増やす画素数変化処理および前記入力画像の一部の画素信号を強調するまたは隣り合う画素間の画素値の差を少なくする空間周波数特性変化処理、のいずれか一つまたは二以上の組み合わせであり、前記入力画像中の被写体の被写体距離の算出を、前記入力画像の画面を複数に分割した微小領域ごとに行う際に、前記画像処理の種類として設定された全ての画像処理を用いて前記入力画像に対して演算処理を行って、全ての前記画像処理の種類に対応する前記微小領域の処理画像を求め、前記微小領域ごとに算出された前記被写体距離が属する前記区間を特定し、さらに、その特定した前記区間に関連付けられている前記画像処理の種類を特定し、前記特定した前記画像処理の種類に対応する前記微小領域の処理画像を取得して、前記処理画像の画面を構成して出力し、前記被写体距離が小さい前記区間に対して、前記処理画像の解像度を前記入力画像の解像度よりも高くする前記解像度変換処理または前記解像度変換処理とエッジを強調する前記空間周波数特性変化処理との組み合わせを関連付け、前記被写体距離が大きい前記区間に対して、前記画素数変化処理または前記画素数変化処理と解像度を低くするに従って空間周波数帯域幅を狭くする前記空間周波数特性変化処理との組み合わせを関連付けることを特徴とする。 In order to solve the above-described problem, the present invention provides a plurality of sections divided according to the subject distance related to the depth of the subject in the image, and depth information that associates the sections with the type of image processing. A storage unit for storing, calculating a subject distance of a subject in the input image, referring to the storage unit, identifying the section to which the calculated subject distance belongs, and further, to the specified section An image signal processing circuit that identifies the type of the image processing associated with the image processing and outputs a processed image by performing arithmetic processing on the input image using the image processing of the identified type, type of image processing is at least, from the composite image using a single frame or multiple frames of the input image, when widening the spatial frequency bandwidth restoring the aliasing components of the spatial frequency spectrum Resolution conversion process of increasing the monitor number of pixels in the horizontal direction and the vertical direction, adjacent or emphasize a portion of the pixel signals of the pixel number changing process and the input image to increase the number of pixels without changing the spatial frequency bandwidth Any one or a combination of two or more spatial frequency characteristic changing processes that reduce the difference in pixel value between matching pixels, and the calculation of the subject distance of the subject in the input image is performed on a plurality of screens of the input image. When performing for each minute region divided into two, the calculation processing is performed on the input image using all the image processing set as the image processing type, and the image processing corresponding to all the image processing types is performed. A processed image of a minute area is obtained, the section to which the subject distance calculated for each minute area belongs is specified, and the image associated with the specified section is further specified. Specify the type of processing, acquire the processed image of the minute area corresponding to the specified type of image processing, configure and output the screen of the processed image, and for the section with a small subject distance Te, associates a combination of the resolution converting process or emphasizing the resolution transformation processing and edge the spatial frequency characteristic change processing higher than the resolution of the processed image resolution of the input image, is large the object distance The interval is associated with a combination of the pixel number changing process or the pixel number changing process and the spatial frequency characteristic changing process that narrows the spatial frequency bandwidth as the resolution is lowered .

本発明によれば、画像の高解像度化と、立体感や遠近感を効果的に作用させることとを両立することができる。   According to the present invention, it is possible to achieve both high resolution of an image and effective action of stereoscopic effect and perspective.

《超解像処理における高解像度化とぼやけとの関係》
初めに、超解像処理によって画像を高解像度化した場合に、元の画像に含まれていたぼやけが低減してしまうことを、図14を用いて説明する。図14(a)は、元画像に含まれるぼやけを示す図であり、(b)は高解像度化した処理後画像に含まれるぼやけを示す図であり、(c)は元画像および従来方式画像において知覚される奥行きを示す図である。
<Relationship between high resolution and blur in super-resolution processing>
First, it will be described with reference to FIG. 14 that blurring included in an original image is reduced when the resolution of the image is increased by super-resolution processing. FIG. 14A is a diagram showing blur included in the original image, FIG. 14B is a diagram showing blur included in the processed image having a higher resolution, and FIG. 14C is the original image and the conventional method image. It is a figure which shows the depth perceived in.

図14(a)に示した元画像1001は、山の遠景を背景として人物が撮影された画像である。人物は、手前側に位置し、撮像系の被写界深度内にあって、焦点が合っているとみなせる状態となる。したがって、背景の微小領域1101のぼやけを表す量(ぼやけ量)1102の大きさは、人物の(人物を含む)微小領域1103のぼやけ量1104より大きくなる。ここで、ぼやけ量とは、被写体上の点が表示画像上でどの程度広がるか(点広がり)を示す量とする。
すなわち、人物の微小領域1103のぼやけ量1104は、小さな点広がりとなる。これに対して、背景となる山の遠景では、撮像系の被写界深度が有限であるため、焦点が大きくずれている。したがって、遠景の微小領域1101のぼやけ量1102は大きな点広がりとなる。
An original image 1001 illustrated in FIG. 14A is an image in which a person is photographed against a background of a mountain. The person is located on the near side, is within the depth of field of the imaging system, and can be regarded as being in focus. Accordingly, the amount of blurring (blurring amount) 1102 representing the blurring of the minute area 1101 in the background is larger than the blurring amount 1104 of the minute area 1103 (including the person) of the person. Here, the blur amount is an amount indicating how much a point on the subject spreads on the display image (point spread).
In other words, the blur amount 1104 of the minute area 1103 of the person has a small point spread. On the other hand, in the distant view of the mountain as the background, the focus is greatly deviated because the depth of field of the imaging system is finite. Therefore, the amount of blur 1102 in the distant micro-area 1101 has a large point spread.

図14(b)は、超解像処理後の処理後画像のぼやけ量を示している。人物の微小領域1203のぼやけ量1204および背景の微小領域1201のぼやけ量1202は、超解像処理による高解像度化によって、元画像1001の場合よりも低減する。したがって、それぞれのぼやけ量1204および1202は、元画像1001の場合に比べて、点広がりが減少する。   FIG. 14B shows the blur amount of the processed image after the super-resolution processing. The blur amount 1204 of the human minute region 1203 and the blur amount 1202 of the background minute region 1201 are reduced as compared with the case of the original image 1001 by increasing the resolution by super-resolution processing. Therefore, each blur amount 1204 and 1202 has a reduced point spread as compared with the original image 1001.

図14(c)は、横軸に同じ絵柄を含む微小領域の並びを表し、縦軸(左側)にぼやけ量を表し、縦軸(右側)に知覚される奥行きを表している。すなわち、横軸は、元画像1001の微小領域のぼやけ量1102と、処理後画像1002の微小領域のぼやけ量1202とを比較するため、同じ絵柄に相当する微小領域を並べたものである。そして、縦軸は、ぼやけ量の大きさが被写体までの距離に依存するので、ぼやけ量と立体感や遠近感(知覚される奥行き)との両方で示している。
図14(c)に示す実線1301は元画像1001の特性であり、破線1302は従来方式画像の特性(処理後画像1002の特性)である。図14(c)に示すように、破線1302のぼやけ量は、実線1301のぼやけ量に比べて、超解像処理によって全域で小さくなる。そのため、元画像1001と処理後画像1002とにおいて同じ絵柄を含む微小領域についてぼやけ量を比較した場合、それぞれG点1303とH点1304となり、処理後画像1002によって知覚される奥行きは、元画像1001によって知覚される奥行きよりも狭くなる。
In FIG. 14C, the horizontal axis represents the arrangement of minute regions including the same pattern, the vertical axis (left side) represents the blur amount, and the vertical axis (right side) represents the perceived depth. In other words, the horizontal axis shows the minute regions corresponding to the same pattern in order to compare the blur amount 1102 of the minute region of the original image 1001 with the blur amount 1202 of the minute region of the processed image 1002. The vertical axis indicates both the amount of blur and the stereoscopic effect and perspective (perceived depth) because the amount of blur depends on the distance to the subject.
The solid line 1301 shown in FIG. 14C is the characteristic of the original image 1001, and the broken line 1302 is the characteristic of the conventional system image (characteristic of the processed image 1002). As shown in FIG. 14C, the blur amount indicated by the broken line 1302 is smaller than the blur amount indicated by the solid line 1301 by the super-resolution processing. Therefore, when the blur amount is compared for a minute region including the same pattern in the original image 1001 and the processed image 1002, the G point 1303 and the H point 1304 are obtained, and the depth perceived by the processed image 1002 is the original image 1001. Becomes narrower than the perceived depth.

次に、本発明を実施するための最良の形態(以降、「実施形態」という)について、適宜図面を用いながら詳細に説明する。   Next, the best mode for carrying out the present invention (hereinafter referred to as “embodiment”) will be described in detail with reference to the drawings as appropriate.

《第1実施形態》
まず、知覚される奥行き(奥行き感)を制御する処理機能の概要について、図1を用いて説明する。図1(a)は、従来の処理機能の概要を示す図であり、(b)は本発明の処理機能の概要を示す図である。
図1(a)に示すように、従来の処理では、画像入力101に対して画像処理102を行い、その結果を画像表示103を行う処理系において、超解像処理方式104(前記した超解像処理)が用いられていた。
<< First Embodiment >>
First, an overview of a processing function for controlling the perceived depth (depth feeling) will be described with reference to FIG. FIG. 1A is a diagram showing an overview of conventional processing functions, and FIG. 1B is a diagram showing an overview of processing functions of the present invention.
As shown in FIG. 1A, in the conventional processing, the image processing 102 is performed on the image input 101, and the result is displayed in the super-resolution processing method 104 (the above-described super-resolution) in the processing system that performs the image display 103. Image processing) was used.

次に、本発明の処理では、図1(b)に示すように、画像処理102aが、超解像処理方式104(解像度変換処理)を含む複数の方式(画素数拡大処理方式121(画素数変化処理)、エッジ強調処理方式122(空間周波数特性変化処理)、平滑化処理方式123(空間周波数特性変化処理)等)を備える。そして、画像入力101に対して、その画像の奥行き情報を解析する奥行き情報解析124が設けられる。奥行き情報解析124からの出力である「方法の指定」125が画像処理102aに入力される。画像処理102aは、方法の指定125にしたがって、画像処理102aに設けられた方式を適宜選択・組み合わせて画像処理を行う。その画像処理の結果が、画像表示103によって表示される。
奥行き情報解析124における解析処理のパラメータ設定は、画質設定126や処理設定127によって変更可能である。
画質設定126は、奥行き感をどれだけ強調するかを設定する機能を有する。すなわち、画質設定126は、エッジ強調の度合いや平滑化の度合いを設定する機能を有する。
処理設定127は、方式の処理パラメータを設定する機能を有する。なお、処理設定127の詳細については、後記する。
Next, in the processing of the present invention, as shown in FIG. 1B, the image processing 102a includes a plurality of methods (pixel number enlargement processing method 121 (pixel number) including the super-resolution processing method 104 (resolution conversion processing). Change processing), edge enhancement processing method 122 (spatial frequency characteristic change processing), smoothing processing method 123 (spatial frequency characteristic change processing), and the like. For the image input 101, a depth information analysis 124 for analyzing the depth information of the image is provided. The “method designation” 125 output from the depth information analysis 124 is input to the image processing 102 a. The image processing 102a performs image processing by appropriately selecting and combining the methods provided in the image processing 102a in accordance with the method designation 125. The image processing result is displayed on the image display 103.
The parameter setting for the analysis process in the depth information analysis 124 can be changed by the image quality setting 126 and the process setting 127.
The image quality setting 126 has a function of setting how much depth is emphasized. That is, the image quality setting 126 has a function of setting the degree of edge enhancement and the degree of smoothing.
The process setting 127 has a function of setting process parameters. Details of the process setting 127 will be described later.

ここで、画像処理102aにおいて用いられる、画素数拡大処理方式121、エッジ強調処理方式122、および平滑化処理方式123について、以下に説明する。
画素数拡大処理方式121は、ほとんど解像度変化を伴わない方式であって、例えば、画素間の直線補間や非線形補間などの補間によって画素数の増加が行われる。したがって、画素数拡大処理方式121を用いた場合、処理後画像1002(図14(b)参照)の空間周波数帯域幅は、元画像1001の空間周波数帯域幅に対して、ほとんど変化しない。
エッジ強調処理方式122は、隣り合う画素間の画素値(例えば、(輝度、色差)あるいはRGB等)の差を強調する方式である。例えば、エッジ強調処理方式122は、輪郭を強調することが可能となる。
平滑化処理方式123は、隣り合う画素間の画素値の差を小さくする方式である。例えば、平滑化処理方式123は、輪郭をぼかすことが可能となる。すなわち、平滑化処理方式123は、処理後画像1002の空間周波数帯域幅を、元画像1001の空間周波数帯域幅より狭くすることが可能となる。
Here, the pixel number enlargement processing method 121, the edge enhancement processing method 122, and the smoothing processing method 123 used in the image processing 102a will be described below.
The pixel number enlargement processing method 121 is a method with almost no change in resolution. For example, the number of pixels is increased by interpolation such as linear interpolation or non-linear interpolation between pixels. Therefore, when the pixel number enlargement processing method 121 is used, the spatial frequency bandwidth of the processed image 1002 (see FIG. 14B) hardly changes with respect to the spatial frequency bandwidth of the original image 1001.
The edge enhancement processing method 122 is a method for enhancing a difference in pixel values (for example, (luminance, color difference) or RGB) between adjacent pixels. For example, the edge enhancement processing method 122 can enhance the contour.
The smoothing processing method 123 is a method for reducing a difference in pixel values between adjacent pixels. For example, the smoothing processing method 123 can blur the outline. That is, the smoothing processing method 123 can make the spatial frequency bandwidth of the processed image 1002 narrower than the spatial frequency bandwidth of the original image 1001.

次に、奥行き情報解析124における、解像度(処理)と奥行き感すなわち奥行き距離(推定)との関係を、図2を用いて説明する。図2は、解像度(処理)と奥行き距離(推定)との関係の一例を示す図である。
人間の知覚特性によれば、解像度(処理)と奥行き距離(推定)との関係は、領域140に示したように、奥行き距離(推定)が大きくなるにしたがって、解像度(処理)が低くてもよいという傾向にある。この理由は、図14(c)に示したように、ぼやけ量が大きい場合には知覚される奥行きが遠く感じられるためである。そして、ぼやけ量がある程度大きな画像領域に対しては、超解像処理を行うのではなく、ぼやけ量が改善されないような方式(例えば、画素数拡大処理方式121や平滑化処理方式123)を用いた方が良いことになる。
Next, the relationship between the resolution (processing) and the sense of depth, that is, the depth distance (estimation) in the depth information analysis 124 will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of the relationship between resolution (processing) and depth distance (estimation).
According to human perceptual characteristics, the relationship between the resolution (processing) and the depth distance (estimation) is such that, as the depth distance (estimation) increases, the resolution (processing) decreases as the depth distance (estimation) increases. It tends to be good. This is because, as shown in FIG. 14C, when the blur amount is large, the perceived depth is felt far away. Then, for an image region having a somewhat large amount of blur, a method that does not improve the blur amount (for example, the pixel number enlargement processing method 121 or the smoothing processing method 123) is used instead of performing super-resolution processing. It would be better to be there.

次に、奥行き情報解析124の出力である方式の指定125について、図3,図4を用いて説明する。図3は、「奥行き距離小」の方式の指定の場合の方式選択の一例を示す図である。図4は、「奥行き距離大」の方式の指定の場合の方式選択の一例を示す図である。
図3では、奥行き情報解析124が、画像入力101の中の微小領域について、奥行き距離が小と判断した場合を示している。その奥行き情報解析124の結果から、方式の指定125aは、超解像処理を選択する情報となる。これにより、画像入力101は超解像処理104によって高解像度化されて、その高解像度化された画像が画像表示103によって表示される。
Next, the method designation 125 that is the output of the depth information analysis 124 will be described with reference to FIGS. FIG. 3 is a diagram illustrating an example of method selection in the case of specifying the “small depth distance” method. FIG. 4 is a diagram illustrating an example of method selection in the case of designating a method of “large depth distance”.
FIG. 3 illustrates a case where the depth information analysis 124 determines that the depth distance is small for a minute region in the image input 101. From the result of the depth information analysis 124, the method designation 125a is information for selecting the super-resolution processing. Thereby, the resolution of the image input 101 is increased by the super-resolution processing 104, and the image with the increased resolution is displayed on the image display 103.

図4では、奥行き情報解析124が、画像入力101の中の微小領域について、奥行き距離が大と判断された場合を示している。その奥行き情報解析124の結果から、方式の指定125bは、画素数拡大処理方式121によって処理した後に、平滑化処理方式123によって処理することを選択する情報となる。これにより、画像入力101は画素数拡大処理方式121によって画素数が増やされ、その後平滑化処理方式によって平滑化されて、その処理された画像が画像表示103によって表示される。   FIG. 4 illustrates a case where the depth information analysis 124 determines that the depth distance is large for a minute region in the image input 101. From the result of the depth information analysis 124, the method designation 125 b is information for selecting processing by the smoothing processing method 123 after processing by the pixel number enlargement processing method 121. As a result, the number of pixels of the image input 101 is increased by the pixel number enlargement processing method 121, and then smoothed by the smoothing processing method, and the processed image is displayed on the image display 103.

次に、奥行き情報解析124の詳細な処理機能について、図5を用いて説明する。図5(a)は、奥行き情報解析において、焦点ぼやけ量推定を用いた場合の処理機能の一例を示す図であり、(b)は、奥行き情報解析において、空間周波数分析を用いた場合の処理機能の一例を示す図であり、(c)は、奥行き情報解析において、奥行き距離推定を用いた場合の処理機能の一例を示す図である。   Next, detailed processing functions of the depth information analysis 124 will be described with reference to FIG. FIG. 5A is a diagram illustrating an example of a processing function when focus blur amount estimation is used in depth information analysis, and FIG. 5B is a process when spatial frequency analysis is used in depth information analysis. It is a figure which shows an example of a function, (c) is a figure which shows an example of a processing function at the time of using depth distance estimation in depth information analysis.

奥行き情報解析124aは、図5(a)に示すように、画像の入力を受け付けて、領域分割141、焦点ぼやけ量推定142、奥行き量閾値処理143、処理割り当て144の順に処理を実行し、方式の指定情報を出力する。
領域分割141は、入力された画像情報を、画面上の微小領域に分割する機能を有する。微小領域とは、縦および横に隣り合う画素の並びの幅を有する領域のことであって、例えば、後記する図6(a)に示す(横)dx×(縦)dyの矩形領域のことである。なお、この微小領域のサイズは、処理設定127によって設定される。
そして、微小領域ごとに、焦点ぼやけ量推定142、奥行き量閾値処理143、処理割り当て144の各処理が行われる。
As shown in FIG. 5A, the depth information analysis 124a receives input of an image and executes processing in the order of region division 141, focal blur amount estimation 142, depth amount threshold value processing 143, and processing assignment 144. Output the specified information.
The area division 141 has a function of dividing input image information into minute areas on the screen. The micro area is an area having a width of the arrangement of adjacent pixels vertically and horizontally, and is, for example, a rectangular area of (horizontal) dx × (vertical) dy shown in FIG. It is. Note that the size of the minute area is set by the process setting 127.
Then, each process of focal blur amount estimation 142, depth amount threshold processing 143, and processing allocation 144 is performed for each minute region.

焦点ぼやけ量推定142は、カメラレンズの焦点ぼやけ量を推定し、その推定結果から奥行き距離を推定する機能を有する。なお、焦点ぼやけ量の推定は、例えば、微小領域内の画素値または微小領域を含むその周辺の画素値も含めた相関の大きさに基づいて行われる。
奥行き量閾値処理143は、推定した奥行き距離の長さの閾値を設定する機能を有する。この閾値は、推定した奥行き距離の長さに応じて、処理に用いる方式を決定するときの比較基準として用いられる。なお、この閾値は、画質設定126によって、可変にされるものとする。
処理割り当て144は、推定された奥行き距離の長さと、奥行き量閾値処理143によって設定された閾値とを比較判定し、ある閾値間の範囲内であればどの方式を用いるかを決定する機能を有する。
The focal blur amount estimation 142 has a function of estimating the focal blur amount of the camera lens and estimating the depth distance from the estimation result. The focal blur amount is estimated based on, for example, the correlation value including the pixel value in the minute region or the surrounding pixel value including the minute region.
The depth amount threshold value processing 143 has a function of setting a threshold value of the length of the estimated depth distance. This threshold value is used as a comparison reference when determining a method to be used for processing according to the estimated length of the depth distance. Note that this threshold value is made variable by the image quality setting 126.
The process assignment 144 has a function of comparing and determining the estimated depth distance length and the threshold set by the depth amount threshold process 143 and determining which method is used as long as it is within a range between certain thresholds. .

なお、前記した焦点ぼやけ量推定142では、焦点ぼやけ量から奥行き距離を推定していたが、焦点ぼやけ量を推定する(焦点ぼやけ量分析)機能だけであっても良い。その場合、奥行き量閾値処理143は、推定した焦点ぼやけ量の大きさの閾値を設定する機能を有するものとする。   In the focus blur amount estimation 142 described above, the depth distance is estimated from the focus blur amount. However, only the function of estimating the focus blur amount (focus blur amount analysis) may be used. In this case, it is assumed that the depth amount threshold processing 143 has a function of setting a threshold value of the estimated focal blur amount.

奥行き情報解析124bは、図5(b)に示すように、画像の入力を受け付けて、領域分割151、空間周波数分析152、奥行き量閾値処理153、処理割り当て154の順に処理を実行し、方式の指定情報を出力する。
領域分割151は、前記した領域分割141と同様に、入力された画像情報を、画像上の微小領域に分割する機能を有する。ただし、領域分割141において用いた微小領域のサイズとは異なっても良い。なお、この微小領域のサイズは、処理設定127によって設定される。
そして、微小領域ごとに、空間周波数分析152、奥行き量閾値処理153、処理割り当て154の各処理が行われる。
As shown in FIG. 5B, the depth information analysis 124b receives input of an image and executes processing in the order of region division 151, spatial frequency analysis 152, depth amount threshold processing 153, and processing allocation 154. Outputs specified information.
The area division 151 has a function of dividing the input image information into minute areas on the image, like the above-described area division 141. However, the size of the micro area used in the area division 141 may be different. Note that the size of the minute area is set by the process setting 127.
Then, each process of spatial frequency analysis 152, depth amount threshold processing 153, and processing allocation 154 is performed for each minute region.

空間周波数分析152は、空間周波数帯域幅を求めて、その結果から奥行き距離を推定する機能を有する。なお、空間周波数帯域幅から奥行き距離を推定可能な根拠は、カメラレンズの被写界深度が有限であるので、被写体画像の空間周波数帯域幅は被写体までの距離に依存することに基づく。つまり、遠くのものはぼやけて空間周波数帯域幅が狭く、近いものはぼやけが少なく空間周波数帯域幅が広くなる。この関係に基づいて、微小領域毎に奥行き距離を推定するものである。
奥行き量閾値処理153は、推定した奥行き距離の長さの閾値を設定する機能を有する。この閾値は、推定した奥行き距離の長さに応じて、処理に用いる方式を決定するときの比較基準として用いられる。なお、この閾値は、画質設定126によって、可変にされるものとする。また、この閾値は、前記した奥行き量閾値処理143による設定とは異なっていても良い。
処理割り当て154は、推定された奥行き距離の長さと、奥行き量閾値処理153によって設定された閾値とを比較判定し、ある閾値間の範囲内であればどの方式を用いるかを決定する機能を有する。
The spatial frequency analysis 152 has a function of obtaining a spatial frequency bandwidth and estimating a depth distance from the result. The reason why the depth distance can be estimated from the spatial frequency bandwidth is based on the fact that the spatial frequency bandwidth of the subject image depends on the distance to the subject because the depth of field of the camera lens is finite. That is, a far object is blurred and the spatial frequency bandwidth is narrow, and a near object is less blurred and the spatial frequency bandwidth is wide. Based on this relationship, the depth distance is estimated for each minute region.
The depth amount threshold value processing 153 has a function of setting a threshold value of the length of the estimated depth distance. This threshold value is used as a comparison reference when determining a method to be used for processing according to the estimated length of the depth distance. Note that this threshold value is made variable by the image quality setting 126. The threshold value may be different from the setting by the depth amount threshold value processing 143 described above.
The process assignment 154 has a function of comparing and determining the length of the estimated depth distance and the threshold set by the depth amount threshold process 153 and determining which method is used as long as it is within a range between certain thresholds. .

なお、前記した空間周波数分析152では、空間周波数帯域幅から奥行き距離を推定していたが、空間周波数帯域幅を算出する機能だけであっても良い。その場合、奥行き量閾値処理153は、算出した空間周波数帯域幅の大きさの閾値を設定する機能を有するものとする。   In the spatial frequency analysis 152 described above, the depth distance is estimated from the spatial frequency bandwidth. However, only the function of calculating the spatial frequency bandwidth may be used. In this case, it is assumed that the depth amount threshold processing 153 has a function of setting a threshold value of the calculated spatial frequency bandwidth.

奥行き情報解析124cは、図5(c)に示すように、画像の入力を受け付けて、領域分割161、奥行き距離推定162、奥行き量閾値処理163、処理割り当て164の順に処理を実行し、方式の指定情報を出力する。
領域分割161は、前記した領域分割141,151と同様に、入力された画像情報を、画像上の微小領域に分割する機能を有する。ただし、領域分割141,151において用いた微小領域のサイズとは異なっても良い。なお、この微小領域のサイズは、処理設定127によって設定される。
そして、微小領域ごとに、奥行き距離推定162、奥行き量閾値処理163、処理割り当て164の各処理が行われる。
As shown in FIG. 5C, the depth information analysis 124c receives image input and executes processing in the order of region division 161, depth distance estimation 162, depth amount threshold processing 163, and processing allocation 164. Outputs specified information.
The area division 161 has a function of dividing the input image information into minute areas on the image, similarly to the above-described area divisions 141 and 151. However, the size of the micro area used in the area divisions 141 and 151 may be different. Note that the size of the minute area is set by the process setting 127.
Then, each process of depth distance estimation 162, depth amount threshold value processing 163, and process allocation 164 is performed for each minute region.

奥行き距離推定162は、奥行き距離を推定する機能を有する。奥行き距離推定162は、焦点ぼやけ量推定142(図5(a)参照)によって推定される奥行き距離と、空間周波数分析152(図5(b)参照)によって推定される奥行き距離とをそれぞれ算出し、双方に重みを加味して重み付き奥行き距離を算出する。
奥行き量閾値処理163は、重み付き奥行き距離の長さの閾値を設定する機能を有する。この閾値は、重み付き奥行き距離の長さに応じて、処理に用いる方式を決定するときの比較基準として用いられる。なお、この閾値は、画質設定126によって、可変にされるものとする。また、この閾値は、前記した奥行き量閾値処理143,153による設定とは異なっていても良い。
処理割り当て164は、重み付き奥行き距離の長さと、奥行き量閾値処理163によって設定された閾値とを比較判定し、ある閾値間の範囲内であればどの方式を用いるかを決定する機能を有する。
The depth distance estimation 162 has a function of estimating the depth distance. The depth distance estimation 162 calculates the depth distance estimated by the focal blur amount estimation 142 (see FIG. 5A) and the depth distance estimated by the spatial frequency analysis 152 (see FIG. 5B), respectively. The weighted depth distance is calculated by adding weights to both sides.
The depth amount threshold processing 163 has a function of setting a length threshold of the weighted depth distance. This threshold is used as a comparison reference when determining a method to be used for processing according to the length of the weighted depth distance. Note that this threshold value is made variable by the image quality setting 126. Further, this threshold value may be different from the setting by the depth amount threshold value processing 143 and 153 described above.
The process assignment 164 has a function of comparing and determining the length of the weighted depth distance and the threshold set by the depth amount threshold process 163 and determining which method is used as long as it is within a range between certain thresholds.

次に、第1実施形態における処理の流れについて、図6,図7を用いて説明する。図6(a)は、微小領域の一例を示す図であり、(b)は、微小領域のぼやけ量の一例を示す図であり、(c)は、ぼやけ量と奥行き距離推定値との関係の一例を示す図である。図7(a)は、奥行き距離推定値と奥行き量閾値との関係を表す一例を示す図であり、(b)は、奥行き量閾値と処理方式とを関連付ける処理方式割当テーブルの一例を示す図である。   Next, the flow of processing in the first embodiment will be described with reference to FIGS. FIG. 6A is a diagram illustrating an example of a minute region, FIG. 6B is a diagram illustrating an example of a blur amount of the minute region, and FIG. 6C is a relationship between the blur amount and the depth distance estimation value. It is a figure which shows an example. FIG. 7A is a diagram illustrating an example of the relationship between the depth distance estimation value and the depth amount threshold value, and FIG. 7B is a diagram illustrating an example of a processing method allocation table that associates the depth amount threshold value with the processing method. It is.

図6(a)には、処理対象となる元画像201が示されている。そして、元画像201の画面は、複数の微小領域202に分割される。この処理は、図5(a)に示した領域分割141によって行われる。
微小領域202のサイズは、(横)dx×(縦)dyであり、前記した処理設定127(図5参照)によって決定される。また、微小領域202のサイズは、元画像201全体の縦横の画素数、元画像201の空間周波数帯域幅、画像処理後の画質および実装したときの演算処理速度等との兼ね合いで、決められる。
FIG. 6A shows an original image 201 to be processed. Then, the screen of the original image 201 is divided into a plurality of minute regions 202. This process is performed by the area division 141 shown in FIG.
The size of the minute region 202 is (horizontal) dx × (vertical) dy, and is determined by the processing setting 127 (see FIG. 5). The size of the minute area 202 is determined in consideration of the number of vertical and horizontal pixels of the entire original image 201, the spatial frequency bandwidth of the original image 201, the image quality after image processing, the calculation processing speed when mounted, and the like.

図6(b)は、微小領域202ごとに、ぼやけ量(焦点ぼやけ量)Brxyを演算して推定することを示している。図6(c)において、データの範囲211は、予め、ぼやけ量Brxyと既知の奥行き距離との関係を求めてプロットしたデータを示している。また、予測関数210は、データの範囲211のデータを用いて、回帰分析や最小二乗法等によって導出された傾向を示している。そして、ぼやけ量Brxy(図6(b)参照)が算出されると、予測関数210を用いて、奥行き距離推定値(d)を算出(推定)することが可能となる。なお、予測関数210は、図6(c)では、直線として表されているが、高次の曲線であっても良い。この予測関数210は、数式でも、テーブルであっても構わない。
なお、図6(b)および(c)に示した処理は、図5(a)に示した焦点ぼやけ量推定142によって行われる。
また、ぼやけ量Brxyを算出する代わりに、空間周波数帯域幅を算出する場合は、図5(b)に示した空間周波数分析152によって行われる処理となる。さらに、ぼやけ量Brxyを算出する代わりに、重み付き奥行き距離推定値(d)を算出する場合は、図5(c)に示した奥行き距離推定162によって行われる処理となる。
FIG. 6B shows that the blur amount (focus blur amount) Brxy is calculated and estimated for each minute region 202. In FIG. 6C, a data range 211 indicates data plotted by obtaining a relationship between the blur amount Brxy and a known depth distance in advance. The prediction function 210 indicates a tendency derived by regression analysis, a least square method, or the like using data in the data range 211. When the blur amount Brxy (see FIG. 6B) is calculated, the depth distance estimated value (d) can be calculated (estimated) using the prediction function 210. Note that the prediction function 210 is represented as a straight line in FIG. 6C, but may be a higher-order curve. The prediction function 210 may be a mathematical formula or a table.
The processes shown in FIGS. 6B and 6C are performed by the focal blur amount estimation 142 shown in FIG.
In addition, when calculating the spatial frequency bandwidth instead of calculating the blur amount Brxy, the processing is performed by the spatial frequency analysis 152 illustrated in FIG. Furthermore, when calculating the weighted depth distance estimation value (d) instead of calculating the blur amount Brxy, the processing is performed by the depth distance estimation 162 shown in FIG.

次に、図7(a)では、奥行き距離推定値(d)を複数の区間に分割する閾値を設定することが示されている。図7(a)は、閾値が6個(d1〜d6)設定された例を示されている。この閾値を設定する処理は、図5(a)に示した奥行き量閾値処理143によって行われる。そして、閾値は、画質設定126(図5参照)によって決定される。   Next, FIG. 7A shows that a threshold value for dividing the depth distance estimation value (d) into a plurality of sections is set. FIG. 7A shows an example in which six threshold values (d1 to d6) are set. The processing for setting this threshold is performed by the depth amount threshold processing 143 shown in FIG. The threshold value is determined by the image quality setting 126 (see FIG. 5).

図7(b)では、閾値(d1〜d6)によって分割された区間にそれぞれ対応する処理方式を関連付けた、処理方式割当テーブル220(奥行き情報)が示されている。例えば、処理方式割当テーブル220では、奥行き距離推定値(d)がd3からd4の区間内にあれば、処理方式4によって画像処理が実行されることになる。なお、処理方式割当テーブル220に示されている、閾値と処理方式との関連付けは、画質設定126(図5参照)によって決定される。   FIG. 7B shows a processing method allocation table 220 (depth information) in which processing methods corresponding to the sections divided by the threshold values (d1 to d6) are associated with each other. For example, in the processing method allocation table 220, if the depth distance estimation value (d) is within the section from d3 to d4, image processing is executed by the processing method 4. The association between the threshold and the processing method shown in the processing method allocation table 220 is determined by the image quality setting 126 (see FIG. 5).

そして、処理の流れは、図7(a)中の矢印によって示されるように、ぼやけ量Brxyが与えられると、予測関数210を用いて、奥行き距離推定量(d)が閾値d3からd4の間にあると判定される。次に、処理方式割当テーブル220を参照して、処理方式4で処理を行うことが決定される。この処理は、図5(a)に示した処理割り当て144によって行われる。   Then, as indicated by the arrow in FIG. 7A, the flow of processing is such that when the blur amount Brxy is given, the estimated depth distance (d) is between the threshold values d3 and d4 using the prediction function 210. It is determined that Next, it is determined with reference to the processing method allocation table 220 that processing is performed in the processing method 4. This process is performed by the process assignment 144 shown in FIG.

以上、図6(a),(b)および図7(a),(b)に示した処理の流れは、奥行き情報解析124aにおける処理の流れ、すなわち、焦点ぼやけ量(ぼやけ量Brxy)を用いた場合について示した。なお、奥行き情報解析124bにおける処理の流れは、焦点ぼやけ量(ぼやけ量Brxy)を空間周波数帯域幅に置き換えて、図6(a),(b)および図7(a),(b)に示した処理の流れと同様となる。また、奥行き情報解析124c(図5(c)参照)における処理の流れも、焦点ぼやけ量(ぼやけ量Brxy)を重み付き奥行き距離に置き換えて、図6(a),(b)および図7(a),(b)に示した処理の流れと同様となる。
また、詳細な説明は省略するが、微小領域ごとに動きベクトルを検出し、その動きベクトルの大きさが、近くは大きく、遠くは小さいことを利用して、奥行き距離を推定しても良い。この場合には、焦点ぼやけ量を動きベクトルの大きさに置き換えて、図6(a),(b)および図7(a),(b)に示した処理の流れと同様となる。
The processing flow shown in FIGS. 6A and 6B and FIGS. 7A and 7B uses the processing flow in the depth information analysis 124a, that is, the focus blur amount (blur amount Brxy). Shown if there was. The processing flow in the depth information analysis 124b is shown in FIGS. 6A and 6B and FIGS. 7A and 7B by replacing the focal blur amount (blur amount Brxy) with the spatial frequency bandwidth. The process flow is the same. In addition, the processing flow in the depth information analysis 124c (see FIG. 5C) also replaces the focal blur amount (blur amount Brxy) with the weighted depth distance, and FIGS. The processing flow is the same as shown in a) and (b).
Although detailed description is omitted, a depth vector may be estimated by detecting a motion vector for each minute region and using the fact that the size of the motion vector is large near and small near. In this case, the focal blur amount is replaced with the magnitude of the motion vector, and the processing flow is the same as that shown in FIGS. 6 (a) and 6 (b) and FIGS. 7 (a) and 7 (b).

《具体例1》
図7に示した処理の流れについて、図5に示す奥行き情報解析124aを用いた具体的な例で示すとともに、処理後画像において知覚される奥行き感の改善効果の一具体例について、図8,図9を用いて説明する。図8(a)は、奥行き距離推定値の閾値の設定を表す一具体例を示す図であり、(b)は、閾値によって区分された領域と微小領域との関係を表す一具体例を示す図であり、(c)は、閾値によって区分された領域と処理方式とを関連付ける処理方式割当テーブルの一具体例を示す図である。図9(a)は、処理後画像のぼやけ量を表す一具体例を示す図であり、(b)は、元画像、処理後画像、および従来方式画像において知覚される奥行きを表す一具体例を示す図である。
<< Specific Example 1 >>
The processing flow shown in FIG. 7 is shown by a specific example using the depth information analysis 124a shown in FIG. 5, and a specific example of the effect of improving the sense of depth perceived in the processed image is shown in FIG. This will be described with reference to FIG. FIG. 8A is a diagram showing a specific example showing the setting of the threshold value of the depth distance estimation value, and FIG. 8B shows a specific example showing the relationship between the region divided by the threshold value and the minute region. FIG. 8C is a diagram illustrating a specific example of a processing method allocation table that associates regions classified by thresholds with processing methods. FIG. 9A is a diagram showing a specific example showing the blur amount of the processed image, and FIG. 9B is a specific example showing the perceived depth in the original image, the processed image, and the conventional system image. FIG.

図8(a)に示すように、奥行き距離推定値(d)は、閾値dA,dB,dC,dDによって5つの領域(A,B,C,D,E)に分割される。この閾値の設定は、画質設定126(図5(a)参照)によって行われる。
そして、それぞれの領域(A,B,C,D,E)では、図8(b)に示すように、元画像201の人物は、奥行き距離推定値(d)が最も短い領域Eに、また、背景は、奥行き距離推定値(d)の違いにより、近い方から順に領域D、領域C、領域B、領域Aに設定されることになる。
そして、図8(c)に示すように、処理方式割当テーブル230が、画質設定126(図5(a)参照)によって設定される。すなわち、各領域(A,B,C,D,E)に対応する処理方式(5,4,3,2,1)が関係付けられる。処理方式割当テーブル230では、最も近い人物の領域Eの処理には、高解像度化方式(超解像処理方式)が割り当てられる。また、最も遠い背景の領域Aの処理には、元画像201が有するぼやけ量を保存する様に解像度変化の無い単純画素数拡大方式が割り当てられる。そして、その中間領域となる領域B,C,Dの処理には、高解像度化(超解像処理)の後、異なる周波数帯域幅のフィルタ(強、中、弱)による平滑化処理(強、中、弱)を行う方式が割り当てられる。なお、平滑化処理(強)は、平滑化処理(中)に比較して、ぼやけ量をより大きくする機能を有する。また、平滑化処理(中)は、平滑化処理(弱)に比較して、ぼやけ量をより大きくする機能を有する。
As shown in FIG. 8A, the depth distance estimation value (d) is divided into five regions (A, B, C, D, E) by threshold values dA, dB, dC, dD. This threshold value is set by the image quality setting 126 (see FIG. 5A).
And in each area | region (A, B, C, D, E), as shown in FIG.8 (b), the person of the original image 201 is in the area E with the shortest depth distance estimated value (d). The background is set in the region D, the region C, the region B, and the region A in order from the nearest due to the difference in the depth distance estimation value (d).
Then, as shown in FIG. 8C, the processing method allocation table 230 is set by the image quality setting 126 (see FIG. 5A). That is, the processing method (5, 4, 3, 2, 1) corresponding to each region (A, B, C, D, E) is related. In the processing method assignment table 230, a high resolution method (super-resolution processing method) is assigned to the processing of the region E of the closest person. Further, the processing of the farthest background area A is assigned with a simple pixel number enlargement method without changing the resolution so as to preserve the blur amount of the original image 201. In the processing of the regions B, C, and D that are intermediate regions, after high resolution (super-resolution processing), smoothing processing (strong, medium, weak) with different frequency bandwidth filters (strong, medium, weak) Medium, weak) is assigned. Note that the smoothing process (strong) has a function of increasing the blur amount more than the smoothing process (medium). Further, the smoothing process (medium) has a function of increasing the blur amount more than the smoothing process (weak).

図9(a)に示すように、図8に示した処理の後に得られる処理後画像240では、領域Eに属する微小領域243は超解像処理方式によって処理されている。したがって、その微小領域243のぼやけ量244は、元画像201(図8(b)参照)のぼやけ量より小さくなっている。また、領域Aに属する微小領域241は、単純画素数拡大方式によって処理されている。したがって、その微小領域241のぼやけ量242は、元画像201のぼやけ量と変わらない。   As shown in FIG. 9A, in the post-processing image 240 obtained after the processing shown in FIG. 8, the minute region 243 belonging to the region E is processed by the super-resolution processing method. Therefore, the blur amount 244 of the minute region 243 is smaller than the blur amount of the original image 201 (see FIG. 8B). Further, the micro area 241 belonging to the area A is processed by the simple pixel number enlargement method. Therefore, the blur amount 242 of the minute area 241 is not different from the blur amount of the original image 201.

図9(b)に示す実線250は元画像の特性であり、一点鎖線251は図8(c)に示した処理方式を用いて処理した処理後画像の特性であり、破線252は従来方式画像の特性である。
図9(b)より明らかなように、破線252のぼやけ量は、実線250のぼやけ量に対して、同じ絵柄を含む微小領域において小さくなる。それに対して、一点鎖線251のぼやけ量は、ぼやけ量が小さい範囲では破線252のぼやけ量に近いが、ぼやけ量が大きい範囲では実線250に近くなる。すなわち、同じ絵柄を含む微小領域において、一点鎖線251のA点253は、破線252のB点254よりも、知覚される奥行きが遠くなる。
そして、一点鎖線251の最大のぼやけ量は実線250にほぼ一致するため、処理後画像240に対して知覚される奥行きは、元画像の場合とほぼ同じになる。
The solid line 250 shown in FIG. 9B is the characteristic of the original image, the alternate long and short dash line 251 is the characteristic of the processed image processed using the processing method shown in FIG. 8C, and the broken line 252 is the conventional method image. It is a characteristic.
As is clear from FIG. 9B, the blur amount indicated by the broken line 252 is smaller than the blur amount indicated by the solid line 250 in a minute region including the same pattern. On the other hand, the blur amount of the dashed-dotted line 251 is close to the blur amount of the broken line 252 when the blur amount is small, but close to the solid line 250 when the blur amount is large. That is, in a minute region including the same pattern, the perceived depth of the point A 253 of the alternate long and short dash line 251 is farther than the point B 254 of the broken line 252.
Since the maximum blur amount of the alternate long and short dash line 251 substantially matches the solid line 250, the perceived depth for the processed image 240 is substantially the same as in the original image.

《具体例2》
図7に示した処理の流れについて、図5に示す奥行き情報解析124aを用いた他の具体的な例で示すとともに、処理後画像において知覚される奥行き感の改善効果の他の具体例について、図10を用いて説明する。図10(a)は、閾値によって区分された領域と微小領域との関係を表す他の具体例を示す図であり、(b)は、閾値によって区分された微小領域と処理方式とを関連付ける処理方式割当テーブルの他の具体例を示す図であり、(c)は、元画像、処理後画像、および従来方式画像において知覚される奥行きを表す他の具体例を示す図である。
<< Specific Example 2 >>
The processing flow shown in FIG. 7 is shown in another specific example using the depth information analysis 124a shown in FIG. 5 and another specific example of the effect of improving the perceived depth perception in the processed image. This will be described with reference to FIG. FIG. 10A is a diagram showing another specific example showing the relationship between the area and the micro area divided by the threshold, and FIG. 10B is a process for associating the micro area and the processing method divided by the threshold. It is a figure which shows the other specific example of a system allocation table, (c) is a figure which shows the other specific example showing the depth perceived in an original image, a post-process image, and a conventional system image.

図10(a)に示すように、元画像201の人物は奥行き距離推定値(d)が最も短い領域Eに、また、背景は奥行き距離推定値(d)の違いにより、近い方から順に領域D、領域C、領域B、領域Aに分割されたとする。
そして、図10(b)に示すように、処理方式割当テーブル260が、画質設定126(図5(a)参照)によって設定される。すなわち、各領域(A,B,C,D,E)に対応する処理方式(a,b,c,d,e)が関係付けられる。処理方式割当テーブル260では、最も近い人物の領域Eの処理には、知覚される奥行き距離がより近くなるように強調するエッジ処理を高解像度化(超解像処理)の後に行う方式が割り当てられる。これにより、領域Eでは、空間周波数の高域部分が強調されてぼやけ量が相対的に低減する。
また、最も遠い背景の領域Aの処理には、単純画素数拡大を行った後に、フィルタリングによって平滑化して更にぼやけを強調する方式が割り当てられる。そして、その中間領域となる領域B,C,Dの処理には、それぞれ、処理方式割当テーブル260に示した処理方式が割り当てられる。
As shown in FIG. 10 (a), the person of the original image 201 is in the region E having the shortest depth distance estimated value (d), and the background is the region in order from the closest due to the difference in the depth distance estimated value (d). It is assumed that the image is divided into D, region C, region B, and region A.
Then, as shown in FIG. 10B, the processing method allocation table 260 is set by the image quality setting 126 (see FIG. 5A). That is, the processing methods (a, b, c, d, e) corresponding to the respective regions (A, B, C, D, E) are related. In the processing method assignment table 260, a method of performing edge processing for emphasizing the perceived depth distance closer to the processing of the closest person region E after high resolution (super-resolution processing) is assigned. . Thereby, in the area | region E, the high frequency part of a spatial frequency is emphasized and the blurring amount reduces relatively.
Further, the processing of the farthest background area A is assigned with a method in which the number of simple pixels is expanded and then smoothed by filtering to further enhance blur. Then, the processing methods shown in the processing method assignment table 260 are assigned to the processes of the regions B, C, and D that are intermediate regions.

図10(c)に示す実線270は元画像の特性であり、一点鎖線271は図10(b)に示した処理方式を用いて処理した処理後画像の特性であり、破線272は従来方式画像の特性である。
図10(c)から明らかなように、破線272のぼやけ量は、実線270のぼやけ量に対して、同じ絵柄を含む微小領域において小さくなる。そして、ぼやけ量が小さい範囲(領域E)では、一点鎖線271の知覚される奥行き(ぼやけ量)は、エッジ処理によって、立体感を強調する効果を演出可能となり、破線272の知覚される奥行き(ぼやけ量)より小さくなる。
また、ぼやけ量が大きい範囲(領域A)では、一点鎖線271の知覚される奥行き(ぼやけ量)は、平滑化処理の効果によって、実線270の知覚される奥行き(ぼやけ量)より大きくなる。すなわち、同じ絵柄を含む微小領域において、一点鎖線271のC点273は、実線270のD点274より、知覚される奥行きが遠くなる。これによって、一点鎖線271のぼやけ量の範囲が、実線270のぼやけ量の範囲より広くなるため、知覚される奥行きも広くなる。
このように、具体例2は、元画像よりも知覚される奥行きを遠くして、立体感や遠近感に作用させることが可能になる。
The solid line 270 shown in FIG. 10C is the characteristic of the original image, the alternate long and short dash line 271 is the characteristic of the processed image processed using the processing method shown in FIG. 10B, and the broken line 272 is the conventional image. It is a characteristic.
As is apparent from FIG. 10C, the blur amount indicated by the broken line 272 is smaller than the blur amount indicated by the solid line 270 in a minute region including the same pattern. In the range where the blur amount is small (region E), the perceived depth (blur amount) of the alternate long and short dash line 271 can produce an effect of enhancing the stereoscopic effect by edge processing, and the perceived depth of the dashed line 272 ( Smaller than the blur amount).
In the range where blur amount is large (area A), the perceived depth (blur amount) of the alternate long and short dash line 271 is larger than the perceived depth (blur amount) of the solid line 270 due to the effect of the smoothing process. That is, the perceived depth of the C point 273 of the alternate long and short dash line 271 is farther than the D point 274 of the solid line 270 in a minute region including the same pattern. As a result, the range of the blur amount indicated by the alternate long and short dash line 271 is wider than the range of the blur amount indicated by the solid line 270, so that the perceived depth is also increased.
As described above, in the second specific example, the perceived depth is made farther than the original image, and the three-dimensional effect and the perspective effect can be applied.

《第2実施形態》
次に、第1実施形態において前記した処理を適用した画像表示装置の構成例を、図11を用いて説明する。図11は、画像表示装置の構成例を示す図である。
図11において、画像表示装置300は、入力部311、録画再生部312、制御部313、ユーザインタフェース部314、コンテンツ蓄積部315、画像信号処理部316、音声出力部317、および表示部318によって構成される。
なお、図11中の二重線は、画像や音声の信号の流れを示し、一重線は、制御信号の流れを示している。
<< Second Embodiment >>
Next, a configuration example of an image display device to which the above-described processing is applied in the first embodiment will be described with reference to FIG. FIG. 11 is a diagram illustrating a configuration example of an image display device.
In FIG. 11, the image display apparatus 300 includes an input unit 311, a recording / playback unit 312, a control unit 313, a user interface unit 314, a content storage unit 315, an image signal processing unit 316, an audio output unit 317, and a display unit 318. Is done.
Note that the double lines in FIG. 11 indicate the flow of image and audio signals, and the single lines indicate the flow of control signals.

入力部311は、テレビジョン信号などを含む放送波やネットワークなどを介して放送信号、映像信号、および画像や音声を含む放送・映像コンテンツ320の入力を受け付ける。入力部311は、放送波を受信するチューナを備えたものでも、ネットワークと接続するLAN用コネクタを備えたものでも、USBコネクタを備えたものでも良い。また、入力部311は、画像信号や音声信号をデジタル入力する端子を備えたものでも、コンポジット端子やコンポーネント端子などのアナログ入力端子を備えたものでも良い。あるいは、入力部311は、ワイヤレスにてデータを転送する受信部でも良い。
録画再生部312は、入力部311が受け付けたコンテンツを録画もしくは再生する。なお、入力部311から受け付けた信号をスルーする機能を備えていても良い。
The input unit 311 receives an input of a broadcast signal, a video signal, and a broadcast / video content 320 including an image and sound via a broadcast wave including a television signal, a network, or the like. The input unit 311 may include a tuner that receives a broadcast wave, a LAN connector that connects to a network, or a USB connector. The input unit 311 may be provided with a terminal for digitally inputting an image signal or an audio signal, or may be provided with an analog input terminal such as a composite terminal or a component terminal. Alternatively, the input unit 311 may be a receiving unit that transfers data wirelessly.
The recording / playback unit 312 records or plays back the content received by the input unit 311. Note that a function of passing a signal received from the input unit 311 may be provided.

制御部313は、画像表示装置300の各部(311,312,314〜318)の制御を司る機能を有し、各部(311,312,314〜318)間の情報の伝達を司る。。制御部313は、例えば、演算処理を実行する図示しないCPU(Central Processing Unit )と、このCPUが演算処理に用いる主記憶装置である図示しないメモリとを備える。メモリは、RAM(Random Access Memory)またはROM(Read Only Memory)等により実現される。そして、メモリに格納されたアプリケーションプログラムがRAMに展開され、CPUが、それを実行することにより種々の処理を具現化する。
ユーザインタフェース部314は、ユーザが画像表示装置300の操作を行う機能を備える。
The control unit 313 has a function of controlling each unit (311, 312, 314 to 318) of the image display device 300, and manages information transmission between the units (311, 312, 314 to 318). . The control unit 313 includes, for example, a CPU (Central Processing Unit) (not shown) that executes arithmetic processing and a memory (not shown) that is a main storage device used by the CPU for arithmetic processing. The memory is realized by a RAM (Random Access Memory) or a ROM (Read Only Memory). Then, the application program stored in the memory is expanded in the RAM, and the CPU implements various processes by executing it.
The user interface unit 314 has a function for a user to operate the image display apparatus 300.

コンテンツ蓄積部315は、録画再生部312を経由して、コンテンツを格納する機能を有する。コンテンツ蓄積部315は、例えば、ハードディスクドライブでも、フラッシュメモリでも、リムーバブルメディアディスクドライブでも良い。
画像信号処理部316は、画像信号を、第1実施形態に記載した処理を行う機能を有する。なお、画像信号処理部316の詳細な構成については、後記する。
音声出力部317は、録画再生部312が再生した音声信号を出力する機能を有する。音声出力部317は、例えば、スピーカ等でもよい。
表示部318は、画像信号処理部316において処理された画像を表示する機能を有する。表示部318は、例えば、プラズマパネルモジュールでも、LCD(Liquid Crystal Display)モジュールでも、プロジェクタ用デバイスでもよい。
The content storage unit 315 has a function of storing content via the recording / playback unit 312. The content storage unit 315 may be, for example, a hard disk drive, a flash memory, or a removable media disk drive.
The image signal processing unit 316 has a function of processing the image signal described in the first embodiment. A detailed configuration of the image signal processing unit 316 will be described later.
The audio output unit 317 has a function of outputting the audio signal reproduced by the recording / reproducing unit 312. The audio output unit 317 may be, for example, a speaker.
The display unit 318 has a function of displaying the image processed by the image signal processing unit 316. The display unit 318 may be, for example, a plasma panel module, an LCD (Liquid Crystal Display) module, or a projector device.

画像表示装置300は、例えば、プラズマテレビでも、液晶テレビでも、ブラウン管でも、プロジェクタでもよく、また他のデバイスを用いた装置でも良い。そして、画像表示装置300が、第1実施形態に記載した処理を行う画像信号処理部316を備えることで、入力部311から受け付けた画像信号をより高解像度化、かつ遠近感や立体感を有する高画質な画像信号として表示部318に表示することができる。
なお、第1実施形態に記載した処理は、画像信号処理部316において行うと説明したが、制御部313においてソフトウェア(プログラム)によって実現されても良い。
The image display apparatus 300 may be, for example, a plasma television, a liquid crystal television, a cathode ray tube, a projector, or an apparatus using another device. The image display apparatus 300 includes the image signal processing unit 316 that performs the processing described in the first embodiment, so that the resolution of the image signal received from the input unit 311 is increased, and the perspective and stereoscopic effect are provided. It can be displayed on the display unit 318 as a high-quality image signal.
The processing described in the first embodiment has been described as being performed by the image signal processing unit 316, but may be realized by software (program) in the control unit 313.

次に、図11に示した画像信号処理部316の構成例を、図12を用いて説明する(適宜、図1,図5,図11参照)。図12は、画像信号処理部の構成例を示す図である。
画像信号処理部316への入力は、録画再生部312から出力される画像信号入力401、ユーザインタフェース部314によって受け付けられ、制御部313を介して出力される画質設定412、および生産者によって制御部313を介して設定される処理設定411である。また、画像信号処理部316の出力は、画像信号出力403であり、表示部318への入力になる。
画質設定412の機能は、図5(a)に示した画質設定126の機能と同じである。また、処理設定411の機能は、図5(a)に示した処理設定127の機能と同じである。
Next, a configuration example of the image signal processing unit 316 illustrated in FIG. 11 will be described with reference to FIG. 12 (see FIGS. 1, 5, and 11 as appropriate). FIG. 12 is a diagram illustrating a configuration example of the image signal processing unit.
The input to the image signal processing unit 316 is an image signal input 401 output from the recording / playback unit 312, an image quality setting 412 received by the user interface unit 314 and output via the control unit 313, and a control unit by the producer. This is a process setting 411 set via 313. The output of the image signal processing unit 316 is an image signal output 403, which is input to the display unit 318.
The function of the image quality setting 412 is the same as the function of the image quality setting 126 shown in FIG. The function of the process setting 411 is the same as the function of the process setting 127 shown in FIG.

画像信号処理部316(画像信号処理回路)は、奥行き情報解析処理部421、閾値判定・処理部422、超解像処理部423、画素数拡大処理部424、フィルタ特性設定部425、フィルタ処理部426、および出力選択部427を備えている。
奥行き情報解析処理部421の機能は、図5(a)に示した領域分割141の機能と焦点ぼやけ量推定142の機能、図5(b)に示した領域分割151の機能と空間周波数分析152の機能、および図5(c)に示した領域分割161の機能と奥行き距離推定162の機能、のいずれか一つまたは組み合わせである。また、奥行き情報解析処理部421の機能は、処理設定411によって設定される。
閾値判定・処理部422の機能は、図5(a)に示した奥行き量閾値処理143の機能と処理割り当て144の機能、図5(b)に示した奥行き量閾値処理153の機能と処理割り当て154の機能、および図5(c)に示した奥行き量閾値処理163の機能と処理割り当て164の機能、のいずれか一つまたは組み合わせである。また、閾値判定・処理部422の機能は、画質設定412によって設定される。
なお、閾値判定・処理部422から出力選択部427へ引かれた線430は、図1(b)に示す「方式の指定125」に相当する。
The image signal processing unit 316 (image signal processing circuit) includes a depth information analysis processing unit 421, a threshold determination / processing unit 422, a super-resolution processing unit 423, a pixel number enlargement processing unit 424, a filter characteristic setting unit 425, and a filter processing unit. 426 and an output selection unit 427.
The functions of the depth information analysis processing unit 421 are the function of the area division 141 and the function of the focal blur estimation 142 shown in FIG. 5A, the function of the area division 151 and the spatial frequency analysis 152 shown in FIG. And the function of the area division 161 and the function of the depth distance estimation 162 shown in FIG. Further, the function of the depth information analysis processing unit 421 is set by the processing setting 411.
The functions of the threshold determination / processing unit 422 are the functions of the depth amount threshold processing 143 and the processing allocation 144 shown in FIG. 5A and the functions and processing allocation of the depth amount threshold processing 153 shown in FIG. 154 and any one or a combination of the depth threshold processing 163 and the processing allocation 164 shown in FIG. 5C. The function of the threshold determination / processing unit 422 is set by the image quality setting 412.
A line 430 drawn from the threshold determination / processing unit 422 to the output selection unit 427 corresponds to the “method designation 125” illustrated in FIG.

超解像処理部423は、前記した超解像処理方式(解像度変換処理)によって処理を行う機能を有する。
画素数拡大処理部424は、画素数拡大処理方式(画素数変化処理)によって処理を行う機能を有する。
フィルタ特性設定部425は、画質設定412の出力を受け付けて、平滑化処理におけるフィルタの強弱の程度やエッジ強調の強弱の程度を決定し、フィルタ処理部426におけるエッジ強調処理または平滑化処理におけるフィルタの強弱を制御する機能を有する。
フィルタ処理部426は、超解像処理部423の出力および画素数拡大処理部424の出力を受け付けて、エッジ強調処理(空間周波数特性変化処理)または平滑化処理(空間周波数特性変化処理)を行う機能を有する。ただし、フィルタ処理部426から出力選択部427へ出力する線は、図12では一本しか記載されていないが、エッジ強調処理または平滑化処理において用いられたフィルタの数に相当する種類の画像信号が出力されていることを表している。
なお、超解像処理部423、画素数拡大処理部424、およびフィルタ処理部426は、奥行き情報解析処理部421において領域分割された微小領域と同じサイズの微小領域ごとに常時繰り返し処理を行っているものとする。
The super-resolution processing unit 423 has a function of performing processing by the above-described super-resolution processing method (resolution conversion processing).
The pixel number enlargement processing unit 424 has a function of performing processing by a pixel number enlargement processing method (pixel number change process).
The filter characteristic setting unit 425 receives the output of the image quality setting 412, determines the level of strength of the filter in the smoothing process and the level of edge enhancement, and the filter in the edge enhancement process or smoothing process in the filter processing unit 426. It has a function to control the strength of.
The filter processing unit 426 receives the output of the super-resolution processing unit 423 and the output of the pixel number enlargement processing unit 424, and performs edge enhancement processing (spatial frequency characteristic change processing) or smoothing processing (spatial frequency characteristic change processing). It has a function. However, although only one line is output from the filter processing unit 426 to the output selection unit 427 in FIG. 12, the type of image signal corresponds to the number of filters used in the edge enhancement processing or smoothing processing. Is output.
Note that the super-resolution processing unit 423, the pixel number enlargement processing unit 424, and the filter processing unit 426 always perform repetitive processing for each micro region having the same size as the micro region divided by the depth information analysis processing unit 421. It shall be.

出力選択部427は、閾値判定・処理部422の出力を示す線430、すなわち「方式の指定125(図1参照)」を受け付けて、微小領域ごとに、指定の処理方式によって処理された画像を選択する機能を有する。   The output selection unit 427 receives a line 430 indicating the output of the threshold determination / processing unit 422, that is, “method designation 125 (see FIG. 1)”, and outputs an image processed by the designated processing method for each minute region. Has a function to select.

なお、処理設定411および画質設定412は、それぞれ、出荷時の設定情報を記憶する機能、またはユーザが設定した設定情報を記憶する機能等が備えられているものとする。   Note that each of the process setting 411 and the image quality setting 412 includes a function for storing setting information at the time of shipment, a function for storing setting information set by the user, and the like.

以上説明したように、本実施形態に係る画像表示装置300(図11参照)は、処理対象となる画像に対して奥行き情報解析124(図1(b)参照)を行い、その奥行き情報の解析結果に基づいて画像の微小領域毎に画像処理方式(超解像処理方式104、画素数拡大処理方式121、エッジ強調処理方式122、平滑化処理方式123等(図1(b)参照))を適宜選択して処理する機能を設けているため、画像を高解像度化しても、立体感や遠近感を損なうことがないようにすることが可能となる。   As described above, the image display apparatus 300 (see FIG. 11) according to the present embodiment performs the depth information analysis 124 (see FIG. 1B) on the image to be processed, and analyzes the depth information. Based on the result, an image processing method (super-resolution processing method 104, pixel number enlargement processing method 121, edge enhancement processing method 122, smoothing processing method 123, etc. (see FIG. 1B)) is performed for each minute region of the image. Since a function of selecting and processing appropriately is provided, it is possible to prevent the stereoscopic effect and the perspective from being impaired even when the resolution of the image is increased.

(a)は、従来の処理機能の概要を示す図であり、(b)は本発明の処理機能の概要を示す図である。(A) is a figure which shows the outline | summary of the conventional processing function, (b) is a figure which shows the outline | summary of the processing function of this invention. 解像度(処理)と奥行き距離(推定)との関係の一例を示す図である。It is a figure which shows an example of the relationship between resolution (process) and depth distance (estimation). 「奥行き距離小」の方式の指定の場合の方式選択の一例を示す図である。It is a figure which shows an example of the system selection in the case of designation | designated of the system of "the depth distance is small." 「奥行き距離大」の方式の指定の場合の方式選択の一例を示す図である。It is a figure which shows an example of the system selection in the case of designation | designated of the system of "large depth distance". (a)は、奥行き情報解析において、焦点ぼやけ量推定を用いた場合の処理機能の一例を示す図であり、(b)は、奥行き情報解析において、空間周波数分析を用いた場合の処理機能の一例を示す図であり、(c)は、奥行き情報解析において、奥行き距離推定を用いた場合の処理機能の一例を示す図である。(A) is a figure which shows an example of the processing function at the time of using a focus blurring amount estimation in depth information analysis, (b) is a processing function at the time of using spatial frequency analysis in depth information analysis. It is a figure which shows an example, (c) is a figure which shows an example of the processing function at the time of using depth distance estimation in depth information analysis. (a)は、微小領域の一例を示す図であり、(b)は、微小領域のぼやけ量の一例を示す図であり、(c)は、ぼやけ量と奥行き距離推定値との関係の一例を示す図である。(A) is a figure which shows an example of a micro area | region, (b) is a figure which shows an example of the blur amount of a micro area | region, (c) is an example of the relationship between the blur amount and depth distance estimated value. FIG. (a)は、奥行き距離推定値と奥行き量閾値との関係を表す一例を示す図であり、(b)は、奥行き量閾値と処理方式とを関連付ける処理方式割当テーブルの一例を示す図である。(A) is a figure which shows an example showing the relationship between a depth distance estimated value and a depth amount threshold value, (b) is a figure which shows an example of the processing method allocation table which links | relates a depth amount threshold value and a processing method. . (a)は、奥行き距離推定値の閾値の設定を表す一具体例を示す図であり、(b)は、閾値によって区分された領域と微小領域との関係を表す一具体例を示す図であり、(c)は、閾値によって区分された領域と処理方式とを関連付ける処理方式割当テーブルの一具体例を示す図である。(A) is a figure which shows one specific example showing the setting of the threshold value of a depth distance estimated value, (b) is a figure which shows one specific example showing the relationship between the area | region classified by the threshold value, and a micro area | region. And (c) is a diagram showing a specific example of a processing method allocation table for associating regions classified by thresholds with processing methods. (a)は、処理後画像のぼやけ量を表す一具体例を示す図であり、(b)は、元画像、処理後画像、および従来方式画像において知覚される奥行きを表す一具体例を示す図である。(A) is a figure which shows one specific example showing the blurring amount of a processed image, (b) shows one specific example showing the depth perceived in an original image, a processed image, and a conventional system image. FIG. (a)は、閾値によって区分された領域と微小領域との関係を表す他の具体例を示す図であり、(b)は、閾値によって区分された微小領域と処理方式とを関連付ける処理方式割当テーブルの他の具体例を示す図であり、(c)は、元画像、処理後画像、および従来方式画像において知覚される奥行きを表す他の具体例を示す図である。(A) is a figure which shows the other specific example showing the relationship between the area | region classified by the threshold value, and a micro area | region, (b) is processing method allocation which associates the micro area | region classified by the threshold value and a processing system. It is a figure which shows the other specific example of a table, (c) is a figure which shows the other specific example showing the depth perceived in an original image, a post-process image, and a conventional system image. 画像表示装置の構成例を示す図である。It is a figure which shows the structural example of an image display apparatus. 画像信号処理部の構成例を示す図である。It is a figure which shows the structural example of an image signal process part. (a)は処理対象となる元画像を示す図であり、(b)は元画像の空間周波数スペクトルを示す図であり、(c)は超解像処理をした後の処理後画像を示す図であり、(d)は処理後画像の空間周波数スペクトルを示す図である。(A) is a figure which shows the original image used as a process target, (b) is a figure which shows the spatial frequency spectrum of an original image, (c) is a figure which shows the image after a process after performing a super-resolution process (D) is a figure which shows the spatial frequency spectrum of the image after a process. (a)は、元画像に含まれるぼやけを示す図であり、(b)は高解像度化した処理後画像に含まれるぼやけを示す図であり、(c)は元画像および従来方式画像において知覚される奥行きを示す図である。(A) is a figure which shows the blur contained in the original image, (b) is a figure which shows the blur contained in the post-processing image which made high resolution, (c) is a perception in the original image and the conventional system image It is a figure which shows the depth made.

符号の説明Explanation of symbols

124 奥行き情報解析
125 方式の指定
126,412 画質設定
127,411 処理設定
141,151,161 領域分割
142 焦点ぼやけ量推定
143,153,163 奥行き量閾値処理
144,154,164 処理割り当て
201 元画像
210 予測関数
220,230,260 処理方式割当テーブル
240 処理後画像
250,270 元画像の特性
251,271 処理後画像の特性
252,272 従来方式画像の特性
300 画像表示装置
313 制御部
314 ユーザインタフェース部
316 画像信号処理部
318 表示部
421 奥行き情報解析処理部
422 閾値判定・処理部
423 超解像処理部
424 画素数拡大処理部
425 フィルタ特性設定部
426 フィルタ処理部
427 出力選択部
124 Depth information analysis 125 Method designation 126,412 Image quality setting 127,411 Processing setting 141,151,161 Region division 142 Focus blur amount estimation 143,153,163 Depth amount threshold processing 144,154,164 Processing allocation 201 Original image 210 Prediction function 220, 230, 260 Processing method allocation table 240 Processed image 250, 270 Original image characteristic 251, 271 Processed image characteristic 252, 272 Conventional method image characteristic 300 Image display device 313 Control unit 314 User interface unit 316 Image signal processing unit 318 Display unit 421 Depth information analysis processing unit 422 Threshold determination / processing unit 423 Super-resolution processing unit 424 Pixel number enlargement processing unit 425 Filter characteristic setting unit 426 Filter processing unit 427 Output selection unit

Claims (5)

画像中の被写体の奥行きに係る被写体距離に応じて分割して設けた複数の区間と、その区間と画像処理の種類とを関連付けた奥行き情報が記憶される記憶部を備え、
入力画像中の被写体の被写体距離を算出し、前記記憶部を参照して、前記算出した前記被写体距離が属する前記区間を特定し、さらに、その特定した前記区間に関連付けられている前記画像処理の種類を特定し、
前記特定した種類の前記画像処理を用いて、前記入力画像に対して演算処理を行って処理画像を出力する画像信号処理回路であって、
前記画像処理の種類は、少なくとも、前記入力画像の単一フレームまたは複数フレームを用いた合成画像から、空間周波数スペクトルの折り返し成分を復元し空間周波数帯域幅を広げるとともに画素数を水平方向と垂直方向に対して増加する解像度変換処理、空間周波数帯域幅を変えることなく画素数を増やす画素数変化処理および前記入力画像の一部の画素信号を強調するまたは隣り合う画素間の画素値の差を少なくする空間周波数特性変化処理、のいずれか一つまたは二以上の組み合わせであり、
前記入力画像中の被写体の被写体距離の算出を、前記入力画像の画面を複数に分割した微小領域ごとに行う際に、
前記画像処理の種類として設定された全ての画像処理を用いて前記入力画像に対して演算処理を行って、全ての前記画像処理の種類に対応する前記微小領域の処理画像を求め、
前記微小領域ごとに算出された前記被写体距離が属する前記区間を特定し、さらに、その特定した前記区間に関連付けられている前記画像処理の種類を特定し、
前記特定した前記画像処理の種類に対応する前記微小領域の処理画像を取得して、前記処理画像の画面を構成して出力し、
前記被写体距離が小さい前記区間に対して、前記処理画像の解像度を前記入力画像の解像度よりも高くする前記解像度変換処理または前記解像度変換処理とエッジを強調する前記空間周波数特性変化処理との組み合わせを関連付け、
前記被写体距離が大きい前記区間に対して、前記画素数変化処理または前記画素数変化処理と解像度を低くするに従って空間周波数帯域幅を狭くする前記空間周波数特性変化処理との組み合わせを関連付ける
ことを特徴とする画像信号処理回路。
A plurality of sections divided according to the subject distance related to the depth of the subject in the image, and a storage unit that stores depth information that associates the sections with the type of image processing;
The subject distance of the subject in the input image is calculated, the section to which the calculated subject distance belongs is identified with reference to the storage unit, and the image processing associated with the identified section is further performed. Identify the type,
An image signal processing circuit that performs arithmetic processing on the input image and outputs a processed image using the specified type of image processing,
The type of the image processing is at least a composite image using a single frame or a plurality of frames of the input image, restoring the aliasing component of the spatial frequency spectrum to widen the spatial frequency bandwidth and changing the number of pixels in the horizontal and vertical directions. Resolution conversion processing that increases, pixel number change processing that increases the number of pixels without changing the spatial frequency bandwidth, and enhancement of part of the pixel signal of the input image or reduction in pixel value difference between adjacent pixels Any one or a combination of two or more of spatial frequency characteristic change processing,
When performing calculation of the subject distance of the subject in the input image for each minute region obtained by dividing the screen of the input image into a plurality of areas,
Performing an arithmetic process on the input image using all the image processing set as the type of image processing to obtain a processed image of the micro region corresponding to all the types of image processing;
Identifying the section to which the subject distance calculated for each minute region belongs, further identifying the type of image processing associated with the identified section;
Acquire a processed image of the minute region corresponding to the specified type of image processing, configure and output a screen of the processed image,
For the section where the subject distance is small, the resolution conversion process that makes the resolution of the processed image higher than the resolution of the input image or the combination of the resolution conversion process and the spatial frequency characteristic change process that emphasizes edges associate,
The pixel number changing process or the pixel number changing process and a combination of the spatial frequency characteristic changing process for narrowing the spatial frequency bandwidth as the resolution is reduced are associated with the section where the subject distance is large.
Image signal processing circuit, characterized in that.
画像の焦点ぼやけ量と前記被写体距離とを関連付けた奥行き情報を記憶部に記憶しておき、
前記入力画像中の被写体の被写体距離の算出において、焦点ぼやけ量分析を行って前記入力画像の被写体の焦点ぼやけ量を算出し、前記奥行き情報を参照して、前記算出した前記焦点ぼやけ量から前記被写体距離を算出すること、
を特徴とする請求項1に記載の画像信号処理回路。
Depth information that associates the focal blur amount of the image with the subject distance is stored in the storage unit,
In calculating the subject distance of the subject in the input image, a focal blur amount analysis is performed to calculate the focal blur amount of the subject of the input image, and the depth blur is referred to and the calculated focal blur amount is used to calculate the subject blur distance. Calculating the subject distance,
The image signal processing circuit according to claim 1.
画像の空間周波数帯域幅と前記被写体距離とを関連付けた奥行き情報を記憶部に記憶しておき、
前記入力画像中の被写体の被写体距離の算出において、空間周波数分析を行って前記入力画像の被写体の空間周波数帯域幅を算出し、前記奥行き情報を参照して、前記算出した空間周波数帯域幅から前記被写体距離を算出すること、
を特徴とする請求項1に記載の画像信号処理回路。
Depth information associating the spatial frequency bandwidth of the image with the subject distance is stored in the storage unit,
In calculating the subject distance of the subject in the input image, a spatial frequency analysis is performed to calculate a spatial frequency bandwidth of the subject of the input image, and the depth information is referred to and the calculated spatial frequency bandwidth is used to calculate the subject distance. Calculating the subject distance,
The image signal processing circuit according to claim 1.
入力画像に対して演算処理を行って処理画像を表示する画像表示装置であって、
画像信号処理部と、前記処理画像を表示する表示部と、前記処理画像の画質を制御する画質設定情報を前記画質信号処理部に出力する制御部と、画像中の被写体の奥行きに係る被写体距離に応じて分割して設けた複数の区間と、その区間と画像処理の種類とを関連付けた奥行き情報が記憶される記憶部と、を備え、
前記画像信号処理部は、
前記制御部から前記画質設定情報を受け付けて、前記区間の数および前記区間の幅のいずれか一つまたは双方を変更する設定を行い、
入力画像中の被写体の被写体距離を算出し、前記記憶部を参照して、前記算出した前記被写体距離が属する前記区間を特定し、さらに、その特定した前記区間に関連付けられている前記画像処理の種類を特定し、
前記特定した種類の前記画像処理を用いて、前記入力画像に対して演算処理を行って処理画像を出力し、
前記画像処理の種類は、少なくとも、前記入力画像の単一フレームまたは複数フレームを用いた合成画像から、空間周波数スペクトルの折り返し成分を復元し空間周波数帯域幅を広げるとともに画素数を水平方向と垂直方向に対して増加する解像度変換処理、空間周波数帯域幅を変えることなく画素数を増やす画素数変化処理および前記入力画像の一部の画素信号を強調するまたは隣り合う画素間の画素値の差を少なくする空間周波数特性変化処理、のいずれか一つまたは二以上の組み合わせであり、
前記入力画像中の被写体の被写体距離の算出を、前記入力画像の画面を複数に分割した微小領域ごとに行う際に、
前記画像処理の種類として設定された全ての画像処理を用いて前記入力画像に対して演算処理を行って、全ての前記画像処理の種類に対応する前記微小領域の処理画像を求め、
前記微小領域ごとに算出された前記被写体距離が属する前記区間を特定し、さらに、その特定した前記区間に関連付けられている前記画像処理の種類を特定し、
前記特定した前記画像処理の種類に対応する前記微小領域の処理画像を取得して、前記処理画像の画面を構成し、前記構成された前記処理画像の画面を前記表示部に表示し、
前記被写体距離が小さい前記区間に対して、前記処理画像の解像度を前記入力画像の解像度よりも高くする前記解像度変換処理または前記解像度変換処理とエッジを強調する前記空間周波数特性変化処理との組み合わせを関連付け、
前記被写体距離が大きい前記区間に対して、前記画素数変化処理または前記画素数変化処理と解像度を低くするに従って空間周波数帯域幅を狭くする前記空間周波数特性変化処理との組み合わせを関連付ける
ことを特徴とする画像表示装置。
An image display device that performs arithmetic processing on an input image and displays the processed image,
An image signal processing unit, a display unit for displaying the processed image, a control unit for outputting image quality setting information for controlling the image quality of the processed image to the image quality signal processing unit, and a subject distance related to the depth of the subject in the image A plurality of sections divided according to the storage section, and a storage unit that stores depth information that associates the sections with the type of image processing.
The image signal processor is
Accepting the image quality setting information from the control unit, setting to change one or both of the number of sections and the width of the section,
The subject distance of the subject in the input image is calculated, the section to which the calculated subject distance belongs is identified with reference to the storage unit, and the image processing associated with the identified section is further performed. Identify the type,
Using the specified type of image processing, the input image is subjected to arithmetic processing to output a processed image,
The type of the image processing is at least a composite image using a single frame or a plurality of frames of the input image, restoring the aliasing component of the spatial frequency spectrum to widen the spatial frequency bandwidth and changing the number of pixels in the horizontal and vertical directions. Resolution conversion processing that increases, pixel number change processing that increases the number of pixels without changing the spatial frequency bandwidth, and enhancement of part of the pixel signal of the input image or reduction in pixel value difference between adjacent pixels Any one or a combination of two or more of spatial frequency characteristic change processing,
When performing calculation of the subject distance of the subject in the input image for each minute region obtained by dividing the screen of the input image into a plurality of areas,
Performing an arithmetic process on the input image using all the image processing set as the type of image processing to obtain a processed image of the micro region corresponding to all the types of image processing;
Identifying the section to which the subject distance calculated for each minute region belongs, further identifying the type of image processing associated with the identified section;
Acquiring a processed image of the micro region corresponding to the specified type of the image processing, configuring a screen of the processed image, displaying the configured screen of the processed image on the display unit,
For the section where the subject distance is small, the resolution conversion process that makes the resolution of the processed image higher than the resolution of the input image or the combination of the resolution conversion process and the spatial frequency characteristic change process that emphasizes edges associate,
The pixel number changing process or the pixel number changing process and a combination of the spatial frequency characteristic changing process for narrowing the spatial frequency bandwidth as the resolution is reduced are associated with the section where the subject distance is large.
An image display device characterized by that .
画像中の被写体の奥行きに係る被写体距離に応じて分割して設けた複数の区間と、その区間と画像処理の種類とを関連付けた奥行き情報が記憶される記憶部を備え、
入力画像中の被写体の被写体距離を算出し、前記記憶部を参照して、前記算出した前記被写体距離が属する前記区間を特定し、さらに、その特定した前記区間に関連付けられている前記画像処理の種類を特定し、
前記特定した種類の前記画像処理を用いて、前記入力画像に対して演算処理を行って処理画像を出力する画像信号処理回路において用いられる画像信号処理方法であって、
前記画像処理の種類は、少なくとも、前記入力画像の単一フレームまたは複数フレームを用いた合成画像から、空間周波数スペクトルの折り返し成分を復元し空間周波数帯域幅を広げるとともに画素数を水平方向と垂直方向に対して増加する解像度変換処理、空間周波数帯域幅を変えることなく画素数を増やす画素数変化処理および前記入力画像の一部の画素信号を強調するまたは隣り合う画素間の画素値の差を少なくする空間周波数特性変化処理、のいずれか一つまたは二以上の組み合わせであり、
前記画像信号処理回路は、
前記入力画像中の被写体の被写体距離の算出を、前記入力画像の画面を複数に分割した微小領域ごとに行う際に、
前記画像処理の種類として設定された全ての画像処理を用いて前記入力画像に対して演算処理を行って、全ての前記画像処理の種類に対応する前記微小領域の処理画像を求め、
前記微小領域ごとに算出された前記被写体距離が属する前記区間を特定し、さらに、その特定した前記区間に関連付けられている前記画像処理の種類を特定し、
前記特定した前記画像処理の種類に対応する前記微小領域の処理画像を取得して、前記処理画像の画面を構成して出力し、
前記被写体距離が小さい前記区間に対して、前記処理画像の解像度を前記入力画像の解像度よりも高くする前記解像度変換処理または前記解像度変換処理とエッジを強調する前記空間周波数特性変化処理との組み合わせを関連付け、
前記被写体距離が大きい前記区間に対して、前記画素数変化処理または前記画素数変化処理と解像度を低くするに従って空間周波数帯域幅を狭くする前記空間周波数特性変化処理との組み合わせを関連付ける
ことを特徴とする画像信号処理方法。
A plurality of sections divided according to the subject distance related to the depth of the subject in the image, and a storage unit that stores depth information that associates the sections with the type of image processing;
The subject distance of the subject in the input image is calculated, the section to which the calculated subject distance belongs is identified with reference to the storage unit, and the image processing associated with the identified section is further performed. Identify the type,
An image signal processing method used in an image signal processing circuit that performs arithmetic processing on the input image and outputs a processed image using the specified type of image processing,
The type of the image processing is at least a composite image using a single frame or a plurality of frames of the input image, restoring the aliasing component of the spatial frequency spectrum to widen the spatial frequency bandwidth and changing the number of pixels in the horizontal and vertical directions. Resolution conversion processing that increases, pixel number change processing that increases the number of pixels without changing the spatial frequency bandwidth, and enhancement of part of the pixel signal of the input image or reduction in pixel value difference between adjacent pixels Any one or a combination of two or more of spatial frequency characteristic change processing,
The image signal processing circuit includes:
When performing calculation of the subject distance of the subject in the input image for each minute region obtained by dividing the screen of the input image into a plurality of areas,
Performing an arithmetic process on the input image using all the image processing set as the type of image processing to obtain a processed image of the micro region corresponding to all the types of image processing;
Identifying the section to which the subject distance calculated for each minute region belongs, further identifying the type of image processing associated with the identified section;
Acquire a processed image of the minute region corresponding to the specified type of image processing, configure and output a screen of the processed image,
For the section where the subject distance is small, the resolution conversion process that makes the resolution of the processed image higher than the resolution of the input image or the combination of the resolution conversion process and the spatial frequency characteristic change process that emphasizes edges associate,
The pixel number changing process or the pixel number changing process and a combination of the spatial frequency characteristic changing process for narrowing the spatial frequency bandwidth as the resolution is reduced are associated with the section where the subject distance is large.
Image signal processing method, characterized in that.
JP2008097714A 2008-04-04 2008-04-04 Image signal processing circuit, image display device, and image signal processing method Expired - Fee Related JP5243833B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008097714A JP5243833B2 (en) 2008-04-04 2008-04-04 Image signal processing circuit, image display device, and image signal processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008097714A JP5243833B2 (en) 2008-04-04 2008-04-04 Image signal processing circuit, image display device, and image signal processing method

Publications (2)

Publication Number Publication Date
JP2009251839A JP2009251839A (en) 2009-10-29
JP5243833B2 true JP5243833B2 (en) 2013-07-24

Family

ID=41312505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008097714A Expired - Fee Related JP5243833B2 (en) 2008-04-04 2008-04-04 Image signal processing circuit, image display device, and image signal processing method

Country Status (1)

Country Link
JP (1) JP5243833B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11024033B2 (en) 2017-12-28 2021-06-01 Samsung Electronics Co., Ltd. Method and apparatus for processing image and computer program product thereof

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5453858B2 (en) * 2009-03-12 2014-03-26 株式会社リコー Image composition device and image composition program
JP2012249038A (en) * 2011-05-27 2012-12-13 Hitachi Consumer Electronics Co Ltd Image signal processing apparatus and image signal processing method
WO2013042440A1 (en) 2011-09-21 2013-03-28 富士フイルム株式会社 Image processing device, method, program and recording medium, stereoscopic image capture device, portable electronic apparatus, printer, and stereoscopic image player device
KR101978172B1 (en) 2011-11-29 2019-05-15 삼성전자주식회사 Method and apparatus for converting depth image to high-resolution
JP5703255B2 (en) * 2012-04-27 2015-04-15 株式会社東芝 Image processing apparatus, image processing method, and program
JP2014006614A (en) 2012-06-22 2014-01-16 Sony Corp Image processing device, image processing method, and program
WO2014014135A1 (en) * 2012-07-17 2014-01-23 인텔 코오퍼레이션 Method and apparatus for refocusing captured images, and computer-readable recording medium
WO2015005163A1 (en) 2013-07-12 2015-01-15 三菱電機株式会社 High-resolution image generation device, high-resolution image generation method, and high-resolution image generation program
JP6500180B2 (en) * 2015-08-20 2019-04-17 株式会社Joled Image processing apparatus, display apparatus and electronic device
JP7265316B2 (en) * 2017-12-28 2023-04-26 三星電子株式会社 Image processing device and image processing method
US10992851B2 (en) 2018-02-15 2021-04-27 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium, with image processing based on image processing condition and information equivalent to distance from focal plane
US10972714B2 (en) 2018-02-15 2021-04-06 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage medium for storing program
JP7137313B2 (en) 2018-02-15 2022-09-14 キヤノン株式会社 Output device, image processing method and program
JP7199169B2 (en) 2018-07-05 2023-01-05 キヤノン株式会社 Image processing device, image processing method, and program
CN109345444B (en) * 2018-08-30 2023-05-23 浙江工业大学 Super-resolution stereoscopic image construction method with enhanced depth perception
JP7133482B2 (en) * 2019-01-04 2022-09-08 株式会社ユニバーサルエンターテインメント game machine
JP2020141226A (en) 2019-02-27 2020-09-03 キヤノン株式会社 Image processing system, image processing method and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3773563B2 (en) * 1995-08-31 2006-05-10 株式会社リコー 2D digital signal processor
JP2002247439A (en) * 2001-02-13 2002-08-30 Ricoh Co Ltd Image input unit, image input method, and computer readable recording medium stored with program to allow computer to execute the method
JP4091455B2 (en) * 2003-02-27 2008-05-28 日本電信電話株式会社 Three-dimensional shape measuring method, three-dimensional shape measuring apparatus, processing program therefor, and recording medium
JP2006067521A (en) * 2004-08-30 2006-03-09 Kyocera Corp Image processor, image processing method, image pickup device, and image pickup method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11024033B2 (en) 2017-12-28 2021-06-01 Samsung Electronics Co., Ltd. Method and apparatus for processing image and computer program product thereof

Also Published As

Publication number Publication date
JP2009251839A (en) 2009-10-29

Similar Documents

Publication Publication Date Title
JP5243833B2 (en) Image signal processing circuit, image display device, and image signal processing method
JP5979856B2 (en) Image blur detector
EP3341913B1 (en) Inverse tone mapping based on luminance zones
RU2419243C1 (en) Device and method to process images and device and method of images display
KR101143147B1 (en) High-Quality Gradient-Corrected Linear Interpolation for Demosaicing of Color Images
JP4869653B2 (en) Image processing device
JP2010506287A (en) Image enhancement
JP4949463B2 (en) Upscaling
JP2014021928A (en) Image processor, image processing method and program
JP6493855B2 (en) Image processing apparatus and image processing method
JP2006522977A (en) Spatial image conversion apparatus and method
JP7014158B2 (en) Image processing equipment, image processing method, and program
JP2010152518A (en) Image processor and image processing method
JP4333544B2 (en) Image processing method, image processing apparatus, semiconductor device, electronic device, image processing program, and computer-readable recording medium
JP4992379B2 (en) Image gradation conversion apparatus, program, electronic camera, and method thereof
JP2014006614A (en) Image processing device, image processing method, and program
JP2006523409A (en) Spatial image conversion apparatus and method
JP5130171B2 (en) Image signal processing apparatus and image signal processing method
JP5566196B2 (en) Image processing apparatus and control method thereof
JP2010041497A (en) Image processor, electronic apparatus, and image processing method
WO2017122394A1 (en) Imaging control device and imaging device
JP4632100B2 (en) Image processing apparatus, image processing method, recording medium, and program
JP2020149589A (en) Image processing device, imaging apparatus, image processing method, and program
WO2014034242A1 (en) Image processing device, and method and program for image processing
JP2020092288A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120717

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130405

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees