JP5243833B2 - Image signal processing circuit, image display device, and image signal processing method - Google Patents
Image signal processing circuit, image display device, and image signal processing method Download PDFInfo
- Publication number
- JP5243833B2 JP5243833B2 JP2008097714A JP2008097714A JP5243833B2 JP 5243833 B2 JP5243833 B2 JP 5243833B2 JP 2008097714 A JP2008097714 A JP 2008097714A JP 2008097714 A JP2008097714 A JP 2008097714A JP 5243833 B2 JP5243833 B2 JP 5243833B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing
- spatial frequency
- subject distance
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、画像を高解像度化するとともに、立体感や遠近感を効果的に作用させる技術に関する。 The present invention relates to a technique for increasing the resolution of an image and effectively causing a stereoscopic effect and perspective.
最近のテレビ受像機は大画面化が進んでおり、放送や通信、蓄積媒体等から入力された画像信号をそのまま表示するのではなく、デジタル信号処理によって水平・垂直方向の画素数を増やして表示することが一般的に行われている。この際、一般的に知られているsinc関数を用いた補間ローパスフィルタやスプライン関数等によって画素数を増やすだけでは解像度を上げることはできない。従来の高解像度化技術には、入力された複数の画像フレーム(以降、フレームと略記する)を合成して1枚のフレームとすることにより、高解像度化しながら画素数を増やす技術が開示されている(例えば、特許文献1、非特許文献1参照)。
Recent television receivers have become larger in screen size, and do not display image signals input from broadcasting, communication, storage media, etc. as they are, but display them by increasing the number of pixels in the horizontal and vertical directions by digital signal processing. It is generally done. At this time, the resolution cannot be increased only by increasing the number of pixels by an interpolation low-pass filter using a generally known sinc function, a spline function, or the like. Conventional high-resolution technology discloses a technology that increases the number of pixels while increasing the resolution by combining a plurality of input image frames (hereinafter abbreviated as frames) into one frame. (For example, refer to
特許文献1および非特許文献1に記載されている高解像度化技術(従来方式)では、(1)位置推定、(2)広帯域補間、(3)加重和、の3つの処理により高解像度化を行う。ここで、(1)位置推定は、入力された複数の画像フレームの各画像データを用いて、各画像データのサンプリング位相(標本化位置)の差を推定するものである。(2)広帯域補間は、原信号に含まれる折返し成分である高周波成分を全て透過する帯域の広いローパスフィルタを用いて補間して、各画像データの画素数(サンプリング点)を増やし、画像データの画素数を高解像度化するものである。(3)加重和は、各高解像度化された画像データに対して、サンプリング位相に応じた重み係数を加味して加重和をとることによって、画素サンプリングの際に生じた折返し成分を打ち消して除去するとともに、原信号の高周波成分を復元するものである。
前記した従来方式(以降、超解像処理という)によれば、表示画像の解像度を高くすることが可能である。
In the high resolution technology (conventional method) described in
According to the above-described conventional method (hereinafter referred to as super-resolution processing), it is possible to increase the resolution of the display image.
図13は、超解像処理の手順を説明する図である。図13(a)は処理対象となる元画像を示す図であり、(b)は元画像の空間周波数スペクトルを示す図であり、(c)は超解像処理をした後の処理後画像を示す図であり、(d)は処理後画像の空間周波数スペクトルを示す図である。
図13(a)に示す元画像1001は、(横)Nx×(縦)Nyの画素数によって構成されている。元画像1001は、撮像系または表示系のサンプリング周波数の2分の1の周波数fの帯域幅を有した画像として表示できることになる。したがって、元画像1001の空間周波数スペクトルは、図13(b)に示すように、周波数fよりも高い周波成分が、折り返し成分として混入したものとなる。
超解像処理は、単一または複数の画像を用いて折り返し成分(高周波成分)を復元することによって、表示される画像の周波数帯域幅を広める。その結果、図13(c)に示す様に、(横)2Nx×(縦)2Nyの画素数の処理後画像1002(高解像度化画像)が得られる。この処理後画像1002の空間周波数スペクトルは、図13(d)に示すように、元画像1001の2倍の帯域幅2fを有する。
したがって、超解像処理では、表示画像の解像度を高くすることが可能となる。
An original image 1001 shown in FIG. 13A is configured by the number of pixels of (horizontal) Nx × (vertical) Ny. The original image 1001 can be displayed as an image having a bandwidth of a frequency f that is half the sampling frequency of the imaging system or the display system. Therefore, as shown in FIG. 13B, the spatial frequency spectrum of the original image 1001 is a mixture of frequency components higher than the frequency f as aliasing components.
In the super-resolution processing, the frequency bandwidth of the displayed image is widened by restoring the aliasing component (high-frequency component) using a single image or a plurality of images. As a result, as shown in FIG. 13C, a processed image 1002 (high resolution image) having the number of pixels of (horizontal) 2Nx × (vertical) 2Ny is obtained. The spatial frequency spectrum of this processed image 1002 has a
Therefore, in the super-resolution process, it is possible to increase the resolution of the display image.
しかしながら、前記超解像処理により画像を高解像度化した場合、元画像に含まれていたぼやけが低減されてしまうため、高解像度化した画像では立体感や遠近感の低下をまねくという問題が発生する。
本発明は、以上のような問題に鑑みてなされたものであり、前記超解像処理による画像の高解像度化と、立体感や遠近感を効果的に作用させることとを両立する技術を提供することを目的とする。
However, when the resolution of the image is increased by the super-resolution processing, the blur included in the original image is reduced, and thus there is a problem that the increased resolution causes a reduction in stereoscopic effect and perspective. To do.
The present invention has been made in view of the problems as described above, and provides a technique that achieves both high resolution of an image by the super-resolution processing and effective action of stereoscopic effect and perspective. The purpose is to do.
前記した課題を解決するために、本発明は、画像中の被写体の奥行きに係る被写体距離に応じて分割して設けた複数の区間と、その区間と画像処理の種類とを関連付けた奥行き情報が記憶される記憶部を備え、入力画像中の被写体の被写体距離を算出し、前記記憶部を参照して、前記算出した前記被写体距離が属する前記区間を特定し、さらに、その特定した前記区間に関連付けられている前記画像処理の種類を特定し、前記特定した種類の前記画像処理を用いて、前記入力画像に対して演算処理を行って処理画像を出力する画像信号処理回路であって、前記画像処理の種類が、少なくとも、前記入力画像の単一フレームまたは複数フレームを用いた合成画像から、空間周波数スペクトルの折り返し成分を復元し空間周波数帯域幅を広げるとともに画素数を水平方向と垂直方向に対して増加する解像度変換処理、空間周波数帯域幅を変えることなく画素数を増やす画素数変化処理および前記入力画像の一部の画素信号を強調するまたは隣り合う画素間の画素値の差を少なくする空間周波数特性変化処理、のいずれか一つまたは二以上の組み合わせであり、前記入力画像中の被写体の被写体距離の算出を、前記入力画像の画面を複数に分割した微小領域ごとに行う際に、前記画像処理の種類として設定された全ての画像処理を用いて前記入力画像に対して演算処理を行って、全ての前記画像処理の種類に対応する前記微小領域の処理画像を求め、前記微小領域ごとに算出された前記被写体距離が属する前記区間を特定し、さらに、その特定した前記区間に関連付けられている前記画像処理の種類を特定し、前記特定した前記画像処理の種類に対応する前記微小領域の処理画像を取得して、前記処理画像の画面を構成して出力し、前記被写体距離が小さい前記区間に対して、前記処理画像の解像度を前記入力画像の解像度よりも高くする前記解像度変換処理または前記解像度変換処理とエッジを強調する前記空間周波数特性変化処理との組み合わせを関連付け、前記被写体距離が大きい前記区間に対して、前記画素数変化処理または前記画素数変化処理と解像度を低くするに従って空間周波数帯域幅を狭くする前記空間周波数特性変化処理との組み合わせを関連付けることを特徴とする。 In order to solve the above-described problem, the present invention provides a plurality of sections divided according to the subject distance related to the depth of the subject in the image, and depth information that associates the sections with the type of image processing. A storage unit for storing, calculating a subject distance of a subject in the input image, referring to the storage unit, identifying the section to which the calculated subject distance belongs, and further, to the specified section An image signal processing circuit that identifies the type of the image processing associated with the image processing and outputs a processed image by performing arithmetic processing on the input image using the image processing of the identified type, type of image processing is at least, from the composite image using a single frame or multiple frames of the input image, when widening the spatial frequency bandwidth restoring the aliasing components of the spatial frequency spectrum Resolution conversion process of increasing the monitor number of pixels in the horizontal direction and the vertical direction, adjacent or emphasize a portion of the pixel signals of the pixel number changing process and the input image to increase the number of pixels without changing the spatial frequency bandwidth Any one or a combination of two or more spatial frequency characteristic changing processes that reduce the difference in pixel value between matching pixels, and the calculation of the subject distance of the subject in the input image is performed on a plurality of screens of the input image. When performing for each minute region divided into two, the calculation processing is performed on the input image using all the image processing set as the image processing type, and the image processing corresponding to all the image processing types is performed. A processed image of a minute area is obtained, the section to which the subject distance calculated for each minute area belongs is specified, and the image associated with the specified section is further specified. Specify the type of processing, acquire the processed image of the minute area corresponding to the specified type of image processing, configure and output the screen of the processed image, and for the section with a small subject distance Te, associates a combination of the resolution converting process or emphasizing the resolution transformation processing and edge the spatial frequency characteristic change processing higher than the resolution of the processed image resolution of the input image, is large the object distance The interval is associated with a combination of the pixel number changing process or the pixel number changing process and the spatial frequency characteristic changing process that narrows the spatial frequency bandwidth as the resolution is lowered .
本発明によれば、画像の高解像度化と、立体感や遠近感を効果的に作用させることとを両立することができる。 According to the present invention, it is possible to achieve both high resolution of an image and effective action of stereoscopic effect and perspective.
《超解像処理における高解像度化とぼやけとの関係》
初めに、超解像処理によって画像を高解像度化した場合に、元の画像に含まれていたぼやけが低減してしまうことを、図14を用いて説明する。図14(a)は、元画像に含まれるぼやけを示す図であり、(b)は高解像度化した処理後画像に含まれるぼやけを示す図であり、(c)は元画像および従来方式画像において知覚される奥行きを示す図である。
<Relationship between high resolution and blur in super-resolution processing>
First, it will be described with reference to FIG. 14 that blurring included in an original image is reduced when the resolution of the image is increased by super-resolution processing. FIG. 14A is a diagram showing blur included in the original image, FIG. 14B is a diagram showing blur included in the processed image having a higher resolution, and FIG. 14C is the original image and the conventional method image. It is a figure which shows the depth perceived in.
図14(a)に示した元画像1001は、山の遠景を背景として人物が撮影された画像である。人物は、手前側に位置し、撮像系の被写界深度内にあって、焦点が合っているとみなせる状態となる。したがって、背景の微小領域1101のぼやけを表す量(ぼやけ量)1102の大きさは、人物の(人物を含む)微小領域1103のぼやけ量1104より大きくなる。ここで、ぼやけ量とは、被写体上の点が表示画像上でどの程度広がるか(点広がり)を示す量とする。
すなわち、人物の微小領域1103のぼやけ量1104は、小さな点広がりとなる。これに対して、背景となる山の遠景では、撮像系の被写界深度が有限であるため、焦点が大きくずれている。したがって、遠景の微小領域1101のぼやけ量1102は大きな点広がりとなる。
An original image 1001 illustrated in FIG. 14A is an image in which a person is photographed against a background of a mountain. The person is located on the near side, is within the depth of field of the imaging system, and can be regarded as being in focus. Accordingly, the amount of blurring (blurring amount) 1102 representing the blurring of the
In other words, the blur amount 1104 of the
図14(b)は、超解像処理後の処理後画像のぼやけ量を示している。人物の微小領域1203のぼやけ量1204および背景の微小領域1201のぼやけ量1202は、超解像処理による高解像度化によって、元画像1001の場合よりも低減する。したがって、それぞれのぼやけ量1204および1202は、元画像1001の場合に比べて、点広がりが減少する。
FIG. 14B shows the blur amount of the processed image after the super-resolution processing. The blur amount 1204 of the
図14(c)は、横軸に同じ絵柄を含む微小領域の並びを表し、縦軸(左側)にぼやけ量を表し、縦軸(右側)に知覚される奥行きを表している。すなわち、横軸は、元画像1001の微小領域のぼやけ量1102と、処理後画像1002の微小領域のぼやけ量1202とを比較するため、同じ絵柄に相当する微小領域を並べたものである。そして、縦軸は、ぼやけ量の大きさが被写体までの距離に依存するので、ぼやけ量と立体感や遠近感(知覚される奥行き)との両方で示している。
図14(c)に示す実線1301は元画像1001の特性であり、破線1302は従来方式画像の特性(処理後画像1002の特性)である。図14(c)に示すように、破線1302のぼやけ量は、実線1301のぼやけ量に比べて、超解像処理によって全域で小さくなる。そのため、元画像1001と処理後画像1002とにおいて同じ絵柄を含む微小領域についてぼやけ量を比較した場合、それぞれG点1303とH点1304となり、処理後画像1002によって知覚される奥行きは、元画像1001によって知覚される奥行きよりも狭くなる。
In FIG. 14C, the horizontal axis represents the arrangement of minute regions including the same pattern, the vertical axis (left side) represents the blur amount, and the vertical axis (right side) represents the perceived depth. In other words, the horizontal axis shows the minute regions corresponding to the same pattern in order to compare the blur amount 1102 of the minute region of the original image 1001 with the blur amount 1202 of the minute region of the processed image 1002. The vertical axis indicates both the amount of blur and the stereoscopic effect and perspective (perceived depth) because the amount of blur depends on the distance to the subject.
The
次に、本発明を実施するための最良の形態(以降、「実施形態」という)について、適宜図面を用いながら詳細に説明する。 Next, the best mode for carrying out the present invention (hereinafter referred to as “embodiment”) will be described in detail with reference to the drawings as appropriate.
《第1実施形態》
まず、知覚される奥行き(奥行き感)を制御する処理機能の概要について、図1を用いて説明する。図1(a)は、従来の処理機能の概要を示す図であり、(b)は本発明の処理機能の概要を示す図である。
図1(a)に示すように、従来の処理では、画像入力101に対して画像処理102を行い、その結果を画像表示103を行う処理系において、超解像処理方式104(前記した超解像処理)が用いられていた。
<< First Embodiment >>
First, an overview of a processing function for controlling the perceived depth (depth feeling) will be described with reference to FIG. FIG. 1A is a diagram showing an overview of conventional processing functions, and FIG. 1B is a diagram showing an overview of processing functions of the present invention.
As shown in FIG. 1A, in the conventional processing, the image processing 102 is performed on the
次に、本発明の処理では、図1(b)に示すように、画像処理102aが、超解像処理方式104(解像度変換処理)を含む複数の方式(画素数拡大処理方式121(画素数変化処理)、エッジ強調処理方式122(空間周波数特性変化処理)、平滑化処理方式123(空間周波数特性変化処理)等)を備える。そして、画像入力101に対して、その画像の奥行き情報を解析する奥行き情報解析124が設けられる。奥行き情報解析124からの出力である「方法の指定」125が画像処理102aに入力される。画像処理102aは、方法の指定125にしたがって、画像処理102aに設けられた方式を適宜選択・組み合わせて画像処理を行う。その画像処理の結果が、画像表示103によって表示される。
奥行き情報解析124における解析処理のパラメータ設定は、画質設定126や処理設定127によって変更可能である。
画質設定126は、奥行き感をどれだけ強調するかを設定する機能を有する。すなわち、画質設定126は、エッジ強調の度合いや平滑化の度合いを設定する機能を有する。
処理設定127は、方式の処理パラメータを設定する機能を有する。なお、処理設定127の詳細については、後記する。
Next, in the processing of the present invention, as shown in FIG. 1B, the image processing 102a includes a plurality of methods (pixel number enlargement processing method 121 (pixel number) including the super-resolution processing method 104 (resolution conversion processing). Change processing), edge enhancement processing method 122 (spatial frequency characteristic change processing), smoothing processing method 123 (spatial frequency characteristic change processing), and the like. For the
The parameter setting for the analysis process in the
The image quality setting 126 has a function of setting how much depth is emphasized. That is, the image quality setting 126 has a function of setting the degree of edge enhancement and the degree of smoothing.
The process setting 127 has a function of setting process parameters. Details of the process setting 127 will be described later.
ここで、画像処理102aにおいて用いられる、画素数拡大処理方式121、エッジ強調処理方式122、および平滑化処理方式123について、以下に説明する。
画素数拡大処理方式121は、ほとんど解像度変化を伴わない方式であって、例えば、画素間の直線補間や非線形補間などの補間によって画素数の増加が行われる。したがって、画素数拡大処理方式121を用いた場合、処理後画像1002(図14(b)参照)の空間周波数帯域幅は、元画像1001の空間周波数帯域幅に対して、ほとんど変化しない。
エッジ強調処理方式122は、隣り合う画素間の画素値(例えば、(輝度、色差)あるいはRGB等)の差を強調する方式である。例えば、エッジ強調処理方式122は、輪郭を強調することが可能となる。
平滑化処理方式123は、隣り合う画素間の画素値の差を小さくする方式である。例えば、平滑化処理方式123は、輪郭をぼかすことが可能となる。すなわち、平滑化処理方式123は、処理後画像1002の空間周波数帯域幅を、元画像1001の空間周波数帯域幅より狭くすることが可能となる。
Here, the pixel number
The pixel number
The edge
The smoothing
次に、奥行き情報解析124における、解像度(処理)と奥行き感すなわち奥行き距離(推定)との関係を、図2を用いて説明する。図2は、解像度(処理)と奥行き距離(推定)との関係の一例を示す図である。
人間の知覚特性によれば、解像度(処理)と奥行き距離(推定)との関係は、領域140に示したように、奥行き距離(推定)が大きくなるにしたがって、解像度(処理)が低くてもよいという傾向にある。この理由は、図14(c)に示したように、ぼやけ量が大きい場合には知覚される奥行きが遠く感じられるためである。そして、ぼやけ量がある程度大きな画像領域に対しては、超解像処理を行うのではなく、ぼやけ量が改善されないような方式(例えば、画素数拡大処理方式121や平滑化処理方式123)を用いた方が良いことになる。
Next, the relationship between the resolution (processing) and the sense of depth, that is, the depth distance (estimation) in the
According to human perceptual characteristics, the relationship between the resolution (processing) and the depth distance (estimation) is such that, as the depth distance (estimation) increases, the resolution (processing) decreases as the depth distance (estimation) increases. It tends to be good. This is because, as shown in FIG. 14C, when the blur amount is large, the perceived depth is felt far away. Then, for an image region having a somewhat large amount of blur, a method that does not improve the blur amount (for example, the pixel number
次に、奥行き情報解析124の出力である方式の指定125について、図3,図4を用いて説明する。図3は、「奥行き距離小」の方式の指定の場合の方式選択の一例を示す図である。図4は、「奥行き距離大」の方式の指定の場合の方式選択の一例を示す図である。
図3では、奥行き情報解析124が、画像入力101の中の微小領域について、奥行き距離が小と判断した場合を示している。その奥行き情報解析124の結果から、方式の指定125aは、超解像処理を選択する情報となる。これにより、画像入力101は超解像処理104によって高解像度化されて、その高解像度化された画像が画像表示103によって表示される。
Next, the
FIG. 3 illustrates a case where the
図4では、奥行き情報解析124が、画像入力101の中の微小領域について、奥行き距離が大と判断された場合を示している。その奥行き情報解析124の結果から、方式の指定125bは、画素数拡大処理方式121によって処理した後に、平滑化処理方式123によって処理することを選択する情報となる。これにより、画像入力101は画素数拡大処理方式121によって画素数が増やされ、その後平滑化処理方式によって平滑化されて、その処理された画像が画像表示103によって表示される。
FIG. 4 illustrates a case where the
次に、奥行き情報解析124の詳細な処理機能について、図5を用いて説明する。図5(a)は、奥行き情報解析において、焦点ぼやけ量推定を用いた場合の処理機能の一例を示す図であり、(b)は、奥行き情報解析において、空間周波数分析を用いた場合の処理機能の一例を示す図であり、(c)は、奥行き情報解析において、奥行き距離推定を用いた場合の処理機能の一例を示す図である。
Next, detailed processing functions of the
奥行き情報解析124aは、図5(a)に示すように、画像の入力を受け付けて、領域分割141、焦点ぼやけ量推定142、奥行き量閾値処理143、処理割り当て144の順に処理を実行し、方式の指定情報を出力する。
領域分割141は、入力された画像情報を、画面上の微小領域に分割する機能を有する。微小領域とは、縦および横に隣り合う画素の並びの幅を有する領域のことであって、例えば、後記する図6(a)に示す(横)dx×(縦)dyの矩形領域のことである。なお、この微小領域のサイズは、処理設定127によって設定される。
そして、微小領域ごとに、焦点ぼやけ量推定142、奥行き量閾値処理143、処理割り当て144の各処理が行われる。
As shown in FIG. 5A, the depth information analysis 124a receives input of an image and executes processing in the order of
The
Then, each process of focal blur amount estimation 142, depth
焦点ぼやけ量推定142は、カメラレンズの焦点ぼやけ量を推定し、その推定結果から奥行き距離を推定する機能を有する。なお、焦点ぼやけ量の推定は、例えば、微小領域内の画素値または微小領域を含むその周辺の画素値も含めた相関の大きさに基づいて行われる。
奥行き量閾値処理143は、推定した奥行き距離の長さの閾値を設定する機能を有する。この閾値は、推定した奥行き距離の長さに応じて、処理に用いる方式を決定するときの比較基準として用いられる。なお、この閾値は、画質設定126によって、可変にされるものとする。
処理割り当て144は、推定された奥行き距離の長さと、奥行き量閾値処理143によって設定された閾値とを比較判定し、ある閾値間の範囲内であればどの方式を用いるかを決定する機能を有する。
The focal blur amount estimation 142 has a function of estimating the focal blur amount of the camera lens and estimating the depth distance from the estimation result. The focal blur amount is estimated based on, for example, the correlation value including the pixel value in the minute region or the surrounding pixel value including the minute region.
The depth amount
The
なお、前記した焦点ぼやけ量推定142では、焦点ぼやけ量から奥行き距離を推定していたが、焦点ぼやけ量を推定する(焦点ぼやけ量分析)機能だけであっても良い。その場合、奥行き量閾値処理143は、推定した焦点ぼやけ量の大きさの閾値を設定する機能を有するものとする。
In the focus blur amount estimation 142 described above, the depth distance is estimated from the focus blur amount. However, only the function of estimating the focus blur amount (focus blur amount analysis) may be used. In this case, it is assumed that the depth
奥行き情報解析124bは、図5(b)に示すように、画像の入力を受け付けて、領域分割151、空間周波数分析152、奥行き量閾値処理153、処理割り当て154の順に処理を実行し、方式の指定情報を出力する。
領域分割151は、前記した領域分割141と同様に、入力された画像情報を、画像上の微小領域に分割する機能を有する。ただし、領域分割141において用いた微小領域のサイズとは異なっても良い。なお、この微小領域のサイズは、処理設定127によって設定される。
そして、微小領域ごとに、空間周波数分析152、奥行き量閾値処理153、処理割り当て154の各処理が行われる。
As shown in FIG. 5B, the depth information analysis 124b receives input of an image and executes processing in the order of
The
Then, each process of
空間周波数分析152は、空間周波数帯域幅を求めて、その結果から奥行き距離を推定する機能を有する。なお、空間周波数帯域幅から奥行き距離を推定可能な根拠は、カメラレンズの被写界深度が有限であるので、被写体画像の空間周波数帯域幅は被写体までの距離に依存することに基づく。つまり、遠くのものはぼやけて空間周波数帯域幅が狭く、近いものはぼやけが少なく空間周波数帯域幅が広くなる。この関係に基づいて、微小領域毎に奥行き距離を推定するものである。
奥行き量閾値処理153は、推定した奥行き距離の長さの閾値を設定する機能を有する。この閾値は、推定した奥行き距離の長さに応じて、処理に用いる方式を決定するときの比較基準として用いられる。なお、この閾値は、画質設定126によって、可変にされるものとする。また、この閾値は、前記した奥行き量閾値処理143による設定とは異なっていても良い。
処理割り当て154は、推定された奥行き距離の長さと、奥行き量閾値処理153によって設定された閾値とを比較判定し、ある閾値間の範囲内であればどの方式を用いるかを決定する機能を有する。
The
The depth amount
The
なお、前記した空間周波数分析152では、空間周波数帯域幅から奥行き距離を推定していたが、空間周波数帯域幅を算出する機能だけであっても良い。その場合、奥行き量閾値処理153は、算出した空間周波数帯域幅の大きさの閾値を設定する機能を有するものとする。
In the
奥行き情報解析124cは、図5(c)に示すように、画像の入力を受け付けて、領域分割161、奥行き距離推定162、奥行き量閾値処理163、処理割り当て164の順に処理を実行し、方式の指定情報を出力する。
領域分割161は、前記した領域分割141,151と同様に、入力された画像情報を、画像上の微小領域に分割する機能を有する。ただし、領域分割141,151において用いた微小領域のサイズとは異なっても良い。なお、この微小領域のサイズは、処理設定127によって設定される。
そして、微小領域ごとに、奥行き距離推定162、奥行き量閾値処理163、処理割り当て164の各処理が行われる。
As shown in FIG. 5C, the depth information analysis 124c receives image input and executes processing in the order of
The
Then, each process of
奥行き距離推定162は、奥行き距離を推定する機能を有する。奥行き距離推定162は、焦点ぼやけ量推定142(図5(a)参照)によって推定される奥行き距離と、空間周波数分析152(図5(b)参照)によって推定される奥行き距離とをそれぞれ算出し、双方に重みを加味して重み付き奥行き距離を算出する。
奥行き量閾値処理163は、重み付き奥行き距離の長さの閾値を設定する機能を有する。この閾値は、重み付き奥行き距離の長さに応じて、処理に用いる方式を決定するときの比較基準として用いられる。なお、この閾値は、画質設定126によって、可変にされるものとする。また、この閾値は、前記した奥行き量閾値処理143,153による設定とは異なっていても良い。
処理割り当て164は、重み付き奥行き距離の長さと、奥行き量閾値処理163によって設定された閾値とを比較判定し、ある閾値間の範囲内であればどの方式を用いるかを決定する機能を有する。
The
The depth
The
次に、第1実施形態における処理の流れについて、図6,図7を用いて説明する。図6(a)は、微小領域の一例を示す図であり、(b)は、微小領域のぼやけ量の一例を示す図であり、(c)は、ぼやけ量と奥行き距離推定値との関係の一例を示す図である。図7(a)は、奥行き距離推定値と奥行き量閾値との関係を表す一例を示す図であり、(b)は、奥行き量閾値と処理方式とを関連付ける処理方式割当テーブルの一例を示す図である。 Next, the flow of processing in the first embodiment will be described with reference to FIGS. FIG. 6A is a diagram illustrating an example of a minute region, FIG. 6B is a diagram illustrating an example of a blur amount of the minute region, and FIG. 6C is a relationship between the blur amount and the depth distance estimation value. It is a figure which shows an example. FIG. 7A is a diagram illustrating an example of the relationship between the depth distance estimation value and the depth amount threshold value, and FIG. 7B is a diagram illustrating an example of a processing method allocation table that associates the depth amount threshold value with the processing method. It is.
図6(a)には、処理対象となる元画像201が示されている。そして、元画像201の画面は、複数の微小領域202に分割される。この処理は、図5(a)に示した領域分割141によって行われる。
微小領域202のサイズは、(横)dx×(縦)dyであり、前記した処理設定127(図5参照)によって決定される。また、微小領域202のサイズは、元画像201全体の縦横の画素数、元画像201の空間周波数帯域幅、画像処理後の画質および実装したときの演算処理速度等との兼ね合いで、決められる。
FIG. 6A shows an original image 201 to be processed. Then, the screen of the original image 201 is divided into a plurality of
The size of the
図6(b)は、微小領域202ごとに、ぼやけ量(焦点ぼやけ量)Brxyを演算して推定することを示している。図6(c)において、データの範囲211は、予め、ぼやけ量Brxyと既知の奥行き距離との関係を求めてプロットしたデータを示している。また、予測関数210は、データの範囲211のデータを用いて、回帰分析や最小二乗法等によって導出された傾向を示している。そして、ぼやけ量Brxy(図6(b)参照)が算出されると、予測関数210を用いて、奥行き距離推定値(d)を算出(推定)することが可能となる。なお、予測関数210は、図6(c)では、直線として表されているが、高次の曲線であっても良い。この予測関数210は、数式でも、テーブルであっても構わない。
なお、図6(b)および(c)に示した処理は、図5(a)に示した焦点ぼやけ量推定142によって行われる。
また、ぼやけ量Brxyを算出する代わりに、空間周波数帯域幅を算出する場合は、図5(b)に示した空間周波数分析152によって行われる処理となる。さらに、ぼやけ量Brxyを算出する代わりに、重み付き奥行き距離推定値(d)を算出する場合は、図5(c)に示した奥行き距離推定162によって行われる処理となる。
FIG. 6B shows that the blur amount (focus blur amount) Brxy is calculated and estimated for each
The processes shown in FIGS. 6B and 6C are performed by the focal blur amount estimation 142 shown in FIG.
In addition, when calculating the spatial frequency bandwidth instead of calculating the blur amount Brxy, the processing is performed by the
次に、図7(a)では、奥行き距離推定値(d)を複数の区間に分割する閾値を設定することが示されている。図7(a)は、閾値が6個(d1〜d6)設定された例を示されている。この閾値を設定する処理は、図5(a)に示した奥行き量閾値処理143によって行われる。そして、閾値は、画質設定126(図5参照)によって決定される。
Next, FIG. 7A shows that a threshold value for dividing the depth distance estimation value (d) into a plurality of sections is set. FIG. 7A shows an example in which six threshold values (d1 to d6) are set. The processing for setting this threshold is performed by the depth
図7(b)では、閾値(d1〜d6)によって分割された区間にそれぞれ対応する処理方式を関連付けた、処理方式割当テーブル220(奥行き情報)が示されている。例えば、処理方式割当テーブル220では、奥行き距離推定値(d)がd3からd4の区間内にあれば、処理方式4によって画像処理が実行されることになる。なお、処理方式割当テーブル220に示されている、閾値と処理方式との関連付けは、画質設定126(図5参照)によって決定される。
FIG. 7B shows a processing method allocation table 220 (depth information) in which processing methods corresponding to the sections divided by the threshold values (d1 to d6) are associated with each other. For example, in the processing method allocation table 220, if the depth distance estimation value (d) is within the section from d3 to d4, image processing is executed by the
そして、処理の流れは、図7(a)中の矢印によって示されるように、ぼやけ量Brxyが与えられると、予測関数210を用いて、奥行き距離推定量(d)が閾値d3からd4の間にあると判定される。次に、処理方式割当テーブル220を参照して、処理方式4で処理を行うことが決定される。この処理は、図5(a)に示した処理割り当て144によって行われる。
Then, as indicated by the arrow in FIG. 7A, the flow of processing is such that when the blur amount Brxy is given, the estimated depth distance (d) is between the threshold values d3 and d4 using the
以上、図6(a),(b)および図7(a),(b)に示した処理の流れは、奥行き情報解析124aにおける処理の流れ、すなわち、焦点ぼやけ量(ぼやけ量Brxy)を用いた場合について示した。なお、奥行き情報解析124bにおける処理の流れは、焦点ぼやけ量(ぼやけ量Brxy)を空間周波数帯域幅に置き換えて、図6(a),(b)および図7(a),(b)に示した処理の流れと同様となる。また、奥行き情報解析124c(図5(c)参照)における処理の流れも、焦点ぼやけ量(ぼやけ量Brxy)を重み付き奥行き距離に置き換えて、図6(a),(b)および図7(a),(b)に示した処理の流れと同様となる。
また、詳細な説明は省略するが、微小領域ごとに動きベクトルを検出し、その動きベクトルの大きさが、近くは大きく、遠くは小さいことを利用して、奥行き距離を推定しても良い。この場合には、焦点ぼやけ量を動きベクトルの大きさに置き換えて、図6(a),(b)および図7(a),(b)に示した処理の流れと同様となる。
The processing flow shown in FIGS. 6A and 6B and FIGS. 7A and 7B uses the processing flow in the depth information analysis 124a, that is, the focus blur amount (blur amount Brxy). Shown if there was. The processing flow in the depth information analysis 124b is shown in FIGS. 6A and 6B and FIGS. 7A and 7B by replacing the focal blur amount (blur amount Brxy) with the spatial frequency bandwidth. The process flow is the same. In addition, the processing flow in the depth information analysis 124c (see FIG. 5C) also replaces the focal blur amount (blur amount Brxy) with the weighted depth distance, and FIGS. The processing flow is the same as shown in a) and (b).
Although detailed description is omitted, a depth vector may be estimated by detecting a motion vector for each minute region and using the fact that the size of the motion vector is large near and small near. In this case, the focal blur amount is replaced with the magnitude of the motion vector, and the processing flow is the same as that shown in FIGS. 6 (a) and 6 (b) and FIGS. 7 (a) and 7 (b).
《具体例1》
図7に示した処理の流れについて、図5に示す奥行き情報解析124aを用いた具体的な例で示すとともに、処理後画像において知覚される奥行き感の改善効果の一具体例について、図8,図9を用いて説明する。図8(a)は、奥行き距離推定値の閾値の設定を表す一具体例を示す図であり、(b)は、閾値によって区分された領域と微小領域との関係を表す一具体例を示す図であり、(c)は、閾値によって区分された領域と処理方式とを関連付ける処理方式割当テーブルの一具体例を示す図である。図9(a)は、処理後画像のぼやけ量を表す一具体例を示す図であり、(b)は、元画像、処理後画像、および従来方式画像において知覚される奥行きを表す一具体例を示す図である。
<< Specific Example 1 >>
The processing flow shown in FIG. 7 is shown by a specific example using the depth information analysis 124a shown in FIG. 5, and a specific example of the effect of improving the sense of depth perceived in the processed image is shown in FIG. This will be described with reference to FIG. FIG. 8A is a diagram showing a specific example showing the setting of the threshold value of the depth distance estimation value, and FIG. 8B shows a specific example showing the relationship between the region divided by the threshold value and the minute region. FIG. 8C is a diagram illustrating a specific example of a processing method allocation table that associates regions classified by thresholds with processing methods. FIG. 9A is a diagram showing a specific example showing the blur amount of the processed image, and FIG. 9B is a specific example showing the perceived depth in the original image, the processed image, and the conventional system image. FIG.
図8(a)に示すように、奥行き距離推定値(d)は、閾値dA,dB,dC,dDによって5つの領域(A,B,C,D,E)に分割される。この閾値の設定は、画質設定126(図5(a)参照)によって行われる。
そして、それぞれの領域(A,B,C,D,E)では、図8(b)に示すように、元画像201の人物は、奥行き距離推定値(d)が最も短い領域Eに、また、背景は、奥行き距離推定値(d)の違いにより、近い方から順に領域D、領域C、領域B、領域Aに設定されることになる。
そして、図8(c)に示すように、処理方式割当テーブル230が、画質設定126(図5(a)参照)によって設定される。すなわち、各領域(A,B,C,D,E)に対応する処理方式(5,4,3,2,1)が関係付けられる。処理方式割当テーブル230では、最も近い人物の領域Eの処理には、高解像度化方式(超解像処理方式)が割り当てられる。また、最も遠い背景の領域Aの処理には、元画像201が有するぼやけ量を保存する様に解像度変化の無い単純画素数拡大方式が割り当てられる。そして、その中間領域となる領域B,C,Dの処理には、高解像度化(超解像処理)の後、異なる周波数帯域幅のフィルタ(強、中、弱)による平滑化処理(強、中、弱)を行う方式が割り当てられる。なお、平滑化処理(強)は、平滑化処理(中)に比較して、ぼやけ量をより大きくする機能を有する。また、平滑化処理(中)は、平滑化処理(弱)に比較して、ぼやけ量をより大きくする機能を有する。
As shown in FIG. 8A, the depth distance estimation value (d) is divided into five regions (A, B, C, D, E) by threshold values dA, dB, dC, dD. This threshold value is set by the image quality setting 126 (see FIG. 5A).
And in each area | region (A, B, C, D, E), as shown in FIG.8 (b), the person of the original image 201 is in the area E with the shortest depth distance estimated value (d). The background is set in the region D, the region C, the region B, and the region A in order from the nearest due to the difference in the depth distance estimation value (d).
Then, as shown in FIG. 8C, the processing method allocation table 230 is set by the image quality setting 126 (see FIG. 5A). That is, the processing method (5, 4, 3, 2, 1) corresponding to each region (A, B, C, D, E) is related. In the processing method assignment table 230, a high resolution method (super-resolution processing method) is assigned to the processing of the region E of the closest person. Further, the processing of the farthest background area A is assigned with a simple pixel number enlargement method without changing the resolution so as to preserve the blur amount of the original image 201. In the processing of the regions B, C, and D that are intermediate regions, after high resolution (super-resolution processing), smoothing processing (strong, medium, weak) with different frequency bandwidth filters (strong, medium, weak) Medium, weak) is assigned. Note that the smoothing process (strong) has a function of increasing the blur amount more than the smoothing process (medium). Further, the smoothing process (medium) has a function of increasing the blur amount more than the smoothing process (weak).
図9(a)に示すように、図8に示した処理の後に得られる処理後画像240では、領域Eに属する微小領域243は超解像処理方式によって処理されている。したがって、その微小領域243のぼやけ量244は、元画像201(図8(b)参照)のぼやけ量より小さくなっている。また、領域Aに属する微小領域241は、単純画素数拡大方式によって処理されている。したがって、その微小領域241のぼやけ量242は、元画像201のぼやけ量と変わらない。
As shown in FIG. 9A, in the post-processing image 240 obtained after the processing shown in FIG. 8, the minute region 243 belonging to the region E is processed by the super-resolution processing method. Therefore, the
図9(b)に示す実線250は元画像の特性であり、一点鎖線251は図8(c)に示した処理方式を用いて処理した処理後画像の特性であり、破線252は従来方式画像の特性である。
図9(b)より明らかなように、破線252のぼやけ量は、実線250のぼやけ量に対して、同じ絵柄を含む微小領域において小さくなる。それに対して、一点鎖線251のぼやけ量は、ぼやけ量が小さい範囲では破線252のぼやけ量に近いが、ぼやけ量が大きい範囲では実線250に近くなる。すなわち、同じ絵柄を含む微小領域において、一点鎖線251のA点253は、破線252のB点254よりも、知覚される奥行きが遠くなる。
そして、一点鎖線251の最大のぼやけ量は実線250にほぼ一致するため、処理後画像240に対して知覚される奥行きは、元画像の場合とほぼ同じになる。
The
As is clear from FIG. 9B, the blur amount indicated by the
Since the maximum blur amount of the alternate long and
《具体例2》
図7に示した処理の流れについて、図5に示す奥行き情報解析124aを用いた他の具体的な例で示すとともに、処理後画像において知覚される奥行き感の改善効果の他の具体例について、図10を用いて説明する。図10(a)は、閾値によって区分された領域と微小領域との関係を表す他の具体例を示す図であり、(b)は、閾値によって区分された微小領域と処理方式とを関連付ける処理方式割当テーブルの他の具体例を示す図であり、(c)は、元画像、処理後画像、および従来方式画像において知覚される奥行きを表す他の具体例を示す図である。
<< Specific Example 2 >>
The processing flow shown in FIG. 7 is shown in another specific example using the depth information analysis 124a shown in FIG. 5 and another specific example of the effect of improving the perceived depth perception in the processed image. This will be described with reference to FIG. FIG. 10A is a diagram showing another specific example showing the relationship between the area and the micro area divided by the threshold, and FIG. 10B is a process for associating the micro area and the processing method divided by the threshold. It is a figure which shows the other specific example of a system allocation table, (c) is a figure which shows the other specific example showing the depth perceived in an original image, a post-process image, and a conventional system image.
図10(a)に示すように、元画像201の人物は奥行き距離推定値(d)が最も短い領域Eに、また、背景は奥行き距離推定値(d)の違いにより、近い方から順に領域D、領域C、領域B、領域Aに分割されたとする。
そして、図10(b)に示すように、処理方式割当テーブル260が、画質設定126(図5(a)参照)によって設定される。すなわち、各領域(A,B,C,D,E)に対応する処理方式(a,b,c,d,e)が関係付けられる。処理方式割当テーブル260では、最も近い人物の領域Eの処理には、知覚される奥行き距離がより近くなるように強調するエッジ処理を高解像度化(超解像処理)の後に行う方式が割り当てられる。これにより、領域Eでは、空間周波数の高域部分が強調されてぼやけ量が相対的に低減する。
また、最も遠い背景の領域Aの処理には、単純画素数拡大を行った後に、フィルタリングによって平滑化して更にぼやけを強調する方式が割り当てられる。そして、その中間領域となる領域B,C,Dの処理には、それぞれ、処理方式割当テーブル260に示した処理方式が割り当てられる。
As shown in FIG. 10 (a), the person of the original image 201 is in the region E having the shortest depth distance estimated value (d), and the background is the region in order from the closest due to the difference in the depth distance estimated value (d). It is assumed that the image is divided into D, region C, region B, and region A.
Then, as shown in FIG. 10B, the processing method allocation table 260 is set by the image quality setting 126 (see FIG. 5A). That is, the processing methods (a, b, c, d, e) corresponding to the respective regions (A, B, C, D, E) are related. In the processing method assignment table 260, a method of performing edge processing for emphasizing the perceived depth distance closer to the processing of the closest person region E after high resolution (super-resolution processing) is assigned. . Thereby, in the area | region E, the high frequency part of a spatial frequency is emphasized and the blurring amount reduces relatively.
Further, the processing of the farthest background area A is assigned with a method in which the number of simple pixels is expanded and then smoothed by filtering to further enhance blur. Then, the processing methods shown in the processing method assignment table 260 are assigned to the processes of the regions B, C, and D that are intermediate regions.
図10(c)に示す実線270は元画像の特性であり、一点鎖線271は図10(b)に示した処理方式を用いて処理した処理後画像の特性であり、破線272は従来方式画像の特性である。
図10(c)から明らかなように、破線272のぼやけ量は、実線270のぼやけ量に対して、同じ絵柄を含む微小領域において小さくなる。そして、ぼやけ量が小さい範囲(領域E)では、一点鎖線271の知覚される奥行き(ぼやけ量)は、エッジ処理によって、立体感を強調する効果を演出可能となり、破線272の知覚される奥行き(ぼやけ量)より小さくなる。
また、ぼやけ量が大きい範囲(領域A)では、一点鎖線271の知覚される奥行き(ぼやけ量)は、平滑化処理の効果によって、実線270の知覚される奥行き(ぼやけ量)より大きくなる。すなわち、同じ絵柄を含む微小領域において、一点鎖線271のC点273は、実線270のD点274より、知覚される奥行きが遠くなる。これによって、一点鎖線271のぼやけ量の範囲が、実線270のぼやけ量の範囲より広くなるため、知覚される奥行きも広くなる。
このように、具体例2は、元画像よりも知覚される奥行きを遠くして、立体感や遠近感に作用させることが可能になる。
The
As is apparent from FIG. 10C, the blur amount indicated by the
In the range where blur amount is large (area A), the perceived depth (blur amount) of the alternate long and short dash line 271 is larger than the perceived depth (blur amount) of the
As described above, in the second specific example, the perceived depth is made farther than the original image, and the three-dimensional effect and the perspective effect can be applied.
《第2実施形態》
次に、第1実施形態において前記した処理を適用した画像表示装置の構成例を、図11を用いて説明する。図11は、画像表示装置の構成例を示す図である。
図11において、画像表示装置300は、入力部311、録画再生部312、制御部313、ユーザインタフェース部314、コンテンツ蓄積部315、画像信号処理部316、音声出力部317、および表示部318によって構成される。
なお、図11中の二重線は、画像や音声の信号の流れを示し、一重線は、制御信号の流れを示している。
<< Second Embodiment >>
Next, a configuration example of an image display device to which the above-described processing is applied in the first embodiment will be described with reference to FIG. FIG. 11 is a diagram illustrating a configuration example of an image display device.
In FIG. 11, the image display apparatus 300 includes an
Note that the double lines in FIG. 11 indicate the flow of image and audio signals, and the single lines indicate the flow of control signals.
入力部311は、テレビジョン信号などを含む放送波やネットワークなどを介して放送信号、映像信号、および画像や音声を含む放送・映像コンテンツ320の入力を受け付ける。入力部311は、放送波を受信するチューナを備えたものでも、ネットワークと接続するLAN用コネクタを備えたものでも、USBコネクタを備えたものでも良い。また、入力部311は、画像信号や音声信号をデジタル入力する端子を備えたものでも、コンポジット端子やコンポーネント端子などのアナログ入力端子を備えたものでも良い。あるいは、入力部311は、ワイヤレスにてデータを転送する受信部でも良い。
録画再生部312は、入力部311が受け付けたコンテンツを録画もしくは再生する。なお、入力部311から受け付けた信号をスルーする機能を備えていても良い。
The
The recording /
制御部313は、画像表示装置300の各部(311,312,314〜318)の制御を司る機能を有し、各部(311,312,314〜318)間の情報の伝達を司る。。制御部313は、例えば、演算処理を実行する図示しないCPU(Central Processing Unit )と、このCPUが演算処理に用いる主記憶装置である図示しないメモリとを備える。メモリは、RAM(Random Access Memory)またはROM(Read Only Memory)等により実現される。そして、メモリに格納されたアプリケーションプログラムがRAMに展開され、CPUが、それを実行することにより種々の処理を具現化する。
ユーザインタフェース部314は、ユーザが画像表示装置300の操作を行う機能を備える。
The
The
コンテンツ蓄積部315は、録画再生部312を経由して、コンテンツを格納する機能を有する。コンテンツ蓄積部315は、例えば、ハードディスクドライブでも、フラッシュメモリでも、リムーバブルメディアディスクドライブでも良い。
画像信号処理部316は、画像信号を、第1実施形態に記載した処理を行う機能を有する。なお、画像信号処理部316の詳細な構成については、後記する。
音声出力部317は、録画再生部312が再生した音声信号を出力する機能を有する。音声出力部317は、例えば、スピーカ等でもよい。
表示部318は、画像信号処理部316において処理された画像を表示する機能を有する。表示部318は、例えば、プラズマパネルモジュールでも、LCD(Liquid Crystal Display)モジュールでも、プロジェクタ用デバイスでもよい。
The
The image
The
The
画像表示装置300は、例えば、プラズマテレビでも、液晶テレビでも、ブラウン管でも、プロジェクタでもよく、また他のデバイスを用いた装置でも良い。そして、画像表示装置300が、第1実施形態に記載した処理を行う画像信号処理部316を備えることで、入力部311から受け付けた画像信号をより高解像度化、かつ遠近感や立体感を有する高画質な画像信号として表示部318に表示することができる。
なお、第1実施形態に記載した処理は、画像信号処理部316において行うと説明したが、制御部313においてソフトウェア(プログラム)によって実現されても良い。
The image display apparatus 300 may be, for example, a plasma television, a liquid crystal television, a cathode ray tube, a projector, or an apparatus using another device. The image display apparatus 300 includes the image
The processing described in the first embodiment has been described as being performed by the image
次に、図11に示した画像信号処理部316の構成例を、図12を用いて説明する(適宜、図1,図5,図11参照)。図12は、画像信号処理部の構成例を示す図である。
画像信号処理部316への入力は、録画再生部312から出力される画像信号入力401、ユーザインタフェース部314によって受け付けられ、制御部313を介して出力される画質設定412、および生産者によって制御部313を介して設定される処理設定411である。また、画像信号処理部316の出力は、画像信号出力403であり、表示部318への入力になる。
画質設定412の機能は、図5(a)に示した画質設定126の機能と同じである。また、処理設定411の機能は、図5(a)に示した処理設定127の機能と同じである。
Next, a configuration example of the image
The input to the image
The function of the image quality setting 412 is the same as the function of the image quality setting 126 shown in FIG. The function of the process setting 411 is the same as the function of the process setting 127 shown in FIG.
画像信号処理部316(画像信号処理回路)は、奥行き情報解析処理部421、閾値判定・処理部422、超解像処理部423、画素数拡大処理部424、フィルタ特性設定部425、フィルタ処理部426、および出力選択部427を備えている。
奥行き情報解析処理部421の機能は、図5(a)に示した領域分割141の機能と焦点ぼやけ量推定142の機能、図5(b)に示した領域分割151の機能と空間周波数分析152の機能、および図5(c)に示した領域分割161の機能と奥行き距離推定162の機能、のいずれか一つまたは組み合わせである。また、奥行き情報解析処理部421の機能は、処理設定411によって設定される。
閾値判定・処理部422の機能は、図5(a)に示した奥行き量閾値処理143の機能と処理割り当て144の機能、図5(b)に示した奥行き量閾値処理153の機能と処理割り当て154の機能、および図5(c)に示した奥行き量閾値処理163の機能と処理割り当て164の機能、のいずれか一つまたは組み合わせである。また、閾値判定・処理部422の機能は、画質設定412によって設定される。
なお、閾値判定・処理部422から出力選択部427へ引かれた線430は、図1(b)に示す「方式の指定125」に相当する。
The image signal processing unit 316 (image signal processing circuit) includes a depth information analysis processing unit 421, a threshold determination /
The functions of the depth information analysis processing unit 421 are the function of the
The functions of the threshold determination /
A
超解像処理部423は、前記した超解像処理方式(解像度変換処理)によって処理を行う機能を有する。
画素数拡大処理部424は、画素数拡大処理方式(画素数変化処理)によって処理を行う機能を有する。
フィルタ特性設定部425は、画質設定412の出力を受け付けて、平滑化処理におけるフィルタの強弱の程度やエッジ強調の強弱の程度を決定し、フィルタ処理部426におけるエッジ強調処理または平滑化処理におけるフィルタの強弱を制御する機能を有する。
フィルタ処理部426は、超解像処理部423の出力および画素数拡大処理部424の出力を受け付けて、エッジ強調処理(空間周波数特性変化処理)または平滑化処理(空間周波数特性変化処理)を行う機能を有する。ただし、フィルタ処理部426から出力選択部427へ出力する線は、図12では一本しか記載されていないが、エッジ強調処理または平滑化処理において用いられたフィルタの数に相当する種類の画像信号が出力されていることを表している。
なお、超解像処理部423、画素数拡大処理部424、およびフィルタ処理部426は、奥行き情報解析処理部421において領域分割された微小領域と同じサイズの微小領域ごとに常時繰り返し処理を行っているものとする。
The
The pixel number enlargement processing unit 424 has a function of performing processing by a pixel number enlargement processing method (pixel number change process).
The filter characteristic setting unit 425 receives the output of the image quality setting 412, determines the level of strength of the filter in the smoothing process and the level of edge enhancement, and the filter in the edge enhancement process or smoothing process in the
The
Note that the
出力選択部427は、閾値判定・処理部422の出力を示す線430、すなわち「方式の指定125(図1参照)」を受け付けて、微小領域ごとに、指定の処理方式によって処理された画像を選択する機能を有する。
The
なお、処理設定411および画質設定412は、それぞれ、出荷時の設定情報を記憶する機能、またはユーザが設定した設定情報を記憶する機能等が備えられているものとする。 Note that each of the process setting 411 and the image quality setting 412 includes a function for storing setting information at the time of shipment, a function for storing setting information set by the user, and the like.
以上説明したように、本実施形態に係る画像表示装置300(図11参照)は、処理対象となる画像に対して奥行き情報解析124(図1(b)参照)を行い、その奥行き情報の解析結果に基づいて画像の微小領域毎に画像処理方式(超解像処理方式104、画素数拡大処理方式121、エッジ強調処理方式122、平滑化処理方式123等(図1(b)参照))を適宜選択して処理する機能を設けているため、画像を高解像度化しても、立体感や遠近感を損なうことがないようにすることが可能となる。
As described above, the image display apparatus 300 (see FIG. 11) according to the present embodiment performs the depth information analysis 124 (see FIG. 1B) on the image to be processed, and analyzes the depth information. Based on the result, an image processing method (
124 奥行き情報解析
125 方式の指定
126,412 画質設定
127,411 処理設定
141,151,161 領域分割
142 焦点ぼやけ量推定
143,153,163 奥行き量閾値処理
144,154,164 処理割り当て
201 元画像
210 予測関数
220,230,260 処理方式割当テーブル
240 処理後画像
250,270 元画像の特性
251,271 処理後画像の特性
252,272 従来方式画像の特性
300 画像表示装置
313 制御部
314 ユーザインタフェース部
316 画像信号処理部
318 表示部
421 奥行き情報解析処理部
422 閾値判定・処理部
423 超解像処理部
424 画素数拡大処理部
425 フィルタ特性設定部
426 フィルタ処理部
427 出力選択部
124
Claims (5)
入力画像中の被写体の被写体距離を算出し、前記記憶部を参照して、前記算出した前記被写体距離が属する前記区間を特定し、さらに、その特定した前記区間に関連付けられている前記画像処理の種類を特定し、
前記特定した種類の前記画像処理を用いて、前記入力画像に対して演算処理を行って処理画像を出力する画像信号処理回路であって、
前記画像処理の種類は、少なくとも、前記入力画像の単一フレームまたは複数フレームを用いた合成画像から、空間周波数スペクトルの折り返し成分を復元し空間周波数帯域幅を広げるとともに画素数を水平方向と垂直方向に対して増加する解像度変換処理、空間周波数帯域幅を変えることなく画素数を増やす画素数変化処理および前記入力画像の一部の画素信号を強調するまたは隣り合う画素間の画素値の差を少なくする空間周波数特性変化処理、のいずれか一つまたは二以上の組み合わせであり、
前記入力画像中の被写体の被写体距離の算出を、前記入力画像の画面を複数に分割した微小領域ごとに行う際に、
前記画像処理の種類として設定された全ての画像処理を用いて前記入力画像に対して演算処理を行って、全ての前記画像処理の種類に対応する前記微小領域の処理画像を求め、
前記微小領域ごとに算出された前記被写体距離が属する前記区間を特定し、さらに、その特定した前記区間に関連付けられている前記画像処理の種類を特定し、
前記特定した前記画像処理の種類に対応する前記微小領域の処理画像を取得して、前記処理画像の画面を構成して出力し、
前記被写体距離が小さい前記区間に対して、前記処理画像の解像度を前記入力画像の解像度よりも高くする前記解像度変換処理または前記解像度変換処理とエッジを強調する前記空間周波数特性変化処理との組み合わせを関連付け、
前記被写体距離が大きい前記区間に対して、前記画素数変化処理または前記画素数変化処理と解像度を低くするに従って空間周波数帯域幅を狭くする前記空間周波数特性変化処理との組み合わせを関連付ける
ことを特徴とする画像信号処理回路。 A plurality of sections divided according to the subject distance related to the depth of the subject in the image, and a storage unit that stores depth information that associates the sections with the type of image processing;
The subject distance of the subject in the input image is calculated, the section to which the calculated subject distance belongs is identified with reference to the storage unit, and the image processing associated with the identified section is further performed. Identify the type,
An image signal processing circuit that performs arithmetic processing on the input image and outputs a processed image using the specified type of image processing,
The type of the image processing is at least a composite image using a single frame or a plurality of frames of the input image, restoring the aliasing component of the spatial frequency spectrum to widen the spatial frequency bandwidth and changing the number of pixels in the horizontal and vertical directions. Resolution conversion processing that increases, pixel number change processing that increases the number of pixels without changing the spatial frequency bandwidth, and enhancement of part of the pixel signal of the input image or reduction in pixel value difference between adjacent pixels Any one or a combination of two or more of spatial frequency characteristic change processing,
When performing calculation of the subject distance of the subject in the input image for each minute region obtained by dividing the screen of the input image into a plurality of areas,
Performing an arithmetic process on the input image using all the image processing set as the type of image processing to obtain a processed image of the micro region corresponding to all the types of image processing;
Identifying the section to which the subject distance calculated for each minute region belongs, further identifying the type of image processing associated with the identified section;
Acquire a processed image of the minute region corresponding to the specified type of image processing, configure and output a screen of the processed image,
For the section where the subject distance is small, the resolution conversion process that makes the resolution of the processed image higher than the resolution of the input image or the combination of the resolution conversion process and the spatial frequency characteristic change process that emphasizes edges associate,
The pixel number changing process or the pixel number changing process and a combination of the spatial frequency characteristic changing process for narrowing the spatial frequency bandwidth as the resolution is reduced are associated with the section where the subject distance is large.
Image signal processing circuit, characterized in that.
前記入力画像中の被写体の被写体距離の算出において、焦点ぼやけ量分析を行って前記入力画像の被写体の焦点ぼやけ量を算出し、前記奥行き情報を参照して、前記算出した前記焦点ぼやけ量から前記被写体距離を算出すること、
を特徴とする請求項1に記載の画像信号処理回路。 Depth information that associates the focal blur amount of the image with the subject distance is stored in the storage unit,
In calculating the subject distance of the subject in the input image, a focal blur amount analysis is performed to calculate the focal blur amount of the subject of the input image, and the depth blur is referred to and the calculated focal blur amount is used to calculate the subject blur distance. Calculating the subject distance,
The image signal processing circuit according to claim 1.
前記入力画像中の被写体の被写体距離の算出において、空間周波数分析を行って前記入力画像の被写体の空間周波数帯域幅を算出し、前記奥行き情報を参照して、前記算出した空間周波数帯域幅から前記被写体距離を算出すること、
を特徴とする請求項1に記載の画像信号処理回路。 Depth information associating the spatial frequency bandwidth of the image with the subject distance is stored in the storage unit,
In calculating the subject distance of the subject in the input image, a spatial frequency analysis is performed to calculate a spatial frequency bandwidth of the subject of the input image, and the depth information is referred to and the calculated spatial frequency bandwidth is used to calculate the subject distance. Calculating the subject distance,
The image signal processing circuit according to claim 1.
画像信号処理部と、前記処理画像を表示する表示部と、前記処理画像の画質を制御する画質設定情報を前記画質信号処理部に出力する制御部と、画像中の被写体の奥行きに係る被写体距離に応じて分割して設けた複数の区間と、その区間と画像処理の種類とを関連付けた奥行き情報が記憶される記憶部と、を備え、
前記画像信号処理部は、
前記制御部から前記画質設定情報を受け付けて、前記区間の数および前記区間の幅のいずれか一つまたは双方を変更する設定を行い、
入力画像中の被写体の被写体距離を算出し、前記記憶部を参照して、前記算出した前記被写体距離が属する前記区間を特定し、さらに、その特定した前記区間に関連付けられている前記画像処理の種類を特定し、
前記特定した種類の前記画像処理を用いて、前記入力画像に対して演算処理を行って処理画像を出力し、
前記画像処理の種類は、少なくとも、前記入力画像の単一フレームまたは複数フレームを用いた合成画像から、空間周波数スペクトルの折り返し成分を復元し空間周波数帯域幅を広げるとともに画素数を水平方向と垂直方向に対して増加する解像度変換処理、空間周波数帯域幅を変えることなく画素数を増やす画素数変化処理および前記入力画像の一部の画素信号を強調するまたは隣り合う画素間の画素値の差を少なくする空間周波数特性変化処理、のいずれか一つまたは二以上の組み合わせであり、
前記入力画像中の被写体の被写体距離の算出を、前記入力画像の画面を複数に分割した微小領域ごとに行う際に、
前記画像処理の種類として設定された全ての画像処理を用いて前記入力画像に対して演算処理を行って、全ての前記画像処理の種類に対応する前記微小領域の処理画像を求め、
前記微小領域ごとに算出された前記被写体距離が属する前記区間を特定し、さらに、その特定した前記区間に関連付けられている前記画像処理の種類を特定し、
前記特定した前記画像処理の種類に対応する前記微小領域の処理画像を取得して、前記処理画像の画面を構成し、前記構成された前記処理画像の画面を前記表示部に表示し、
前記被写体距離が小さい前記区間に対して、前記処理画像の解像度を前記入力画像の解像度よりも高くする前記解像度変換処理または前記解像度変換処理とエッジを強調する前記空間周波数特性変化処理との組み合わせを関連付け、
前記被写体距離が大きい前記区間に対して、前記画素数変化処理または前記画素数変化処理と解像度を低くするに従って空間周波数帯域幅を狭くする前記空間周波数特性変化処理との組み合わせを関連付ける
ことを特徴とする画像表示装置。 An image display device that performs arithmetic processing on an input image and displays the processed image,
An image signal processing unit, a display unit for displaying the processed image, a control unit for outputting image quality setting information for controlling the image quality of the processed image to the image quality signal processing unit, and a subject distance related to the depth of the subject in the image A plurality of sections divided according to the storage section, and a storage unit that stores depth information that associates the sections with the type of image processing.
The image signal processor is
Accepting the image quality setting information from the control unit, setting to change one or both of the number of sections and the width of the section,
The subject distance of the subject in the input image is calculated, the section to which the calculated subject distance belongs is identified with reference to the storage unit, and the image processing associated with the identified section is further performed. Identify the type,
Using the specified type of image processing, the input image is subjected to arithmetic processing to output a processed image,
The type of the image processing is at least a composite image using a single frame or a plurality of frames of the input image, restoring the aliasing component of the spatial frequency spectrum to widen the spatial frequency bandwidth and changing the number of pixels in the horizontal and vertical directions. Resolution conversion processing that increases, pixel number change processing that increases the number of pixels without changing the spatial frequency bandwidth, and enhancement of part of the pixel signal of the input image or reduction in pixel value difference between adjacent pixels Any one or a combination of two or more of spatial frequency characteristic change processing,
When performing calculation of the subject distance of the subject in the input image for each minute region obtained by dividing the screen of the input image into a plurality of areas,
Performing an arithmetic process on the input image using all the image processing set as the type of image processing to obtain a processed image of the micro region corresponding to all the types of image processing;
Identifying the section to which the subject distance calculated for each minute region belongs, further identifying the type of image processing associated with the identified section;
Acquiring a processed image of the micro region corresponding to the specified type of the image processing, configuring a screen of the processed image, displaying the configured screen of the processed image on the display unit,
For the section where the subject distance is small, the resolution conversion process that makes the resolution of the processed image higher than the resolution of the input image or the combination of the resolution conversion process and the spatial frequency characteristic change process that emphasizes edges associate,
The pixel number changing process or the pixel number changing process and a combination of the spatial frequency characteristic changing process for narrowing the spatial frequency bandwidth as the resolution is reduced are associated with the section where the subject distance is large.
An image display device characterized by that .
入力画像中の被写体の被写体距離を算出し、前記記憶部を参照して、前記算出した前記被写体距離が属する前記区間を特定し、さらに、その特定した前記区間に関連付けられている前記画像処理の種類を特定し、
前記特定した種類の前記画像処理を用いて、前記入力画像に対して演算処理を行って処理画像を出力する画像信号処理回路において用いられる画像信号処理方法であって、
前記画像処理の種類は、少なくとも、前記入力画像の単一フレームまたは複数フレームを用いた合成画像から、空間周波数スペクトルの折り返し成分を復元し空間周波数帯域幅を広げるとともに画素数を水平方向と垂直方向に対して増加する解像度変換処理、空間周波数帯域幅を変えることなく画素数を増やす画素数変化処理および前記入力画像の一部の画素信号を強調するまたは隣り合う画素間の画素値の差を少なくする空間周波数特性変化処理、のいずれか一つまたは二以上の組み合わせであり、
前記画像信号処理回路は、
前記入力画像中の被写体の被写体距離の算出を、前記入力画像の画面を複数に分割した微小領域ごとに行う際に、
前記画像処理の種類として設定された全ての画像処理を用いて前記入力画像に対して演算処理を行って、全ての前記画像処理の種類に対応する前記微小領域の処理画像を求め、
前記微小領域ごとに算出された前記被写体距離が属する前記区間を特定し、さらに、その特定した前記区間に関連付けられている前記画像処理の種類を特定し、
前記特定した前記画像処理の種類に対応する前記微小領域の処理画像を取得して、前記処理画像の画面を構成して出力し、
前記被写体距離が小さい前記区間に対して、前記処理画像の解像度を前記入力画像の解像度よりも高くする前記解像度変換処理または前記解像度変換処理とエッジを強調する前記空間周波数特性変化処理との組み合わせを関連付け、
前記被写体距離が大きい前記区間に対して、前記画素数変化処理または前記画素数変化処理と解像度を低くするに従って空間周波数帯域幅を狭くする前記空間周波数特性変化処理との組み合わせを関連付ける
ことを特徴とする画像信号処理方法。 A plurality of sections divided according to the subject distance related to the depth of the subject in the image, and a storage unit that stores depth information that associates the sections with the type of image processing;
The subject distance of the subject in the input image is calculated, the section to which the calculated subject distance belongs is identified with reference to the storage unit, and the image processing associated with the identified section is further performed. Identify the type,
An image signal processing method used in an image signal processing circuit that performs arithmetic processing on the input image and outputs a processed image using the specified type of image processing,
The type of the image processing is at least a composite image using a single frame or a plurality of frames of the input image, restoring the aliasing component of the spatial frequency spectrum to widen the spatial frequency bandwidth and changing the number of pixels in the horizontal and vertical directions. Resolution conversion processing that increases, pixel number change processing that increases the number of pixels without changing the spatial frequency bandwidth, and enhancement of part of the pixel signal of the input image or reduction in pixel value difference between adjacent pixels Any one or a combination of two or more of spatial frequency characteristic change processing,
The image signal processing circuit includes:
When performing calculation of the subject distance of the subject in the input image for each minute region obtained by dividing the screen of the input image into a plurality of areas,
Performing an arithmetic process on the input image using all the image processing set as the type of image processing to obtain a processed image of the micro region corresponding to all the types of image processing;
Identifying the section to which the subject distance calculated for each minute region belongs, further identifying the type of image processing associated with the identified section;
Acquire a processed image of the minute region corresponding to the specified type of image processing, configure and output a screen of the processed image,
For the section where the subject distance is small, the resolution conversion process that makes the resolution of the processed image higher than the resolution of the input image or the combination of the resolution conversion process and the spatial frequency characteristic change process that emphasizes edges associate,
The pixel number changing process or the pixel number changing process and a combination of the spatial frequency characteristic changing process for narrowing the spatial frequency bandwidth as the resolution is reduced are associated with the section where the subject distance is large.
Image signal processing method, characterized in that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008097714A JP5243833B2 (en) | 2008-04-04 | 2008-04-04 | Image signal processing circuit, image display device, and image signal processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008097714A JP5243833B2 (en) | 2008-04-04 | 2008-04-04 | Image signal processing circuit, image display device, and image signal processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009251839A JP2009251839A (en) | 2009-10-29 |
JP5243833B2 true JP5243833B2 (en) | 2013-07-24 |
Family
ID=41312505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008097714A Expired - Fee Related JP5243833B2 (en) | 2008-04-04 | 2008-04-04 | Image signal processing circuit, image display device, and image signal processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5243833B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11024033B2 (en) | 2017-12-28 | 2021-06-01 | Samsung Electronics Co., Ltd. | Method and apparatus for processing image and computer program product thereof |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5453858B2 (en) * | 2009-03-12 | 2014-03-26 | 株式会社リコー | Image composition device and image composition program |
JP2012249038A (en) * | 2011-05-27 | 2012-12-13 | Hitachi Consumer Electronics Co Ltd | Image signal processing apparatus and image signal processing method |
WO2013042440A1 (en) | 2011-09-21 | 2013-03-28 | 富士フイルム株式会社 | Image processing device, method, program and recording medium, stereoscopic image capture device, portable electronic apparatus, printer, and stereoscopic image player device |
KR101978172B1 (en) | 2011-11-29 | 2019-05-15 | 삼성전자주식회사 | Method and apparatus for converting depth image to high-resolution |
JP5703255B2 (en) * | 2012-04-27 | 2015-04-15 | 株式会社東芝 | Image processing apparatus, image processing method, and program |
JP2014006614A (en) | 2012-06-22 | 2014-01-16 | Sony Corp | Image processing device, image processing method, and program |
WO2014014135A1 (en) * | 2012-07-17 | 2014-01-23 | 인텔 코오퍼레이션 | Method and apparatus for refocusing captured images, and computer-readable recording medium |
WO2015005163A1 (en) | 2013-07-12 | 2015-01-15 | 三菱電機株式会社 | High-resolution image generation device, high-resolution image generation method, and high-resolution image generation program |
JP6500180B2 (en) * | 2015-08-20 | 2019-04-17 | 株式会社Joled | Image processing apparatus, display apparatus and electronic device |
JP7265316B2 (en) * | 2017-12-28 | 2023-04-26 | 三星電子株式会社 | Image processing device and image processing method |
US10992851B2 (en) | 2018-02-15 | 2021-04-27 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium, with image processing based on image processing condition and information equivalent to distance from focal plane |
US10972714B2 (en) | 2018-02-15 | 2021-04-06 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and storage medium for storing program |
JP7137313B2 (en) | 2018-02-15 | 2022-09-14 | キヤノン株式会社 | Output device, image processing method and program |
JP7199169B2 (en) | 2018-07-05 | 2023-01-05 | キヤノン株式会社 | Image processing device, image processing method, and program |
CN109345444B (en) * | 2018-08-30 | 2023-05-23 | 浙江工业大学 | Super-resolution stereoscopic image construction method with enhanced depth perception |
JP7133482B2 (en) * | 2019-01-04 | 2022-09-08 | 株式会社ユニバーサルエンターテインメント | game machine |
JP2020141226A (en) | 2019-02-27 | 2020-09-03 | キヤノン株式会社 | Image processing system, image processing method and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3773563B2 (en) * | 1995-08-31 | 2006-05-10 | 株式会社リコー | 2D digital signal processor |
JP2002247439A (en) * | 2001-02-13 | 2002-08-30 | Ricoh Co Ltd | Image input unit, image input method, and computer readable recording medium stored with program to allow computer to execute the method |
JP4091455B2 (en) * | 2003-02-27 | 2008-05-28 | 日本電信電話株式会社 | Three-dimensional shape measuring method, three-dimensional shape measuring apparatus, processing program therefor, and recording medium |
JP2006067521A (en) * | 2004-08-30 | 2006-03-09 | Kyocera Corp | Image processor, image processing method, image pickup device, and image pickup method |
-
2008
- 2008-04-04 JP JP2008097714A patent/JP5243833B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11024033B2 (en) | 2017-12-28 | 2021-06-01 | Samsung Electronics Co., Ltd. | Method and apparatus for processing image and computer program product thereof |
Also Published As
Publication number | Publication date |
---|---|
JP2009251839A (en) | 2009-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5243833B2 (en) | Image signal processing circuit, image display device, and image signal processing method | |
JP5979856B2 (en) | Image blur detector | |
EP3341913B1 (en) | Inverse tone mapping based on luminance zones | |
RU2419243C1 (en) | Device and method to process images and device and method of images display | |
KR101143147B1 (en) | High-Quality Gradient-Corrected Linear Interpolation for Demosaicing of Color Images | |
JP4869653B2 (en) | Image processing device | |
JP2010506287A (en) | Image enhancement | |
JP4949463B2 (en) | Upscaling | |
JP2014021928A (en) | Image processor, image processing method and program | |
JP6493855B2 (en) | Image processing apparatus and image processing method | |
JP2006522977A (en) | Spatial image conversion apparatus and method | |
JP7014158B2 (en) | Image processing equipment, image processing method, and program | |
JP2010152518A (en) | Image processor and image processing method | |
JP4333544B2 (en) | Image processing method, image processing apparatus, semiconductor device, electronic device, image processing program, and computer-readable recording medium | |
JP4992379B2 (en) | Image gradation conversion apparatus, program, electronic camera, and method thereof | |
JP2014006614A (en) | Image processing device, image processing method, and program | |
JP2006523409A (en) | Spatial image conversion apparatus and method | |
JP5130171B2 (en) | Image signal processing apparatus and image signal processing method | |
JP5566196B2 (en) | Image processing apparatus and control method thereof | |
JP2010041497A (en) | Image processor, electronic apparatus, and image processing method | |
WO2017122394A1 (en) | Imaging control device and imaging device | |
JP4632100B2 (en) | Image processing apparatus, image processing method, recording medium, and program | |
JP2020149589A (en) | Image processing device, imaging apparatus, image processing method, and program | |
WO2014034242A1 (en) | Image processing device, and method and program for image processing | |
JP2020092288A (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120117 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120717 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120911 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130405 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160412 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |