JP2014003521A - Depth estimation data generating apparatus, pseudo stereoscopic image generating apparatus, depth estimation data generation method, and depth estimation data generation program - Google Patents

Depth estimation data generating apparatus, pseudo stereoscopic image generating apparatus, depth estimation data generation method, and depth estimation data generation program Download PDF

Info

Publication number
JP2014003521A
JP2014003521A JP2012138581A JP2012138581A JP2014003521A JP 2014003521 A JP2014003521 A JP 2014003521A JP 2012138581 A JP2012138581 A JP 2012138581A JP 2012138581 A JP2012138581 A JP 2012138581A JP 2014003521 A JP2014003521 A JP 2014003521A
Authority
JP
Japan
Prior art keywords
depth
bright spot
image
estimation data
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012138581A
Other languages
Japanese (ja)
Other versions
JP5888140B2 (en
Inventor
Toyoshige Kenjo
豊繁 見上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2012138581A priority Critical patent/JP5888140B2/en
Publication of JP2014003521A publication Critical patent/JP2014003521A/en
Application granted granted Critical
Publication of JP5888140B2 publication Critical patent/JP5888140B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate depth estimation data that brings a natural three-dimensional effect from an input non-stereoscopic image of one view point while preventing portions forming bright spots by reflecting light from being viewed excessively as if they protrude.SOLUTION: A synthesis section synthesizes a plurality of basic depth models with a synthesis ratio corresponding to values calculated at an upper higher frequency component evaluation section and at a lower higher frequency component evaluation section, and generates synthesized depth data. A bright spot interpolation part interpolates bright spot parts detected by a bright spot detector with peripheral pixels and generates an image signal for depth addition. An addition section adds a predetermined signal component of the image signal for depth addition to the synthesized depth data to generate depth estimation data.

Description

本発明は、奥行き情報が明示的にも又はステレオ画像のように暗示的にも与えられていない画像(非立体画像)から奥行き推定データを生成する、奥行き推定データ生成装置、擬似立体画像生成装置、奥行き推定データ生成方法及び奥行き推定データ生成プログラムに関する。   The present invention relates to a depth estimation data generation device and a pseudo stereoscopic image generation device that generate depth estimation data from an image (non-stereo image) to which depth information is not given explicitly or implicitly like a stereo image. The present invention relates to a depth estimation data generation method and a depth estimation data generation program.

立体表示システムにおいては、非立体画像の擬似立体視による鑑賞を可能にするために、通常の静止画もしくは動画、即ち立体を表すための奥行き情報が明示的にも又はステレオ画像のように暗示的にも与えられていない画像(非立体画像)から、擬似的な立体化画像を生成する処理が行われる。このような技術の一例として、例えば特許文献1に開示された擬似立体画像生成装置がある。特許文献1記載の技術は、できる限り現実に近いシーン構造の決定を行うために、基本となる複数種類のシーン構造のそれぞれについて奥行き値を示す複数種類の基本奥行きモデルを用いて、画面上部の高域成分評価部と画面下部の高域成分評価部からの入力非立体画像の高域成分評価値に応じて合成比率を決定し、その合成比率に応じて複数種類の基本奥行きモデルを合成する。そして加算器において、合成した基本奥行きモデルと非立体画像のR信号とを重畳し、最終的な奥行き推定データを生成し、この奥行き推定データを元にした処理を非立体画像の画像信号に施すことで、立体感を感じさせる別視点画像の画像信号を生成している。   In a stereoscopic display system, a normal still image or moving image, that is, depth information for representing a stereoscopic image, is explicitly or implicitly like a stereo image in order to enable viewing of a non-stereo image by pseudo-stereoscopic vision. In addition, a process of generating a pseudo three-dimensional image from an image (non-stereo image) that is not given in FIG. As an example of such a technique, there is a pseudo-stereoscopic image generation apparatus disclosed in Patent Document 1, for example. In order to determine a scene structure that is as realistic as possible, the technique described in Patent Document 1 uses a plurality of basic depth models that indicate depth values for each of a plurality of basic scene structures. The composition ratio is determined according to the high-frequency component evaluation value of the input non-stereo image from the high-frequency component evaluation unit and the high-frequency component evaluation unit at the bottom of the screen, and multiple types of basic depth models are synthesized according to the composition ratio . The adder superimposes the synthesized basic depth model and the R signal of the non-stereo image to generate final depth estimation data, and performs processing based on the depth estimation data on the image signal of the non-stereo image. Thus, an image signal of another viewpoint image that gives a three-dimensional feeling is generated.

特開2006−185033号公報JP 2006-185033 A

特許文献1の手法では、複数種類の基本奥行モデルを合成して合成奥行きモデルを生成し、合成奥行きモデルにR信号を重畳することで最終的な奥行き推定データを生成している。合成奥行きモデルに重畳する信号としては、どのような絵柄に対してもR信号のレベルのみに依存した奥行き信号を重畳するため、光を反射して輝点を成している部分が存在すると、その輝点部だけが過度に飛び出して見えて物体の分離感や位置関係の不一致を招いてしまう場合があり、更なる改善が望まれていた。   In the method of Patent Document 1, a combined depth model is generated by combining a plurality of types of basic depth models, and final depth estimation data is generated by superimposing an R signal on the combined depth model. As a signal to be superimposed on the synthesized depth model, a depth signal that depends only on the level of the R signal is superimposed on any picture, and therefore there is a portion that reflects light and forms a bright spot. Only the bright spot portion may appear to protrude excessively, resulting in a sense of separation of objects and a mismatch in positional relationship, and further improvement has been desired.

本発明は上記課題を鑑みてなされてもので、光を反射して輝点を成している部分だけが過度に飛び出して見えることを防ぎ自然な立体効果をもたらす奥行き推定データ生成装置、擬似立体画像生成装置、奥行き推定データ生成方法及び奥行き推定データ生成プログラムを提供する事を目的とする。   Even though the present invention has been made in view of the above problems, a depth estimation data generating apparatus, a pseudo three-dimensional object that prevents a portion where only a portion that forms a bright spot by reflecting light from appearing to protrude excessively is produced, and a natural three-dimensional effect is provided. An object is to provide an image generation device, a depth estimation data generation method, and a depth estimation data generation program.

上記の目的を達成するため、本発明は、奥行き情報が明示的にも又はステレオ画像のように暗示的にも与えられていない非立体画像から奥行き推定データを生成する奥行き推定データ生成装置であって、基本となる複数のシーン構造のそれぞれについて奥行き値を示す複数の基本奥行きモデルを記憶する記憶部(14,15,16)と、前記非立体画像のシーン構造を推定するために、前記非立体画像の画面内の所定領域における画素値に統計量を利用して、前記複数の基本奥行きモデル間の合成比率を算定する算定部(12,13)と、前記記憶部から読み出した前記複数の奥行きモデルを、前記算定部にて算定した合成比率に基づいて合成し、合成奥行きデータを生成する合成部(17)と、前記非立体画像から輝点部分を検出する輝点検出部(110)と、前記輝点検出部にて輝点部分を検出した場合、検出した前記輝点部分の画素値を、前記輝点部分の画素の周辺画素の画素値で置き換えて、奥行き加算用画像信号を生成する輝点補間部(120)と、前記奥行き加算用画像信号の所定の信号成分を前記奥行きデータに加算して前記奥行き推定データを生成する加算部(19)とを備えたことを特徴とする奥行き推定データ生成装置(10)を提供する。   In order to achieve the above object, the present invention is a depth estimation data generation apparatus that generates depth estimation data from a non-stereo image to which depth information is not given explicitly or implicitly like a stereo image. A storage unit (14, 15, 16) for storing a plurality of basic depth models indicating depth values for each of a plurality of basic scene structures, and for estimating the scene structure of the non-stereo image A calculation unit (12, 13) that calculates a composite ratio between the plurality of basic depth models by using a statistic for a pixel value in a predetermined region in the screen of the stereoscopic image, and the plurality of read out from the storage unit A synthesis unit (17) that synthesizes the depth model based on the synthesis ratio calculated by the calculation unit and generates synthesis depth data, and a bright spot that detects a bright spot portion from the non-stereo image When the bright part is detected by the output part (110) and the bright spot detection part, the pixel value of the detected bright spot part is replaced with the pixel value of the peripheral pixel of the pixel of the bright spot part, and the depth A bright spot interpolation unit (120) that generates an image signal for addition, and an addition unit (19) that generates the depth estimation data by adding a predetermined signal component of the image signal for depth addition to the depth data. There is provided a depth estimation data generation device (10) characterized by the above.

また、上記の目的を達成するため本発明は、輝点検出部が、入力信号の各画素のレベルに応じて、各画素における輝点評価値を算出する輝点評価値算出部(111)と、評価対象画素の前記輝点評価値が所定の値より大きいか否か比較し、大きい場合に真と判定する高輝度比較部(112)と、前記評価対象画素の前記輝点評価値が、前記輝点評価対象画素の周囲の画素における輝点評価値の平均値より大きいか否か比較し、大きい場合に真と判定する周囲平均との比較部(114)と、前記評価対象画素を含む周辺画素における輝点評価値の分散値が所定の値より小さいか否かを比較し、小さい場合に真と判定する分散値の比較部(116)とを有し、前記高輝度比較部、前記周囲平均との比較部、前記分散値の比較部のいずれの判定結果も真であった場合、前記輝点検出部は前記評価対象画素を輝点として検出することを特徴とする上記記載の奥行き推定データ生成装置を提供する。   In order to achieve the above object, the present invention provides a bright spot evaluation value calculation section (111) in which the bright spot detection section calculates a bright spot evaluation value at each pixel according to the level of each pixel of the input signal. The bright spot evaluation value of the evaluation target pixel is compared with whether or not the bright spot evaluation value of the evaluation target pixel is larger than a predetermined value, and determined to be true if large, and the bright spot evaluation value of the evaluation target pixel is A comparison unit (114) for comparing with a surrounding average that determines whether or not it is larger than the average value of the bright spot evaluation values in the pixels around the bright spot evaluation target pixel, and including the evaluation target pixel. A comparison unit (116) of variance values for comparing whether or not the variance value of the bright spot evaluation values in the peripheral pixels is smaller than a predetermined value, and judging that the value is true if the variance value is small, the high luminance comparison unit, Judgment result of either the comparison unit with the ambient average or the comparison unit of the variance value If a true, the bright spot detection unit provides the depth estimation data generating apparatus described above, wherein the detecting the evaluation target pixels as bright spots.

また、上記の目的を達成するため、本発明は、奥行き情報が明示的にも又はステレオ画像のように暗示的にも与えられておらず、非立体画像から擬似立体動画像を生成する擬似立体画像生成装置(1)であって、上記いずれかに記載の奥行き推定データ生成装置から供給する前記奥行推定データに応じて前記非立体画像のテクスチャのシフトを対応部分の奥行きに応じた量だけ行うことによって左目用画像および/または右目用画像となる別視点画像を生成する別視点画像生成部(50)を備え、前記別視点画像生成部により生成した別視点画像と、前記非立体画像との一方を左目用画像とし、他方を右目用画像として出力することを特徴とする擬似立体画像生成装置を提供する。   In order to achieve the above object, the present invention provides a pseudo-stereoscopic image that generates a pseudo-stereoscopic moving image from a non-stereoscopic image without depth information being given explicitly or implicitly like a stereo image. The image generation device (1), which shifts the texture of the non-stereo image by an amount corresponding to the depth of the corresponding portion according to the depth estimation data supplied from any one of the depth estimation data generation devices described above. A different viewpoint image generation unit (50) that generates a different viewpoint image to be a left-eye image and / or a right-eye image, and the different viewpoint image generated by the different viewpoint image generation unit and the non-stereo image Provided is a pseudo-stereoscopic image generation apparatus characterized in that one is used as a left-eye image and the other is output as a right-eye image.

また、上記の目的を達成するため、本発明は、奥行き情報が明示的にも又はステレオ画像のように暗示的にも与えられていない非立体画像から奥行き推定データを生成する奥行き推定データ生成方法であって、前記非立体画像のシーン構造を推定するために、前記非立体画像の画面内の所定領域における画素値に統計量を利用して、前記複数の基本奥行きモデル間の合成比率を算定する算定ステップと、前記算定ステップにて算定した合成比率に基づいて複数の基本奥行きモデルを合成し、合成奥行きデータを生成する合成ステップと、前記非立体画像から輝点部分を検出する輝点検出ステップと、前記輝点検出部にて輝点を検出した場合、前記検出した輝点部分の画素値を、前記輝点部分の周辺画素の画素値で置き換えて奥行き加算用画像信号を生成する輝点補間ステップと、前記奥行き加算用画像信号の所定の信号成分を前記合成奥行きデータに加算して、前記奥行き推定データを生成する加算ステップとを有することを特徴とする奥行き推定データ生成方法を提供する。   In order to achieve the above object, the present invention provides a depth estimation data generation method for generating depth estimation data from a non-stereo image in which depth information is not given explicitly or implicitly like a stereo image. In order to estimate the scene structure of the non-stereo image, a composite ratio between the plurality of basic depth models is calculated by using a statistic for a pixel value in a predetermined region in the screen of the non-stereo image. Calculating step, combining a plurality of basic depth models based on the combining ratio calculated in the calculating step, generating combined depth data, and detecting a bright spot from the non-stereo image Step, and when a bright spot is detected by the bright spot detection unit, the pixel value of the detected bright spot portion is replaced with a pixel value of a peripheral pixel of the bright spot portion, and an image for depth addition Depth estimation comprising: a bright spot interpolation step for generating a signal; and an addition step for generating a depth estimation data by adding a predetermined signal component of the image signal for depth addition to the synthesized depth data Provide a data generation method.

また、上記の目的を達成するため、本発明は、奥行き情報が明示的にも又はステレオ画像のように暗示的にも与えられていない非立体画像から奥行き推定データを生成する機能をコンピュータに実現させる奥行き推定データ生成プログラムであって、前記非立体画像のシーン構造を推定するために、前記非立体画像の画面内の所定領域における画素値に統計量を利用して、前記複数の基本奥行きモデル間の合成比率を算定する算定ステップと、前記算定ステップにて算定した合成比率に基づいて複数の基本奥行きモデルを合成し、合成奥行きデータを生成する合成ステップと、前記非立体画像から輝点部分を検出する輝点検出ステップと、前記輝点検出部にて輝点を検出した場合、前記検出した輝点部分の画素値を、前記輝点部分の周辺画素の画素値で置き換えて奥行き加算用画像信号を生成する輝点補間ステップと、前記奥行き加算用画像信号の所定の信号成分を前記合成奥行きデータに加算して、前記奥行き推定データを生成する加算ステップとを有することを特徴とする奥行き推定データ生成プログラムを提供する。   In order to achieve the above object, the present invention realizes a computer with a function of generating depth estimation data from a non-stereoscopic image to which depth information is not given explicitly or implicitly like a stereo image. A depth estimation data generation program for generating a plurality of basic depth models by using a statistic for a pixel value in a predetermined region in a screen of the non-stereo image in order to estimate a scene structure of the non-stereo image A calculation step for calculating a combination ratio between the two, a combination step for combining a plurality of basic depth models based on the combination ratio calculated in the calculation step to generate combined depth data, and a bright spot portion from the non-stereo image When detecting a bright spot in the bright spot detecting step and the bright spot detecting section, the pixel value of the detected bright spot portion is used as a peripheral pixel of the bright spot portion. A bright spot interpolation step of generating a depth addition image signal by replacing with a pixel value; an addition step of adding a predetermined signal component of the depth addition image signal to the synthesized depth data to generate the depth estimation data; A depth estimation data generation program characterized by comprising:

本発明によれば、光を反射して輝点を成している部分だけが過度に飛び出して見えることを防ぎ、自然な立体効果をもたらす奥行き推定データ生成装置、擬似立体画像生成装置、奥行き推定データ生成方法及び奥行き推定データ生成プログラムを提供することができる。   According to the present invention, a depth estimation data generation device, a pseudo-stereoscopic image generation device, and a depth estimation that prevent a natural reflection of only a portion that reflects light and forms a bright spot are prevented from appearing to protrude excessively. A data generation method and a depth estimation data generation program can be provided.

擬似立体画像生成装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of a pseudo-stereoscopic image production | generation apparatus. 基本奥行きモデルタイプ1の立体構造の一例を示す図である。It is a figure which shows an example of the three-dimensional structure of basic depth model type 1. FIG. 基本奥行きモデルタイプ2の立体構造の一例を示す図である。It is a figure which shows an example of the three-dimensional structure of basic depth model type 2. FIG. 基本奥行きモデルタイプ3の立体構造の一例を示す図である。It is a figure which shows an example of the three-dimensional structure of basic depth model type 3. FIG. 基本奥行きモデル合成比率決定条件を説明する図である。It is a figure explaining the basic depth model synthetic | combination ratio determination conditions. 輝点を説明するための画像例である。It is an example of an image for explaining a bright spot. 輝点検出・補間部の構成を説明するための図である。It is a figure for demonstrating the structure of a bright spot detection and interpolation part. 輝点検出・補間部の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of a bright spot detection and interpolation part. 周囲の画素の輝点評価値の平均を求める対象画素を説明するための図である。It is a figure for demonstrating the object pixel which calculates | requires the average of the luminescent point evaluation value of a surrounding pixel. 輝度部を補間するための元となる対象画素を説明するための図である。It is a figure for demonstrating the object pixel used as the origin for interpolating a brightness | luminance part. 輝度部検出・補間部の動作を説明するための図である。It is a figure for demonstrating operation | movement of a brightness | luminance part detection and interpolation part.

次に、本発明の実施の形態について図面と共に詳細に説明する。
図1は、本発明による擬似立体画像生成装置の構成を説明するためのブロック図である。図1に示すように、本実施の形態の擬似立体画像生成装置1は、奥行き推定データ生成部10と、別視点画像生成部50より構成される。
Next, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram for explaining the configuration of a pseudo stereoscopic image generating apparatus according to the present invention. As shown in FIG. 1, the pseudo-stereoscopic image generation apparatus 1 according to the present embodiment includes a depth estimation data generation unit 10 and another viewpoint image generation unit 50.

奥行き推定データ生成部10は、画像入力部11と、画面上部の高域成分評価部12と、画面下部の高域成分評価部13と、フレームメモリ14、15及び16と、合成部17と、輝点検出・補間部18と、加算部19を有し、奥行き推定データを生成する。   The depth estimation data generation unit 10 includes an image input unit 11, a high-frequency component evaluation unit 12 at the top of the screen, a high-frequency component evaluation unit 13 at the bottom of the screen, frame memories 14, 15 and 16, a synthesis unit 17, It has a bright spot detection / interpolation unit 18 and an addition unit 19, and generates depth estimation data.

画像入力部11は、フレームメモリを備えており、入力した非立体画像信号である1フレーム分の画像信号を一時記憶した後、その1フレーム分の画像信号を画面上部の高域成分評価部12、画面下部の高域成分評価部13、輝点検出・補間部18にそれぞれ供給する。画像入力部11に入力される非立体画像信号は一視点の画像信号であり、ここでは一例として右目画像として表示されるべき右目用画像信号であるものとする。画像入力部に入力する画像の信号方式は問わないが、本実施形態では一例として、入力画像をRGB信号として説明する。   The image input unit 11 includes a frame memory. After temporarily storing an image signal for one frame that is an input non-stereo image signal, the image signal for the one frame is stored in a high-frequency component evaluation unit 12 at the top of the screen. , And supplied to the high frequency component evaluation unit 13 and the bright spot detection / interpolation unit 18 at the bottom of the screen. The non-stereoscopic image signal input to the image input unit 11 is a one-viewpoint image signal, and here, as an example, is a right-eye image signal to be displayed as a right-eye image. The signal system of the image input to the image input unit is not limited, but in the present embodiment, the input image is described as an RGB signal as an example.

画面上部の高域成分評価部12は、1フレーム分の右目用画像信号における画面の上部約20%にあたる領域内での高域成分を求めて、画面上部の高域成分評価値として算出する。そして、画面上部の高域成分評価部12は、画面上部の高域成分評価値を合成部17に供給する。画面下部の高域成分評価部13は、1フレーム分の右目用画像信号における画面の下部約20%領域内にあたる領域内での高域成分を求めて、画面下部の高域成分評価値として算出する。そして、画面下部の高域成分評価部13は、画面下部の高域成分評価値を合成部17に供給する。   The high frequency component evaluation unit 12 at the top of the screen obtains a high frequency component in an area corresponding to about 20% of the top of the image signal for the right eye for one frame, and calculates it as a high frequency component evaluation value at the top of the screen. Then, the high frequency component evaluation unit 12 at the top of the screen supplies the high frequency component evaluation value at the top of the screen to the synthesis unit 17. The high-frequency component evaluation unit 13 at the bottom of the screen obtains a high-frequency component in an area corresponding to the lower 20% region of the screen in the right-eye image signal for one frame, and calculates it as a high-frequency component evaluation value at the bottom of the screen. To do. Then, the high frequency component evaluation unit 13 at the bottom of the screen supplies the high frequency component evaluation value at the bottom of the screen to the synthesis unit 17.

一方、フレームメモリ14は基本奥行きモデルタイプ1、フレームメモリ15は基本奥行きモデルタイプ2、フレームメモリ16は基本奥行きモデルタイプ3の画像を予め格納している。これらの基本奥行きモデルタイプ1〜3の画像は、それぞれ非立体画像信号を基に奥行き推定データを生成して擬似立体画像信号を生成するための基本となるシーンの画像を示す。フレームメモリ14〜16は、本発明の基本となる複数のシーン構造のそれぞれについて奥行き値を示す複数の基本奥行きモデルを記憶する記憶部として機能する。   On the other hand, the frame memory 14 stores basic depth model type 1, the frame memory 15 stores basic depth model type 2, and the frame memory 16 stores basic depth model type 3 images in advance. The images of these basic depth model types 1 to 3 indicate scene images serving as a basis for generating pseudo stereoscopic image signals by generating depth estimation data based on non-stereo image signals, respectively. The frame memories 14 to 16 function as a storage unit that stores a plurality of basic depth models indicating depth values for each of a plurality of scene structures serving as a basis of the present invention.

すなわち、上記の基本奥行きモデルタイプ1の画像は、球面状の凹面による奥行きモデルの画像で、図2に示すような立体構造の画像を示す。多くの場合に、この基本奥行きモデルタイプ1の画像が使用される。オブジェクトが存在しないシーンにおいては、画面中央を一番遠距離に設定することにより、違和感の少ない立体感及び快適な奥行き感が得られるからである。   That is, the basic depth model type 1 image is a depth model image having a spherical concave surface, and an image having a three-dimensional structure as shown in FIG. In many cases, this basic depth model type 1 image is used. This is because, in a scene in which no object exists, setting the center of the screen to the farthest distance can provide a three-dimensional effect with less discomfort and a comfortable depth feeling.

また、上記の基本奥行きモデルタイプ2の画像は、基本奥行きモデルタイプ1の画像の上部を球面でなく、アーチ型の円筒面に置き換えたもので、図3に立体構造を示すような、上部を円筒面(軸は垂直方向)で下部を凹面(球面)としたモデルの画像である。   In addition, the above basic depth model type 2 image is obtained by replacing the upper part of the basic depth model type 1 image with an arch-shaped cylindrical surface instead of a spherical surface. It is an image of a model in which a cylindrical surface (axis is a vertical direction) and a lower surface is a concave surface (spherical surface).

更に、上記の基本奥行きモデルタイプ3の画像は、図4に立体構造を示すような、上部を平面とし、下部をその平面から連続し、下に行くほど手前側に向かう円筒面状としたもので、上部が平面、下部が円筒面(軸は水平方向)としたモデルの画像である。基本奥行きモデルタイプ発生手段を構成するフレームメモリ14〜16に格納されている、これら基本奥行きモデルタイプ1〜3の画像は、合成部17へ供給される。   Furthermore, the basic depth model type 3 image is a cylindrical surface that has a three-dimensional structure as shown in FIG. 4, with the upper part being a plane, the lower part being continuous from the plane, and going down toward the front. The upper part is a plane image and the lower part is a cylindrical surface (the axis is the horizontal direction). The images of the basic depth model types 1 to 3 stored in the frame memories 14 to 16 constituting the basic depth model type generating unit are supplied to the synthesis unit 17.

合成部17は、まず、画面上部の高域成分評価部12から供給された画面上部の高域成分評価値と、画面下部の高域成分評価部13から供給された画面下部の高域成分評価値とに基づいて、画像のシーンを考慮することなく、予め定められた方法により、基本奥行きモデルタイプ1の合成比率k1、基本奥行きモデルタイプ2の合成比率k2、基本奥行きモデルタイプ3の合成比率k3を算定する。なお、3つの合成比率k1〜k3の合計値は常に「1」である。   The synthesizing unit 17 firstly evaluates the high frequency component at the top of the screen supplied from the high frequency component evaluation unit 12 at the top of the screen and the high frequency component at the bottom of the screen supplied from the high frequency component evaluation unit 13 at the bottom of the screen. Based on the value, the composition ratio k1 of the basic depth model type 1, the composition ratio k2 of the basic depth model type 2, and the composition ratio of the basic depth model type 3 by a predetermined method without considering the scene of the image Calculate k3. The total value of the three synthesis ratios k1 to k3 is always “1”.

図5は、合成比率の決定条件の一例を示す。図5は、横軸に示す画面上部の高域成分評価値(以下、上部の高域成分評価値と略す)と、縦軸に示す画面下部の高域成分評価値(以下、下部の高域成分評価値と略す)の各値と、予め指定された値tps、tpl、bms、bmlとの兼ね合いにより合成比率が決定されることを示す。この合成比率の決定条件は一例であり、これに限定されるものではない。   FIG. 5 shows an example of conditions for determining the composition ratio. FIG. 5 shows a high-frequency component evaluation value at the top of the screen indicated by the horizontal axis (hereinafter abbreviated as the high-frequency component evaluation value at the top) and a high-frequency component evaluation value at the bottom of the screen indicated by the vertical axis (hereinafter, the high frequency component at the bottom It is shown that the composition ratio is determined based on the balance between each value of the component evaluation value (abbreviated as component evaluation value) and the predesignated values tps, tpl, bms, and bml. The condition for determining the composition ratio is an example, and the present invention is not limited to this.

図5において、複数のタイプが記載されている領域については、高域成分評価値に応じて線形に合成される。例えば、図5において、「type1/2」の領域では、下記のように(上部の高域成分評価値)と(下部の高域成分評価値)との比率で基本奥行きモデルタイプ1の値であるType1と基本奥行きモデルタイプ2の値であるType2の比率が決定され、基本奥行きモデルタイプ3の値であるtype3は比率の決定には用いられない。   In FIG. 5, regions where a plurality of types are described are synthesized linearly according to the high frequency component evaluation value. For example, in the region of “type 1/2” in FIG. 5, the value of the basic depth model type 1 is the ratio of (upper high-frequency component evaluation value) and (lower high-frequency component evaluation value) as follows. A ratio between Type 1 and Type 2 which is a value of basic depth model type 2 is determined, and Type 3 which is a value of basic depth model type 3 is not used for determining the ratio.

Type1:Type2:Type3
=(上部の高域成分評価値−tps):(tpl−上部の高域成分評価値):0
また、図5において、「Type1/2/3」の領域では、Type1/2とType1/3との平均を採用して、下記のようにType1/2/3の値が決定される。
Type1: Type2: Type3
= (Upper high-frequency component evaluation value-tps): (tpl-Upper high-frequency component evaluation value): 0
In FIG. 5, in the “Type 1/2/3” region, the average of Type 1/2 and Type 1/3 is adopted, and the value of Type 1/2/3 is determined as follows.

Type1:Type2:Type3
=(上部の高域成分評価値−tps)+(下部の高域成分評価値−bms):(tpl−上部の高域成分評価値):(bml−下部の高域成分評価値)
なお、合成比率k1、k2、k3は次式で算出される。
Type1: Type2: Type3
= (Upper high-frequency component evaluation value-tps) + (Lower high-frequency component evaluation value-bms): (tpl-Upper high-frequency component evaluation value): (bml-Lower high-frequency component evaluation value)
The synthesis ratios k1, k2, and k3 are calculated by the following equations.

k1=Type1/(Type1+Type2+Type3)
k2=Type2/(Type1+Type2+Type3)
k3=Type3/(Type1+Type2+Type3)
合成部17は、続いて、上記のように算出した合成比率k1〜k3が示す比率で、基本奥行きモデルタイプ1〜3の画像を合成して、背景を構成する曲面の奥行きデータ(以下、合成奥行きデータともいう)を生成する。合成部17は、本発明の算定部および合成部として機能する。
加算部19は、合成部17から供給される合成奥行きデータと、輝点検出・補間部18から供給される画像信号のR信号成分とを加算して奥行き推定データを生成する。
k1 = Type1 / (Type1 + Type2 + Type3)
k2 = Type2 / (Type1 + Type2 + Type3)
k3 = Type3 / (Type1 + Type2 + Type3)
Subsequently, the combining unit 17 combines the images of the basic depth model types 1 to 3 at the ratio indicated by the combining ratios k1 to k3 calculated as described above, and calculates the depth data of the curved surface constituting the background (hereinafter referred to as combining). (Also referred to as depth data). The synthesis unit 17 functions as a calculation unit and a synthesis unit of the present invention.
The adding unit 19 adds the combined depth data supplied from the combining unit 17 and the R signal component of the image signal supplied from the bright spot detection / interpolation unit 18 to generate depth estimation data.

R信号成分を使用する理由の一つは、順光に近い環境で、かつ、テクスチャの明るさの度合い(明度)の変化が大きくない条件下で、R信号成分の大きさが原画像の凹凸と一致する確率が高いという経験則による。すなわち、このR信号成分は、入力非立体画像の原画像の凹凸に略対応した信号レベルを示す信号成分である。なお、テクスチャとは、画像を構成する要素であり、単一の画素もしくは画素群で構成される。   One of the reasons for using the R signal component is that the size of the R signal component is uneven in the original image in an environment that is close to direct light and in which the change in the brightness level (brightness) of the texture is not large. According to the rule of thumb that there is a high probability of matching. That is, this R signal component is a signal component indicating a signal level substantially corresponding to the unevenness of the original image of the input non-stereo image. Note that a texture is an element constituting an image, and is composed of a single pixel or a group of pixels.

また、R信号成分を使用するもう一つの理由として、赤色及び暖色は色彩学における前進色であり、寒色系よりも奥行きが手前に認識されるという特徴があり、この奥行きを手前に配置することで立体感を強調することが可能であるということである。
ここで、入力画像に輝点が存在した場合、輝点の部分のR信号成分は周囲と比較して大きくなるため、輝点を有した画像のR信号成分を合成奥行きデータに加算すると、輝点部だけが過度に飛び出して見え、物体の分離感や位置関係の不一致を招いてしまう場合があった。図6の(a)と(b)は同じ物体の画像であり、図6(a)には輝点があり、(b)には輝点がない様子を表わしている。図6(a)の画像のR信号成分をそのまま奥行きデータとして用いると、輝点部分のR成分が輝点でない部分のR成分よりも大きいため、輝点部だけが過度に飛び出す奥行き推定データが生成される。
Another reason for using the R signal component is that red and warm colors are advanced colors in chromaticity, and the depth is recognized in front of the cold color system. It is possible to emphasize the stereoscopic effect.
Here, when a bright spot exists in the input image, the R signal component of the bright spot portion becomes larger than the surrounding area. Therefore, when the R signal component of the image having the bright spot is added to the synthesized depth data, Only the point portion may appear to protrude excessively, leading to a sense of separation of objects and a mismatch in positional relationship. FIGS. 6A and 6B are images of the same object. FIG. 6A shows a bright spot and FIG. 6B shows no bright spot. If the R signal component of the image of FIG. 6A is used as depth data as it is, the R component of the bright spot portion is larger than the R component of the portion that is not the bright spot, and therefore the depth estimation data in which only the bright spot portion protrudes excessively is obtained. Generated.

輝点部分で過度に飛び出す奥行きデータが生成されることを防ぐために、輝点検出・補間部18では、入力画像内の輝点を検出し、検出した輝点部分の画素を周辺画素で補間して奥行き加算用画像信号を生成する。
図7に輝点検出・補間部18の構成の一例を示す。輝点検出・補間部18は輝点検出部110と輝点補間部120から構成される。輝点検出部110は、入力した非立体画像を元に、輝点を評価するための輝点評価値を算出する輝点評価値算出部111と、高輝度比較部112と、周囲平均値検出部113と、周囲平均との比較部114と、周囲分散検出部115と、分散値の比較部116と、高輝度比較部112、周囲平均との比較部114、分散値の比較部116の各比較結果を元に輝点を評価する輝点評価部117とから構成される。
In order to prevent the generation of excessive depth data at the bright spot portion, the bright spot detection / interpolation unit 18 detects the bright spot in the input image, and interpolates the detected bright spot portion pixels with the peripheral pixels. To generate an image signal for depth addition.
FIG. 7 shows an example of the configuration of the bright spot detection / interpolation unit 18. The bright spot detection / interpolation unit 18 includes a bright spot detection unit 110 and a bright spot interpolation unit 120. The bright spot detection unit 110, based on the input non-stereo image, a bright spot evaluation value calculation unit 111 that calculates a bright spot evaluation value for evaluating a bright spot, a high brightness comparison unit 112, and a surrounding average value detection Unit 113, ambient average comparison unit 114, ambient variance detection unit 115, variance value comparison unit 116, high luminance comparison unit 112, ambient average comparison unit 114, and variance value comparison unit 116. A bright spot evaluation unit 117 that evaluates bright spots based on the comparison result.

図8は輝点検出・補間部の処理の流れを説明するためのフローチャートである。以下、図7と図8を用いて輝点検出・補間部18の動作を説明する。
図8のステップs1で輝点評価信号生成部111は、入力された非立体画像信号(RGB信号)を元に、次式により、輝点を評価するための輝点評価値Yを算出する。
Y=(R×a+G×b+B×c)÷(a+b+c)
R,G,Bは、入力信号のR,G,B値であり、a,b,cは輝点評価値を決める際にR,G,B値に重み付けをする適当な値である。R,G,B値に重み付けをした値を輝点評価値Yとすることで、より正しく輝点を評価することを目的としており、例えば、a=5、b=9、c=2とする。a、b、cの値は実験により適当な値を求めても良いし、いくつかの数値の組み合わせを記憶しておいて、画像内容によって選択する構成としても良い。
FIG. 8 is a flowchart for explaining the processing flow of the bright spot detection / interpolation unit. The operation of the bright spot detection / interpolation unit 18 will be described below with reference to FIGS.
In step s1 of FIG. 8, the bright spot evaluation signal generation unit 111 calculates a bright spot evaluation value Y for evaluating the bright spot by the following formula based on the input non-stereo image signal (RGB signal).
Y = (R * a + G * b + B * c) / (a + b + c)
R, G, and B are the R, G, and B values of the input signal, and a, b, and c are appropriate values that weight the R, G, and B values when determining the bright spot evaluation value. The objective is to evaluate the bright spot more correctly by setting the weighted values of the R, G, and B values as the bright spot evaluation value Y. For example, a = 5, b = 9, and c = 2. . Appropriate values for a, b, and c may be obtained by experiment, or a combination of several numerical values may be stored and selected according to the image content.

ステップs2で高輝度比較部112は、輝点の特徴の一つである「高輝度」を検出する。
具体的には、評価対象画素の輝点評価値Yが所定の閾値Thyより大きい場合(Y>Thy)、高輝度であると判定する。
In step s2, the high luminance comparison unit 112 detects “high luminance” which is one of the features of the bright spot.
Specifically, when the bright spot evaluation value Y of the evaluation target pixel is larger than a predetermined threshold value Thy (Y> Thy), it is determined that the brightness is high.

ステップs2で高輝度であると判定した場合(s2/yes)、ステップs3に進み、周囲平均との比較部114は、輝点の特徴の一つである、「周囲の画素より輝度が高い」という特徴を検出する。まず、周囲平均値検出部113にて周囲の画素における輝点評価値Yの平均Yr_aveを求める。評価対象画素が輝点の場合、そのすぐ周囲の画素も輝点となっている可能性が高いため 少し離れた周辺の画素を平均値検出の対象とする。平均値検出の対象画素を図9に示す。図9中に斜線で示した画素は評価対象画素、黒で示した画素は平均値検出の対象画素、白で示した画素は平均値検出の対象としない画素を示している。平均値検出の対象画素は、水平方向には評価対象画素から左右3画素以上6画素以下離れた画素とし、垂直方向にも、現在の画素から上下3ライン以上6ライン以下離れた画素としている。周囲の画素の輝度評価値の平均Yr_aveは、周辺平均との比較部114、周囲分散検出部115に供給される。上記説明した平均値検出の対象画素は一例であり、これに限定されるものではない。   When it is determined in step s2 that the luminance is high (s2 / yes), the process proceeds to step s3, and the comparison unit 114 with the ambient average is one of the features of the bright spot, “brighter than surrounding pixels”. This feature is detected. First, the average Yr_ave of the bright spot evaluation values Y in the surrounding pixels is obtained by the surrounding average value detection unit 113. If the pixel to be evaluated is a bright spot, it is highly possible that the immediate surrounding pixels are also bright spots. The target pixel for average value detection is shown in FIG. In FIG. 9, pixels indicated by diagonal lines indicate evaluation target pixels, pixels indicated by black indicate pixels for average value detection, and pixels indicated by white indicate pixels that are not subjected to average value detection. The average value detection target pixel is a pixel that is 3 to 6 pixels left and right from the evaluation target pixel in the horizontal direction, and is also a pixel that is 3 to 6 lines above and below the current pixel in the vertical direction. The average luminance evaluation value Yr_ave of the surrounding pixels is supplied to the comparison unit 114 and the surrounding dispersion detection unit 115 with the surrounding average. The above-described average value detection target pixel is an example, and the present invention is not limited to this.

周囲平均値検出部113で検出した、周囲の画素の輝度評価値の平均Yr_aveと評価対象画素の輝度評価値Yとを周囲平均との比較部114で比較する。すなわち、評価対象画素の輝点評価値Yが周囲の画素の輝度評価値の平均Yr_aveより大きく、その差が所定の閾値Thaveより大きい場合((Y−Yr_ave)>Thave)に、周囲の画素より輝度が高いと判定する。   The average Yr_ave of the luminance evaluation values of the surrounding pixels detected by the surrounding average value detection unit 113 and the luminance evaluation value Y of the evaluation target pixel are compared by the comparison unit 114 with the surrounding average. That is, when the bright spot evaluation value Y of the evaluation target pixel is larger than the average Yr_ave of the luminance evaluation values of the surrounding pixels and the difference is larger than the predetermined threshold value Thave ((Y−Yr_ave)> Thave), It is determined that the luminance is high.

ステップs3で、周囲の画素より輝度が高いと判定した場合(s3/yes)、ステップs4に進む。ステップs4で、分散値の比較部116は、輝点の特徴の一つである、輝点が発生するような面は、「周辺と同一物体内にある滑らかな面である」という特徴を検出する。周囲分散検出部115は、周囲平均値検出部113から受け取った周囲の画素の輝度評価値の平均Yr_aveと、輝度評価値算出部111から受け取った評価対象画素の輝度評価値Yとを使い、その分散Yr_sを求める。分散を求める対象範囲は、周囲の画素の輝度評価値の平均Yr_aveを求めるために使った範囲とする。求めた周囲分散Yr_sは、分散値の比較部116に供給される。   If it is determined in step s3 that the luminance is higher than the surrounding pixels (s3 / yes), the process proceeds to step s4. In step s4, the dispersion value comparison unit 116 detects a feature that is one of the features of the bright spot, that is, the surface on which the bright spot is generated is “a smooth surface in the same object as the periphery”. To do. The surrounding dispersion detection unit 115 uses the average Yr_ave of the luminance evaluation values of the surrounding pixels received from the surrounding average value detection unit 113 and the luminance evaluation value Y of the evaluation target pixel received from the luminance evaluation value calculation unit 111, and Find the variance Yr_s. The target range for obtaining the variance is the range used for obtaining the average Yr_ave of the luminance evaluation values of the surrounding pixels. The obtained ambient variance Yr_s is supplied to the variance value comparison unit 116.

評価対象画素が、周辺と同一物体内にある滑らかな面である場合は、分散Yr_sは小さな値となる。分散値の比較部116にて、次式にて閾値Thsと比較し、分散Yr_sが閾値Thsよりも小さい場合(Yr_s<Ths)に、評価対象画素が周辺と同一物体内にある滑らかな面であると判定する。   When the evaluation target pixel is a smooth surface in the same object as the surrounding area, the variance Yr_s is a small value. The variance comparison unit 116 compares the threshold value Ths with the following formula, and when the variance Yr_s is smaller than the threshold value Ths (Yr_s <Ths), the evaluation target pixel is a smooth surface in the same object as the surrounding area. Judge that there is.

ステップs4で、分散値が閾値よりも小さい(s4/yes)と判定した場合、輝点評価部117は評価対象の画素が輝点であると判定し、ステップs5に進む。図8のステップs2、s3、s4の処理順は、これに限定する必要はなく、また、ステップs2、s3、s4の処理を同時に行って、全ての判定がyesであった場合のみステップs5に進む構成としても良い。   If it is determined in step s4 that the variance value is smaller than the threshold (s4 / yes), the bright spot evaluation unit 117 determines that the pixel to be evaluated is a bright spot, and the process proceeds to step s5. The processing order of steps s2, s3, and s4 in FIG. 8 need not be limited to this, and the processing of steps s2, s3, and s4 is performed at the same time, and only when all the determinations are yes, step s5 is performed. It is good also as a structure to advance.

輝点補間部120は、補間画素作成部121とスイッチ122から構成される。ステップs5で、補間画素作成部121は、輝点部分を補間する補間画素を作成する。補間画素は、補間しようとする画素に対して少し離れた周辺の画素を元に作成する。補間画素の元になる対象画素の一例を図10に示す。図10中の斜線で示した画素は輝点と判定された補間対象画素、黒で示した画素は平均を求める対象とする画素、白で示した画素は平均を求める対象としない画素を示している。平均を求める対象とする画素は、水平方向および垂直方向に補間対象画素から3画素離れている、黒で示した4つの画素とし、これらの画素の画素値の平均を算出して補間画素の画素値とする。上記説明した平均を求める対象とする画素は一例であり、これに限定されるものではない。   The bright spot interpolation unit 120 includes an interpolation pixel creation unit 121 and a switch 122. In step s5, the interpolation pixel creation unit 121 creates an interpolation pixel for interpolating the bright spot portion. Interpolated pixels are created based on surrounding pixels that are slightly away from the pixel to be interpolated. An example of the target pixel that is the source of the interpolation pixel is shown in FIG. In FIG. 10, pixels indicated by diagonal lines indicate pixels to be interpolated that are determined as bright spots, pixels indicated by black indicate pixels for which an average is obtained, and pixels indicated by white indicate pixels that are not subject to an average. Yes. The pixels whose averages are to be obtained are four pixels shown in black, which are three pixels away from the interpolation target pixels in the horizontal direction and the vertical direction, and the average of the pixel values of these pixels is calculated to calculate the pixels of the interpolation pixels. Value. The above-described pixel for which the average is obtained is an example, and the present invention is not limited to this.

ステップs6でスイッチ122は、輝点評価部にて輝点と判定された画素を、補間画素作成部121で作成した画素に置き換え、処理を終了する。
ステップs1、s2、s3のいずれかでnoと判定した場合、画素の補間をせずに処理を終了する。以上の処理を画面内の全画素に対し順次行うことで、画面内の輝点部の検出・補間を行い、奥行き加算用画像信号を生成することができる。
In step s6, the switch 122 replaces the pixel determined as the bright spot by the bright spot evaluation unit with the pixel created by the interpolation pixel creation unit 121, and ends the process.
When it is determined to be no in any of steps s1, s2, and s3, the process is terminated without interpolating the pixels. By sequentially performing the above processing for all the pixels in the screen, it is possible to detect and interpolate the bright spot portion in the screen and generate a depth addition image signal.

図1に戻り説明する。輝点検出・補間部で輝点部で生成された奥行き加算用画像信号は、加算部19に送られる。加算部19は、合成部17から受け取った合成奥行きモデルに対し、輝点検出・補間部18から受け取った奥行き加算用画像信号のうちのR成分を加算して、最終的な奥行き推定データ(Depth)を生成して出力する。   Returning to FIG. The image signal for depth addition generated at the bright spot portion by the bright spot detection / interpolation section is sent to the addition section 19. The adding unit 19 adds the R component of the image signal for depth addition received from the bright spot detection / interpolation unit 18 to the combined depth model received from the combining unit 17 to obtain final depth estimation data (Depth ) Is generated and output.

図11を用いて、輝点検出・補間部18の動作例を説明する。
説明を簡単にするために、画面の中央付近にある水平1ラインの画素において、輝点となる画素が2画素だけ存在する場合を例として図示した。図11の入力画像で、白で示した画素の輝度評価値Yは高く、輝点を表わし、黒で示した画素の輝度評価値Yは低いものとする。また、図示したライン以外のラインの画素の輝度評価値Yは、全て黒で示した画素と同じ値であり、合成部17から受け取る合成奥行きデータは画面内で同一の値(例えば、Depth=0)であるものとする。
An operation example of the bright spot detection / interpolation unit 18 will be described with reference to FIG.
In order to simplify the description, a case where only two pixels serving as bright spots exist in one horizontal line of pixels near the center of the screen is illustrated as an example. In the input image of FIG. 11, the luminance evaluation value Y of the pixel shown in white is high, represents a bright spot, and the luminance evaluation value Y of the pixel shown in black is low. In addition, the luminance evaluation values Y of the pixels in the lines other than the illustrated lines are all the same values as the pixels shown in black, and the combined depth data received from the combining unit 17 has the same value (for example, Depth = 0) in the screen. ).

(A)は、輝点を補間しない従来方法により生成したデプス信号のレベルを示しており、黒で示した画素部分のデプスレベルが30、白で示した画素部分のデプスレベルが90となっていることを表わしている。ここで、デプスレベルが大きいほど奥行きは浅い、または画面から飛び出す方向となるため、(A)では白で示した2画素分だけ、奥行きが浅い、または画面から飛び出すデプス信号となっていることを表わしている。   (A) shows the level of the depth signal generated by the conventional method that does not interpolate the bright spot. The depth level of the pixel portion shown in black is 30 and the depth level of the pixel portion shown in white is 90. It shows that there is. Here, the greater the depth level, the shallower the depth or the direction of jumping out from the screen. In (A), the depth signal is shallower or jumps out of the screen by two pixels shown in white. It represents.

(B)は、高輝度比較部112での評価結果を示し、白で示した画素部分だけが高輝度(yes)と判定されている。
(C)は、周囲平均との比較部114おける評価結果を示し、(B)と同様に、白で示した画素部分だけが周囲の画素より輝度が高い(yes)と判定されている。
(D)は、分散値の比較部116おける評価結果を示し、白で示した画素部分および白で示した画素に隣接する黒で示した画素部分だけが、周辺と同一物体内にある滑らかな面である(yes)と判定されている。
(E)は、輝点検出結果を示している。(B)、(C)、(D)の評価結果から、白で示した画素部分だけが輝点である(yes)と判定されている。
(B) shows the evaluation result in the high luminance comparison unit 112, and only the pixel portion shown in white is determined to be high luminance (yes).
(C) shows the evaluation result in the comparison unit 114 with the ambient average, and it is determined that only the pixel portion shown in white has higher luminance (yes) than the surrounding pixels, as in (B).
(D) shows the evaluation result in the variance value comparison unit 116, and only the pixel portion shown in white and the pixel portion shown in black adjacent to the pixel shown in white are in the same object as the surroundings. It is determined that the surface is (yes).
(E) shows the bright spot detection result. From the evaluation results of (B), (C), and (D), it is determined that only the pixel portion shown in white is a bright spot (yes).

(F)は、補間画素作成部121において作成される、補間用デプス信号のレベルである。補間される対象画素に対し、上下左右に3画素離れた合計4画素の平均から補間画素の画素値を算出するので、4画素とも黒で示した画素の場合、平均した画素値によるデプスレベルは30となり、白で示した画素が1画素含まれる場合、平均した画素値によるデプスレベルは45となっている。
(G)は、輝点検出部分を補間画素作成部において補間した画素を元に作成したデプス信号である。(E)で輝点と判定された画素、つまり入力画素の白で示した画素に相当する部分だけが補間されており、結果としてライン全体のデプスレベルが30となっている。
(F) is the level of the interpolation depth signal created by the interpolation pixel creation unit 121. Since the pixel value of the interpolation pixel is calculated from the average of a total of four pixels that are three pixels apart vertically and horizontally with respect to the target pixel to be interpolated, in the case where all four pixels are shown in black, the depth level by the averaged pixel value is In the case where one pixel including white is included, the depth level based on the averaged pixel value is 45.
(G) is a depth signal created based on a pixel obtained by interpolating the bright spot detection portion in the interpolation pixel creation unit. Only the pixel determined as the bright spot in (E), that is, the portion corresponding to the pixel indicated by white of the input pixel is interpolated. As a result, the depth level of the entire line is 30.

以上説明したように、従来方法により生成したデプス信号(A)と本実施形態によるデプス信号(G)とを比較すると、本実施形態によるデプス信号では、輝点部分で周辺画素との凸凹の差が抑制されており、輝点部分だけが過度に飛び出して物体の分離感を生じることを防ぐ事が可能となる。   As described above, when the depth signal (A) generated by the conventional method and the depth signal (G) according to the present embodiment are compared, in the depth signal according to the present embodiment, the unevenness difference between the bright pixels and the surrounding pixels is different. Is suppressed, and it is possible to prevent only the bright spot portion from popping out excessively and causing a sense of separation of objects.

奥行き推定データ生成部10により生成した奥行き推定データを基に別視点の画像を生成することが可能になる。例えば、左に視点移動する場合、画面より手前に表示するものについては、近い物ほど画像を見る者の内側(鼻側) に見えるので、内側すなわち右に対応部分のテクスチャを奥行きに応じた量だけ移動する。
画面より奥に表示するものについては、近い物ほど画像を見る者の外側に見えるので、左に対応部分のテクスチャを奥行きに応じた量だけ移動する。これを左目画像、原画を右目画像とすることでステレオペアが構成される。
An image of another viewpoint can be generated based on the depth estimation data generated by the depth estimation data generation unit 10. For example, when moving the viewpoint to the left, for objects that are displayed in front of the screen, the closer the object, the closer to the viewer (in the nose side), the more visible the texture of the corresponding part on the inside, that is, the right. Just move.
As for objects to be displayed at the back of the screen, the closer the object is to the outside of the viewer, the corresponding texture is moved to the left by an amount corresponding to the depth. A stereo pair is formed by using this as the left-eye image and the original image as the right-eye image.

図1に戻り、別視点画像生成部50について説明する。
別視点画像生成部50は、テクスチャシフト部51、オクルージョン補償部52、ポスト処理部53で構成され、ステレオペア画像として左目画像54および右目画像55を出力する。
テクスチャシフト部51は、奥行き推定データ生成部10から受け取った奥行き推定データに応じた量だけ右目画像のテクスチャシフトを行い、右目視点とは別視点の画像を生成する。
Returning to FIG. 1, the different viewpoint image generation unit 50 will be described.
The different viewpoint image generation unit 50 includes a texture shift unit 51, an occlusion compensation unit 52, and a post processing unit 53, and outputs a left eye image 54 and a right eye image 55 as stereo pair images.
The texture shift unit 51 performs texture shift of the right eye image by an amount corresponding to the depth estimation data received from the depth estimation data generation unit 10, and generates an image of a viewpoint different from the right eye viewpoint.

テクスチャシフトを行うことによる画像中の位置関係変化によりテクスチャの存在しない部分すなわちオクルージョンが発生する場合がある。このような部分については、オクルージョン補償部52において、入力画像 の対応部分で充填する、若しくは公知の文献( 山田邦男, 望月研二, 相澤清晴, 齊藤隆弘: ” 領域競合法により分割された画像のテクスチャの統計量に基づくオクルージョン補償" , 映情学誌, Vol.56,No.5,pp.863〜866(2002.5)) に記載の手法で充填する。
オクルージョン補償部52でオクルージョン補償した画像は、ポスト処理部53により、平滑化などのポスト処理を施すことにより、それ以前の処理において発生したノイズなどを軽減することによって左目画像54を生成し、入力画像を右目画像55とすることによりステレオペアが構成される。これらの左目画像54と右目画像55とは、ステレオ表示装置2へと出力される。
A portion where there is no texture, that is, occlusion may occur due to a change in the positional relationship in the image due to texture shift. For such a part, the occlusion compensation unit 52 fills in the corresponding part of the input image, or a well-known document (Kunio Yamada, Kenji Mochizuki, Kiyoharu Aizawa, Takahiro Saito: “Image texture divided by the region competition method” Occlusion compensation based on the statistic of ”, Eiji Jakugaku, Vol. 56, No. 5, pp. 863-866 (2002.5)).
The image subjected to occlusion compensation by the occlusion compensation unit 52 is subjected to post-processing such as smoothing by the post-processing unit 53, thereby generating a left-eye image 54 by reducing noise generated in the previous processing, A stereo pair is formed by using the right eye image 55 as the image. These left eye image 54 and right eye image 55 are output to the stereo display device 2.

なおステレオペア画像の生成に関しては、左右反転することで左目画像を原画とし、右目画像を別視点画像として生成してもよい。
また、上記処理においては、右目画像もしくは左目画像のどちらかを入力画像、他方を生成された別視点画像とするようなステレオペア画像を構成しているが、左右どちらについても別視点画像を用いる、すなわち、右に視点移動した別視点画像と左に視点移動した別視点画像を用いてステレオペア画像を構成することも可能である。
なお、本実施形態では別視点画像生成部として2視点での例を説明しているが、2視点以上の表示が可能な表示装置にて表示する場合、その視点数に応じた数の別視点画像を生成する複数視点画像生成装置を構成することも可能である。
Regarding the generation of the stereo pair image, the left-eye image may be generated as an original image and the right-eye image may be generated as a different viewpoint image by reversing left and right.
In the above processing, a stereo pair image is formed in which either the right-eye image or the left-eye image is used as the input image and the other is generated as another viewpoint image. That is, it is also possible to configure a stereo pair image using another viewpoint image moved to the right and another viewpoint image moved to the left.
In this embodiment, an example with two viewpoints is described as the different viewpoint image generation unit. However, when displaying on a display device capable of displaying two or more viewpoints, the number of different viewpoints according to the number of viewpoints is displayed. It is also possible to configure a multi-viewpoint image generation device that generates an image.

上記のステレオ表示装置2は、偏光メガネを用いたプロジェクションシステム、時分割表示と液晶シャッタメガネを組み合わせたプロジェクションシステム若しくはディスプレイシステム、レンチキュラ方式のステレオディスプレイ、アナグリフ方式のステレオディスプレイ、ヘッドマウントディスプレイなどを含む。
また、上記のように2視点以上の表示が可能な表示装置を用いた多視点立体画像表示システムの構築も可能である。また、本立体表示システムにおいては音声出力を装備する形態のものも考えられる。この場合、静止画等音声情報を持たない画像コンテンツについては、画像にふさわしい環境音を付加するような態様のものが考えられる。
The stereo display device 2 includes a projection system using polarized glasses, a projection system or display system combining time-division display and liquid crystal shutter glasses, a lenticular stereo display, an anaglyph stereo display, a head mounted display, and the like. .
In addition, as described above, it is possible to construct a multi-viewpoint stereoscopic image display system using a display device that can display two or more viewpoints. Further, the present stereoscopic display system may be configured to be equipped with an audio output. In this case, for image content that does not have audio information, such as still images, an aspect in which an environmental sound suitable for an image is added can be considered.

本実施形態においては、カウントする画像の数の単位をフレームで説明しているが、フィールドを単位として実現してもよい。
なお、本発明は、ハードウェアにより図1の構成の奥行きデータ生成部、ステレオペア生成部を構成する場合に限定されるものではなく、コンピュータプログラムによるソフトウェアにより実現することもできる。この場合、コンピュータプログラムは、記録媒体からコンピュータに取り込まれてもよいし、ネットワーク経由でコンピュータに取り込まれてもよい。
In the present embodiment, the unit of the number of images to be counted is described as a frame, but may be realized in units of fields.
Note that the present invention is not limited to the case where the depth data generation unit and the stereo pair generation unit configured as shown in FIG. 1 are configured by hardware, and can also be realized by software using a computer program. In this case, the computer program may be taken into the computer from a recording medium or may be taken into the computer via a network.

1 擬似立体画像生成装置
10 奥行き推定データ生成部
11 画像入力部
12 画面上部の高域成分評価部
13 画面下部の高域成分評価部
14、15、16 フレームメモリ
17 合成部
18 輝点検出・補間部
19 加算部
50 別視点画像生成部
110 輝点検出部
111 輝点評価値算出部
112 高輝度比較部
113 周囲平均値検出部
114 周囲平均との比較部
115 周囲分散検出部
116 分散値の比較部
117 輝点評価部
120 輝点補間部
121 補間画素作成部
122 スイッチ
DESCRIPTION OF SYMBOLS 1 Pseudo three-dimensional image generation apparatus 10 Depth estimation data generation part 11 Image input part 12 High frequency component evaluation part 13 of screen upper part High frequency component evaluation part 14, 15, 16 Frame memory 17 Synthesis | combination part 18 Bright spot detection and interpolation Unit 19 addition unit 50 different viewpoint image generation unit 110 bright spot detection unit 111 bright spot evaluation value calculation unit 112 high brightness comparison unit 113 ambient average value detection unit 114 comparison unit with ambient average 115 ambient dispersion detection unit 116 comparison of dispersion values Unit 117 bright spot evaluation unit 120 bright spot interpolation unit 121 interpolation pixel creation unit 122 switch

Claims (5)

奥行き情報が明示的にも又はステレオ画像のように暗示的にも与えられていない非立体画像から奥行き推定データを生成する奥行き推定データ生成装置であって、
基本となる複数のシーン構造のそれぞれについて奥行き値を示す複数の基本奥行きモデルを記憶する記憶部と、
前記非立体画像のシーン構造を推定するために、前記非立体画像の画面内の所定領域における画素値に統計量を利用して、前記複数の基本奥行きモデル間の合成比率を算定する算定部と、
前記記憶部から読み出した前記複数の奥行きモデルを、前記算定部にて算定した合成比率に基づいて合成し、合成奥行きデータを生成する合成部と、
前記非立体画像から輝点部分を検出する輝点検出部と、
前記輝点検出部にて輝点部分を検出した場合、検出した前記輝点部分の画素値を前記輝点部分の画素の周辺画素の画素値で置き換えて、奥行き加算用画像信号を生成する輝点補間部と、
前記奥行き加算用画像信号の所定の信号成分を前記奥行きデータに加算して前記奥行き推定データを生成する加算部と
を備えたことを特徴とする奥行き推定データ生成装置。
A depth estimation data generation device that generates depth estimation data from a non-stereo image that is not given depth information explicitly or implicitly like a stereo image,
A storage unit for storing a plurality of basic depth models indicating depth values for each of a plurality of basic scene structures;
A calculation unit that calculates a composite ratio between the plurality of basic depth models by using a statistic for a pixel value in a predetermined region in a screen of the non-stereo image in order to estimate a scene structure of the non-stereo image; ,
Combining the plurality of depth models read from the storage unit based on the combination ratio calculated by the calculation unit, and generating combined depth data;
A bright spot detection unit for detecting a bright spot part from the non-stereo image;
When the bright spot part is detected by the bright spot detection unit, the pixel value of the detected bright spot part is replaced with the pixel value of the peripheral pixel of the pixel of the bright spot part, and a bright addition image signal is generated. A point interpolation unit;
A depth estimation data generation apparatus comprising: an addition unit configured to add a predetermined signal component of the image signal for depth addition to the depth data to generate the depth estimation data.
前記輝点検出部は、
入力信号の各画素のレベルに応じて、各画素における輝点評価値を算出する輝点評価値算出部と、
評価対象画素の前記輝点評価値が所定の値より大きいか否か比較し、大きい場合に真と判定する高輝度比較部と、
前記評価対象画素の前記輝点評価値が、前記輝点評価対象画素の周囲の画素における輝点評価値の平均値より大きいか否か比較し、大きい場合に真と判定する周囲平均との比較部と、
前記評価対象画素を含む周辺画素における輝点評価値の分散値が所定の値より小さいか否かを比較し、小さい場合に真と判定する分散値の比較部と
を有し、
前記高輝度比較部、前記周囲平均との比較部、前記分散値の比較部のいずれの判定結果も真であった場合、前記輝点検出部は前記評価対象画素を輝点として検出することを特徴とする請求項1記載の奥行き推定データ生成装置。
The bright spot detection unit
A bright spot evaluation value calculation unit that calculates a bright spot evaluation value in each pixel according to the level of each pixel of the input signal;
A high-intensity comparison unit that compares whether or not the bright spot evaluation value of the pixel to be evaluated is greater than a predetermined value, and determines true if it is greater;
Compare whether or not the luminescent spot evaluation value of the pixel to be evaluated is larger than the average value of the luminescent spot evaluation values in the surrounding pixels of the pixel to be evaluated and compare with the ambient average that is determined to be true if it is larger And
A dispersion value comparison unit for comparing whether or not the dispersion value of the bright spot evaluation value in the surrounding pixels including the evaluation target pixel is smaller than a predetermined value,
If any of the determination results of the high-luminance comparison unit, the comparison unit with the ambient average, and the comparison unit of the variance value is true, the bright spot detection unit detects the evaluation target pixel as a bright spot. The depth estimation data generation device according to claim 1, wherein
奥行き情報が明示的にも又はステレオ画像のように暗示的にも与えられておらず、非立体画像から擬似立体動画像を生成する擬似立体画像生成装置であって、
請求項1または2に記載の奥行き推定データ生成装置から供給する前記奥行推定データに応じて前記非立体画像のテクスチャのシフトを対応部分の奥行きに応じた量だけ行うことによって左目用画像および/または右目用画像となる別視点画像を生成する別視点画像生成部を備え、
前記別視点画像生成部により生成した別視点画像と、前記非立体画像との一方を左目用画像とし、他方を右目用画像として出力することを特徴とする擬似立体画像生成装置。
Depth information is not given explicitly or implicitly like a stereo image, and is a pseudo stereoscopic image generating device that generates a pseudo stereoscopic moving image from a non-stereo image,
The left-eye image and / or the image by shifting the texture of the non-stereo image by an amount corresponding to the depth of the corresponding portion in accordance with the depth estimation data supplied from the depth estimation data generation device according to claim 1 or 2. A different viewpoint image generation unit that generates another viewpoint image to be a right eye image,
One of the different viewpoint images generated by the different viewpoint image generation unit and the non-stereo image is output as a left-eye image, and the other is output as a right-eye image.
奥行き情報が明示的にも又はステレオ画像のように暗示的にも与えられていない非立体画像から奥行き推定データを生成する奥行き推定データ生成方法であって、
前記非立体画像のシーン構造を推定するために、前記非立体画像の画面内の所定領域における画素値に統計量を利用して、前記複数の基本奥行きモデル間の合成比率を算定する算定ステップと、
前記算定ステップにて算定した合成比率に基づいて複数の基本奥行きモデルを合成し、合成奥行きデータを生成する合成ステップと、
前記非立体画像から輝点部分を検出する輝点検出ステップと、
前記輝点検出ステップにて輝点を検出した場合、前記検出した輝点部分の画素値を、前記輝点部分の周辺画素の画素値で置き換えて奥行き加算用画像信号を生成する輝点補間ステップと、
前記奥行き加算用画像信号の所定の信号成分を前記合成奥行きデータに加算して、前記奥行き推定データを生成する加算ステップと
を有することを特徴とする奥行き推定データ生成方法。
A depth estimation data generation method for generating depth estimation data from a non-stereo image in which depth information is not given explicitly or implicitly like a stereo image,
A calculation step of calculating a synthesis ratio between the plurality of basic depth models by using a statistic for a pixel value in a predetermined region in a screen of the non-stereo image to estimate a scene structure of the non-stereo image; ,
Combining a plurality of basic depth models based on the combining ratio calculated in the calculating step, and generating combined depth data;
A bright spot detection step for detecting a bright spot portion from the non-stereoscopic image;
When detecting a bright spot in the bright spot detection step, a bright spot interpolation step of generating a depth addition image signal by replacing the pixel value of the detected bright spot portion with a pixel value of a peripheral pixel of the bright spot portion When,
A depth estimation data generation method comprising: an addition step of adding a predetermined signal component of the depth addition image signal to the combined depth data to generate the depth estimation data.
奥行き情報が明示的にも又はステレオ画像のように暗示的にも与えられていない非立体画像から奥行き推定データを生成する機能をコンピュータに実現させる奥行き推定データ生成プログラムであって、
前記非立体画像のシーン構造を推定するために、前記非立体画像の画面内の所定領域における画素値に統計量を利用して、前記複数の基本奥行きモデル間の合成比率を算定する算定ステップと、
前記算定ステップにて算定した合成比率に基づいて複数の基本奥行きモデルを合成し、合成奥行きデータを生成する合成ステップと、
前記非立体画像から輝点部分を検出する輝点検出ステップと、
前記輝点検出ステップにて輝点を検出した場合、前記検出した輝点部分の画素値を、前記輝点部分の周辺画素の画素値で置き換えて奥行き加算用画像信号を生成する輝点補間ステップと、
前記奥行き加算用画像信号の所定の信号成分を前記合成奥行きデータに加算して、前記奥行き推定データを生成する加算ステップと
を有することを特徴とする奥行き推定データ生成プログラム。
A depth estimation data generation program for causing a computer to realize a function of generating depth estimation data from a non-stereo image that is not given depth information explicitly or implicitly like a stereo image,
A calculation step of calculating a synthesis ratio between the plurality of basic depth models by using a statistic for a pixel value in a predetermined region in a screen of the non-stereo image to estimate a scene structure of the non-stereo image; ,
Combining a plurality of basic depth models based on the combining ratio calculated in the calculating step, and generating combined depth data;
A bright spot detection step for detecting a bright spot portion from the non-stereoscopic image;
When detecting a bright spot in the bright spot detection step, a bright spot interpolation step of generating a depth addition image signal by replacing the pixel value of the detected bright spot portion with a pixel value of a peripheral pixel of the bright spot portion When,
A depth estimation data generation program, comprising: an addition step of adding a predetermined signal component of the depth addition image signal to the combined depth data to generate the depth estimation data.
JP2012138581A 2012-06-20 2012-06-20 Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program Active JP5888140B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012138581A JP5888140B2 (en) 2012-06-20 2012-06-20 Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012138581A JP5888140B2 (en) 2012-06-20 2012-06-20 Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program

Publications (2)

Publication Number Publication Date
JP2014003521A true JP2014003521A (en) 2014-01-09
JP5888140B2 JP5888140B2 (en) 2016-03-16

Family

ID=50036295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012138581A Active JP5888140B2 (en) 2012-06-20 2012-06-20 Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program

Country Status (1)

Country Link
JP (1) JP5888140B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001359119A (en) * 2000-06-15 2001-12-26 Toshiba Corp Stereoscopic video image generating method
JP2005151534A (en) * 2003-09-24 2005-06-09 Victor Co Of Japan Ltd Pseudo three-dimensional image creation device and method, and pseudo three-dimensional image display system
WO2011135760A1 (en) * 2010-04-28 2011-11-03 パナソニック株式会社 Stereoscopic image processing device and stereoscopic image processing method
JP2012109788A (en) * 2010-11-17 2012-06-07 Konica Minolta Holdings Inc Image processing device and parallax information generation device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001359119A (en) * 2000-06-15 2001-12-26 Toshiba Corp Stereoscopic video image generating method
JP2005151534A (en) * 2003-09-24 2005-06-09 Victor Co Of Japan Ltd Pseudo three-dimensional image creation device and method, and pseudo three-dimensional image display system
WO2011135760A1 (en) * 2010-04-28 2011-11-03 パナソニック株式会社 Stereoscopic image processing device and stereoscopic image processing method
JP2012109788A (en) * 2010-11-17 2012-06-07 Konica Minolta Holdings Inc Image processing device and parallax information generation device

Also Published As

Publication number Publication date
JP5888140B2 (en) 2016-03-16

Similar Documents

Publication Publication Date Title
US9277207B2 (en) Image processing apparatus, image processing method, and program for generating multi-view point image
JP5402483B2 (en) Pseudo stereoscopic image creation device and pseudo stereoscopic image display system
TWI493505B (en) Image processing method and image processing apparatus thereof
JP2005151534A (en) Pseudo three-dimensional image creation device and method, and pseudo three-dimensional image display system
TWI678098B (en) Processing of disparity of a three dimensional image
US8884951B2 (en) Depth estimation data generating apparatus, depth estimation data generating method, and depth estimation data generating program, and pseudo three-dimensional image generating apparatus, pseudo three-dimensional image generating method, and pseudo three-dimensional image generating program
JP4214529B2 (en) Depth signal generation device, depth signal generation program, pseudo stereoscopic image generation device, and pseudo stereoscopic image generation program
US8976171B2 (en) Depth estimation data generating apparatus, depth estimation data generating method, and depth estimation data generating program, and pseudo three-dimensional image generating apparatus, pseudo three-dimensional image generating method, and pseudo three-dimensional image generating program
JP2013089981A (en) Image processing apparatus, image processing method and program
JP4214527B2 (en) Pseudo stereoscopic image generation apparatus, pseudo stereoscopic image generation program, and pseudo stereoscopic image display system
JP5304758B2 (en) Multi-viewpoint image creation apparatus, multi-viewpoint image creation method, and multi-viewpoint image display system
JP2013090129A (en) Image processing apparatus, image processing method and program
US8976175B2 (en) Depth estimation data generating device, computer readable recording medium having depth estimation data generating program recorded thereon, and pseudo-stereo image display device
JP5888140B2 (en) Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program
JP5636993B2 (en) Image processing method, image processing apparatus, and display apparatus
US9460550B2 (en) Multi-viewpoint image generation apparatus and method
JP5780214B2 (en) Depth information generation device, depth information generation method, depth information generation program, pseudo stereoscopic image generation device
JP5786807B2 (en) Depth information generation device, depth information generation method, depth information generation program, pseudo stereoscopic image generation device
JP6056459B2 (en) Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program
JP4419139B2 (en) Depth signal generation device, depth signal generation program, pseudo stereoscopic image generation device, and pseudo stereoscopic image generation program
JP5459231B2 (en) Pseudo stereoscopic image generation apparatus, pseudo stereoscopic image generation program, and pseudo stereoscopic image display apparatus
US8941647B2 (en) Depth estimation data generating apparatus, depth estimation data generating method, and depth estimation data generating program, and pseudo three-dimensional image generating apparatus, pseudo three-dimensional image generating method, and pseudo three-dimensional image generating program
JP5500092B2 (en) Depth estimation data generation device, depth estimation data generation program, and pseudo-stereoscopic image display device
JP6028427B2 (en) Depth information generation device, depth information generation method, depth information generation program, pseudo stereoscopic image generation device
JP2014072640A (en) Depth estimation data generation device, pseudo three-dimensional image generation device, depth estimation data generation method and depth estimation data generation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150616

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160201

R150 Certificate of patent or registration of utility model

Ref document number: 5888140

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150