JP2015108947A - Image processor, control method thereof, and control program - Google Patents
Image processor, control method thereof, and control program Download PDFInfo
- Publication number
- JP2015108947A JP2015108947A JP2013251138A JP2013251138A JP2015108947A JP 2015108947 A JP2015108947 A JP 2015108947A JP 2013251138 A JP2013251138 A JP 2013251138A JP 2013251138 A JP2013251138 A JP 2013251138A JP 2015108947 A JP2015108947 A JP 2015108947A
- Authority
- JP
- Japan
- Prior art keywords
- specific area
- pixel value
- area
- candidate
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置、その制御方法、および制御プログラムに関し、特に、入力画像から所定の領域を示す特定領域を判別して抽出する画像処理装置に関する。 The present invention relates to an image processing apparatus, a control method thereof, and a control program, and more particularly to an image processing apparatus that discriminates and extracts a specific area indicating a predetermined area from an input image.
一般に、デジタルカメラなどの撮像装置によって、被写体における明暗の差が激しい撮影シーンを撮影する際、例えば、明るい空を背景として人物および背景を逆光で撮影することがある。このような撮影シーンにおいて、人物および背景の明るさが適正レベルになるように露光を行うと空が飽和してしまう。一方、空の明るさを適正に露光すると、人物および背景が露光アンダーで撮影されてしまう。 In general, when shooting a shooting scene with a sharp contrast in a subject with an imaging device such as a digital camera, for example, a person and a background may be shot in backlight against a bright sky. In such a photographic scene, if the exposure is performed so that the brightness of the person and the background is at an appropriate level, the sky is saturated. On the other hand, if the brightness of the sky is properly exposed, the person and the background are photographed underexposed.
このような状態を解決するため、例えば、空および背景の領域を分割して、これら領域の各々に対する最適な露光条件を決定して2枚の画像を撮影し、これら画像を合成するようにした画像処理装置が知られている(特許文献1参照)。さらに、空および背景の領域を分割する手法として、例えば、青色でかつエッジ信号が存在しないという特徴を有する領域を空領域として抽出する手法がある。 In order to solve such a situation, for example, the sky and background regions are divided, the optimum exposure condition for each of these regions is determined, two images are taken, and these images are combined. An image processing apparatus is known (see Patent Document 1). Further, as a method for dividing the sky and background regions, for example, there is a method of extracting a region having a feature of being blue and having no edge signal as a sky region.
ところが、青色でかつエッジ信号が存在しないという特徴を有する領域を空領域として抽出すると、構図によっては空領域を良好に抽出できないことがある。 However, if an area having the feature of being blue and having no edge signal is extracted as an empty area, the empty area may not be extracted properly depending on the composition.
図11は、従来の画像処理装置における空領域の抽出を説明するための図である。そして、図11(a)は構図の一例を示す図であり、図11(b)は図11(a)に示す構図における空領域の抽出結果を示す図である。 FIG. 11 is a diagram for explaining extraction of an empty area in a conventional image processing apparatus. FIG. 11A is a diagram illustrating an example of the composition, and FIG. 11B is a diagram illustrating the extraction result of the empty area in the composition illustrated in FIG.
いま、図11(a)に示す構図においては、画面上部に空が位置し、画面下部に背景が位置している。そして、画面上部に空が抜けて見える被写体1101が存在する。このような構図において得られた画像について空領域の抽出を行おうとすると、図11(b)に示すように、画像処理装置は符号B1で示す領域を背景領域として判定するものの、符号B2で示す領域にはエッジ領域があるとして背景領域と判定してしまうことになる。そして、画像処理装置は符合A1で示す領域のみを空領域として判定する。
In the composition shown in FIG. 11A, the sky is positioned at the top of the screen and the background is positioned at the bottom of the screen. There is a
この結果、符合B2で示す領域に存在する空領域は飽和してしまうことになる。このような問題を解決するため、エッジ信号を確認することなく、色情報のみで領域の判定を行おうとすると、今度は、符号B1で示す領域に空領域と同一の色の被写体が存在すると、符号B1で示す領域において空領域と同一の色の被写体が露光アンダーになってしまうという。 As a result, the empty area existing in the area indicated by the symbol B2 is saturated. In order to solve such a problem, if an area is determined only by color information without confirming an edge signal, an object having the same color as the empty area is present in the area indicated by reference numeral B1. It is said that a subject having the same color as the sky area is underexposed in the area indicated by reference numeral B1.
従って、本発明の目的は撮影の際の構図に拘わらず、空領域などの特定領域を精度よく判別して抽出することのできる画像処理装置、その制御方法、および制御プログラムを提供することにある。 Accordingly, an object of the present invention is to provide an image processing apparatus, a control method thereof, and a control program capable of accurately identifying and extracting a specific area such as an empty area regardless of the composition at the time of shooting. .
上記の目的を達成するため、本発明による画像処理装置は、入力画像から特定の領域を特定領域として判別して抽出する画像処理装置であって、前記入力画像の特徴を示す特徴量に応じて前記入力画像を、前記特定領域を含む複数の領域に分割する分割手段と、前記特定領域を除く前記領域の各々について、前記特定領域と予め定められた条件で隣接しているか否かを判定して、前記予め定められた条件で隣接する領域を特定領域候補とする判定手段と、前記特定領域における画素値に応じて基準となる画素値を基準画素値として算出し、さらに、前記特定領域候補における画素値に応じて前記特定領域候補を代表する代表画素値を算出する算出手段と、前記基準画素値および前記代表画素値に応じて前記特定領域候補を前記特定領域に統合するか否かを判定して、その判定結果に基づいて前記特定領域候補を前記特定領域に統合する領域統合手段と、を有することを特徴とする。 In order to achieve the above object, an image processing apparatus according to the present invention is an image processing apparatus that discriminates and extracts a specific area as a specific area from an input image according to a feature amount indicating a characteristic of the input image. A dividing unit that divides the input image into a plurality of areas including the specific area, and each of the areas excluding the specific area determines whether or not the specific area is adjacent to the specific area under a predetermined condition. Determining means for setting a region adjacent under the predetermined condition as a specific region candidate, calculating a reference pixel value as a reference pixel value according to a pixel value in the specific region, and further selecting the specific region candidate Calculating means for calculating a representative pixel value representative of the specific area candidate in accordance with the pixel value in, and integrating the specific area candidate in the specific area in accordance with the reference pixel value and the representative pixel value Luke and determines whether to a region integrating means for integrating the specific area of the specific region candidate based on the determination result, characterized in that it has a.
本発明による制御方法は、入力画像から特定の領域を特定領域として判別して抽出する画像処理装置の制御方法であって、前記入力画像の特徴を示す特徴量に応じて前記入力画像を、前記特定領域を含む複数の領域に分割する分割ステップと、前記特定領域を除く前記領域の各々について、前記特定領域と予め定められた条件で隣接しているか否かを判定して、前記予め定められた条件で隣接する領域を特定領域候補とする判定ステップと、前記特定領域における画素値に応じて基準となる画素値を基準画素値として算出し、さらに、前記特定領域候補における画素値に応じて前記特定領域候補を代表する代表画素値を算出する算出ステップと、前記基準画素値および前記代表画素値に応じて前記特定領域候補を前記特定領域に統合するか否かを判定して、その判定結果に基づいて前記特定領域候補を前記特定領域に統合する領域統合ステップと、を有することを特徴とする。 The control method according to the present invention is a control method for an image processing apparatus that discriminates and extracts a specific region from an input image as a specific region, and the input image is selected according to a feature amount indicating a feature of the input image. A division step of dividing into a plurality of areas including a specific area, and each of the areas excluding the specific area is determined whether it is adjacent to the specific area under a predetermined condition, and the predetermined area is determined. A step of determining an area adjacent to the specific area as a specific area candidate, a reference pixel value is calculated as a reference pixel value according to a pixel value in the specific area, and further according to a pixel value in the specific area candidate A calculation step of calculating a representative pixel value representing the specific area candidate, and whether or not to integrate the specific area candidate into the specific area according to the reference pixel value and the representative pixel value To determine the, and having a, a region integrating step of integrating the specific area of the specific region candidate based on the determination result.
本発明による制御プログラムは、入力画像から特定の領域を特定領域として判別して抽出する画像処理装置で用いられる制御プログラムであって、前記画像処理装置が備えるコンピュータに、前記入力画像の特徴を示す特徴量に応じて前記入力画像を、前記特定領域を含む複数の領域に分割する分割ステップと、前記特定領域を除く前記領域の各々について、前記特定領域と予め定められた条件で隣接しているか否かを判定して、前記予め定められた条件で隣接する領域を特定領域候補とする判定ステップと、前記特定領域における画素値に応じて基準となる画素値を基準画素値として算出し、さらに、前記特定領域候補における画素値に応じて前記特定領域候補を代表する代表画素値を算出する算出ステップと、前記基準画素値および前記代表画素値に応じて前記特定領域候補を前記特定領域に統合するか否かを判定して、その判定結果に基づいて前記特定領域候補を前記特定領域に統合する領域統合ステップと、を実行させることを特徴とする。 A control program according to the present invention is a control program used in an image processing apparatus that discriminates and extracts a specific area as a specific area from an input image, and shows the characteristics of the input image on a computer included in the image processing apparatus. A division step of dividing the input image into a plurality of regions including the specific region according to a feature amount, and each of the regions excluding the specific region is adjacent to the specific region under a predetermined condition Determining whether or not to determine an adjacent region under the predetermined condition as a specific region candidate, calculating a reference pixel value as a reference pixel value according to a pixel value in the specific region, and Calculating a representative pixel value representing the specific area candidate according to a pixel value in the specific area candidate; the reference pixel value; and Determining whether to integrate the specific area candidate into the specific area according to a table pixel value, and executing an area integration step of integrating the specific area candidate into the specific area based on the determination result It is characterized by that.
本発明によれば、特定領域における基準画素値と特定領域候補における代表画素値とに応じて特定領域候補を特定領域に統合するか否かを判定するようにしたので、撮影の際の構図に拘わらず特定領域を精度よく判別して抽出することができる。 According to the present invention, it is determined whether or not to integrate the specific area candidate into the specific area according to the reference pixel value in the specific area and the representative pixel value in the specific area candidate. Regardless, the specific area can be accurately identified and extracted.
以下、本発明の実施の形態による画像処理装置の一例について図面を参照して説明する。 Hereinafter, an example of an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.
[第1の実施形態]
図1は、本発明の第1の実施形態による画像処理装置を備える撮像装置の一例を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram illustrating an example of an imaging apparatus including an image processing apparatus according to the first embodiment of the present invention.
図示の撮像装置は、例えば、デジタルカメラ(以下単にカメラと呼ぶ)であり、撮像部101を有している。撮像部101は撮影レンズユニット(以下単に撮影レンズと呼ぶ)、撮像素子、および撮像素子を駆動するための駆動回路を備えている。そして、撮像素子は、例えば、CCD又はCMOSセンサであり、撮影レンズを介して結像した光学像に応じた電気信号(アナログ画像信号)を出力する。
The illustrated imaging apparatus is, for example, a digital camera (hereinafter simply referred to as a camera) and includes an
撮像部101から出力されたアナログ画像信号は、A/D変換回路102によってデジタル画像信号(画像データ)に変換される。そして、この画像データは画像処理部103に入力される。画像処理部103は画像データに対して、既知のホワイトバランス処理、ノイズ抑圧処理、階調変換処理、およびエッジ強調補正処理などを行って、輝度信号Yおよび色差信号UおよびVを処理済み画像データとして出力する。さらに、画像処理部103は後述する領域判別処理を行う。
The analog image signal output from the
画像処理103から出力された処理済み画像データは、記憶媒体106に記録される。さらに、表示部105には処理済み画像データに応じた画像が表示される。制御部104は、カメラ全体の制御を司る。つまり、制御部10は画像処理部103、表示部105、および記録媒体106などの動作を制御する。画像処理部103、制御部104、表示部105、および記憶媒体106はバス107によって相互に接続され、バス107を介して各種データが送受される。
The processed image data output from the
図2は、図1に示すカメラで行われる領域判別処理を説明するためのフローチャートである。なお、図2に示すフローチャートに係る処理は、制御部104の制御下で画像処理部103によって行われる。また、ここでは、画像データが示す画像には空領域および背景領域が含まれており、空領域と背景領域とを領域判別して分割する場合について説明する。
FIG. 2 is a flowchart for explaining an area determination process performed by the camera shown in FIG. 2 is performed by the
画像処理部103は画像データ(入力画像)を受けると、当該画像データの特徴量に応じて画像を所定のサイズの複数のブロックに分割する。そして、画像処理部103は、例えば、ブロック毎に空領域および背景領域を判別する領域判別を行う(ステップS201)。
Upon receiving the image data (input image), the
空領域(つまり、ここでは特定領域)を判別する際には、例えば、画像処理部103はその色が類似する領域を検出する。この際には、画像処理部103は画素の色を示すRGBの色情報をHSV表色系に変換して色相輝度情報を用いて、互いに隣接する領域において同一の色および輝度を有する領域を隣接領域として検出する。画像処理部103はこれら隣接領域を統合して統合領域を得る。そして、画像処理部103は統合領域の面積が所定の面積(つまり、所定の閾値)以上であると、この統合領域を空領域とする。
When determining an empty area (that is, a specific area in this case), for example, the
図3は、図1に示すカメラで行われる領域判別を説明するための図である。そして、図3(a)は画像の一例を示す図であり、図3(b)は領域分割後の画像を示す図である。また、図3(c)は空領域候補を示す図であり、図3(d)は領域判別後の画像を示す図である。 FIG. 3 is a diagram for explaining region discrimination performed by the camera shown in FIG. FIG. 3A shows an example of an image, and FIG. 3B shows an image after region division. FIG. 3C is a diagram showing empty region candidates, and FIG. 3D is a diagram showing an image after region discrimination.
図3(a)に示す例では、領域1、領域2、および領域3の全てが空領域として判別される色および輝度情報を有するものとする。ここでは、領域1についてその面積が閾値(面積閾値)以上であるので、画像処理部103は領域1を空領域と判定する。一方、領域2および領域3についてはその面積が閾値未満であるので、画像処理部103は領域2および領域3については空領域と判定せず背景領域に分類する。
In the example shown in FIG. 3A, it is assumed that all of the
この結果、画像処理部103は図3(a)に示す元画像について、図3(b)に示すように、空領域および背景領域に分割する。
As a result, the
再び図2を参照して、ステップS201の処理に続いて、画像処理部103は画像に空領域が存在したか否かを判定する(ステップS202)。空領域が存在しないと(ステップS202において、NO)、画像処理部103は領域判別処理を終了する。一方、空領域が存在すると(ステップS202において、YES)、画像処理部103は、ステップS201で背景領域と判別された領域について、空領域候補判定を行って空領域候補(つまり、特定領域候補)である領域が存在するか否かを判定する(ステップS203)。
Referring to FIG. 2 again, following the process of step S201, the
空領域候補判定の際には、例えば、画像処理部103は空領域にその上左右が囲まれた領域を空領域候補と判定する。図3(b)に示す背景領域において、符号Aで示す領域に位置する背景領域はその上左右が空領域と接している(背景領域と空領域との境界が存在する:予め定められた条件)。このため、符号Aで示す領域に位置する背景領域は空領域である可能性が高いので、図3(c)に示すように、符号Aで示す領域に位置する背景領域は空領域候補とされる。
In the determination of the empty area candidate, for example, the
一方、符号Bで示す領域に位置する背景領域については、その左右が空領域と接していない(左右で背景領域と空領域とが接していない)。このため、空領域である可能性が低いので、符号Bで示す領域に位置する背景領域については、図3(c)に示すように、背景領域のままとされる。 On the other hand, the left and right sides of the background region located in the region indicated by the symbol B are not in contact with the sky region (the background region and the sky region are not in contact on the left and right). For this reason, since there is a low possibility that it is an empty area, the background area located in the area indicated by the symbol B is left as the background area as shown in FIG.
続いて、画像処理部103は空領域における基準画素値(Ysky,Usky,Vsky)を求める。ここでは、例えば、ステップS201において空領域と判別した領域における画素値の平均値などを用いて空領域における基準画素値を求める。なお、次のようにして、基準画素値を求めるようにしてもよい。
Subsequently, the
図4は、空領域がグラデーションを有する際の基準画素値の算出の一例を説明するための図である。 FIG. 4 is a diagram for explaining an example of calculation of the reference pixel value when the sky region has gradation.
いま、空領域が水平方向のグラデーションを有しているものとすると、画像を複数のブロック1001に分割して、ブロック1001の各々について平均輝度値(Y_AVE(xb,yb))を求める。なお、xbは水平方向のブロック位置、ybは垂直方向のブロック位置を示す。図示の例では、水平方向のブロック数を12、垂直方向のブロック数を9とした。
Assuming that the sky region has a horizontal gradation, the image is divided into a plurality of
図5は、図4に示す画像においてブロック毎の平均輝度を説明するための図である。そして、図5(a)は垂直方向のブロック位置を0とした場合のブロック毎の平均輝度値を示す図であり、図5(b)は水平方向のブロック位置を0とした場合のブロック毎の平均輝度値を示す図である。また、図5(c)は垂直方向のブロック位置を3とした場合のブロック毎の平均輝度値を示す図である。 FIG. 5 is a diagram for explaining the average luminance for each block in the image shown in FIG. FIG. 5A is a diagram showing the average luminance value for each block when the vertical block position is 0, and FIG. 5B is the block when the horizontal block position is 0. It is a figure which shows the average luminance value. FIG. 5C is a diagram showing an average luminance value for each block when the block position in the vertical direction is 3.
図5(a)において、横軸はブロックの位置、縦軸はブロック毎の平均輝度値を示す。yb=0とした場合の平均輝度値Y_AVE(xb,0)とすると、水平方向におけるブロック間での傾きGRAD_H(xb,0)は、次の式(1)で示される。 In FIG. 5A, the horizontal axis indicates the position of the block, and the vertical axis indicates the average luminance value for each block. Assuming that the average luminance value Y_AVE (xb, 0) when yb = 0 is set, the gradient GRAD_H (xb, 0) between the blocks in the horizontal direction is expressed by the following equation (1).
GRAD_H(xb,0)=Y_AVE(xb+1,0)−Y_AVE(xb,0) (1)
図示の例では、傾きの平均値(xb=0〜10)が所定の値以上となるので、水平方向に空領域はグラデーションを有すると判定される。
GRAD_H (xb, 0) = Y_AVE (xb + 1,0) −Y_AVE (xb, 0) (1)
In the illustrated example, since the average value of inclination (xb = 0 to 10) is equal to or greater than a predetermined value, it is determined that the sky region has a gradation in the horizontal direction.
図5(b)では、xb=0とした場合の平均輝度値Y_AVE(0,yb)とすると、垂直方向におけるブロック間での傾きGRAD_V(0,yb)は次の式(2)で示される。 In FIG. 5B, assuming that the average luminance value Y_AVE (0, yb) when xb = 0 is satisfied, the gradient GRAD_V (0, yb) between the blocks in the vertical direction is expressed by the following equation (2). .
GRAD_V(0,yb)=Y_AVE(0,yb+1)−Y_AVE(0,yb) (2)
図示の例では、傾きの平均値(yb=0〜7)が所定の値未満となるので、垂直方向には空領域はグラデーションを有しないと判定される。
GRAD_V (0, yb) = Y_AVE (0, yb + 1) −Y_AVE (0, yb) (2)
In the illustrated example, the average value of the slope (yb = 0 to 7) is less than a predetermined value, so that it is determined that the sky region does not have gradation in the vertical direction.
空領域は水平方向にグラデーションを有するので、水平方向におけるブロック間の傾きGRAD_H(xb,0)とブロック毎の平均輝度値Y_AVE(xb−1,yb)とに応じて空領域候補であるブロックの基準輝度値が求められる。基準輝度値Y_TARGET(xb,yb)は次の式(3)で示される。 Since the sky region has a gradation in the horizontal direction, the block of the candidate sky region according to the gradient GRAD_H (xb, 0) between the blocks in the horizontal direction and the average luminance value Y_AVE (xb-1, yb) for each block. A reference luminance value is obtained. The reference luminance value Y_TARGET (xb, yb) is expressed by the following equation (3).
Y_TARGET(xb,yb)=Y_AVE(xb−1,yb)+GRAD_H(xb,0) (3)
図5(c)に示すyb=3の場合においては、xb=0,1,および2までが空領域のブロックとなるので、xb=3,4,5,6,および7のブロックについて空領域候補であるブロックの基準輝度値Y_TARGETを求める。
Y_TARGET (xb, yb) = Y_AVE (xb-1, yb) + GRAD_H (xb, 0) (3)
In the case of yb = 3 shown in FIG. 5C, since the blocks up to xb = 0, 1, and 2 are empty regions, the empty regions are obtained for the blocks of xb = 3, 4, 5, 6, and 7. A reference luminance value Y_TARGET of a candidate block is obtained.
同様にして、色情報について基準色相値を求めて、基準輝度値および基準色相値に応じてブロック毎の基準画素値(Y_TARGET(xb,yb)、U_TARGET(xb,yb)、およびV_TARGET(xb,yb))を求める。そして、ブロック毎の基準画素値から、既知の線形補間によって、画素毎に空領域の基準画素値(Ysky(x,y)、Usky(x,y)、Vsky(x,y))を求める。このようにして、画像処理部103は空領域についてその色輝度分布を求めて、目標とする色輝度範囲を定める(ステップS204)。
Similarly, a reference hue value is obtained for color information, and reference pixel values (Y_TARGET (xb, yb), U_TARGET (xb, yb), and V_TARGET (xb, yb)) for each block are determined according to the reference luminance value and the reference hue value. yb)). Then, the reference pixel values (Ysky (x, y), Usky (x, y), Vsky (x, y)) of the sky region are obtained for each pixel from the reference pixel values for each block by known linear interpolation. In this way, the
再び図2を参照して、ステップS204の処理に続いて、画像処理部103は、ステップS203の空領域候補判定で空領域候補と判定された画素について空領域統合処理を行う(ステップS205)。
Referring to FIG. 2 again, following the processing in step S204, the
図6は、図2に示す空領域統合処理を説明するためのフローチャートである。 FIG. 6 is a flowchart for explaining the empty area integration processing shown in FIG.
空領域統合処理を開始すると、画像処理部103は、まず着目画素が空領域候補の画素であるか否かを判別する(ステップS301)。着目画素が空領域候補の画素であると(ステップS301において、YES)、画像処理部103は基準画素値と着目画素の画素値(ここでは代表画素)との差分を検出する(ステップS302)。例えば、着目画素の画素値が(Y,U、V)である場合には、差分SUBは次の式(4)で求められる。
When the sky region integration processing is started, the
なお、空領域候補の画素値を代表する画素値を代表画素値として当該代表画素値と基準画素値とを比較して差分を求めるようにしてもよい。 Note that a pixel value representing a pixel value of a sky region candidate may be used as a representative pixel value, and the representative pixel value may be compared with a reference pixel value to obtain a difference.
SUB=SQRT((Y−Ysky(x,y))^2+(U−Usky(x,y))^2+(V−Vsky(x,y))^2) (4)
続いて、画像処理部103は差分SUBが予め定められた閾値以下であるか否かを判定する(ステップS303)。差分SUBが閾値以下であると(ステップS303において、YES)、画像処理部103は当該着目画素を空領域に統合する(ステップS304)。そして、画像処理部103は次の空領域候補の画素が存在するか否かを判定する(ステップS305)。
SUB = SQRT ((Y-Ysky (x, y)) ^ 2+ (U-Usky (x, y)) ^ 2+ (V-Vsky (x, y)) ^ 2) (4)
Subsequently, the
次の空領域候補の画素が存在すると(ステップS305において、NO)、画像処理部103はステップS301の処理に戻る。一方、次の空領域候補の画素が存在しないと(ステップS305において、YES)、画像処理部103は空領域統合処理を終了する。
If there is a next empty region candidate pixel (NO in step S305), the
なお、着目画素が空領域候補の画素でないと(ステップS301において、YES)、画像処理部103はステップS305の処理に進む。同様にして、差分SUBが閾値を超えていると(ステップS303において、NO)、画像処理部103ステップS305の処理に進む。
If the target pixel is not an empty area candidate pixel (YES in step S301), the
上述のようにして、空領域統合処理を行った後、画像処理部103は領域判別処理を終了する。
After performing the sky region integration processing as described above, the
このようにして、本発明の第1の実施形態では、空領域候補と判定された画素についてのみ、当該空領域候補の画素が空領域に属するか否かを再度判定する。これによって、例えば、図3(d)に示すように、空が抜けている見える撮影シーンにおいても、空が抜けて見える領域(図3(a)に示す領域2および3)を適切に空領域と判定することができる。 In this way, in the first embodiment of the present invention, it is determined again only for the pixels determined as the sky region candidates whether or not the pixels of the sky region candidates belong to the sky region. Thus, for example, as shown in FIG. 3D, even in a shooting scene where the sky appears to be missing, the areas where the sky appears to be missing (areas 2 and 3 shown in FIG. 3A) are appropriately set as empty areas. Can be determined.
なお、第1の実施形態では、画素値の差分を検出するに当たってYUVを用いて表現したが、画素値を表現できるものであれば、YUVに限るものではない。例えば、Lab又はXYZなどをもとるようにしてもよい。また、ここでは、画素値の差分を検出するようにしたが、着目画素の周辺画素も含めた平均値又はブロック単位で処理を行うようにしてもよい。 In the first embodiment, YUV is used to detect the difference between pixel values. However, the present invention is not limited to YUV as long as the pixel value can be expressed. For example, Lab or XYZ may be used. Here, the difference between the pixel values is detected, but the process may be performed in an average value or a block unit including the peripheral pixels of the target pixel.
さらに、第1の実施形態では、空領域と背景領域とを領域判別する例について説明したが、空領域と背景領域とを領域判別に限るものではなく、例えば、人物領域が加わったシーンにおいても同様に適用することができる。いずれにしても、第1の実施形態では特定の領域(つまり、被写体領域)である空領域を精度よく抽出することができる。 Furthermore, in the first embodiment, the example in which the sky region and the background region are discriminated is described. However, the sky region and the background region are not limited to the region discrimination. For example, in a scene to which a person region is added. The same can be applied. In any case, in the first embodiment, it is possible to accurately extract a sky region that is a specific region (that is, a subject region).
加えて、上述の第1の実施形態では、空領域候補の画素を判定する際、空領域に上左右が囲まれた領域を空領域候補と判定するようにしたが、空領域が所定の面積以上である場合に空領域候補を求めるようにしてもよい。 In addition, in the first embodiment described above, when determining the pixel of the empty region candidate, the region surrounded by the upper and left sides of the empty region is determined as the empty region candidate. However, the empty region has a predetermined area. In the case of the above, an empty area candidate may be obtained.
[第2の実施形態]
続いて、本発明の第2の実施形態による画像処理装置を備えるカメラの一例について説明する。なお、第2の実施形態に係るカメラの構成は図1に示すカメラと同様である。
[Second Embodiment]
Next, an example of a camera provided with an image processing apparatus according to the second embodiment of the present invention will be described. The configuration of the camera according to the second embodiment is the same as that of the camera shown in FIG.
第2の実施形態に係るカメラは、図2で説明したようにして、領域判別処理を行うが、ここでは、空領域統合処理が第1の実施形態と異なっている。 The camera according to the second embodiment performs the area determination process as described with reference to FIG. 2, but here, the sky area integration process is different from that of the first embodiment.
図7は、本発明の第2の実施形態に係るカメラで行われる空領域統合処理の一例を説明するためのフローチャートである。なお、図示のフローチャートにおいて、図6に示すフローチャートと同一のステップについては同一の参照符号を付して説明を省略する。 FIG. 7 is a flowchart for explaining an example of the sky region integration processing performed by the camera according to the second embodiment of the present invention. In the flowchart shown in the figure, the same steps as those in the flowchart shown in FIG.
ステップS303の処理において、差分SEBが閾値(差分閾値)以下と判定すると、画像処理部103は着目画素と空領域との距離が所定の閾値(距離閾値)以下であるか否かを判定する(ステップS404)。距離が距離閾値以下であると(ステップS404において、YES)、画像処理部103はステップS304の処理に進んで着目画素を空領域に統合する。一方、距離が距離閾値を超えると(ステップS404において、NO)、画像処理部103は、前述のステップS305の処理に進む。
If it is determined in step S303 that the difference SEB is equal to or smaller than the threshold (difference threshold), the
図8は空領域候補の画素を空領域の画素とする処理を説明するための図である。そして、図8(a)は空領域の画素と空領域候補の画素と示す図であり、図8(b)は空領域候補の画素を空領域の画素に変更した状態の一例を示す図である。また、図8(c)は空領域候補の画素を空領域の画素に変更した状態の一例を示す図である。 FIG. 8 is a diagram for explaining the process of setting the sky region candidate pixels as the sky region pixels. FIG. 8A is a diagram illustrating a pixel in the sky region and a pixel in the sky region candidate, and FIG. 8B is a diagram illustrating an example of a state in which the pixel in the sky region candidate is changed to a pixel in the sky region. is there. FIG. 8C is a diagram illustrating an example of a state where the pixels of the sky region candidate are changed to the pixels of the sky region.
図8(a)において、空領域に属すると判定された画素をSxx(x:0〜4)で示し、空領域候補の画素をHxx(x:0〜4)で示す。正気の距離閾値を2画素として、さらに画素H23および画素H34と着目画素との差分が差分閾値以下であるとする。 In FIG. 8A, pixels determined to belong to the sky region are denoted by Sxx (x: 0 to 4), and pixels of the sky region candidate are denoted by Hxx (x: 0 to 4). Assume that the sanity distance threshold is 2 pixels, and the difference between the pixel H23 and the pixel H34 and the pixel of interest is equal to or less than the difference threshold.
画素H23との距離が最小となる空領域の画素は画素S03であり、その距離は2画素であるので、画像処理部103は画素H23を空領域と判定する。ここでは、図8(b)に示すように、画像処理部103は空領域候補の画素H23を空領域の画素に変更して、当該画素にS23のラベルを付ける。つまり、画像処理部103は空領域候補の画素H23を空領域に統合する。
Since the pixel in the sky region that has the smallest distance from the pixel H23 is the pixel S03 and the distance is two pixels, the
画素H34については、その距離が最小となる空領域の画素は画素S23である。そして、画素H34と画素S23との距離は2画素以内であるので、画素処理部103は画素H34を空領域と判定する。画像処理部103は空領域候補の画素H34を空領域の画素に変更して、当該画素にS34のラベルを付ける(図8(c)参照)。つまり、画像処理部103は空領域候補の画素H34を空領域に統合する。
For the pixel H34, the pixel in the sky region with the smallest distance is the pixel S23. Since the distance between the pixel H34 and the pixel S23 is within two pixels, the
このように、本発明の第2の実施形態では、差分が所定の差分閾値以下である空領域候補の画素について空領域との距離が所定の距離閾値以下であるか否かを判定して、その判定結果に応じて当該空領域候補の画素を空領域に統合する。その結果、空が抜けている見える撮影シーンにおいても、空が抜けて見える領域を精度よく空領域と判定することができる。 As described above, in the second embodiment of the present invention, it is determined whether the distance between the sky region candidate pixel whose difference is equal to or smaller than the predetermined difference threshold is equal to or smaller than the predetermined distance threshold, Depending on the determination result, the pixels of the sky region candidate are integrated into the sky region. As a result, even in a shooting scene where the sky appears to be missing, it is possible to accurately determine the area where the sky appears to be missing as an empty area.
なお、上述の第2の実施形態では、空領域候補の画素についてのみ空領域との統合処理を行うか否かを判定するようにしたが、全ての背景領域の画素について空領域との統合処理を行うか否かの判定を行うようにしてもよい。 In the second embodiment described above, it is determined whether or not the integration process with the sky area is performed only for the pixels of the sky area candidate, but the integration process with the sky area is performed for all the background area pixels. It may be determined whether or not to perform.
[第3の実施形態]
次に、本発明の第3の実施形態による画像処理装置を備えるカメラの一例について説明する。なお、第3の実施形態に係るカメラの構成は図1に示すカメラと同様である。
[Third Embodiment]
Next, an example of a camera including an image processing device according to the third embodiment of the present invention will be described. The configuration of the camera according to the third embodiment is the same as that of the camera shown in FIG.
図9は、本発明の第3の実施形態に係るカメラで行われる領域判別処理の一例を説明廃るためのフローチャートである。なお、図示のフローチャートにおいて、図2に示すフローチャートにおけるステップと同一のステップについては同一の参照符号を付して説明を省略する。 FIG. 9 is a flowchart for explaining an example of the area determination process performed by the camera according to the third embodiment of the present invention. In the illustrated flowchart, the same steps as those in the flowchart shown in FIG. 2 are denoted by the same reference numerals and description thereof is omitted.
ステップS203において、空領域候補の判定を行った後、画像処理部103は空領域候補である領域(画素)が存在するか否かを確認する(ステップS503)。空領域候補である領域が存在しないと(ステップS503において、NO)、画像処理部103は領域判別処理を終了する。
In step S203, after determining the sky area candidate, the
一方、空領域候補である領域が存在すると(ステップS503において、YES)、画像処理部103は空領域候補の領域について空領域であるか否かの信頼度を示す信頼度分布を算出する(ステップS504)。
On the other hand, when there is an area that is a candidate for the empty area (YES in step S503), the
図10は、図9に示す信頼度分布の算出を説明するための図である。そして、図10(a)は画素毎の空領域である空確率を示す図であり、図10(b)は空確率のヒストグラムを示す図である。 FIG. 10 is a diagram for explaining calculation of the reliability distribution shown in FIG. FIG. 10A is a diagram showing a sky probability that is a sky region for each pixel, and FIG. 10B is a diagram showing a histogram of sky probability.
図10(a)において、横軸は色相を示し、縦軸は空確率を示す。ここでは、画像処理部103は空領域候補の画素毎に空領域である空確率を求めるが、着目画素(つまり、空領域候補の画素)の色相Hueが色相Hue1以下又は色相Hue4以上であると、画像処理部103は空確率を0とする。一方、着目画素の色相Hueが色相Hue2以上で色相Hue3以下の場合には、画像処理部103は空確率を1とする。
In FIG. 10A, the horizontal axis indicates the hue, and the vertical axis indicates the sky probability. Here, the
着目画素の色相Hueが色相Hue1を超え色相Hue2未満の間の場合には、画像処理部103は次の式(5)に応じて空確率を求める。
When the hue Hue of the pixel of interest is between the hue Hue1 and less than the hue Hue2, the
空確率=(Hue−Hue1)×(Hue2−Hue1) (5)
同様にして、着目画素の色相Hueが色相Hue3を超え色相Hue4未満の間の場合には、画像処理部103は次の式(6)に応じて空確率を求める。
Empty probability = (Hue−Hue1) × (Hue2−Hue1) (5)
Similarly, when the hue Hue of the pixel of interest is between the hue Hue3 and less than the hue Hue4, the
空確率=(Hue−Hue3)×(Hue4−Hue3)+1 (6)
なお、色相Hueを求める際には、Lab空間に変換した後、Hue=tan−1(b*/a*)などの演算が用いられる。
Empty probability = (Hue-Hue3) × (Hue4-Hue3) +1 (6)
When obtaining the hue Hue, an operation such as Hue = tan-1 (b * / a *) is used after conversion to the Lab space.
空領域候補の画素の各々について空確率を求めた後、画像処理部103は空確率に関するヒストグラムを求める(図10(b)参照)。そして、画像処理部103は当該ヒストグラムの平均値、ピーク値、又は分散値に応じて空領域である信頼度を算出する。例えば、図10(b)に示すように、ヒストグラムの分散が大きい場合には、空のみでなく背景領域の被写体が混じっている可能性が高く、画像処理部103は空領域である信頼度が低いと判定する。この場合には、画像処理部103は信頼度を低くする。
After obtaining the sky probability for each of the pixels of the sky region candidate, the
続いて、画像処理部103は空領域候補についてその信頼度が所定の閾値(信頼度閾値)以上であるか否かを判定する(ステップS505)。信頼度が信頼度閾値以上であると(ステップS505において、YES)、画像処理部103は空領域候補の画素に係る信頼度が高いと判断して、空領域および背景領域に係る領域分割を行わない(ステップS506)。そして、画像処理部103は領域判別処理を終了する。
Subsequently, the
一方、信頼度が信頼度閾値未満であると(ステップS505において、NO)、画像処理部103は空領域候補の画素に係る信頼度が低いと判断して、空領域候補の画素を背景領域として領域分割する(ステップS507)。そして、画像処理部103は領域判別処理を終了する。
On the other hand, if the reliability is less than the reliability threshold (NO in step S505), the
このように、本発明の第3の実施形態では、空領域候補について空領域である信頼性を示す信頼度に応じて空領域および背景領域に係る領域分割を行わないようにしたので、空領域および背景領域について誤検出を低減することができる。 As described above, in the third embodiment of the present invention, since the region division related to the sky region and the background region is not performed according to the reliability indicating the reliability of the sky region with respect to the sky region candidate, the sky region In addition, false detection can be reduced for the background region.
上述の説明から明らかなように、図1に示す例においては、制御部104および画像処理部103が分割手段、判定手段、算出手段、および領域統合手段として機能する。また、ここでは、少なくとも画像処理部103および制御部104が画像処理装置を構成する。
As is clear from the above description, in the example shown in FIG. 1, the
以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。 As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .
例えば、上記の実施の形態の機能を制御方法として、この制御方法を画像処理装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画像処理装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。 For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the image processing apparatus. In addition, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the image processing apparatus. The control program is recorded on a computer-readable recording medium, for example.
上記の制御方法および制御プログラムの各々は、少なくとも分割ステップ、判定ステップ、算出ステップ、および領域統合ステップを有している。 Each of the control method and the control program has at least a division step, a determination step, a calculation step, and a region integration step.
また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. To be executed.
101 撮像部
102 A/D変換部
103 画像処理部
104 制御部
105 表示部
106 記憶媒体
DESCRIPTION OF
Claims (10)
前記入力画像の特徴を示す特徴量に応じて前記入力画像を、前記特定領域を含む複数の領域に分割する分割手段と、
前記特定領域を除く前記領域の各々について、前記特定領域と予め定められた条件で隣接しているか否かを判定して、前記予め定められた条件で隣接する領域を特定領域候補とする判定手段と、
前記特定領域における画素値に応じて基準となる画素値を基準画素値として算出し、さらに、前記特定領域候補における画素値に応じて前記特定領域候補を代表する代表画素値を算出する算出手段と、
前記基準画素値および前記代表画素値に応じて前記特定領域候補を前記特定領域に統合するか否かを判定して、その判定結果に基づいて前記特定領域候補を前記特定領域に統合する領域統合手段と、
を有することを特徴とする画像処理装置。 An image processing apparatus for determining and extracting a specific area as a specific area from an input image,
A dividing unit that divides the input image into a plurality of regions including the specific region according to a feature amount indicating a feature of the input image;
A determination unit that determines whether each of the areas excluding the specific area is adjacent to the specific area under a predetermined condition, and determines the area adjacent to the predetermined area as a specific area candidate When,
Calculating means for calculating a reference pixel value as a reference pixel value according to a pixel value in the specific area, and further calculating a representative pixel value representing the specific area candidate according to a pixel value in the specific area candidate; ,
Region integration for determining whether or not to integrate the specific region candidate into the specific region according to the reference pixel value and the representative pixel value and integrating the specific region candidate into the specific region based on the determination result Means,
An image processing apparatus comprising:
前記分割手段は、前記複数の領域のうち所定の面積以上の領域を前記特定領域とすることを特徴とする請求項1に記載の画像処理装置。 The feature amount is hue luminance information indicating hue and luminance,
The image processing apparatus according to claim 1, wherein the dividing unit sets a region having a predetermined area or more among the plurality of regions as the specific region.
前記入力画像の特徴を示す特徴量に応じて前記入力画像を、前記特定領域を含む複数の領域に分割する分割ステップと、
前記特定領域を除く前記領域の各々について、前記特定領域と予め定められた条件で隣接しているか否かを判定して、前記予め定められた条件で隣接する領域を特定領域候補とする判定ステップと、
前記特定領域における画素値に応じて基準となる画素値を基準画素値として算出し、さらに、前記特定領域候補における画素値に応じて前記特定領域候補を代表する代表画素値を算出する算出ステップと、
前記基準画素値および前記代表画素値に応じて前記特定領域候補を前記特定領域に統合するか否かを判定して、その判定結果に基づいて前記特定領域候補を前記特定領域に統合する領域統合ステップと、
を有することを特徴とする制御方法。 A control method for an image processing apparatus for determining and extracting a specific area from an input image as a specific area,
A division step of dividing the input image into a plurality of regions including the specific region according to a feature amount indicating a feature of the input image;
A step of determining whether or not each of the areas excluding the specific area is adjacent to the specific area under a predetermined condition, and setting the area adjacent to the predetermined condition as a specific area candidate When,
Calculating a reference pixel value as a reference pixel value according to a pixel value in the specific area, and calculating a representative pixel value representing the specific area candidate according to a pixel value in the specific area candidate; ,
Region integration for determining whether or not to integrate the specific region candidate into the specific region according to the reference pixel value and the representative pixel value and integrating the specific region candidate into the specific region based on the determination result Steps,
A control method characterized by comprising:
前記画像処理装置が備えるコンピュータに、
前記入力画像の特徴を示す特徴量に応じて前記入力画像を、前記特定領域を含む複数の領域に分割する分割ステップと、
前記特定領域を除く前記領域の各々について、前記特定領域と予め定められた条件で隣接しているか否かを判定して、前記予め定められた条件で隣接する領域を特定領域候補とする判定ステップと、
前記特定領域における画素値に応じて基準となる画素値を基準画素値として算出し、さらに、前記特定領域候補における画素値に応じて前記特定領域候補を代表する代表画素値を算出する算出ステップと、
前記基準画素値および前記代表画素値に応じて前記特定領域候補を前記特定領域に統合するか否かを判定して、その判定結果に基づいて前記特定領域候補を前記特定領域に統合する領域統合ステップと、
を実行させることを特徴とする制御プログラム。 A control program used in an image processing apparatus that identifies and extracts a specific area as a specific area from an input image,
In the computer provided in the image processing apparatus,
A division step of dividing the input image into a plurality of regions including the specific region according to a feature amount indicating a feature of the input image;
A step of determining whether or not each of the areas excluding the specific area is adjacent to the specific area under a predetermined condition, and setting the area adjacent to the predetermined condition as a specific area candidate When,
Calculating a reference pixel value as a reference pixel value according to a pixel value in the specific area, and calculating a representative pixel value representing the specific area candidate according to a pixel value in the specific area candidate; ,
Region integration for determining whether or not to integrate the specific region candidate into the specific region according to the reference pixel value and the representative pixel value and integrating the specific region candidate into the specific region based on the determination result Steps,
A control program characterized by causing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013251138A JP6257292B2 (en) | 2013-12-04 | 2013-12-04 | Image processing apparatus, control method thereof, and control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013251138A JP6257292B2 (en) | 2013-12-04 | 2013-12-04 | Image processing apparatus, control method thereof, and control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015108947A true JP2015108947A (en) | 2015-06-11 |
JP6257292B2 JP6257292B2 (en) | 2018-01-10 |
Family
ID=53439256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013251138A Expired - Fee Related JP6257292B2 (en) | 2013-12-04 | 2013-12-04 | Image processing apparatus, control method thereof, and control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6257292B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005228136A (en) * | 2004-02-13 | 2005-08-25 | Nissan Motor Co Ltd | Road area detecting device |
JP2005293554A (en) * | 2004-03-08 | 2005-10-20 | Seiko Epson Corp | Determination of main object in image |
JP2007517315A (en) * | 2003-12-29 | 2007-06-28 | イーストマン コダック カンパニー | Sky detection in digital color images |
-
2013
- 2013-12-04 JP JP2013251138A patent/JP6257292B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007517315A (en) * | 2003-12-29 | 2007-06-28 | イーストマン コダック カンパニー | Sky detection in digital color images |
JP2005228136A (en) * | 2004-02-13 | 2005-08-25 | Nissan Motor Co Ltd | Road area detecting device |
JP2005293554A (en) * | 2004-03-08 | 2005-10-20 | Seiko Epson Corp | Determination of main object in image |
Also Published As
Publication number | Publication date |
---|---|
JP6257292B2 (en) | 2018-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9426437B2 (en) | Image processor performing noise reduction processing, imaging apparatus equipped with the same, and image processing method for performing noise reduction processing | |
JP6833415B2 (en) | Image processing equipment, image processing methods, and programs | |
US9813634B2 (en) | Image processing apparatus and method | |
KR101441786B1 (en) | Subject determination apparatus, subject determination method and recording medium storing program thereof | |
JP7223079B2 (en) | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND IMAGING APPARATUS | |
CN107395991B (en) | Image synthesis method, image synthesis device, computer-readable storage medium and computer equipment | |
JP6172935B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5814799B2 (en) | Image processing apparatus and image processing method | |
US11893716B2 (en) | Image processing apparatus and image processing method, and image capturing apparatus | |
CN108174173B (en) | Photographing method and apparatus, computer-readable storage medium, and computer device | |
JP6274876B2 (en) | Image processing apparatus, image processing method, and program | |
US10977777B2 (en) | Image processing apparatus, method for controlling the same, and recording medium | |
EP3407252B1 (en) | Image processing apparatus, image processing method, and storage medium | |
US10565712B2 (en) | Image processing apparatus and method for controlling the same | |
JP5441669B2 (en) | Image processing apparatus and control method thereof | |
JP6257292B2 (en) | Image processing apparatus, control method thereof, and control program | |
JP2010213105A (en) | Imaging apparatus | |
JP2009194786A (en) | Object detecting device, and imaging apparatus | |
JP5178421B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
JP5146223B2 (en) | Program, camera, image processing apparatus, and image contour extraction method | |
JP2015142281A (en) | Subject searching device, control method and control program of the same, and imaging device | |
JP2014153866A (en) | Image processing system, control method and control program of the same | |
JP5794413B2 (en) | Image processing apparatus, image processing method, and program | |
JP2014068279A (en) | Imaging apparatus | |
JP6314281B1 (en) | Image processing method and foreground region acquisition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171205 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6257292 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |