JP2017126304A - 画像処理装置、画像処理方法、画像処理システムおよびプログラム - Google Patents
画像処理装置、画像処理方法、画像処理システムおよびプログラム Download PDFInfo
- Publication number
- JP2017126304A JP2017126304A JP2016006684A JP2016006684A JP2017126304A JP 2017126304 A JP2017126304 A JP 2017126304A JP 2016006684 A JP2016006684 A JP 2016006684A JP 2016006684 A JP2016006684 A JP 2016006684A JP 2017126304 A JP2017126304 A JP 2017126304A
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- representative position
- designated
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000001514 detection method Methods 0.000 claims abstract description 36
- 238000000034 method Methods 0.000 description 122
- 230000006870 function Effects 0.000 description 38
- 230000008569 process Effects 0.000 description 32
- 238000010586 diagram Methods 0.000 description 23
- 238000002372 labelling Methods 0.000 description 10
- 238000000926 separation method Methods 0.000 description 10
- 230000001360 synchronised effect Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 8
- 230000003247 decreasing effect Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 4
- 238000009499 grossing Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 240000008168 Ficus benjamina Species 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】画像の画像情報を取得する画像情報取得部11と、画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得するユーザ指示受付部12と、指定領域の特徴量を包含領域の画像情報から求め、指定領域の特徴量から指定領域の代表位置である第1の代表位置を設定する第1の代表位置設定部13と、指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を設定する第2の代表位置設定部14と、第1の代表位置および第2の代表位置から指定領域を検出する領域検出部15と、を備えることを特徴とする画像処理装置。
【選択図】図2
Description
本発明は、より直感的で簡易な方法でユーザが切り抜きたい領域を指定することができる画像処理装置等を提供することを目的とする。
請求項2に記載の発明は、前記包含領域は、画像中における前記指定領域および当該指定領域の周囲の領域をユーザが塗りつぶすことで入力されたものであることを特徴とする請求項1に記載の画像処理装置である。
請求項3に記載の発明は、前記第1の代表位置設定部は、前記包含領域の画像情報の画素値に対する度数を表すヒストグラムを基に前記指定領域の特徴量を求めることを特徴とする請求項1または2に記載の画像処理装置である。
請求項4に記載の発明は、前記第1の代表位置設定部は、前記度数に対して設定される閾値との比較で前記指定領域の特徴量を求め、当該指定領域の特徴量を有する画素について前記第1の代表位置とすることを特徴とする請求項3に記載の画像処理装置である。
請求項5に記載の発明は、前記第2の代表位置設定部は、前記指定領域外領域の特徴量を前記包含領域以外の領域の画像情報から求め、当該指定領域外領域の特徴量から前記第2の代表位置を設定することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置である。
請求項6に記載の発明は、前記第2の代表位置設定部は、前記指定領域外領域の特徴量を前記包含領域の外接矩形内以外の領域の画像情報から求めることを特徴とする請求項5に記載の画像処理装置である。
請求項7に記載の発明は、画像の画像情報を取得し、前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得し、前記指定領域の特徴量を前記包含領域の画像情報から求め、当該指定領域の特徴量から当該指定領域の代表位置である第1の代表位置を設定し、前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を設定し、前記第1の代表位置および前記第2の代表位置から前記指定領域を検出することを特徴とする画像処理方法である。
請求項8に記載の発明は、画像を表示する表示装置と、前記表示装置に表示される前記画像の画像情報に対し画像処理を行なう画像処理装置と、ユーザが前記画像処理装置に対し画像処理を行なうための指示を入力する入力装置と、を備え、前記画像処理装置は、前記画像の画像情報を取得する画像情報取得部と、前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得する位置情報取得部と、前記指定領域の特徴量を前記包含領域の画像情報から求め、当該指定領域の特徴量から当該指定領域の代表位置である第1の代表位置を設定する第1の代表位置設定部と、前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を設定する第2の代表位置設定部と、前記第1の代表位置および前記第2の代表位置から前記指定領域を検出する領域検出部と、前記指定領域および/または前記指定領域外領域に対し画像処理を行なう画像処理部と、を備えることを特徴とする画像処理システムである。
請求項9に記載の発明は、コンピュータに、画像の画像情報を取得する画像情報取得機能と、前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得する位置情報取得機能と、前記指定領域の特徴量を前記包含領域の画像情報から求め、当該指定領域の特徴量から当該指定領域の代表位置である第1の代表位置を設定する第1の代表位置設定機能と、前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を設定する第2の代表位置設定機能と、前記第1の代表位置および前記第2の代表位置から前記指定領域を検出する領域検出機能と、を実現させることを特徴とするプログラムである。
請求項2の発明によれば、さらに直感的で簡易な方法でユーザが切り抜きたい領域を指定することができる。
請求項3の発明によれば、指定領域の特徴量をより容易に求めることができる。
請求項4の発明によれば、求められる指定領域の特徴量の精度が向上する。
請求項5の発明によれば、求められる指定領域外領域の特徴量の精度が向上する。
請求項6の発明によれば、指定領域外領域をより容易に求めることができる。
請求項7の発明によれば、より直感的で簡易な方法でユーザが切り抜きたい領域を指定することができる画像処理方法を提供できる。
請求項8の発明によれば、画像処理がより容易に行える画像処理システムが提供できる。
請求項9の発明によれば、より直感的で簡易な方法でユーザが切り抜きたい領域を指定することができる機能をコンピュータにより実現できる。
図1は、本実施の形態における画像処理システム1の構成例を示す図である。
図示するように本実施の形態の画像処理システム1は、表示装置20に表示される画像の画像情報に対し画像処理を行なう画像処理装置10と、画像処理装置10により作成された画像情報が入力され、この画像情報に基づき画像を表示する表示装置20と、画像処理装置10に対しユーザが種々の情報を入力するための入力装置30とを備える。
また画像処理装置10と入力装置30とは、例えば、USB(Universal Serial Bus)を介して接続されている。なお、USBに代えて、IEEE1394やRS−232C等を介して接続されていてもよい。
[第1の実施形態]
次に画像処理装置10の第1の実施形態について説明を行なう。
図2は、本発明の第1の実施形態における画像処理装置10の機能構成例を表すブロック図である。なお図2では、画像処理装置10が有する種々の機能のうち第1の実施形態に関係するものを選択して図示している。
図示するように本実施の形態の画像処理装置10は、画像情報取得部11と、ユーザ指示受付部12と、第1の代表位置設定部13と、第2の代表位置設定部14と、領域検出部15と、領域切替部16と、画像処理部17と、画像情報出力部18とを備える。
具体的には、ユーザ指示受付部12は、表示装置20で表示している画像の中から、ユーザが画像処理を行なう画像領域として、指定領域を指定する指示をユーザ指示情報として受け付ける。より具体的には、本実施の形態では、ユーザ指示受付部12は、ユーザ指示情報として、画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した前景カバー領域の位置情報を取得する。
図3(a)〜(b)は、指定領域を指定する作業をユーザインタラクティブに行う方法の第1の例を示した図である。
このうち図3(a)は、画像処理を行なう前の画像であり、画像情報取得部11が取得した画像データに基づき表示装置20に表示した画像Gを示している。この画像Gは、野原の一部を撮影した写真の画像であり、植物の花や葉が撮影された画像である。そして図3(b)では、ユーザが、前景である左側の花の部分を指定領域S1として選択する場合を示している。なお以後、後景である指定領域S1外の領域を「指定領域外領域S2」と言うことがある。
ここではユーザは、図4(a)で示すように画像G上で指定領域S1である花の部分を囲むように軌跡Kを描き、これにより指定領域S1を包含する前景カバー領域Hを入力する。図4(a)で示す軌跡Kは、花の部分を囲むように始点から終点に向け、図中右回りで入力されたものである。
この場合、軌跡Kは、閉曲線であってもよく、図4(a)に示すように開曲線であってもよい。ただし図4(a)のような開曲線の軌跡Kが入力された場合、これを閉曲線とする処理が別途必要となる。
図示するように開曲線の始点と終点とを結ぶ補間処理をし、閉曲線とする。図では、開曲線の始点と終点とを、点線で示した線分により結ぶ場合を示している。この処理は、始点の画像上での座標が(x、y)=(x1、y1)、終点の画像上での座標が(x、y)=(x2、y2)であったときに、この双方を通る直線の式y=mx+n(m、nは定数)を求めることで容易に行うことができる。
図示するように図4(b)の補間後の閉曲線およびその内部の領域が前景カバー領域Hとなっている。
なお図5では、1つのヒストグラムしか図示していないが、画像Gがカラー画像であった場合は、このヒストグラムは3つとなる。例えば、画像Gの画像データがRGBデータであったときは、第1の代表位置設定部13は、横軸が、Rの画素値、Gの画素値、Bの画素値となる3つのヒストグラムを作成する。
図中、矩形で示した領域が第1の代表位置である。なおこの第1の代表位置を以後、図6に示すように、「シード1」と言うことがある。また図示するようにシード1は、指定領域S1内に存在する。
図7は、特徴量を求める他の方法について示した図である。
このうち図7は、作成したヒストグラムを減色した場合を概念的に示している。この場合、例えば、0〜255の整数値となる画素値を予め定められた分割数で分割し、分割した範囲毎に度数を合計した後、全度数の合計が1となるように正規化している。これによりヒストグラムを近似化する。
図8では、R、G、Bのそれぞれについて度数が対応付けられている。この度数は、R、G、Bの値で定義される格子点の度数である。そしてこの度数に対し、上記閾値θを設定すれば、上述した場合と同様に特徴量が取得できる。
なお図8で、度数は、n個(D1〜Dn)存在するが、画素値の分割数が、例えば10であったときには、R、G、Bのそれぞれについて画素値は、11の範囲に分割されるため、n=113となる。
第2の代表位置設定部14は、まず前景カバー領域Hに応じて背景カバー領域Jを設定する。
上述した例では、前景カバー領域Hは、指定領域S1を全て覆っている。そのため例えば、第2の代表位置設定部14は、図9(a)に示すような前景カバー領域Hに対する外接矩形を求め、図9(b)に示すように、この外接矩形内以外を全て背景カバー領域Jとする。
図10−1(b)では、例えば、入力装置30がマウスであった場合は、ユーザは、マウスを操作して外接矩形をドラッグし外接矩形の位置や大きさを変更する。また入力装置30がタッチパネルであった場合は、ユーザの指やタッチペン等により外接矩形をスワイプすることで同様に外接矩形の位置や大きさを変更する。
外接矩形内以外が必ず指定領域外領域S2であることがわかっていれば、背景カバー領域Jそのものを第2の代表位置としてもよい。なおこの第2の代表位置を以後、図11に示すように、「シード2」と言うことがある。
図12は、前景カバー領域Hの外接矩形内の画像情報も含めて求めた場合に、外接矩形内にもシード2が設定された例を示している。
この原理は、図14に示すように前景の仮想ノードを始点、後景の仮想ノードを終点として設定し、前景の仮想ノードから指定領域S1の第1の代表位置をリンクし、指定領域外領域S2の代表位置から終点へリンクさせる。そして始点から水を流した場合、最大流せる量はいくらかを計算する。第1の代表位置から始点へのリンクの値を水道管のパイプの太さと考えて、ボトルネックになっている(流れにくい)箇所のカットの総和が最大流量であるという原理である。つまりは、ボトルネックとなるリンクをカットすることが、前景と後景とを分離することになる(グラフカット)。
本実施の形態では、このようにラベルを付与することを「ラベル付け」と言う。
図16(a)〜(b)に示した例では、表示画面21の左側に画像領域が選択された状態の画像Gが表示され、表示画面21の右側に「領域1」、「領域2」の何れかを選択するラジオボタン212a、212bが表示される。この場合、「領域1」は、指定領域S1に、「領域2」は、指定領域外領域S2に対応する。そしてユーザが入力装置30を使用して、このラジオボタン212a、212bを選択すると、画像領域が切り替わる。
図17は、画像処理を行なう際に、表示装置20の表示画面21に表示される画面の例を示している。
ここでは、選択された指定領域S1または指定領域外領域S2に対し、色相、彩度、輝度の調整を行なう例を示している。この例では、表示画面21の左上側に指定領域S1または指定領域外領域S2が選択された状態の画像Gが表示され、表示画面21の右上側に「領域1」、「領域2」の何れかを選択するラジオボタン212a、212bが表示される。ここでは、ラジオボタンのうち212aが選択されており、花の部分の画像領域である指定領域S1が選択されている。なおラジオボタン212a、212bを操作することで、指定領域S1または指定領域外領域S2の切り替えが可能であることは、図16の場合と同様である。
次に画像処理装置10の第2の実施形態について説明を行なう。
第1の実施形態では、指定領域は1つであったが、第2の実施形態では、指定領域が複数の場合について説明を行う。
第2の実施形態では、ユーザ指示受付部12は複数の指定領域を指定する指示をユーザ指示情報として受け付ける。本実施の形態では、ユーザ指示受付部12は、ユーザ指示情報として、複数の指定領域を包含するようにユーザが入力した複数の前景カバー領域の位置情報を取得する。
ここでは、画像Gにおいて、形状も色も異なる左側の花と右側の花をそれぞれ指定領域として指定するものとする。このときユーザは、画像G上で指定領域S11として図示した左側の花の部分と指定領域S12として図示した右側の花の部分について、そこからはみ出した周辺の部分について軌跡K1および軌跡K2を描く。そしてこれによりユーザは、指定領域S11や指定領域S12を包含する前景カバー領域H1および前景カバー領域H2を入力する。
また図21は、この場合に、第1の代表位置設定部13や第2の代表位置設定部14が、シードを設定した例を示している。ここでシード11は、指定領域S11に対するシードである。またシード12は、指定領域S12に対するシードである。さらにシード2は、指定領域外領域S2に対するシードである。
図22は、2つの外接矩形が重なった場合を示している。そしてこの場合も図23に示すようにそれぞれの外接矩形内以外の領域をシード2として設定すればよい。
次に領域検出部15が領域拡張方法により指定領域S1を切り出す方法についてさらに詳しく説明を行なう。
図示するように本実施の形態の領域検出部15は、画素選択部151と、範囲設定部152と、判定部153と、特性変更部154と、収束判定部155とを備える。
以下、図25に示す領域検出部15について、第1の実施例〜第5の実施例に分けて説明を行なう。
まず領域検出部15の第1の実施例について説明を行なう。
第1の実施例において、画素選択部151は、指定領域S1や指定領域外領域S2に属する画素を基準画素として選択する。ここで「指定領域S1や指定領域外領域S2に属する画素」は、例えば、代表位置に含まれる画素、即ち、上述したシードの画素である。またこれには、領域拡張により新たにラベル付けされた画素も含まれる。
ここでは画素選択部151は、基準画素として指定領域S1や指定領域外領域S2に含まれる画素の中から1つの画素を選択する。
図27は、第1の範囲について説明した図である。
図示するように、画像領域R1と画像領域R2のそれぞれに基準画素であるシード1およびシード2が選択されている。そしてさらにこのシード1とシード2を中心に位置するようにして縦5画素×横5画素の範囲を第1の範囲とする。図では、この範囲を太線の枠内の範囲として表示している。
また詳しくは後述するが、本実施の形態では、第1の範囲は可変であり、処理が進行するに従い範囲が縮小されることが好ましい。
判定部153では、上記第1の範囲に含まれる25画素のうち、シード1またはシード2を除くそれぞれ24画素について、指定領域S1または指定領域外領域S2に含まれるか否かの判定の対象となる対象画素(第1の対象画素)とする。そしてこれらの対象画素が、シード1が属する指定領域S1に含まれるか否か、又は/および、シード2が属する指定領域外領域S2に属するか否かの判定を行なう。
具体的には、第1の範囲内に含まれる上記24画素に便宜上番号を付し、i番目(iは1〜24の何れかの整数値)の対象画素をPiとしたとき、この画素の色データがRGBデータである場合は、この色データはPi=(Ri、Gi、Bi)として表すことができる。同様にしてシード1やシード2の基準画素をP0とすると、この色データはP0=(R0、G0、B0)として表すことができる。そして画素値の近さとして、以下の数2式に示すRGB値のユークリッド距離diを考える。
ここでシード1と同じ黒色となったものは、指定領域S1に属する画素と判定され、シード2と同じ灰色となったものは、指定領域外領域S2に属する画素と判定されたことを示している。なお白色の画素は、この場合、指定領域S1および指定領域外領域S2のどちらにも属さないと判定されたことを示している。
例えば、数4式は、色成分が、X1、X2、…、Xnである場合である。そして数4式は、対象画素の色データが、Pi=(X1i、X2i、…、Xni)であり、基準画素の色データが、P0=(X10、X20、…、Xn0)であったときのユークリッド距離di wを示している。なお数4式のユークリッド距離di wも重み係数wX1、wX2、…、wXnを使用した重みづけユークリッド距離となっている。この場合、n個の色成分のうち指定領域S1や指定領域外領域S2の時性がよく現れている色成分についての重み係数を他より相対的に大きくすることで、切り分けの精度が向上する。
ここで「特性」とは、その画素に付与されるラベルと強さのことを言う。
「ラベル」は、上述したようにその画素が指定領域S1および指定領域外領域S2の何れに属するかを表すものであり、指定領域S1に属する画素は、「ラベル1」、指定領域外領域S2に属する画素は、「ラベル2」が付与される。ここではシード1のラベルはラベル1、シード2のラベルはラベル2となるので、判定部153で指定領域S1に属する画素と判定された場合(図28で黒色となった画素)は、ラベル1にラベル付けされる。また判定部153で指定領域外領域S2に属する画素と判定された場合(図28で灰色となった画素)は、ラベル2にラベル付けされる。
まずユーザが最初に指定した代表位置に含まれる画素の強さは、初期値として1となる。つまり領域を拡張する前のシード1やシード2の画素は、強さが1である。また、まだラベル付けがされていない画素については、強さは0である。
図29(a)〜(b)は、影響力を決定する方法について示した図である。図29(a)〜(b)において、横軸は、ユークリッド距離diを表し、縦軸は、影響力を表す。
このユークリッド距離diは、強さを与えられた画素とその画素の周辺に位置する画素との間で決まる画素値のユークリッド距離diである。そして例えば、図29(a)に図示するように非線形の単調減少関数を定め、ユークリッド距離diに対し、この単調減少関数により決まる値を影響力とする。
つまりユークリッド距離diが小さいほど、影響力はより大きくなり、ユークリッド距離diが大きいほど、影響力はより小さくなる。
なお単調減少関数は、図29(a)のような形状のものに限られるものではなく、単調減少関数であれば特に限られるものではない。よって図29(b)のような線形の単調減少関数であってもよい。またユークリッド距離diの特定の範囲で線形であり、他の範囲で非線形であるような区分線形の単調減少関数であってもよい。
図27に示す第1の範囲は、シード1とシード2とで一部重なる。そして第1の範囲が、重ならない箇所、即ち、シード1とシード2とで競合しない箇所では、この場合、ラベル付けされていないもので、全て基準画素であるシード1またはシード2と同じラベル付けを行なう。一方、第1の範囲が、シード1とシード2とで重なる箇所、即ち、競合する箇所では、強さが強い方のラベル付けをする。その結果、図30に示すようにラベル付けがなされる。
このうち図31(a)は、このとき設定される第1の範囲を示している。つまり画像領域R1と画像領域R2のそれぞれに基準画素であるシード1およびシード2が選択されている。そしてさらにこのシード1とシード2を中心に位置するようにして縦3画素×横3画素の範囲を第1の範囲としている。図では、この範囲を太線の枠内の範囲として表示している。
このラベル、強さ、影響力の情報は、実際には、各画素毎の情報として、後述するメインメモリ92(図41参照)等に記憶される。そして必要に応じメインメモリ92から読み出されるとともに、ラベル、強さ、影響力が変更されたときは、これらの情報の書き換えが行なわれる。これにより領域検出部15の処理速度が向上する。
収束判定部155は、例えば、ラベルが変更される画素がなくなったときに収束したと判定する。また予め最大更新回数を定めておき、最大更新回数に達したときに収束したものとみなすこともできる。
次に領域検出部15の第2の実施例について説明を行なう。
図32(a)は、このとき設定される第1の範囲であり、図31(a)と同様の図である。
本実施の形態では、判定部153は、図32(b)に示すように2行2列の位置に設定されるシード2を起点とし、まず第1の範囲内の対象画素が指定領域S1および指定領域外領域S2の何れに属するか否かを判定する。そして図32(c)〜(d)に示すように基準画素を図中右側に一画素ずつ移動させつつ、第1の範囲内の対象画素が何れの指定領域S1や指定領域外領域S2に属するか否かを判定していく。この判定は、例えば、上述したように、数2式〜数4式を使用し、画素値の近さを利用することで行うことができる。またこの判定は、図31の場合と同様に、強さを使用した方法により行うことができる。
そして図中右端までを対象画素として判定した後は、次に基準画素を第3列に移し、同様に基準画素を図中右側に一画素ずつ移動させつつ、第1の範囲内の対象画素が指定領域S1および指定領域外領域S2の何れに属するか否かを判定していく。そして図中右端までを対象画素として判定した後は、さらに次の列に移る。これは図32(e)〜(g)に示すように繰り返され、図中右下端部に基準画素が移動するまで行なわれる。これは、判定部153は、基準画素を一画素毎に走査するように移動させつつ判定を行なう、と言うことができる。
これは、図33に示すように行と列の順を反転させて同様の処理を行なうと言うこともできる。またこれは、基準画素が終端位置(この場合、右下端部や左上端部)に達したときは、基準画素を逆方向に走査させるようにさらに移動させる、と言うこともできる。
また起点が1つの場合でも、基準画素が右下端部に達した後に、基準画素を再び左上端部から走査させるように移動させてもよい。さらに基準画素をランダムに走査させるように移動させてもよい。
この領域拡張方法によれば、図31で説明した方法に比較して、より収束が速く、処理速度もより速くなる。また基準画素が終端位置に達したときには逆方向に走査させるようにさらに移動させることで、収束が遅い箇所が生じにくくなり、より収束が速くなる。
図34は、第1の実施例および第2の実施例における領域検出部15の動作について説明したフローチャートである。
以下、図25および図34を使用して領域検出部15の動作を説明する。
まず画素選択部151が、指定領域S1や指定領域外領域S2に属する画素の中から選択される基準画素を選択する(ステップ101)。図26(b)の例では、画素選択部151は、この基準画素としてシード1およびシード2を選択する。
一方、収束判定部155が処理が収束していないと判定した場合(ステップ105でNo)、ステップ101に戻る。なおこの場合、画素選択部151で選択される基準画素は変更される。
次に領域検出部15の第3の実施例について説明を行なう。
第3の実施例では、画素選択部151は、指定領域S1や指定領域外領域S2に含まれるか否かの判定の対象となる対象画素を1つ選択する。そして範囲設定部152は、選択された対象画素(第2の対象画素)に対し設定され、この対象画素が何れの指定領域S1や指定領域外領域S2に含まれるか否かを判定する基準画素が含まれる範囲である第2の範囲を変更する。
図35は、画素選択部151により選択される対象画素、および範囲設定部152により設定される第2の範囲について示した図である。
図35では、図26(a)で示した原画像に対し、図26(b)で示した場合と同様に基準画素をシード1およびシード2として設定される。そして対象画素(第2の対象画素)としてT1で示す一画素が選択された場合を示している。さらに第2の範囲として対象画素T1を中心に位置するようにして縦5画素×横5画素の範囲を第2の範囲としている。図では、この範囲を太線の枠内の範囲として表示している。
このとき例えば、対象画素T1の画素値と、第2の範囲に含まれる基準画素であるシード1およびシード2の画素値の何れに近いか否かで、対象画素T1が、指定領域S1に属するか、指定領域外領域S2に属するかを判定する。即ち、画素値の近さにより判定を行う。
またこの判定は、強さを使用した方法により行うことができる。この場合、対象画素T1(第2の対象画素)が指定領域S1または指定領域外領域S2に属するかの判定を行なうときには、第2の範囲に含まれる基準画素の強さにより判定を行なうことになる。
図36では、対象画素T1の画素値は、シード1の画素値よりシード2の画素値に近く、その結果、対象画素T1は、指定領域外領域S2に属すると判定されたことを示している。
本実施の形態の場合も画素選択部151、範囲設定部152、判定部153、特性変更部154の処理は収束するまで繰り返し行なわれる。そしてこの処理を繰り返し、更新していくことで、ラベル付け等の特性変更がされる領域は順次拡張されていき、指定領域S1および指定領域外領域S2の切り出しが行なえる。また第2の範囲は可変であり、その範囲は、更新回数により順次小さくしていくことが好ましい。
なお上述した場合は、第1の実施例と同様の「同期型」であったが、第2の実施例と同様の「非同期型」を使用することもできる。以下、「受け身型」であるとともに、「非同期型」の場合を、第4の実施例として説明を行なう。
図37(a)は、図26(a)に示した原画像に対し、図26(b)で示した基準画素としてのシード1およびシード2を設定した場合を示している。これは図31および図32で説明した場合と同様である。
そして図中右端までを対象画素T1として判定した後は、次に対象画素T1を第2列に移し、同様に対象画素T1を図中右側に一画素ずつ移動させつつ、この対象画素T1が指定領域S1および指定領域外領域S2の何れに属するか否かを判定していく。そして図中右端まで判定した後は、さらに次の列に移る。これは図32(e)〜(g)に示すように繰り返され、図中右下端部に対象画素T1が移動するまで行なわれる。
この領域拡張方法でも、より収束が速く、処理速度もより速くなる。また基準画素が終端位置に達したときには逆方向に走査させるようにさらに移動させることで、収束が遅い箇所が生じにくくなり、より収束が速くなる。
図38は、第3の実施例および第4の実施例における領域検出部15の動作について説明したフローチャートである。
以下、図25および図38を使用して領域検出部15の動作を説明する。
まず画素選択部151が、対象画素(第2の対象画素)を選択する(ステップ201)。図35に示した例では、画素選択部151は、対象画素T1を選択する。
一方、収束判定部155が処理が収束していないと判定した場合(ステップ205でNo)、ステップ201に戻る。なおこの場合、画素選択部151で選択される対象画素(第2の対象画素)は変更される。
次に領域検出部15の第5の実施例について説明を行なう。
第5の実施例では、第1の実施例および第2の実施例で説明した「攻撃型」の領域拡張方法と、第3の実施例および第4の実施例で説明した「受け身型」の領域拡張方法の双方を使用する。つまり第5の実施例では、「攻撃型」の領域拡張方法と「受け身型」の領域拡張方法とを更新の途中で切り替えながら領域を拡張していく。
このように「攻撃型」と「受け身型」を双方使用する領域拡張方法でも指定領域S1および指定領域外領域S2の切り出しが行える。
図39は、第5の実施例における領域検出部15の動作について説明したフローチャートである。
以下、図25および図39を使用して領域検出部15の動作を説明する。
まず画素選択部151が、「攻撃型」と「受け身型」の何れを使用するかを選択する(ステップ301)。
また範囲設定部152が、この基準画素に対し指定領域S1や指定領域外領域S2に含まれるかを判定する対象画素(第1の対象画素)の範囲である第1の範囲を設定する(ステップ304)。
さらに判定部153が、第1の範囲内の対象画素が指定領域S1および指定領域外領域S2の何れに属するかを判定する(ステップ305)。
また範囲設定部152が、この対象画素T1に対し判定への影響を与える画素の影響範囲である第2の範囲を設定する(ステップ307)。
さらに判定部153が、対象画素T1(第2の対象画素)が何れの指定領域S1や指定領域外領域S2に属するかを判定する(ステップ308)。
収束判定部155が処理が収束したと判定した場合(ステップ310でYes)、指定領域S1の切り出しの処理を終了する。
一方、収束判定部155が処理が収束していないと判定した場合(ステップ310でNo)、ステップ301に戻る。なおこの場合、画素選択部151で選択される基準画素または対象画素(第2の対象画素)は変更される。
図40は、画像処理装置10の動作について説明したフローチャートである。
以下、図2および図40を主に使用して、画像処理装置10の動作について説明を行う。
さらに第2の代表位置設定部14が、例えば、図9で説明した方法を用い、背景カバー領域Jを求める(ステップ404)。
また第2の代表位置設定部14は、例えば、図11〜図13、図21、図23で説明した方法を用い、第2の代表位置であるシード2を設定する(ステップ405)。
このユーザによる指定領域S1(S11、S12)や指定領域外領域S2の選択の指示は、ユーザ指示受付部12が受け付ける(ステップ407)。
そして領域切替部16により指定領域S1(S11、S12)や指定領域外領域S2の切り替えが行なわれる(ステップ408)。
ユーザによる画像処理の指示は、ユーザ指示受付部12が受け付ける(ステップ409)。
そして画像処理部17が、ユーザの指示に基づき、選択された指定領域S1(S11、S12)や指定領域外領域S2の画像処理を行なう(ステップ410)。
次に、画像処理装置10のハードウェア構成について説明する。
図41は、画像処理装置10のハードウェア構成を示した図である。
画像処理装置10は、上述したようにパーソナルコンピュータ等により実現される。そして図示するように、画像処理装置10は、演算手段であるCPU(Central Processing Unit)91と、記憶手段であるメインメモリ92、およびHDD(Hard Disk Drive)93とを備える。ここで、CPU91は、OS(Operating System)やアプリケーションソフトウェア等の各種プログラムを実行する。また、メインメモリ92は、各種プログラムやその実行に用いるデータ等を記憶する記憶領域であり、HDD93は、各種プログラムに対する入力データや各種プログラムからの出力データ等を記憶する記憶領域である。
さらに、画像処理装置10は、外部との通信を行うための通信インターフェース(以下、「通信I/F」と表記する)94を備える。
ここで以上説明を行った本実施の形態における画像処理装置10が行なう処理は、例えば、アプリケーションソフトウェア等のプログラムとして用意される。
Claims (9)
- 画像の画像情報を取得する画像情報取得部と、
前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得する位置情報取得部と、
前記指定領域の特徴量を前記包含領域の画像情報から求め、当該指定領域の特徴量から当該指定領域の代表位置である第1の代表位置を設定する第1の代表位置設定部と、
前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を設定する第2の代表位置設定部と、
前記第1の代表位置および前記第2の代表位置から前記指定領域を検出する領域検出部と、
を備えることを特徴とする画像処理装置。 - 前記包含領域は、画像中における前記指定領域および当該指定領域の周囲の領域をユーザが塗りつぶすことで入力されたものであることを特徴とする請求項1に記載の画像処理装置。
- 前記第1の代表位置設定部は、前記包含領域の画像情報の画素値に対する度数を表すヒストグラムを基に前記指定領域の特徴量を求めることを特徴とする請求項1または2に記載の画像処理装置。
- 前記第1の代表位置設定部は、前記度数に対して設定される閾値との比較で前記指定領域の特徴量を求め、当該指定領域の特徴量を有する画素について前記第1の代表位置とすることを特徴とする請求項3に記載の画像処理装置。
- 前記第2の代表位置設定部は、前記指定領域外領域の特徴量を前記包含領域以外の領域の画像情報から求め、当該指定領域外領域の特徴量から前記第2の代表位置を設定することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
- 前記第2の代表位置設定部は、前記指定領域外領域の特徴量を前記包含領域の外接矩形内以外の領域の画像情報から求めることを特徴とする請求項5に記載の画像処理装置。
- 画像の画像情報を取得し、
前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得し、
前記指定領域の特徴量を前記包含領域の画像情報から求め、当該指定領域の特徴量から当該指定領域の代表位置である第1の代表位置を設定し、
前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を設定し、
前記第1の代表位置および前記第2の代表位置から前記指定領域を検出する
ことを特徴とする画像処理方法。 - 画像を表示する表示装置と、
前記表示装置に表示される前記画像の画像情報に対し画像処理を行なう画像処理装置と、
ユーザが前記画像処理装置に対し画像処理を行なうための指示を入力する入力装置と、
を備え、
前記画像処理装置は、
前記画像の画像情報を取得する画像情報取得部と、
前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得する位置情報取得部と、
前記指定領域の特徴量を前記包含領域の画像情報から求め、当該指定領域の特徴量から当該指定領域の代表位置である第1の代表位置を設定する第1の代表位置設定部と、
前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を設定する第2の代表位置設定部と、
前記第1の代表位置および前記第2の代表位置から前記指定領域を検出する領域検出部と、
前記指定領域および/または前記指定領域外領域に対し画像処理を行なう画像処理部と、
を備えることを特徴とする画像処理システム。 - コンピュータに、
画像の画像情報を取得する画像情報取得機能と、
前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得する位置情報取得機能と、
前記指定領域の特徴量を前記包含領域の画像情報から求め、当該指定領域の特徴量から当該指定領域の代表位置である第1の代表位置を設定する第1の代表位置設定機能と、
前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を設定する第2の代表位置設定機能と、
前記第1の代表位置および前記第2の代表位置から前記指定領域を検出する領域検出機能と、
を実現させることを特徴とするプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016006684A JP2017126304A (ja) | 2016-01-15 | 2016-01-15 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
US15/249,538 US20170206661A1 (en) | 2016-01-15 | 2016-08-29 | Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016006684A JP2017126304A (ja) | 2016-01-15 | 2016-01-15 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017126304A true JP2017126304A (ja) | 2017-07-20 |
Family
ID=59314611
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016006684A Pending JP2017126304A (ja) | 2016-01-15 | 2016-01-15 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20170206661A1 (ja) |
JP (1) | JP2017126304A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019046329A (ja) * | 2017-09-05 | 2019-03-22 | 富士ゼロックス株式会社 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
JP2019101844A (ja) * | 2017-12-05 | 2019-06-24 | 富士ゼロックス株式会社 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
JP2021517308A (ja) * | 2018-03-21 | 2021-07-15 | グアンジョウ エックスエアークラフト テクノロジー カンパニー リミテッド | 作業対象領域境界の取得方法および装置、並びに作業経路の計画方法 |
US11508029B2 (en) | 2020-10-22 | 2022-11-22 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10810744B2 (en) * | 2016-05-27 | 2020-10-20 | Rakuten, Inc. | Image processing device, image processing method and image processing program |
CN108010037B (zh) * | 2017-11-29 | 2019-09-13 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及存储介质 |
JP7154877B2 (ja) * | 2018-08-22 | 2022-10-18 | キヤノン株式会社 | 画像投射装置、画像投射装置の制御方法、および、プログラム |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1115947A (ja) * | 1997-06-20 | 1999-01-22 | Sharp Corp | 画像処理装置 |
JP2006053921A (ja) * | 2004-08-09 | 2006-02-23 | Microsoft Corp | ダイナミックプログラミングによる境界マッティング |
JP2013140437A (ja) * | 2011-12-28 | 2013-07-18 | Canon Inc | 画像処理装置および画像処理方法 |
WO2014033792A1 (ja) * | 2012-08-31 | 2014-03-06 | 株式会社島津製作所 | 放射線断層画像生成装置、放射線断層撮影装置および放射線断層画像生成方法 |
JP2015121901A (ja) * | 2013-12-20 | 2015-07-02 | 日本放送協会 | 映像領域分割装置および映像領域分割プログラム |
WO2015141487A1 (ja) * | 2014-03-18 | 2015-09-24 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP2015176163A (ja) * | 2014-03-12 | 2015-10-05 | 株式会社メガチップス | 画像処理方法、画像処理装置、及びプログラム |
JP2015228594A (ja) * | 2014-05-30 | 2015-12-17 | 富士ゼロックス株式会社 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
-
2016
- 2016-01-15 JP JP2016006684A patent/JP2017126304A/ja active Pending
- 2016-08-29 US US15/249,538 patent/US20170206661A1/en not_active Abandoned
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1115947A (ja) * | 1997-06-20 | 1999-01-22 | Sharp Corp | 画像処理装置 |
JP2006053921A (ja) * | 2004-08-09 | 2006-02-23 | Microsoft Corp | ダイナミックプログラミングによる境界マッティング |
JP2013140437A (ja) * | 2011-12-28 | 2013-07-18 | Canon Inc | 画像処理装置および画像処理方法 |
WO2014033792A1 (ja) * | 2012-08-31 | 2014-03-06 | 株式会社島津製作所 | 放射線断層画像生成装置、放射線断層撮影装置および放射線断層画像生成方法 |
JP2015121901A (ja) * | 2013-12-20 | 2015-07-02 | 日本放送協会 | 映像領域分割装置および映像領域分割プログラム |
JP2015176163A (ja) * | 2014-03-12 | 2015-10-05 | 株式会社メガチップス | 画像処理方法、画像処理装置、及びプログラム |
WO2015141487A1 (ja) * | 2014-03-18 | 2015-09-24 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP2015228594A (ja) * | 2014-05-30 | 2015-12-17 | 富士ゼロックス株式会社 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
Non-Patent Citations (4)
Title |
---|
VICTOR LEMPITSKY ET AL.: ""Image Segmentation with A Bounding Box Prior"", 2009 IEEE 12TH INTERNATIONAL CONFERENCE ON COMPUTER VISION, JPN6019040907, 29 September 2009 (2009-09-29), US, pages 277 - 284, XP031672592, ISSN: 0004140940 * |
杉山 春樹、外2名: ""極値点情報とGrabCutを利用した食事画像の領域分割"", 情報処理学会 シンポジウム 画像の認識・理解シンポジウム(MIRU) 2011, JPN6020008323, 20 July 2011 (2011-07-20), JP, pages 1538 - 1544, ISSN: 0004227308 * |
照井 翔太、外3名: ""カテゴリの特性情報を用いたセマンティックセグメンテーション法の検討"", 電子情報通信学会技術研究報告, vol. 114, no. 455, JPN6019040906, 12 February 2015 (2015-02-12), JP, pages 119 - 124, ISSN: 0004140939 * |
白石 馨、米元 聡: ""グラフカットによる矩形内の対象領域抽出についての検討"", 第74回(平成24年)全国大会講演論文集(2), JPN6020008321, 6 March 2012 (2012-03-06), JP, pages 407 - 408, ISSN: 0004268608 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019046329A (ja) * | 2017-09-05 | 2019-03-22 | 富士ゼロックス株式会社 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
JP2019101844A (ja) * | 2017-12-05 | 2019-06-24 | 富士ゼロックス株式会社 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
JP2021517308A (ja) * | 2018-03-21 | 2021-07-15 | グアンジョウ エックスエアークラフト テクノロジー カンパニー リミテッド | 作業対象領域境界の取得方法および装置、並びに作業経路の計画方法 |
JP7307743B2 (ja) | 2018-03-21 | 2023-07-12 | グアンジョウ エックスエアークラフト テクノロジー カンパニー リミテッド | 作業対象領域境界の取得方法および装置、並びに作業経路の計画方法 |
US11508029B2 (en) | 2020-10-22 | 2022-11-22 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium |
Also Published As
Publication number | Publication date |
---|---|
US20170206661A1 (en) | 2017-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017126304A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP5880767B2 (ja) | 領域判定装置、領域判定方法およびプログラム | |
US9792695B2 (en) | Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium | |
EP2827300A1 (en) | Area designating method and area designating device | |
US20170039683A1 (en) | Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium | |
US20060239548A1 (en) | Segmentation of digital images | |
JP6287337B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP5907196B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
WO2013015381A1 (ja) | 画像処理装置 | |
JP6241320B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
AU2014280985B2 (en) | Image processing apparatus, image processing method, image processing system, and program | |
CN102768625A (zh) | Windows用户界面的换肤方法和装置 | |
EP1864252A1 (en) | Segmentation of digital images | |
JP2014044595A (ja) | 線画着色システム | |
JP6930099B2 (ja) | 画像処理装置 | |
JP2018097415A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP2017162035A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP2016004309A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
KR100849847B1 (ko) | 배색 변경 장치 및 방법 | |
JP6919433B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP2019101844A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP2023031373A (ja) | 画像処理装置、画像処理システムおよびプログラム | |
CN114928731A (zh) | 一种智能颜色交互显示方法和设备 | |
JP2005266891A (ja) | 領域抽出方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200310 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200430 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200526 |