JP2018524732A - 半自動画像セグメンテーション - Google Patents

半自動画像セグメンテーション Download PDF

Info

Publication number
JP2018524732A
JP2018524732A JP2018500651A JP2018500651A JP2018524732A JP 2018524732 A JP2018524732 A JP 2018524732A JP 2018500651 A JP2018500651 A JP 2018500651A JP 2018500651 A JP2018500651 A JP 2018500651A JP 2018524732 A JP2018524732 A JP 2018524732A
Authority
JP
Japan
Prior art keywords
segmentation
background
foreground
image
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018500651A
Other languages
English (en)
Other versions
JP6547990B2 (ja
Inventor
浩行 武田
浩行 武田
モハマド ガラヴィ−アルカンサリ
モハマド ガラヴィ−アルカンサリ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2018524732A publication Critical patent/JP2018524732A/ja
Application granted granted Critical
Publication of JP6547990B2 publication Critical patent/JP6547990B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

ユーザ(例えば、タッチ画面への接触)によって与えられた点の近くに位置するオブジェクトの入力画像に対し、半自動(瞬時)カラー画像セグメンテーションを実行する。ユーザ選択点の周囲の(ユーザ選択点の周囲に存在する、又はユーザ選択点を取り囲む)対象オブジェクトのサイズ、形状及び色数を決定し、画素が属する領域が前景又は背景のいずれであるかを判定する。このオブジェクトを取り囲むデータを除去し、又はマスクを反転させてオブジェクトのデータを除去するために利用できる2値オブジェクトマスクを生成する。
【選択図】図4

Description

〔関連出願との相互参照〕
該当なし
〔連邦政府が支援する研究又は開発に関する記述〕
該当なし
〔コンピュータプログラム付属書の引用による組み入れ〕
該当なし
〔著作権保護を受ける資料の通知〕
本特許文献中の資料の一部は、アメリカ合衆国及びその他の国の著作権法に従って著作権保護を受ける。著作権の権利所有者は、合衆国特許商標庁の一般公開ファイル又は記録内に表される通りに第三者が特許文献又は特許開示を複製することには異議を唱えないが、それ以外は全ての著作権を留保する。著作権所有者は、限定するわけではないが米国特許法施行規則§1.14に従う権利を含め、本特許文献を秘密裏に保持しておく権利のいずれも本明細書によって放棄するものではない。
本発明は、一般に画像処理に関し、具体的には、半自動カラー画像セグメンテーションに関する。
画像セグメンテーションは、カラー画像を領域に区分化するプロセスである。最も単純な例は、既知の特性を有する前景オブジェクトを背景から分離するものである。
オブジェクトの画像範囲を周囲からセグメント化する様々な方法が試行されてきた。恐らく最も単純な方法は、閾値処理に基づくものである。例えば、ユーザ選択点が与えられた場合、セグメント化されるオブジェクトは、一定範囲内のユーザ選択点の色値(重心)と同様の色値を有する隣接画素の集合になる。この方法は、単一色のオブジェクトのみについて機能し、そうでない場合、ユーザは、複数の重心値を選択し、多色オブジェクトのセグメンテーションのためのカラー範囲を手動で選択して、選択されたオブジェクトの全ての要素を取得する必要がある。
「グラブカット」法は、2つのクラスのグレー範囲である前景及び背景が、前景画素又は背景画素の差異によって自動的に選択されるグレイスケール画像セグメンテーションのための「グラフカット」法の修正バージョンである別のカラー画像セグメンテーション法である。グラブカットでは、各前景クラス又は背景クラスをさらに複数のサブクラスに分割して多色オブジェクトを処理する。各サブクラスは、ベクトル値画素(すなわち、赤色、緑色及び青色)に起因して、重心色値及び共分散行列によって表される。伝統的な意味では、このようなモデルは混合モデルと呼ばれる。
カラー画素の確率密度関数は、重心及び共分散行列を用いてパラメータ化されたガウス関数の加重線形結合によって近似されることが多く、混合ガウスモデル(GMM)と呼ばれる。未分類の画素は、GMMを用いて最も近いクラスに分類し、重心及び共分散行列を用いて未分類の画素と各クラスとの間の距離を計算する。この方法は、古典的なベイズ分類器にすぎない。グラブカットの新規性は、距離測度の修正項(又は平滑項)である。未分類の画素の周囲の局所勾配の分析が考慮され、この点が、グラブカットが閾値法よりも良好に機能する1つの理由である。しかしながら、グラブカットでは、ユーザが関心オブジェクトの周囲にボックスを入力する必要がある。実際には、このボックスは、オブジェクトの位置だけでなく大まかなサイズを示す。さらに、セグメント化されたオブジェクトのわずかな修正のためのユーザ入力も必要である。
しかしながら、上述したように、通常、正しい画像セグメンテーションは、正しいセグメンテーション結果に至るために多くのユーザ入力を伴う。
従って、これまでのセグメンテーション法の欠点を克服しながら半自動画像セグメンテーションを可能にするほど十分に正確な画像セグメンテーション法に対するニーズが存在する。
本開示では、ユーザが与えた点の近くに位置するオブジェクトを半自動的に(瞬時に)セグメント化することを目的にしてカラー画像を受け取る。これまでの方法は、ロバスト性、平滑項に起因する計算の複雑さ、及びユーザの入力の単純さの観点から、このレベルの半自動セグメンテーションを実行するには不正確であった。
図1A〜図1Bに、半自動画像セグメンテーションの実施形態例を示す。図1Aには、画像内のオブジェクトを選択しているユーザを示す。タッチ入力を示しているが、同様に、以下に限定するわけではないが、タッチ入力(接触及び非接触)、オブジェクトへのカーソル移動、及び表向きはセグメント化対象のオブジェクトが周囲に位置する画像内の特定の位置を指し示す同様の手段を含む他のユーザ選択入力を利用することもできると理解されたい。画像内のオブジェクトを指し示すと、そのオブジェクトに関連する画素が、図1Bに示す画素に自動的にセグメント化される。この例には、(背景を廃棄して)オブジェクトを単独でセグメント化することを示しているが、これとは別に、残りの画像からオブジェクトを削除することも、或いは本開示の教示から逸脱することなく別の形でセグメンテーションを利用することもできると理解されたい。
このセグメンテーションプロセスを正確に実行するために追加のユーザ入力は必要ない。従って、開示する方法は、ユーザ選択点の周囲の(ユーザ選択点の周囲に存在する、又はユーザ選択点を取り囲む)対象オブジェクトのサイズ、形状及び色数を半自動的に推定するように構成される。セグメンテーションが開始されると、方法は、画素が前景又は背景のどちらの領域に属するかを独自に判定する。ユーザ選択は、説明するプロセスの唯一の非自動化部分であるが、あまり好ましくはないものの、本発明の教示から逸脱することなく他のステップ(例えば、パラメータ選択、検証ステップ、セグメンテーション対象の選択など)を追加することもできる。本開示は、半自動画像セグメンテーションシステムの全体的枠組みを提示する。
本明細書の以下の部分では、本発明のさらなる態様を示すが、この詳細な説明は、本発明の好ましい実施形態に制限を課すことなく完全に開示することを目的とする。
本発明は、例示のみを目的とする以下の図面を参照することによってさらに完全に理解されるであろう。
本開示の実施形態に従って行われるオブジェクトのユーザ選択を示す画像である。 本開示の実施形態による、周囲からセグメント化された選択オブジェクトを示す図である。 本開示の実施形態による半自動セグメンテーションのフロー図である。 本開示の実施形態による半自動セグメンテーションのフロー図である。 本開示の実施形態による、既知のオブジェクトの半自動セグメンテーションのフロー図である。 本開示の実施形態による、未知のオブジェクトの半自動セグメンテーションのフロー図である。 本開示の実施形態による、期待値最大化(EM)を用いた半自動セグメンテーションのフロー図である。 本開示の実施形態による、半自動画像セグメンテーション中のホール回復のフロー図である。 本開示の実施形態による、半自動画像セグメンテーションプロセスのステップを詳述する画像である。 本開示の実施形態による、半自動画像セグメンテーションプロセスのステップを詳述する画像である。 本開示の実施形態による、半自動画像セグメンテーションプロセスのステップを詳述する画像である。 本開示の実施形態による、半自動画像セグメンテーションプロセスのステップを詳述する画像である。 本開示の実施形態による、半自動画像セグメンテーションプロセスのステップを詳述する画像である。 本開示の実施形態による、半自動画像セグメンテーションプロセスのステップを詳述する画像である。
1.序文
本開示(システム/方法/装置)は、色ヒストグラムのコントラストによる顕著性検出のいくつかの要素を利用して、背景技術に見られるセグメンテーションの課題を克服するものである。
1.1.半自動セグメンテーション
本開示は、本明細書において人間オブジェクトとして例示する既知のオブジェクトと、本明細書において非人間オブジェクトとして例示する未知のオブジェクトという2つのタイプのオブジェクトを考慮するように構成される。これらの異なるオブジェクトタイプには、2つの異なるけれども同様の方法を利用する。
1.2.EM法
特に、ユーザ入力などに応じて、オブジェクトのサイズ及び形状、色数(すなわち、クラスパラメータ)を含む重要な情報がシステムに提供されない場合には、シングルタッチセグメンテーションの問題が課題となる。クラス情報(パラメータ)のない分類問題は、教師なし分類問題と呼ばれる。システムは、セグメンテーション問題の解決において、画素を分類してクラスパラメータを同時に推定するように構成される。1つの問題解決方法は、期待値最大化(EM)アルゴリズムと呼ばれる。本開示では、この方法を利用して、本開示の実施形態によるジョイントベイズ分類器を用いてクラスパラメータ及びオブジェクトマスクを推定する。
1.3.マルチスケールスキーム
セグメンテーションプロセスの安定性を改善して計算コストを抑えるために、マルチスケールスキームに依拠する。このマルチスケールプロセスでは、マスクを粗い解像度で推定した後に、より細かな解像度に徐々に精細化する。16分の1(1/16)の解像度にダウンスケーリングする例を示すが、本開示の実施形態は、入力画像を64分の1(1/64)の解像度にダウンスケーリングするようにも構成される。本開示は、本開示の教示から逸脱することなくあらゆる実用的レベルへのダウンスケーリングを利用することができると理解されたい。
1.4.既知のオブジェクトの識別
実際のセグメンテーションを実行する前に、システムは、本明細書では顔検出プロセス(方法)を用いて人間オブジェクトについて例示する既知のオブジェクト検出プロセスを実行して、所与の画像内に存在する可能性のあるあらゆる顔を発見する。検出された顔を使用して、関連する人間オブジェクトを事前にセグメント化する。次に、ユーザ選択点がいずれかの人間オブジェクトの領域内に存在するかどうかを判定する。選択点がこれらの人間オブジェクトのうちの1つの中に存在する場合、事前にセグメント化した結果を用いてオブジェクトマスクを初期化し、その後にオブジェクトマスクをより細かな解像度に精細化する。本開示の少なくとも1つの実施形態では、歩行者(全身人間)検出プロセス又はその他のオブジェクト検出方法を利用して、特定のオブジェクトの位置及びサイズを識別することができる。なお、顔検出プロセスは一例に過ぎず、当業者であれば、本開示から逸脱することなく、限定するわけではないが車両検出及び歩行者(全身人間)などを含む他の形のオブジェクト検出が利用可能であり、これらを同様に利用することもできると理解するであろう。
1.5.未知のオブジェクトの識別
この方法は、未知のオブジェクトについて、まずセグメンテーションプロセスに何らかの停止基準を設定した二分探索法によって最良の円形初期マスクサイズを検索する。セグメンテーションは、EM法が収束した時にのみ正常に終了する。最適な初期マスクサイズは、セグメンテーションプロセスがどのように終了したかに基づいて決定される。
2.技術的詳細及び実施形態
図2A〜図2Bに、本開示による半自動セグメンテーションプロセスの実施形態例10を示す。カラー画像などのオリジナル入力データ12を、好ましくは深度マップ及びヒストグラムコントラスト、並びにユーザ選択点(x、y画像座標)と共に受け取り、これを複数の画像ダウンサンプリング段階を実行する画像ピラミッド構築部14に提供する(13)。第1のダウンサンプリング16を実行し、オリジナル解像度の4分の1(1/4)、すなわち水平方向及び垂直方向の各々に2分の1(1/2)解像度だけ低減したものとして例示するような低解像度の画像を出力する(18)。次に第2のダウンサンプリング20を実行して、本明細書ではオリジナル画像解像度の16分の1(1/16)として示す、やはり低解像度を出力する(22)。いくつかの実施形態では、1段階当たりのダウンサンプリング量を増加させ、又はダウンサンプリングの段階数を増加させることにより、画像をさらにダウンサンプリングすることもできる。ダウンサンプリングレベルを増加させると、入力画像が非常に高い画素数(例えば、高解像度又は大きな画像サイズ)を有する場合に特に有用である。このダウンスケーリング画像に対して、既知のオブジェクトセグメンテーション24を実行する。このセグメンテーションは、本明細書では人間オブジェクトを考慮するように例示する、既知のオブジェクトの事前セグメンテーションである。ユーザが後続のセグメンテーション決定において異なる画像位置を選択した場合、この事前セグメンテーションの結果がメモリに記憶される。ユーザ選択点がいずれかの既知のオブジェクト内に存在するかどうかを判定する(26)。存在する場合(36)には、事前にセグメントした結果からユーザが選択したオブジェクトのセグメンテーションマスクを取得するオブジェクトマスク生成38を実行してオブジェクトマスクを生成する(40)。オブジェクトが既知のオブジェクトでない(ユーザが未知のタイプのオブジェクトを選択(例えば、タッチ)した)場合(28)には、図4に示すような未知のオブジェクトセグメンテーションプロセス30を実行する。未知のオブジェクトセグメンテーションに失敗した(32)場合には、ユーザ選択点の周囲の所与の範囲を取り囲む円形マスクなどのデフォルトマスクが戻される。そうでなければ、未知のオブジェクトのオブジェクトマスクが生成される(34)。その後、オブジェクトが既知であるか、それとも未知であるかに関わらず、最近傍法などによってオブジェクトマスクをアップスケーリングして(42)マスクを出力する(44)。なお、この例によれば、マスクは依然として4分の1(1/4)解像度などの低解像度である。
次に、オブジェクトマスク44及び低解像度画像18を使用して、より細かな画像解像度でセグメンテーションを実行する(46)。この段階で、システムは、低画像解像度で推定された良好なマスクを既に有している。次に、方法は、図5で説明するような同じセグメンテーション法を使用して、アップスケーリングされたオブジェクトマスクを精細化する。このセグメンテーション中に不具合が生じた(48)場合、セグメンテーションプロセスは停止され、アップスケーリングされた有効なマスクが最終結果として戻される。そうでなくセグメンテーションが正常な場合には、ここでは4分の1(1/4)解像度として示す低解像度などでマスクが出力される(50)。次に、正常なオブジェクトマスクに対してアップスケーリング52を実行して、オリジナル解像度の初期マスクを生成する(54)。一般的には、このセグメンテーションプロセス及びアップスケーリングプロセスは、画像がダウンサンプリングされた回数と同じ回数だけ繰り返されると理解されたい。次に、オリジナル画像解像度でセグメンテーションを実行する(56)。不具合が検出された(58)場合、セグメンテーションプロセスは停止され、アップスケーリングされた有効なマスクが最終結果として戻される。正常なセグメンテーションでは、ホールのないオリジナル解像度のマスクが生成されて(60)、ホール回復プロセス62によって受け取られる。ホール回復に失敗した64場合には、プロセスが停止されて、ホールのないオリジナル解像度のマスクが戻される。最後に、推定されるオブジェクトマスクにホール回復プロセスを適用して、図6に説明する方法などを使用してオブジェクトのホールを回復させて、推定されるオブジェクトマスクを出力する(66)。
この図及びその他の図に示す開示するシステム/装置/方法は、プロセッサによる実行時に本開示の文章及び図全体を通じて説明する画像処理ステップを実行する命令を記憶する少なくとも1つのメモリ69bに結合された少なくとも1つのプロセッサ69aなどを含むコンピュータ処理68によって実行されることが好ましい画像処理を使用するものであると理解されたい。説明を単純にするために、各図には処理ブロックを示していない。
図3に、本開示による既知のオブジェクトのセグメンテーションの実施形態例70を示す。最初に顔検出プロセス72によっていずれかの顔の位置及びその大まかなサイズを発見することにより、大まかな人間オブジェクトセグメンテーションを実行する。これらの顔の各々について(74)、顔の周囲の考えられる毛髪部分の境界(例えば、矩形)、及び毛髪境界の周囲の初期背景領域のための別の境界(例えば、矩形)を描き、顔の境界と毛髪の境界とを初期背景領域としてセグメンテーション78を開始することなどによって、初期マスクを生成する76。この初期セグメンテーション78は、ダウンスケーリング画像、深度及びヒストグラムコントラスト80を利用するように構成されることが好ましい。一例として、オリジナルの1/16の解像度を利用することができる。次に、人間オブジェクトマスクを記憶する(82)。ループは、次の顔84に続き、ブロック76に戻って、検出された顔の各々に関連する人間オブジェクトの全ての初期セグメンテーションを実行し終えるまで、さらに多くの人間オブジェクトのセグメンテーションを行う。本明細書において人間オブジェクトとして例示する既知のオブジェクトを識別する際には、様々な方法を単独で、又はあらゆる所望の組み合わせで利用することができると理解されたい。このプロセスが完了すると、推定された人間オブジェクトマスクが戻される(86)。
深度マップ及びヒストグラムコントラストマップは別個の出願によって提供され、これらは本特許出願の主題ではない。深度マップ推定値は、例えば異なる焦点設定で取り込んだ一連の画像から取得することができる。ヒストグラムコントラストマップは、セグメンテーションプロセスの前に計算される。
セグメンテーションプロセスは、画素を前景又は背景に分類するものと見なすことができる。開示するセグメンテーションでは、画素色値(例えば、赤色、緑色、青色)を利用することに加え、各画素の深度及びヒストグラムコントラストを含むベクトルXを、X=[赤色、緑色、青色、深度、ヒストグラムコントラスト]として形成する。これに応じて、5×1ベクトルを分類することによって前景をセグメント化する。
図4に、本開示による未知のオブジェクトセグメンテーションの実施形態例90を示す。このプロセスは、最適な初期マスクサイズの二分探索に応答して実行される。二分探索アルゴリズムの反復Nの最大数94に合わせて、最小マスク直径dmin及び最大マスク直径dmaxを初期化する(92)。
ユーザ選択点98の周囲に直径d=(dmax−dmin)/2を設定し、これに前の試行からの背景領域を追加した初期円形オブジェクトマスクを生成する(96)。最初のパスでは、初期背景の前景領域の周囲のわずかに大きな円が選択される。セグメンテーションプロセス100は、ダウンスケーリング画像、深度及びヒストグラムコントラスト102(例えば、1/16解像度)を用いて開始する。セグメンテーションに成功したかどうかを判定する(104)。セグメンテーションが正常に完了した場合、プロセスは、推定されるオブジェクトマスクを戻す探索によって停止する(106)。そうでなければ、失敗したセグメンテーションのための処理110を実行する(108)。時間切れ、又はセグメンテーション関数の最大反復数に達したこと、又はオブジェクトマスクサイズが最大サイズを超えたことによってセグメンテーションに失敗した場合、110において、dmax=(dmax−dmin)/2などのdによってdmaxを更新する。或いは、オブジェクトサイズが小さくなりすぎたことによってセグメンテーションに失敗した場合、dmin=(dmax−dmin)/2などのdによってdminを更新して円形マスクを出力し(112)、次のnを選択して(114)ループ閾値のチェック(n>N)を行う(116)。Nに達していなかった場合には(118)、ブロック94に戻る。そうでなくn>Nの場合には、直径dの円形マスクを戻す(120)。
図5に、本開示による期待値最大化(EM)を用いたセグメンテーションの実施形態例130を示す。この方法は、画像、画像の深度、ヒストグラムコントラスト及び画像の初期マスクを含む情報が与えられると(132)、最初に平均二乗誤差に基づいて各前景又は背景の最適なクラス数を推定し(134)、単純量子化器(例えば、最小分散分類器)によって前景画素又は背景画素を量子化して、前景領域及び/又は背景領域の初期クラスを生成する。なお、入力画像は、ユーザのカメラ又はモバイル装置などの画像取り込み装置によって取り込まれる。深度マップは、当業で周知のように、カメラ又はモバイル装置のいずれかで動作する別個のアプリケーションによって推定される。
次に、画像内の評価点を発見(136)し、方法は、計算コストを抑えるために、前景−背景境界の付近に位置する点のみを評価する。次に、現在のクラスに基づいてクラスパラメータを更新(又は生成)138(Eステップ)した後に、本開示によるジョイントベイズ分類器を用いて画素を評価して、評価点の画素を分類140する(Mステップ)。次に、前景領域内からホールを取り除く(142)。いずれかの画素が動いたかどうかを判定する(144)。前景クラスと背景クラスとの間で画素が動いていない場合(146)、前景画素の次に未分類の画素を追加(148)した後にステップ150に進む。そうでなく画素が動いていた場合、実行経路158に進む。新たな領域が加わったかどうかを判定する(150)。新たな領域が加わっていない場合には、セグメンテーションが正常に完了してオブジェクトマスクが戻され(152)、そうでなければ新たな領域が存在する(154)。
いずれかの画素が動いていた場合、又はいずれかの新たな領域が加わった場合には、停止基準を評価する。マスクが小さすぎるかどうかの判定156、マスクが大きすぎるかどうかの判定160、最大反復に達したかどうかの判定162、ランタイム値に達したかどうかの判定164を含めて、停止基準を順にチェックする。これらの停止基準のいずれかが満たされている場合、セグメンテーションに失敗した旨の指示を戻すと同時に初期セグメンテーションマスクを戻し(165)、少なくとも1つの好ましい実施形態では、セグメンテーションに失敗した原因も戻す。戻されたセグメンテーション失敗の原因は、初期オブジェクトサイズの二分探索に使用されると理解されたい。停止基準がいずれも満たされていない場合には、ブロック166を実行して、ユーザがプロセスの取り消し/中断を行ったかどうかを判定する。ユーザがプロセスを取り消した場合には、一掃及び終了168を実行し、そうでなければステップ134に進んで別のセグメンテーションの試行を行う。
図6に、本開示による期待値最大化(EM)法を用いたホール回復の実施形態例170を示す。この方法は、画像、画像の深度、ヒストグラムコントラスト及び画像の初期マスクを含む情報が与えられると(172)、最初に平均二乗誤差に基づいて各前景又は背景の最適な適応的クラス数を推定し(174)、単純量子化器(例えば、最小分散分類器)によって前景画素又は背景画素を量子化して、これらの前景領域又は背景領域の初期クラスを生成する。前景画素が最も近い背景クラスにどれほど近いかを示す信頼マップを生成する(176)。次に、評価点を発見する178。なお、この実施形態は、信頼値の低い前景画素のみを評価する。次に、現在のクラスに基づいてクラスパラメータの更新(又は生成)を実行する(180)(Eステップ)。次に、ジョイントベイズ分類器を用いて画素を評価することにより、評価点の画素を分類する(182)(Mステップ)。ジョイントベイズ分類器は別個の出願であり、本出願の主題ではないと理解されたい。
いずれかの画素が動いたかどうかを判定する(184)。前景クラスと背景クラスとの間で画素が動いていない場合、セグメンテーションが正常に完了して(186)推定されたオブジェクトマスクを戻す。そうでなくいずれかの画素が動いていた場合(188)には、いくつかの停止基準を順に評価し、いずれかの停止基準が満たされている場合、セグメンテーションに失敗して(197)初期マスクを戻す。これらの停止基準は、マスクが小さすぎるかどうかの判定190、マスクが大きすぎるかどうかの判定192、最大反復数に達したかどうかの判定194、実行時間基準に達した/超えたかどうかの判定196を含む。停止基準がいずれも満たされていない場合には、最初にプロセスが取り消されたかどうかをチェック(198)した後にプロセスを続行する。プロセスが取り消された(200)場合には、一掃及び終了を行い、そうでなければループの最初のステップ174に戻る。
3.半自動セグメンテーションの結果
図7A〜図7Fに、本開示による人間オブジェクトの半自動セグメンテーションの例を示す。図7Aには、人間オブジェクトの初期背景210を選択する第1のステップを示す。次に、顔の検出に応答して、顔の周囲212にボックスが描かれ、毛髪領域の周囲に背景領域のためのボックス描かれる(214)。図7Bでは、背景がグレー218、顔及び毛髪領域(前景)が白220、関心領域の外側が黒色範囲216である初期2値セグメンテーションマスクを生成する第2のステップを示す。図7Cには、本開示のジョイントベイズ分類器(JBC)を用いて初期2値セグメンテーションマスクを精細化する第3のステップを示す。前景領域が現在のROIのエッジに達した場合、又は近すぎる場合には、左向き、右向き、上向き及び下向きに拡大する関心領域(ROI)が示される。図7Dに、拡大されたオブジェクト範囲を示しており、これ自体をさらに拡大することもできる。図7Eには、停止基準の1つが満たされた時にセグメンテーションが終了する第4のステップを示す。図7Fには、推定されるセグメンテーションマスクの2値化に応答して人間オブジェクトを分離する、生成されたオブジェクトマスクを示す。
4.応用分野
上述したように、本開示の半自動セグメンテーションプロセスは、デジタルカメラ、又は画像を処理するように構成されたその他のコンピュータ装置内で応用することができる。開示したセグメンテーションの実装では、ヒストグラムコントラストを計算する関数を利用する。深度は別個の出願によって推定され、深度情報が利用可能でない場合、本開示の少なくとも1つの実施形態は、深度情報を使用せずにオブジェクトマスクを推定する。本開示は、背景からのオブジェクトのセグメント化、又は選択されたオブジェクトからの背景のセグメント化に加えて、ビデオ調査の分野、及びロボット産業における機械視野の分野などの他の用途で利用することもできる。
5.コンピュータプロセッサ上で実行される方法ステップ
提示した技術において説明した拡張は、様々な画像処理システム内に容易に実装することができる。特に、処理オーバヘッド要件は、ディスプレイ及びユーザインターフェイスを有するデジタルカメラ装置又は携帯電話機内で本方法を実行できるほど十分に低い。また、デジタルカメラ及び携帯電話機、並びに他の画像処理装置は、1又は2以上のコンピュータプロセッサ装置(例えば、CPU、マイクロプロセッサ、マイクロコントローラ、コンピュータ対応ASICなど)及び関連するメモリ(例えば、RAM、DRAM、NVRAM、FLASH、コンピュータ可読媒体など)を含むように実装されることにより、メモリに記憶されてプロセッサ上で実行可能なプログラムが、本明細書で説明した様々なプロセス法のステップを実行することが好ましいと理解されたい。提示した技術は、メモリ及びコンピュータ可読媒体が非一時的なものであり、従って一時的電子信号を構成しない限り、これらに関して限定されるものではない。
本発明の実施形態は、コンピュータプログラム製品としても実装できる、本発明の実施形態による方法及びシステム、及び/又はアルゴリズム、数式又はその他の計算表現のフロー図を参照して説明することができる。この点、フロー図の各ブロック又はステップ、及びフロー図のブロック(及び/又はステップ)の組み合わせ、アルゴリズム、式、又は計算表現は、ハードウェア、ファームウェア、及び/又はコンピュータ可読プログラムコード論理の形で具体化された1又は2以上のコンピュータプログラム命令を含むソフトウェアなどの様々な手段によって実装することができる。理解されるように、このようなあらゆるコンピュータプログラム命令は、以下に限定されるわけではないが、汎用コンピュータ又は専用コンピュータ、又は機械を生産するためのその他のあらゆるプログラマブル処理装置を含むコンピュータ上にロードして、コンピュータ又はその他のプログラマブル処理装置上で実行されるコンピュータプログラム命令が、(単複の)フロー図の(単複の)ブロック内に特定される機能を実装するための手段を生み出すようにすることができる。
従って、フロー図のブロック、アルゴリズム、式、又は計算表現は、特定の機能を実行するための手段の組み合わせ、特定の機能を実行するためのステップの組み合わせ、及びコンピュータ可読プログラムコード論理手段の形で具体化されるような、特定の機能を実行するためのコンピュータプログラム命令をサポートする。また、本明細書で説明したフロー図の各ブロック、アルゴリズム、式、又は計算表現、及びこれらの組み合わせは、特定の機能又はステップを実行する専用ハードウェアベースのコンピュータシステム、又は専用ハードウェアとコンピュータ可読プログラムコード論理手段の組み合わせによって実装することもできると理解されるであろう。
さらに、コンピュータ可読プログラムコード論理などの形で具体化されるこれらのコンピュータプログラム命令を、コンピュータ又はその他のプログラマブル処理装置に特定の態様で機能するように指示することができるコンピュータ可読メモリに記憶して、これらのコンピュータ可読メモリに記憶された命令が、(単複の)フロー図の(単複の)ブロック内で指定される機能を実施する命令手段を含む製造の物品を生産するようにすることもできる。コンピュータプログラム命令をコンピュータ又はその他のプログラマブル処理装置上にロードし、コンピュータ又はその他のプログラマブル処理装置上で一連の動作ステップが実行されるようにしてコンピュータで実施される処理を生成し、コンピュータ又はその他のプログラマブル処理装置上で実行される命令が、(単複の)フロー図の(単複の)ブロック、(単複の)アルゴリズム、(単複の)式、又は(単複の)計算表現内に特定される機能を実施するためのステップを提供するようにすることもできる。
さらに、本明細書で使用する「プログラム」は、本明細書で説明した機能を実行するためにプロセッサが実行できる1又は2以上の命令を意味すると理解されるであろう。プログラムは、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせで具体化することができる。プログラムは、装置の非一時的媒体に局所的に記憶することも、又はサーバなどに遠隔的に記憶することもでき、或いはプログラムの全部又は一部を局所的に又は遠隔的に記憶することもできる。遠隔的に記憶されたプログラムは、ユーザが開始することによって、或いは1又は2以上の要因に基づいて自動的に装置にダウンロード(プッシュ)することができる。さらに、本明細書で使用するプロセッサ、中央処理装置(CPU)及びコンピュータという用語は、プログラム、並びに入力/出力インターフェイス及び/又は周辺装置との通信を実行できる装置を示すために同義的に使用されると理解されるであろう。
本明細書の説明から、本開示は、限定ではないが以下の内容を含む複数の実施形態を含むことができると理解されるであろう。
1.画像オブジェクトを残りの画像から半自動的にセグメント化するための装置であって、(a)取り込まれたカラーデジタル画像の画像処理を行い、前記カラー画像内のセグメンテーションを適用すべきオブジェクトを識別するユーザ選択位置としてのユーザ選択入力を受け取るように構成されたプロセッサと、(b)命令を記憶するメモリとを備え、(c)前記命令は、プロセッサによって実行された時に、前記カラー画像内の前景としてのオブジェクトをその背景からセグメント化することを実行し、セグメント化は、(c)(i)オブジェクトのセグメント化の開始時に前記カラー画像をダウンスケーリングし、セグメンテーションが進行するにつれて1又は2以上のより細かな解像度を選択するステップと、(c)(ii)ジョイントベイズ分類器を用いた期待値最大化(EM)を実行して近隣の画素を前景又は背景として分類し、同時に各画素の画素色値を利用することに応答してオブジェクトのクラスパラメータ及びオブジェクトマスクを推定するステップと、(c)(iii)オブジェクトの前記セグメント化を実行しながら、二分探索を実行して最良の初期マスクサイズを決定し、オブジェクトの前記セグメント化中に停止基準をチェックし、EM収束に応答して正常なセグメンテーションを完了させるステップと、(d)オブジェクトのオブジェクトマスクを生成するステップとを含む、装置。
2.前記命令は、プロセッサによって実行された時に、前景の画像オブジェクトを背景から分離するセグメンテーションを実行するように構成される、前述のいずれかの実施形態に記載の装置。
3.前記命令は、プロセッサによって実行された時に、深度情報又はヒストグラムコントラスト情報、或いはこれらの組み合わせを含むさらなる情報に応答して、ジョイントベイズ分類器を用いた期待値最大化(EM)を実行するように構成される、前述のいずれかの実施形態に記載の装置。
4.前記命令は、プロセッサによって実行された時に、画像オブジェクトが既知のオブジェクトであって、既知のオブジェクトの少なくとも一部を前記背景から識別するために使用される既知の特性を有する時に、事前セグメンテーションプロセスを実行するようにさらに構成される、前述のいずれかの実施形態に記載の装置。
5.前記既知のオブジェクトは、人間オブジェクト特性を有する人間である、前述のいずれかの実施形態に記載の装置。
6.前記命令は、プロセッサによって実行された時に、顔検出プロセスにおいて前記人間オブジェクト特性を利用して、人間オブジェクトを背景から事前にセグメント化する支援を行うように構成される、前述のいずれかの実施形態に記載の装置。
7.前記命令は、プロセッサによって実行された時に、検出された各顔の初期前景マスク、並びに検出された各顔の周囲の毛髪の部分に対して決定される境界、及び毛髪の境界を越えて初期背景領域として決定される別の境界を生成することによって前記事前セグメンテーションを実行するように構成される、前述のいずれかの実施形態に記載の装置。
8.前記命令は、プロセッサによって実行された時に、セグメンテーションを適用すべきオブジェクトを識別するための前記ユーザ選択位置に基づいて画像の前記セグメンテーションを実行するように構成され、オブジェクトのサイズ又は前記オブジェクトを取り囲む境界をユーザが入力又は別様に定義することを必要としない、前述のいずれかの実施形態に記載の装置。
9.前記命令は、プロセッサによって実行された時に、平均二乗誤差に基づいて前景画素及び/又は背景画素の最適な適応的クラス数を推定することによってジョイントベイズ分類器を用いた期待値最大化(EM)を実行し、量子化器によって前景画素及び/又は背景画素の量子化を実行して前景領域及び/又は背景領域の初期クラスを生成し、この初期クラスから、前景画素が最も近い背景クラスにどれほど近いかを示す信頼マップを生成し、現在のクラスに基づいてクラスパラメータの評価及び更新を行った(Eステップ)後に、ジョイントベイズ分類器を用いて画素を評価して評価点における画素を分類する(Mステップ)ように構成される、前述のいずれかの実施形態に記載の装置。
10.前記命令は、プロセッサによって実行された時に、前記カラー画像が表示された画面上のタッチ入力を含む前記ユーザ選択位置に基づいて前記セグメンテーションを実行するように構成される、前述のいずれかの実施形態に記載の装置。
11.画像オブジェクトを残りの画像から半自動的にセグメント化するための装置であって、(a)取り込まれたカラーデジタル画像の画像処理を行い、前記カラー画像内のセグメンテーションを適用すべきオブジェクトを識別するユーザ選択位置としてのユーザ選択入力を受け取るように構成されたプロセッサと、(b)命令を記憶するメモリとを備え、(c)前記命令は、プロセッサによって実行された時に、前記カラー画像内の前景としてのオブジェクトをその背景からセグメント化することを実行し、セグメント化は、(c)(i)オブジェクトのセグメント化の開始時に前記カラー画像をダウンスケーリングし、セグメンテーションが進行するにつれて1又は2以上のより細かな解像度を選択するステップと、(c)(ii)ジョイントベイズ分類器を用いた期待値最大化(EM)を実行して前記ユーザ選択位置の近隣の画素を前景又は背景として分類し、同時に各画素の画素色値、深度及びヒストグラムコントラストを利用することに応答してオブジェクトのクラスパラメータ及びオブジェクトマスクを推定するステップと、(c)(iii)オブジェクトの前記セグメント化を実行しながら、二分探索を実行して最良の初期マスクサイズを決定し、オブジェクトの前記セグメント化中に停止基準をチェックし、EM収束に応答して正常なセグメンテーションを完了させるステップと、(d)オブジェクトのオブジェクトマスクをユーザによって選択されたものとして生成するステップとを含む、装置。
12.前記命令は、プロセッサによって実行された時に、画像オブジェクトが既知のオブジェクトであって、既知のオブジェクトの少なくとも一部を背景画素から識別するために使用される既知の特性を有する時に、事前セグメンテーションプロセスを実行するようにさらに構成される、前述のいずれかの実施形態に記載の装置。
13.前記既知のオブジェクトは、人間オブジェクト特性を有する人間である、前述のいずれかの実施形態に記載の装置。
14.前記命令は、プロセッサによって実行された時に、顔検出プロセスにおいて前記人間オブジェクト特性を利用して、人間オブジェクトを背景から事前にセグメント化する支援を行うように構成される、前述のいずれかの実施形態に記載の装置。
15.前記命令は、プロセッサによって実行された時に、検出された各顔の初期前景マスク、並びに検出された各顔の周囲の毛髪の部分に対して決定される境界、及び毛髪の境界を越えて初期背景領域として決定される別の境界を生成することによって前記事前セグメンテーションを実行するように構成される、前述のいずれかの実施形態に記載の装置。
16.前記命令は、プロセッサによって実行された時に、セグメンテーションを適用すべき前記オブジェクトを識別するためのユーザ選択位置に基づいて画像の前記セグメンテーションを実行するように構成され、オブジェクトのサイズ又はオブジェクトを取り囲む境界をユーザが入力又は別様に定義することを必要としない、前述のいずれかの実施形態に記載の装置。
17.前記命令は、プロセッサによって実行された時に、平均二乗誤差に基づいて前景画素及び/又は背景画素の最適な適応的クラス数を推定することによってジョイントベイズ分類器を用いた期待値最大化(EM)を実行し、量子化器によって前景画素及び/又は背景画素を量子化して前景領域及び/又は背景領域の初期クラスを生成し、初期クラスから、前景画素が最も近い背景クラスにどれほど近いかを示す信頼マップを生成し、現在のクラスに基づいてクラスパラメータの評価及び更新を行った(Eステップ)後に、ジョイントベイズ分類器を用いて画素を評価して評価点における画素を分類する(Mステップ)ように構成される、前述のいずれかの実施形態に記載の装置。
18.前記命令は、プロセッサによって実行された時に、前記カラー画像が表示された画面上のタッチ入力を含む前記ユーザ選択位置に基づいて前記セグメンテーションを実行するように構成される、前述のいずれかの実施形態に記載の装置。
19.画像オブジェクトを残りの画像から半自動的にセグメント化する方法であって、(a)画像処理機能を実行するように構成された画像処理装置内でカラー画像を受け取るステップと、(b)前記カラー画像内のセグメンテーションを適用すべきオブジェクトを識別するユーザ選択位置としてのユーザ選択入力を受け取るステップと、(c)前記カラー画像内の前景としてのオブジェクトをその背景からセグメント化するステップとを含み、前記ステップ(c)は、(c)(i)オブジェクトのセグメント化の開始時に前記カラー画像をダウンスケーリングし、セグメンテーションが進行するにつれて1又は2以上のより細かな解像度を選択するステップと、(c)(ii)ユーザ選択位置に近接する、又はその周囲のオブジェクトのサイズ、形状及び色数を推定し、前景又は背景のいずれであるかに関わらず、近隣の画素がどの領域に属するかを決定するステップと、(c)(iii)ジョイントベイズ分類器を用いた期待値最大化(EM)を実行して近隣の画素を前景又は背景として分類し、同時にオブジェクトのクラスパラメータ及びオブジェクトマスクを推定するステップと、(c)(iv)オブジェクトの前記セグメント化を実行しながら、二分探索を実行して最良の初期マスクサイズを決定し、オブジェクトの前記セグメント化中に停止基準をチェックし、EM収束に応答して正常なセグメンテーションを完了させるステップと、(d)オブジェクトのオブジェクトマスクをユーザによって選択されたものとして生成するステップとを含む、方法。
20.前記セグメンテーションは、前景の画像オブジェクトを背景から分離するように構成される、前述のいずれかの実施形態に記載の方法。
21.セグメンテーションを実行する際に、セグメンテーション精度の向上に向けて、各画素の深度情報又はヒストグラムコントラスト情報、或いはこれらの組み合わせを利用して前景を背景から識別するステップをさらに含む、前述のいずれかの実施形態に記載の方法。
22.前記画像オブジェクトは既知のオブジェクトであって、既知のオブジェクトの少なくとも一部を背景画素から識別する事前セグメンテーションプロセスにおいて利用される既知の特性を有する、前述のいずれかの実施形態に記載の方法。
23.前記既知のオブジェクトは、人間オブジェクト特性を有する人間である、前述のいずれかの実施形態に記載の方法。
24.人間オブジェクトを背景から事前にセグメント化する支援を行うように顔検出プロセスを利用する、前述のいずれかの実施形態に記載の方法。
25.オブジェクトが、検出された各顔に初期前景マスク、並びに各検出された顔の周囲の毛髪の部分に対して決定される境界、及び毛髪の境界を越えて初期背景領域として決定される別の境界が生成された人間オブジェクトである場合、事前セグメンテーションプロセスを実行するステップをさらに含む、前述のいずれかの実施形態に記載の方法。
26.前記カラー画像内のセグメンテーションを適用すべきオブジェクトを識別するための前記ユーザ選択位置は、オブジェクトのサイズ又はオブジェクトを取り囲む境界をユーザが入力又は別様に定義することを必要としない、前述のいずれかの実施形態に記載の方法。
27.ジョイントベイズ分類器を用いた期待値最大化(EM)の実行中に、平均二乗誤差に基づいて前景画素及び/又は背景画素の最適な適応的クラス数を推定し、量子化器によって前景画素及び/又は背景画素の量子化を実行して前景領域及び/又は背景領域の初期クラスを生成し、この初期クラスから、前景画素が最も近い背景クラスにどれほど近いかを示す信頼マップを生成し、現在のクラスに基づいてクラスパラメータの評価及び更新を行った(Eステップ)後に、ジョイントベイズ分類器を用いて画素を評価して評価点における画素を分類する(Mステップ)、前述のいずれかの実施形態に記載の方法。
28.前記ユーザ選択位置は、前記カラー画像が表示された画面上のタッチ入力を含む、前述のいずれかの実施形態に記載の方法。
本明細書の説明は多くの詳細を含んでいるが、これらは本開示の範囲を限定するものではなく、現在のところ好ましい実施形態の一部を例示するものにすぎないと解釈すべきである。従って、本開示の範囲は、当業者に明らかになると考えられる他の実施形態も完全に含むと理解されるであろう。
特許請求の範囲における単数形の要素についての言及は、別途明確に示していない限り「唯一の」を意味するものではなく、むしろ「1又は2以上の」を意味するものである。当業者に周知の本開示の実施形態の要素の構造的及び機能的同等物も、引用によって本明細書に明確に組み入れられ、本特許請求の範囲に含まれることが意図される。さらに、本開示の要素、構成要素又は方法ステップは、これらが特許請求の範囲に明示されているかどうかにかかわらず、一般に公開されることを意図するものではない。本明細書における請求項の要素については、この要素が「〜のための手段」という表現を使用して明確に示されていない限り、「ミーンズプラスファンクション」の要素として解釈すべきではない。また、本明細書における請求項の要素については、この要素が「〜のためのステップ」という表現を使用して明確に示されていない限り、「ステッププラスファンクション」の要素として解釈すべきではない。
90 未知のオブジェクトセグメンテーション
92 最大及び最小マスク直径 dmax、dmin
94 n=1〜Nの場合
96 d=(dmax、dmin)/2による初期円形マスク生成
98 ユーザ選択点
100 セグメンテーション
102 1/16解像度のダウンスケーリング画像、深度及びヒストグラムコントラスト
104 成功か?
106 はい
108 いいえ
110 失敗したセグメンテーションのための処理
112 円形マスクを出力
114 次のn
116 n>N?
118 いいえ
120 はい

Claims (28)

  1. 画像オブジェクトを残りの画像から半自動的にセグメント化するための装置であって、
    (a)取り込まれたカラーデジタル画像の画像処理を行い、セグメンテーションを適用すべきオブジェクトを識別するための前記カラー画像内のユーザ選択位置としてのユーザ選択入力を受け取るように構成されたプロセッサと、
    (b)命令を記憶するメモリと、
    を備え、
    (c)前記命令が前記プロセッサによって実行されたときに、前記プロセッサが前記カラー画像内の前景としての前記オブジェクトをその背景からセグメント化することを実行し、前記命令は、
    (i)前記オブジェクトのセグメント化開始のときに前記カラー画像をダウンスケーリングし、セグメンテーションが進行するにつれて1又は2以上のより細かな解像度を選択するステップと、
    (ii)ジョイントベイズ分類器を用いた期待値最大化(EM)を実行して近隣の画素を前景又は背景として分類し、同時に各画素の画素色値を利用することに応答して前記オブジェクトのクラスパラメータ及びオブジェクトマスクを推定するステップと、
    (iii)前記オブジェクトの前記セグメント化を実行しながら、二分探索を実行して最良の初期マスクサイズを決定し、前記オブジェクトの前記セグメント化中に停止基準をチェックし、EM収束に応答して正常なセグメンテーションを完了させるステップと、
    (iv)前記オブジェクトのオブジェクトマスクを生成するステップと、
    を含む、
    ことを特徴とする装置。
  2. 前記命令は、前記プロセッサによって実行されたときに、前記前景の画像オブジェクトを前記背景から分離するセグメンテーションを実行するように構成される、
    請求項1に記載の装置。
  3. 前記命令は、前記プロセッサによって実行されたときに、深度情報又はヒストグラムコントラスト情報、或いはこれらの組み合わせを含むさらなる情報に応答して、ジョイントベイズ分類器を用いた期待値最大化(EM)を実行するように構成される、
    請求項1に記載の装置。
  4. 前記命令は、前記プロセッサによって実行されたときに、前記画像オブジェクトが、既知のオブジェクトの少なくとも一部を前記背景から識別するように使用される既知の特性を有する前記既知のオブジェクトであるときに、事前セグメンテーションプロセスを実行するようにさらに構成される、
    請求項1に記載の装置。
  5. 前記既知のオブジェクトは、人間オブジェクト特性を有する人間である、
    請求項4に記載の装置。
  6. 前記命令は、前記プロセッサによって実行されたときに、顔検出プロセスにおいて前記人間オブジェクト特性を利用して、前記人間オブジェクトを前記背景から事前にセグメント化する支援を行うように構成される、
    請求項5に記載の装置。
  7. 前記命令は、前記プロセッサによって実行されたときに、検出された各顔の初期前景マスク、並びに検出された各顔の周囲の毛髪の部分に対して決定される境界、及び前記毛髪の境界を越えて初期背景領域として決定される別の境界を生成することによって前記事前セグメンテーションを実行するように構成される、
    請求項6に記載の装置。
  8. 前記命令は、前記プロセッサによって実行されたときに、セグメンテーションを適用すべき前記オブジェクトを識別するための前記ユーザ選択位置に基づいて前記画像の前記セグメンテーションを実行するように構成され、前記オブジェクトのサイズ又は前記オブジェクトを取り囲む境界を前記ユーザが入力又は別様に定義することを必要としない、
    請求項1に記載の装置。
  9. 前記命令は、前記プロセッサによって実行されたときに、平均二乗誤差に基づいて前景画素及び/又は背景画素の最適な適応的クラス数を推定することによってジョイントベイズ分類器を用いた期待値最大化(EM)を実行し、量子化器によって前景画素及び/又は背景画素の量子化を実行して前景領域及び/又は背景領域の初期クラスを生成し、該初期クラスから、前記前景画素が最も近い背景クラスにどれほど近いかを示す信頼マップを生成し、現在のクラスに基づいてクラスパラメータの評価及び更新を行った(Eステップ)後に、ジョイントベイズ分類器を用いて画素を評価して評価点における画素を分類する(Mステップ)ように構成される、
    請求項1に記載の装置。
  10. 前記命令は、前記プロセッサによって実行されたときに、前記カラー画像が表示された画面上のタッチ入力を含む前記ユーザ選択位置に基づいて前記セグメンテーションを実行するように構成される、
    請求項1に記載の装置。
  11. 画像オブジェクトを残りの画像から半自動的にセグメント化するための装置であって、
    (a)取り込まれたカラーデジタル画像の画像処理を行い、セグメンテーションを適用すべきオブジェクトを識別するための前記カラー画像内のユーザ選択位置としてのユーザ選択入力を受け取るように構成されたプロセッサと、
    (b)命令を記憶するメモリと、
    を備え、
    (c)前記命令が前記プロセッサによって実行されたときに、前記プロセッサが前記カラー画像内の前景としての前記オブジェクトをその背景からセグメント化することを実行し、前記命令は、
    (i)前記オブジェクトのセグメント化開始のときに前記カラー画像をダウンスケーリングし、セグメンテーションが進行するにつれて1又は2以上のより細かな解像度を選択するステップと、
    (ii)ジョイントベイズ分類器を用いた期待値最大化(EM)を実行して前記ユーザ選択位置の近隣の画素を前景又は背景として分類し、同時に各画素の画素色値、深度及びヒストグラムコントラストを利用することに応答して前記オブジェクトのクラスパラメータ及びオブジェクトマスクを推定するステップと、
    (iii)前記オブジェクトの前記セグメント化を実行しながら、二分探索を実行して最良の初期マスクサイズを決定し、前記オブジェクトの前記セグメント化中に停止基準をチェックし、EM収束に応答して正常なセグメンテーションを完了させるステップと、
    (iv)前記オブジェクトのオブジェクトマスクを前記ユーザによって選択されたものとして生成するステップと、
    を含む、
    ことを特徴とする装置。
  12. 前記命令は、前記プロセッサによって実行されたときに、前記画像オブジェクトが、既知のオブジェクトの少なくとも一部を背景画素から識別するように使用される既知の特性を有する前記既知のオブジェクトであるときに、事前セグメンテーションプロセスを実行するようにさらに構成される、
    請求項11に記載の装置。
  13. 前記既知のオブジェクトは、人間オブジェクト特性を有する人間である、
    請求項12に記載の装置。
  14. 前記命令は、前記プロセッサによって実行されたときに、顔検出プロセスにおいて前記人間オブジェクト特性を利用して、前記人間オブジェクトを前記背景から事前にセグメント化する支援を行うように構成される、
    請求項13に記載の装置。
  15. 前記命令は、前記プロセッサによって実行されたときに、検出された各顔の初期前景マスク、並びに検出された各顔の周囲の毛髪の部分に対して決定される境界、及び前記毛髪の境界を越えて初期背景領域として決定される別の境界を生成することによって前記事前セグメンテーションを実行するように構成される、
    請求項14に記載の装置。
  16. 前記命令は、前記プロセッサによって実行されたときに、セグメンテーションを適用すべき前記オブジェクトを識別するための前記ユーザ選択位置に基づいて前記画像の前記セグメンテーションを実行するように構成され、前記オブジェクトのサイズ又は前記オブジェクトを取り囲む境界を前記ユーザが入力又は別様に定義することを必要としない、
    請求項11に記載の装置。
  17. 前記命令は、前記プロセッサによって実行されたときに、平均二乗誤差に基づいて前景画素及び/又は背景画素の最適な適応的クラス数を推定することによってジョイントベイズ分類器を用いた期待値最大化(EM)を実行し、量子化器によって前景画素及び/又は背景画素を量子化して前景領域及び/又は背景領域の初期クラスを生成し、該初期クラスから、前記前景画素が最も近い背景クラスにどれほど近いかを示す信頼マップを生成し、現在のクラスに基づいてクラスパラメータの評価及び更新を行った(Eステップ)後に、ジョイントベイズ分類器を用いて画素を評価して評価点における画素を分類する(Mステップ)ように構成される、
    請求項11に記載の装置。
  18. 前記命令は、前記プロセッサによって実行されたときに、前記カラー画像が表示された画面上のタッチ入力を含む前記ユーザ選択位置に基づいて前記セグメンテーションを実行するように構成される、
    請求項11に記載の装置。
  19. 画像オブジェクトを残りの画像から半自動的にセグメント化する方法であって、
    (a)画像処理機能を実行するように構成された画像処理装置内でカラー画像を受け取るステップと、
    (b)セグメンテーションを適用すべきオブジェクトを識別するための前記カラー画像内のユーザ選択位置としてのユーザ選択入力を受け取るステップと、
    (c)前記カラー画像内の前景としての前記オブジェクトをその背景からセグメント化するステップと、
    を含み、前記ステップ(c)は、
    (i)前記オブジェクトのセグメント化開始のときに前記カラー画像をダウンスケーリングし、セグメンテーションが進行するにつれて1又は2以上のより細かな解像度を選択するステップと、
    (ii)前記ユーザ選択位置に近接する、又はその周囲の前記オブジェクトのサイズ、形状及び色数を推定し、前記前景又は前記背景のいずれであるかに関わらず、近隣の画素がどの領域に属するかを決定するステップと、
    (iii)ジョイントベイズ分類器を用いた期待値最大化(EM)を実行して近隣の画素を前景又は背景として分類し、同時に前記オブジェクトのクラスパラメータ及びオブジェクトマスクを推定するステップと、
    (iv)前記オブジェクトの前記セグメント化を実行しながら、二分探索を実行して最良の初期の円形のマスクサイズを決定し、前記オブジェクトの前記セグメント化中に停止基準をチェックし、EM収束に応答して正常なセグメンテーションを完了させるステップと、
    (v)前記オブジェクトのオブジェクトマスクを前記ユーザによって選択されたものとして生成するステップと、
    を含む、
    ことを特徴とする方法。
  20. 前記セグメンテーションは、前記前景の画像オブジェクトを前記背景から分離するように構成される、
    請求項19に記載の方法。
  21. セグメンテーションを実行する際に、セグメンテーション精度の向上に向けて、各画素の深度情報又はヒストグラムコントラスト情報、或いはこれらの組み合わせを利用して前記前景を前記背景から識別するステップをさらに含む、
    請求項19に記載の方法。
  22. 前記画像オブジェクトは、既知のオブジェクトの少なくとも一部を背景画素から識別する事前セグメンテーションプロセスにおいて利用される既知の特性を有する既知のオブジェクトである、
    請求項19に記載の方法。
  23. 前記既知のオブジェクトは、人間オブジェクト特性を有する人間である、
    請求項22に記載の方法。
  24. 前記人間オブジェクトを前記背景から事前にセグメント化する支援を行うように顔検出プロセスを利用する、
    請求項23に記載の方法。
  25. 前記オブジェクトが、検出された各顔に初期前景マスク、並びに各検出された顔の周囲の毛髪の部分に対して決定される境界、及び前記毛髪の境界を越えて初期背景領域として決定される別の境界が生成された人間オブジェクトである場合、事前セグメンテーションプロセスを実行するステップをさらに含む、
    請求項19に記載の方法。
  26. セグメンテーションを適用すべきオブジェクトを識別するための前記カラー画像内の前記ユーザ選択位置は、前記オブジェクトのサイズ又は前記オブジェクトを取り囲む境界を前記ユーザが入力又は別様に定義することを必要としない、
    請求項19に記載の方法。
  27. ジョイントベイズ分類器を用いた期待値最大化(EM)の実行中に、平均二乗誤差に基づいて前景画素及び/又は背景画素の最適な適応的クラス数を推定し、量子化器によって前景画素及び/又は背景画素で量子化を実行して前景領域及び/又は背景領域の初期クラスを生成し、該初期クラスから、前記前景画素が最も近い背景クラスにどれほど近いかを示す信頼マップを生成し、現在のクラスに基づいてクラスパラメータの評価及び更新を行った(Eステップ)後に、ジョイントベイズ分類器を用いて画素を評価して評価点における画素を分類する(Mステップ)、
    請求項19に記載の方法。
  28. 前記ユーザ選択位置は、前記カラー画像が表示された画面上のタッチ入力を含む、
    請求項19に記載の方法。
JP2018500651A 2015-07-21 2016-07-15 半自動画像セグメンテーション Active JP6547990B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/804,433 2015-07-21
US14/804,433 US9443316B1 (en) 2015-07-21 2015-07-21 Semi-automatic image segmentation
PCT/US2016/042510 WO2017015117A1 (en) 2015-07-21 2016-07-15 Semi-automatic image segmentation

Publications (2)

Publication Number Publication Date
JP2018524732A true JP2018524732A (ja) 2018-08-30
JP6547990B2 JP6547990B2 (ja) 2019-07-24

Family

ID=56881404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018500651A Active JP6547990B2 (ja) 2015-07-21 2016-07-15 半自動画像セグメンテーション

Country Status (6)

Country Link
US (1) US9443316B1 (ja)
EP (1) EP3332356B1 (ja)
JP (1) JP6547990B2 (ja)
KR (1) KR101989756B1 (ja)
CN (1) CN107710228B (ja)
WO (1) WO2017015117A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020174862A1 (ja) * 2019-02-28 2020-09-03 ソニー株式会社 情報処理装置、情報処理方法および情報処理システム
JP2022528294A (ja) * 2019-07-15 2022-06-09 グーグル エルエルシー 深度を利用した映像背景減算法

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103489107B (zh) * 2013-08-16 2015-11-25 北京京东尚科信息技术有限公司 一种制作虚拟试衣模特图像的方法和装置
KR102161052B1 (ko) * 2013-08-27 2020-09-29 삼성전자주식회사 영상에서 객체를 분리하는 방법 및 장치.
AU2015212984A1 (en) * 2014-01-28 2016-06-23 Ventana Medical Systems, Inc. Adaptive classification for whole slide tissue segmentation
US10091435B2 (en) * 2016-06-07 2018-10-02 Disney Enterprises, Inc. Video segmentation from an uncalibrated camera array
US10692220B2 (en) * 2017-10-18 2020-06-23 International Business Machines Corporation Object classification based on decoupling a background from a foreground of an image
CN109993824B (zh) * 2017-12-29 2023-08-04 深圳市优必选科技有限公司 图像处理方法、智能终端及具有存储功能的装置
US10515463B2 (en) * 2018-04-20 2019-12-24 Sony Corporation Object segmentation in a sequence of color image frames by background image and background depth correction
KR20200013453A (ko) * 2018-07-30 2020-02-07 삼성전자주식회사 3차원 영상 표시 장치 및 영상 처리 방법
CN110889851B (zh) * 2018-09-11 2023-08-01 苹果公司 针对深度和视差估计的语义分割的稳健用途
CN111223118A (zh) * 2018-11-27 2020-06-02 富士通株式会社 图像处理装置、图像处理方法及计算机可读记录介质
US10839517B2 (en) * 2019-02-21 2020-11-17 Sony Corporation Multiple neural networks-based object segmentation in a sequence of color image frames
US11107219B2 (en) 2019-07-22 2021-08-31 Adobe Inc. Utilizing object attribute detection models to automatically select instances of detected objects in images
US11631234B2 (en) 2019-07-22 2023-04-18 Adobe, Inc. Automatically detecting user-requested objects in images
KR20210027894A (ko) * 2019-09-03 2021-03-11 삼성전자주식회사 주행 보조 시스템, 전자 장치 및 그 동작 방법
CN111028261B (zh) * 2019-11-15 2023-03-17 五邑大学 高精度半自动化图像数据标注方法、电子装置及存储介质
US11468110B2 (en) 2020-02-25 2022-10-11 Adobe Inc. Utilizing natural language processing and multiple object detection models to automatically select objects in images
US11055566B1 (en) 2020-03-12 2021-07-06 Adobe Inc. Utilizing a large-scale object detector to automatically select objects in digital images
CN111833239B (zh) * 2020-06-01 2023-08-01 北京百度网讯科技有限公司 图像的翻译方法和装置、图像翻译模型的训练方法和装置
CN112215769A (zh) * 2020-10-09 2021-01-12 深圳开立生物医疗科技股份有限公司 一种超声图像处理方法、装置及超声设备和存储介质
CN112529914B (zh) * 2020-12-18 2021-08-13 北京中科深智科技有限公司 一种实时头发分割方法和系统
US11587234B2 (en) 2021-01-15 2023-02-21 Adobe Inc. Generating class-agnostic object masks in digital images
KR102336480B1 (ko) * 2021-03-04 2021-12-07 주식회사 스누아이랩 자동 세그먼트 분류를 위한 영상처리장치 및 그 장치의 구동방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257693A (ja) * 2007-04-05 2008-10-23 Mitsubishi Electric Research Laboratories Inc シーン中に置き去りにされた物体を検出する方法
JP2014102820A (ja) * 2012-10-19 2014-06-05 Csr Technology Inc 撮像装置上における自動シネマグラフの作成方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7203360B2 (en) 2003-04-09 2007-04-10 Lee Shih-Jong J Learnable object segmentation
US7876947B2 (en) 2007-10-10 2011-01-25 Siemens Medical Solutions Usa, Inc. System and method for detecting tagged material using alpha matting
US20140321756A9 (en) * 2008-05-27 2014-10-30 Samsung Electronics Co., Ltd. System and method for circling detection based on object trajectory
CN101588459B (zh) * 2009-06-26 2011-01-05 北京交通大学 一种视频抠像处理方法
CN101814183B (zh) * 2010-01-08 2012-03-28 清华大学 用于图像分割的方法及系统
GB201209382D0 (en) 2012-05-25 2012-07-11 Poikos Ltd Body measurement
CN102663757A (zh) * 2012-04-20 2012-09-12 西安电子科技大学 基于核传递的半自动图像分割方法
CN104063876B (zh) * 2014-01-10 2017-02-01 北京理工大学 一种交互式图像分割方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257693A (ja) * 2007-04-05 2008-10-23 Mitsubishi Electric Research Laboratories Inc シーン中に置き去りにされた物体を検出する方法
JP2014102820A (ja) * 2012-10-19 2014-06-05 Csr Technology Inc 撮像装置上における自動シネマグラフの作成方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHAD CARSON, 外3名: ""Blobworld:image segmentation using expectation-maximization and its application to image querying"", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 第24巻, 第8号, JPN6019008599, 7 November 2002 (2002-11-07), pages 1026 - 1038, ISSN: 0003995021 *
STUART GEMAN, 外1名: ""Stochastic relaxation, gibbs distributions, and the bayesian restoration of images"", IEEE TRANSACTION ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 第PAMI−6巻, 第6号, JPN6019008600, November 1984 (1984-11-01), pages 721 - 741, ISSN: 0003995022 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020174862A1 (ja) * 2019-02-28 2020-09-03 ソニー株式会社 情報処理装置、情報処理方法および情報処理システム
JP2022528294A (ja) * 2019-07-15 2022-06-09 グーグル エルエルシー 深度を利用した映像背景減算法
JP7110502B2 (ja) 2019-07-15 2022-08-01 グーグル エルエルシー 深度を利用した映像背景減算法
US11727577B2 (en) 2019-07-15 2023-08-15 Google Llc Video background subtraction using depth

Also Published As

Publication number Publication date
EP3332356A1 (en) 2018-06-13
CN107710228A (zh) 2018-02-16
WO2017015117A1 (en) 2017-01-26
KR101989756B1 (ko) 2019-06-14
KR20180017097A (ko) 2018-02-20
US9443316B1 (en) 2016-09-13
CN107710228B (zh) 2021-11-12
JP6547990B2 (ja) 2019-07-24
EP3332356A4 (en) 2019-03-20
EP3332356B1 (en) 2021-04-21

Similar Documents

Publication Publication Date Title
JP6547990B2 (ja) 半自動画像セグメンテーション
CN110717489B (zh) Osd的文字区域的识别方法、装置及存储介质
Zhang et al. Image segmentation based on 2D Otsu method with histogram analysis
US9922425B2 (en) Video segmentation method
JP5223675B2 (ja) 車両検知装置,車両検知方法並びに車両検知プログラム
US9576347B2 (en) Structure analysis method for recovering missing structures in an image after object removal
JP4905931B2 (ja) 人体領域抽出方法および装置並びにプログラム
JP4699298B2 (ja) 人体領域抽出方法および装置並びにプログラム
JP2007510993A (ja) 画像中のオブジェクト検出
TWI494899B (zh) 影像內週期性雜訊修補方法
US10079974B2 (en) Image processing apparatus, method, and medium for extracting feature amount of image
Wang et al. Car license plate detection based on MSER
EP2821935B1 (en) Vehicle detection method and device
Gilly et al. A survey on license plate recognition systems
JPWO2012046426A1 (ja) 物体検出装置、物体検出方法および物体検出プログラム
WO2016059643A1 (en) System and method for pedestrian detection
JP2018142828A (ja) 付着物検出装置および付着物検出方法
JP6077785B2 (ja) 対象物検出装置及びプログラム
CN106780646B (zh) 一种适用多场景的无参数背景建模方法
US9437008B1 (en) Image segmentation using bayes risk estimation of scene foreground and background
Allebosch et al. Edge based Foreground Background Estimation with Interior/Exterior Classification.
US20240037985A1 (en) Cascaded detection of facial attributes
KR102131243B1 (ko) 딥러닝 및 연결성 그래프에 기초한 식물 영역 추출 시스템 및 방법
CN112926417A (zh) 基于深度神经网络的行人检测方法、系统、设备及介质
Gopinath et al. Deep Learning based Automated Parking Lot Space Detection using Aerial Imagery

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190611

R151 Written notification of patent or utility model registration

Ref document number: 6547990

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151