JP6889417B2 - 一連の画像の画像内のオブジェクト境界安定化のための画像処理装置及び方法 - Google Patents

一連の画像の画像内のオブジェクト境界安定化のための画像処理装置及び方法 Download PDF

Info

Publication number
JP6889417B2
JP6889417B2 JP2019017062A JP2019017062A JP6889417B2 JP 6889417 B2 JP6889417 B2 JP 6889417B2 JP 2019017062 A JP2019017062 A JP 2019017062A JP 2019017062 A JP2019017062 A JP 2019017062A JP 6889417 B2 JP6889417 B2 JP 6889417B2
Authority
JP
Japan
Prior art keywords
image
depth
boundary
pixel
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019017062A
Other languages
English (en)
Other versions
JP2019160298A (ja
Inventor
ウシコフ ダニエル
ウシコフ ダニエル
ガラヴィ−アルカンサリ モハンマド
ガラヴィ−アルカンサリ モハンマド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JP2019160298A publication Critical patent/JP2019160298A/ja
Application granted granted Critical
Publication of JP6889417B2 publication Critical patent/JP6889417B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • H04N5/211Ghost signal cancellation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Geometry (AREA)

Description

〔関連出願との相互参照/引用による組み入れ〕
なし。
本開示の様々な実施形態は、オブジェクトセグメンテーション技術及び画像背景置換技術に関する。具体的には、本開示の様々な実施形態は、一連の画像フレームの画像内のオブジェクト境界安定化のための画像処理装置及び方法に関する。
最近のビデオ監視システムの分野、ロボット工学及び自動車産業分野におけるマシンビジョンシステム、及び消費者向け電子(CE)装置の進歩は、画像処理技術の急速な技術開発に因るところが大きい。画像の背景から前景オブジェクトを分離するオブジェクトセグメンテーション法は様々なものが知られているが、複雑さ、精度及び計算リソース要件は、達成すべき目標に基づいて異なる。深度ベースのオブジェクトセグメンテーション法では、オブジェクトセグメンテーションに深度マップを使用することで、カラー画像のみを使用する方法と比べてオブジェクト描写プロセスにおける多くの不確実性を回避することができる。深度マップをもたらす既存の深度センサは未だに精度に欠け、RGBカメラの解像度の上昇に追いついていない。例えば、深度マップは、深度センサの赤外線(IR)エミッタからの光が伝播しないことによって領域の深度が不明になる陰影領域(shadowy area)を含むことがある。また、深度マップは、深度が急落して画像フレーム間の揺らぎが強いオブジェクト境界において最も不明確になり得る。最新の深度センサの深度マップが不完全であると、セグメント化されたオブジェクトの境界に、特に映画又はその他のビデオなどの一連の画像フレームのフレーム間で目に見える大きな揺らぎが生じる。結果として生じるアーチファクトは、見る者にとって視覚的に不快である。従って、精密なオブジェクトセグメンテーション及び背景置換の強化のためには、境界揺らぎの量を低減してオブジェクト境界を安定させることが望ましいと考えられる。
当業者には、説明したシステムと、本出願の残り部分において図面を参照しながら示す本開示のいくつかの態様とを比較することにより、従来の慣習的方法のさらなる制限及び不利点が明らかになるであろう。
少なくとも1つの図に実質的に示し、及び/又はこれらの図に関連して説明し、特許請求の範囲にさらに完全に示す、一連の画像フレームの画像内のオブジェクト境界安定化のための画像処理装置及び方法を提供する。
全体を通じて同じ要素を同じ参照符号によって示す添付図面を参照しながら本開示の以下の詳細な説明を検討することにより、本開示のこれらの及びその他の特徴及び利点を理解することができる。
本開示の実施形態による、一連の画像フレームの画像内のオブジェクト境界安定化のための例示的なネットワーク環境を示すブロック図である。 本開示の実施形態による、例示的な画像処理装置によって処理した深度画像における異なるアーチファクトを示す、シーンの例示的なカラー画像及び深度画像を示す図である。 本開示の実施形態による、例示的な画像処理装置を示すブロック図である。 本開示の実施形態による、一連の画像フレームの画像内のオブジェクト境界安定化のための、図2の画像処理装置の例示的な動作を示す図である。 本開示の実施形態による、一連の画像フレームの画像内のオブジェクト境界安定化のための、図2の画像処理装置の例示的な動作を示す図である。 本開示の実施形態による、一連の画像フレームの画像内のオブジェクト境界安定化のための、図2の画像処理装置の例示的な動作を示す図である。 本開示の実施形態による、一連の画像フレームの画像内のオブジェクト境界安定化のための、図2の画像処理装置の例示的な動作を示す図である。 本開示の実施形態による、一連の画像フレームの画像内のオブジェクト境界安定化のための、図2の画像処理装置の例示的な動作を示す図である。 本開示の実施形態による、一連の画像フレームの画像内のオブジェクト境界安定化のための、図2の画像処理装置の例示的な動作を示す図である。 本開示の実施形態による、一連の画像フレームの画像内のオブジェクト境界安定化のための、図2の画像処理装置の例示的な動作を示す図である。 本開示の実施形態による、一連の画像フレームの画像内のオブジェクト境界安定化のための、図2の画像処理装置の例示的な動作を示す図である。 本開示の実施形態による、一連の画像フレームの画像内のオブジェクト境界安定化のための、図2の画像処理装置の例示的な動作を示す図である。 本開示の実施形態による、一連の画像フレームの画像内のオブジェクト境界安定化のための、図2の画像処理装置の例示的な動作を示す図である。 本開示の実施形態による、一連の画像フレームの画像内のオブジェクト境界安定化のための、図2の画像処理装置の例示的な動作を示す図である。 本開示の実施形態による、一連の画像フレームの画像内のオブジェクト境界安定化のための、図2の画像処理装置の例示的な動作を示す図である。 本開示の実施形態による、一連の画像フレームの画像内のオブジェクト境界安定化のための、図2の画像処理装置の例示的な動作を示す図である。 本開示の実施形態による、一連の画像フレームの画像内のオブジェクト境界安定化のための例示的な方法を示すフローチャートである。 本開示の実施形態による、一連の画像フレームの画像内のオブジェクト境界安定化のための例示的な方法を示すフローチャートである。
開示する一連の画像フレームの画像内のオブジェクト境界安定化のための画像処理装置及び方法では、後述する実装を見出すことができる。本開示の例示的な態様は、第1のタイプのセンサからシーンの深度画像を受け取って第2のタイプのセンサからシーンのカラー画像を受け取ることを含む画像処理装置及び方法を含むことができる。第1のタイプのセンサは、第2のタイプのセンサとは異なることができる。シーンは、少なくとも関心オブジェクトを含むことができる。受け取った深度画像に対する深度閾値動作によって、関心オブジェクトの第1のオブジェクトマスクを取得することができる。第1のオブジェクトマスクの第1のオブジェクト境界上に存在するダングリング画素アーチファクト(dangling−pixels artifact)を除去することができる。ダングリング画素アーチファクトの除去後には、カラー画像上で移動テンプレートフィルタを使用して第1のオブジェクトマスクの第1のオブジェクト境界を平滑化することができる。第1のオブジェクト境界の平滑化に基づいて、第2のオブジェクト境界を有する第2のオブジェクトマスクを生成することができる。生成された第2のオブジェクト境界を有する第2のオブジェクトマスクに基づいて、カラー画像からの関心オブジェクトを抽出することができる。
ある実施形態によれば、カラー画像から関心オブジェクトを抽出するために、シーンのカラー画像の処理を第1のタイプのセンサの有効視野(FOV)に制限することができる。深度閾値動作によって、閾値深度値を上回る複数の深度値を除外することができる。閾値深度値は、関心オブジェクトの第1のオブジェクトマスクの画素に関連する最大深度値に対応することができる。
ある実施形態によれば、深度画像からゼロ深度アーチファクトを除去することができる。ゼロ深度アーチファクトは、深度画像における深度値が不明な領域に対応することができる。指定基準に基づいて、不明な深度値に関連する画素を背景画素又は前景画素として分類することができる。さらに、深度画像からは、関心オブジェクトの一部が第1のオブジェクトマスク上に影を落とした(casted)赤外線(IR)シャドーを除去することもできる。IRシャドーを除去するために、カラー画像における第1のオブジェクトマスクの外側の背景領域を動的に更新することができる。
ある実施形態によれば、移動テンプレートフィルタは、第1のオブジェクトマスクの内部領域に存在する第1の画素集合と、第1のオブジェクトマスクの外側の外部領域に存在する第2の画素集合とを含むように、第1のオブジェクト境界の境界画素を含むようにカラー画像上に配置することができる。移動テンプレートフィルタ内の第1のオブジェクト境界の法線に沿った画像勾配が最大の画素を検索することができる。第1のオブジェクト境界の法線は、画像勾配を計算する方向を定めることができる。ある実施形態によれば、第1の画素集合と第2の画素集合との間の色値及び輝度値の差分を計算することができる。計算された第1の画素集合と第2の画素集合との間の色値及び輝度値の差分に基づいて、第1のオブジェクト境界を平滑化するための画素候補としての境界画素を識別することができる。
ある実施形態によれば、抽出された関心オブジェクトを、関心オブジェクトの新たな背景をもたらす新たな画像に埋め込むことができる。新たな画像内の関心オブジェクトの第2のオブジェクト境界には、新たな背景へのスムーズな色−輝度混合のための混合動作を適用することができる。第2のオブジェクト境界の境界画素の色値又は輝度値の少なくとも一方を更新することができる。この更新は、境界画素の色値又は輝度値と、境界画素に隣接する画素集合の色値又は輝度値との間の差分に基づいて行うことができる。境界画素に隣接する画素集合は、第2のオブジェクトマスク内の第1の画素数と、新たな画像の新たな背景内の第2の画素数とを含む。
図1Aは、本開示の実施形態による、一連の画像フレームの画像内のオブジェクト境界安定化のための例示的なネットワーク環境を示すブロック図である。図1Aにはネットワーク環境100を示す。ネットワーク環境100は、画像処理装置102と、センサ回路104と、サーバ106と、通信ネットワーク108とを含むことができる。ある実施形態によれば、センサ回路104は、画像処理装置102と一体化することができる。ある実施形態によれば、センサ回路104は、画像処理装置102に通信可能に結合された外部センサデバイスとすることができる。センサ回路104は、第1のタイプのセンサ104a及び第2のタイプのセンサ104bを含むことができる。画像処理装置102及びサーバ106は、通信ネットワーク108を介して互いに通信可能に結合することができる。
画像処理装置102は、第1のタイプのセンサ104aからシーンの深度マップを受け取って第2のタイプのセンサ104bから同じシーンのカラー画像を受け取るように構成できる好適な回路、インターフェイス及び/又はコードを含むことができる。深度マップ及びカラー画像は、同時に受け取って処理することができる。深度センサなどの第1のタイプのセンサ104a及び第2のタイプのセンサ104bによって取り込まれるシーンは、1又は2以上のオブジェクトを含むことができる。1又は2以上のオブジェクトの例としては、以下に限定するわけではないが、人間オブジェクト、動物、移動オブジェクト、変形オブジェクト、或いはロボットなどの非人間又は無生物オブジェクト、又は多関節オブジェクトを挙げることができる。多関節オブジェクトとは、関節を介して取り付けられて相対的に動くことができる部分を有するオブジェクトのことである。画像処理装置102は、深度マップ及びカラー画像の両方を利用して関心オブジェクトの境界を正確に識別して精緻化するように構成することができる。画像処理装置102は、逐次精緻化動作によって、第1のタイプのセンサ104aなどの深度センサの特徴である典型的な深度マップのアーチファクトを除去することができる。画像処理装置102は、逐次精緻化動作を実行して関心オブジェクトのオブジェクト境界揺らぎの量を低減するように構成することができる。画像処理装置102は、精緻化されたオブジェクト境界を含む精緻化オブジェクトマスクに基づいてカラー画像から関心オブジェクトを抽出するように構成することができる。抽出された関心オブジェクトは、関心オブジェクトの新たな背景をもたらす新たな画像に埋め込むことができる。画像処理装置102の例としては、以下に限定するわけではないが、デジタルカメラ、ビデオカメラ、ヘッドマウント装置(HMD)、監視装置、スマートホン、スマートメガネ、仮想現実ベース、複合現実ベース又は拡張現実ベースの装置、コンピュータ装置及び/又はその他の消費者向け電子(CE)装置を挙げることができる。
センサ回路104は、同じシーンの深度マップとカラー画像とを同時に取り込むように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。センサ回路104は、第1のタイプのセンサ104a及び第2のタイプのセンサ104bを含むことができる。第1のタイプのセンサ104aは、深度センサ及び赤外線(IR)エミッタを含むことができる。深度センサは、IR深度センサとすることができる。第2のタイプのセンサ104bは、RGB画像などのカラー画像を取り込むことができる、例えばRGBカメラなどの画像センサとすることができる。センサ回路104は、深度マップ及びカラー画像をローカルバッファ、メモリ及び/又はサーバ106に記憶するように構成することができる。
サーバ106は、画像処理装置102によって取り込まれた一連の画像フレーム及び深度マップを記憶するように構成できる好適な回路、インターフェイス及び/又はコードを含むことができる。サーバ106の例としては、以下に限定するわけではないが、データベースサーバ、ファイルサーバ、アプリケーションサーバ、クラウドサーバ、ウェブサーバ、又はこれらの組み合わせを挙げることができる。
通信ネットワーク108は、画像処理装置102とサーバ106とが通信可能に結合できるようにする通信媒体を含むことができる。通信ネットワーク108の例としては、以下に限定するわけではないが、インターネット、クラウドネットワーク、無線フィデリティ(Wi−Fi)ネットワーク、ローカルエリアネットワーク(LAN)、及び/又はメトロポリタンエリアネットワーク(MAN)を挙げることができる。ネットワーク環境100内の様々な装置は、様々な有線及び無線通信プロトコルに従って通信ネットワーク108に接続するように構成することができる。このような有線及び無線通信プロトコルの例としては、以下に限定するわけではないが、伝送制御プロトコル及びインターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、ファイル転送プロトコル(FTP)、ZigBee、EDGE、IEEE 802.11、ライトフィデリティ(Li−Fi)、802.16、IEEE 802.11s、IEEE 802.11g、マルチホップ通信、無線アクセスポイント(AP)、装置間通信、セルラー通信プロトコル、又はBluetooth(登録商標)(BT)通信プロトコル、これらの変形例及び/又は組み合わせを含むことができる。
動作中、画像処理装置102は、第1のタイプのセンサ104aからシーンの深度マップを受け取って第2のタイプのセンサ104bからシーンのカラー画像を受け取るように構成することができる。シーンは、例えばセグメント化すべき関心オブジェクトなどの1又は2以上の前景オブジェクトを含むことができる。画像処理装置102は、シーンのカラー画像の処理を、例えば図1Bに示すような第1のタイプのセンサ104aの有効視野(FOV)に制限するように構成することができる。
図1Bに、本開示の実施形態による、例示的な画像処理装置が処理した深度画像における異なるアーチファクトを示す、あるシーンの例示的なカラー画像及び深度画像を示す。図1Bには、シーン114のRGB画像110aなどの例示的なカラー画像と、シーン114の深度画像112aなどの例示的な深度マップとを示す。RGB画像110aは、第1の前景オブジェクト118aと、第2の前景オブジェクト120aと、RGBカラーチャネルで表される背景116aとを含む。深度画像112aは、第1の前景オブジェクト118aの第1の深度表現118bと、第2の前景オブジェクト120aの第2の深度表現120bと、背景116aの第3の深度表現116bとを含む。深度画像112aには、領域122a、122b、122c、122d及び124などのいくつかの陰影領域も示される。
画像処理装置102は、受け取った深度画像112aに対する深度閾値動作によって、第1の前景オブジェクト118aなどの関心オブジェクトの第1のオブジェクトマスクを取得するように構成することができる。画像処理装置102は、深度閾値動作によって、閾値深度値を上回る複数の深度値を除外するように構成することができる。例えば、センサ回路104から(1.5深度値などの)一定メートルの深さ未満に位置する全ての画素は前景オブジェクトに属するものとみなすことができ、これに応じて(単複の)オブジェクトマスクを生成することができる。閾値深度値は、第1の前景オブジェクト118aなどの関心オブジェクトの第1のオブジェクトマスクの画素に関連する最大深度値に対応する。
いくつかのシナリオでは、深度画像112aが、例えば領域122a、122b、122c及び122dに示すような陰影領域を含むことができる。第1のタイプのセンサ104aのIRエミッタによって放出されるIR光は、取り込まれたシーン114のいくつかの領域に伝播しないこともある。通常、このような光が効果的に伝播しない領域は、深度画像112aにおいて陰影領域として現れ、不明な深度値を有する。この不明な深度値は、ゼロ深度値又は未定義深度値と呼ぶこともできる。例えば、領域122aは、第1のタイプのセンサ104aのFOVの外側に存在するシーン114の領域を意味する。第1のタイプのセンサ104aの報告によると、領域122aはゼロ深度値を含むことができる。従って、画像処理装置102は、領域122aの0深度アーチファクトを解決するために、シーン114のRGB画像110aの処理を、例えば図1Bの平行な点線で示すような第1のタイプのセンサ104aのFOVに制限するように構成することができる。
領域122bは、深度画像112aの第3の深度表現116b(すなわち、背景116aに対応する)における領域を意味することができ、やはりゼロ深度値を含むことができる。領域122bは、非ゼロ深度領域との境界を有することができ、領域122bと隣接する非ゼロ深度領域との間の差分は閾値深度値を上回ることができる。換言すれば、領域122bは、領域122bと境界を共有する近隣の非ゼロ深度領域と比べてシーン114の深度の急落を示すことができる。領域122cは、深度画像112aの第3の深度表現116bにおける陰影領域を意味することができ、やはりゼロ深度値を含むことができる。領域122cにおけるゼロ深度値は、第1の前景オブジェクト118aなどの前景オブジェクトが背景116a上に影を落とした領域122cにおけるIRシャドーの結果として生じることができる。
いくつかのシナリオでは、領域122dによって示すように、第1の前景オブジェクト118aなどの前景オブジェクトの一部がそれ自体に影を落とすこともある。従って、第1のタイプのセンサ104aのIRエミッタによって放出されたIR光は領域122dに伝播できないため、領域122dもゼロ深度値を含むことができる。画像処理装置102は、深度画像112aからゼロ深度アーチファクトを除去するように構成することができる。ゼロ深度アーチファクトは、例えば深度画像112aにおける領域122a、122b、122c及び122dなどの、深度値が不明な領域に対応する。画像処理装置102は、指定基準に基づいて、これらの不明な深度値に関連する画素を背景画素又は前景画素として分類するように構成することができる。画素の分類は、関心オブジェクトの第1のオブジェクトマスクなどの正しいオブジェクトマスクを取得するために行うことができる。画素の分類及び指定基準については、図3A〜図3Iで詳細に説明する。
ある実施形態によれば、画像処理装置102は、第1のオブジェクトマスクの第1のオブジェクト境界上に存在するダングリング画素アーチファクトを除去するように構成することができる。「ダングリング(dangling)」又はダングリング画素アーチファクトは、深度画像112aのIRシャドー領域に隣接する第1のオブジェクト境界に大きな揺らぎを示すことができる。これらの第1のオブジェクト境界における領域124などのIRシャドー領域では、フレーム毎及び画素毎にオブジェクト境界の揺らぎが生じ得る。領域124は、第1の前景オブジェクト118aなどの関心オブジェクトの第1のオブジェクト境界及びその周囲にダングリング画素アーチファクトを引き起こす、(第1のタイプのセンサ104aによって報告される)深度画像112a内の無秩序な深度を示す。ダングリング画素アーチファクトの例については、図3A及び図3Cにさらに図示して説明する。画像処理装置102は、近隣の3×3画素内の画素が少なくとも1つの深度未定義画素(例えば、ゼロ深度値を含む画素)を有している時に、この画素にダングリング画素としてマーク付けするように構成することができる。
ある実施形態によれば、画像処理装置102は、ゼロ深度アーチファクト及びダングリング画素アーチファクトの除去後に、RGB画像110a上で移動テンプレートフィルタを用いて第1のオブジェクトマスクの第1のオブジェクト境界を平滑化するように構成することができる。平滑化動作については、図3A、図3E、図3F、図3G、図3H及び図3Iで詳細に説明する。画像処理装置102は、第1のオブジェクト境界の平滑化に基づいて、第2のオブジェクト境界を有する第2のオブジェクトマスクを生成するように構成することができる。画像処理装置102は、生成された第2のオブジェクト境界を有する第2のオブジェクトマスクに基づいて、RGB画像110aから関心オブジェクトを抽出するように構成することができる。画像処理装置102は、抽出された関心オブジェクトを、関心オブジェクトの新たな背景をもたらす新たな画像に埋め込むように構成することができる。画像処理装置102は、新たな画像内の関心オブジェクトの第2のオブジェクト境界に、新たな背景へのスムーズな色−輝度混合のための混合動作を適用するように構成することができる。混合動作については、例えば図3A及び図3Mで詳細に説明する。
ある実施形態によれば、一連の画像フレームのRGB画像110aなどの各ソースカラー画像から関心オブジェクトを抽出し、各新たなビデオ画像フレームにおいてフレーム毎にリアルタイム又は近リアルタイムで混合することができる。画像処理装置102は、新たな画像フレーム及び後続の画像フレームに埋め込まれた関心オブジェクト及び置換された背景を含むビデオを、通信ネットワーク108を介してサーバ106に通信するようにさらに構成することができる。サーバ106は、修正されたビデオを記憶するように構成することができる。
開示する映画又はその他のビデオなどの一連の画像フレームの画像内のオブジェクト境界安定化のための画像処理装置102は、ビデオ監視、自動ビデオ編集システム、自動背景置換システム、又は一連の入力画像フレームの取り込み中の異なる時点で位置又は配向を変化させるオブジェクトの追跡などの様々な応用分野で実装することができる。開示する画像処理装置102及び方法は、人間又はその他の多関節オブジェクトのビデオ監視、ゲームシステムにおけるオブジェクト追跡、或いはリアルタイム又は近リアルタイムオブジェクトセグメンテーション、及び新たな背景におけるオブジェクトの混合などの実際の追跡用途に適することができる。
図2は、本開示の実施形態による、例示的な画像処理装置を示すブロック図である。図2の説明は、図1A及び図1Bの要素に関連して行う。図2には画像処理装置102を示す。画像処理装置102は、画像プロセッサ202などの1又は2以上の回路と、メモリ204と、オブジェクト混合プロセッサ206と、I/O装置208と、ネットワークインターフェイス210とを含むことができる。I/O装置208は、センサ回路104及びディスプレイ208Aを含むことができる。1つの例では、センサ回路104を画像処理装置102の内蔵ユニットとして示す。画像プロセッサ202は、メモリ204、オブジェクト混合プロセッサ206、I/O装置208、ネットワークインターフェイス210及びセンサ回路104に通信可能に結合することができる。ネットワークインターフェイス210は、通信ネットワーク108を介したサーバ106との通信を容易にすることができる。
画像プロセッサ202は、ゼロ深度アーチファクト及びダングリング画素アーチファクトなどの様々なタイプのアーチファクトの除去後に、受け取ったカラー画像上で移動テンプレートフィルタを用いて第1のオブジェクトマスクの第1のオブジェクト境界を平滑化するように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。画像プロセッサ202は、第1のオブジェクト境界の平滑化に基づいて、第2のオブジェクト境界を有する第2のオブジェクトマスクを生成するように構成することができる。その後、精緻化されたオブジェクト境界である第2のオブジェクト境界を有する生成された第2のオブジェクトマスクに基づいて、カラー画像から関心オブジェクトを抽出することができる。画像プロセッサ202は、メモリ204に記憶された命令セットを実行するように構成することができる。画像プロセッサ202は、当業で周知の複数のプロセッサ技術に基づいて実装することができる。画像プロセッサ202の例は、縮小命令セットコンピュータ(RISC)プロセッサ、特定用途向け集積回路(ASIC)プロセッサ、複合命令セットコンピュータ(CISC)、ハードウェアプロセッサ、中央処理装置(CPU)、及び/又はその他のプロセッサ又は制御回路とすることができる。
メモリ204は、深度マップ及びカラー画像をメモリ204のローカル画像バッファに記憶するように構成できる好適なロジック、回路及び/又はインターフェイスを含むことができる。メモリ204は、画像プロセッサ202が実行できる命令セットを記憶することもできる。メモリ204は、オペレーティングシステム及び関連するアプリケーションを記憶するように構成することができる。メモリ204の例としては、以下に限定するわけではないが、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、CPUキャッシュ及び/又はセキュアデジタル(SD)カードを挙げることができる。
オブジェクト混合プロセッサ206は、新たな画像における関心オブジェクトの第2のオブジェクト境界に、新たな背景へのスムーズな色−輝度混合のための平滑化動作を適用するように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。オブジェクト混合プロセッサ206は、(コプロセッサなどの)別個のプロセッサ、又は画像処理装置102内の回路として実装することができる。オブジェクト混合プロセッサ206及び画像プロセッサ202は、オブジェクト混合プロセッサ206及び画像プロセッサ202の機能を実行する統合プロセッサ又はプロセッサ群として実装することもできる。
I/O装置208は、入力を受け取ってユーザに出力を提供するように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。I/O装置208は、画像プロセッサ202と通信するように構成できる様々な入出力装置を含むことができる。入力装置の例としては、以下に限定するわけではないが、タッチ画面、キーボード、マウス、ジョイスティック、マイク、及び/又はセンサ回路104を挙げることができる。出力装置の例としては、限定するわけではないが、ディスプレイ208A及び/又はスピーカを挙げることができる。
ディスプレイ208Aは、抽出された関心オブジェクトを描画するように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。ある実施形態によれば、ディスプレイ208Aは、ユーザからの入力を受け取ることができる。このようなシナリオでは、ディスプレイ208Aを、ユーザによる入力の提供を可能にするタッチ画面とすることができる。タッチ画面は、抵抗性タッチ画面、容量性タッチ画面、又は熱タッチ画面のうちの少なくとも1つに対応することができる。ある実施形態によれば、ディスプレイ208Aは、仮想キーパッド、スタイラス、ジェスチャ式入力、及び/又はタッチ式入力を通じて入力を受け取ることができる。ディスプレイ208Aは、以下に限定するわけではないが、液晶ディスプレイ(LCD)ディスプレイ、発光ダイオード(LED)ディスプレイ、プラズマディスプレイ、及び/又は有機LED(OLED)ディスプレイ技術、及び/又はその他のディスプレイのうちの少なくとも1つなどの複数の既知の技術を通じて実現することができる。ある実施形態によれば、ディスプレイ208Aは、スマートメガネ装置のディスプレイ画面、シースルーディスプレイ、投射型ディスプレイ、エレクトロクロミックディスプレイ、カットトゥシェイプディスプレイ及び/又は透明ディスプレイを意味することができる。シースルーディスプレイは、透明ディスプレイ又は半透明ディスプレイとすることができる。ある実施形態によれば、シースルーディスプレイ及び/又は投射型ディスプレイは、抽出された関心オブジェクト及び透明の背景がユーザなどのユーザの目から所定の距離の空中に浮かんでいるという視覚的錯覚を引き起こすことによってユーザ体験を強化することができる。
ネットワークインターフェイス210は、通信ネットワーク108を介した画像処理装置102とサーバ106との間の通信を容易にするように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。ネットワークインターフェイス210は、画像処理装置102と通信ネットワーク108との有線又は無線通信をサポートする様々な既知の技術を用いて実装することができる。ネットワークインターフェイス210は、以下に限定するわけではないが、アンテナ、無線周波数(RF)トランシーバ、1又は2以上の増幅器、チューナ、1又は2以上の発振器、デジタルシグナルプロセッサ、コーダ−デコーダ(CODEC)チップセット、加入者アイデンティティモジュール(SIM)カード及び/又はローカルバッファを含むことができる。ネットワークインターフェイス210は、無線通信を介して、インターネット、イントラネット、及び/又はセルラー電話網、無線ローカルエリアネットワーク(LAN)及び/又はメトロポリタンエリアネットワーク(MAN)などの無線ネットワークなどのネットワークと通信することができる。無線通信は、グローバル・システム・フォー・モバイル・コミュニケーションズ(GSM)、拡張データGSM環境(EDGE)、広帯域符号分割多元接続(W−CDMA)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth、無線フィデリティ(Wi−Fi)(IEEE 802.11a、IEEE 802.11b、IEEE 802.11g及び/又はIEEE802.11n)、ボイスオーバーインターネットプロトコル(VoIP)、Wi−MAX、電子メールプロトコル、インスタントメッセージング及び/又はショートメッセージサービスなどの複数の通信規格、通信プロトコル及び通信技術のいずれかを使用することができる。
図1A及び図1Bで説明したような画像処理装置102によって実行される機能及び/又は動作は、画像プロセッサ202及び/又はオブジェクト混合プロセッサ206によって実行することができる。画像プロセッサ202及びオブジェクト混合プロセッサ206によって実行される他の動作については、例えば図3A〜図3M、図4A及び図4Bでさらに説明する。
図3A〜図3Mに、本開示の実施形態による、一連の画像フレームの画像内のオブジェクト境界安定化のための、図2の画像処理装置の例示的な動作をまとめて示す。図3A〜図3Mの説明は、図1A、図1B及び図2の要素に関連して行う。図3Aには、本開示の実施形態による、オブジェクトマスク精緻化及び新たな背景内へのオブジェクト混合の例示的な処理パイプライン300を示す。
302において、画像プロセッサ202は、第1のタイプのセンサ104aからシーン114の深度画像112aを受け取って第2のタイプのセンサ104bからシーン114のRGB画像110aを受け取るように構成することができる。304において、画像プロセッサ202は、受け取った深度画像112aに対する深度閾値動作によって、第1の前景オブジェクト118aなどの関心オブジェクトの第1のオブジェクト境界304Bを有する第1のオブジェクトマスク304Aを取得するように構成することができる。シーン114における、第1のタイプのセンサ104aに近接するオブジェクトは、第1のタイプのセンサ104aから離れて位置するオブジェクトに比べて小さな深度を有することができる。いくつかの例では、深度閾値動作において、第2の前景オブジェクト120aなどのオブジェクトがシーン114において第1の前景オブジェクト118aと同様の深さに存在する場合、さらなるマスク304Cを取得することもできる。このようなさらなるマスク304Cは、後で破棄することができる。画像プロセッサ202は、第1の前景オブジェクト118aなどの関心オブジェクトの最大深度値を推定するように構成することができる。その後、画像プロセッサ202は、深度閾値動作によって、閾値深度値を上回る全ての深度値を除外するように構成することができる。閾値深度値は、第1の前景オブジェクト118aなどの関心オブジェクトの画素に関連する推定された最大深度値に基づいて動的に計算することができる。通常、第1のタイプのセンサ104aなどの最新の深度センサから受け取られるような深度情報は不完全であり、従って深度画像112aは、図1Bで観察して説明したような領域122a〜122d及び領域124などの陰影領域を含む。深度画像112aなどの深度マップが不完全性であると、オブジェクトの第1のオブジェクト境界304Bなどの境界に、特に一連の画像フレームのフレーム間で目に見える大きな揺らぎが生じる。従って、従来の深度ベースのセグメンテーション法に基づいて取得されたオブジェクトマスクに基づいてオブジェクトを直接セグメント化しる場合には、見る者にとって不快なアーチファクトがもたらされることがある。従って、画像プロセッサ202は、第1のオブジェクト境界304B上の揺らぎの量を低減する一連の精緻化動作を実行する。画像プロセッサ202は、第1のオブジェクト境界304Bを有する第1のオブジェクトマスク304Aを好適に精緻化することができる。
306Aにおいて、画像プロセッサ202は、第1のオブジェクトマスク304A上及びその周囲のドット様アーチファクトを除去するように構成することができる。ドット様アーチファクトは、ゼロ深度アーチファクトに対応する。第1のオブジェクトマスク304A上及びその周囲のゼロ深度アーチファクトの除去については、例えば図3Bから詳細に理解することができる。次に、図3Bに、第1のオブジェクトマスク304A上及びその周囲のゼロ深度(又はドット様)アーチファクトの除去について説明するゼロ深度分類マップ318を示す。ゼロ深度分類マップ318は、第1のオブジェクトマスク304Aと、さらなるマスク304Cと、(点線パターンによって示す)背景領域320とを含む。背景領域320は黒色又はモノクロとすることができ、領域322A及び322Bを含む。領域322A及び322Bは、ゼロ深度アーチファクトが処理されて非ゼロ深度画素に更新される処理領域に対応する。
画像プロセッサ202は、深度画像112a内の、非ゼロ深度領域との境界を有する(図1B及び図3Aに図示し、図3Bには図示していない領域122bなどの)1又は2以上のゼロ深度連結領域を発見するように構成することができる。領域122bは、領域122bと境界を共有する近隣の非ゼロ深度領域に比べてシーン114の深度の急落を示すことができる。いくつかの例では、境界画素の大部分、すなわち領域122bと境界を共有する画素が、第1の前景オブジェクト118aなどの前景オブジェクトの最大深度よりも大きな深度値を含むことができる。このような場合、画像プロセッサ202は、第1の精緻化動作において、領域122bなどの1又は2以上のゼロ深度連結領域を非ゼロ深度値と共に分類するように構成することができる。分類される深度値は、境界画素(すなわち、領域122bと境界を共有する画素)の深度値に類似することができる。例えば図3Bのゼロ深度分類マップ318における領域322Aは、その後に1又は2以上のゼロ深度連結領域内で深度値が非ゼロ深度値に分類される画素を表す。ある実施形態によれば、画像プロセッサ202は、これらの領域322Aを、ゼロ深度分類マップ318の背景領域320とは異なるシアンなどの色で修復するように構成することができる。従って、第1の精緻化動作では、(シーン114(図1B)の深度の急落を示す)領域122bからのゼロ深度アーチファクトが除去される。
ある実施形態によれば、画像プロセッサ202は、第1のオブジェクト境界304Bを含む第1のオブジェクトマスク304Aと、さらなるマスク304Cの全ての画素とを前景画素として分類するように構成することができる。ゼロ深度分類マップ318では、このような前景画素に赤色などの異なる色を付けることができる。このような前景画素は、深度閾値動作に使用される閾値深度値未満の深度を含むことができる。例えば、センサ回路104から深さ1.5メートル(すなわち、1.5深度値)未満に位置する全ての画素は前景オブジェクトに属するものとみなすことができ、ゼロ深度分類マップ318において赤色などの異なる色を付けることができる。その後、画像プロセッサ202は、例えば第1の前景オブジェクト118a及び第2の前景オブジェクト120aなどの(単複の)前景オブジェクトの最も左側の画素(境界画素)から開始して、行内の次の画素を非ゼロ深度画素に遭遇するまで一定方向に(すなわち、(単複の)前景オブジェクトの境界画素から背景領域320に向かって行毎に)チェックするように構成することができる。例えば、画像プロセッサ202は、第1のオブジェクトマスク304Aの第1のオブジェクト境界304Bの最も左側の境界画素から開始して、矢印324で示すように行内の後続の画素を左方向に向かって非ゼロ深度画素に遭遇するまでチェックするように構成することができる。画素が第1の前景オブジェクト118aの最大深度値よりも大きな深度値を有する場合には、非ゼロ深度値を有する全てのチェック済みの画素が背景画素として分類される。さらなるマスク304Cの境界画素からも、矢印326で示すような同様のチェック及び非ゼロ深度値を有する画素の分類を実行することができる。従って、この分類に基づいて、それまでに非ゼロ深度アーチファクト又はドット様アーチファクトを含んでいた領域322Bを除去することができる。領域322Bは、深度画像112a内の画素の分類が更新される領域122c及び124(図1B及び図3A)に対応することができる。ゼロ深度分類マップ318では、領域122Bを緑色などの一意的な色によって表すことができる。
ここで再び図3Aを参照すると、306Bにおいて、画像プロセッサ202を、RGB画像110aにおける第1のオブジェクトマスク304Aの外側の背景116aを動的に更新するように構成することができる。背景116a内のゼロ深度値を有している一部の画素が実際には背景領域に属しているという知識をRGB画像110aの背景116aの動的更新に利用し、これによって背景116a内の特定のブラインドスポット又はドット様アーチファクトを除去することができる。換言すれば、更新された背景116aは、第1の前景オブジェクト118a及び第2の前景オブジェクト120aなどの前景オブジェクトと、ブラインドスポット又はドット様アーチファクトとを含まないRGB背景画像とすることができる。
308において、画像プロセッサ202は、第1のオブジェクトマスク304Aの第1のオブジェクト境界304B上に存在するダングリング画素アーチファクトを除去するように構成することができる。第1のオブジェクトマスク304Aの周囲のドット様アーチファクト又はいくつかのゼロ深度アーチファクトの除去後には、第1のオブジェクトマスク304Aの第1のオブジェクト境界304B上に存在するダングリング画素アーチファクトを除去することができる。ダングリング画素アーチファクトの除去については、図3Cからさらに理解することができる。次に、図3Cの例にダングリング画素アーチファクト326を示す。ダングリング画素アーチファクト326は、深度画像112aのIRシャドー領域に隣接する第1のオブジェクト境界304Bに大きな揺らぎを示すことができる。これらの第1のオブジェクト境界304Bにおける領域124(図1B及び図3A)などのIRシャドー領域では、フレーム毎及び画素毎にオブジェクト境界の揺らぎが生じ得る。ダングリング画素アーチファクト326は、深度画像112aの領域124(図1B及び図3A)に示すような無秩序な深度に起因して生じる。画像プロセッサ202は、近隣の「3×3」画素内の画素が少なくとも1つの深度未定義画素(例えば、ゼロ深度値を含む画素)を有している時に、第1のオブジェクト境界304Bにおける画素にダングリング画素としてタグ付けするように構成することができる。ダングリング画素アーチファクト326を識別してタグ付けしたら、ダングリング画素アーチファクト326を除去することができる。
ここで再び図3Aを参照すると、310において、画像プロセッサ202を、第1のオブジェクトマスク304Aから自己陰影(self−shadow)を除去するように構成することができる。第1のオブジェクトマスク304Aから自己陰影を除去することについては、図3Dからさらに理解することができる。次に、図3Dに、第1のオブジェクトマスク304A内の自己陰影領域328を示す。いくつかのシナリオでは、第1の前景オブジェクト118aなどの前景オブジェクトの一部がそれ自体に影を落とすことがあり、これを自己陰影と呼ぶ。自己陰影領域328は、領域122d(図1B及び図3A)に対応する。従って、第1のタイプのセンサ104aのIRエミッタによって放出されるIR光がいくつかの領域に伝播しない結果、第1のオブジェクトマスク304Aに自己陰影領域328が生じるため、自己陰影領域328内の画素もゼロ深度値を含むことができる。画像プロセッサ202は、RGB画像110aの第1のオブジェクトマスク304Aの外側のゼロ深度アーチファクトの除去、及び第1のオブジェクトマスク304Aの外側の背景116aの動的更新後に、第1のオブジェクトマスク304A内の画素を処理するように構成することができる。第1の前景オブジェクト118aの第1のオブジェクトマスク304A内の画素がゼロ深度値を有する場合には、第1のオブジェクトマスク304A内のゼロ深度値を有する全ての処理済みの画素を前景画素として分類することができる。
ここで再び図3Aを参照すると、312において、画像プロセッサ202を、RGB画像110a上で移動テンプレートフィルタを用いて第1のオブジェクトマスク304Aの第1のオブジェクト境界304Bを平滑化するように構成することができる。移動テンプレートフィルタを用いた第1のオブジェクト境界304Bの平滑化については、例えば図3E、図3F、図3G、図3H及び図3Iから詳細に理解することができる。次に、図3Eに、移動テンプレートフィルタ330と、(矢印で示す)法線330Aと、外部帯域332と、内部帯域334と、境界画素帯域336と、境界画素帯域336のアンカー画素336aとを示す。画像プロセッサ202は、第1の前景オブジェクト118aなどの関心オブジェクトの初期オブジェクト境界を定めるように構成することができる。ゼロ深度アーチファクト、ダングリング画素アーチファクト326及び自己陰影などの全てのアーチファクトの除去後には、メモリ204に記憶されているセグメンテーションアルゴリズムを用いて第1のオブジェクト境界304Bなどの初期オブジェクト境界を定めることができる。画像プロセッサ202は、境界画素の画素座標を取得する。
移動テンプレートフィルタ330は、境界画素帯域336に沿って移動するテンプレートベースの移動ウィンドウとすることができる。ある実施形態によれば、移動テンプレートフィルタ330のテンプレート形状を円形とすることができる。いくつかの実施形態では、本開示の範囲を限定することなく、テンプレートの形状を楕円形又は多角形とすることもできる。例に示すように、(ドットパターンで表す)外部帯域332は、第1のオブジェクトマスク304Aの第1のオブジェクト境界304Bの外側の近隣画素群である。例に示すように、(斜線パターンで表す)内部帯域334は、第1のオブジェクトマスク304Aの第1のオブジェクト境界304Bの内側の近隣画素群である。境界画素帯域336は、第1のオブジェクトマスク304Aの第1のオブジェクト境界304Bの境界画素を含む。境界画素帯域336については、外部帯域332と内部帯域334との間の白色の画素によって表す。
ある実施形態によれば、移動テンプレートフィルタ330は、第1のオブジェクトマスク304Aの(内部帯域334などの)内部領域に位置する第1の画素集合と、第1のオブジェクトマスク304Aの外側の(外部帯域332などの)外部領域に位置する第2の画素集合とを含むことができるように、第1のオブジェクト境界304Bのアンカー画素336aなどの境界画素を含むようにRGB画像110a上に配置することができる。換言すれば、移動テンプレートフィルタ330内の画素は、境界画素の両側に2つの部分集合、すなわち第1の画素集合(内部画素)及び第2の画素集合(外部画素)を形成する。移動テンプレートフィルタ330が境界画素(すなわち、アンカー画素336a)上に中心を置くと、第1の画素集合及び第2の画素集合への正確な分割を行うことができる。第1のオブジェクト境界304Bの(矢印で表す)法線330Aは、移動テンプレートフィルタ330の最良位置の検索方向を定めることができる。
ある実施形態によれば、画像プロセッサ202は、アンカー画素336aを通る法線330A沿いの画素に逐次的に移動テンプレートフィルタ330を適用するように構成することができる。画像プロセッサ202は、移動テンプレートフィルタ330内の第1の画素集合と第2の画素集合との間の色値及び輝度値の差分を計算するように構成することができる。換言すれば、移動テンプレートフィルタ330が境界画素に沿って移動した時のフィルタの各位置において、第1の画素集合と第2の画素集合との間の色−輝度の差分を計算することができる。法線330Aに沿った最大色−輝度差分をもたらす移動テンプレートフィルタ330の位置は、第1のオブジェクト境界304Bの精緻化候補とすることができる。換言すれば、画像プロセッサ202は、第1の画素集合と第2の画素集合との間の計算された色値及び輝度値の差分に基づいて、第1のオブジェクト境界304Bを平滑化する画素候補としての境界画素を識別するように構成することができる。柔軟かつ指向的なフィルタとして動作する移動テンプレートフィルタ330には多くの利点がある。例えば、移動テンプレートフィルタ330の形状は、第1のオブジェクト境界304Bなどのオブジェクトの境界の局所的形状に合わせて調整することができる。さらに、移動テンプレートフィルタ330による平滑化は、非局所的輝度変換に対して不変である。さらに、移動テンプレートフィルタ330による平滑化は非常に高速であり、検索長さを乗じた境界画素数、及び移動テンプレートフィルタ330内の総画素数の複雑性が単純である。
図3F〜図3Iに、第1のオブジェクトマスク304Aなどのオブジェクトマスク内で行うことができる、第1のオブジェクトマスク304Aの例示的な調整を示す。まず、図3Fに、(白色の画素で表す)初期オブジェクトマスク338Aと、(ドット様の画素で表す)初期背景340Aとを示す。初期オブジェクトマスク338Aは、第1のオブジェクトマスク304Aに対応する。初期背景340Aは、背景116aに対応する。図3Gには、初期オブジェクトマスク338Aを調整するための(線パターンで表す)帯域342をさらに示す。帯域342は、内部帯域334(図3E)に対応する。図3Hには、帯域342内の調整されたオブジェクト境界344をさらに示す。画像プロセッサ202は、移動テンプレートフィルタ330内で(第1のオブジェクトマスク304Aの第1のオブジェクト境界304Bなどの)初期オブジェクトマスク338Aの初期オブジェクト境界の(図3の)法線330Aに沿った画像勾配が最大の画素を発見するように構成することができる。初期オブジェクト境界の(図3Eの)法線330Aは、画像勾配を計算する方向を定める。画素346などの、法線330Aに沿った画像勾配が最大のいくつかの画素は、調整されたオブジェクト境界344を定める。図3Iには、調整された背景340Bと、調整されたオブジェクトマスク338Bと、調整されたオブジェクト境界344と、画像勾配が最大の画素346とを示す。調整されたオブジェクトマスク338Bは、第2のオブジェクトマスクに対応し、調整されたオブジェクト境界344は、第2のオブジェクトマスクの第2のオブジェクト境界に対応する。いくつかの実施形態では、第1のオブジェクト境界304Bなどのオブジェクト境界に(移動テンプレートフィルタ330などを使用して)移動平均を適用することによって、フレーム間のオブジェクト境界の揺らぎを大幅に低減することができる。移動テンプレートフィルタ330の最適な長さは、カラー画像のサイズに依存することができる。例えば、高解像度(HD)画像では、移動テンプレートフィルタ330の最適な長さを約21画素とすることができる。
次に、図3Jに、第2のオブジェクト境界348Bを有する第2のオブジェクトマスク348Aを示す。第2のオブジェクトマスク348Aの位置は、第1の前景オブジェクト118aの現在位置に対応する。画像プロセッサ202は、第1のオブジェクト境界304Bの平滑化に基づいて、第2のオブジェクト境界348Bを有する第2のオブジェクトマスク348Aを生成するように構成することができる。従って、画像プロセッサ202は、第1のオブジェクト境界304Bなどの初期オブジェクト境界における揺らぎの量を低減してオブジェクト境界を安定化させるために一連の精緻化動作(例えば、図3Aの処理パイプライン300及び図3B〜図3Iに示すような動作306A、306B、308、310及び312)を実行する。
図3Kには、RGB画像110aの背景116aから描出した第1の前景オブジェクト118aなどの例示的な最終セグメンテーション結果350を示す。画像プロセッサ202は、生成された第2のオブジェクト境界348Bを有する第2のオブジェクトマスク348Aに基づいて、RGB画像110aから第1の前景オブジェクト118aなどの関心オブジェクトを抽出するように構成することができる。生成された第2のオブジェクト境界348Bを有する第2のオブジェクトマスク348Aは、精緻化された第1のオブジェクト境界304Bを有する精緻化された第1のオブジェクトマスク304Aに対応する。最終セグメンテーション結果350は、ゼロ深度アーチファクト又はドット様アーチファクト、ダングリング画素アーチファクト326及び自己陰影などのいずれのアーチファクトも伴わないことができる。
ここで再び図3Aを参照すると、314において、画像プロセッサ202を、第1の前景オブジェクト118aに新たな背景をもたらす新たなRGB画像を検索するように構成することができる。新たなRGB画像は、RGB画像110aとは異なることができる。図3Lに、第1の前景オブジェクト118aなどの抽出された関心オブジェクトの背景置換動作を示す。図3Lには、画像352と画像352の背景354とを示す。画像処理装置102は、第1の前景オブジェクト118aなどの抽出された関心オブジェクトを、第1の前景オブジェクト118aの背景354などの新たな背景をもたらす画像352などの新たな画像に埋め込むように構成することができる。通常、第1の前景オブジェクト118aなどの抽出された関心オブジェクトを新たな背景に埋め込むと、第1の前景オブジェクト118aと背景354などの新たな背景との間の色−輝度値の変化に起因して容易に気付く。
ここで再び図3Aを参照すると、316において、オブジェクト混合プロセッサ206を、最後に第2のオブジェクト境界348Bに、新たな背景へのスムーズな色−輝度移行のための新たな背景との混合動作を適用するように構成することができる。図3Mに、新たな画像内の関心オブジェクトの精緻化されたオブジェクト境界に適用される新たな背景へのスムーズな色−輝度混合のための混合動作を示す。図3Mには、オブジェクト外層(external−to−object layer)356と、オブジェクト隣接内層(next−to−object internal layer)358と、第2のオブジェクト境界348Bとを示す。オブジェクト外層356は、第2のオブジェクト境界348Bの外側の背景画素を意味する。ある実施形態によれば、オブジェクト外層356において選択される画素数は、新たな画像の画像解像度と、最終セグメンテーション結果350の画素レベルの精度とに依存することができる。例えば、オブジェクト外層356は、第2のオブジェクト境界348Bの外側の新たな背景354などの新たな背景の3背景画素層とすることができる。いくつかの実施形態では、オブジェクト外層356を、第2のオブジェクト境界348Bの外側の新たな背景の1画素層とすることができる。オブジェクト隣接内層358は、第2のオブジェクト境界348Bの内側の第1の前景オブジェクト118aの前景画素を意味する。オブジェクト混合プロセッサ206は、(画像352などの)新たな画像内の第1の前景オブジェクト118aなどの関心オブジェクトの第2のオブジェクト境界348Bに(背景354などの)新たな背景へのスムーズな色−輝度混合のための混合動作を適用するように構成することができる。オブジェクト混合プロセッサ206は、第2のオブジェクト境界348Bの境界画素がオブジェクト隣接内層358の(色−輝度が)大きく異なる内部画素とオブジェクト外層356の外部画素との間に位置するかどうかを判定するように構成することができる。このような例では、内部画素の色−輝度値と外部画素の色−輝度値との差分が閾値を上回る場合、オブジェクト混合プロセッサ206を、スムーズな混合をもたらすために境界画素の色−輝度値を変更するように構成することができる。換言すれば、第2のオブジェクト境界348Bの境界画素の色値又は輝度値の少なくとも一方を更新することができる。この更新は、境界画素の色値又は輝度値と境界画素に隣接する画素集合の色値又は輝度値との間の差分に基づいて行うことができる。境界画素に隣接する画素集合は、関心オブジェクト(すなわち、オブジェクト隣接内層358)内の第1の画素数と、(画像352などの)新たな画像の新たな背景内(すなわち、背景354のオブジェクト外層356内)の第2の画素数とを含む。例えば、境界画素の新たな色−輝度値は、内部画素及び外部画素の50%−50%混合として設定することができる。このような第2のオブジェクト境界348Bの1画素混合をオブジェクト境界安定化と組み合わせることにより、視覚的に分かるアーチファクトを伴わない正確な混合をもたらすことができる。
図4A及び図4Bに、本開示の実施形態による、一連の画像フレームの画像内のオブジェクト境界安定化のための例示的な方法を示すフローチャートをまとめて示す。図4A及び図4Bにはフローチャート400を示す。この画像処理装置102において実行されるフローチャート400の説明は、図1A、図1B、図2及び図3A〜図3Mの要素に関連して行う。方法は、402から開始して404に進む。
404において、第1のタイプのセンサ104aからシーンの深度画像を受け取って第2のタイプのセンサ104bからシーンのカラー画像を受け取ることができる。このシーンは、少なくとも関心オブジェクトを含むことができる。画像プロセッサ202は、第1のタイプのセンサ104a(例えば、深度センサ)からシーン(例えば、シーン114)の深度画像(例えば、深度画像112a)を受け取るように構成することができる。画像プロセッサ202は、第2のタイプのセンサ104b(例えば、RGB画像センサ)から同じシーンのカラー画像(例えば、RGB画像110a)を受け取ることもできる。いくつかの実施形態では、センサ回路104が画像処理装置102に通信可能に結合された外部センサ装置である場合、画像プロセッサ202は、ネットワークインターフェイス210を介して深度画像及びカラー画像を受け取ることができる。
406において、シーンのカラー画像の処理を第1のタイプのセンサ110aのFOVに制限することができる。換言すれば、シーンのカラー画像は、同じシーンの深度画像を取り込む第1のタイプのセンサ104aのFOVに相当するカラー画像の領域に至るまで処理することができる。例えば、図1Bに示すように、画像プロセッサ202は、領域122aの0深度アーチファクトを解決するために、シーン114のRGB画像110aの処理を、平行な点線で示す第1のタイプのセンサ104aのFOVに制限するように構成することができる。
408において、受け取った深度画像に対する深度閾値動作によって関心オブジェクトの第1のオブジェクトマスクを取得することができる。第1のオブジェクトマスクを取得するには、深度閾値動作によって閾値深度値を上回る複数の深度値を除外することができる。閾値深度値は、関心オブジェクトの第1のオブジェクトマスクの画素に関連する最大深度値に対応することができる。例えば、画像プロセッサ202は、受け取った深度画像112a(図3A)に対する深度閾値動作によって、第1の前景オブジェクト118aなどの関心オブジェクトの第1のオブジェクト境界304Bを有する第1のオブジェクトマスク304Aを取得するように構成することができる。通常、第1のタイプのセンサ104aなどの最新の深度センサから受け取られるような深度情報は不完全であり、従って深度画像112aは、図1Bで観察して説明したような領域122a〜122d及び領域124などの陰影領域を含む。深度画像112aなどの深度マップが不完全性であると、オブジェクトの第1のオブジェクト境界304Bなどの境界に、特に一連の画像フレームのフレーム間で目に見える大きな揺らぎが生じる。
410において、深度画像からゼロ深度アーチファクトを除去することができる。ゼロ深度アーチファクトは、深度画像内の深度値が不明な領域に対応することができる。不明な深度値に関連する画素は、ゼロ深度アーチファクト除去のための指定基準に基づいて背景画素又は前景画素として分類することができる。例えば、画像プロセッサ202は、動作306Aによって示すように、第1のオブジェクトマスク304A上及びその周囲のドット様アーチファクトを除去するように構成することができる。ドット様アーチファクトは、ゼロ深度アーチファクトに対応する。第1のオブジェクトマスク304A上及びその周囲のゼロ深度アーチファクトの除去の例については、図3Bのゼロ深度分類マップ318によってさらに説明した。
412において、第1のオブジェクトマスクの第1のオブジェクト境界上に存在するダングリング画素アーチファクトを除去することができる。例えば、図3Cで説明したように、画像プロセッサ202は、第1のオブジェクトマスク304Aの第1のオブジェクト境界304B上に存在するダングリング画素アーチファクト326を除去するように構成することができる。画像プロセッサ202は、近隣の「3×3」画素内の画素が少なくとも1つの深度未定義画素(例えば、ゼロ深度値を含む画素)を有している時に、第1のオブジェクト境界304Bにおける画素にダングリング画素としてタグ付けするように構成することができる。ダングリング画素アーチファクト326を識別してタグ付けしたら、ダングリング画素アーチファクト326を除去することができる。
414において、深度画像から、関心オブジェクトの一部が第1のオブジェクトマスク上に影を落としたIRシャドーを除去することができる。例えば、画像プロセッサ202は、第1のオブジェクトマスク304Aから自己陰影を除去するように構成することができる。図3Dの例に、第1のオブジェクトマスク304A内の自己陰影領域328の除去を示す。ある実施形態によれば、IRシャドーの除去前に、カラー画像において第1のオブジェクトマスクの外側の背景領域を動的に更新することができる。
416において、ダングリング画素アーチファクト及びその他のアーチファクトの除去後に、カラー画像上で移動テンプレートフィルタを用いて第1のオブジェクトマスクの第1のオブジェクト境界を平滑化することができる。移動テンプレートフィルタ330を用いた第1のオブジェクト境界304Bの平滑化は、図3E、図3F、図3G、図3H及び図3Iから理解することができる。
418において、第1のオブジェクト境界の平滑化に基づいて、第2のオブジェクト境界を有する第2のオブジェクトマスクを生成することができる。例えば、図3Jに図示し説明したように、画像プロセッサ202は、第1のオブジェクト境界304Bの平滑化に基づいて第2のオブジェクト境界348Bを有する第2のオブジェクトマスク348Aを生成するように構成することができる。
420において、生成された第2のオブジェクト境界を有する第2のオブジェクトマスクに基づいて、カラー画像からの関心オブジェクトを抽出することができる。関心オブジェクト抽出の例については、RGB画像110aの背景116aから第1の前景オブジェクト118aなどの最終セグメンテーション結果350を描出できる図3Kに図示し説明した。
422において、抽出された関心オブジェクトを、関心オブジェクトの新たな背景をもたらす新たな画像に埋め込むことができる。例えば、図3Lに図示し説明したように、画像処理装置102は、第1の前景オブジェクト118aなどの抽出された関心オブジェクトを、第1の前景オブジェクト118aの背景354などの新たな背景をもたらす画像352などの新たな画像に埋め込むように構成することができる。
424において、新たな画像内の関心オブジェクトの第2のオブジェクト境界に新たな背景へのスムーズな色−輝度混合のための混合動作を適用することができる。混合動作の例については図3Mで説明した。オブジェクト混合プロセッサ206は、(画像352などの)新たな画像内の第1の前景オブジェクト118aなどの関心オブジェクトの第2のオブジェクト境界348Bに(背景354などの)新たな背景へのスムーズな色−輝度混合のための混合動作を適用するように構成することができる。
426において、一連の画像フレームのカラー画像などの全ての画像フレームが処理されたかどうかをチェックすることができる。一連の画像フレームの全ての画像フレームが処理されていない場合、制御は404に戻って次の画像フレームにオブジェクト抽出及び混合プロセスを繰り返すことができる。このプロセスは、一連の画像フレームが全て処理されて背景が置換された新たなビデオが生成されるまで繰り返すことができる。一連の画像フレームの全ての画像フレームが処理された場合、制御は終了428に進むことができる。
本開示の実施形態によれば、一連の画像フレームの画像(例えば、RGB画像110a)内のオブジェクト境界安定化のための画像処理システムが開示される。画像処理システムは、(画像プロセッサ202(図2)などの)少なくとも1つの画像プロセッサを有することができる画像処理装置102(図1A)を含むことができる。画像プロセッサ202は、第1のタイプのセンサ104aからシーン(例えば、シーン114)の深度画像(例えば、深度画像112a)を受け取って第2のタイプのセンサ104bからシーンのカラー画像(例えば、RGB画像110a)を受け取るように構成することができる。シーンは、少なくとも関心オブジェクト(例えば、第1の前景オブジェクト118a)を含むことができる。画像プロセッサ202は、受け取った深度画像に対する深度閾値動作によって関心オブジェクトの第1のオブジェクトマスク(例えば、第1のオブジェクトマスク304A)を取得するようにさらに構成することができる。画像プロセッサ202は、第1のオブジェクトマスクの第1のオブジェクト境界(例えば、第1のオブジェクト境界304B)上に存在するダングリング画素アーチファクト(例えば、ダングリング画素アーチファクト326)を除去するようにさらに構成することができる。画像プロセッサ202は、ダングリング画素アーチファクトの除去後に、カラー画像上で移動テンプレートフィルタ(例えば、移動テンプレートフィルタ330)を用いて第1のオブジェクトマスクの第1のオブジェクト境界を平滑化するようにさらに構成することができる。画像プロセッサ202は、第1のオブジェクト境界の平滑化に基づいて、第2のオブジェクト境界(例えば、第2のオブジェクト境界348B)を有する第2のオブジェクトマスク(例えば、第2のオブジェクトマスク348A)を生成するようにさらに構成することができる。画像プロセッサ202は、生成された第2のオブジェクト境界を有する第2のオブジェクトマスクに基づいて、カラー画像から関心オブジェクト(例えば、最終セグメンテーション結果350)を抽出するようにさらに構成することができる。
深度ベースのオブジェクトセグメンテーション法及びオブジェクト混合法にはいくつかの課題がある。深度ベースのオブジェクトセグメンテーション法では、オブジェクトセグメンテーションに深度マップを使用することで、カラー画像(例えば、RGB画像110a)のみを使用する方法と比べてオブジェクト描写プロセスにおける多くの不確実性を回避することができる。しかしながら、深度画像(例えば、深度マップ)をもたらす(第1のタイプのセンサ104aなどの)既存の深度センサは未だに精度に欠け、(第2のタイプのセンサ104bなどの)RGBカメラの解像度の上昇に追いついていない。例えば、深度センサから受け取った深度画像112aは、深度センサの赤外線(IR)エミッタからの光が伝播しないことによって領域の深度が不明になってゼロ深度アーチファクトを引き起こす陰影領域を含むことがある。ゼロ深度アーチファクトは、例えば深度画像112a内の領域122a、122b、122c及び122dなどの深度値が不明な領域に対応する。また、深度情報は、深度が急落して画像フレーム間の揺らぎが強いオブジェクト境界において最も不明確になり得る。最新の深度センサの深度情報が不完全であると、セグメント化されたオブジェクトの境界に、特に映画又はその他のビデオなどの一連の画像フレームのフレーム間で目に見える大きな揺らぎが生じる。結果として生じるアーチファクトは顕著であり、見る者にとって視覚的に不快である。例えば、ダングリング画素アーチファクト326は、深度画像112aの領域124(図1B及び図3A)に示すような無秩序な深度に起因して生じる。さらに、いくつかのシナリオでは、第1の前景オブジェクト118aなどの前景オブジェクトの一部がそれ自体に影を落とすことがあり、これを自己陰影と呼ぶ。自己陰影領域328は、領域122d(図1B及び図3A)に対応する。開示した一連の画像フレームの画像内のオブジェクト境界安定化のための画像処理装置102及び方法は、上記の深度ベースのオブジェクトセグメンテーションの課題を解決する。画像プロセッサ202は、逐次精緻化動作を実行して関心オブジェクトのオブジェクト境界揺らぎの量を低減するように構成することができる。画像プロセッサ202は、深度画像及びカラー画像の両方を利用して関心オブジェクトの境界を正確に識別するように構成することができる。例えば図3Aの処理パイプライン300における動作304、306A、306B、308、310、312及び316によって示すような逐次精緻化動作によって、第1のタイプのセンサ104aなどの深度センサの特徴である典型的な深度マップのアーチファクトを除去することができる。さらに、柔軟かつ指向的なフィルタとして動作する移動テンプレートフィルタ330には多くの利点がある。例えば、移動テンプレートフィルタ330の形状は、第1のオブジェクト境界304Bなどのオブジェクトの境界の局所的形状に合わせて調整することができる。さらに、移動テンプレートフィルタ330による平滑化は、非局所的輝度変換に対して不変である。さらに、移動テンプレートフィルタ330による平滑化は、従来の方法に比べて非常に高速であり、検索長さを乗じた境界画素数、及び移動テンプレートフィルタ330内の総画素数の複雑性が単純である。
また、通常、第1の前景オブジェクト118aなどの抽出された関心オブジェクトを新たな背景に埋め込むと、第1の前景オブジェクト118aと背景354などの新たな背景との間の色−輝度値の変化に起因して容易に気付く。しかしながら、オブジェクト混合プロセッサ206は、図3Mに示すように第2のオブジェクト境界348Bに新たな背景との混合動作を適用するので、新たな背景へのスムーズな色−輝度移行を達成することができる。いくつかのシナリオでは、このような第2のオブジェクト境界348Bの1画素混合をオブジェクト境界安定化と組み合わせることにより、視覚的にアーチファクトを伴わない正確な混合をもたらすことができる。画像プロセッサ202及びオブジェクト混合プロセッサ206によって実行される動作は、異なるアーチファクトの除去後に移動テンプレートフィルタ330を使用することにより、従来の深度ベースのオブジェクトセグメンテーション法に比べて、画像処理装置102自体のオブジェクト境界安定化に対するロバスト性を高める。
本開示の様々な実施形態は、一連の画像フレームの画像内のオブジェクト境界安定化のための機械及び/又はコンピュータによって実行可能な命令セットを記憶した非一時的コンピュータ可読媒体及び/又は記憶媒体を提供することができる。この命令セットは、第1のタイプのセンサ104aからシーン(例えば、シーン114)の深度画像(例えば、深度画像112a)を受け取って第2のタイプのセンサ104bからそのシーンのカラー画像(例えば、RGB画像110a)を受け取ることを機械及び/又はコンピュータに行わせることができる。シーンは、少なくとも関心オブジェクト(例えば、第1の前景オブジェクト118a)を含むことができる。受け取った深度画像に対する深度閾値動作によって、関心オブジェクトの第1のオブジェクトマスク(例えば、第1のオブジェクトマスク304A)を取得することができる。第1のオブジェクトマスクの第1のオブジェクト境界(例えば、第1のオブジェクト境界304B)上に存在するダングリング画素アーチファクト(例えば、ダングリング画素アーチファクト326)を除去することができる。ダングリング画素アーチファクトの除去後には、カラー画像上で移動テンプレートフィルタ(例えば、移動テンプレートフィルタ330)を使用して第1のオブジェクトマスクの第1のオブジェクト境界を平滑化することができる。第1のオブジェクト境界の平滑化に基づいて、第2のオブジェクト境界(例えば、第2のオブジェクト境界348B)を有する第2のオブジェクトマスク(例えば、第2のオブジェクトマスク348A)を生成することができる。生成された第2のオブジェクト境界を有する第2のオブジェクトマスクに基づいて、カラー画像からの関心オブジェクト(例えば、最終セグメンテーション結果350)を抽出することができる。
本開示は、ハードウェアで実現することも、又はハードウェアとソフトウェアの組み合わせで実現することもできる。本開示は、少なくとも1つのコンピュータシステム内で集中方式で実現することも、又は異なる要素を複数の相互接続されたコンピュータシステムにわたって分散できる分散方式で実現することもできる。本明細書で説明した方法を実行するように適合されたコンピュータシステム又はその他の装置が適することができる。ハードウェアとソフトウェアの組み合わせは、ロードされて実行された時に本明細書で説明した方法を実行するようにコンピュータシステムを制御することができるコンピュータプログラムを含むコンピュータシステムとすることができる。本開示は、他の機能を実行する集積回路の一部分を含むハードウェアで具現化することができる。
本開示は、本明細書で説明した方法の実装を可能にする全ての特徴を含み、コンピュータシステムにロードされた時にこれらの方法を実行できるコンピュータプログラム製品に組み込むこともできる。本文脈におけるコンピュータプログラムとは、情報処理能力を有するシステムに、特定の機能を直接的に、或いはa)別の言語、コード又は表記法への変換、b)異なる内容形態での複製、のいずれか又は両方を行った後に実行させるように意図された命令セットの、あらゆる言語、コード又は表記法におけるあらゆる表現を意味する。
いくつかの実施形態を参照しながら本開示を説明したが、当業者であれば、本開示の範囲から逸脱することなく様々な変更を行うことができ、同等物を代用することもできると理解するであろう。また、本開示の範囲から逸脱することなく、特定の状況又は内容を本開示の教示に適合させるように多くの修正を行うこともできる。従って、本開示は、開示した特定の実施形態に限定されるものではなく、添付の特許請求の範囲に該当する全ての実施形態を含むように意図されている。

Claims (28)

  1. 画像処理装置であって、
    少なくとも1つの画像プロセッサを備え、該少なくとも1つの画像プロセッサは、
    第1のタイプのセンサから少なくとも関心オブジェクトを含むシーンの深度画像を受け取って第2のタイプのセンサから前記シーンのカラー画像を受け取り、
    前記受け取った深度画像に対する深度閾値動作によって前記関心オブジェクトの第1のオブジェクトマスクを取得し、
    前記第1のオブジェクトマスクの第1のオブジェクト境界からダングリング画素アーチファクトを除去し、
    前記ダングリング画素アーチファクトの除去後に、前記カラー画像上で移動テンプレートフィルタの適用によって前記第1のオブジェクトマスクの前記第1のオブジェクト境界を平滑化し、
    前記第1のオブジェクト境界の前記平滑化に基づいて、第2のオブジェクト境界を有する第2のオブジェクトマスクを生成し、
    前記第2のオブジェクト境界を有する前記生成された第2のオブジェクトマスクに基づいて前記カラー画像から前記関心オブジェクトを抽出すし、
    関心オブジェクトの新たな背景を含む新たな画像に、抽出された前記関心オブジェクトを埋め込む、
    ように構成される、
    ことを特徴とする画像処理装置。
  2. 前記少なくとも1つの画像プロセッサは、前記カラー画像からの前記関心オブジェクトの前記抽出のために、前記シーンの前記カラー画像を前記第1のタイプのセンサの有効視野(FOV)に相当する前記カラー画像の領域に至るまで処理するようにさらに構成される、
    請求項1に記載の画像処理装置。
  3. 前記少なくとも1つの画像プロセッサは、前記深度閾値動作によって閾値深度値を上回る複数の深度値を除外するようにさらに構成され、前記閾値深度値は、前記関心オブジェクトの前記第1のオブジェクトマスクの画素に関連する最大深度値に対応する、
    請求項1に記載の画像処理装置。
  4. 前記少なくとも1つの画像プロセッサは、前記深度画像からゼロ深度アーチファクトを除去するようにさらに構成され、前記ゼロ深度アーチファクトは、前記深度画像内の深度値が不明な領域に対応する、
    請求項1に記載の画像処理装置。
  5. 前記少なくとも1つの画像プロセッサは、指定基準に基づいて、前記不明な深度値に関連する画素を背景画素又は前景画素の一つとして分類するようにさらに構成される、
    請求項4に記載の画像処理装置。
  6. 前記少なくとも1つの画像プロセッサは、前記深度画像から、前記関心オブジェクトの一部が前記第1のオブジェクトマスク上に影を落とした赤外線(IR)シャドーを除去するようにさらに構成される、
    請求項1に記載の画像処理装置。
  7. 前記少なくとも1つの画像プロセッサは、前記カラー画像内の前記第1のオブジェクトマスクの外側の背景領域を動的に更新するようにさらに構成される、
    請求項1に記載の画像処理装置。
  8. 前記移動テンプレートフィルタは、前記第1のオブジェクトマスクの内部領域における第1の画素集合と、前記第1のオブジェクトマスクの外側の外部領域における第2の画素集合とを含むように、前記第1のオブジェクト境界の境界画素を含むように前記カラー画像上に配置される、
    請求項1に記載の画像処理装置。
  9. 前記少なくとも1つの画像プロセッサは、前記移動テンプレートフィルタ内の前記第1のオブジェクト境界の法線に沿った画像勾配が最大の画素を発見するようにさらに構成され、前記第1のオブジェクト境界の前記法線は、画像勾配を計算する方向を定める、
    請求項8に記載の画像処理装置。
  10. 前記少なくとも1つの画像プロセッサは、前記第1の画素集合と前記第2の画素集合との間の色値の差分及び輝度値の差分を計算するようにさらに構成される、
    請求項8に記載の画像処理装置。
  11. 前記少なくとも1つの画像プロセッサは、前記第1のオブジェクト境界の前記平滑化のために前記境界画素を候補画素として識別するようにさらに構成され、
    前記境界画素は、前記計算された前記色値及び前記輝度値の差分に基づいて識別される、
    請求項10に記載の画像処理装置。
  12. 前記少なくとも1つの画像プロセッサは、前記新たな画像内の前記関心オブジェクトの前記第2のオブジェクト境界に、前記新たな背景へのスムーズな色−輝度混合のための混合動作を適用するようにさらに構成される、
    請求項1に記載の画像処理装置。
  13. 前記少なくとも1つの画像プロセッサは、境界画素の色値又は輝度値と、前記境界画素に隣接する画素集合の色値又は輝度値との間の差分に基づいて、前記第2のオブジェクト境界の境界画素の色値又は輝度値の少なくとも一方を更新するようにさらに構成され、前記画素集合は、前記第2のオブジェクトマスク内の第1の画素数と、前記新たな画像の前記新たな背景内の第2の画素数とを含む、
    請求項12に記載の画像処理装置。
  14. オブジェクト境界安定化のための方法であって、
    少なくとも1つの画像プロセッサを備えた画像処理装置において、
    前記少なくとも1つの画像プロセッサが、第1のタイプのセンサから少なくとも関心オブジェクトを含むシーンの深度画像を受け取って第2のタイプのセンサから前記シーンのカラー画像を受け取るステップと、
    前記少なくとも1つの画像プロセッサが、前記受け取った深度画像に対する深度閾値動作によって前記関心オブジェクトの第1のオブジェクトマスクを取得するステップと、
    前記少なくとも1つの画像プロセッサが、前記第1のオブジェクトマスクの第1のオブジェクト境界からダングリング画素アーチファクトを除去するステップと、
    前記少なくとも1つの画像プロセッサが、前記ダングリング画素アーチファクトの除去後に、前記カラー画像上で移動テンプレートフィルタの適用によって前記第1のオブジェクトマスクの前記第1のオブジェクト境界を平滑化するステップと、
    前記少なくとも1つの画像プロセッサが、前記第1のオブジェクト境界の前記平滑化に基づいて、第2のオブジェクト境界を有する第2のオブジェクトマスクを生成するステップと、
    前記少なくとも1つの画像プロセッサが、前記第2のオブジェクト境界を有する前記生成された第2のオブジェクトマスクに基づいて前記カラー画像から前記関心オブジェクトを抽出するステップと、
    関心オブジェクトの新たな背景を含む新たな画像に、前記抽出された前記関心オブジェクトを埋め込むステップと、
    を含むことを特徴とする方法。
  15. 前記少なくとも1つの画像プロセッサが、前記カラー画像からの前記関心オブジェクトの前記抽出のために、前記シーンの前記カラー画像を前記第1のタイプのセンサの有効視野(FOV)に相当する前記カラー画像の領域に至るまで処理するステップをさらに含む、
    請求項14に記載の方法。
  16. 前記少なくとも1つの画像プロセッサが、前記深度閾値動作によって閾値深度値を上回る複数の深度値を除外するステップをさらに含み、前記閾値深度値は、前記関心オブジェクトの前記第1のオブジェクトマスクの画素に関連する最大深度値に対応する、
    請求項14に記載の方法。
  17. 前記少なくとも1つの画像プロセッサが、前記深度画像からゼロ深度アーチファクトを除去するステップをさらに含み、前記ゼロ深度アーチファクトは、前記深度画像内の深度値が不明な領域に対応する、
    請求項14に記載の方法。
  18. 前記少なくとも1つの画像プロセッサが、指定基準に基づいて、不明な深度値に関連する画素を背景画素又は前景画素の一つとして分類するステップをさらに含む、
    請求項17に記載の方法。
  19. 前記少なくとも1つの画像プロセッサが、前記深度画像から、前記関心オブジェクトの一部が前記第1のオブジェクトマスク上に影を落とした赤外線(IR)シャドーを除去するステップをさらに含む、
    請求項14に記載の方法。
  20. 前記少なくとも1つの画像プロセッサが、前記カラー画像内の前記第1のオブジェクトマスクの外側の背景領域を動的に更新するステップをさらに含む、
    請求項14に記載の方法。
  21. 前記移動テンプレートフィルタは、前記第1のオブジェクトマスクの内部領域における第1の画素集合と、前記第1のオブジェクトマスクの外側の外部領域における第2の画素集合とを含むように、前記第1のオブジェクト境界の境界画素を含むように前記カラー画像上に配置される、
    請求項14に記載の方法。
  22. 前記少なくとも1つの画像プロセッサが、前記移動テンプレートフィルタ内の前記第1のオブジェクト境界の法線に沿った画像勾配が最大の画素を発見するステップをさらに含み、前記第1のオブジェクト境界の前記法線は、画像勾配を計算する方向を定める、
    請求項21に記載の方法。
  23. 前記少なくとも1つの画像プロセッサが、前記第1の画素集合と前記第2の画素集合との間の色値の差分及び輝度値の差分を計算するステップをさらに含む、
    請求項21に記載の方法。
  24. 前記少なくとも1つの画像プロセッサが、前記第1のオブジェクト境界の前記平滑化のために前記境界画素を候補画素として識別するステップをさらに含み、
    前記境界画素は、前記計算された前記色値及び前記輝度値の差分に基づいて識別される、
    請求項23に記載の方法。
  25. 前記少なくとも1つの画像プロセッサが、前記新たな画像内の前記関心オブジェクトの前記第2のオブジェクト境界に、前記新たな背景へのスムーズな色−輝度混合のための混合動作を適用するステップをさらに含む、
    請求項14に記載の方法。
  26. 前記少なくとも1つの画像プロセッサが、境界画素色値又は輝度値と、前記境界画素に隣接する画素集合の前記色値又は前記輝度値との間の差分に基づいて、前記第2のオブジェクト境界の境界画素の色値又は輝度値の少なくとも一方を更新するステップをさらに含み、前記画素集合は、前記第2のオブジェクトマスク内の第1の画素数と、前記新たな画像の前記新たな背景内の第2の画素数とを含む、
    請求項25に記載の方法。
  27. 前記少なくとも1つの画像プロセッサが、前記第1のオブジェクト境界上の近隣の3×3画素内の画素が少なくとも1つの深度未定義画素を有している時に、前記画素にダングリング画素としてマーク付けするステップをさらに含む、
    請求項25に記載の方法。
  28. 画像処理装置であって、
    少なくとも1つの画像プロセッサを備え、該少なくとも1つの画像プロセッサは、
    第1のタイプのセンサから少なくとも関心オブジェクトを含むシーンの深度画像を受け取って第2のタイプのセンサから前記シーンのカラー画像を受け取り、
    前記受け取った深度画像に対する深度閾値動作によって前記関心オブジェクトの第1のオブジェクトマスクを取得し、
    前記第1のオブジェクトマスクの第1のオブジェクト境界からダングリング画素アーチファクトを除去し、
    前記ダングリング画素アーチファクトの除去後に、前記カラー画像上で移動テンプレートフィルタの適用によって前記第1のオブジェクトマスクの前記第1のオブジェクト境界を平滑化し、
    前記移動テンプレートフィルタは、前記第1のオブジェクトマスクの内部領域における第1の画素集合と、前記第1のオブジェクトマスクの外側の外部領域における第2の画素集合とを含むように、前記第1のオブジェクト境界の境界画素を含むように前記カラー画像上に配置され、
    前記少なくとも1つの画像プロセッサは、前記移動テンプレートフィルタ内の前記第1のオブジェクト境界の法線に沿った画像勾配が最大の画素を発見するようにさらに構成され、前記第1のオブジェクト境界の前記法線は、画像勾配を計算する方向を定め、
    前記少なくとも1つの画像プロセッサは、前記第1のオブジェクト境界の前記平滑化に基づいて、第2のオブジェクト境界を有する第2のオブジェクトマスクを生成し、
    前記第2のオブジェクト境界を有する前記生成された第2のオブジェクトマスクに基づいて前記カラー画像から前記関心オブジェクトを抽出する、
    ように構成される、
    ことを特徴とする画像処理装置。
JP2019017062A 2018-03-06 2019-02-01 一連の画像の画像内のオブジェクト境界安定化のための画像処理装置及び方法 Active JP6889417B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/913,246 US10643336B2 (en) 2018-03-06 2018-03-06 Image processing apparatus and method for object boundary stabilization in an image of a sequence of images
US15/913,246 2018-03-06

Publications (2)

Publication Number Publication Date
JP2019160298A JP2019160298A (ja) 2019-09-19
JP6889417B2 true JP6889417B2 (ja) 2021-06-18

Family

ID=65443767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019017062A Active JP6889417B2 (ja) 2018-03-06 2019-02-01 一連の画像の画像内のオブジェクト境界安定化のための画像処理装置及び方法

Country Status (5)

Country Link
US (1) US10643336B2 (ja)
EP (1) EP3537378B1 (ja)
JP (1) JP6889417B2 (ja)
KR (1) KR102169431B1 (ja)
CN (1) CN110248085B (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9972092B2 (en) * 2016-03-31 2018-05-15 Adobe Systems Incorporated Utilizing deep learning for boundary-aware image segmentation
JP7003994B2 (ja) * 2017-08-08 2022-01-21 ソニーグループ株式会社 画像処理装置および方法
WO2020040729A1 (en) * 2018-08-20 2020-02-27 Hewlett-Packard Development Company, L.P. Generating a preview of a part to be printed
CN110378946B (zh) * 2019-07-11 2021-10-01 Oppo广东移动通信有限公司 深度图处理方法、装置以及电子设备
US10991130B2 (en) * 2019-07-29 2021-04-27 Verizon Patent And Licensing Inc. Systems and methods for implementing a sensor based real time tracking system
CN110689609B (zh) * 2019-09-27 2020-11-06 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质
USD1027692S1 (en) 2019-10-25 2024-05-21 Icm Airport Technics Australia Pty Ltd Baggage scanner station
USD1002411S1 (en) 2019-10-25 2023-10-24 Icm Airport Technics Australia Pty Ltd Baggage scanner array
US20210144009A1 (en) * 2019-11-11 2021-05-13 Icm Airport Technics Australia Pty Ltd Device with biometric system
JP7287257B2 (ja) * 2019-12-06 2023-06-06 トヨタ自動車株式会社 画像処理装置、表示システム、プログラムおよび画像処理方法
US11430179B2 (en) 2020-02-24 2022-08-30 Microsoft Technology Licensing, Llc Depth buffer dilation for remote rendering
CN113065534B (zh) * 2021-06-02 2021-09-03 全时云商务服务股份有限公司 一种基于人像分割精度提升的方法、系统和存储介质
JP2023072296A (ja) * 2021-11-12 2023-05-24 ソニーグループ株式会社 情報処理装置および方法
WO2023097576A1 (en) * 2021-12-01 2023-06-08 Qualcomm Incorporated Segmentation with monocular depth estimation
KR20240027183A (ko) * 2022-08-22 2024-03-04 한국전자기술연구원 Ar 영상 수신 장치 및 방법
CN115170810B (zh) * 2022-09-08 2022-12-13 南京理工大学 一种可见光红外图像融合目标检测实例分割方法
CN115482309B (zh) * 2022-11-04 2023-08-25 平安银行股份有限公司 图像处理方法、计算机设备及存储介质
CN115880327B (zh) * 2022-11-30 2023-10-31 珠海视熙科技有限公司 抠图方法、摄像设备、会议系统、电子设备、装置、介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07122908B2 (ja) 1991-03-12 1995-12-25 インターナショナル・ビジネス・マシーンズ・コーポレイション 3次元のソリッド物体を表す表示可能情報を生成する装置と方法
JP2000030040A (ja) 1998-07-14 2000-01-28 Canon Inc 画像処理装置及びコンピュータ読み取り可能な記憶媒体
US7095786B1 (en) * 2003-01-11 2006-08-22 Neo Magic Corp. Object tracking using adaptive block-size matching along object boundary and frame-skipping when object motion is low
US7596243B2 (en) 2005-09-16 2009-09-29 Sony Corporation Extracting a moving object boundary
US8406569B2 (en) * 2009-01-19 2013-03-26 Sharp Laboratories Of America, Inc. Methods and systems for enhanced dynamic range images and video from multiple exposures
US9569819B2 (en) 2009-01-30 2017-02-14 Thomson Licensing Coding of depth maps
US20110211749A1 (en) 2010-02-28 2011-09-01 Kar Han Tan System And Method For Processing Video Using Depth Sensor Information
US8649592B2 (en) 2010-08-30 2014-02-11 University Of Illinois At Urbana-Champaign System for background subtraction with 3D camera
CN102542601A (zh) * 2010-12-10 2012-07-04 三星电子株式会社 一种用于3d对象建模的设备和方法
US9230308B2 (en) * 2011-06-30 2016-01-05 Weyerhaeuser Nr Company Method and apparatus for removing artifacts from aerial images
WO2013066351A1 (en) 2011-11-04 2013-05-10 Empire Technology Development Llc Ir signal capture for images
CN103247050B (zh) * 2013-05-16 2015-12-02 北京工业大学 一种渐进式图像分割方法
WO2014189484A1 (en) 2013-05-20 2014-11-27 Intel Corporation Technologies for increasing the accuracy of depth camera images
CN104063871B (zh) * 2014-07-04 2017-03-01 西安电子科技大学 可穿戴设备的图像序列场景分割方法
US9741125B2 (en) 2015-10-28 2017-08-22 Intel Corporation Method and system of background-foreground segmentation for image processing
AU2017288933B2 (en) 2016-06-27 2021-09-23 Robert Bosch Gmbh Systems and methods for dynamic occlusion handling

Also Published As

Publication number Publication date
US20190279371A1 (en) 2019-09-12
CN110248085B (zh) 2021-08-06
KR102169431B1 (ko) 2020-10-23
US10643336B2 (en) 2020-05-05
EP3537378A1 (en) 2019-09-11
JP2019160298A (ja) 2019-09-19
EP3537378B1 (en) 2021-11-24
CN110248085A (zh) 2019-09-17
KR20190106698A (ko) 2019-09-18

Similar Documents

Publication Publication Date Title
JP6889417B2 (ja) 一連の画像の画像内のオブジェクト境界安定化のための画像処理装置及び方法
US10380756B2 (en) Video processing system and method for object detection in a sequence of image frames
EP3327668B1 (en) Image-processing device and method for foreground mask correction for object segmentation
CN113424223B (zh) 彩色图像帧序列中的基于多个神经网络的对象分割
US10916019B2 (en) Moving object detection in image frames based on optical flow maps
KR102598459B1 (ko) 지평면 검출에 기초한 이미지 시퀀스로부터의 사람 객체의 손실 발 복구
JP7100306B2 (ja) ユーザ指定初期化点に基づくオブジェクトトラッキング
US20210082122A1 (en) Image-based mask frame interpolation
US10089721B2 (en) Image processing system and method for object boundary smoothening for image segmentation
EP3537377B1 (en) Automated tracking and retaining of an articulated object in a sequence of image frames
JP6044138B2 (ja) 画像領域分割装置、方法、およびプログラム
JP6044130B2 (ja) 画像領域分割装置、方法、およびプログラム
JP5962491B2 (ja) 画角調整装置、方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200129

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210504

R151 Written notification of patent or utility model registration

Ref document number: 6889417

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151