JP2021526254A - 地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復 - Google Patents

地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復 Download PDF

Info

Publication number
JP2021526254A
JP2021526254A JP2020564941A JP2020564941A JP2021526254A JP 2021526254 A JP2021526254 A JP 2021526254A JP 2020564941 A JP2020564941 A JP 2020564941A JP 2020564941 A JP2020564941 A JP 2020564941A JP 2021526254 A JP2021526254 A JP 2021526254A
Authority
JP
Japan
Prior art keywords
color image
image frame
input color
control circuit
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020564941A
Other languages
English (en)
Other versions
JP7152705B2 (ja
Inventor
モハメド ガラヴィ−アルクハンサリ
モハメド ガラヴィ−アルクハンサリ
浩行 武田
浩行 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JP2021526254A publication Critical patent/JP2021526254A/ja
Application granted granted Critical
Publication of JP7152705B2 publication Critical patent/JP7152705B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

第1のタイプのセンサと、第2のタイプのセンサと、制御回路とを含むオブジェクトセグメンテーションシステム。前記第1のタイプのセンサは、シーンの一連のカラー画像フレームを取り込む。前記第2のタイプのセンサは、前記一連のカラー画像フレームのうちの対応するカラー画像フレーム毎に深度画像を取り込む。前記制御回路は、入力カラー画像フレームに対するポイントクラウドを生成する。前記制御回路は、前記入力カラー画像フレームの背景から、前景人間オブジェクトをセグメント化する。前記制御回路は、前記入力カラー画像フレームにおいて取り込まれる前記シーンに対する地面を検出する。前記制御回路は、前記検出された地面のレベルから規定の領域内の足領域を回復する。前記制御回路は、地面の検出に基づいて、前記入力カラー画像フレームの前記背景から、前記回復された足領域を有する前記前景人間オブジェクトを抽出する。【選択図】図1

Description

〔関連出願との相互参照/引用による組み入れ〕
[0001] なし
[0002] 本開示の様々な実施形態は、画像シーケンスからのオブジェクト抽出技術に関する。具体的には、本開示の様々な実施形態は、地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の正確な回復のためのオブジェクトセグメンテーション装置及び方法に関する。
[0003] 最近の画像処理の分野の開発は、様々な画像セグメンテーション技術の進歩をもたらしている。このような技術は、異なる統計的及び/又は確率的画像特徴ベースの方法に基づいて、特定の画像から関心オブジェクト(例えば人体)のセグメント化を容易にする。このようなオブジェクトセグメンテーション技術の例は、圧縮ベースのオブジェクトセグメンテーション技術、色ベースのセグメンテーション技術、深度ベースのオブジェクトセグメンテーション技術、及びヒストグラムベースのオブジェクトセグメンテーション技術を含むことができる。
[0004] 現在、特有の色ベースのセグメンテーション法では、取り込んだ画像から所定の静止した背景画像を減算することに基づいて、関心オブジェクトをセグメント化することができる。しかしながら、所定の静止した背景画像を生成するために、従来のオブジェクトセグメンテーション装置は、関心オブジェクトがシーン内に存在しないとき、シーンの一連の画像を取り込むことが必要であり、これは、望ましくない場合がある。シーンの所定の静止した背景画像は、取り込まれた一連の画像から生成することができる。背景画像減算法は、更に、静止したカメラを用いて、シーンから一連の画像を取り込む必要がある場合がある。別の深度ベースの方法では、従来の装置は、深度センサによって取り込むことができる深度画像を用いることによって、関心オブジェクトをセグメント化することができる。深度センサが、無効な深度値を含むノイズが多い深度画像を取り込む場合、従来のオブジェクトセグメンテーション装置は、取り込まれた画像から関心オブジェクトを誤って且つ不正確にセグメント化する場合がある。これらの方法に基づいてセグメント化される人間オブジェクトなどの関心オブジェクトは、足領域が欠けている場合がある。というのは、足領域は、セグメント化が不正確である場合がある地面に近接しているからである。更に、人間オブジェクトの足領域の周囲のエリアは、人間オブジェクトの影によって変化する場合もある。したがって、セグメント化された人間オブジェクトは、望ましくない場合がある消失足領域を有する場合がある。
[0005] 当業者には、説明したシステムと、本出願の残り部分において図面を参照しながら示す本開示のいくつかの態様とを比較することにより、従来の慣習的方法の更なる制限及び不利点が明らかになるであろう。
[0006] 少なくとも1つの図に実質的に示し、及び/又はこれらの図に関連して説明し、特許請求の範囲に更に完全に示す、地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復のためのオブジェクトセグメンテーション装置及び方法を提供することができる。
[0007] 全体を通じて同じ要素を同じ参照符号によって示す添付図面を参照しながら本開示の以下の詳細な説明を検討することにより、本開示のこれらの及びその他の特徴及び利点を理解することができる。
本開示の実施形態による、地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復のための例示的なネットワーク環境を示すブロック図である。 本開示の実施形態による、例示的なオブジェクトセグメンテーション装置を示すブロック図である。 本開示の実施形態による、地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復のための例示的な動作を示す図である。 本開示の実施形態による、地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復のための例示的な動作を示す図である。 本開示の実施形態による、地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復のための例示的な動作を示す図である。 本開示の実施形態による、地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復のための例示的な動作を示す図である。 本開示の実施形態による、地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復のための例示的な動作を示す図である。 本開示の実施形態による、地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復のための例示的な動作を示す図である。 本開示の実施形態による、地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復のための例示的な動作を示す図である。 本開示の実施形態による、地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復のための例示的な動作を示す図である。 本開示の実施形態による、地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復のための例示的な動作を示すフローチャートである。 本開示の実施形態による、地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復のための例示的な動作を示すフローチャートである。 本開示の実施形態による、地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復のための例示的な動作を示すフローチャートである。
[0012] 地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復のための開示される装置及び方法では、以下の説明される実装を見出すことができる。本開示の例示的な態様は、第1のタイプのセンサと、第2のタイプのセンサとを含むオブジェクトセグメンテーションシステムを含むことができる。前記第1のタイプのセンサは、シーンの一連のカラー画像フレームを取り込むように構成することができる。前記第2のタイプのセンサは、前記一連のカラー画像フレームのうちの対応するカラー画像フレーム毎に深度画像を取り込むように構成することができる。前記オブジェクトセグメンテーションシステムは、更に、前記第1のタイプのセンサから受け取られる前記一連のカラー画像フレームのうちの入力カラー画像フレームに対するポイントクラウドを生成するように構成される制御回路を含むことができる。入力カラー画像フレームに対するポイントクラウドは、前記第2のタイプのセンサから受け取られる入力カラー画像フレームに対する対応する入力深度画像に基づいて生成することができる。
[0013] ある実施形態によれば、オブジェクトセグメンテーション装置は、第1の画像パラメータの組に基づいて、前記入力カラー画像フレームの背景から、前景人間オブジェクトをセグメント化するように構成することができる。前記セグメント化された前景人間オブジェクトは、前記前景人間オブジェクトの足領域の少なくとも一部が欠けている場合がある。前記オブジェクトセグメンテーション装置は、更に、前記生成されたポイントクラウド内の各ポイントから投影される各ベクトルに関連する向き情報に基づいて、前記入力カラー画像フレームにおいて取り込まれる前記シーンに対する地面を検出するように構成することができる。ある実施形態によれば、前記生成されたポイントクラウド内の複数のポイントから投影される複数のベクトルを、ベクトルクラスタの組にクラスタ化することによって、前記地面を検出することができる。前記シーンに対する前記地面は、前記生成されたポイントクラウド内の前記ベクトルクラスタの組のうちの1つのベクトルクラスタに関連する向き情報に基づいて検出することができる。前記オブジェクトセグメンテーション装置は、第2の画像パラメータの組に基づいて、前記入力カラー画像フレーム内の前記検出された地面のレベルから規定の領域内の足領域を回復することができる。前記第2の画像パラメータの組は、前記第1の画像パラメータの組と異なることができる。前記オブジェクトセグメンテーション装置は、更に、前記一連のカラー画像フレームのうちの前記入力カラー画像フレームの前記背景から、前記回復された足領域を有する前記前景人間オブジェクトを抽出するように構成することができる。前記地面の検出と、前記検出された地面の前記レベルから前記規定の領域内の決定された複数の前景画素とに基づいて、前記回復された足領域を有する前記前景人間オブジェクトを抽出することができる。
[0014] ある実施形態によれば、前記オブジェクトセグメンテーション装置は、深度値が存在しない前記入力深度画像内の複数の領域を検出することができる。前記オブジェクトセグメンテーション装置は、メディアンフィルタ及び均一フィルタによって、前記入力深度画像を平滑化して、前記複数の領域において深度値を塗りつぶし、前記入力深度画像内のノイズを低減させるように構成することができる。前記オブジェクトセグメンテーション装置は、更に、前記入力深度画像に基づいて、前記生成されたポイントクラウド内の前記複数のポイントの各ポイントの3次元(3D)座標を決定するように構成することができる。前記オブジェクトセグメンテーション装置は、前記入力カラー画像フレームにおいて取り込まれる前記シーンに対する前記生成されたポイントクラウド内の複数のポイントから投影される複数のベクトルを計算することができる。前記生成されたポイントクラウドの前記複数のポイントにおいて関心ポイント及び前記関心ポイントの2つの隣接ポイントの3次元座標に基づいて、前記生成されたポイントクラウド内の複数のポイントから投影される複数のベクトルを計算することができる。
[0015] ある実施形態によれば、前記オブジェクトセグメンテーション装置は、前記生成されたポイントクラウド内の前記複数のポイントに関連する前記計算された複数のベクトルを、ベクトルクラスタの組にクラスタ化するように構成することができる。前記計算された複数のベクトルは、前記生成されたポイントクラウド内の前記複数のポイントに関連する前記計算された複数のベクトルの各々に関連する向き情報に基づいて、クラスタ化することができる。前記オブジェクトセグメンテーション装置は、前記入力カラー画像フレームにおいて取り込まれる前記シーンに関連する前記ベクトルクラスタの組に基づいて、前記入力カラー画像フレームにおいて取り込まれる前記シーンに対する複数の平面を検出するように構成することができる。
[0016] ある実施形態によれば、前記オブジェクトセグメンテーション装置は、前記入力カラー画像フレームにおいて取り込まれる前記シーンに関連する前記ベクトルクラスタの組に基づいて、平面マップを生成することができる。更に、前記平面マップは、前記入力カラー画像フレームの画像領域内の前記検出された複数の平面をマップすることによって生成することができる。前記平面マップは、前記平面マップ内の前記検出された複数の平面のうちの異なる平面内にグループ化される画素を含むことができる。前記画素は、前記シーンの前記入力カラー画像フレームの前記画像領域内の前記平面マップ内の画素の空間位置にかかわらず、前記平面マップ内の各画素に関連する同じ向き情報に基づいて、グループ化することができる。前記オブジェクトセグメンテーション装置は、更に、前記平面マップ内の前記検出された複数の平面内の複数の点在領域を検出するように構成することができる。前記複数の点在領域は、前記画像領域内の第1の閾値数の画素よりも小さい、前記平面マップ内の複数の点在領域のエリアサイズに基づいて、検出することができる。前記オブジェクトセグメンテーション装置は、前記平面マップ内の前記検出された複数の点在領域を除去することができる。前記オブジェクトセグメンテーション装置は、更に、メディアンフィルタによって、前記画像領域内の第2の閾値数の画素よりも小さい前記検出された複数の点在領域を平滑化することができる。
[0017] ある実施形態によれば、前記オブジェクトセグメンテーション装置は、前記シーンに対する基準高さから、前記平面マップ内の前記検出された複数の平面内の最も低い平面を選択することができる。前記基準高さは、前記シーンの前記一連のカラー画像フレームを取り込む前記第1のタイプのセンサの高さに対応することができる。前記平面マップ内の前記検出された複数の平面内の前記選択された最も低い平面は、前記入力カラー画像フレームにおいて取り込まれる前記シーンに対する前記地面とすることができる。前記オブジェクトセグメンテーション装置は、前記平面マップ内の前記画素の高さベースの分布に基づいて、前記平面マップ内の異なる水平面内の画素を分離するように構成することができる。前記オブジェクトセグメンテーション装置は、更に、前記平面マップ内の前記画素の前記高さベースの分布に基づいて、前記異なる水平面内の他の画素と比較して、最も低い水平面内に存在する画素を、前記地面の前記画素として分類するように構成することができる。
[0018] ある実施形態によれば、前記オブジェクトセグメンテーション装置は、前記入力深度画像及び前記第1の画像パラメータの組を用いて、前記シーンの入力カラー画像フレーム内の前記前景人間オブジェクトの前景マスクを推定するように構成することができる。前記シーンの入力カラー画像フレーム内の前記前景人間オブジェクトの前景マスクは、前記入力カラー画像フレームと前記入力カラー画像フレームの背景画像との間の差分を2値化することによって、推定することができる。前記前景人間オブジェクトは、前記推定された前景マスクに基づいて、前記入力カラー画像フレームの前記背景からセグメント化することができる。前記オブジェクトセグメンテーション装置は、更に、前記入力カラー画像フレーム内の前記検出された地面の前記レベルから前記規定の領域内の画素の組を含むように、前記推定された前景マスクを更新するように構成することができる。前記画素の組は、前記第2の画像パラメータの組に基づいて回復される前記足領域の画素に対応することができる。
[0019] 図1は、本開示の実施形態による、地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復のための例示的なネットワーク環境を示すブロック図である。図1を参照すると、ネットワーク環境100が示されている。ネットワーク環境100は、オブジェクトセグメンテーション装置102と、サーバ104と、通信ネットワーク106と、画像取り込み装置108とを含むことができる。オブジェクトセグメンテーション装置102は、画像取り込み装置108に通信可能に結合することができる。画像取り込み装置108は、第1のタイプのセンサ108A及び第2のタイプのセンサ108Bを含むことができる。ある実施形態によれば、第1のタイプのセンサ108Aは、画像センサとすることができ、第2のタイプのセンサ108Bは、深度センサとすることができる。第1のタイプのセンサ108Aは、画像取り込み装置108の視野から、シーン110の一連のカラー画像フレーム112を取り込むように構成することができる。第2のタイプのセンサ108Bは、シーン110の一連のカラー画像フレーム112と同じ視野を含む一連の深度画像114を取り込むように構成することができる。一連のカラー画像フレーム112は、入力カラー画像フレーム116を含むことができる。一連の深度画像114は、入力カラー画像フレーム116に対応する入力深度画像118を含むことができる。シーン110は、関心オブジェクト(例えば人間オブジェクト)を含むことができる。シーン110は、更に、他の複数のオブジェクト、例えばテーブル、ドア、椅子、コンピュータ等を含むことができる。オブジェクトセグメンテーション装置102は、通信ネットワーク106を介して、サーバ104に通信可能に結合することができる。
[0020] オブジェクトセグメンテーション装置102は、画像取り込み装置108の第1のタイプのセンサ108Aによって取り込まれるシーン110の一連のカラー画像フレーム112を受け取るように構成できる好適なロジック、回路、及びインターフェイスを含むことができる。オブジェクトセグメンテーション装置102は、更に、画像取り込み装置108の第2のタイプのセンサ108Bによって取り込まれる、一連のカラー画像フレーム112に対応する一連の深度画像114を受け取ることができる。オブジェクトセグメンテーション装置102は、シーン110の一連のカラー画像フレーム112のうちの入力カラー画像フレーム116の背景から、前景人間オブジェクトをセグメント化するように構成することができる。オブジェクトセグメンテーション装置102は、入力カラー画像フレーム116において取り込まれるシーン110に対する地面を検出するように構成することができる。オブジェクトセグメンテーション装置102は、更に、検出された地面に基づいて、シーン110の入力カラー画像フレーム116からセグメント化された前景人間オブジェクトから、消失足領域を回復するように構成することができる。オブジェクトセグメンテーション装置102の機能は、高速コンピュータ装置などのローカル装置、又はアプリケーションサーバ又はグラフィック画像処理サーバなどのリモート装置に実装することができる。オブジェクトセグメンテーション装置102の例としては、以下に限定されるわけではないが、デジタルカメラ、デジタルカムコーダ、カメラ付き携帯電話、スマートフォン、携帯音楽プレーヤー、ゲーム機、タブレットコンピュータ、モバイル装置、ビデオプレーヤー、ビデオディスクライター/プレーヤーを挙げることができる。オブジェクトセグメンテーション装置102の他の例としては、以下に限定されるわけではないが、テレビ、家庭用娯楽システム、拡張現実装置、仮想現実装置、スマートウォッチ、又は他の任意の好適なコンピュータ装置等を挙げることができる。
[0021] サーバ104は、シーン110の一連のカラー画像フレーム112及びシーン110の一連の深度画像114を記憶するように構成できる好適な回路及びインターフェイスを含むことができる。サーバ104は、更に、シーン110の一連のカラー画像フレーム112の背景からセグメント化された人間オブジェクトと、そのセグメント化された人間オブジェクトの回復された消失した足とを記憶するように構成することができる。いくつかの実施形態では、サーバ104は、クラウドサーバとして実装することができ、これを利用して、ウェブアプリケーション、クラウドアプリケーション、HTTP要求、データベース動作、ファイル転送、ゲーム動作等を介して、サーバ104の上記の動作を実行することができる。
[0022] 通信ネットワーク106は、通信媒体を含むことができ、これを介して、オブジェクトセグメンテーション装置102は、サーバ104に通信可能に結合することができる。通信ネットワーク106の例としては、以下に限定されるわけではないが、インターネット、クラウドネットワーク、無線フィデリティ(Wi−Fi)ネットワーク、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、又はメトロポリタンエリアネットワーク(MAN)を挙げることができる。ネットワーク環境100内の様々な装置は、様々な有線及び無線通信プロトコルに従って、通信ネットワーク106に接続するように構成することができる。このような有線及び無線通信プロトコルの例としては、以下に限定されるわけではないが、伝送制御プロトコル及びインターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、ファイル転送プロトコル(FTP)、ZigBee、EDGE、IEEE 802.11、ライトフィデリティ(Li−Fi)、802.16、IEEE 802.11s、IEEE 802.11g、マルチホップ通信、無線アクセスポイント(AP)、装置間通信、セルラー通信プロトコル、及びBluetooth(BT)通信プロトコルの少なくとも1つを含むことができる。
[0023] 画像取り込み装置108は、シーン110の複数のカラー画像及び複数の深度画像を取り込むように構成できる好適なロジック、回路、及びインターフェイスを含むことができる。画像取り込み装置108は、複数のセンサ(例えば、第1のタイプのセンサ108A及び第2のタイプのセンサ108B)を含むことができる。取り込まれた複数のカラー画像及び複数の深度画像は、サーバ104に記憶することができる。いくつかの実施形態では、第1のタイプのセンサ108A及び第2のタイプのセンサ108Bを含む画像取り込み装置108は、オブジェクトセグメンテーション装置102内に存在することができる。画像取り込み装置108の例としては、以下に限定されるわけではないが、カメラ、画像センサ、色センサ(例えば、赤−緑−青(RGB)センサ)、深度センサ等を挙げることができる。
[0024] 第1のタイプのセンサ108A(例えば画像センサ)は、シーン110の複数のカラー画像を取り込むように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。第1のタイプのセンサ108Aは、好適な光学器械、例えば、第1のタイプのセンサ108Aに対して、シーン110及び/又はシーン110内の特定の関心オブジェクトの焦点合わせを行うことができるフォーカスレンズを有することができる。第1のタイプのセンサ108Aの実装の例としては、以下に限定されるわけではないが、RGBセンサ、半導体電荷結合素子(CCD)ベースの画像センサ、相補型金属酸化膜半導体(CMOS)ベースの画像センサ、N型金属酸化膜半導体ベースの画像センサ、フラットパネル検出器、又は他の画像センサを挙げることができる。
[0025] 第2のタイプのセンサ108B(例えば深度センサ)は、シーン110から複数の深度画像を取り込むように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。複数の深度画像の各々は、それぞれの深度画像が第2のタイプのセンサ108Bによって取り込まれることができる様々な時点で、シーン110内の様々なオブジェクトに関連する深度情報を含むことができる。第2のタイプのセンサ108Bの実装の例としては、以下に限定されるわけではないが、深度センサ、立体三角測量ベースの深度センサ、構造化照明3Dスキャナベースの深度センサ、又は符号化開口ベースの深度センサを挙げることができる。
[0026] 画像取り込み装置108の第1のタイプのセンサ108Aは、動作時に、画像取り込み装置108の視野から、シーン110の一連のカラー画像フレーム112を取り込むように構成することができる。一連のカラー画像フレーム112は、フラッシュビデオ、オーディオ・ビデオ・インターリーブド(AVI)ビデオ、及びMoving Pictures Expert Group(MPEG)ビデオなどのビデオとすることができる。取り込まれた一連のカラー画像フレーム112は、シーン110の複数のオブジェクトを含むことができる。取り込まれた一連のカラー画像フレーム112は、更に、人間オブジェクトを含むことができる。一連のカラー画像フレーム112の各カラー画像フレームは、複数の画素を含むことができる。カラー画像フレームの複数の画素の各々は、色成分を含み、そのカラー画像フレーム内の空間位置を有することができる。第1のタイプのセンサ108Aは、一連のカラー画像フレーム112をオブジェクトセグメンテーション装置102に送信するように構成することができる。一連のカラー画像フレーム112は、入力カラー画像フレーム116を含むことができる。
[0027] 画像取り込み装置108の第2のタイプのセンサ108Bは、一連のカラー画像フレーム112のうちの対応するカラー画像フレーム毎に深度画像を取り込むように構成することができる。第2のタイプのセンサ108Bは、第1のタイプのセンサ108Aによる一連のカラー画像フレーム112の取り込みと同時に、一連のカラー画像フレーム112のうちの対応するカラー画像フレーム毎に深度画像を取り込むことができる。換言すれば、第2のタイプのセンサ108Bは、シーン110の一連のカラー画像フレーム112に対応する一連の深度画像114を取り込むように構成することができる。一連の深度画像114の各々は、一連のカラー画像フレーム112の異なるカラー画像フレームに対応することができる。一連のカラー画像フレーム112の各カラー画像フレームの深度画像は、それぞれのカラー画像フレームを取り込むことができるときの対応する時点で、シーン110に関連する深度情報を含むことができる。一連の深度画像114の各々は、複数の画素を含むことができる。深度画像の複数の画素の各々は、深度値を含み、その深度画像内の空間位置を有することができる。第2のタイプのセンサ108Bは、一連の深度画像114をオブジェクトセグメンテーション装置102に送信するように構成することができる。一連の深度画像114は、入力カラー画像フレーム116の入力深度画像118を含むことができる。
[0028] ある実施形態によれば、オブジェクトセグメンテーション装置102は、画像取り込み装置108から、一連のカラー画像フレーム112及び対応する一連の深度画像114を受け取るように構成することができる。換言すれば、オブジェクトセグメンテーション装置102は、シーン110の入力カラー画像フレーム116及び対応する入力深度画像118を受け取るように構成することができる。オブジェクトセグメンテーション装置102は、深度値が存在しない入力深度画像118内の複数の領域を検出するように構成することができる。オブジェクトセグメンテーション装置102は、入力深度画像118を平滑化して、深度値が存在しない複数の領域において深度値を塗りつぶして、入力深度画像118内のノイズを低減させることができる。入力深度画像118は、3x3メディアンフィルタに基づいて平滑化することができる。3x3メディアンフィルタは、非線形フィルタとすることができ、これは、非線形フィルタリング技術を利用して、入力深度画像118内の深度値が存在しない複数の領域において深度値を塗りつぶす。3x3メディアンフィルタを利用して、入力深度画像118から「ソルト・アンド・ペッパー(salt and pepper)」型ノイズを除去することもできる。「ソルト・アンド・ペッパー(salt and pepper)」型ノイズは、画像信号の急激な及び突然の乱れによって引き起こされるインパルスノイズとしても知られる。いくつかの実施形態では、オブジェクトセグメンテーション装置102は、7x7フィルタを利用して、入力深度画像118から「ガウス型」ノイズを除去することもできる。7x7均一フィルタは、線形フィルタリング技術を利用して、照明不良又は高温により、入力深度画像118の取得中に又は入力深度画像118の取り込み時に発生する「ガウス型」ノイズを除去することができる。
[0029] ある実施形態によれば、オブジェクトセグメンテーション装置102は、平滑化された入力深度画像118に基づいて、入力カラー画像フレーム116のポイントクラウドを生成するように構成することができる。ポイントクラウドは、3次元座標系内の入力カラー画像フレーム116内の取り込まれたシーンを表現するポイントの集合である。入力カラー画像フレーム116のポイントクラウドのポイントは、3次元座標系内で「X」、「Y」及び「Z」座標によって定義される。シーン110の入力カラー画像フレーム116のポイントクラウドは、入力深度画像118に基づいて生成することができる。入力深度画像118の深度値に基づいて、生成されたポイントクラウドの各ポイントの3次元座標を決定することができる。3次元座標系内の「X,Y,Z」座標に対する座標「0,0,0」は、3次元座標系内の画像取り込み装置108の位置を表現することができる。
[0030] ある実施形態によれば、オブジェクトセグメンテーション装置102は、第1の画像パラメータの組に基づいて、入力カラー画像フレーム116の背景から、前景人間オブジェクトをセグメント化するように構成することができる。オブジェクトセグメンテーション装置102は、入力カラー画像フレーム116から背景画像を分離するように構成することができる。オブジェクトセグメンテーション装置102は、更に、入力カラー画像フレーム116に対応する入力深度画像118を用いて、初期前景マスクを推定するように構成することができる。初期前景マスクは、更に、入力カラー画像フレーム116と入力カラー画像フレーム116の背景画像との間の差分を2値化することによって、推定することができる。オブジェクトセグメンテーション装置102は、推定された初期前景マスクの境界領域内の第1のマスク値を有する第1の画素の組を識別するように構成することができる。第1のマスク値を有する第1の画素の組は、第1の画像パラメータの組に基づいて、第2のマスク値に更新することができ、第1の画像パラメータの組は、境界領域に関連する各画素の色成分、深度成分及び空間位置とすることができる。
[0031] オブジェクトセグメンテーション装置102は、初期前景マスクの更新された第2のマスク値に基づいて、前景人間オブジェクトの前景マスクを推定するように構成することができる。オブジェクトセグメンテーション装置102は、セグメント化された前景人間オブジェクトを生成することができる。いくつかのシナリオでは、セグメント化された前景人間オブジェクトは、前景人間オブジェクトの足領域の一部が欠けている場合がある。前景人間オブジェクトの足領域が、入力カラー画像フレーム116の地面に近接して存在することにより、セグメント化された前景人間オブジェクトは、足領域が欠けている場合がある。このような足領域と入力カラー画像フレーム116の地面との近接は、セグメント化された前景人間オブジェクトから足領域を遮断する場合がある。換言すれば、入力カラー画像フレーム116と入力カラー画像フレーム116の背景画像との間の差分が、足領域に対して最小である場合があるので、セグメント化された前景人間オブジェクトは、足領域が欠けている場合がある。更に、セグメント化された前景人間オブジェクト内の足領域の遮断は、人間オブジェクトの足領域上への人間オブジェクトの影によって引き起こされる場合がある。このようなシナリオでは、オブジェクトセグメンテーション装置102は、入力カラー画像フレーム116において取り込まれるシーン110に対する生成されたポイントクラウドの複数のポイントから投影される複数のベクトルを計算するように構成することができる。計算された複数のベクトルの各ベクトルは、生成されたポイントクラウドの複数のポイントのうちのポイントに対して垂直であることができる表面法線ベクトルとすることができる。生成されたポイントクラウドの複数のポイントからの関心ポイントに対するベクトルは、生成されたポイントクラウドの関心ポイント及び関心ポイントの2つの隣接ポイントの3次元座標に基づいて、計算することができる。2つの隣接ポイントは、関心ポイントのすぐ右に位置決めされるポイントと、関心ポイントのすぐ下に位置決めされるポイントとを含むことができる。関心ポイントが、生成されたポイントクラウド内の2つの隣接ポイントを有するときのみ、関心ポイントに対してベクトルを計算することができる。
[0032] オブジェクトセグメンテーション装置102は、生成されたポイントクラウド内の複数のポイントに関連する計算された複数のベクトルを、ベクトルクラスタの組にクラスタ化するように構成することができる。複数のベクトルは、計算された複数のベクトルの各々に関連する向き情報に基づいて、ベクトルクラスタの組にクラスタ化することができる。例えば、K平均クラスタリングを利用して、計算された複数のベクトルをベクトルクラスタの組にクラスタ化することができる。計算された複数のベクトルのベクトルクラスタの組へのクラスタ化は、向き空間内で実行することができる。ベクトルクラスタの組は、入力カラー画像フレーム116において取り込まれるシーン110内の1又は2以上の平面に対応することができる。オブジェクトセグメンテーション装置102は、更に、計算された複数のベクトルを単位球体上にプロットして、ベクトルクラスタの組において計算された複数のベクトルの分布を分析するように構成することができる。
[0033] ある実施形態によれば、オブジェクトセグメンテーション装置102は、シーン110に関連するベクトルクラスタの組に基づいて、入力カラー画像フレーム116において取り込まれるシーン110に対する複数の平面を検出するように構成することができる。ベクトルクラスタの組の各ベクトルクラスタは、入力カラー画像フレーム116において取り込まれるシーン110の平面に対応することができる。ベクトルクラスタの組のうちのベクトルクラスタの全てのベクトルは、そのベクトルクラスタに対応する平面の向き情報とすることができる同じ向き情報に関連することができる。複数の平面の各々は、取り込まれたシーン110内の個々の別個の表面として検出することができる。オブジェクトセグメンテーション装置102は、更に、入力カラー画像フレーム116において取り込まれるシーン110に関連するベクトルクラスタの組に基づいて、平面マップを生成するように構成することができる。平面マップは、入力カラー画像フレームの画像領域内の検出された複数の平面をマップすることによって生成することができる。生成された平面マップは、平面マップ内の検出された複数の平面のうちの異なる平面内にグループ化される画素を含むことができる。画素は、平面マップ内の画素の空間位置にかかわらず、平面マップ内の各画素に関連する同じ向き情報に基づいて、グループ化することができる。換言すれば、同じ向き情報を有する画素は、入力カラー画像フレーム116の画像領域内の平面マップ内の1つのグループとしてグループ化することができる。
[0034] ある実施形態によれば、オブジェクトセグメンテーション装置102は、平面マップ内の検出された複数の平面内の複数の点在領域を検出するように構成することができる。点在領域は、画像領域内の平面マップ内の第1の閾値数の画素よりも小さい複数の点在領域のエリアサイズに基づいて、検出することができる。換言すれば、点在領域は、平面マップ内の小さい領域とすることができ、平面マップ内の複数の点在領域の各々のエリアサイズは、画像領域内の平面マップ内の第1の閾値数の画素、例えば「100」画素よりも小さいとすることができる。オブジェクトセグメンテーション装置102は、平面マップ内の検出された複数の点在領域を除去するように構成することができる。オブジェクトセグメンテーション装置102は、更に、メディアンフィルタの一種によって、画像領域内の第2の閾値数の画素よりも小さい検出された複数の点在領域を平滑化するように構成することができる。第2の閾値数の画素よりも小さい検出された複数の点在領域は、3x3メディアンフィルタに基づいて平滑化することができる。
[0035] ある実施形態によれば、オブジェクトセグメンテーション装置102は、入力カラー画像フレーム116において取り込まれるシーン110に対する基準高さから、平面マップ内の検出された複数の平面内の最も低い平面を選択するように構成することができる。基準高さは、シーン110の一連のカラー画像フレーム112を取り込む画像取り込み装置108の高さに対応することができる。いくつかの実施形態では、平面マップ内の検出された複数の平面内の選択された最も低い平面は、入力カラー画像フレーム116において取り込まれるシーン110に対する地面に対応することができる。最も低い水平面の表面法線ベクトルの向きは、上向きの(すなわち下から上への)方向とすることができる。更に、オブジェクトセグメンテーション装置102は、平面マップ内の画素の高さベースの分布に基づいて、平面マップ内の地面と同じ向き情報を有する異なる水平面内の画素を分離するように構成することができる。異なる水平面の表面法線ベクトルの向きは、上向きの(すなわち下から上への)方向とすることができる。オブジェクトセグメンテーション装置102は、更に、平面マップの異なる水平面内の他の画素と比較して、最も低い水平面内に存在する画素を分類するように構成することができる。換言すれば、オブジェクトセグメンテーション装置102は、異なる水平面から、平面マップの高さベースの分布に基づいて最大数の画素を含む最も低い水平面を、地面として選択することができる。
[0036] ある実施形態によれば、オブジェクトセグメンテーション装置102は、検出された地面のレベルから規定の領域(例えば、検出された地面のレベルから20mm〜150mm)内に位置する複数の前景画素を検出するように構成することができる。オブジェクトセグメンテーション装置102は、更に、入力カラー画像フレーム116において取り込まれるシーン110の検出された地面上に存在する人間オブジェクトの足領域を回復するように構成することができる。人間オブジェクトの足領域は、第1の画像パラメータの組と異なることができる第2の画像パラメータの組に基づいて、回復することができる。回復された足領域は、地面のレベルから規定の領域内に存在する前景画素の組を含むことができる。例えば、あるシナリオでは、平均シフトフィルタを利用して、入力カラー画像フレーム116の背景から、前景人間オブジェクトをセグメント化することができる。平均シフトフィルタを用いて、関心位置の近傍の画素の確率密度関数(PDF)を用いて、一度に1画素ずつ、前景マスクの特定のエラーを補正することができる。確率密度関数は、ガウスカーネルに基づくカーネル密度関数を用いて、推定することができる。第1の画像パラメータの組及び第2の画像パラメータの組は、関心エリアの確率密度関数を推定するために用いられるガウスカーネルの帯域幅とすることができる。第1の画像パラメータの組に関連するガウスカーネルの帯域幅は、第2の画像パラメータの組に関連するガウスカーネルの帯域幅よりも高いとすることができる。第2の画像パラメータの組と比較してより高いガウスカーネルの帯域幅に関連することができる第1の画像パラメータの組に基づいて、入力カラー画像フレーム116の背景から、前景人間オブジェクトをセグメント化することができる。更に、第1の画像パラメータの組よりも低いガウスカーネルの帯域幅に関連する第2の画像パラメータの組を利用して、入力カラー画像フレーム116において取り込まれるシーン110の検出された地面上に存在する人間オブジェクトの足領域を回復することができる。
[0037] ある実施形態によれば、オブジェクトセグメンテーション装置102は、人間オブジェクトの回復された足領域の画素の組を含むように、人間オブジェクトの推定された前景マスクを更新することができる。推定された前景マスクは、第2の画像パラメータの組に基づいて、更新することができる。更に、オブジェクトセグメンテーション装置102は、入力カラー画像フレーム116において取り込まれるシーン110の検出された地面に近接して存在する人間オブジェクトの回復された足領域を有する前景人間オブジェクトを抽出することができる。抽出された前景人間オブジェクトは、足領域が地面に近接して存在することにより、セグメント化された前景人間オブジェクト内に存在しない場合がある人間オブジェクトの回復された足領域を含むことができる。オブジェクトセグメンテーション装置102は、人間オブジェクトの影が、入力カラー画像フレーム116において取り込まれるシーン110の地面の近くにある人間オブジェクトの足領域上に存在する場合でも、人間オブジェクトの足領域をセグメント化することができる。オブジェクトセグメンテーション装置102は、更に、人間オブジェクトの回復された足領域を有するセグメント化された人間オブジェクトを生成するように構成することができる。ある実施形態によれば、オブジェクトセグメンテーション装置102は、ディスプレイ画面上に、回復された足領域を有するセグメント化された人間オブジェクトを表示することができる。
[0038] 図2は、本開示の実施形態による、例示的なオブジェクトセグメンテーション装置を示すブロック図である。図2の説明は、図1の要素に関連して行う。図2を参照すると、オブジェクトセグメンテーション装置102が示されている。オブジェクトセグメンテーション装置102は、制御回路202と、回復回路202Aと、メモリ204と、入力/出力(I/O)装置206と、ネットワークインターフェイス208とを含むことができる。回復回路202Aは、制御回路202の一部とすることができる。I/O装置206は、ディスプレイ画面206Aを含むことができ、ディスプレイ画面206Aを利用して、アプリケーションインターフェイス210をレンダリングすることができる。制御回路202は、メモリ204及びI/O装置206に通信可能に結合することができる。制御回路202は、ネットワークインターフェイス208を用いて、サーバ104及び画像取り込み装置108と通信するように構成することができる。
[0039] 制御回路202は、第2のタイプのセンサ108Bから受け取られる入力カラー画像フレーム116に対する対応する入力深度画像118に基づいて、第1のタイプのセンサ108Aから受け取られる一連のカラー画像フレーム112のうちの入力カラー画像フレーム116に対するポイントクラウドを生成するように構成できる好適なロジック、回路、及びインターフェイスを含むことができる。制御回路202は、更に、シーン110の一連のカラー画像フレーム112のうちの入力カラー画像フレーム116の背景から、前景人間オブジェクトをセグメント化するように構成することができる。制御回路202は、複数の平面から地面を検出するように構成することができる。制御回路202は、1又は2以上の専用処理ユニットを含むことができ、これは、オブジェクトセグメンテーション装置102内の別個のプロセッサ又は回路として実装することができる。ある実施形態では、1又は2以上の専用処理ユニット及び制御回路202は、1又は2以上の専用処理ユニット及び制御回路202の機能を共同で実行する統合プロセッサ又はプロセッサ群として実装することができる。制御回路202は、本技術分野で公知のいくつかのプロセッサ技術に基づいて実装することができる。制御回路202の実装の例は、X86ベースのプロセッサ、グラフィックス処理ユニット(GPU)、縮小命令セットコンピュータ(RISC)プロセッサ、特定用途向け集積回路(ASIC)プロセッサ、複合命令セットコンピュータ(CISC)プロセッサ、マイクロコントローラ、中央処理装置(CPU)、及び/又はその他の制御回路とすることができる。
[0040] 回復回路202Aは、セグメント化された前景人間オブジェクトに対して検出された地面から足領域を回復するように構成できる好適なロジック、回路、及びインターフェイスを含むことができる。回復回路202Aの実装の例は、専用回路、グラフィックス処理ユニット(GPU)、縮小命令セットコンピュータ(RISC)プロセッサ、特定用途向け集積回路(ASIC)プロセッサ、複合命令セットコンピュータ(CISC)プロセッサ、マイクロコントローラ、中央処理装置(CPU)、及び/又はその他の制御回路とすることができる。
[0041] メモリ204は、制御回路202が実行可能な命令セットを記憶するように構成できる好適なロジック、回路、及びインターフェイスを含むことができる。メモリ204は、オペレーティングシステム及び関連するアプリケーションのデータを記憶するように構成することができる。メモリ204は、更に、一連のカラー画像フレーム112及び対応する一連の深度画像114を記憶するように構成することができる。メモリ204の実装の例としては、以下に限定されるわけではないが、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、電気的に消去可能なプログラマブルリードオンリメモリ(EEPROM)、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、CPUキャッシュ、又はセキュアデジタル(SD)カードを挙げることができる。
[0042] I/O装置206は、ユーザから入力を受け取り、ユーザから受け取った入力に基づいて、ユーザに出力を提供するように構成できる好適なロジック、回路、及びインターフェイスを含むことができる。例えば、I/O装置206を利用して、ユーザからの要求に基づいて、シーン110の取り込まれた一連のカラー画像フレーム112の背景からセグメント化された人間オブジェクトの消失している足を回復するための動作を初期化することができる。I/O装置206は、制御回路202と通信するように構成することができる様々な入出力装置を含むことができる。I/O装置206の例としては、以下に限定されるわけではないが、タッチ画面、キーボード、マウス、ジョイスティック、マイク、ディスプレイ画面(例えば、ディスプレイ画面206A)、及びスピーカを挙げることができる。
[0043] ディスプレイ画面206Aは、ディスプレイ画面206Aでアプリケーションインターフェイス210をレンダリングして、シーン110の取り込まれた一連のカラー画像フレーム112の背景からセグメント化された人間オブジェクトの回復された消失している足を表示するように構成できる好適なロジック、回路、及びインターフェイスを含むことができる。ある実施形態によれば、ディスプレイ画面206Aは、ユーザから入力を受け取るように構成することができる。このようなシナリオでは、ディスプレイ画面206Aを、ユーザによる入力の提供を可能にするタッチ画面とすることができる。タッチ画面は、抵抗性タッチ画面、容量性タッチ画面、又は熱タッチ画面のうちの少なくとも1つとすることができる。ある実施形態によれば、ディスプレイ画面206Aは、仮想キーパッド、スタイラス、ジェスチャ式入力、又はタッチ式入力を通じて、入力を受け取ることができる。ディスプレイ画面206Aは、以下に限定されるわけではないが、液晶ディスプレイ(LCD)ディスプレイ、発光ダイオード(LED)ディスプレイ、プラズマディスプレイ、又は有機LED(OLED)ディスプレイ技術、又はその他のディスプレイ装置のうちの少なくとも1つなどのいくつかの公知技術を通じて実現することができる。ある実施形態によれば、ディスプレイ画面206Aは、スマートグラス装置、シースルーディスプレイ、投影式ディスプレイ、エレクトロクロミックディスプレイ、又は透明ディスプレイのディスプレイ画面を意味することができる。
[0044] ネットワークインターフェイス208は、通信ネットワーク106を介したオブジェクトセグメンテーション装置102とサーバ104との間の通信を容易にするように構成できる好適なロジック、回路、及びインターフェイスを含むことができる。ネットワークインターフェイス208は、オブジェクトセグメンテーション装置102と通信ネットワーク106との有線又は無線通信をサポートする様々な公知技術を用いて実装することができる。ネットワークインターフェイス208としては、以下に限定されるわけではないが、アンテナ、無線周波数(RF)トランシーバ、1又は2以上の増幅器、チューナ、1又は2以上の発振器、デジタルシグナルプロセッサ、コーダ・デコーダ(CODEC)チップセット、加入者識別モジュール(SIM)カード、又はローカルバッファ回路を挙げることができる。ネットワークインターフェイス208は、インターネット、イントラネット、又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(LAN)及びメトロポリタンエリアネットワーク(MAN)などの無線ネットワークなどのネットワークと無線通信を介して通信することができる。無線通信は、グローバル・システム・フォー・モバイル・コミュニケーションズ(GSM)、拡張データGSM環境(EDGE)、広帯域符号分割多元接続(W−CDMA)、ロングタームエボリューション(LTE)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth、無線フィデリティ(Wi−Fi)(IEEE 802.11a、IEEE 802.11b、IEEE 802.11g又はIEEE802.11nなど)、ボイスオーバーインターネットプロトコル(VoIP)、ライトフィデリティ(Li−Fi)、ワールドワイド・インターオペラビリティ・フォー・マイクロウェーブ・アクセス(Wi−MAX)、電子メールプロトコル、インスタントメッセージング及びショートメッセージサービス(SMS)などの複数の通信規格、通信プロトコル及び通信技術のいずれかを使用することができる。
[0045] アプリケーションインターフェイス210は、ディスプレイ画面206Aなどのディスプレイ画面上にレンダリングされるユーザインターフェイス(UI)に対応することができる。アプリケーションインターフェイス210は、シーン110の取り込まれた一連のカラー画像フレーム112の背景からセグメント化された人間オブジェクトの回復された消失している足を表示することができる。アプリケーションインターフェイス210の例としては、限定されるわけではないが、グラフィカルユーザインターフェイス(GUI)を挙げることができる。
[0046] 図1で説明したようなオブジェクトセグメンテーション装置102によって実行される機能又は動作は、制御回路202及び回復回路202Aによって実行することができる。制御回路202及び回復回路202Aによって実行される動作については、例えば図3A〜図3G、図4A及び図4Bで更に説明する。
[0047] 図3A、図3B、図3C、図3D、図3E、図3F及び図3Gは、本開示の実施形態による、地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復のための例示的な動作をまとめて示す。図3A〜図3Gの説明は、図1及び図2の要素に関連して行う。
[0048] 図3Aは、本開示の実施形態による、シーン110の一連のカラー画像フレーム112のうちの入力カラー画像フレーム116のポイントクラウドの生成を示す。図3Aを参照すると、入力カラー画像フレーム116及び入力カラー画像フレーム116のポイントクラウド302が示されている。ある実施形態によれば、制御回路202は、第1のタイプのセンサ108Aによって取り込まれる一連のカラー画像フレーム112のうちの入力カラー画像フレーム116に対するポイントクラウド302を生成するように構成することができる。ポイントクラウド302は、第2のタイプのセンサ108Bによって取り込まれる一連の深度画像114の入力深度画像118(図3Aに図示せず)に基づいて生成されて、入力深度画像118に対する平滑化動作を通知することができる。ポイントクラウド302は、3次元座標系内の入力カラー画像フレーム116内のシーン110の異なる外面を表現することができる。ポイントクラウド302のポイントは、3次元座標系内で「X」、「Y」及び「Z」座標によって定義することができる。入力深度画像118によって表現される入力カラー画像フレーム116の深度値を利用して、生成されたポイントクラウド302の各ポイントの3次元座標を計算することができる。生成されたポイントクラウド302の3次元座標系内の「X,Y,Z」座標に対する座標「0,0,0」は、3次元座標系内の画像取り込み装置108の位置を表現することができる。
[0049] 図3Bは、本開示の実施形態による、生成されたポイントクラウドの複数のポイントから投影される複数のベクトルの計算を示す。図3Bを参照すると、ポイントクラウド302と、関心ポイント304(「i」としても表される)と、第1の隣接ポイント306A(「j」としても表される)及び第2の隣接ポイント306B(「k」としても表される)と、単位球体上の計算された複数のベクトルの単位球体分布308とが示されている。ある実施形態によれば、制御回路202は、生成されたポイントクラウド302の複数のポイントから投影される複数のベクトルを計算するように構成することができる。制御回路202は、関心ポイント304及び関心ポイント304の2つの隣接ポイント(例えば第1の隣接ポイント306A(「j」)及び第2の隣接ポイント306B(「k」))の3次元座標に基づいて、関心ポイント(例えば関心ポイント304(「i」としても表される))から投影されるベクトル「n」を計算するように構成することができる。計算されたベクトル「n」は、関心ポイント304(「i」としても表される)に対して垂直である表面法線ベクトルとすることができる。第1の隣接ポイント306A(「j」)は、関心ポイント304(「i」)のすぐ右に位置決めすることができる。第2の隣接ポイント306B(「k」)は、関心ポイント304のすぐ下に位置決めすることができる。関心ポイント304が、生成されたポイントクラウド302内の2つの隣接ポイントを有するときのみ、関心ポイント304に対してベクトル「n」を計算することができる。関心ポイント304から第1の隣接ポイント306Aまでのベクトルは、ベクトル「b」として表すことができ、関心ポイント304から第2の隣接ポイント306Bまでのベクトルは、ベクトル「a」として表すことができる。制御回路202は、更に、計算された複数のベクトルを、単位球体(例えば、ポイントクラウド302の複数のポイントから投影される計算された複数のベクトルの単位球体分布308)上にプロットするように構成することができる。ベクトル「n」は、例えば、以下の式(1)によって計算することができる。
Figure 2021526254

ここで、「u」、「v」及び「w」は、単位球体上の計算された複数のベクトルの単位球体分布308の軸を表し、
a=k−iは、関心ポイント304(「i」)から第2の隣接ポイント306B(「k」)までのベクトル「a」を表し、
b=j−iは、関心ポイント304(「i」)から第1の隣接ポイント306A(「j」)までのベクトル「b」を表す。
[0050] 図3Cは、本開示の実施形態による、ポイントクラウドの複数のポイントから投影される複数のベクトルのクラスタ化を示す。図3Cを参照すると、単位球体上の複数のベクトルの単位球体分布308と、ベクトルクラスタの組310とが示されている。ある実施形態によれば、制御回路202は、複数のベクトルの各々に関連する向き情報に基づいて、複数のポイントから投影される複数のベクトルをクラスタ化するように構成することができる。同じ向き情報に関連する複数のベクトルは、ベクトルクラスタの組310として、一緒にクラスタ化することができる。複数のベクトルは、K平均クラスタリングに基づいて、クラスタ化することができる。ベクトルクラスタの組310は、同じ向き情報を有する複数のベクトルに関連する複数のベクトルクラスタを含むことができる。ベクトルクラスタの組310におけるベクトルクラスタの数は、K平均クラスタリングに基づいて、決定することができる。ベクトルクラスタの組310におけるベクトルクラスタの数は、取り込まれたシーン110内の平面の数と同じとすることができる。例えば、ベクトルクラスタの組310のうちの第1のベクトルクラスタ310Aは、同じ向き情報に関連する複数のベクトルを含むことができて、例えば、第1のベクトルクラスタの組における全てのベクトルの向きは、(矢印で示すように)下から上への方向とすることができる。同様に、ベクトルクラスタの組は、同じ向き情報に関連する、すなわち、図示のように左から右への方向の複数のベクトルを含む第2のベクトルクラスタ310Bを含むことができる。ベクトルクラスタの組は、310A、310B、310C、310D及び310Eなどの複数のベクトルクラスタを含むことができる。ベクトルクラスタの組310の各ベクトルクラスタは、同じ向き情報に関連する複数のベクトルを含むことができる。制御回路202は、更に、シーン110に関連するベクトルクラスタの組310に基づいて、入力カラー画像フレーム116において取り込まれるシーン110に対する複数の平面を検出するように構成することができる。ベクトルクラスタの組310の複数のベクトルクラスタ(310A、310B、310C、310D及び310E)は、取り込まれたシーン110の複数の平面に対応することができる。
[0051] 図3Dは、本開示の実施形態による、複数のベクトルの向き情報に関連するベクトルクラスタの組に基づく平面マップの生成を示す。図3Dを参照すると、(図3Cの)単位球体分布308上のベクトルクラスタの組310と、平面マップ312とが示されている。ある実施形態によれば、制御回路202は、入力カラー画像フレーム116の画像領域内の検出された複数の平面をマップすることによって、平面マップ312を生成するように構成することができる。生成された平面マップ312は、平面マップ312内の検出された複数の平面のうちの異なる平面内にグループ化される画素を含むことができる。画素は、平面マップ312内の画素の空間位置にかかわらず、平面マップ312内の各画素に関連する同じ向き情報に基づいて、グループ化することができる。例えば、取り込まれたシーン110は、部屋として、又は6つの表面向き、床面312A、4つの壁、及び天井面312Dを有する6つの辺を有する立方体構造として、屋内シーンとすることができる。4つの壁のうち、3つの壁312B、312C及び312Eの表面は、取り込まれたシーン110において見えるが、残りの壁面は、一連のカラー画像フレーム112の取り込み中に、画像取り込み装置108の後ろにある場合がある。取り込まれたシーン110の取り込み時の画像取り込み装置108からの視線方向などのカメラの視線方向において又は該方向の近傍に表面法線がないので、5つの辺に対して5つの大きい向きクラスタを、ベクトルクラスタの組310として取得することができる。ベクトルクラスタの組310の第1のベクトルクラスタ310Aは、床面312Aに関連する画素と、平面マップ312内の床面312Aと同じ向きに関連する他の表面とにマップすることができる。同様に、ベクトルクラスタの組310のベクトルクラスタ310Bは、左壁312Bに関連する画素と、シーン110の平面マップ312内の左壁312Bと同じ向きに関連する他の表面とにマップすることができる。ベクトルクラスタの組310のベクトルクラスタ310Cは、右壁312Cに関連する画素と、シーン110の平面マップ312内の右壁312Cと同じ向きに関連する他の表面とにマップすることができる。ベクトルクラスタの組310のベクトルクラスタ310Dは、天井面312Dに関連する画素と、シーン110の平面マップ312内の天井面312Dと同じ向きに関連する他の表面とにマップすることができる。ベクトルクラスタの組310のベクトルクラスタ310Eは、前壁312Eに関連する画素と、シーン110の平面マップ312内の前壁312Eと同じ向きに関連する他の表面とにマップすることができる。
[0052] 図3Eは、入力カラー画像フレーム116において取り込まれるシーン110の複数の平面からの地面の検出を示す。図3Eを参照すると、平面マップ312、入力カラー画像フレーム116、高さベースの画素分布314、基準高さ314A、及び地面316が示されている。ある実施形態によれば、制御回路202は、入力カラー画像フレーム116において取り込まれるシーン110に対する基準高さ314Aから、平面マップ312内の検出された複数の平面内の最も低い平面を選択するように構成することができる。基準高さ314Aは、画像取り込み装置108の高さとすることができる。更に、制御回路202は、平面マップ312内の画素の高さベースの画素分布314に基づいて、選択された最も低い平面と同じ向き情報を有する画素を分離するように構成することができる。平面マップ312内の画素の高さベースの画素分布314に基づいて、第1のベクトルクラスタ310Aの向き情報に関連する最大数の画素を含む最も低い水平面は、地面316として選択することができる。したがって、制御回路202は、入力カラー画像フレーム116において取り込まれるシーン110の地面316を正確に検出するように構成することができる。
[0053] 図3Fは、本開示の実施形態による、セグメント化された前景人間オブジェクトに対する検出された地面からの人間オブジェクトの消失足領域の回復を示す。図3Fを参照すると、地面316と、足領域318と、地面316のレベルから規定の領域320とが示されている。ある実施形態によれば、回復回路202Aは、検出された地面316のレベルから規定の領域320内に位置する複数の前景画素を検出するように構成することができる。例えば、規定の領域320は、検出された地面316のレベルから20mm〜150mmの範囲内とすることができる。回復回路202Aは、第2の画像パラメータの組に基づいて、検出された地面316のレベルから規定の領域320内に位置する検出された複数の前景画素から、足領域を回復するように構成することができる。人間オブジェクトの消失足領域(例えば足領域318)の回復のための第2の画像パラメータの組は、第1の画像パラメータの組と異なることができる。第2の画像パラメータの組は、入力カラー画像フレーム116内の地面316上の人間オブジェクトの影を考慮し、他の領域とは異なる足領域318のセグメント化のためのパラメータを設定し、取り込まれたシーンの地面316から足領域318を回復することができる。回復回路202Aは、入力カラー画像フレーム116の背景からの足領域のセグメント化に基づいて、入力カラー画像フレーム116の前景内の足領域318を回復するように構成することができる。足領域318は、人間オブジェクトの単一の足又は人間オブジェクトの両方の足を含むことができる。足領域は、入力カラー画像フレーム116において取り込まれるシーン110の検出された地面316上の人間オブジェクトが履いている靴を含むことができる。いくつかの実施形態では、回復回路202Aを利用して、シーン110などの取り込まれたシーンの前景領域のセグメント化において遮断される場合がある検出された地面316上に存在する任意の消失している前景オブジェクト部分又は領域をセグメント化することができる。
[0054] 図3G及び図3Hは、それぞれ、本開示の実施形態による、人間オブジェクトの足領域が欠けているセグメント化された人間オブジェクトの場合の第1のシナリオと、地面検出に基づいて回復された足領域を有するセグメント化された人間オブジェクトの場合の第2のシナリオとを示す。図3G及び図3Hを参照すると、入力カラー画像フレーム116において取り込まれるシーン110内に存在する人間オブジェクト322と、検出された地面316と、消失足領域を有する第1のセグメント化された人間オブジェクト324と、足領域318を有する第2のセグメント化された人間オブジェクト326とが示されている。
[0055] ある実施形態によれば、図3Gに示すような第1のシナリオは、地面316などの地面の検出を実行しない場合における、取り込まれたシーン110の前景内に存在する人間オブジェクト322のセグメント化を示す。オブジェクトセグメンテーション装置102は、図1で説明したように、地面316を検出することなく、人間オブジェクト322をセグメント化して、第1のセグメント化された人間オブジェクト324を取得することができる。第1のセグメント化された人間オブジェクトは、足領域318などの足領域が欠けている場合がある。第1のセグメント化された人間オブジェクト324は、足領域が地面316に近接して存在することにより、足領域318が欠けている場合がある。足領域318が地面316に近接して存在するので、前景内に存在する足領域318と入力カラー画像フレーム116の背景画像との間の差分が、最小である場合があり、その結果、第1のセグメント化された人間オブジェクト324は、足領域318が欠けている場合がある。更に、人間オブジェクト322の影が、地面316に近接している足領域318上に存在することにより、人間オブジェクト322の足領域318は、第1のセグメント化された人間オブジェクト324内に存在しない場合がある。
[0056] ある実施形態によれば、図3Hに示すような第2のシナリオは、地面316などの地面の検出を実行する場合における、取り込まれたシーン110の前景内に存在する人間オブジェクト322のセグメント化を示す。地面316は、図1及び図3Eで説明したように、生成されたポイントクラウド302内の複数のポイントの複数のベクトルの向き情報に基づいて検出することができる。回復回路202Aは、(例えば、図3Fに示すように)検出された地面316のレベルから規定の領域320内に位置する複数の前景画素を検出するように構成することができる。回復回路202Aは、第2の画像パラメータの組に基づいて、地面316のレベルから規定の領域320内に存在する前景画素の組に関連する消失足領域(例えば足領域318)を回復するように構成することができる。制御回路202は、更に、人間オブジェクト322の足領域318の検出された前景画素の組を含むように、人間オブジェクト322の推定された前景マスクを更新するように構成することができる。制御回路202は、足領域318を含むように更新された人間オブジェクト322の前景マスクに基づいて、足領域318を有する第2のセグメント化された人間オブジェクト326を生成することができる。第2のセグメント化された人間オブジェクト326は、人間オブジェクト322の足領域318を含むことができる。足領域318などの回復された足領域を有する第2のセグメント化された人間オブジェクト326は、抽出されて、ディスプレイ画面206Aなどのディスプレイ画面上に表示することができる。
[0057] 図4A及び図4Bは、本開示の実施形態による、地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復の例示的な動作をまとめて示すフローチャートである。図4A及び図4Bを参照すると、フローチャート400が示されている。フローチャート400の説明は、図1、図2、及び図3A〜図3Hに関連して行う。404〜444の動作は、オブジェクトセグメンテーション装置102に実装することができる。フローチャート400の動作は、402から開始して、404に進むことができる。
[0058] 404において、画像取り込み装置108の第1のタイプのセンサ108Aを用いて、シーン110の一連のカラー画像フレーム112を取り込むことができる。シーン110の一連のカラー画像フレーム112は、画像取り込み装置108の視野から取り込むことができる。取り込まれた一連のカラー画像フレーム112は、シーン110の複数のオブジェクトを含むことができる。一連のカラー画像フレーム112は、入力カラー画像フレーム116を含むことができる。
[0059] 406において、画像取り込み装置108の第2のタイプのセンサ108Bを用いて、一連のカラー画像フレーム112のうちのカラー画像フレーム毎に深度画像を取り込むことができる。第2のタイプのセンサ108Bは、シーン110の一連のカラー画像フレーム112に対応する一連の深度画像114を取り込むように構成することができる。一連のカラー画像フレーム112の各カラー画像フレームの深度画像は、それぞれのカラー画像フレームを取り込むことができるときの対応する時点で、シーン110に関連する深度情報を含むことができる。
[0060] 408において、画像取り込み装置108から、一連のカラー画像フレーム112及び対応する一連の深度画像114を受け取ることができる。オブジェクトセグメンテーション装置102は、シーン110の入力カラー画像フレーム116及び対応する入力深度画像118を受け取るように構成することができる。
[0061] 410において、入力カラー画像フレーム116に対応する一連の深度画像114の入力深度画像118を平滑化して、入力深度画像118内の深度値が存在しない複数の領域において深度値を塗りつぶすことができる。制御回路202は、入力深度画像118内の深度値が存在しない複数の領域を検出するように構成することができる。制御回路202は、入力深度画像118の平滑化に基づいて、入力深度画像118内のノイズを低減させることができる。
[0062] 412において、平滑化された入力深度画像118に基づいて、入力カラー画像フレーム116のポイントクラウドを生成することができる。制御回路202は、ポイントクラウド(例えば、図3Aのポイントクラウド302)を生成して、3次元座標系内の入力カラー画像フレーム116の外面を表現することができる。入力深度画像118の深度値に基づいて、生成されたポイントクラウドの各ポイントの3次元座標を決定することができる。例えば、図3Aに示すように、入力深度画像118の深度値に基づいて、入力カラー画像フレーム116のポイントクラウド302を生成する。
[0063] 414において、第1の画像パラメータの組に基づいて、入力カラー画像フレーム116の背景から前景人間オブジェクトをセグメント化することができ、セグメント化された前景人間オブジェクトは、前景人間オブジェクトの足領域の少なくとも一部が欠けている。制御回路202は、入力カラー画像フレーム116に対応する入力深度画像118を用いて、前景人間オブジェクトの初期前景マスクを推定するように構成することができる。制御回路202は、更に、第1の画像パラメータの組に基づいて、前景人間オブジェクトの初期前景マスク値を、前景人間オブジェクトの前景マスク値に更新するように構成することができる。制御回路202は、前景人間オブジェクトの足領域の一部が欠けている場合があるセグメント化された前景人間オブジェクトを生成することができる。前景人間オブジェクトの足領域が、入力カラー画像フレーム116の地面に近接して存在することにより、セグメント化された前景人間オブジェクトは、足領域が欠けている場合がある。更に、セグメント化された前景人間オブジェクトは、人間オブジェクトの足領域上への人間オブジェクトの影により、足領域が欠けている場合がある。
[0064] 416において、入力カラー画像フレーム116において取り込まれるシーン110に対する生成されたポイントクラウドの複数のポイントから投影される複数のベクトルを計算することができる。制御回路202は、生成されたポイントクラウド302の複数のポイントから投影される複数のベクトルを計算するように構成することができる。計算された複数のベクトルの各ベクトルは、生成されたポイントクラウド302の複数のポイントのうちのポイントに対して垂直であることができる表面法線ベクトルとすることができる。生成されたポイントクラウド302の複数のポイントから投影される複数のベクトルの計算は、例えば図3Bに示されている。
[0065] 418において、生成されたポイントクラウド内の複数のポイントに関連する計算された複数のベクトルを、ベクトルクラスタの組にクラスタ化することができる。制御回路202は、複数のベクトルの各々に関連する向き情報に基づいて、複数のポイントから投影される複数のベクトルをクラスタ化するように構成することができる。同じ向き情報に関連する複数のベクトルは、例えば図3Cに示すように、ベクトルクラスタの組310として、一緒にクラスタ化することができる。
[0066] 420において、ベクトルクラスタの組に基づいて、入力カラー画像フレーム116において取り込まれるシーン110に対する複数の平面を検出することができる。制御回路202は、シーン110に関連するベクトルクラスタの組に基づいて、入力カラー画像フレーム116において取り込まれるシーン110に対する複数の平面を検出するように構成することができる。ベクトルクラスタの組の各ベクトルクラスタは、入力カラー画像フレーム116において取り込まれるシーン110の平面に対応することができる。
[0067] 422において、入力カラー画像フレーム116において取り込まれるシーン110に関連するベクトルクラスタの組に基づいて、平面マップを生成することができる。制御回路202は、入力カラー画像フレーム116の画像領域内の検出された複数の平面をマップすることによって、平面マップを生成するように構成することができる。生成された平面マップは、平面マップ内の検出された複数の平面のうちの異なる平面内にグループ化される画素を含むことができる。ベクトルクラスタの組310に基づく平面マップ312などの平面マップの生成は、例えば図3Dに示されている。
[0068] 424において、平面マップ312内の検出された複数の平面内の複数の点在領域を検出することができる。制御回路202は、画像領域内の平面マップ312内の第1の閾値数の画素よりも小さい複数の点在領域のエリアサイズに基づいて、複数の点在領域を検出するように構成することができる。例えば、平面マップ312内の複数の点在領域の各々のエリアサイズは、画像領域内の平面マップ312内の第1の閾値数の画素、すなわち「100」画素よりも小さいとすることができる。
[0069] 426において、平面マップ312内の検出された複数の点在領域を除去することができる。制御回路202は、平面マップ内の検出された複数の点在領域を除去するように構成することができる。
[0070] 428において、メディアンフィルタによって、画像領域内の第2の閾値数の画素よりも小さい検出された複数の点在領域を平滑化することができる。制御回路202は、3x3メディアンフィルタに基づいて、平面マップ312内の第2の閾値数の画素よりも小さい検出された複数の点在領域を平滑化するように構成することができる。
[0071] 430において、入力カラー画像フレーム116において取り込まれるシーン110に対する基準高さから、平面マップ内の検出された複数の平面内の最も低い平面を選択することができる。制御回路202は、基準高さに基づいて、平面マップ312内の検出された複数の平面から最も低い平面を選択するように構成することができる。基準高さは、シーン110の一連のカラー画像フレーム112を取り込む画像取り込み装置108の高さとすることができる。選択された最も低い平面の向きは、取り込まれたシーン110の地面の向きと同じとすることができる。
[0072] 432において、平面マップ内の画素の高さベースの分布に基づいて、平面マップ内の地面と同じ向き情報を有する異なる水平面内の画素を分離することができる。制御回路202は、画素の高さベースの分布に基づいて、平面マップ312内の地面と同じ向き情報を有する異なる水平面内の画素を分離するように構成することができる。異なる水平面の表面法線ベクトルの向きは、上向きの(すなわち下から上への)方向とすることができる。平面マップ312内の画素の高さベースの分布に基づく異なる水平面内の画素の分離は、例えば図3Eに示されている。
[0073] 434において、平面マップの異なる水平面内の他の画素と比較して、最も低い水平面内に存在する画素を分類することができる。制御回路202は、平面マップの高さベースの分布に基づいて、平面マップ312の異なる水平面内の他の画素と比較して、最も低い水平面内に存在する画素を分類するように構成することができる。平面マップの異なる水平面内の他の画素と比較して、最も低い水平面内に存在する画素の分類は、例えば図3Eに示されている。
[0074] 436において、異なる水平面から、平面マップの高さベースの分布に基づいて最大数の画素を含む最も低い水平面を、取り込まれたシーン110の地面316として選択することができる。制御回路202は、異なる水平面から、平面マップの高さベースの分布に基づいて最大数の画素を含む最も低い水平面を、地面316として選択することができる。画素の分類に基づく平面マップ312からの地面316の検出は、例えば図3Eに示されている。
[0075] 438において、検出された地面316のレベルから規定の領域内に位置する複数の前景画素を検出することができる。回復回路202Aは、検出された地面316のレベルから規定の領域(例えば20mm〜150mm)内に位置する複数の前景画素を検出するように構成することができる。例えば、図3Fに示すように、複数の前景画素は、規定の領域320内に位置することができる。
[0076] 440において、入力カラー画像フレーム116において取り込まれるシーン110の検出された地面316上に存在する人間オブジェクトの足領域を回復することができる。回復回路202Aは、第2の画像パラメータの組に基づいて、検出された地面316上に存在する人間オブジェクトの足領域を回復するように構成することができる。検出された地面316上に存在する人間オブジェクトの足領域318の回復は、例えば図3Fに示されている。
[0077] 442において、人間オブジェクトの回復された足領域318の画素の組を含むように、人間オブジェクトの推定された前景マスクを更新することができる。制御回路202は、人間オブジェクトの回復された足領域の画素の組を含むように、人間オブジェクトの推定された前景マスクを更新するように構成することができる。
[0078] 444において、入力カラー画像フレーム116において取り込まれるシーン110の検出された地面316に近接して存在する人間オブジェクトの回復された足領域318を有する前景人間オブジェクトを抽出することができる。制御回路202は、回復された足領域318を有する前景人間オブジェクトを抽出して、人間オブジェクトの回復された足領域を有するセグメント化された人間オブジェクトを生成するように構成することができる。例えば、図3Hに示すように、制御回路202によって、足領域318を有する第2のセグメント化された人間オブジェクト326を生成する。制御は終了に進むことができる。
[0079] 従来のシステムでは、オブジェクトセグメンテーション技術に基づいて、一連のカラー画像フレームのうちの取り込まれた入力カラー画像フレームから、人間オブジェクトをセグメント化することができる。このような従来のシステムに基づいてセグメント化される人間オブジェクトは、人間オブジェクトの足領域が欠けている場合がある。本開示は、セグメント化された人間オブジェクトの消失足領域を回復し、人間オブジェクトの回復された足領域を有する前景人間オブジェクトを生成して抽出することができる。入力カラー画像フレームにおいて取り込まれるシーンの地面検出に基づいて、人間オブジェクトの足領域を回復することができる。開示されるオブジェクトセグメンテーション装置は、一連のカラー画像フレームのうちのカラー画像フレーム毎に深度画像を取り込むことができる。入力カラー画像フレームに対応する入力深度画像を利用して、3次元座標空間内の入力カラー画像フレームのポイントクラウドを生成することができる。入力カラー画像フレームの生成されたポイントクラウドの複数のポイントの各々から投影される複数の表面法線ベクトルに基づいて、シーンの地面を検出することができる。開示されるオブジェクトセグメンテーション装置は、更に、第2の画像パラメータの組を利用して、検出された地面のレベルから規定の領域内に存在する人間オブジェクトの足領域の複数の前景画素を検出することができる。したがって、開示されるオブジェクトセグメンテーション装置102は、地面上の足領域の存在する人間オブジェクトの影を考慮して、人間オブジェクトの足領域の複数の前景画素を検出する。前景足領域の深度値と入力カラー画像フレームの背景の深度値との間の差分が最小であるので、開示されるオブジェクトセグメンテーション装置は、第2の画像パラメータの組に基づいて、検出された地面のレベルから足領域の複数の前景画素を正確に検出する。したがって、開示されるオブジェクトセグメンテーション装置は、第2の画像パラメータの組に基づいて、検出された地面に近接している足領域をセグメント化することによって、(それ以外の場合では、検出及びセグメント化が非常に困難である)足領域を回復することができる。更に、オブジェクトセグメンテーション装置は、人間オブジェクトの回復された足領域を含むように、セグメント化された前景人間オブジェクトを更新する。
[0080] 本開示の実施形態によれば、地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復のためのオブジェクトセグメンテーション装置が開示される。オブジェクトセグメンテーション装置、例えばオブジェクトセグメンテーション装置102(図1)は、メモリ(例えばメモリ204)と、画像取り込み装置(例えば画像取り込み装置108)に結合される1又は2以上の回路(例えば制御回路202及び回復回路202A(図2))とを含むことができる。画像取り込み装置108は、1又は2以上のセンサ(例えば第1のタイプのセンサ108A及び第2のタイプのセンサ108B(図1))を含むことができる。画像取り込み装置108は、シーン(例えばシーン110(図1))の一連のカラー画像フレーム(例えば一連のカラー画像フレーム112)及び一連の深度画像(例えば一連の深度画像114)を取り込むことができる。制御回路202は、入力カラー画像フレーム(例えば、図1の入力カラー画像フレーム116)及び対応する入力深度画像(例えば、図1の入力深度画像118)を受け取るように構成することができる。制御回路202は、更に、対応する入力深度画像118に基づいて、一連のカラー画像フレーム112のうちの入力カラー画像フレーム116に対するポイントクラウド(例えば、図3Bのポイントクラウド302)を生成するように構成することができる。制御回路202は、第1の画像パラメータの組に基づいて、入力カラー画像フレーム116の背景から、前景人間オブジェクトをセグメント化することができる。セグメント化された前景人間オブジェクトは、前景人間オブジェクトの足領域の少なくとも一部が欠けている場合がある。制御回路202は、入力カラー画像フレーム116において取り込まれるシーン110に対する地面(例えば、図3Eの地面316)を検出するように構成することができる。地面316は、生成されたポイントクラウド302内の各ポイント(例えば、図3Bの関心ポイント「i」304)から投影される各ベクトルに関連する向き情報に基づいて検出することができる。回復回路202Aは、入力カラー画像フレーム116内の検出された地面316のレベルから規定の領域(例えば、図3Fの規定の領域320)内の足領域(例えば、図3Fの足領域318)を回復するように構成することができる。足領域318は、第1の画像パラメータの組と異なる第2の画像パラメータの組に基づいて、回復することができる。制御回路は、更に、一連のカラー画像フレーム112のうちの入力カラー画像フレーム116の背景から、回復された足領域を有する前景人間オブジェクト(例えば、図3Hの第2のセグメント化された人間オブジェクト326)を抽出するように構成することができる。回復された足領域を有する前景人間オブジェクト(例えば、図3Hの第2のセグメント化された人間オブジェクト326)は、地面316の検出と、検出された地面316のレベルから規定の領域320内の決定された複数の前景画素とに基づいて、抽出することができる。
[0081] 本開示の様々な実施形態は、画像取り込み装置に通信可能に結合される1又は2以上の回路を含む機械及び/又はコンピュータが実行できる命令セットを記憶した非一時的コンピュータ可読媒体及び/又は記憶媒体、及び/又は非一時的機械可読媒体及び/又は記憶媒体を提供することができる。この命令セットは、シーンの一連のカラー画像フレームと、一連のカラー画像フレームのうちの対応するカラー画像フレーム毎の深度画像との取り込みを含むステップを実行するように、機械及び/又はコンピュータによって実行可能とすることができる。受け取られる一連のカラー画像フレームのうちの入力カラー画像フレームに対するポイントクラウドを生成することができる。ポイントクラウドは、受け取られる入力カラー画像フレームに対する対応する入力深度画像に基づいて生成することができる。第1の画像パラメータの組に基づいて、入力カラー画像フレームの背景から、前景人間オブジェクトをセグメント化することができる。セグメント化された前景人間オブジェクトは、前景人間オブジェクトの足領域の少なくとも一部が欠けている場合がある。生成されたポイントクラウド内の各ポイントから投影される各ベクトルに関連する向き情報に基づいて、入力カラー画像フレームにおいて取り込まれるシーンに対する地面を検出することができる。第1の画像パラメータの組と異なることができる第2の画像パラメータの組に基づいて、入力カラー画像フレーム内の検出された地面のレベルから規定の領域内の足領域を回復することができる。一連のカラー画像フレームのうちの入力カラー画像フレームの背景から、回復された足領域を有する前景人間オブジェクトを抽出することができる。地面の検出と、検出された地面のレベルから規定の領域内の決定された複数の前景画素とに基づいて、前景人間オブジェクトを抽出することができる。
[0082] 本開示は、ハードウェアの形で実現することも、又はハードウェアとソフトウェアの組み合わせの形で実現することもできる。本開示は、少なくとも1つのコンピュータシステム内で集中方式で実現することも、又は異なる要素を複数の相互接続されたコンピュータシステムにわたって分散できる分散方式で実現することもできる。本明細書で説明した方法を実行するように適合されたコンピュータシステム又はその他の装置が適することができる。ハードウェアとソフトウェアの組み合わせは、ロードされて実行された時に本明細書で説明した方法を実行するようにコンピュータシステムを制御することができるコンピュータプログラムを含む汎用コンピュータシステムとすることができる。本開示は、他の機能も実行する集積回路の一部を含むハードウェアの形で実現することができる。
[0083] 本開示は、本明細書で説明した方法の実装を可能にする全ての特徴を含み、コンピュータシステムにロードされた時にこれらの方法を実行できるコンピュータプログラム製品に組み込むこともできる。本文脈におけるコンピュータプログラムとは、情報処理能力を有するシステムに、特定の機能を直接的に、或いはa)別の言語、コード又は表記法への変換、b)異なる内容形態での複製、のいずれか又は両方を行った後に実行させるように意図された命令セットの、あらゆる言語、コード又は表記法におけるあらゆる表現を意味する。
[0084] いくつかの実施形態を参照しながら本開示を説明したが、当業者であれば、本開示の範囲から逸脱することなく様々な変更を行うことができ、同等物を代用することができると理解するであろう。また、本開示の範囲から逸脱することなく、本開示の教示に特定の状況又は内容を適合させるための多くの変更を行うこともできる。したがって、本開示は、開示した特定の実施形態に限定されるものではなく、特許請求の範囲に該当する全ての実施形態を含むことが意図されている。
100 ネットワーク環境
102 オブジェクトセグメンテーション装置
104 サーバ
106 通信ネットワーク
108 画像取り込み装置
108A 第1のタイプのセンサ
108B 第2のタイプのセンサ
110 シーン
112 一連のカラー画像フレーム
114 一連の深度画像
116 入力カラー画像フレーム
118 入力深度画像
202 制御回路
202A 回復回路
204 メモリ
206 入力/出力(I/O)装置
206A ディスプレイ画面
208 ネットワークインターフェイス
210 アプリケーションインターフェイス
302 ポイントクラウド
304 関心ポイント
306A 第1の隣接ポイント
306B 第2の隣接ポイント
308 単位球体分布
310 ベクトルクラスタの組
310A 第1のベクトルクラスタ
310B 第2のベクトルクラスタ
310C,310D,310E ベクトルクラスタ
312 平面マップ
312A 床面
312B 左壁
312C 右壁
312D 天井面
312E 前壁
314 高さベースの画素分布
314A 基準高さ
316 地面
318 足領域
320 規定の領域
322 人間オブジェクト
324 第1のセグメント化された人間オブジェクト
326 第2のセグメント化された人間オブジェクト
400 フローチャート
402 開始
404 画像取り込み装置の第1のタイプのセンサを用いて、シーンの一連のカラー画像フレームを取り込む
406 画像取り込み装置の第2のタイプのセンサを用いて、一連のカラー画像フレームのうちのカラー画像フレーム毎に深度画像を取り込む
408 画像取り込み装置から、一連のカラー画像フレーム及び対応する一連の深度画像を受け取る
410 入力カラー画像フレームに対応する一連の深度画像の入力深度画像を平滑化して、入力深度画像内の深度値が存在しない複数の領域において深度値を塗りつぶす
412 平滑化された入力深度画像に基づいて、入力カラー画像フレームのポイントクラウドを生成
414 第1の画像パラメータの組に基づいて、入力カラー画像フレームの背景から前景人間オブジェクトをセグメント化する。セグメント化された前景人間オブジェクトは、前景人間オブジェクトの足領域の少なくとも一部が欠けている
416 入力カラー画像フレームにおいて取り込まれるシーンに対する生成されたポイントクラウドの複数のポイントから投影される複数のベクトルを計算
418 生成されたポイントクラウド内の複数のポイントに関連する計算された複数のベクトルを、ベクトルクラスタの組にクラスタ化する
420 シーンに関連するベクトルクラスタの組に基づいて、入力カラー画像フレームにおいて取り込まれるシーンに対する複数の平面を検出
422 入力カラー画像フレームにおいて取り込まれるシーンに関連するベクトルクラスタの組に基づいて、平面マップを生成
424 画像領域内の第1の閾値数の画素よりも小さい平面マップ内の複数の点在領域のエリアサイズに基づいて、平面マップ内の検出された複数の平面内の複数の点在領域を検出
426 平面マップ内の検出された複数の点在領域を除去
428 メディアンフィルタによって、画像領域内の平面マップ内の第2の閾値数の画素よりも小さい検出された複数の点在領域を平滑化
430 入力カラー画像フレームにおいて取り込まれるシーンに対する基準高さから、平面マップ内の検出された複数の平面内の最も低い平面を選択
432 平面マップ内の画素の高さベースの分布に基づいて、平面マップ内の最も低い水平面と同じ向き情報を有する異なる水平面内の画素を分離
434 平面マップの異なる水平面内の他の画素と比較して、最も低い水平面内に存在する画素を分類
436 異なる水平面から、平面マップの高さベースの分布に基づいて最大数の画素を含む最も低い水平面を、地面として選択
438 検出された地面のレベルから規定の領域内に位置する複数の前景画素を検出
440 第2の画像パラメータの組に基づいて、入力カラー画像フレームにおいて取り込まれるシーンの検出された地面上に存在する人間オブジェクトの足領域を回復
442 人間オブジェクトの回復された足領域の画素の組を含むように、人間オブジェクトの推定された前景マスクを更新
444 入力カラー画像フレームにおいて取り込まれるシーンの検出された地面に近接して存在する人間オブジェクトの回復された足領域を有する前景人間オブジェクトを抽出

Claims (20)

  1. オブジェクトセグメンテーションシステムであって、
    シーンの一連のカラー画像フレームを取り込むように構成される第1のタイプのセンサと、
    前記一連のカラー画像フレームのうちの対応するカラー画像フレーム毎に深度画像を取り込むように構成される第2のタイプのセンサと、
    制御回路であって、前記制御回路は、
    前記第2のタイプのセンサから受け取られる入力カラー画像フレームに対する対応する入力深度画像に基づいて、前記第1のタイプのセンサから受け取られる前記一連のカラー画像フレームのうちの入力カラー画像フレームに対するポイントクラウドを生成し、
    第1の画像パラメータの組に基づいて、前記入力カラー画像フレームの背景から、前景人間オブジェクトをセグメント化し、前記セグメント化された前景人間オブジェクトは、前記前景人間オブジェクトの足領域の少なくとも一部が欠けており、
    前記生成されたポイントクラウド内の複数のポイントから投影される複数のベクトルを、ベクトルクラスタの組にクラスタ化することによって、前記入力カラー画像フレームにおいて取り込まれる前記シーンに対する地面を検出し、前記シーンに対する前記地面は、前記生成されたポイントクラウド内の前記ベクトルクラスタの組のうちの1つのベクトルクラスタに関連する向き情報に基づいて検出され、
    前記第1の画像パラメータの組と異なる第2の画像パラメータの組に基づいて、前記入力カラー画像フレーム内の前記検出された地面のレベルから規定の領域内の足領域を回復し、
    前記地面の検出と、前記検出された地面の前記レベルから前記規定の領域内の複数の前景画素とに基づいて、前記一連のカラー画像フレームのうちの前記入力カラー画像フレームの前記背景から、前記回復された足領域を含む前記前景人間オブジェクトを抽出する、
    ように構成される、制御回路と、
    を含むことを特徴とするオブジェクトセグメンテーションシステム。
  2. 前記制御回路は、更に、
    深度値が存在しない前記入力深度画像内の複数の領域を検出し、
    メディアンフィルタ及び均一フィルタによって、前記入力深度画像を平滑化して、前記複数の領域において深度値を塗りつぶし、前記入力深度画像内のノイズを低減させる、
    ように構成されることを特徴とする、請求項1に記載のシステム。
  3. 前記制御回路は、更に、前記入力深度画像に基づいて、前記生成されたポイントクラウド内の各ポイントの3次元(3D)座標を決定するように構成されることを特徴とする、請求項1に記載のシステム。
  4. 前記制御回路は、更に、前記生成されたポイントクラウドの前記複数のポイントにおいて関心ポイント及び前記関心ポイントの2つの隣接ポイントの3次元(3D)座標に基づいて、前記入力カラー画像フレームにおいて取り込まれる前記シーンに対する前記生成されたポイントクラウド内の複数のポイントから投影される複数のベクトルを計算するように構成され、前記生成されたポイントクラウド内の前記複数のポイントに関連する前記計算された複数のベクトルは、前記計算された複数のベクトルの各々に関連する向き情報に基づいて、前記ベクトルクラスタの組にクラスタ化されることを特徴とする、請求項3に記載のシステム。
  5. 前記制御回路は、更に、前記入力カラー画像フレームにおいて取り込まれる前記シーンに関連する前記ベクトルクラスタの組に基づいて、前記入力カラー画像フレームにおいて取り込まれる前記シーンに対する複数の平面を検出するように構成されることを特徴とする、請求項4に記載のシステム。
  6. 前記制御回路は、更に、前記入力カラー画像フレームにおいて取り込まれる前記シーンに関連する前記ベクトルクラスタの組に基づいて、平面マップを生成するように構成され、前記入力カラー画像フレームの画像領域内の前記検出された複数の平面をマップして、前記平面マップを生成することを特徴とする、請求項5に記載のシステム。
  7. 前記平面マップは、前記シーンの前記入力カラー画像フレームの前記画像領域内の前記平面マップ内の画素の空間位置にかかわらず、前記平面マップ内の各画素に関連する同じ向き情報に基づいて、前記平面マップ内の前記検出された複数の平面のうちの異なる平面内にグループ化される画素を含むことを特徴とする、請求項6に記載のシステム。
  8. 前記制御回路は、更に、前記画像領域内の第1の閾値数の画素よりも小さい、前記平面マップ内の複数の点在領域のエリアサイズに基づいて、前記平面マップ内の前記検出された複数の平面内の複数の点在領域を検出するように構成されることを特徴とする、請求項7に記載のシステム。
  9. 前記制御回路は、更に、前記平面マップ内の前記検出された複数の点在領域を除去し、その後に、メディアンフィルタによって平滑化動作を実行して、前記画像領域内の第2の閾値数の画素よりも小さい前記検出された複数の点在領域を平滑化するように構成されることを特徴とする、請求項8に記載のシステム。
  10. 前記制御回路は、更に、前記シーンに対する基準高さから、前記平面マップ内の前記検出された複数の平面内の最も低い平面を選択するように構成され、前記基準高さは、前記シーンの前記一連のカラー画像フレームを取り込む前記第1のタイプのセンサの高さに対応し、前記平面マップ内の前記検出された複数の平面内の前記選択された最も低い平面は、前記入力カラー画像フレームにおいて取り込まれる前記シーンに対する前記地面であることを特徴とする、請求項7に記載のシステム。
  11. 前記制御回路は、更に、
    前記平面マップ内の前記画素の高さベースの分布に基づいて、前記平面マップ内の異なる水平面内の画素を分離し、
    前記平面マップ内の前記画素の前記高さベースの分布に基づいて、前記異なる水平面内の他の画素と比較して、最も低い水平面内に存在する画素を、前記地面の前記画素として分類する、
    ように構成されることを特徴とする、請求項7に記載のシステム。
  12. 前記制御回路は、更に、前記入力深度画像及び前記第1の画像パラメータの組を用いて、及び前記入力カラー画像フレームと前記入力カラー画像フレームの背景画像との間の差分の2値化によって、前記シーンの入力カラー画像フレーム内の前記前景人間オブジェクトの前景マスクを推定するように構成され、前記前景人間オブジェクトは、前記推定された前景マスクに基づいて、前記入力カラー画像フレームの前記背景からセグメント化されることを特徴とする、請求項1に記載のシステム。
  13. 前記制御回路は、更に、前記入力カラー画像フレーム内の前記検出された地面の前記レベルから前記規定の領域内の画素の組を含むように、前記推定された前景マスクを更新するように構成され、前記画素の組は、前記第2の画像パラメータの組に基づいて回復される前記足領域の画素に対応することを特徴とする、請求項12に記載のシステム。
  14. 方法であって、
    第1のタイプのセンサと、第2のタイプのセンサと、制御回路とを含むオブジェクトセグメンテーションシステムにおいて、
    前記第1のタイプのセンサによって、シーンの一連のカラー画像フレームを取り込むステップと、
    前記第2のタイプのセンサによって、前記一連のカラー画像フレームのうちの対応するカラー画像フレーム毎に深度画像を取り込むステップと、
    前記制御回路によって、前記第2のタイプのセンサから受け取られる入力カラー画像フレームに対する対応する入力深度画像に基づいて、前記第1のタイプのセンサから受け取られる前記一連のカラー画像フレームのうちの入力カラー画像フレームに対するポイントクラウドを生成するステップと、
    前記制御回路によって、第1の画像パラメータの組に基づいて、前記入力カラー画像フレームの背景から、前景人間オブジェクトをセグメント化するステップであって、前記セグメント化された前景人間オブジェクトは、前記前景人間オブジェクトの足領域の少なくとも一部が欠けている、ステップと、
    前記制御回路によって、前記生成されたポイントクラウド内の複数のポイントから投影される複数のベクトルを、ベクトルクラスタの組にクラスタ化することによって、前記入力カラー画像フレームにおいて取り込まれる前記シーンに対する地面を検出するステップであって、前記シーンに対する前記地面は、前記生成されたポイントクラウド内の前記ベクトルクラスタの組のうちの1つのベクトルクラスタに関連する向き情報に基づいて検出される、ステップと、
    前記制御回路によって、前記第1の画像パラメータの組と異なる第2の画像パラメータの組に基づいて、前記入力カラー画像フレーム内の前記検出された地面のレベルから規定の領域内の足領域を回復するステップと、
    前記制御回路によって、前記地面の検出と、前記検出された地面の前記レベルから前記規定の領域内の複数の前景画素とに基づいて、前記一連のカラー画像フレームのうちの前記入力カラー画像フレームの前記背景から、前記回復された足領域を含む前記前景人間オブジェクトを抽出するステップと、
    を含むことを特徴とする方法。
  15. 更に、
    前記制御回路によって、深度値が存在しない前記入力深度画像内の複数の領域を検出するステップと、
    前記制御回路によって、メディアンフィルタ及び均一フィルタによって、前記入力深度画像を平滑化して、前記複数の領域において深度値を塗りつぶし、前記入力深度画像内のノイズを低減させるステップと、
    を含むことを特徴とする、請求項14に記載の方法。
  16. 更に、前記制御回路によって、前記入力深度画像に基づいて、前記生成されたポイントクラウド内の各ポイントの3次元(3D)座標を決定するステップを含むことを特徴とする、請求項14に記載の方法。
  17. 更に、前記制御回路によって、前記生成されたポイントクラウドの前記複数のポイントにおいて関心ポイント及び前記関心ポイントの2つの隣接ポイントの3次元(3D)座標に基づいて、前記入力カラー画像フレームにおいて取り込まれる前記シーンに対する前記生成されたポイントクラウド内の複数のポイントから投影される複数のベクトルを計算するステップを含むことを特徴とする、請求項16に記載の方法。
  18. 更に、前記制御回路によって、前記入力カラー画像フレームにおいて取り込まれる前記シーンに関連する前記ベクトルクラスタの組に基づいて、前記入力カラー画像フレームにおいて取り込まれる前記シーンに対する複数の平面を検出するステップを含むことを特徴とする、請求項17に記載の方法。
  19. 更に、前記制御回路によって、前記入力カラー画像フレームにおいて取り込まれる前記シーンに関連する前記ベクトルクラスタの組に基づいて、平面マップを生成するステップを含み、前記平面マップは、前記入力カラー画像フレームの画像領域内の前記検出された複数の平面をマップすることによって生成されることを特徴とする、請求項18に記載の方法。
  20. 前記平面マップは、前記シーンの前記入力カラー画像フレームの前記画像領域内の前記平面マップ内の画素の空間位置にかかわらず、前記平面マップ内の各画素に関連する同じ向き情報に基づいて、前記平面マップ内の前記検出された複数の平面のうちの異なる平面内にグループ化される画素を含むことを特徴とする、請求項19に記載の方法。
JP2020564941A 2018-05-22 2019-05-21 地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復 Active JP7152705B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/986,355 US10621730B2 (en) 2018-05-22 2018-05-22 Missing feet recovery of a human object from an image sequence based on ground plane detection
US15/986,355 2018-05-22
PCT/US2019/033348 WO2019226673A1 (en) 2018-05-22 2019-05-21 Missing feet recovery of a human object from an image sequence based on ground plane detection

Publications (2)

Publication Number Publication Date
JP2021526254A true JP2021526254A (ja) 2021-09-30
JP7152705B2 JP7152705B2 (ja) 2022-10-13

Family

ID=68613748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020564941A Active JP7152705B2 (ja) 2018-05-22 2019-05-21 地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復

Country Status (6)

Country Link
US (1) US10621730B2 (ja)
EP (1) EP3782076A4 (ja)
JP (1) JP7152705B2 (ja)
KR (1) KR102598459B1 (ja)
CN (1) CN112313704A (ja)
WO (1) WO2019226673A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11244500B2 (en) 2019-12-31 2022-02-08 Woven Planet North America, Inc. Map feature extraction using overhead view images
US11037328B1 (en) * 2019-12-31 2021-06-15 Lyft, Inc. Overhead view image generation
US11288522B2 (en) 2019-12-31 2022-03-29 Woven Planet North America, Inc. Generating training data from overhead view images
US11741620B1 (en) * 2020-01-24 2023-08-29 Apple Inc. Plane detection using depth sensor and semantic information
KR102561734B1 (ko) * 2021-02-15 2023-07-31 엔에이치엔클라우드 주식회사 이미지 복원 기반 상품검색 방법 및 시스템
CN116524441B (zh) * 2023-07-03 2023-09-01 四川顶圣工程项目管理有限公司 一种用于工程项目管理的施工现场监督方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170193665A1 (en) * 2016-01-04 2017-07-06 Electronics And Telecommunications Research Institute System and method for detecting object from depth image
JP2017156880A (ja) * 2016-02-29 2017-09-07 Kddi株式会社 画像処理装置および画像処理方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7907793B1 (en) * 2001-05-04 2011-03-15 Legend Films Inc. Image sequence depth enhancement system and method
US8401336B2 (en) * 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
US7043474B2 (en) * 2002-04-15 2006-05-09 International Business Machines Corporation System and method for measuring image similarity based on semantic meaning
US7003136B1 (en) * 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
DE10323944A1 (de) * 2003-05-27 2004-12-16 Maerz Ofenbau Ag Prozessbehälter mit Kühlelementen
US8139142B2 (en) * 2006-06-01 2012-03-20 Microsoft Corporation Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques
JP4971768B2 (ja) * 2006-12-07 2012-07-11 キヤノン株式会社 編集装置、編集方法、およびプログラム
US9165199B2 (en) 2007-12-21 2015-10-20 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
US9189886B2 (en) 2008-08-15 2015-11-17 Brown University Method and apparatus for estimating body shape
US8678006B2 (en) * 2008-10-10 2014-03-25 Winston Allen Porter, III Patient support system and method
US8682072B2 (en) 2008-12-30 2014-03-25 Yahoo! Inc. Image segmentation
US8774512B2 (en) * 2009-02-11 2014-07-08 Thomson Licensing Filling holes in depth maps
US8477149B2 (en) 2009-04-01 2013-07-02 University Of Central Florida Research Foundation, Inc. Real-time chromakey matting using image statistics
KR101669820B1 (ko) * 2010-07-02 2016-10-27 삼성전자주식회사 볼륨 예측 기반 폐색 영역 양방향 복원 장치 및 방법
US9275472B2 (en) 2011-11-18 2016-03-01 Disney Enterprises, Inc. Real-time player detection from a single calibrated camera
WO2013088517A1 (ja) 2011-12-13 2013-06-20 株式会社日立製作所 停立人物の向き推定方法
US9684928B2 (en) 2014-01-15 2017-06-20 Holition Limited Foot tracking
EP2927878A1 (en) 2014-04-04 2015-10-07 Brainstorm Multimedia, S.L. Computer implemented method to obtain a virtual shadow of a person within a virtual scene
CN104061907B (zh) * 2014-07-16 2016-08-24 中南大学 基于步态三维轮廓匹配合成的视角大幅可变步态识别方法
CN105517677B (zh) * 2015-05-06 2018-10-12 北京大学深圳研究生院 深度图/视差图的后处理方法和装置
CN106296721B (zh) * 2015-05-14 2019-01-25 株式会社理光 基于立体视觉的对象聚集检测方法和装置
CN104966099B (zh) 2015-06-15 2018-03-20 北京航空航天大学 一种基于人脚图像的脚型分类方法
KR101940718B1 (ko) * 2015-09-04 2019-01-22 한국전자통신연구원 Rgb-d 영상 기반 사람 영역 추출 장치 및 그 방법
US10380756B2 (en) * 2016-09-08 2019-08-13 Sony Corporation Video processing system and method for object detection in a sequence of image frames
US9965865B1 (en) * 2017-03-29 2018-05-08 Amazon Technologies, Inc. Image data segmentation using depth data
CN108038905B (zh) * 2017-12-25 2018-12-07 北京航空航天大学 一种基于超像素的目标重建方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170193665A1 (en) * 2016-01-04 2017-07-06 Electronics And Telecommunications Research Institute System and method for detecting object from depth image
JP2017156880A (ja) * 2016-02-29 2017-09-07 Kddi株式会社 画像処理装置および画像処理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
三功 浩嗣、他3名: "視点間の整合性を考慮した3次元モデルフィードバック型背景分離方式の不要部除去拡張", 映像情報メディア学会技術報告, vol. 第33巻 第37号, JPN6022006516, 24 September 2009 (2009-09-24), JP, pages 75 - 80, ISSN: 0004713004 *
松本 一紀、他2名: "RGB-Dカメラから取得した3次元点群の平面フィッティングを用いた実時間ノイズ低減と補間", 映像情報メディア学会誌, vol. 第69巻 第3号, JPN6022006517, 25 February 2015 (2015-02-25), JP, pages 113 - 120, ISSN: 0004713003 *

Also Published As

Publication number Publication date
EP3782076A4 (en) 2022-01-19
JP7152705B2 (ja) 2022-10-13
KR20210008087A (ko) 2021-01-20
US10621730B2 (en) 2020-04-14
US20190362500A1 (en) 2019-11-28
KR102598459B1 (ko) 2023-11-07
EP3782076A1 (en) 2021-02-24
CN112313704A (zh) 2021-02-02
WO2019226673A1 (en) 2019-11-28

Similar Documents

Publication Publication Date Title
JP7152705B2 (ja) 地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復
JP6889417B2 (ja) 一連の画像の画像内のオブジェクト境界安定化のための画像処理装置及び方法
US11605214B2 (en) Method, device and storage medium for determining camera posture information
JP6501092B2 (ja) オブジェクトセグメンテーションのための前景マスク補正のための画像処理装置及び方法
US10380756B2 (en) Video processing system and method for object detection in a sequence of image frames
KR101802146B1 (ko) 화상처리장치 및 화상처리방법
KR102577957B1 (ko) 배경 이미지 및 배경 심도 보정에 의한 컬러 이미지 프레임들의 시퀀스에서의 객체 분할
JP7015017B2 (ja) 適応的前景マスクアップサンプリングに基づく一連のカラー画像フレームのオブジェクトセグメンテーション
WO2014172226A1 (en) Multimodal foreground background segmentation
US11200678B2 (en) Image-based mask frame interpolation
JP7100306B2 (ja) ユーザ指定初期化点に基づくオブジェクトトラッキング
JP6882723B2 (ja) 一連の画像フレームにおける多関節オブジェクトの自動追跡及び保持
US12002292B2 (en) Online calibration of 3D scan data from multiple viewpoints
CN113256484B (zh) 一种对图像进行风格化处理的方法及装置
US20230222677A1 (en) Sequence stabalization of 3d point cloud frames using motion information
JP2016001404A (ja) 画像処理方法、画像処理装置およびコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220913

R151 Written notification of patent or utility model registration

Ref document number: 7152705

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151