JP2022518402A - 三次元再構成の方法及び装置 - Google Patents

三次元再構成の方法及び装置 Download PDF

Info

Publication number
JP2022518402A
JP2022518402A JP2021540143A JP2021540143A JP2022518402A JP 2022518402 A JP2022518402 A JP 2022518402A JP 2021540143 A JP2021540143 A JP 2021540143A JP 2021540143 A JP2021540143 A JP 2021540143A JP 2022518402 A JP2022518402 A JP 2022518402A
Authority
JP
Japan
Prior art keywords
position point
space
reconstruction
images
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021540143A
Other languages
English (en)
Other versions
JP7398819B2 (ja
Inventor
淞 王
▲鋒▼ ▲張▼
新然 于
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Ainfinit Technology Co Ltd
Original Assignee
Beijing Ainfinit Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Ainfinit Technology Co Ltd filed Critical Beijing Ainfinit Technology Co Ltd
Publication of JP2022518402A publication Critical patent/JP2022518402A/ja
Application granted granted Critical
Publication of JP7398819B2 publication Critical patent/JP7398819B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix

Abstract

本出願は三次元再構成の方法及び装置を開示しており、該方法は、物体が再構成空間に進入する場合、視野が再構成空間を覆うN台のカメラの再構成空間に対する撮影画像をN個の現在画像として取得することと、N個の現在画像、及び再構成空間に物体が存在しない場合の、再構成空間に対するN台のカメラの撮影画像から得られたN個の初期背景画像に基づいて、N個の現在画像の各位置点に対応する前景背景差分を取得することと、N個の現在画像の各位置点と再構成空間の各位置点との対応関係に基づいて、上記前景背景差分を対応融合して再構成空間の各位置点に対応する前景背景差分を取得することと、再構成空間の各位置点に対応する前景背景差分及びプリセット前景背景閾値に基づいて、再構成空間の各位置点を選別して物体を三次元再構成することと、を含む。このように、N個の現在画像及び対応するN個の初期背景画像により比較的に簡単な前景背景分離を行い、再構成空間に進入した物体の三次元再構成を快速でリアルタイムに完成する。【選択図】 図2

Description

相互参照
本出願は、2019年01月25日にて中国特許庁に提出され、出願番号が201910074343.5であり、発明の名称が「三次元再構成の方法及び装置」である中国特許出願の優先権を主張し、その全ての内容が本出願に援用される。
本出願は、画像分析処理技術分野に関し、特に三次元再構成の方法及び装置に関する。
科学技術の急速な発展に伴い、コンピュータの表示及び処理に適した数学的モデルを物体に構築するように、三次元再構成(英語:3D Reconstruction;略称:3D再構成)技術の適用が必要であるシーンがますます多くなり、客観的な世界を表現する仮想現実をコンピュータで構築するキー技術である。現在、主流の3D再構成技術には、主に直接的な3D再構成技術及び間接的な3D再構成技術が含まれる。
なお、直接的な3D再構成技術とは、レーザー測距付きの専用測定機器を使用することにより、物体の3D形状及び3D構造を実際に測定することであり、間接的な3D再構成技術とは、物体に対して異なる角度の画像を撮影することにより、アルゴリズムで画像上の特徴点を抽出し、特徴点の照合マッチングにより、最終的に物体の3D形状及び3D構造を生成することである。
発明者は研究を通じて、直接的な3D再構成技術は、物体に対して全面的なレーザー測距を行って多くの時間がかかり、間接的な3D再構成技術は、異なる角度の物体の画像における特徴点を比較して演算することが比較的に複雑で計算量が大きい、と発見し、即ち、上記2種類の3D再構成技術は、一回の3D再構成を完成するために、ともに数分ひいては数時間が必要である。それでは、上記2種類の3D再構成技術は、リアルタイムの3D再構成が必要なシーン、例えば、人間の動きへのキャプチャ、物体の移動へのキャプチャ等に適用できない。
本出願が解決しようとする技術的課題は、再構成空間に進入した物体の三次元再構成を快速でリアルタイムに完成でき、リアルタイムの三次元再構成が必要なシーンに非常に適する、三次元再構成の方法及び装置を提供することである。
第1点、本出願の実施例は、
物体が再構成空間に進入する場合、前記再構成空間に対するN(前記Nが2以上の正整数)台のカメラの撮影画像をN個の現在画像として取得し、前記カメラの視野が前記再構成空間を覆うことと、
前記N個の現在画像及び対応するN個の初期背景画像に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得し、前記N個の初期背景画像は、前記再構成空間に物体が存在しない場合の、前記再構成空間に対する前記N台のカメラの撮影画像であることと、
前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を対応融合し、前記再構成空間の各位置点に対応する前景背景差分を取得することと、
前記再構成空間の各位置点に対応する前景背景差分及びプリセット前景背景閾値に基づいて、前記再構成空間の各位置点を選別して前記物体を三次元再構成することと、を含む三次元再構成の方法を提供する。
任意に、前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係は、前記再構成空間の縁に固定的に配置された前記N台のカメラの位置情報及び角度情報によって特定される。
任意に、前記N個の現在画像及び対応するN個の初期背景画像に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得することは、
前記N個の現在画像の各位置点の画素値、及び対応する前記N個の初期背景画像の各位置点の画素値を取得することと、
前記N個の現在画像の各位置点の画素値、対応する前記N個の初期背景画像の各位置点の画素値と差分関数に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得することと、を含む。
任意に、前記差分関数は、混合ガウスモデルのモデリングにより特定されるか、或いは、前記差分関数は、ベクトル距離式により特定される。
任意に、前記ベクトル距離式は、ユークリッド距離式、マンハッタン距離式またはコサイン距離式を含む。
任意に、前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を対応融合し、前記再構成空間の各位置点に対応する前景背景差分を取得することは、
前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記再構成空間の各位置点のそれぞれに対応する前記N個の現在画像の位置点に対応する前景背景差分を特定することと、
前記再構成空間の各位置点のそれぞれに対応する前記N個の現在画像の位置点に対応する前景背景差分及び融合関数に基づいて、前記再構成空間の各位置点に対応する前景背景差分を取得することと、を含む。
任意に、前記融合関数は、加算関数または乗算関数を含む。
任意に、前記再構成空間の境界は、濃淡が互い違いになったテクスチャを使用する。
任意に、
照明が変化し且つ前記再構成空間に物体が存在しない場合、前記再構成空間に対する前記N台のカメラの撮影画像を取得して前記N個の初期背景図を更新することをさらに含む。
第2点、本出願の実施例は、
物体が再構成空間に進入する場合、前記再構成空間に対するN(前記Nが2以上の正整数)台のカメラの撮影画像をN個の現在画像として取得するためのものであり、前記カメラの視野が前記再構成空間を覆う取得ユニットと、
前記N個の現在画像及び対応するN個の初期背景画像に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得するためのものであり、前記N個の初期背景画像は、前記再構成空間に物体が存在しない場合の、前記再構成空間に対する前記N台のカメラの撮影画像である第1取得ユニットと、
前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を対応融合し、前記再構成空間の各位置点に対応する前景背景差分を取得するための第2取得ユニットと、
前記再構成空間の各位置点に対応する前景背景差分及びプリセット前景背景閾値に基づいて、前記再構成空間の各位置点を選別して前記物体を三次元再構成するための再構成ユニットと、を含む三次元再構成の装置を提供する。
第3点、本出願の実施例は、プロセッサ及びメモリを含み、
前記メモリが、プログラムコードを記憶するとともに、前記プログラムコードを前記プロセッサに伝送し、
前記プロセッサが、前記プログラムコードにおけるコマンドに応じて上記第1点のいずれか1項に記載の三次元再構成の方法を実行する、端末機器を提供する。
第4点、本出願の実施例は、上記第1点のいずれか1項に記載の三次元再構成の方法を実行するためのプログラムコードを記憶する、コンピュータ読み取り可能記憶媒体を提供する。
従来技術と比較すると、本出願は少なくとも以下の利点を有する。即ち、
本出願の実施例の技術案を使用すると、まず、物体が再構成空間に進入する場合、視野が再構成空間を覆うN台のカメラの再構成空間に対する撮影画像をN個の現在画像として取得し、そして、N個の現在画像及び対応するN個の初期背景画像に基づいて、N個の現在画像の各位置点に対応する前景背景差分を取得し、N個の初期背景画像は、再構成空間に物体が存在しない場合の、再構成空間に対するN台のカメラの撮影画像であり、次に、N個の現在画像の各位置点と再構成空間の各位置点との対応関係に基づいて、N個の現在画像の各位置点に対応する前景背景差分を対応融合して再構成空間の各位置点に対応する前景背景差分を取得し、最後に、再構成空間の各位置点に対応する前景背景差分及びプリセット前景背景閾値に基づいて、再構成空間の各位置点を選別して物体を三次元再構成する。このように、物体が再構成空間に進入する場合、N個の現在画像及び対応するN個の初期背景画像により前景背景の分離を行って物体を三次元再構成し、前景背景の分離の演算は比較的に簡単で便利であり、再構成空間に進入した物体の三次元再構成を快速でリアルタイムに完成でき、該方法は、リアルタイムの三次元再構成が必要なシーンに非常に適する。
本出願の実施例における技術案をより明瞭に説明するために、以下、本出願の実施例への記載に使用する図面を簡単に紹介し、明らかに、以下の記載における図面は、本出願に記載されるいくつかの実施例に過ぎず、当業者にとって、創造的な労働をせず、さらにこれらの図面に応じて他の図面を得ることができる。
本出願の実施例における適用シーンに係るシステムフレーム概略図である。 本出願の実施例が提供する三次元再構成の方法のフロー概略図である。 本出願の実施例が提供する再構成空間及びN台のカメラの構造概略図である。 本出願の実施例が提供する、真っ白な再構成空間における真っ黒な円柱体の三次元再構成の平面概略図である。 本出願の実施例が提供する黒白のテクスチャである。 本出願の実施例が提供する三次元再構成の装置の構造概略図である。
当業者に本出願の技術案をよりよく理解させるために、以下、本出願の実施例における図面を結合して本出願の実施例における技術案を明瞭で完全に記載し、明らかに、記載される実施例は、本出願の一部の実施例に過ぎず、全ての実施例ではない。本出願における実施例に基づいて、当業者が創造的な労働をせずに取得した全ての他の実施例は、いずれも本出願の保護する範囲に属する。
現在、主流の3D再構成技術には、主に2種類が含まれ、1つは、直接的な3D再構成技術であり、レーザー測距付きの専用測定機器を使用することにより、物体の3D形状及び3D構造を実際に測定することであり、もう1つは間接的な3D再構成技術であり、物体に対して異なる角度の画像を撮影することにより、アルゴリズムで画像上の特徴点を抽出し、特徴点の照合マッチングにより、最終的に物体の3D形状及び3D構造を生成することである。しかしながら、発明者は研究を通じて、直接的な3D再構成技術は、物体に対して全面的なレーザー測距を行って多くの時間がかかり、間接的な3D再構成技術は、異なる角度の物体の画像における特徴点を比較して演算することが比較的に複雑であって計算量が大きい、と発見した。即ち、一回の3D再構成を完成するために、ともに数分ひいては数時間が必要であり、リアルタイムの3D再構成が必要なシーンに適用できず、例えば、スマート自動販売機が顧客の商品を取る動きを判断することや生産設備が労働者の操作が安全規制を満たすか否かを検出する等のような、人間の動きをリアルタイムにキャプチャする必要があるシーンや、別の例として、工場の生産ラインでの部品の運送状況を検出する等のような、物体の移動をリアルタイムにキャプチャする必要があるシーンに適用できない。
この課題を解決するために、本出願の実施例において、まず、物体が再構成空間に進入する場合、視野が再構成空間を覆うN台のカメラの再構成空間に対する撮影画像をN個の現在画像として取得し、そして、N個の現在画像及び対応するN個の初期背景画像に基づいて、N個の現在画像の各位置点に対応する前景背景差分を取得し、N個の初期背景画像は、再構成空間に物体が存在しない場合の、再構成空間に対するN台のカメラの撮影画像である。次に、N個の現在画像の各位置点と再構成空間の各位置点との対応関係に基づいて、N個の現在画像の各位置点に対応する前景背景差分を対応融合して再構成空間の各位置点に対応する前景背景差分を取得し、最後に、再構成空間の各位置点に対応する前景背景差分及びプリセット前景背景閾値に応じて、再構成空間の各位置点を選別して物体を三次元再構成する。このように、物体が再構成空間に進入する場合、N個の現在画像及び対応するN個の初期背景画像により前景背景の分離を行って物体を三次元再構成し、前景背景の分離の演算は比較的に簡単で便利であり、再構成空間に進入した物体の三次元再構成を快速でリアルタイムに完成でき、当該方法は、リアルタイムの三次元再構成が必要なシーンに非常に適する。
例を挙げると、本出願の実施例のシーンの1つは、図1に示すようなシーンに適用してもよく、該シーンは、N(Nが2以上の正整数)台のカメラ101、プロセッサ102、及びユーザ端末103を含み、カメラの視野が再構成空間を覆う。
再構成空間に物体が存在しない場合、N台のカメラ101は再構成空間を撮影し、撮影画像を得てプロセッサ102に送信し、プロセッサ102はそれをN個の初期背景画像とする。物体が再構成空間に進入する場合、N台のカメラ101は再構成空間を撮影し、撮影画像を得てプロセッサ102に送信し、プロセッサ102はそれをN個の現在画像とする。プロセッサ102は、N個の現在画像及び対応するN個の初期背景画像に応じて、N個の現在画像の各位置点に対応する前景背景差分を取得する。プロセッサ102は、N個の現在画像の各位置点と再構成空間の各位置点との対応関係に基づいて、N個の現在画像の各位置点に対応する前景背景差分を対応融合し、再構成空間の各位置点に対応する前景背景差分を取得する。プロセッサ102は、再構成空間の各位置点に対応する前景背景差分及びプリセット前景背景閾値に応じて、再構成空間の各位置点を選別して物体を三次元再構成し、物体の三次元再構成画像を得てユーザ端末103に送信し、ユーザ端末103は物体の三次元再構成画像をユーザに表示する。
上記の適用シーンにおいて、本出願の実施形態の処理がプロセッサ102によって実行されるが、本出願は、実行主体を限定せず、本出願の実施形態に開示した処理を実行すればよい。
上記シーンは、本出願の実施例が提供する1つのシーンの例示に過ぎず、本出願の実施例はこのシーンに限定されない。
以下、図面を結合して、実施例により本出願の実施例における三次元再構成の方法及び装置の具体的な実現形態を詳しく説明する。
例示的な方法
図2を参照し、本出願の実施例における三次元再構成の方法のフロー概略図を示す。本実施例において、前記方法は例えば、以下のステップを含むことができる。
ステップ201:物体が再構成空間に進入する場合、前記再構成空間に対するN(前記Nが2以上の正整数)台のカメラの撮影画像をN個の現在画像として取得し、前記カメラの視野が前記再構成空間を覆う。
なお、再構成空間とは、進入した物体に対して三次元再構成を行う必要がある空間であり、本出願の実施では、当該再構成空間の形状を限定せず、四角体であってもよいし、円柱体であってもよく、さらに球体等であってもよい。本出願の実施例を実現する前提は、再構成空間の縁にカメラを配置する必要があることであり、仮にN(Nが2以上の正整数)台のカメラを配置すれば、N台のカメラは再構成空間の縁に分散して配置されるべきであり、各台のカメラのレンズが再構成空間の内部に面し、且つ視野が全再構成空間を覆う。それ以外、本出願の実施では、カメラの数量及びカメラの配置位置について限定がなく、カメラの数量の多少は、後続のステップの操作及び算出に影響を与えたり変更したりすることがなく、配置されるカメラが多いほど、後続の使用可能なデータが多くなり、三次元再構成の精度が高くなる。ここで、カメラを配置した後、N台のカメラはいずれも固定する必要があり、適用中に、各台のカメラが移動したり回動したりしないようにする等を必ず確保する。
例えば、図3に示すような再構成空間及びN台のカメラの構造概略図である。再構成空間が立方体であれば、その特定の4つのエッジの中点に4台のカメラを配置でき、Nが4であり、或いは、その8つの頂点に8台のカメラを配置し、Nが8である。再構成空間が円柱体であれば、その天面及び底面に互いにずれる4台のカメラを配置でき、Nが4である。
なお、物体が再構成空間に進入する場合、三次元再構成が必要な物体が該再構成空間に存在することを示し、この場合、N台のカメラは再構成空間を撮影してN個の撮影画像を得て、プロセッサは上記N個の撮影画像をN個の現在画像として取得する。N個の現在画像はいずれも物体部分の画像を含み、それを前景画像とし、他の部分の画像を背景画像とする。
ステップ202:前記N個の現在画像及び対応するN個の初期背景画像に応じて、前記N個の現在画像の各位置点に対応する前景背景差分を取得し、前記N個の初期背景画像は、前記再構成空間に物体が存在しない場合の、前記再構成空間に対する前記N台のカメラの撮影画像である。
なお、N個の初期背景画像は実際には、N台のカメラを配置し固定した後、再構成空間に物体が存在しない場合、N台のカメラを起動させて再構成空間を撮影してN個の撮影画像を取得し、プロセッサがN個の撮影画像を取得することで得られたものである。初期背景図を取得する場合、再構成領域内に他の物体の進入がないように確保する必要がある。N個の初期背景画像はプロセッサに記憶され、且つ各初期背景画像上に再構成空間に進入した物体部分の画像がなく、純粋な再構成空間の背景画像のみがある。
なお、N個の初期背景図における各初期背景画像上に再構成空間に進入した物体部分の画像がないので、即ち、各初期背景画像における全ての部分画像がいずれも背景画像に属する。各台のカメラにとって、カメラが固定されているため、現在画像の各位置点と対応する初期背景図の各位置点とは1対1の対応関係があり、現在画像と対応する初期背景図とを比較することで、現在画像の各位置点に対応する前景背景差分が得られ、前景部分の画像を現在画像から分離させて後続の物体の三次元再構成に使用する。
ここで、現在画像及び対応する初期背景図における任意の1つの位置点について、現在画像の当該位置点の画素値と対応する初期背景図の当該位置点の画素値との間の差分で現在画像の当該位置点に対応する前景背景差分を示すことができる。現在画像の各位置点の画素値及び対応する初期背景図の各位置点の画素値を確定した後、予め定義された差分関数を使用すれば、画素値差分を前景背景差分として取得できる。前景背景差分が大きいほど、その対応する位置点が前景画像に属する確率が高いことを示し、前景背景差分が小さいほど、その対応する位置点が背景画像に属する確率が高いことを示す。従って、本出願の実施例のいくつかの実施形態では、前記ステップ202は例えば、
ステップA:前記N個の現在画像の各位置点の画素値、及び対応する前記N個の初期背景画像の各位置点の画素値を取得することと、
ステップB:前記N個の現在画像の各位置点の画素値、対応する前記N個の初期背景画像の各位置点の画素値及び差分関数に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得することと、を含む。
例えば、(u,v)が現在画像及び対応する初期背景図における1つの位置点を示し、(R,G,B)が現在画像の当該位置点の画素値を示し、(R,G,B)が対応する初期背景画像の当該位置点の画素値を示し、予め定義された差分関数がFであるとすれば、現在画像の当該位置点に対応する前景背景差分DiffはDiff=F(R,G,B,R,G,B)である。当該位置点が現在画像において前景画像に属せず背景画像であれば、(R,G,B)=(R,G,B)であり、現在画像の当該位置点に対応する前景背景差分Diffは0である。
なお、予め定義される差分関数は多種多様であってもよく、本出願の実施例では、2つの方式で差分関数を定義することができる。一つ目は古典的であり、混合ガウスモデルのモデリングにより差分関数を特定でき、二つ目は、画素値を3次元ベクトルと見なし、古典的なベクトル距離式に基づいて差分関数を特定できる。なお、よく見られるベクトル距離式は、ユークリッド距離式、マンハッタン距離式、及びコサイン距離式等であり、そのうちのいずれか1つの距離式を選択して、差分関数を特定できる。従って、本出願の実施例のいくつかの実施形態では、前記差分関数は、混合ガウスモデルのモデリングにより特定されるか、或いは、前記差分関数は、ベクトル距離式により特定され、前記ベクトル距離式は、ユークリッド距離式、マンハッタン距離式またはコサイン距離式を含む。
例えば、ユークリッド距離式を使用して差分関数Fを特定する場合、現在画像の各位置点に対応する前景背景差分Diffは
Figure 2022518402000002
であり、マンハッタン距離式を使用して差分関数Fを特定する場合、現在画像の各位置点に対応する前景背景差分Diffは、
Figure 2022518402000003
であり、コサイン距離式を使用して差分関数Fを特定する場合、現在画像の各位置点に対応する前景背景差分Diffは、
Figure 2022518402000004
である。
ステップ203:前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を対応融合し、前記再構成空間の各位置点に対応する前景背景差分を取得する。
なお、ステップ202でN個の現在画像の各位置点に対応する前景背景差分を取得し、N個の現在画像の各位置点が前景画像に属する確率を示し、再構成空間の各位置点が物体に属する確率を特定するように、再構成空間の各位置点に対応する前景背景差分を取得する必要がある。再構成空間の各位置点のうち任意の1つの位置点について、N個の現在画像においてそれぞれ対応する位置点があり、現在画像における対応する位置点はそれぞれ、前景画像に属する確率を示す1つの前景背景差分に対応し、融合関数を使用してN個の現在画像において対応する位置点が対応する前景背景差分を融合すれば、再構成空間の当該位置点が物体に属する確率を示す前景背景差分が得られる。従って、本出願の実施例のいくつかの実施形態では、前記ステップ203は例えば、
ステップC:前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記再構成空間の各位置点のそれぞれに対応する前記N個の現在画像の位置点に対応する前景背景差分を特定することと、
ステップD:前記再構成空間の各位置点のそれぞれに対応する前記N個の現在画像の位置点に対応する前景背景差分及び融合関数により、前記再構成空間の各位置点に対応する前景背景差分を取得することと、を含む。
例えば、(x,y,z)が再構成空間の1つの位置点を示し、Diffiが、当該位置点に対応するプロセッサが第i台のカメラから取得した現在画像の位置点に対応する前景背景差分を示し、i=1,2,3,・・・,Nであり、予め定義された融合関数がRであるとすれば、再構成空間の当該位置点に対応する前景背景差分Diff3Dは
Diff3D=R(Diff,Diff,・・・,Diff,)である。
ここで、再構成空間の各位置点のそれぞれに対応する前記N個の現在画像の位置点に対応する前景背景差分について、まず、N個の現在画像の各位置点と再構成空間の各位置点との対応関係に基づいて再構成空間の各位置点のN個の現在画像における対応する位置点を特定し、さらに、その対応する前景背景差分を特定する。なお、N個の現在画像が、再構成空間の縁に固定的に配置されたN台のカメラによって撮影して得られたものであるので、N台のカメラの位置情報及び角度情報は固定される。カメライメージングの原理は、再構成空間中の異なる位置点を1つのイメージング平面に投射して1枚の撮影画像を生成することであり、(x,y,z)は再構成空間の1つの位置点を示し、カメラの固定された位置情報及び角度情報に基づいて、当該カメラに対応する現在画像上の上記位置点に対応する位置点(u,v)が得られ、つまり、カメラの位置情報及び角度情報は、現在画像の位置点(u,v)と再構成空間の位置点(x,y,z)との対応関係を特定できる。従って、本出願の実施例のいくつかの実施形態では、前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係は、前記再構成空間の縁に固定的に配置された前記N台のカメラの位置情報及び角度情報によって特定される。
カメラがイメージングする場合、カメラに入射する各光線上の全ての位置点は撮影画像上の同じ点に対応するので、カメラに進入するこの光線上にある全ての位置点は、対応する現在画像上での位置点が同じである。例えば、カメラに進入する同一光線上にある位置点A及び位置点Bについて、位置点A及び位置点Bは、当該カメラに対応する現在画像上の同一位置点に対応し、(x,y,z)が再構成空間における位置点Aを示し、
(x,y,z)が再構成空間における位置点Bを示すとすれば、当該カメラに対応する現在画像における(u,v)位置点が再構成空間における位置点A及び位置点Bに対応することが得られる。
ここで、差分関数と類似するように、予め定義された融合関数は、多種多様であってもよい。融合関数の作用は、再構成空間の各位置点に対応するN個の現在画像の位置点に対応する前景背景差分を融合することであるので、N個の現在画像の位置点に対応する前景背景差分に対して、加算の方式で融合してもよいし、乗算の方式で融合してもよい。本出願の実施例では、加算関数と、乗算関数との2種類の関数を融合関数として使用でき、上記2種類の関数のうち任意の1種類の関数は、融合関数とすることができる。従って、本出願の実施例のいくつかの実施形態では、前記融合関数は、加算関数または乗算関数を含む。
例えば、加算関数を融合関数Rとして使用する場合、再構成空間の各位置点に対応する前景背景差分Diff3Dは、
Figure 2022518402000005
であり、乗算関数を融合関数Rとして使用する場合、再構成空間の各位置点に対応する前景背景差分Diff3Dは
Figure 2022518402000006
である。
ステップ204:前記再構成空間の各位置点に対応する前景背景差分及びプリセット前景背景閾値に基づいて、前記再構成空間の各位置点を選別して前記物体を三次元再構成する。
ここで、再構成空間の各位置点に対応する前景背景差分が、各位置点が物体に属する確率を示すことができるので、即ち、再構成空間の各位置点に対応する前景背景差分が大きいほど、各位置点が物体に属する確率が大きいことを示す。ステップ203で再構成空間の各位置点に対応する前景背景差分を取得した後、プリセット前景背景閾値により再構成空間の各位置点を選別でき、例えば、再構成空間のある位置点に対応する前景背景差分がプリセット前景背景閾値以上であれば、当該位置点が物体に属するとみなし、再構成空間の各位置点のうち物体に属する位置点を選別すれば、物体を三次元再構成できる。
例えば、再構成空間の境界は、真っ白なテクスチャを使用し、N個の初期背景画像の各位置点の画素値は、(R,G,B)=(255,255,255)であり、1つの真っ黒な円柱体が再構成空間に進入すれば、N個の現在画像における物体部分の画像(前景画像)の各位置点の画素値が(R,G,B)=(0,0,0)であり、他の部分の画像(背景画像)の各位置点の画素値が(R,G,B)=(255,255,255)であり、ユークリッド距離式で差分関数Fを特定する場合、現在画像の位置点が前景画像に属すれば、その対応する前景背景差分Diffは、
Figure 2022518402000007
に算出できる。現在画像の位置点が背景画像に属すれば、その対応する前景背景差分Diffは、
Figure 2022518402000008
に算出できる。図4に示す真っ白な再構成空間における真っ黒な円柱体の三次元再構成の平面概略図のように、説明を容易にするために、平面図で平面上に三次元再構成を行う。左図に示すように、再構成空間は立方体であり、再構成空間の平面図の4つの頂点に4台のカメラが固定的に配置されており、図における各台のカメラが射出する2つの放射線の間の領域が物体であり、その他の領域は背景である。それでは、図における位置点は、あるカメラの2つの射線の間にあり、当該位置点がこのカメラに対応する現在画像の位置点に対応する前景背景差分Diffが441であり、逆であれば0である。加算関数を融合関数Rとして使用する場合、再構成空間の各位置点に対応する前景背景差分Diff3Dは
Figure 2022518402000009
である。
領域1の各位置点に対して、そのDiff=0、Diff=0、Diff=0、Diff=0であれば、そのDiff3D=0であり、領域2の各位置点に対して、そのDiff=441、Diff=0、Diff=0、Diff=441であれば、Diff3D=882であり、領域3の各位置点に対して、そのDiff=441、Diff=441、Diff=441、Diff=441であれば、そのDiff3D=1764である。なお、プリセット前景背景閾値が1764であると、領域1、領域2及び領域3における各位置点のDiff3Dの大きさとプリセット前景背景閾値1764の大きさとを比較し、ある位置点のDiff3Dがプリセット前景背景閾値1764以上であれば、当該位置点が物体に属するとみなし、領域3における各位置点が物体に属し、三次元再構成して領域3に示す多角形が得られる。なお、進入した物体が実際に円柱体であるので、その平面図が円形であり、三次元再構成により構造された形状は多角形であって一定の誤差がある。例えば、図4における右図に示すように、固定的に配置する4台のカメラを8台のカメラまで増加すれば、三次元再構成により構造された形状がさらに円形に近く、即ち、配置するカメラが多いほど、後続に使用可能なデータが多くなり、三次元再構成の精度が高くなる。
ここで、実際に適用する場合、再構成空間に進入した物体の外面のテクスチャ色は特定されず、濃色テクスチャであってもよいし、淡色テクスチャであってもよい。外面が濃色テクスチャである物体と淡色テクスチャの初期背景図との比較が強く、外面が淡色テクスチャである物体と濃色テクスチャの初期背景図との比較が強い。濃色テクスチャ、淡色テクスチャという2種類の外面の物体を同時に対応できるように、濃淡が互い違いになったテクスチャを使用して再構成空間の境界を配置してもよく、即ち、再構成空間の境界について、よりよい前景背景分離效果を達成するように、さらに濃淡が互い違いになったテクスチャを使用してもよい。従って、本出願の実施例のいくつかの実施形態では、前記再構成空間の境界について、濃淡が互い違いになったテクスチャを使用する。例えば、図5に示すような黒白の濃淡が互い違いになったテクスチャを使用して再構成空間の境界を配置する。
ここで、再構成空間の照明が安定すれば、予め取得された初期背景図は依然として再構成空間に適用でき、初期背景図は更新せず使用できる。再構成空間の照明が変化すれば、予め取得された初期背景図は照明変化後の再構成空間に適用できず、初期背景図を更新する必要がある。初期背景図の更新原則は、現在の再構成空間に物体がさらに存在するか否かを判断することにより、存在しなければ、初期背景図を更新するように、各台のカメラはいずれも再構成空間を再度撮影して撮影画像を得ることになる。従って、本出願の実施例のいくつかの実施形態では、例えば、ステップE:照明が変化し且つ前記再構成空間に物体が存在しない場合、前記再構成空間に対する前記N台のカメラの撮影画像を取得して前記N個の初期背景図を更新することをさらに含むことができる。
本実施例が提供する各種の実施形態により、まず、物体が再構成空間に進入する場合、視野が再構成空間を覆うN台のカメラの再構成空間に対する撮影画像をN個の現在画像として取得し、そして、N個の現在画像及び対応するN個の初期背景画像に基づいて、N個の現在画像の各位置点に対応する前景背景差分を取得し、N個の初期背景画像は、再構成空間に物体が存在しない場合の、再構成空間に対するN台のカメラの撮影画像である。次に、N個の現在画像の各位置点と再構成空間の各位置点との対応関係に基づいて、N個の現在画像の各位置点に対応する前景背景差分を対応融合して再構成空間の各位置点に対応する前景背景差分を取得し、最後に、再構成空間の各位置点に対応する前景背景差分及びプリセット前景背景閾値に基づいて、再構成空間の各位置点を選別して物体を三次元再構成する。このように、物体が再構成空間に進入する場合、N個の現在画像及び対応するN個の初期背景画像により前景背景の分離を行って物体を三次元再構成し、前景背景の分離の演算は比較的に簡単で便利であり、再構成空間に進入した物体の三次元再構成を快速でリアルタイムに完成でき、該方法は、リアルタイムの三次元再構成が必要なシーンに非常に適する。
例示的な装置
図6を参照すれば、本出願の実施例における三次元再構成の装置の構造概略図を示す。本実施例において、前記装置は例えば、
物体が再構成空間に進入する場合、前記再構成空間に対するN(前記Nが2以上の正整数)台のカメラの撮影画像をN個の現在画像として取得するための取得ユニットであって、前記カメラの視野が前記再構成空間を覆う取得ユニット601と、
前記N個の現在画像及び対応するN個の初期背景画像に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得するための第1取得ユニット602であって、前記N個の初期背景画像は、前記再構成空間に物体が存在しない場合の、前記再構成空間に対する前記N台のカメラの撮影画像である第1取得ユニット602と、
前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を対応融合し、前記再構成空間の各位置点に対応する前景背景差分を取得するための第2取得ユニット603と、
前記再構成空間の各位置点に対応する前景背景差分及びプリセット前景背景閾値に基づいて、前記再構成空間の各位置点を選別して前記物体を三次元再構成するための再構成ユニット604と、を具体的に含むことができる。
本出願の実施例の任意選択の方式では、前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係は、前記再構成空間の縁に固定的に配置された前記N台のカメラの位置情報及び角度情報によって特定される。
本出願の実施例の任意選択の方式では、前記第1取得ユニット602は、
前記N個の現在画像の各位置点の画素値、及び対応する前記N個の初期背景画像の各位置点の画素値を取得するための第1取得サブユニットと、
前記N個の現在画像の各位置点の画素値、対応する前記N個の初期背景画像の各位置点の画素値及び差分関数に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得するための第2取得サブユニットと、を含む。
本出願の実施例の任意選択の方式では、前記差分関数は、混合ガウスモデルのモデリングにより特定されるか、或いは、前記差分関数は、ベクトル距離式により特定される。
本出願の実施例の任意選択の方式では、前記ベクトル距離式は、ユークリッド距離式、マンハッタン距離式またはコサイン距離式を含む。
本出願の実施例の任意選択の方式では、前記第2取得ユニット603は、
前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記再構成空間の各位置点のそれぞれに対応する前記N個の現在画像の位置点に対応する前景背景差分を特定するための特定サブユニットと、
前記再構成空間の各位置点のそれぞれに対応する前記N個の現在画像の位置点に対応する前景背景差分及び融合関数に基づいて、前記再構成空間の各位置点に対応する前景背景差分を取得するための第3取得サブユニットと、を含む。
本出願の実施例の任意選択の方式では、前記融合関数は、加算関数または乗算関数を含む。
本出願の実施例の任意選択の方式では、前記再構成空間の境界は、濃淡が互い違いになったテクスチャを使用する。
本出願の実施例の任意選択の方式では、
照明が変化し且つ前記再構成空間に物体が存在しない場合、前記再構成空間に対する前記N台のカメラの撮影画像を取得して前記N個の初期背景図を更新するための更新ユニットをさらに含む。
本実施例が提供する各種の実施形態により、取得ユニットは、物体が再構成空間に進入する場合、視野が再構成空間を覆うN台のカメラの再構成空間に対する撮影画像をN個の現在画像として取得し、第1取得ユニットは、N個の現在画像及び対応するN個の初期背景画像に基づいて、N個の現在画像の各位置点に対応する前景背景差分を取得し、N個の初期背景画像は、再構成空間に物体が存在しない場合の、再構成空間に対するN台のカメラの撮影画像であり、第2取得ユニットは、N個の現在画像の各位置点と再構成空間の各位置点との対応関係に基づいて、N個の現在画像の各位置点に対応する前景背景差分を対応融合して再構成空間の各位置点に対応する前景背景差分を取得し、再構成ユニットは、再構成空間の各位置点に対応する前景背景差分及びプリセット前景背景閾値に基づいて、再構成空間の各位置点を選別して物体を三次元再構成する。このように、物体が再構成空間に進入する場合、N個の現在画像及び対応するN個の初期背景画像により前景背景の分離を行って物体を三次元再構成し、前景背景の分離の演算は比較的に簡単で便利であり、再構成空間に進入した物体の三次元再構成を快速でリアルタイムに完成でき、該方法は、リアルタイムの三次元再構成が必要なシーンに非常に適する。
また、本出願の実施例はさらに、プロセッサ及びメモリを含み、
前記メモリが、プログラムコードを記憶するとともに、前記プログラムコードを前記プロセッサに伝送し、
前記プロセッサが、前記プログラムコードにおけるコマンドに応じて上記方法実施例のいずれか1項に記載の三次元再構成方法を実行する、端末機器を提供する。
なお、本出願の実施例はさらに、上記方法実施例のいずれか1項に記載の三次元再構成方法を実行するためのプログラムコードを記憶することを特徴とするコンピュータ読み取り可能記憶媒体を提供する。
本明細書における各実施例は、累進的な方式で記載しており、各実施例が重点的に説明することは、他の実施例との異なる点であり、各実施例の間の同様、類似部分は、互いに参照すればよい。実施例に開示された装置にとって、実施例に開示された方法に対応しているので、比較的に簡単に記載しており、関連要素について、方法部分の説明を参照すればよい。
また、本文に開示した実施例を結合して記載した各例示のユニット及びアルゴリズムステップは、電子ハードウェア、コンピュータソフトウェア、または両者の結合によって実現でき、ハードウェア、ソフトウェアの互換性を明瞭に説明するために、上記説明において、機能に応じて各例示の構成及びステップを一般的に記載している。これらの機能がハードウェアの方式で実行されるか、それともソフトウェアの方式で実行されるかは、技術案の特定の適用及び設計の拘束条件に依存する。当業者はそれぞれの特定の適用に対して、異なる方法を使用して記載した機能を実現することができるが、このような実現は、本出願の範囲を超えると認識されるべきではない。
本文では、第1、第2等のような関係用語は、1つの実体または操作を他の実体または操作と区別するために使用されるものであり、必ずしも、これらの実体または操作の間にこのような実際の関係または順位付けが存在することを要求する、または暗示するわけではない。用語である「含む」、「包含」、または他の変形は、非排他的な包含をカバーすることを意味することで、一連の要素を含むプロセス、方法、物品または機器は、それらの要素だけでなく、明確に列挙されていない他の要素も含む、或いは、このようなプロセス、方法、物品または機器が固有する要素をさらに含む。より多い制限がない状況では、語句「1つの…を含む」ことによって限定される要素は、前記要素を含むプロセス、方法、物品または機器には他の同様な要素がさらに存在することを排除しない。
上記の説明は、本出願の好ましい実施例に過ぎず、本出願を制限することを意図したものではない。本出願について、好ましい実施例を以上のように開示したが、本出願を限定するわけではない。当業者は、本出願の技術案の範囲を逸脱しない状況で、上記に開示した方法及び技術的内容を利用して本出願の技術案に対して様々な変動及び修飾を行う、或いは同等に変化した等価実施例に補正することができる。従って、本出願の技術案を逸脱しない内容であれば、本出願の技術的実質に応じて以上の実施例について行った簡単な補正、同等変化及び修飾はいずれも、本出願の技術案の保護範囲内に属する。

Claims (12)

  1. 三次元再構成の方法であって、
    物体が再構成空間に進入する場合、前記再構成空間に対するN(前記Nは2以上の正整数)台のカメラの撮影画像をN個の現在画像として取得するステップであって、前記カメラの視野が前記再構成空間を覆うステップと、
    前記N個の現在画像及び対応するN個の初期背景画像に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得するステップであって、前記N個の初期背景画像は、前記再構成空間に物体が存在しない場合の、前記再構成空間に対する前記N台のカメラの撮影画像であるステップと、
    前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を対応融合し、前記再構成空間の各位置点に対応する前景背景差分を取得するステップと、
    前記再構成空間の各位置点に対応する前景背景差分及びプリセット前景背景閾値に基づいて、前記再構成空間の各位置点を選別して前記物体を三次元再構成するステップと、を含むことを特徴とする方法。
  2. 前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係は、前記再構成空間の縁に固定的に配置された前記N台のカメラの位置情報及び角度情報によって特定されることを特徴とする請求項1に記載の方法。
  3. 前記N個の現在画像及び対応するN個の初期背景画像に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得する前記ステップは、
    前記N個の現在画像の各位置点の画素値、及び対応する前記N個の初期背景画像の各位置点の画素値を取得するステップと、
    前記N個の現在画像の各位置点の画素値、対応する前記N個の初期背景画像の各位置点の画素値及び差分関数に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得するステップと、を含むことを特徴とする請求項1に記載の方法。
  4. 前記差分関数は、混合ガウスモデルのモデリングにより特定されるか、或いは、前記差分関数は、ベクトル距離式により特定されることを特徴とする請求項3に記載の方法。
  5. 前記ベクトル距離式は、ユークリッド距離式、マンハッタン距離式またはコサイン距離式を含むことを特徴とする請求項4に記載の方法。
  6. 前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を対応融合し、前記再構成空間の各位置点に対応する前景背景差分を取得する前記ステップは、
    前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記再構成空間の各位置点のそれぞれに対応する前記N個の現在画像の位置点に対応する前景背景差分を特定するステップと、
    前記再構成空間の各位置点のそれぞれに対応する前記N個の現在画像の位置点に対応する前景背景差分及び融合関数に基づいて、前記再構成空間の各位置点に対応する前景背景差分を取得するステップと、を含むことを特徴とする請求項1に記載の方法。
  7. 前記融合関数は、加算関数または乗算関数を含むことを特徴とする請求項6に記載の方法。
  8. 前記再構成空間の境界は、濃淡が互い違いになったテクスチャを使用することを特徴とする請求項1に記載の方法。
  9. 照明が変化し且つ前記再構成空間に物体が存在しない場合、前記再構成空間に対する前記N台のカメラの撮影画像を取得して前記N個の初期背景図を更新するステップをさらに含むことを特徴とする請求項1に記載の方法。
  10. 物体が再構成空間に進入する場合、前記再構成空間に対するN(前記Nは2以上の正整数)台のカメラの撮影画像をN個の現在画像として取得するための取得ユニットであって、前記カメラの視野が前記再構成空間を覆う取得ユニットと、
    前記N個の現在画像及び対応するN個の初期背景画像に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得するための第1取得ユニットであって、前記N個の初期背景画像は、前記再構成空間に物体が存在しない場合の、前記再構成空間に対する前記N台のカメラの撮影画像である第1取得ユニットと、
    前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を対応融合し、前記再構成空間の各位置点に対応する前景背景差分を取得するための第2取得ユニットと、
    前記再構成空間の各位置点に対応する前景背景差分及びプリセット前景背景閾値に基づいて、前記再構成空間の各位置点を選別して前記物体を三次元再構成するための再構成ユニットと、を含むことを特徴とする三次元再構成の装置。
  11. プロセッサ及びメモリを含み、
    前記メモリが、プログラムコードを記憶するとともに、前記プログラムコードを前記プロセッサに伝送し、
    前記プロセッサが、前記プログラムコードにおけるコマンドに応じて請求項1~9のいずれか1項に記載の三次元再構成の方法を実行することを特徴とする端末機器。
  12. 請求項1~9のいずれか1項に記載の三次元再構成の方法を実行するためのプログラムコードを記憶することを特徴とするコンピュータ読み取り可能記憶媒体。
JP2021540143A 2019-01-25 2019-03-26 三次元再構成の方法及び装置 Active JP7398819B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910074343.5 2019-01-25
CN201910074343.5A CN109785429B (zh) 2019-01-25 2019-01-25 一种三维重建的方法和装置
PCT/CN2019/079686 WO2020151078A1 (zh) 2019-01-25 2019-03-26 一种三维重建的方法和装置

Publications (2)

Publication Number Publication Date
JP2022518402A true JP2022518402A (ja) 2022-03-15
JP7398819B2 JP7398819B2 (ja) 2023-12-15

Family

ID=66502627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021540143A Active JP7398819B2 (ja) 2019-01-25 2019-03-26 三次元再構成の方法及び装置

Country Status (4)

Country Link
US (1) US11954832B2 (ja)
JP (1) JP7398819B2 (ja)
CN (1) CN109785429B (ja)
WO (1) WO2020151078A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11205310B1 (en) * 2021-03-08 2021-12-21 Htc Corporation Background skybox constructing method and electronic device
CN113298934B (zh) * 2021-05-26 2022-07-08 重庆邮电大学 一种基于双向匹配的单目视觉图像三维重建方法及系统
CN113873156A (zh) * 2021-09-27 2021-12-31 北京有竹居网络技术有限公司 图像处理方法、装置和电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000172878A (ja) * 1998-12-09 2000-06-23 Sony Corp 情報処理装置および情報処理方法、並びに提供媒体
JP2000324509A (ja) * 1999-05-11 2000-11-24 For-A Co Ltd 画像合成におけるカメラパラメ−タ推定方法
JP2007180932A (ja) * 2005-12-28 2007-07-12 Secom Co Ltd 画像センサ
JP2014164525A (ja) * 2013-02-25 2014-09-08 Nippon Telegr & Teleph Corp <Ntt> 物体数推定方法、物体数推定装置、及び物体数推定プログラム
WO2016021411A1 (ja) * 2014-08-06 2016-02-11 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2018205788A (ja) * 2017-05-30 2018-12-27 Kddi株式会社 シルエット抽出装置、方法およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998009253A1 (fr) * 1996-08-29 1998-03-05 Sanyo Electric Co., Ltd. Procede permettant de fournir des informations sur une texture, procede d'extraction d'objet, procede de production de modeles tridimensionnels et appareillage associe a ceux-ci
KR100748719B1 (ko) * 2005-07-14 2007-08-13 연세대학교 산학협력단 다중 스테레오 카메라를 이용한 3차원 모델링 장치 및 그방법
US8736606B2 (en) * 2010-02-01 2014-05-27 SathyaKumar Andre Ramalingam Method and apparatus to create 3-dimensional computer models of persons from specially created 2-dimensional images
CN104574311B (zh) * 2015-01-06 2017-08-11 华为技术有限公司 图像处理方法和装置
CN105374019B (zh) * 2015-09-30 2018-06-19 华为技术有限公司 一种多深度图融合方法及装置
CN107170037A (zh) * 2016-03-07 2017-09-15 深圳市鹰眼在线电子科技有限公司 一种基于多摄像机的实时三维点云重建方法和系统
CN105979203B (zh) * 2016-04-29 2019-04-23 中国石油大学(北京) 一种多摄像机协同监控方法及装置
CN108694741B (zh) * 2017-04-07 2021-11-12 杭州海康威视数字技术股份有限公司 一种三维重建方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000172878A (ja) * 1998-12-09 2000-06-23 Sony Corp 情報処理装置および情報処理方法、並びに提供媒体
JP2000324509A (ja) * 1999-05-11 2000-11-24 For-A Co Ltd 画像合成におけるカメラパラメ−タ推定方法
JP2007180932A (ja) * 2005-12-28 2007-07-12 Secom Co Ltd 画像センサ
JP2014164525A (ja) * 2013-02-25 2014-09-08 Nippon Telegr & Teleph Corp <Ntt> 物体数推定方法、物体数推定装置、及び物体数推定プログラム
WO2016021411A1 (ja) * 2014-08-06 2016-02-11 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2018205788A (ja) * 2017-05-30 2018-12-27 Kddi株式会社 シルエット抽出装置、方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
内田 恭輔、他2名: "雑踏における複数歩行者の追跡", システム制御情報学会論文誌 マシンビジョンの産業応用特集号, vol. 第14巻, 第4号, JPN6022035120, 15 April 2001 (2001-04-15), JP, pages 8 - 13, ISSN: 0004989573 *

Also Published As

Publication number Publication date
US20210192704A1 (en) 2021-06-24
WO2020151078A1 (zh) 2020-07-30
JP7398819B2 (ja) 2023-12-15
US11954832B2 (en) 2024-04-09
CN109785429B (zh) 2020-08-21
CN109785429A (zh) 2019-05-21

Similar Documents

Publication Publication Date Title
US11410320B2 (en) Image processing method, apparatus, and storage medium
US11354840B2 (en) Three dimensional acquisition and rendering
WO2020063100A1 (zh) 增强现实的图像展示方法、装置及设备
CN110148204B (zh) 用于在真实环境的视图中表示虚拟对象的方法和系统
US20200234397A1 (en) Automatic view mapping for single-image and multi-view captures
JP4879326B2 (ja) 3次元画像を合成するシステム及び方法
US20150146032A1 (en) Light field processing method
US20220319130A1 (en) Method for simulating natural perception in virtual and augmented reality scenes
US11783443B2 (en) Extraction of standardized images from a single view or multi-view capture
WO2013056188A1 (en) Generating free viewpoint video using stereo imaging
JP2016537901A (ja) ライトフィールド処理方法
JP2006053694A (ja) 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
EP2650843A2 (en) Image processor, lighting processor and method therefor
US10984586B2 (en) Spatial mapping fusion from diverse sensing sources
JP2022518402A (ja) 三次元再構成の方法及び装置
CN109064533B (zh) 一种3d漫游方法及系统
CN115641401A (zh) 一种三维实景模型的构建方法及相关装置
Wei et al. Object-based illumination estimation with rendering-aware neural networks
Griffiths et al. OutCast: Outdoor Single‐image Relighting with Cast Shadows
CN115035235A (zh) 三维重建方法及装置
CN110378995A (zh) 一种利用投射特征进行三维空间建模的方法
Nguyen et al. High-definition texture reconstruction for 3D image-based modeling
US11302073B2 (en) Method for texturing a 3D model
Tao Unified Multi-Cue Depth Estimation from Light-Field Images: Correspondence, Defocus, Shading, and Specularity
US20240096041A1 (en) Avatar generation based on driving views

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231128

R150 Certificate of patent or registration of utility model

Ref document number: 7398819

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150