JP2018124984A - モバイル装置の環境の3d再構成のための方法および対応するコンピュータ・プログラム・プロダクトおよび装置 - Google Patents

モバイル装置の環境の3d再構成のための方法および対応するコンピュータ・プログラム・プロダクトおよび装置 Download PDF

Info

Publication number
JP2018124984A
JP2018124984A JP2017228563A JP2017228563A JP2018124984A JP 2018124984 A JP2018124984 A JP 2018124984A JP 2017228563 A JP2017228563 A JP 2017228563A JP 2017228563 A JP2017228563 A JP 2017228563A JP 2018124984 A JP2018124984 A JP 2018124984A
Authority
JP
Japan
Prior art keywords
reconstruction
target portion
environment
camera
mobile device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017228563A
Other languages
English (en)
Other versions
JP2018124984A5 (ja
Inventor
ルオ,タオ
Tao Luo
ロベルト,フリツプ
Robert Philippe
アルーム,ヴインセント
Alleaume Vincent
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2018124984A publication Critical patent/JP2018124984A/ja
Publication of JP2018124984A5 publication Critical patent/JP2018124984A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/416Exact reconstruction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Electromagnetism (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】カメラを含むモバイル装置の環境の3D再構成のための方法を提供する。【解決手段】第1の再構成方法によって環境の少なくとも1つのエリアの粗い3D再構成を計算し、1つ以上のカメラによってキャプチャされた1つ以上のエリアの少なくとも第1のピクチャを考慮するステップ100と、1つ以上のオブジェクト属性の1つ以上の検出に基づいて1つ以上のターゲット部分が環境に存在するかどうかを自動的に判定する、検出が第1のピクチャのうちの1つ以上を考慮するステップ110と、第2の再構成方法によって1つ以上のターゲット部分の精密な3D再構成を計算するステップ120であって、1つ以上のカメラによってキャプチャされた1つ以上のターゲット部分の少なくとも第2のピクチャを考慮するステップ120と、環境の3D再構成を提供するために計算された再構成を集計するステップ130と、を含む。【選択図】図1a

Description

本開示内容の分野は、環境の3D再構成(3D reconstruction of an environment)の分野である。
より具体的には、本開示内容は、モバイル装置の環境の3D再構成(再構築)のための方法に関する。
本開示内容は、3D再構成がモバイル装置に関わるどのような分野にも関わることがある。
この項は、読者に対し、様々な技術的な態様を紹介することを意図している。これらの技術的な態様は、以下に説明する、さらに/または、以下の請求項に記載する本願の開示内容の様々な態様に関連するであろう。この説明が本開示内容の様々な態様をより良好に理解しやすくするための背景情報を読者に対して提供するのに役立つと確信する。したがって、それぞれの記載は、この点に鑑みて読まれるべきものであり、先行技術を自認するものではないことを理解すべきである。
現在、「運動からの構造復元(SfM:Structure from Motion)」、「多数視点ステレオ(MVS:Multi−View Stereo)」、または位置推定とマッピングの同時実行(SLAM:Simultaneous Localization And Mapping)」のような適応化方法が開発されており、このような適応化方法は、ライブまたはリアルタイムの3D再構成のためにモバイル装置上で実施されることがある(例えば、「P. Ondruska,P. Kohli,S. Izadi.「MobileFusion:携帯電話上でのリアルタイム体積表面再構成および深度トラッキング(MobileFusion:Real−time Volumetric Surface Reconstruction and Dense Tracking on Mobile Phones)」参照。可視化およびコンピュータ・グラフィックスについてのIEEE論文誌、2015)」。しかしながら、これらの方法には高周波ノイズが伴う。さらにまた、これらの技術は、通常、良好なテクスチャのオブジェクトのジオメトリ(幾何学的な性質)を再構成する際にのみ良好な結果を生み出す。光沢のある素材またはテクスチャが少ない場合のような特定の特性では、再構成の品質が悪くなり、良好な3D再構成を実現するために代替的な技術が考慮されることがある。
その観点において、照度差ステレオ(photometric stereo)(例えば、「C. Hernandez,G. Vogiatzis,R. Cipolla. マルチビュー・フォトメトリック・ステレオ(Multi−view photometric stereo)、PAMI、2008.」は、より精細な再構成品質を改善する代替的な方法である。しかしながら、例えば、メモリ、処理の電力およびバッテリ容量のようなモバイル・ハードウェアの制約の下で、このような照度差方法をモバイル装置の大規模な環境において適用することが不可能である。
したがって、モバイル装置の環境の3D再構成のための方法に対するニーズが存在する一方で、演算上の要求条件を制限し、特定の特性を有するオブジェクト、例えば、光沢のある素材でできたオブジェクトまたはテクスチャの少ないオブジェクトに対してより精細な、良好な再構成品質が得られるようにするニーズが存在する。
本開示内容の特定の態様は、少なくとも1つのカメラを含むモバイル装置の環境の3D再構成のための方法に関する。
この方法は、第1の再構成方法によって環境の少なくとも1つのエリアの粗い3D再構成(coarse 3D reconstruction)を計算するステップであって、上記第1の再構成方法は、少なくとも1つのカメラによってキャプチャされた少なくとも1つのエリアの少なくとも第1のピクチャを考慮する、このステップと、
少なくとも1つのオブジェクト属性の少なくとも1つの検出に基づいて少なくとも1つのターゲット部分が環境に存在するかどうかを自動的に判定するステップであって、
上記検出が第1のピクチャのうちの少なくとも1つを考慮する、このステップと、
第2の再構成方法によって少なくとも1つのターゲット部分の精密な3D再構成(refined 3D reconstruction)を計算するステップであって、上記第2の再構成方法は、少なくとも1つのカメラによってキャプチャされた少なくとも1つのターゲット部分の少なくとも第2のピクチャを考慮する、このステップと、
上記環境の3D再構成を提供するために計算された再構成を集計するステップと、を含む。
したがって、本開示内容は、モバイル装置の環境の3D再構成を判定し、その一方で、その判定に必要な演算上の要求条件を制限するための新規で進歩的な解決法を提案する。
このことを可能とするために、環境のエリアに対してモバイル装置のカメラによってキャプチャされた第1の画像に基づいて粗い3D再構成が行われる。ここで、粗い3D再構成であっても、その品質は、依然として、最終的なアプリケーションにとって十分に良好なものである。これにより、実際に、全体的な再構成の演算負荷が制限される。
その反対に、モバイル装置のカメラによってキャプチャされる第2の画像(すなわち、第1の画像と比較して異なる性質を持つ画像)に基づく精密な3D再構成は、この精密な3D再構成に対するニーズを有する環境のターゲット部分、すなわち、粗い3D再構成方法に属している、演算上の要求条件をより少なくした方法では品質の低下が生じる懸念のあるエリアに制限される。その場合、精密な3D再構成をターゲット部分に対して意図的に行うようにするだけで、演算負荷がさらに制限される。
さらに、精密な3D再構成を使用するべきターゲット部分の判定は、粗い3D再構成に使用されるように意図された第1の画像のうちの少なくとも幾らかに存在するオブジェクト属性の検出に基づいて自動的に行われる。祖雑な3D再構成モードと精密な3D再構成モードとの間の切り替えをこのように最適化することで、環境の3D再構成のターゲット品質にとって必要な全体的な演算負荷を最小限にすることができる。
最後に、開示された技術に関わるものは、モバイル装置、例えば、カメラ・センサの従来の特徴のみである。
結果として、モバイル装置の制限されたハードウェア性能(これらは、メモリ、処理電力、バッテリ容量も含む)を用いて3D再構成を計算且つ使用することができる。
様々な実施形態によれば、少なくとも1つのオブジェクト属性(object attribute)は、
ターゲット部分をこのターゲット部分の近傍に対して相対的に目立たせる品質を表現する顕著性属性(saliency attribute)と、
ターゲット部分の幾何学的な属性(geometry attribute)と、
ターゲット部分のオブジェクト分類を表現するカテゴリー属性(category attribute)と、
顕著性属性、幾何学的な属性、およびカテゴリー属性の重み付けされた組み合わせと、
からなる群(group)に属する。
したがって、環境のエリアの3D再構成のために使用される動作モード(粗い動作モードまたは精密な動作モード)を、客観的な基準に基づいて自動的に決定することができる。
別の実施形態によれば、少なくとも1つの幾何学的な属性は、
スケール・サイズと、
3Dポイント(3D points)の分布密度(distribution density)と、
平面性(planarity)と、
形状(shape)と、
からなる群に属する。
一実施形態によれば、自動的に判定するステップは、モバイル装置のユーザ・インタフェースを介して環境における少なくとも1つのローカライズされたエリア(one localized area)をローカライズするステップであって、少なくとも1つのターゲット部分は、少なくとも1つのローカライズされたエリアで自動的に判定される、このステップをさらに含む。
したがって、ユーザは、(例えば、ズームインを使用し、環境におけるオブジェクトまたはより小さな領域に対して2D境界曲線を描くことによって)精密な3D再構成が行われることのあるターゲット部分をより正確に制御することができる。
一実施形態によれば、少なくとも1つのターゲット部分の精密な3D再構成を計算するステップは、モバイル装置のユーザによって少なくとも1つのターゲット部分を承認するステップをさらに含み、精密な3D再構成を計算するステップは、少なくとも1つのターゲット部分が承認にされたときに行われる。
したがって、ユーザは、(例えば、精密な3D再構成を起動するためにモバイル装置のユーザ・インタフェースにあるボタンを押すことによって)自動的に判定されたターゲット部分に対して精密な3D再構成を計算するかどうかを制御することができる。
一実施形態によれば、環境の少なくとも1つのエリアの粗い3D再構成を計算するステップは、第1のピクチャをキャプチャする第1の動作モードで少なくとも1つのカメラを起動するステップをさらに含む。
したがって、粗い3D再構成モードに入る際のカメラに関わる何らかの機能を、このモードに入るときにオンに切り換え、粗い3D再構成モードが停止したときにオフに切り換えることができる。
別の実施形態によれば、環境の少なくとも1つのエリアの粗い3D再構成を計算するステップは、与えられた前処理された第1のピクチャに基づいて粗い3D再構成を計算する前に、カメラによってキャプチャされた第1のピクチャを前処理するステップをさらに含み、前処理された第1のピクチャのサイズは、モバイル装置の演算の能力に適合している。
したがって、エリアの粗い3D再構成を行うために使用されるべきデータをさらに最適化することによって演算負荷を制限することができる。
一実施形態によれば、第1の再構成方法は、
Structure from Motion(SfM)と、
Multi−View Stereo(MVS)と、
Simultaneous Localization And Mapping(SLAM)と、
からなる群に属する。
したがって、当業者にとって公知な方法を実施することで、粗い3D再構成を行うことができ、開示された技術を堅牢且つ効率的に実施できるようになる。
一実施形態によれば、モバイル装置は、深度センサをさらに含み、環境の少なくとも1つのエリアの粗い3D再構成は、深度センサによって受け渡されるエリアの深度マップをさらに考慮する。
したがって、エリアの粗い3D再構成の精度を、モバイル装置の追加的なセンサによって受け渡される追加的な情報を使用して改善することができる。
一実施形態によれば、少なくとも1つのターゲット部分の精密な3D再構成を計算するステップは、第2のピクチャをキャプチャする第2の動作モードで少なくとも1つのカメラを起動するステップをさらに含む。
よって、精密な3D再構成が起動されたときに、カメラが特定の動作モードで起動される。これによって、精密な3D再構成モード入る際のカメラに関わる何らかの機能を、このモードに入るときにオンに切り換え、精密な3Dモードが停止したときにオフに切り換えることができる。
一実施形態によれば、モバイル装置は、第2のモードで起動される少なくとも1つのフラッシュ・ライトをさらに含む。少なくとも1つのターゲット部分の精密な3D再構成を計算するステップは、第2のピクチャおよび少なくとも1つのフラッシュ・ライトの関連する位置に基づく照度差データを考慮したマルチビュー照度差ステレオ法(multiview photometric stereo method)を実施し、少なくとも1つのフラッシュ・ライトの関連する位置は、モバイル装置の少なくとも1つのカメラの位置から推定される
したがって、第2のモードで起動されるカメラによってキャプチャされる第2のピクチャに基づいて提供される照度差データに基づいて、マルチビュー照度差ステレオ法を実施して精密な3D再構成を行うことができる。これが可能となるのは、モバイル装置が動いた場合であってもカメラの位置を通じてフラッシュ・ライトの位置を取得できるからである。これによって、開示された技術を効率的に実施できるようになり、その一方で、従来の照度差ステレオ法とは異なり、第2の画像をキャプチャする移動可能なカメラを利用できるという利点がある。
一実施形態によれば、マルチビュー照度差ステレオ法は、少なくとも1つのターゲット部分のオブジェクト分類に関連付けられた反射率をさらに考慮する。
したがって、(例えば、ターゲット部分のオブジェクト分類に関連付けられた、反射率など、素材パラメータを通じて)再構成しようとするターゲット部分の反射率を利用できるようにすることで、マルチビュー照度差ステレオ法の処理時間が減少する。
一実施形態によれば、第2のピクチャは、連続的なピクチャであり、照度差データは、連続したピクチャにおける同一の位置での画素間の対応における信頼水準を考慮して連続的なピクチャから選択されるピクチャに基づく。
したがって、信頼性のある精密な3D照度差演算のために、キャプチャされたピクチャの選択も行われる。
一実施形態によれば、少なくとも1つのターゲット部分の精密な3D再構成を計算するステップは、与えられた前処理された照度差データに基づいて精密な3D再構成を計算する前に照度差データを前処理するステップをさらに含み、前処理された照度差データのサイズは、モバイル装置の演算能力に適合している。
したがって、(例えば、キー・フレームの選択、パッチ・クロッピング、特徴表現など
を通じて)ターゲット部分の精密な3D再構成を行うために使用されるべきデータをさらに最適化することによって演算負荷を制限することができる。
一実施形態によれば、少なくとも1つのエリアに対して計算された再構成を集計することにより、マルチビュー・ステレオの方法論が実施され、環境の3D再構成としての多重解像度表現が提供される。
したがって、モバイル装置のような制限された演算リソースを用いた装置上で環境の3D再構成のレンダリングを行うことが容易となる。
本開示内容の別の態様は、プログラムのコード命令を含むコンピュータ・プログラム・プロダクツに関し、プログラムがコンピュータまたはプロセッサ上で実行されると、(様々な実施形態のいずれかにおける)少なくとも1つのカメラを含むモバイル装置の環境の3D再構成のための上述した方法を実施する。
本開示内容の別の態様は、プログラム・コードの命令を含むコンピュータ・プログラム・プロダクツを記憶した非一時的コンピュータ読み取り可能担持媒体に関し、コンピュータ・プログラム・プロダクトがコンピュータまたはプロセッサによって実行されると、コンピュータまたはプロセッサに(様々な実施形態のいずれかにおける)少なくとも1つのカメラを含むモバイル装置の環境の3D再構成のための上述した方法を実施させる。
本開示内容の別の態様は、少なくとも1つのカメラを含むモバイル装置の環境を3D再構成するための装置に関する。この装置はメモリと少なくとも1つのプロセッサとを含み、このプロセッサは、
第1の再構成方法は、少なくとも1つのカメラによってキャプチャされた少なくとも1つのエリアの少なくとも第1のピクチャを考慮した第1の再構成方法によって環境の少なくとも1つのエリアの粗い3D再構成を計算し、
第1のピクチャのうちの少なくとも1つを考慮した少なくとも1つのオブジェクト属性の少なくとも1つの検出に基づいて少なくとも1つのターゲット部分が環境に存在するかどうかを自動的に判定し、
少なくとも1つのカメラによってキャプチャされた少なくとも1つのターゲット部分の少なくとも第2のピクチャを考慮した第2の再構成方法によって少なくとも1つのターゲット部分の精密な3D再構成を計算し、
環境の3D再構成を提供するために計算された再構成を集計するように構成されている。
本開示内容のさらに別の態様は、少なくとも1つのカメラを含むモバイル装置の環境の3D再構成のための別の装置に関する。この装置は、第1の再構成方法によって環境の少なくとも1つのエリアの粗い3D再構成を計算し、第1の再構成方法は、少なくとも1つのカメラによってキャプチャされた少なくとも1つのエリアの少なくとも第1のピクチャを考慮する、この手段と、少なくとも1つのオブジェクト属性の少なくとも1つの検出に基づいて少なくとも1つのターゲット部分が環境に存在するかどうかを自動的に判定し、この検出が、第1のピクチャのうちの少なくとも1つを考慮する、この手段と、第2の再構成方法によって少なくとも1つのターゲット部分の精密な3D再構成を計算し、第2の再構成方法は、少なくとも1つのカメラによってキャプチャされた少なくとも1つのターゲット部分の少なくとも第2のピクチャを考慮する、この手段と、環境の3D再構成を提供するために計算された再構成を集計する、この手段と、を含む。
このような装置は、(様々な実施形態のいずれかにおける)本願の開示内容に従った少なくとも1つのカメラを含むモバイル装置の環境の3D再構成のための方法を実施するように特に構成されている。したがって、このような装置の特性および利点は、(様々な実施形態のいずれかにおける)少なくとも1つのカメラを含むモバイル装置の環境の3D再構成のための開示された方法と同様である。
本願の開示内容の別の態様は、上記に開示した少なくとも1つのカメラを含むモバイル装置の環境を3D再構成するための装置を含むモバイル装置に関する。
したがって、このようなモバイル装置の特性および利点は、(様々な実施形態のいずれかにおける)少なくとも1つのカメラを含むモバイル装置の環境の3D再構成のための開示された方法と同様である。
様々な実施形態によれば、モバイル装置は、好ましくは、携帯電話およびタブレットのうちから選択される。
実施形態の他の特徴事項および利点は、例示的且つ非網羅的に与えられている以下の説明、さらに、添付図面から理解されるであろう。
本開示内容の相異なる実施形態に従ったモバイル装置の環境の3D再構成のために開示された方法の特定の実施形態のフローチャートである。 本開示内容の相異なる実施形態に従ったモバイル装置の環境の3D再構成のために開示された方法の特定の実施形態のフローチャートである。 図1aおよび図1bの方法の一実施形態に従ったターゲット部分の精密な3D再構成のために実施されるマルチビュー照度差ステレオ法に関わるコンセプトを示す図である。 図1aおよび図1bの方法の一実施形態に従ったモバイル装置が変位する間のモバイル装置の環境の3D再構成のために開示された方法の実施態様を示す図である。 図1aおよび図1bに関連して開示された相異なる実施形態に従ったモバイル装置の環境の3D再構成のための方法の実施に使用可能な例示的な装置の構造的なブロックの模式図である。
本明細書の図面の全てにおいて、同様の参照符号は同様の要素およびステップを指す。
開示された方法の一般的な原理は、モバイル装置の1つのカメラによってキャプチャされるエリアの少なくとも第1のピクチャを考慮した第1の再構成方法を使用して、モバイル装置の環境のエリアの粗い3D再構成を計算することにある。この環境におけるターゲット部分の存在は、第1のピクチャの少なくとも1つを考慮した少なくとも1つのオブジェクト属性の検出に基づいて自動的に判定される。ターゲット部分の精密な3D再構成は、モバイル装置のカメラによってキャプチャされるターゲット部分の少なくとも第2のピクチャを考慮した第2の再構成方法を使用して計算される。計算された再構成が集計されてモバイル装置の環境の3D再構成を提供する。これにより、限定された演算コストで環境の3Dの再構成を実現することが可能となり、その一方で、特定の特性、すなわち、ターゲット部分として自動的に判定されたオブジェクトとに対し、精詳な良好な再構成品質が提供される。
次に、図1aおよび図1bを参照すると、本開示内容の相異なる実施形態に従ったモバイル装置の環境の3D再構成の方法が例示されている。
ブロック100において、モバイル装置(200)の環境のエリアの粗い3D再構成がモバイル装置(200)のカメラ(201)によってキャプチャされるエリアの少なくとも第1のピクチャを考慮した第1の再構成方法を使用して計算される。
このため、ブロック100aにおいて、モバイル装置(200)(例えば、携帯電話またはタブレット)のカメラ(201)が第1のピクチャをキャプチャする第1の動作モードで、例えば、ライブリーに起動される。
エリアの粗い3D再構成を実施するために使用される第1の方法に依存して、モバイル装置(200)のカメラ(201)は、相異なる方法で起動されることもあれば、カメラ(201)に関わる何らかの機能が、粗い3D再構成モードに入ったときにオンに切り換えられ、粗い3D再構成モードが停止したときにオフに切り換えられることもある。例えば、カメラ(201)をカラー・モードで起動し、(すなわち、第1のピクチャの色をキャプチャする)、カメラの較正された固有パラメータを一定のままとすることができる。
様々な実施形態においては、第1の方法は、
Structure from Motion(SfM)と、
Multi−View Stereo(MVS)と、
Simultaneous Localization And Mapping(SLAM)と、
からなるグループに属する。
このような場合、粗い3D再構成は、例えば、「P. Ondruska, P. Kohli, S. Izadi.「MobileFusion:携帯電話上でのリアルタイムな体積表面再構成および密なトラッキング(Real−time Volumetric Surface Reconstruction and Dense Tracking on Mobile Phones.)」可視化およびコンピュータ・グラフィックスについてのIEEE論文誌、2015」に記載されているような、当業者にとって公知な方法に基づく。
このような方法は、従来のフォトグラフィック・ピクチャを使用することにより深度マップを決定し、エリアの粗い3D再構成を計算できるようにする。その場合、カメラ(201)は、したがって、(例えば、CMOSセンサの使用に基づく)スマートフォンのような携帯電話が従来備えているようなカラー・カメラとすることができる。
一実施形態においては、モバイル装置(200)は、深度センサをさらに含む。その場合、エリアの粗い3D再構成を計算するために使用される第1の方法は、深度センサによって受け渡されるエリアの深度マップをさらに考慮する。このように、モバイル装置の追加的なセンサによって受け渡される追加的な情報を使用してエリアの粗い3D再構成の精度を改善させることができる。
同様に、上述した方法は、モバイル装置(200)のカメラ(201)の変位を判定する第1の方法として使用可能であり、粗い3D再構成を計算するために、にカメラ(201)によって(例えば、リアルタイムなカメラ・トラッキングによって)キャプチャされる第1のピクチャの分析に基づいている。しかしながら、代替的な実施形態においては、モバイル装置(200)は、さらに、その変位を導出することが可能なセンサ、例えば、慣性計測装置、加速度計、ジャイロスコープ、コンパス、GPSのような位置追跡装置などを備える。この場合、モバイル装置のこのような追加的なセンサによって受け渡される追加的な情報によって、エリアの粗い3D再構成の精度を向上させることができる。
一実施形態においては、ブロック100bにおいて、与えられた前処理された第1のピクチャに基づく粗い3D再構成を計算する前に、カメラ(201)によってキャプチャされる第1のピクチャが前処理される。その場合、前処理された第1のピクチャのサイズは、モバイル装置(200)の演算能力に適合したものとなっており、(例えば、キー・フレームの選択、パッチ・クロッピング、特徴表現などを通じて)エリアの粗い3D再構成の演算負荷をさらに最適化することができ、前処理された第1のピクチャのサイズがメモリおよびモバイル装置の演算能力に適合できるようにする。
ブロック110において、少なくとも1つのオブジェクト属性の少なくとも1つの検出に基づいてターゲット部分(例えば、粗い3D再構成が劣悪な結果を生じさせるような環境における特定のオブジェクト)がモバイル装置(200)の環境に存在するかどうかが自動的に判定される。このような検出は、環境の1つ以上のエリアからのカメラ(201)によってキャプチャされた、第1のピクチャのうちの少なくとも1つを考慮する。
様々な実施形態においては、このようなオブジェクト属性は、
ターゲット部分をその隣接部分に対して相対的に目立たせるような品質を表現する顕著性と、
ターゲット部分の幾何学的な属性と、
ターゲット部分のオブジェクト分類を表現するカテゴリー属性と、
顕著性、幾何学的な属性、およびカテゴリー属性の重み付けされた組み合わせと、
からなるグループに属するものとすることができる。
より具体的には、ターゲット部分を、例えば、顕著性検出のための既知の方法を使用して(例えば、「A. Borji, M. Cheng, H. Jiang J. LI.「顕著性オブジェクト検出:調査(Salient Object Detection:A Survey.)」arXiv eprint,2014.」を参照)、第1のピクチャのうちの少なくとも1つにおけるこのターゲット部分の顕著性に基づいて、自動的に検出することができる。顕著性検出のためのこのような方法は、通常、顕著性マップおよびオブジェクト全体のセグメンテーションの双方を出力する。顕著性マップにおける各画素の強度は、この画素が顕著性を有するオブジェクトに属する可能性を表すことがあり、これを使用して、自動的に検出されるターゲット部分の顕著性属性を表す顕著性スコア値を計算することができる。
同様にして、様々な実施形態において、幾何学的な属性は、
スケール・サイズと、
3Dポイントの分布密度と、
平面性と、
形状と、
からなる群に属する。
このような幾何学的な属性は、環境の1つまたは複数のエリアからキャプチャされた第1のピクチャ(またはブロック100bが実施されるかどうかに依存する前処理された第1のピクチャ)の処理を通じて導出することができるため、判定しようとするターゲット部分における特定の幾何学的な属性を認識することができる。
最後に、例えば、ターゲット部分の素材に基づいて、ターゲット部分のオブジェクト分類を表現するカテゴリー属性が判定される。これは、例えば、良く行われる分類を行うためにImageNetデータセットにおいてトレーニングされる大規模で深い畳み込みニューラル・ネットワークを使用して行われる(例えば、「A. Krizhevsky, I. Sutskever,G.E. Hinton. 「深い畳み込みニューラル・ネットワークを用いたImageNet分類(ImageNet Classification with Deep Convolutional Neural Networks.)」参照」。そして、カテゴリー属性は、例えば、オブジェクト分類に属する様々なカテゴリーをマッピングする、対応するルックアップ・テーブルを使用して、さらに、精密にしようとする対応するターゲット部分に対応する必要性を表現すると解釈することができる、各々の対応するカテゴリー分類属性(例えば、各々の共通素材パラメータ)を使用して、オブジェクト分類から導出することができる。例えば、金属素材の場合には、金属(例えば、「光沢のある」オブジェクト)でできた対応するターゲット部分は、木の素材でできたターゲット部分と比較して、精密な3D再構成する条件がより厳しくなるカテゴリー属性となる。
一実施形態においては、オブジェクト属性は、対応するターゲット部分を精密にすることが必要であるかどうかを判定するために、顕著性属性、幾何学的な属性、およびカテゴリー属性のうちの2つまたは3つを重み付けして組み合わせたものである。様々な実施形態において、オブジェクト属性の検出において使用される重みは、ユーザの経験により調節されてもよく、マシン・ラーニング法を使用した大きなデータセットからのラーニングされたパラメータに従って初期化されてもよい。
精密な3D再構成が計算されたターゲット部分は、よって、このようなオブジェクト属性の検出に基づいて、自動的に判定することができる。
一実施形態においては、ブロック110aで、環境における少なくとも1つのローカライズされたエリアは、モバイル装置(200)のユーザ・インタフェースを通じて(例えば、ズームインを使用し、環境におけるオブジェクトまたはより小さな領域上の2D境界曲線を描くことによって)、ローカライズされたものである。
その場合、その実施形態のいずれにおいても、ターゲット部分は、ブロック100に関連して上に開示した方法に従ってローカライズされたエリアにおいて自動的に判定される。モバイル装置(200)のユーザは、よって、精密な3D再構成が行われ可能性があるターゲット部分に対するより正確な制御を行うことができる。
ブロック120において、モバイル装置(200)のカメラ(201)によってキャプチャされるターゲット部分の少なくとも2つのピクチャを考慮した第2の再構成方法を使用して、ブロック110で自動的に判定されたターゲット部分の精密な3D再構成が計算される。
一実施形態においては、精密な3D再構成が行われるべきターゲット部分は、まず、ブロック120aにおいて、モバイル装置(200)のユーザによって承認される。
例えば、ターゲット部分に対してブロック110において判定されたオブジェクト属性をユーザ・インタフェースを通じてモバイル装置(200)のユーザに対して提供することで、ユーザが関連する客観的な情報に基づいて(例えば、精密な3D再構成を起動するためにモバイル装置のユーザ・インタフェースにあるボタンを押すことによって)ターゲット部分を承認するかどうかを選択できるようにする。
この場合、ユーザが自動的に判定されたターゲット部分の精密な3D再構成の計算を制御することもあれば、しないこともある。
ブロック120bにおいて、モバイル装置(200)のカメラ(201)は、第2のピクチャをキャプチャするための第2動作モードで起動される。
エリアの精密な3D再構成を実施するための第2の方法に依存して、モバイル装置(200)のカメラ(201)を、実際には、複数の異なる方法で起動させることができる。したがって、精密な3D再構成モード入る際のカメラ(201)に関連付けられた何らかの機能を、このモードに入るときにオンに切り換え、精密な3Dモードが停止するときにオフに切り換えることができる。
例えば、一実施形態においては、第2の方法は、マルチビュー照度差ステレオ法である。その場合、モバイル装置(200)は、さらに、少なくとも1つのフラッシュ・ライト(202)を含み、このフラッシュ・ライト(202)は、照度差データの基となる第2のピクチャをキャプチャするための3D再構成モードに入るときに起動される。フラッシュ・ライト(202)は、そして、精密な3D再構成が終了したときにオフに切り換える。照度差データの基となっている第2のピクチャをキャプチャできるようにすることに加え、フラッシュ・ライトをオンにすることにより、モバイル装置(200)が精密な3D再構成モードに入ったことをモバイル装置(200)のユーザに警告することができる。したがって、ユーザは、精密な3D再構成に関わる第2の方法を実施するために必要な第2のピクチャをキャプチャするのにより適合した(例えば、よりゆっくりした、または、ターゲット部分に近い)方法で、ターゲット部分の周囲でモバイル装置(200)を移動させることができる。
ブロック120に戻ると、一実施形態において、第2の方法は、公知の照度差ステレオ法であり、すなわち、強度が可変である1組の光源に基づいており、その一方で、位置が第2のピクチャをキャプチャする間に固定されている。しかしながら、このような従来の方法は、光源、すなわち、フラッシュ・ライト(202)がモバイル装置(200)に従って動くような、モバイル装置には、良好には適していないように見受けられる。
したがって、別の実施形態においては、第2の方法は、例えば、「C. Hernandez, G. Vogiatzis,R. Cipolla. マルチビュー照度差ステレオ(Multi−view photometric stereo)、PAMI、2008.」に開示されているような、すなわち、第2のピクチャをキャプチャする間に垂直位置が移動する光源を用いたマルチビュー照度差ステレオ法である。しかしながら、このような方法は、モバイル装置(200)に従って動く光源を考慮するように構成することができる。図2に例示されているように、このような方法は、表面を推定し、この推定は、通常、様々な反射率のモデルを使用した複数の異なる光条件の下で、表面を観察することによって行われる。このため、精密にしようとするターゲット部分における1つの3Dポイントpの第2のピクチャは、例えば、モバイル装置200が位置p0から位置p1まで移動するときに、フラッシュ・ライト202の複数の異なる位置でカメラ201によってキャプチャされる。
カメラ201およびフラッシュ・ライト202がモバイル装置200上に固定されるため、光源の位置をモバイル装置200のカメラ201の位置から推定することができる。(そして、このモバイル装置200のカメラ201の位置を、例えば、リアルタイムのカメラ・トラッキング、または、例えば、ブロック100に関連して上述したような、慣性計測装置、加速度計、ジャイロスコープ、コンパス、GPSのような位置追跡装置など、さらに別のセンサから受け渡される情報を使用して、カメラ201によってキャプチャされる第2のピクチャの分析に基づいて推定することができる。)
これにより、マルチビュー照度差ステレオ法を効率的に実施できるようになり、その一方で、従来の照度差ステレオ法を実施する場合と比較して、第2の画像をキャプチャするカメラの移動性を利用することができるという利点がある。
一実施形態においては、第2の再構成方法は、精密にしようとするターゲット部分のオブジェクト分類に関連付けられた反射率を考慮したマルチビュー照度差ステレオ法を実施する。
実際、環境は、通常、周囲の光条件下に置かれると想定される。さらに、環境における1つのオブジェクトの反射率は、ランベルトの法則に従う。すなわち、表面上の点は、考慮されている視点とは無関係に、各々の外観を一定に維持する。したがって、マルチビュー照度差ステレオ法で環境における反射率を推定する代わりに、ブロック100で検出されたオブジェクト属性(例えば、カテゴリー属性)を、ターゲット部分の候補となっている環境におけるオブジェクトに反射率を関連付けるために使用することができる。このような関連付けは、既存のデータベースの使用に基づくものとすることができる(例えば、プラスティック、木材、金属、フェノール、アクリル等の共通素材の数百の測定された等方性BRDF関数(双方向反射率分布関数)を含むMERL(三菱電機研究開発・技術研究開発研究所)(Mitsubishi Electric Research Laboratories)のデータベースのような、「W. Matusik, H. Pfister,M. Brand, L. McMillan. 「データドリブン反射率モデル(A Data−Driven Reflectance Model)」グラフィックスについてのACM会議録、2003年」を参照)。オブジェクトカテゴリ属性を入力としたルックアップ・テーブルを使用することで、ターゲット部分の反射率を最初に迅速に判定することができ、マルチビュー照度差ステレオ法の処理をより速やかに行うことができるようになる。
別の実施形態においては、第2のピクチャは、連続したピクチャからなり、照度差データは、連続したピクチャにおける同一の位置での画素間の対応における信頼水準を考慮することによって連続したピクチャから選択されたピクチャに基づいている。換言すれば、第2の動作モードで起動されるカメラ201によってキャプチャされる連続したピクチャにおける同一の場所での画素間の対応における信頼水準は、照度差データを導出するために使用されるべきピクチャを選択する際の基準として使用されることがある。ターゲット部分の計算された精密な3Dモデルは、したがって、より信頼性が高い。
さらに別の実施態様においては、第2のピクチャから導出された照度差データは、与えられた前処理された照度差データに基づく精密な3D再構成を計算するために、ブロック120cで前処理される。
より具体的には、前処理された照度差データのサイズは、(例えば、キー・フレーム、パッチ・クロッピング、特徴表現などの選択を通じて)モバイル装置200の演算能力に適合したものにされる。ターゲット部分の精密な3D再構成を実行するために使用されるべきデータは、このように、さらに最適化することによって、モバイル装置200の演算負荷を制限することができる。
ブロック130において、環境のエリアに対してブロック100で計算された粗い再構成および環境のターゲット部分に対してブロック120で計算された精密な3D再構成は、環境の3D再構成を提供するために集計される。
一実施形態においては、まず、全ての粗い3D再構成および精密な3D再構成が計算され、処理の最後で、すなわち、利用可能な全ての計算済の3D再構成を集計することによって、集計が行われる。
別の実施形態においては、祖雑な3D再構成および精密な3D再構成がオンザフライで、すなわち、利用可能になった時点で、処理の最後での環境の3D再構成に対応する現在の3D再構成に対して集計される。
一実施形態においては、粗い3D再構成および精密な再構成を集計することにより、多重解像度表現の形態で環境の3D再構成を提供するために、マルチビュー・ステレオの方法論が実施される(例えば、「K. Morooka, H. Nagahashi. 「3Dモデル構築のために複数の異なる解像度を用いてレンジ画像を統合する方法(A Method for Integrating Range Images with Different Resolutions for 3−D Model Construction.)」ICRA,2006」)を参照)。
結果として、3D再構成は、(メモリ、処理電力、バッテリ容量も含む)モバイル装置200の限定されたハードウェア性能を用いて計算且つ使用することができる。
次に、図3を参照すると、図1aおよび図1bの方法の一実施形態に従ったモバイル装置200の変位の間のモバイル装置200の環境の3D再構成のために開示された方法の実施態様が示されている。
例として、2つのキューブ状のオブジェクト301、302が木製であり、多角形のオブジェクト310が金属製であることを想定する。
モバイル装置200は、位置P’0に位置しており、開示された方法は、カメラ201によって見ることのできる粗い3D再構成から開始される。粗い3D再構成は、第1の動作モードで起動されたカメラ201によってキャプチャされた第1のピクチャに基づく。より具体的には、位置P’0において、カメラ201によってキャプチャされたエリアは、平面を含む。したがって、その幾何学的な属性が精密な3D再構成および粗い3D再構築を必要としないオブジェクトを表すものとして検出される。
モバイル装置200が位置P’1に向かって移動したとき、モバイル装置200のカメラ201によって見ることのできるエリアは、金属製の多角形のオブジェクト310を含む。多角形のオブジェクト310の顕著性属性は、精密な3D再構成を必要とする可能性があるオブジェクトを表しているものとして、位置P’1にあるカメラ201によってキャプチャされる第1のピクチャのうちの少なくとも1つに基づいて検出される。しかしながら、カメラ201と多角形の形状のオブジェクト310との間に距離があるため、そのスケール・サイズは、カメラ201によって見ることのできるエリアの場合の通常のサイズと比較して大幅に小さいままとなる。検出されたカテゴリー属性は、(多角形のオブジェクト310を形成する金属素材のために)精密な3D表現を必要とすることがあるオブジェクトを表現することがあり、その幾何学的な属性は、精密な3D再構成を必要としないオブジェクトを表現したままであり、最終的に精密にするべきターゲット部分として識別されないようにする。結果として、粗い3D再構成は、この位置でカメラ201によってキャプチャされる第1のピクチャに基づいて続けられる。
カメラが位置P’2に移動すると、位置P’2でカメラ201によってキャプチャされる第1のピクチャのうちの少なくとも1つのピクチャに基づいて検出された、多角形のオブジェクト310の顕著性属性は、依然として、精密な3D再構成を必要とする可能性があるオブジェクトを表現する(代替的には、多角形のオブジェクト310の顕著性属性は、対応する第1のピクチャにおける多角形のオブジェクト310の表現において重なりが存在する場合、位置P’1でカメラ201によってキャプチャされた第1のピクチャのうちの少なくとも1つおよび位置P’2でカメラ201によってキャプチャされた第1のピクチャのうちの少なくとも1つを組み合わせたものに基づいて検出される。)。同様にして、幾何学的な属性およびそのカテゴリー属性の両方が精密な3D再構成を必要とする可能性があるオブジェクトを表現するものとして検出される。多角形の形状のオブジェクト310は、結果的に、精密にするべきターゲット部分として識別される。
そして、フラッシュ・ライト202がオンに切り換えられ、カメラが第2のピクチャをキャプチャする第2の動作モードで起動される。ターゲット部分の精密な3D再構成を計算して、第2のピクチャに基づいた照度差データを考慮してマルチビュー照度差ステレオ法を実施する。
なお、精密な3D再構成は、フラッシュ・ライト202がオンになっている状態でユーザが多角形の形状のオブジェクト310を位置P’3の周囲でカメラ201を位置P’3に向かって動かし続けることによって続けられる。モバイル装置200が位置P’2から位置P’3に変位する間、多角形のオブジェクト310に対してオブジェクト属性がほぼ同一に維持されるため、精密な3D再構成は、変位している間、継続して行われる。
カメラ201が位置P’4に移動すると、カメラ201によってキャプチャされるエリアは、平面を含む。結果として、検出した幾何学的な属性は、精密な3D再構成を必要としないオブジェクトを表現し、したがって、多角形のオブジェクト310の精密な3D再構成が終了する。
次に、フラッシュ・ライト202がオフに切り換えられ、第1のピクチャをキャプチャするための第1の動作モードでカメラが起動される。位置P’4でカメラ201によって見ることのできる環境のエリアの粗い3D再構成は、深度マップおよびブロック100に関連して上述したカメラ201によってキャプチャされる第1のピクチャの分析に基づいて取得されるモバイル装置200のカメラ201の変位の双方に基づいて計算される。
図4を参照すると、図1aおよび図1bに関連して上に開示した実施形態のいずれかに従ったモバイル装置の環境の3D再構成の方法を実施するために使用することができる、例示的な装置の構造的なブロックが例示されている。
一実施形態においては、開示された方法を実施する装置400は、不揮発性メモリ403(例えば、読み出し専用メモリ(ROM)またはハードディスク)、揮発性メモリ401(例えば、ランダム・アクセス・メモリまたはRAM)、およびプロセッサ402を含む。不揮発性メモリ403は、不揮発性のコンピュータ読み取り可能担持媒体である。この媒体は、実行可能なプログラムのコード命令を記憶し、このプログラムのコード命令がプロセッサ402によって実行されると、図1aおよび図1bとの関連で開示される様々な実施形態において、上述した方法(モバイル装置の環境の3D再構成のための方法)を実施可能にする。
初期化が行われると、上述したプログラムのコード命令は、プロセッサ402によって実行されるように、不揮発性メモリ403から揮発性メモリ401に転送される。不揮発性メモリ401は、同様に、この実行のために必要な変数およびパラメータを記憶するためのレジスタを含む。
モバイル装置の環境の3D再構成のための上述した方法のステップの全ては、PCタイプの装置、DSP(ディジタル信号プロセッサ)、または、マイクロコントローラなどの再プログラム可能なコンピューティング・マシンによって実行される1組のプログラム・コードの命令を実行することによっても同様に実施することができる。このプログラム・コードの命令は、着脱可能な(例えば、フロッピー・ディスク、CD−ROM、または、DVD−ROM)または着脱不可能な不揮発性のコンピュータ読み取り可能担持媒体に記憶することができる。また、モバイル装置の環境の3D再構成のための上述した方法のステップの全ては、FPGA(フィールド・プログラマブル・ゲート・アレイ)、ASIC(特定用途向け集積回路)などの、専用のマシンまたはコンポーネントまたは他の任意の専用ハードウェア・コンポーネントによっても同様に実施することができる。
換言すれば、開示内容は、純粋に、コンピュータ・プログラム命令の形態のソフトウェアベースの実施態様に限定されず、ハードウェアの形態で実施されることもあれば、ハードウェア部分およびソフトウェア部分を組み合わせた任意の形態で実施されることもある。
一実施形態においては、モバイル装置の環境の3D再構成のための開示された方法を実施する装置400は、モバイル装置200に直接埋め込まれ、モバイル装置200において環境の3D再構成の生成が可能である。
別の実施形態においては、開示した方法を実施するための装置400は、遠隔地のサーバに埋め込まれる。その場合、例えば、モバイル装置200によって第1および第2のピクチャを表現するデータをサーバに対して送信した後に、サーバは、環境の3D再構成の生成を実行する。

Claims (20)

  1. 少なくとも1つのカメラを含むモバイル装置の環境の再構成のための方法であって、
    第1の再構成方法によって前記環境の少なくとも1つのエリアの粗い3D再構成を計算するステップであって、前記第1の再構成方法は、前記少なくとも1つのカメラによってキャプチャされた前記少なくとも1つのエリアの少なくとも第1のピクチャを考慮する、前記ステップと、
    少なくとも1つのオブジェクト属性の少なくとも1つの検出に基づいて少なくとも1つのターゲット部分が前記環境に存在するかどうかを自動的に判定するステップであって、前記検出が前記第1のピクチャのうちの少なくとも1つを考慮する、前記ステップと、
    第2の再構成方法によって前記少なくとも1つのターゲット部分の精密な3D再構成を計算するステップであって、前記第2の再構成方法は、前記少なくとも1つのカメラによってキャプチャされた前記少なくとも1つのターゲット部分の少なくとも第2のピクチャを考慮する、前記ステップと、
    前記環境の前記3D再構成を提供するために前記計算された再構成を集計するステップと、を含む、前記方法。
  2. 前記少なくとも1つのオブジェクト属性は、
    前記ターゲット部分を当該ターゲット部分の近傍に対して相対的に目立たせる品質を表現する顕著性属性と、
    前記ターゲット部分の幾何学的な属性と、
    前記ターゲット部分のオブジェクト分類を表現するカテゴリー属性と、
    前記顕著性属性、前記幾何学的な属性、および前記カテゴリー属性の重み付けされた組み合わせと、からなる群に属する、請求項1に記載の方法。
  3. 前記少なくとも1つの幾何学的な属性は、
    スケール・サイズと、
    3Dポイントの分布密度と、
    平面性と、
    形状と、
    からなる群に属する、請求項2に記載の方法。
  4. 前記自動的に判定するステップは、さらに、前記モバイル装置のユーザ・インタフェースを介して前記環境における少なくとも1つのローカライズされたエリアをローカライズするステップを含み、前記少なくとも1つのターゲット部分は、前記少なくとも1つのローカライズされたエリアで自動的に判定される、請求項1に記載の方法。
  5. 前記少なくとも1つのターゲット部分の精密な3D再構成を計算するステップは、
    前記モバイル装置のユーザによって前記少なくとも1つのターゲット部分を承認するステップ、をさらに含み、前記精密な3D再構成を計算するステップは、前記少なくとも1つのターゲット部分が承認されたときに行われる、請求項1に記載の方法。
  6. 前記環境の少なくとも1つのエリアの粗い3D再構成を計算するステップは、
    前記第1のピクチャをキャプチャする第1の動作モードで前記少なくとも1つのカメラを起動するステップをさらに含む、請求項1に記載の方法。
  7. 前記第1の再構成方法は、
    Structure from Motion(SfM)と、
    Multi−View Stereo(MVS)と、
    Simultaneous Localization And Mapping(SLAM)と、からなる群に属する、請求項1に記載の方法。
  8. 前記モバイル装置は、深度センサをさらに含み、前記環境の少なくとも1つのエリアの前記粗い3D再構成は、前記深度センサによって受け渡される前記エリアの深度マップをさらに考慮する、請求項1に記載の方法。
  9. 前記少なくとも1つのターゲット部分の前記精密な3D再構成を計算するステップは、
    前記第2のピクチャをキャプチャする第2の動作モードで前記少なくとも1つのカメラを起動するステップをさらに含む、請求項1に記載の方法。
  10. 前記モバイル装置は、前記第2のモードで起動される少なくとも1つのフラッシュ・ライトをさらに含み、前記少なくとも1つのターゲット部分の前記精密な3D再構成を計算するステップは、前記第2のピクチャおよび前記少なくとも1つのフラッシュ・ライトの関連する位置に基づく照度差データを考慮してマルチビュー照度差ステレオ法を実施し、前記少なくとも1つのフラッシュ・ライトの前記関連する位置は、前記モバイル装置の前記少なくとも1つのカメラの位置から推定される、請求項9に記載の方法。
  11. 前記少なくとも1つのオブジェクト属性は、前記少なくとも1つのターゲット部分のオブジェクト分類を表現するカテゴリーを含み、前記マルチビュー照度差ステレオ法は、前記少なくとも1つのターゲット部分のオブジェクト分類に関連付けられた反射率をさらに考慮する、請求項10に記載の方法。
  12. 前記少なくとも1つのエリアに対して計算された前記再構成を集計するステップは、前記環境の前記3D再構成であるマルチ解像度表現を提供するマルチビュー・ステレオ法を実施する、請求項1に記載の方法。
  13. 少なくとも1つのカメラを含むモバイル装置の環境を3D再構成するための装置であって、
    メモリと、
    少なくとも1つのプロセッサと、を含み、前記少なくとも1つのプロセッサは、
    前記少なくとも1つのカメラによってキャプチャされた前記少なくとも1つのエリアの少なくとも第1のピクチャを考慮した、第1の再構成方法によって前記環境の少なくとも1つのエリアの粗い3D再構成を計算し、
    前記第1のピクチャのうちの少なくとも1つを考慮した、少なくとも1つのオブジェクト属性の少なくとも1つの検出に基づいて少なくとも1つのターゲット部分が前記環境に存在するかどうかを自動的に判定し、
    前記少なくとも1つのカメラによってキャプチャされた前記少なくとも1つのターゲット部分の少なくとも第2のピクチャを考慮した、第2の再構成方法によって前記少なくとも1つのターゲット部分の精密な3D再構成を計算し、
    前記環境の前記3D再構成を提供するために前記計算された再構成を集計するように構成された前記装置。
  14. 請求項13に記載の装置を含むモバイル装置であって、好ましくは、携帯電話およびタブレットのうちから選択される、前記モバイル装置。
  15. 前記少なくとも1つのプロセッサは、
    前記第2のピクチャをキャプチャする第2の動作モードで前記少なくとも1つのカメラを起動することによって、
    前記少なくとも1つのターゲット部分の前記精密な3D再構成を計算するようにさらに構成される、請求項13に記載の装置。
  16. 前記モバイル装置は、前記第2のモードで起動される少なくとも1つのフラッシュ・ライトをさらに含み、前記少なくとも1つのプロセッサは、前記第2のピクチャおよび前記少なくとも1つのフラッシュ・ライトの関連する位置に基づく照度差データを考慮してマルチビュー照度差ステレオ法を実施することによって、前記少なくとも1つのターゲット部分の前記精密な3D再構成を計算するようにさらに構成され、前記少なくとも1つのフラッシュ・ライトの前記関連する位置は、前記モバイル装置の前記少なくとも1つのカメラの位置から推定される、請求項15に記載の装置。
  17. 前記少なくとも1つのオブジェクト属性は、前記少なくとも1つのターゲット部分のオブジェクト分類を表現するカテゴリーを含み、前記マルチビュー照度差ステレオ法は、前記少なくとも1つのターゲット部分のオブジェクト分類に関連付けられた反射率をさらに考慮する、請求項16に記載の装置。
  18. 前記少なくとも1つのプロセッサは、前記少なくとも1つのオブジェクト属性の少なくとも1つの検出に基づいて前記少なくとも1つのターゲット部分が前記環境に存在するかどうかを自動的に判定するようにさらに構成され、当該判定は、前記モバイル装置のユーザ・インタフェースを介して前記環境における少なくとも1つのローカライズされたエリアをローカライズすることによって行われ、前記少なくとも1つのターゲット部分は、前記少なくとも1つのローカライズされたエリアで自動的に判定される、請求項13に記載の装置。
  19. 前記少なくとも1つの属性は、
    前記ターゲット部分を当該ターゲット部分の近傍に対して相対的に目立たせる品質を表現する顕著性属性と、
    前記ターゲット部分の幾何学的な属性と、
    前記ターゲット部分のオブジェクト分類を表現するカテゴリー属性と、
    前記顕著性属性、前記幾何学的な属性、および前記カテゴリー属性の重み付けされた組み合わせと、からなる群に属する、請求項13に記載の装置。
  20. コンピュータ・プログラム・プロダクツを記憶する非一時的コンピュータ読み取り可能担持媒体であって、前記コンピュータ・プログラム・プロダクトがコンピュータまたはプロセッサによって実行されると、前記コンピュータまたは前記プロセッサに少なくとも1つのカメラを含むモバイル装置の環境の3D再構成を実行させ、当該再構成は、
    第1の再構成方法によって前記環境の少なくとも1つのエリアの粗い3D再構成を計算するステップであって、前記第1の再構成方法は、前記少なくとも1つのカメラによってキャプチャされた前記少なくとも1つのエリアの少なくとも第1のピクチャを考慮する、前記ステップと、
    少なくとも1つのオブジェクト属性の少なくとも1つの検出に基づいて少なくとも1つのターゲット部分が前記環境に存在するかどうかを自動的に判定するステップであって、前記検出が前記第1のピクチャのうちの少なくとも1つを考慮する、前記ステップと、
    第2の再構成方法によって前記少なくとも1つのターゲット部分の精密な3D再構成を計算するステップであって、前記第2の再構成方法は、前記少なくとも1つのカメラによってキャプチャされた前記少なくとも1つのターゲット部分の少なくとも第2のピクチャを考慮する、前記ステップと、
    前記環境の前記3D再構成を提供するために前記計算された再構成を集計するステップと、によって行われる、前記非一時的コンピュータ読み取り可能担持媒体。
JP2017228563A 2016-12-01 2017-11-29 モバイル装置の環境の3d再構成のための方法および対応するコンピュータ・プログラム・プロダクトおよび装置 Pending JP2018124984A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16306599.8A EP3330924A1 (en) 2016-12-01 2016-12-01 Method for 3d reconstruction of an environment of a mobile device, corresponding computer program product and device
EP16306599.8 2016-12-01

Publications (2)

Publication Number Publication Date
JP2018124984A true JP2018124984A (ja) 2018-08-09
JP2018124984A5 JP2018124984A5 (ja) 2021-01-14

Family

ID=57542932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017228563A Pending JP2018124984A (ja) 2016-12-01 2017-11-29 モバイル装置の環境の3d再構成のための方法および対応するコンピュータ・プログラム・プロダクトおよび装置

Country Status (10)

Country Link
US (1) US20180160102A1 (ja)
EP (2) EP3330924A1 (ja)
JP (1) JP2018124984A (ja)
KR (1) KR20180062959A (ja)
CN (1) CN108133495A (ja)
BR (1) BR102017025905A2 (ja)
CA (1) CA2987087A1 (ja)
MX (1) MX2017015345A (ja)
PL (1) PL3330925T3 (ja)
RU (1) RU2017141588A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020195877A1 (ja) * 2019-03-25 2020-10-01 ソニー株式会社 医療システム、信号処理装置、及び、信号処理方法
JP2021026759A (ja) * 2019-08-08 2021-02-22 株式会社東芝 オブジェクトの3dイメージングを実施するためのシステムおよび方法
US11393169B2 (en) 2020-03-05 2022-07-19 Topcon Corporation Photogrammetry of building using machine learning based inference

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10535156B2 (en) * 2017-02-03 2020-01-14 Microsoft Technology Licensing, Llc Scene reconstruction from bursts of image data
US11436791B2 (en) * 2018-04-30 2022-09-06 The Regents Of The University Of California Methods and systems for acquiring svBRDF measurements
CN110706280A (zh) * 2018-09-28 2020-01-17 成都家有为力机器人技术有限公司 基于2d-slam的轻量级语义驱动的稀疏重建方法
KR102287472B1 (ko) 2018-10-08 2021-08-09 한국과학기술원 인공조명 사진을 이용한 3차원 객체 획득 방법 및 그 장치
WO2020076026A1 (ko) * 2018-10-08 2020-04-16 한국과학기술원 인공조명 사진을 이용한 3차원 객체 획득 방법 및 그 장치
CN109492607B (zh) * 2018-11-27 2021-07-09 Oppo广东移动通信有限公司 一种信息推送方法、信息推送装置及终端设备
US11783443B2 (en) 2019-01-22 2023-10-10 Fyusion, Inc. Extraction of standardized images from a single view or multi-view capture
US11176704B2 (en) 2019-01-22 2021-11-16 Fyusion, Inc. Object pose estimation in visual data
US10887582B2 (en) 2019-01-22 2021-01-05 Fyusion, Inc. Object damage aggregation
KR102506701B1 (ko) * 2019-12-20 2023-03-06 우이시 테크놀로지스 (저지앙) 리미티드 3차원 재구성 방법, 장치, 시스템 및 컴퓨터 판독 가능한 저장 매체
US11776142B2 (en) 2020-01-16 2023-10-03 Fyusion, Inc. Structuring visual data
US11562474B2 (en) 2020-01-16 2023-01-24 Fyusion, Inc. Mobile multi-camera multi-view capture
US11869135B2 (en) * 2020-01-16 2024-01-09 Fyusion, Inc. Creating action shot video from multi-view capture data
US11252398B2 (en) 2020-01-16 2022-02-15 Fyusion, Inc. Creating cinematic video from multi-view capture data
JP2021131652A (ja) * 2020-02-19 2021-09-09 株式会社トプコン データ構造、記録媒体、プログラム、及びシステム
CN111459274B (zh) * 2020-03-30 2021-09-21 华南理工大学 一种基于5g+ ar的针对非结构化环境的遥操作方法
CN111583263B (zh) * 2020-04-30 2022-09-23 北京工业大学 一种基于联合动态图卷积的点云分割方法
CN114430454A (zh) * 2020-10-28 2022-05-03 广东小天才科技有限公司 基于双摄像头的建模方法及可穿戴装置、设备和介质
US11605151B2 (en) 2021-03-02 2023-03-14 Fyusion, Inc. Vehicle undercarriage imaging

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012141894A (ja) * 2011-01-05 2012-07-26 Sharp Corp 画像検索装置、画像検索方法およびプログラム
JP2016534461A (ja) * 2013-08-30 2016-11-04 クアルコム,インコーポレイテッド 物理的光景を表すための方法および装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6750873B1 (en) * 2000-06-27 2004-06-15 International Business Machines Corporation High quality texture reconstruction from multiple scans
US7643669B2 (en) * 2002-07-10 2010-01-05 Harman Becker Automotive Systems Gmbh System for generating three-dimensional electronic models of objects
US8655052B2 (en) * 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
US9679215B2 (en) * 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US9857470B2 (en) * 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
JP6465682B2 (ja) * 2014-03-20 2019-02-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
KR20160131278A (ko) * 2015-05-06 2016-11-16 엘지전자 주식회사 이동 단말기
GB2544725A (en) * 2015-11-03 2017-05-31 Fuel 3D Tech Ltd Systems and methods for forming models of a three-dimensional objects
US10055882B2 (en) * 2016-08-15 2018-08-21 Aquifi, Inc. System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012141894A (ja) * 2011-01-05 2012-07-26 Sharp Corp 画像検索装置、画像検索方法およびプログラム
JP2016534461A (ja) * 2013-08-30 2016-11-04 クアルコム,インコーポレイテッド 物理的光景を表すための方法および装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
KEN'ICHI MOROOKA ET AL.: ""A Method for Integrating Range Images with Different Resolutions for 3-D Model Construction"", PROCEEDINGS 2006 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, 2006. ICRA 2006., JPN6021047499, 15 May 2006 (2006-05-15), US, pages 3070 - 3075, XP010921730, ISSN: 0004648865, DOI: 10.1109/ROBOT.2006.1642168 *
TOMOAKI HIGO ET AL.: ""A Hand-held Photometric Stereo Camera for 3-D Modeling"", 2009 IEEE 12TH INTERNATIONAL CONFERENCE ON COMPUTER VISION, JPN6021047496, 29 September 2009 (2009-09-29), US, pages 1234 - 1241, XP031672661, ISSN: 0004729857 *
奥脇 舞希、外2名: ""多視点画像から得られた3次元点群を用いた高精度なメッシュ復元"", 映像情報メディア学会技術報告, vol. 39, no. 47, JPN6021047498, 26 November 2015 (2015-11-26), JP, pages 77 - 80, ISSN: 0004648864 *
池内 克史、松下 康之: ""照度差ステレオの原理と実際"", 光学, vol. 41, no. 5, JPN6021047497, 10 May 2012 (2012-05-10), JP, pages 281 - 286, ISSN: 0004729858 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020195877A1 (ja) * 2019-03-25 2020-10-01 ソニー株式会社 医療システム、信号処理装置、及び、信号処理方法
JP7517325B2 (ja) 2019-03-25 2024-07-17 ソニーグループ株式会社 医療システム、信号処理装置、及び、信号処理方法
JP2021026759A (ja) * 2019-08-08 2021-02-22 株式会社東芝 オブジェクトの3dイメージングを実施するためのシステムおよび方法
JP7119023B2 (ja) 2019-08-08 2022-08-16 株式会社東芝 オブジェクトの3dイメージングを実施するためのシステムおよび方法
US11393169B2 (en) 2020-03-05 2022-07-19 Topcon Corporation Photogrammetry of building using machine learning based inference
US11880943B2 (en) 2020-03-05 2024-01-23 Topcon Corporation Photogrammetry of building using machine learning based inference

Also Published As

Publication number Publication date
CA2987087A1 (en) 2018-06-01
KR20180062959A (ko) 2018-06-11
CN108133495A (zh) 2018-06-08
EP3330924A1 (en) 2018-06-06
EP3330925A1 (en) 2018-06-06
US20180160102A1 (en) 2018-06-07
RU2017141588A (ru) 2019-05-29
PL3330925T3 (pl) 2020-03-31
EP3330925B1 (en) 2019-10-02
BR102017025905A2 (pt) 2018-12-18
MX2017015345A (es) 2018-11-09

Similar Documents

Publication Publication Date Title
JP2018124984A (ja) モバイル装置の環境の3d再構成のための方法および対応するコンピュータ・プログラム・プロダクトおよび装置
CN108764091B (zh) 活体检测方法及装置、电子设备和存储介质
Huang et al. Indoor depth completion with boundary consistency and self-attention
US11432619B2 (en) System, method, and apparatus for modelling feet and selecting footwear
CN107851178B (zh) 基于多个表面模型的混合三维场景重构
Boss et al. Samurai: Shape and material from unconstrained real-world arbitrary image collections
RU2642167C2 (ru) Устройство, способ и система для реконструкции 3d-модели объекта
US11398075B2 (en) Methods and systems for processing and colorizing point clouds and meshes
US10373366B2 (en) Three-dimensional model generation
CN105721853B (zh) 生成图像捕获指令的方法、系统和计算机可读存储设备
US11348267B2 (en) Method and apparatus for generating a three-dimensional model
WO2018107910A1 (zh) 一种全景视频融合方法及装置
US9911242B2 (en) Three-dimensional model generation
CN103959307B (zh) 从灰度图像中检测和描述特征的方法
US20160335809A1 (en) Three-dimensional model generation
US10008024B2 (en) Material-aware three-dimensional scanning
KR20170008638A (ko) 3차원 컨텐츠 생성 장치 및 그 3차원 컨텐츠 생성 방법
US10380796B2 (en) Methods and systems for 3D contour recognition and 3D mesh generation
CN111008935B (zh) 一种人脸图像增强方法、装置、系统及存储介质
KR20120003232A (ko) 볼륨 예측 기반 폐색 영역 양방향 복원 장치 및 방법
US11908096B2 (en) Stereoscopic image acquisition method, electronic device and storage medium
JP2023505900A (ja) メモリおよびデバイスのトラッキングを使用する拡張現実アプリケーションにおけるオクルージョンハンドリングのための方法と関連装置
CN113132717A (zh) 数据处理方法、终端和服务器
CN114267041A (zh) 场景中对象的识别方法及装置
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180223

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181220

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181227

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220317