JP2023172882A - 三次元表現方法及び表現装置 - Google Patents

三次元表現方法及び表現装置 Download PDF

Info

Publication number
JP2023172882A
JP2023172882A JP2023033053A JP2023033053A JP2023172882A JP 2023172882 A JP2023172882 A JP 2023172882A JP 2023033053 A JP2023033053 A JP 2023033053A JP 2023033053 A JP2023033053 A JP 2023033053A JP 2023172882 A JP2023172882 A JP 2023172882A
Authority
JP
Japan
Prior art keywords
image information
viewing angle
boundary
acquired
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023033053A
Other languages
English (en)
Inventor
政▲権▼ ▲陳▼
zheng quan Chen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Zhongsheng Matrix Technology Development Co Ltd
Original Assignee
Sichuan Zhongsheng Matrix Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Zhongsheng Matrix Technology Development Co Ltd filed Critical Sichuan Zhongsheng Matrix Technology Development Co Ltd
Publication of JP2023172882A publication Critical patent/JP2023172882A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

【課題】視覚境界という概念によって対象物に関する画像情報をすべて取得し、そのうえで対象物以外の情報を除去することで、対象物を正確に三次元に表現できる、対象物の三次元表現方法及び表現装置を提供する。【解決手段】方法は、対象物の視角境界を定めるステップと、視角境界内の異なる複数の視点における、初期画像情報及び/又は合成画像情報を含む対象物の画像情報を取得するステップと、取得した画像情報に基づいて対象物の三次元表現を完了するステップと、からなり、対象物の三次元的な再現を完成させる。【選択図】図1

Description

本発明は、撮影対象物を、撮影した画像情報から三次元的に表現する方法及び装置に関する。
撮影対象物(以下「対象物」という。)は、二次元の画像で表現することができるほか、立体的に三次元として表現することもできる。
立体的に三次元として表現する方法として、三次元モデリングの方式や、三次元スキャン技術で得られたデータを面または点群の方式で表す方法が知られている。
しかし、三次元モデリングや三次元スキャンなどの技術によって対象物を三次元として表現する場合、その表現の過程で、対象物に関する情報が失われ、対象物の全ての情報を完全に再現することはできず、さらに表現された三次元の物体は、対象物を正確に三次元に表現したものではない。
そこで、特許文献1には、高画質の仮想視点画像を得ようとすれば、その生成のための処理負荷が増大する課題に対し、複数のカメラによって異なる視点から撮影された複数視点画像と、撮影シーンにおける背景の三次元形状を表す背景3Dデータとを用いて、仮想視点画像を生成するシステムであって、前記カメラからの視点に対応するシミュレーション画像を、前記背景3Dデータを用いて生成する生成手段と、前記シミュレーション画像と前記カメラからの前記視点で実際に撮影された画像との差異を検出する検出手段と、検出結果に基づき前記背景3Dデータを更新する更新手段と、を備える仮想視点画像生成システムに関する発明が開示されており、人物等の重要なオブジェクトを含む前景画像と、そのようなオブジェクトを含まない背景画像とを分離して処理することで、仮想視点画像の生成に関する処理負荷を抑えつつ、生成される仮想視点画像における特定オブジェクトに該当する部分の高画質な仮想視点画像の生成が可能になる。
しかし、例えば、対象物が火炎、煙、水滴、プラズマなどの場合、これらの対象物は、ハイライト、高反転、高透過の特徴をもち、特許文献1にかかる発明を含め、これまでの三次元モデリングや三次元スキャンの技術では、三次元として表現できない。
これは、再現する過程で、仮想視点画像の生成に関する処理負荷を抑えることを優先するばかりに、前景画像から、物理的属性、対象物自体の情報と環境との反応情報などの種々の情報が失われることが原因であり、この解決手段は、特許文献1には一切開示されていない。
特開2019-191989公報
そこで、本発明は、前記問題点に鑑み、視覚境界という概念によって対象物に関する画像情報をすべて取得し、そのうえで対象物以外の情報を除去することで、対象物を正確に三次元に表現できる、対象物の三次元表現方法及び表現装置を提供することを課題とする。
従来技術における問題点を解決するために、本発明は、以下の技術的な解決策を講じている。
なお、本発明の説明において、「内」、「下」、「上」など方位と位置関係を指示する用語は、図面に示される方位や作業中によく置く方位、位置関係に基づくものである。
また、方向または位置関係は、本発明を説明し、説明を簡略化するためのものであり、参照されるデバイスまたは要素が特定の方向を有し、特定の方向で構築または操作されなければならないことを示したり示唆したりするものではない。
さらに、「第1」、「第2」などの用語は、説明を区別するためにのみ使用され、相対的な重要性を示したり、暗示することを意味するものではない。
本発明にかかる対象物の三次元表現方法は、
対象物の異なる複数の視点における各撮影画像から視角境界を定めるステップS10と、
対象物の異なる複数の視点における各撮影画像から視角境界内の画像情報を取得するステップS20と、
取得した画像情報に基づいて、対象物を三次元的に表現するステップS30と、
を実行し、
前記ステップS10は、
対象物の異なる複数の視点における各撮影画像から最大境界半径を算出するステップS11と、
当該最大境界半径によって形成される円の円周を視角境界と定めるステップS12と、
を含み、
前記画像情報は、撮影画像から取得した視角境界内の画像情報である初期画像情報、及び/又は、撮影画像から取得した視角境界内の画像情報を分割し、これを合成した合成画像情報からなる、
ことを特徴とする。
さらに、
前記ステップS20のあとに、
取得した画像情報からプリセット領域を算出するステップS41と、
プリセット領域外の画像情報を除去し、それ以外のプリセット領域の画像情報を取得するステップS42と、
を含む。
また、前記ステップS20において、
合成画像情報を画像情報として取得するときは、
各視点における対象物と撮影装置の間の撮影距離を取得ステップS21と、
各視点において、撮影距離を2以上に分割して分割点を設定し、全ての分割点で対象物を撮影し、視点ごとに、2以上の画像情報を取得するステップS22と、
視点ごとに、2以上の画像情報を合成し、合成画像情報を作成するステップS23と、
を実行する。
また、前記ステップS30は、
取得した画像情報ごとに属性番号を付与し、画像情報を属性番号が紐づけられた状態で保存ユニットに記録するステップS31と、
各属性番号に紐づけた再現番号を再現ユニットに設定するステップS32と、
再現番号をもとに、再現番号に紐づけられた属性番号が付与された対象物を三次元的に表現するステップS33と、
を実行する。
このような三次元表現装置は、
対象物の異なる複数の視点における各撮影画像から最大境界半径を算出し、最大境界半径によって形成される円の円周(視角境界)を算出する視覚境界算出モジュールと、
視点1からNまでの各視点から撮影された各撮影画像の撮影画像情報から、視角境界内の画像情報を取得する画像情報取得モジュールと、
取得した画像情報をもとに、対象物を三次元的に表現する三次元表現モジュールと、
を有し、
前記画像情報取得モジュールは、
前記画像情報として、撮影画像から取得した視角境界内の画像情報である初期画像情報、及び/又は、撮影画像から取得した視角境界内の画像情報を分割し、これを合成した合成画像情報を取得する
ことを特徴とする。
さらに、
取得した画像情報からプリセット領域を算出し、プリセット領域外の画像情報を除去し、それ以外のプリセット領域の画像情報を取得するプリセットモジュールと、
取得したプリセット領域の画像情報をもとに、対象物を三次元的に表現する三次元表現モジュールと、
を含む。
また、前記画像情報取得モジュールにおいて、
合成画像情報を画像情報として取得するときは、
各視点における対象物と撮影装置の間の撮影距離を取得し、
各視点において、撮影距離を2以上に分割して分割点を設定し、全ての分割点で対象物を撮影し、視点ごとに、2以上の画像情報を取得し、
視点ごとに、2以上の画像情報を合成し、合成画像情報を作成する。
また、前記三次元表現モジュールは、
取得した画像情報ごとに属性番号を付与し、画像情報を属性番号が紐づけられた状態で保存ユニットに記録し、
各属性番号に紐づけた再現番号を再現ユニットに設定し、
再現番号をもとに、再現番号に紐づけられた属性番号が付与された対象物を三次元的に表現する。
本発明によれば、次の効果を有する。
(1)対象物の画像情報を取得する前に、異なる複数の視点で撮影された対象物の撮影画像から最大境界半径を算出し、最大境界半径によって形成される円の円周を視角境界とし、視角境界内の画像情報のみを取得するので、対象物の撮影画像から画像情報を取得するにあたり、視角境界以外の撮影画像情報を除去することができる。視角境界以外の撮影画像情報を除去することで、視角境界以外の撮影画像情報がその後の三次元表現に影響を与えることを回避でき、対象物に関する画像情報のみを取得することで、取得する画像情報の情報量を削減することができる。
(2)各視点における対象物と撮影装置の間の撮影距離を2以上に分割して分割点を設定し、全ての分割点で対象物を撮影し、視点ごとに、2以上の画像情報を取得して、複数の画像情報を合成する。同じ視点から撮影された対象物の撮影画像は、拡大しても縮小しても、鮮明に表現でき、ノイズが少なく鮮明であるため、対象物をより滑らかに、より速く三次元で表現できる。
(3)取得した画像情報からプリセット領域し、プリセット領域外の画像情報を除去し、それ以外のプリセット領域の画像情報を取得する。プリセット領域外の領域の画像情報を除去することで、画像情報に含まれるノイズを除去し、画像情報が有する情報量を大幅に低減して、三次元表現の効率を向上させることが可能になる。
(4)リアルタイムで対象物の異なる時点での三次元表現を行うことができ、取得した画像情報が損失することもなく、対象物を忠実に三次元的に表現できる。
三次元表現方法の手順を示すフロー図 視角境界の例を模式的に示した図 合成画像情報の例を模式的に示した図 三次元的に表現した対象物のイメージ画像 異なる複数の視点で取得された画像情報のマトリックスと三次元的に表現した対象物のイメージ画像との対応関係を模式的に示した図
本発明の技術的解決策をより明確に説明するために、図面をもとに、以下、本発明の具体的な実施形態や先行技術を説明する。
なお、以下の説明は、本発明の実施形態の一部に過ぎず、説明に使用される「含む」、「構成する」等の用語は、特定の実施形態を説明することのみを意図しており、例示および説明のためにのみ使用され、本発明を記載した実施形態の範囲を限定することを意図するものではない。
本明細書で使用される用語は、本開示を限定することを意図するのではなく、特定の実施形態を説明するためにのみ使用される。ここで使用される用語「含む」、「含む」などは、特徴、ステップ、操作、および/または部品の存在を示しているが、1つ以上の他の特徴、ステップ、操作、または部品の存在または追加を排除するものではない。
従来の三次元モデリングや三次元スキャンの技術は、見る者に、対象物の三次元表現が可能であるかのような視覚的、意識的な錯覚を与えることで、「表面的な意味」での三次元表現を実現していたが、実際には、三次元モデリングまたは三次元スキャンによって対象物を三次元表現する過程において、対象物が有する真の情報が失われ、現実世界の対象物を正確に三次元表現することはできなかった。
そこで、本発明では、対象物を完全に三次元表現する方法及び装置を提供するが、主な実施例は、次のとおりである。
なお、本発明における「画像」とは、静止画だけでなく、動画も含む。
<三次元表現方法>
図1~5に示すように、本発明にかかる対象物の三次元表現方法は、次のステップを含む。
ステップS10:対象物の異なる複数の視点における各撮影画像から「視角境界」を定める。
ステップS20:対象物の異なる複数の視点における各撮影画像から視角境界内の画像情報を取得する。
ステップS30:取得した画像情報に基づいて、対象物を三次元的に表現する。
ステップS10では、次の処理を行う。
ステップS11:対象物の異なる複数の視点における各撮影画像から「最大境界半径」を算出する。
ステップS12:最大境界半径によって形成される円の円周を「視角境界」と定める。
異なる複数の視点から、撮影装置によって撮影された対象物の撮影画像の撮影画像情報のうち、必要な撮影画像情報のみを取得するためには、撮影画像から対象物を的確に把握する必要がある。
そこで、異なる複数の視点から撮影された撮影画像において視角境界を定める。
視覚境界を定める方法は、次のとおりである。
対象物を撮影する際の視点が、図4のように、対象物の周囲に、視点1、視点2、視点3、視点4・・・視点NのようにN個あると仮定した場合、対象物の撮影画像は、図3のように、視点1からnまでのn枚が作成される。
視点1から撮影された撮影画像に写る対象物が、図2の右上の図のように、正方形である場合、対象物である正方形の中心を、撮影画像から公知の画像認識手段によって特定し、対象物である正方形の中心が円の中心になるように、対象物である正方形が完全に収まる最小の円を、撮影画像から公知の画像認識手段によって算出し、当該円の円周から円の中心(正方形の中心)までの距離を境界半径として算出する。
視点2から撮影された撮影画像に写る対象物が、図2の右下の図のように、長方形である場合も、視点1の場合と同じように、対象物である長方形の中心を、撮影画像から公知の画像認識手段によって特定し、対象物である長方形の中心が円の中心になるように、対象物である長方形が完全に収まる最小の円を、撮影画像から公知の画像認識手段によって算出し、当該円の円周から円の中心(長方形の中心)までの距離を境界半径として算出する。
視点3以降も、視点1、視点2と同じ方法で、境界半径を算出する。
最後に、視点1から視点Nまでの各境界半径を比較し、境界半径が最も長い視点における境界半径を最大境界半径とする。
この最大境界半径によって形成される円の円周を「視角境界」とする(図2)。
つまり、視角境界とは、異なる複数の視点から撮影されたそれぞれの撮影画像において、1の撮影画像における対象物の中心と、1の撮影画像における対象物が完全に収まる最小の円と、をつなぐ長さを「境界半径」とし、この境界半径が最も長い視点の最大境界半径によって形成される円の円周を意味する。
そして、視点1からNまでの各視点から撮影された各撮影画像から、視角境界内の撮影画像情報のみを「画像情報」として取得する。
このようにして、全ての視点から撮影された撮影画像から、対象物が完全に収まる視角境界をもとに、対象物の画像情報を取得する。
そのため、対象物は、全ての撮影画像において、視角境界内に完全に収まり、全ての視点の視覚境界によって作られる球体内に完全に収まる。
また、対象物は、異なる複数の視点から撮影されるため、撮影画像ごとに、全て同じように写ることもあれば、部分的に異なったり、全く異なった見え方で写ることがあるが、そのいずれの視点においても、視覚境界によって作られる球体内に完全に収まることになる。
撮影装置は、対象物を撮影できる機能を有するものであれば、どのようなものでもよく、カメラ、仮想カメラなどでもよい。
このように、対象物の画像情報を取得する前に、異なる複数の視点で撮影された対象物の撮影画像から最大境界半径を算出し、最大境界半径によって形成される円の円周を視角境界と定め、視角境界内の画像情報のみを取得するので、対象物の撮影画像から画像情報を取得するにあたり、視角境界の外(対象物の中心から離れた方向の範囲)の撮影画像情報を除去することができる。
視角境界の外の撮影画像情報を除去することで、視角境界の外の撮影画像情報が、その後の三次元表現に影響を与えることを回避でき、視覚境界内の画像情報のみを取得することで、取得する画像情報の情報量を削減することができる。
また、取得する画像情報は、次の初期画像情報または合成画像情報からなり、いずれか一方または両方を、画像情報として取得できる。
初期画像情報とは、撮影画像から取得した、視角境界内の画像情報であり、合成画像情報を除いた画像情報を意味する。
したがって、前記の「画像情報」は、初期画像情報を意味する。
合成画像情報とは、撮影画像から取得した、視角境界内の画像情報を分割し、これを合成した画像情報を意味する。
対象物の異なる複数の視点における各撮影画像から視角境界内の画像情報を取得する「ステップS20」において、合成画像情報を取得する方法は、次のとおりである。
ステップS21:各視点における対象物と撮影装置の間の撮影距離を取得する。
ステップS22:各視点において、撮影距離を2以上に分割して分割点を設定し、全ての分割点で対象物を撮影し、視点ごとに、2以上の画像情報を取得する。
ステップS23:視点ごとに、2以上の画像情報を合成し、合成画像情報を作成する。
各視点における対象物と撮影装置の間の撮影距離は、公知の手段で取得する(ステップS21)。
その後、視点ごとに、撮影距離を2以上に分割して分割点を設定する。
分割点の設定数は、任意であり、例えば、撮影距離が長ければ、分割点を増やし、撮影距離が短ければ、分割点を減らすことができる。
例えば、視点Nにおいて、撮影距離を3分割する場合、分割点は2か所設定され、分割点1で撮影された撮影画像からは画像情報1を、分割点2で撮影された撮影画像からは画像情報2を、それぞれ取得する。
このようにして、分割点ごとに画像情報を取得する(ステップS22)。
これにより、同じ視点から撮影された対象物の撮影画像は、拡大しても縮小しても、鮮明に表現でき、ノイズが少なく鮮明であるため、対象物をより滑らかに、より速く三次元で表現できる。
視点ごとに分割点の数だけ取得した2以上の画像情報は、公知の手段で合成され、合成画像情報が作成される。
対象物と撮影装置の撮影距離と、撮影距離の分割数は、全ての視点において、同じであってもよく、一部が同じであってもよく、異なっていてもよい。
また、対象物と撮影装置の撮影距離の分割数は、自由に設定でき、画像情報の情報量が多い場合には、分割数を増やしたり、画像情報の情報量が少ない場合には、分割数を減らすこともできる。
画像情報を取得するタイミングは、任意であり、例えば、同じ時間でも、異なる時間でも構わない。
また、視点1では初期画像情報を取得し、視点2では合成画像情報を取得するなど、視点ごとに、異なる画像情報を取得することができ、全ての視点で、初期画像情報または合成画像情報のどちらか一方のみの画像情報を取得することもできる。
また、1の視点で、初期画像情報と合成画像情報を同時に取得することもできる。
また、対象物の異なる複数の視点における各撮影画像から視角境界内の画像情報を取得する「ステップS20」の後に、次のステップを行う。
ステップS41:取得した画像情報からプリセット領域を算出する。
ステップS42:プリセット領域外の画像情報を除去し、それ以外のプリセット領域の画像情報を取得する。
プリセット領域とは、画像情報における対象物のみの画像情報を意味する。
取得した画像情報から、対象物以外、つまり、プリセット領域外の領域の画像情報を除去することで、画像情報に含まれるノイズを除去し、画像情報が有する情報量を大幅に低減して、三次元表現の効率を向上させることが可能になる。
初期画像情報からプリセット領域を算出する方法は、初期画像情報を公知のセグメンテーションの方法によって対象物と対象物ではない領域に分け、対象物のみの領域をプリセット領域とする。
その後、初期画像情報から対象物ではない領域を除去することで、対象物のみが含まれるプリセット領域の画像情報を取得できる。
合成画像情報からプリセット領域を算出する方法は、合成画像情報を公知のセグメンテーションの方法によって対象物と対象物ではない領域に分け、対象物のみの領域をプリセット領域とする。
その後、合成画像情報から対象物ではない領域を除去することで、対象物のみが含まれるプリセット領域の画像情報を取得できる。
特に、合成画像情報の場合、取得する画像情報が多いため、画像情報が有する情報量を大幅に低減できる。
取得した画像情報に基づいて、対象物を三次元的に表現する「ステップS30」は、次の2つの方法によって行う。
1つ目は、対象物の画像情報を取得しながら、三次元表現を行う方法である。
対象物の三次元表現を、リアルタイムで、その都度行い、その途中で、他の処理方法を経由しないため、取得した画像情報を損失することなく、対象物の三次元表現を実現できる。
2つ目は、対象物の異なる複数の視点における各撮影画像から視角境界内の画像情報を取得(ステップS20)した後、画像情報ごとに付与した属性番号と、属性番号に紐づけた画像情報を記録したうえで、各属性番号に紐づけた再現番号を設定しておき、再現番号をもとに、再現番号に紐づけられた属性番号が付与された対象物を三次元的に表現する方法である。
2つ目の方法によって、対象物を三次元的に表現する方法では、対象物の異なる複数の視点における各撮影画像から視角境界内の画像情報を取得(ステップS20)した後、次のステップを実行する。
ステップS31:取得した画像情報ごとに属性番号を付与し、画像情報を属性番号が紐づけられた状態で保存ユニットに記録する。
ステップS32:各属性番号に紐づけた再現番号を再現ユニットに設定する。
ステップS33:再現番号をもとに、再現番号に紐づけられた属性番号が付与された対象物を三次元的に表現する。
属性番号は、画像情報に含まれる視点情報、方位情報(例えば緯度、経度など)などで、各視点において取得する画像情報に関連する情報として、1-45°-3、001、abc、1_1_0、1~1~0など、種々の識別可能な番号や記号等を使用できる。
属性番号は、属性番号が付与された画像情報とともに、画像情報に紐づけられた状態で保存ユニットに記録される。
各属性番号は、予め再現ユニットに設定した再現番号に紐づけられる。
そのため、再現番号をもとに、再現番号に紐づけられた属性番号が付与された対象物を三次元的に表現できる。
ステップS31の保存ユニットは、各種の情報を記録できればよく、三次元表現方法を実現する処理装置に、内蔵され、外部接続され、無線通信接続されるなど、その構成は問わず、キャプチャ装置、バックエンドサーバ等であってもよい。
また、ステップS32の再現ユニットは、予め各属性番号に紐づけた再現番号を設定したうえで、例えば、設定された再現番号の順番のとおりに、再現番号に紐づけられた属性番号によって対象物を三次元的に表現する。
<三次元表現装置>
本発明にかかる対象物の三次元表現装置は、以下のモジュールを含む。
視覚境界算出モジュール:対象物の異なる複数の視点における各撮影画像から「最大境界半径」を算出し、最大境界半径によって形成される円の円周を視角境界と定める。
画像情報取得モジュール:視点1からNまでの各視点から撮影された各撮影画像の撮影画像情報から、視角境界内の画像情報を取得する。
プリセット領域算出モジュール:取得した画像情報からプリセット領域を算出し、プリセット領域外の画像情報を除去し、それ以外のプリセット領域の画像情報を取得する。
三次元表現モジュール:取得したプリセット領域の画像情報をもとに、対象物を三次元的に表現する。
画像情報取得モジュールは、さらに、次のことを行う。
各視点における対象物と撮影装置の間の撮影距離を取得する。
各視点において、撮影距離を2以上に分割して分割点を設定し、全ての分割点で対象物を撮影し、視点ごとに、2以上の画像情報を取得する。
視点ごとに、2以上の画像情報を合成し、合成画像情報を作成する。
三次元表現モジュールは、さらに、次のことを行う。
取得した画像情報ごとに属性番号を付与し、画像情報を属性番号が紐づけられた状態で保存ユニットに記録する。
各属性番号に紐づけた再現番号を再現ユニットに設定する。
再現番号をもとに、再現番号に紐づけられた属性番号が付与された対象物を三次元的に表現する。
これらのモジュールは、ハードウェアでもソフトウェアでも実装できる。
以上の三次元表現方法または三次元表現装置を用いて対象物を取得する場合、その対象物を三次元的に表現できるだけでなく、対象物からより多くの画像情報を得ることができるため、画像情報から種々のデータを抽出し、分析し、要約して、種々の条件や属性などの情報を得ることができるので、対象物の識別、分類、追跡などの情報を二次利用したり、機械学習にも活用できる。
陶器製のティーポットを例に説明すると、ティーポットの表面に光源が当たっている状態では、光源が当たっている箇所を直視する視点(例えば視点1)には、ティーポットの表面の模様、色、質感などの情報が鮮明に表われる。
しかし、光源が当たっている箇所を斜視する別の視点(例えば視点2)には、ティーポットの表面の光沢が弱くなり、ティーポットの表面の模様、色、質感などの情報が鮮明に表われない。
このように、視点が異なると、同じティーポットでも、異なる状態に表われる。
しかし、本発明の三次元表現方法または三次元表現装置を用いれば、取得した画像情報から対象物を三次元的に表現でき、現実の対象物が有する特性や状態が、対象物が存在する現実とは異なる時間、異なる視点、異なる場所、異なる環境でも、現実の対象物を忠実に表現できる。
そのため、炎、煙、水滴、プラズマなどの高光量、高反射、高透過の不定形物体でも三次元に表現でき、物体と環境との反応情報を忠実に反映できる。

本発明にかかる対象物の三次元表現方法は、
対象物に対する異なる複数の視点における各撮影画像から視角境界を定めるステップS10と、
対象物に対する異なる複数の視点における各撮影画像から視角境界内の画像情報を取得するステップS20と、
取得した画像情報に基づいて、対象物を三次元的に表現するステップS30と、
を実行し、
前記ステップS10は、
対象物に対する異なる複数の視点における各撮影画像において当該対象物が完全に収まる最小の円の半径である境界半径を比較し、当該境界半径が最も長い視点の最大境界半径を算出するステップS11と、
当該最大境界半径によって形成される円の円周を視角境界と定めるステップS12と、
を含み、
前記画像情報は、前記撮影画像から取得した前記視角境界内の画像情報である初期画像情報、及び/又は、前記撮影距離を分割し、分割点で対象物を撮影した画像の前記視覚境界内の画像情報を合成した合成画像情報からなる、
ことを特徴とする。
このような三次元表現装置は、
対象物に対する異なる複数の視点における各撮影画像において当該対象物が完全に収まる最小の円の半径である境界半径を比較し、当該境界半径が最も長い視点の最大境界半径を算出し、当該最大境界半径によって形成される円の円周(視角境界)を算出する視覚境界算出モジュールと、
視点1からNまでの各視点から撮影された各撮影画像の撮影画像情報から、視角境界内の画像情報を取得する画像情報取得モジュールと、
取得した画像情報をもとに、対象物を三次元的に表現する三次元表現モジュールと、
を有し、
前記画像情報取得モジュールは、
前記画像情報として、前記撮影画像から取得した前記視角境界内の画像情報である初期画像情報、及び/又は、前記撮影距離を分割し、分割点で対象物を撮影した画像の前記視覚境界内の画像情報を合成した合成画像情報を取得する
ことを特徴とする。
ステップS10では、次の処理を行う。
ステップS11:対象物に対する異なる複数の視点における各撮影画像において当該対象物が完全に収まる最小の円の半径である境界半径を比較し、当該境界半径が最も長い視点の「最大境界半径」を算出する。
ステップS12:最大境界半径によって形成される円の円周を「視角境界」と定める。
このように、対象物の画像情報を取得する前に、異なる複数の視点で撮影された対象物の撮影画像において当該対象物が完全に収まる最小の円の半径である境界半径を比較し、当該境界半径が最も長い視点の最大境界半径を算出し、最大境界半径によって形成される円の円周を視角境界と定め、視角境界内の画像情報のみを取得するので、対象物の撮影画像から画像情報を取得するにあたり、視角境界の外(対象物の中心から離れた方向の範囲)の撮影画像情報を除去することができる。
視角境界の外の撮影画像情報を除去することで、視角境界の外の撮影画像情報が、その後の三次元表現に影響を与えることを回避でき、視覚境界内の画像情報のみを取得することで、取得する画像情報の情報量を削減することができる。
合成画像情報とは、撮影距離を分割し、分割点で対象物を撮影した画像の前記視覚境界内の画像情報を合成した画像情報を意味する。
対象物に対する異なる複数の視点における各撮影画像から視角境界内の画像情報を取得する「ステップS20」において、合成画像情報を取得する方法は、次のとおりである。
<三次元表現装置>
本発明にかかる対象物の三次元表現装置は、以下のモジュールを含む。
視覚境界算出モジュール:対象物に対する異なる複数の視点における各撮影画像において当該対象物が完全に収まる最小の円の半径である境界半径を比較し、当該境界半径が最も長い視点の「最大境界半径」を算出し、最大境界半径によって形成される円の円周を視角境界と定める。
画像情報取得モジュール:視点1からNまでの各視点から撮影された各撮影画像の撮影画像情報から、視角境界内の画像情報を取得する。
プリセット領域算出モジュール:取得した画像情報からプリセット領域を算出し、プリセット領域外の画像情報を除去し、それ以外のプリセット領域の画像情報を取得する。
三次元表現モジュール:取得したプリセット領域の画像情報をもとに、対象物を三次元的に表現する。
本発明にかかる対象物の三次元表現方法は、
対象物に対する異なる複数の視点における各撮影画像から視角境界を定めるステップS10と、
対象物に対する異なる複数の視点における各撮影画像から視角境界内の画像情報を取得するステップS20と、
取得した画像情報に基づいて、対象物を三次元的に表現するステップS30と、
を実行し、
前記ステップS10は、
対象物に対する異なる複数の視点における各撮影画像において当該対象物が完全に収まる最小の円の半径である境界半径を比較し、当該境界半径が最も長い視点の最大境界半径を算出するステップS11と、
当該最大境界半径によって形成される円の円周を視角境界と定めるステップS12と、
を含み、
前記画像情報は、前記撮影画像から取得した前記視角境界内の画像情報である初期画像情報、及び/又は、撮影距離を分割し、分割点で対象物を撮影した画像の前記視覚境界内の画像情報を合成した合成画像情報からなる、
ことを特徴とする。
このような三次元表現装置は、
対象物に対する異なる複数の視点における各撮影画像において当該対象物が完全に収まる最小の円の半径である境界半径を比較し、当該境界半径が最も長い視点の最大境界半径を算出し、当該最大境界半径によって形成される円の円周(視角境界)を算出する視覚境界算出モジュールと、
視点1からNまでの各視点から撮影された各撮影画像の撮影画像情報から、視角境界内の画像情報を取得する画像情報取得モジュールと、
取得した画像情報をもとに、対象物を三次元的に表現する三次元表現モジュールと、
を有し、
前記画像情報取得モジュールは、
前記画像情報として、前記撮影画像から取得した前記視角境界内の画像情報である初期画像情報、及び/又は、撮影距離を分割し、分割点で対象物を撮影した画像の前記視覚境界内の画像情報を合成した合成画像情報を取得する
ことを特徴とする。

Claims (8)

  1. 対象物の異なる複数の視点における各撮影画像から視角境界を定めるステップS10と、
    対象物の異なる複数の視点における各撮影画像から視角境界内の画像情報を取得するステップS20と、
    取得した画像情報に基づいて、対象物を三次元的に表現するステップS30と、
    を実行し、
    前記ステップS10は、
    対象物の異なる複数の視点における各撮影画像から最大境界半径を算出するステップS11と、
    当該最大境界半径によって形成される円の円周を視角境界と定めるステップS12と、
    を含み、
    前記画像情報は、撮影画像から取得した視角境界内の画像情報である初期画像情報、及び/又は、撮影画像から取得した視角境界内の画像情報を分割し、これを合成した合成画像情報からなる、
    ことを特徴とする対象物の三次元表現方法。
  2. 対象物の異なる複数の視点における各撮影画像から視角境界を定めるステップS10と、
    対象物の異なる複数の視点における各撮影画像から視角境界内の画像情報を取得するステップS20と、
    取得した画像情報からプリセット領域を算出するステップS41と、
    プリセット領域外の画像情報を除去し、それ以外のプリセット領域の画像情報を取得するステップS42と、
    取得したプリセット領域の画像情報に基づいて、対象物を三次元的に表現するステップS30と、
    を実行し、
    前記ステップS10は、
    対象物の異なる複数の視点における各撮影画像から最大境界半径を算出するステップS11と、
    当該最大境界半径によって形成される円の円周を視角境界と定めるステップS12と、
    を含み、
    前記画像情報は、撮影画像から取得した視角境界内の画像情報である初期画像情報、及び/又は、撮影画像から取得した視角境界内の画像情報を分割し、これを合成した合成画像情報からなる、
    ことを特徴とする対象物の三次元表現方法。
  3. 前記ステップS20において、
    合成画像情報を画像情報として取得するときは、
    各視点における対象物と撮影装置の間の撮影距離を取得ステップS21と、
    各視点において、撮影距離を2以上に分割して分割点を設定し、全ての分割点で対象物を撮影し、視点ごとに、2以上の画像情報を取得するステップS22と、
    視点ごとに、2以上の画像情報を合成し、合成画像情報を作成するステップS23と、
    を実行する
    ことを特徴とする請求項1または2記載の対象物の三次元表現方法。
  4. 前記ステップS30は、
    取得した画像情報ごとに属性番号を付与し、画像情報を属性番号が紐づけられた状態で保存ユニットに記録するステップS31と、
    各属性番号に紐づけた再現番号を再現ユニットに設定するステップS32と、
    再現番号をもとに、再現番号に紐づけられた属性番号が付与された対象物を三次元的に表現するステップS33と、
    を実行する
    ことを特徴とする請求項1または2記載の対象物の三次元表現方法。
  5. 対象物の異なる複数の視点における各撮影画像から最大境界半径を算出し、最大境界半径によって形成される円の円周(視角境界)を算出する視覚境界算出モジュールと、
    視点1からNまでの各視点から撮影された各撮影画像の撮影画像情報から、視角境界内の画像情報を取得する画像情報取得モジュールと、
    取得した画像情報をもとに、対象物を三次元的に表現する三次元表現モジュールと、
    を有し、
    前記画像情報取得モジュールは、
    前記画像情報として、撮影画像から取得した視角境界内の画像情報である初期画像情報、及び/又は、撮影画像から取得した視角境界内の画像情報を分割し、これを合成した合成画像情報を取得する
    ことを特徴とする対象物の三次元表現装置。
  6. 対象物の異なる複数の視点における各撮影画像から最大境界半径を算出し、最大境界半径によって形成される円の円周(視角境界)を算出する視覚境界算出モジュールと、
    視点1からNまでの各視点から撮影された各撮影画像の撮影画像情報から、視角境界内の画像情報を取得する画像情報取得モジュールと、
    取得した画像情報からプリセット領域を算出し、プリセット領域外の画像情報を除去し、それ以外のプリセット領域の画像情報を取得するプリセットモジュールと、
    取得したプリセット領域の画像情報をもとに、対象物を三次元的に表現する三次元表現モジュールと、
    を有し、
    前記画像情報取得モジュールは、
    前記画像情報として、撮影画像から取得した視角境界内の画像情報である初期画像情報、及び/又は、撮影画像から取得した視角境界内の画像情報を分割し、これを合成した合成画像情報を取得する
    ことを特徴とする対象物の三次元表現装置。
  7. 前記画像情報取得モジュールは、
    合成画像情報を画像情報として取得するときは、
    各視点における対象物と撮影装置の間の撮影距離を取得し、
    各視点において、撮影距離を2以上に分割して分割点を設定し、全ての分割点で対象物を撮影し、視点ごとに、2以上の画像情報を取得し、
    視点ごとに、2以上の画像情報を合成し、合成画像情報を作成する
    ことを特徴とする請求項5または6記載の対象物の三次元表現装置。
  8. 前記三次元表現モジュールは、
    取得した画像情報ごとに属性番号を付与し、画像情報を属性番号が紐づけられた状態で保存ユニットに記録し、
    各属性番号に紐づけた再現番号を再現ユニットに記録し、
    再現番号をもとに、再現番号に紐づけられた属性番号が付与された対象物を三次元的に表現する
    ことを特徴とする請求項5または6記載の対象物の三次元表現装置。



JP2023033053A 2022-05-24 2023-03-03 三次元表現方法及び表現装置 Pending JP2023172882A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202210566798.0 2022-05-24
CN202210566798.0A CN114648614B (zh) 2022-05-24 2022-05-24 一种目标对象的三维重现方法及系统

Publications (1)

Publication Number Publication Date
JP2023172882A true JP2023172882A (ja) 2023-12-06

Family

ID=81996994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023033053A Pending JP2023172882A (ja) 2022-05-24 2023-03-03 三次元表現方法及び表現装置

Country Status (7)

Country Link
US (1) US20230386160A1 (ja)
EP (1) EP4283562A1 (ja)
JP (1) JP2023172882A (ja)
KR (1) KR20230163920A (ja)
CN (1) CN114648614B (ja)
AU (1) AU2022368363A1 (ja)
WO (1) WO2023226370A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114648614B (zh) * 2022-05-24 2022-07-26 四川中绳矩阵技术发展有限公司 一种目标对象的三维重现方法及系统
CN115134581A (zh) * 2022-08-30 2022-09-30 四川中绳矩阵技术发展有限公司 一种图像和声音的融合重现方法、系统、设备及存储介质
CN116320364B (zh) * 2023-05-25 2023-08-01 四川中绳矩阵技术发展有限公司 一种基于多层显示的虚拟现实拍摄方法及显示方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101650834A (zh) * 2009-07-16 2010-02-17 上海交通大学 复杂场景下人体表面三维重建方法
CN101938668B (zh) * 2010-09-10 2013-01-23 中国科学院自动化研究所 对多级透镜多视角场景的三维重建的方法
CN102238411B (zh) * 2011-06-29 2013-01-02 浙江大学 一种用于体视三维显示的图像显示方法
CN102609977B (zh) * 2012-01-12 2014-07-16 浙江大学 基于深度融合和曲面演变的多视点三维重建方法
CN103514625A (zh) * 2012-06-20 2014-01-15 上海路同信息科技有限公司 基于多视角自适应特征配准的三维重建方法
CN103047969B (zh) * 2012-12-07 2016-03-16 北京百度网讯科技有限公司 通过移动终端生成三维图像的方法及移动终端
CN104599284B (zh) * 2015-02-15 2017-06-13 四川川大智胜软件股份有限公司 基于多视角手机自拍图像的三维人脸重建方法
GB2546572B (en) * 2015-08-14 2019-12-04 Metail Ltd Method and system for generating an image file of a 3D garment model on a 3D body model
CN107093171B (zh) * 2016-02-18 2021-04-30 腾讯科技(深圳)有限公司 一种图像处理方法及装置、系统
CN106303175A (zh) * 2016-08-17 2017-01-04 李思嘉 一种基于单光场相机多重视角的虚拟现实三维数据采集方法
US20210304494A1 (en) * 2018-08-10 2021-09-30 Sharp Kabushiki Kaisha Image processing apparatus, 3d data generation apparatus, control program, and recording medium
CN112771867A (zh) * 2018-09-28 2021-05-07 夏普株式会社 3d数据生成装置、3d数据再现装置、控制程序以及记录介质
CN109237248A (zh) * 2018-10-15 2019-01-18 江西师范大学 立体拍照装置及物体三维重现方法
CN109658497B (zh) * 2018-11-08 2023-04-14 北方工业大学 一种三维模型重建方法及装置
CN111669561B (zh) * 2019-03-07 2023-05-26 阿里巴巴集团控股有限公司 多角度自由视角图像数据处理方法及装置、介质、设备
CN111598993B (zh) * 2020-01-17 2022-07-08 江苏艾佳家居用品有限公司 基于多视角成像技术的三维数据重建方法、装置
CN113269864A (zh) * 2020-02-14 2021-08-17 福州非圆网络科技有限公司 一种多视角三维重建装置及方法
CN113781664B (zh) * 2021-11-09 2022-01-25 四川省交通勘察设计研究院有限公司 基于三维模型的vr全景图构造显示方法、系统及终端
CN114648614B (zh) * 2022-05-24 2022-07-26 四川中绳矩阵技术发展有限公司 一种目标对象的三维重现方法及系统

Also Published As

Publication number Publication date
CN114648614A (zh) 2022-06-21
AU2022368363A1 (en) 2023-12-14
WO2023226370A1 (zh) 2023-11-30
US20230386160A1 (en) 2023-11-30
KR20230163920A (ko) 2023-12-01
EP4283562A1 (en) 2023-11-29
CN114648614B (zh) 2022-07-26

Similar Documents

Publication Publication Date Title
CN109615703B (zh) 增强现实的图像展示方法、装置及设备
JP4938093B2 (ja) 2d−to−3d変換のための2d画像の領域分類のシステム及び方法
EP3997662A1 (en) Depth-aware photo editing
JP4879326B2 (ja) 3次元画像を合成するシステム及び方法
US6160909A (en) Depth control for stereoscopic images
EP2033164B1 (en) Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
JP2023172882A (ja) 三次元表現方法及び表現装置
Shen et al. Virtual mirror rendering with stationary rgb-d cameras and stored 3-d background
CN108513123B (zh) 一种集成成像光场显示的图像阵列生成方法
US20120242795A1 (en) Digital 3d camera using periodic illumination
US9990738B2 (en) Image processing method and apparatus for determining depth within an image
JP2016537901A (ja) ライトフィールド処理方法
KR20070026403A (ko) 깊이 맵 생성
JP6541920B1 (ja) 情報処理装置、プログラム及び情報処理方法
US20230281912A1 (en) Method and system for generating a target image from plural multi-plane images
Liu et al. Stereo-based bokeh effects for photography
JP6595878B2 (ja) 要素画像群生成装置及びそのプログラム
JP2021047468A (ja) 画像処理装置、画像処理方法、および画像処理プログラム
KR102358854B1 (ko) 얼굴 이미지 색상 합성 장치 및 방법
JP2003521857A (ja) ソフトウェア焦点外し3d方法、そのシステム及び装置
US20220165190A1 (en) System and method for augmenting lightfield images
JP2018125642A (ja) 領域抽出装置及びプログラム
CN114219887A (zh) 一种优化的光线追踪立体元图像阵列获取方法
Ren et al. Integration of virtual and real scenes within an integral 3D imaging environment
Mori et al. Augmented visualization: Observing as desired

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230306

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240417