JP2011138267A - Three-dimensional image processor, three-dimensional image processing method and medium to which three-dimensional image processing program is recorded - Google Patents

Three-dimensional image processor, three-dimensional image processing method and medium to which three-dimensional image processing program is recorded Download PDF

Info

Publication number
JP2011138267A
JP2011138267A JP2009297088A JP2009297088A JP2011138267A JP 2011138267 A JP2011138267 A JP 2011138267A JP 2009297088 A JP2009297088 A JP 2009297088A JP 2009297088 A JP2009297088 A JP 2009297088A JP 2011138267 A JP2011138267 A JP 2011138267A
Authority
JP
Japan
Prior art keywords
dimensional
dimensional image
segment
boundary
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009297088A
Other languages
Japanese (ja)
Other versions
JP5413188B2 (en
Inventor
Derek Hanchun Kwak
デレックハンチュン クワック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2009297088A priority Critical patent/JP5413188B2/en
Publication of JP2011138267A publication Critical patent/JP2011138267A/en
Application granted granted Critical
Publication of JP5413188B2 publication Critical patent/JP5413188B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology which is sufficiently reliable for automatically modeling a three dimensional object from a two dimensional image using a software program. <P>SOLUTION: A three dimensional image processor reads a two dimensional image, displays the two dimensional image, and specifies a position to becomes a three dimensional reference on the same two dimensional image by receiving an operation input, and a conversion relationship acquiring means acquires a conversion relationship between actual three dimensional space and an two dimensional image space. Next, a shape of a boundary of a surface of the subject matter is specified by discrete point positions of a number corresponding to the shape of respective segments for respective segments on receiving an operation input on the displayed image and a value of height is acquired on receiving the operation input. Then, the boundary is specified by calculating the position information in three dimension of the whole section based on the discrete point positions that are specified for respective segments and that number. In this case, the three dimensional model of the subject matter is calculated based on the value of height, the calculated position information of the boundary of respective segments and the conversion relationship. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、三次元画像処理装置、三次元画像処理方法および三次元画像処理プログラムを記録した媒体に関する。   The present invention relates to a 3D image processing apparatus, a 3D image processing method, and a medium on which a 3D image processing program is recorded.

多くのロボット工学またはコンピューターによる視覚化アプリケーションでは、特定の種類のオブジェクト(例えば、ロボット工学アプリケーションの中の製造中の製品)を非常に高速にモデル化するということは重要である。
1つ目の方法は映像からオブジェクトをモデル化する試みである。そこでは、ユーザーは直観的にオブジェクトの表面の境界線をトレースすることができ、ソフトウェアは自動的にモデルを再構築する。なお、本明細書では特に断りの無い限り、カメラで撮影された画像イメージを映像と称する。
特許文献1として、「三次元モデリングのためのシステムと方法」が知られている。
In many robotics or computerized visualization applications, it is important to model a particular type of object (eg, a product being manufactured in a robotics application) very quickly.
The first method is an attempt to model an object from a video. There, the user can intuitively trace the boundary of the surface of the object, and the software automatically rebuilds the model. In the present specification, unless otherwise specified, an image taken by a camera is referred to as a video.
As Patent Literature 1, “system and method for three-dimensional modeling” is known.

この特許は、予め定められた二次元領域からユーザーが立体(ボリューム)をつくることができるプッシュ/プル技術を記述する。
この特許は、ユーザーがインタラクティブに二次元の形状から3次元立体(ボリューム)を造る方法を記述する。
また、特許文献2として、「一つの映像から三次元オブジェクトをモデル化するシステムと方法」が知られている。
この特許は、モデル化されるオブジェクトについて、その先行モデルがすでに利用できる状態になっている方法(例えば顔モデル)を記述する。
This patent describes a push / pull technique that allows a user to create a volume from a predetermined two-dimensional region.
This patent describes a method by which a user can interactively create a 3D volume from a 2D shape.
Further, as Patent Document 2, “a system and a method for modeling a three-dimensional object from one video” is known.
This patent describes a method (e.g. a face model) in which the predecessor model is already available for the modeled object.

これは自動的に映像から特徴を見つけ、見つかった特徴が最も適切と説明できるように、同特徴をモデルに合致させる。
さらに、特許文献3として、「複数の映像を使ったインタラクティブなモデル生成装置および方法」が知られている。
この特許は、複数の映像からオブジェクトの三次元モデルを生成するためにユーザーがソフトウェアプログラムとインタラクティブに作業できるようにするためのアーキテクチャを記述するに過ぎない。この場合、原始関数を生み出すための実装方法は提供されていない。
This automatically finds a feature from the video and matches it to the model so that the found feature can be described as most appropriate.
Further, as Patent Document 3, “an interactive model generation apparatus and method using a plurality of videos” is known.
This patent only describes an architecture that allows a user to work interactively with a software program to generate a three-dimensional model of an object from multiple videos. In this case, no implementation method is provided for generating primitive functions.

その他、非特許文献1として、Journal of Mathematical Imaging and Vision(2009/11)において「ラジアルディストーション(歪曲)の中心の算定とラジアルディストーション修正の簡単な方法」という技術が開示されている。   In addition, as a non-patent document 1, Journal of Mathematical Imaging and Vision (2009/11) discloses a technique “a simple method of calculating the center of radial distortion (distortion) and correcting the radial distortion”.

米国特許US6,628,279号公報US Patent US 6,628,279 米国公開2007/0127810号公報US Publication No. 2007/0127810 米国公開2002/0080139号公報US Publication 2002/0080139

Journal of Mathematical Imaging and Vision(2009/11)、ラジアルディストーション(歪曲)の中心の算定とラジアルディストーション修正の簡単な方法Journal of Mathematical Imaging and Vision (2009/11), easy method for calculating the center of radial distortion and correcting radial distortion

特許文献1に示す技術では、二次元の領域を特定するためには、あらかじめ定義された原始関数のセットを使うことを基礎としている。そのため、モデリング対象の物体がより複雑であるほど、モデリング操作がより直感的でなくなる。
特許文献2に示す技術では、特定の種類のオブジェクトをモデル化することができるだけであり、一般的な種類のオブジェクトはモデル化されることができない。
特許文献3に示す技術では、単純な形状の原始関数からなる小さなセットでモデルを作り上げることに限定されており、単純なオブジェクトをモデル化させられるだけである。また、複数の映像間での回転行列を算定するために使用される所定の原始関数は、それ自身がシステムに対するエラーの元となり得るので、先の算定を信頼性の薄いものにする。
The technique shown in Patent Document 1 is based on using a predefined set of primitive functions in order to specify a two-dimensional region. Therefore, the more complex the object to be modeled, the less intuitive the modeling operation.
With the technique shown in Patent Document 2, a specific type of object can only be modeled, and a general type of object cannot be modeled.
The technique shown in Patent Document 3 is limited to building a model with a small set of primitive functions of simple shapes, and can only model simple objects. Also, the predetermined primitive function used to calculate the rotation matrix between multiple videos can itself be a source of error for the system, thus making the previous calculation less reliable.

非特許文献1に示す技術では、ラジアルディストーションの中心と、実空間においては直線であるべき線に基づく第一次ラジアルディストーションパラメータの算定方法を記載するに過ぎない。   The technique shown in Non-Patent Document 1 merely describes a method for calculating a primary radial distortion parameter based on the center of radial distortion and a line that should be a straight line in real space.

本発明では、二次元画像から三次元画像を算出する三次元画像処理装置であって、二次元画像を読み込む画像読込手段と、読み込んだ二次元画像を表示した上で、操作入力を受け付けて同画像上に三次元の基準となる位置を指定する基準位置指定手段と、三次元の実空間と二次元の像空間との間の変換関係を取得する変換関係取得手段と、表示画像上で、操作入力を受け付けて対象物の表面の境界の形状を、各セグメントごとに各セグメントの形状に対応した数の離散的な点位置で指定するトレース手段と、操作入力を受け付けて高さの値を取得する高さ値取得手段と、各セグメントごとに指定された離散的な点位置とその数に基づいて、当該区分全体の三次元での位置情報を算出して上記境界を特定する境界特定手段と、高さの値と、算出された各セグメントの境界の位置情報と、上記変換関係とに基づいて対象物の三次元モデルを算出する三次元モデル再構築手段とを具備する構成としてある。   The present invention is a three-dimensional image processing apparatus for calculating a three-dimensional image from a two-dimensional image, the image reading means for reading the two-dimensional image, and displaying the read two-dimensional image, receiving the operation input and the same. On the display image, a reference position specifying means for specifying a position serving as a three-dimensional reference on the image, a conversion relation acquiring means for acquiring a conversion relation between the three-dimensional real space and the two-dimensional image space, Tracing means that accepts operation input and specifies the shape of the boundary of the surface of the object for each segment by the number of discrete point positions corresponding to the shape of each segment, and accepts operation input and sets the height value Height value acquisition means to be acquired, and boundary specification means for specifying the boundary by calculating the three-dimensional position information of the entire section based on the discrete point positions designated for each segment and the number thereof And the height value and calculation The position information of the boundary of each segment, it is constituted comprising a three-dimensional model reconstruction means for calculating the three-dimensional model of the object based on the above conversion relationship.

上記構成において、画像読込手段が、二次元画像を読み込むと、基準位置指定手段は読み込んだ二次元画像を表示した上で、操作入力を受け付けて同画像上に三次元の基準となる位置を指定し、変換関係取得手段が三次元の実空間と二次元の像空間との間の変換関係を取得する。次に、トレース手段が、表示画像上で、操作入力を受け付けて対象物の表面の境界の形状を、各セグメントごとに各セグメントの形状に対応した数の離散的な点位置で指定するとともに、高さ値取得手段は、操作入力を受け付けて高さの値を取得する。この結果、境界特定手段が各セグメントごとに指定された離散的な点位置とその数に基づいて、当該区分全体の三次元での位置情報を算出して上記境界を特定すると、三次元モデル再構築手段が、高さの値と、算出された各セグメントの境界の位置情報と、上記変換関係とに基づいて対象物の三次元モデルを算出する。   In the above configuration, when the image reading means reads a two-dimensional image, the reference position specifying means displays the read two-dimensional image, receives an operation input, and designates a three-dimensional reference position on the image. Then, the conversion relationship acquisition means acquires the conversion relationship between the three-dimensional real space and the two-dimensional image space. Next, the tracing means accepts an operation input on the display image and designates the shape of the boundary of the surface of the object with the number of discrete point positions corresponding to the shape of each segment for each segment, The height value acquisition means receives an operation input and acquires a height value. As a result, when the boundary specifying unit calculates the three-dimensional position information of the entire segment based on the discrete point positions and the number of points specified for each segment and specifies the boundary, the three-dimensional model is restored. The construction means calculates a three-dimensional model of the object based on the height value, the calculated position information of the boundary of each segment, and the conversion relationship.

このように、対象物の三次元モデルを算出する手法は必ずしも実体のある装置に限られる必要はなく、その方法としても機能することは容易に理解でき、その方法としても有効であることに相違はない。
ところで、このような三次元画像処理装置は単独で存在する場合もあるし、ある機器に組み込まれた状態で利用されることもあるなど、発明の思想としてはこれに限らず、各種の態様を含むものである。従って、ソフトウェアであったりハードウェアであったりするなど、適宜、変更可能である。
As described above, the method for calculating the three-dimensional model of the object is not necessarily limited to an actual apparatus, and it can be easily understood that the method functions, and the method is also effective. There is no.
By the way, such a three-dimensional image processing apparatus may exist alone, or may be used in a state of being incorporated in a certain device. Is included. Therefore, it can be changed as appropriate, such as software or hardware.

発明の思想の具現化例として三次元画像処理装置のソフトウェアとなる場合には、かかるソフトウェアを記録した記録媒体上においても当然に存在し、利用されるといわざるをえない。
むろん、その記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。また、一次複製品、二次複製品などの複製段階については全く問う余地無く同等である。その他、供給方法として通信回線を利用して行なう場合でも本発明が利用されていることにはかわりない。
When the software of the three-dimensional image processing apparatus is implemented as an embodiment of the idea of the invention, it naturally exists on a recording medium on which such software is recorded, and it must be used.
Of course, the recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium that will be developed in the future. In addition, the duplication stages such as the primary duplication product and the secondary duplication product are equivalent without any question. In addition, even when the communication method is used as a supply method, the present invention is not changed.

さらに、一部がソフトウェアであって、一部がハードウェアで実現されている場合においても発明の思想において全く異なるものではなく、一部を記録媒体上に記憶しておいて必要に応じて適宜読み込まれるような形態のものとしてあってもよい。
本発明をソフトウェアで実現する場合、ハードウェアやオペレーティングシステムを利用する構成とすることも可能であるし、これらと切り離して実現することもできる。例えば、各種の演算処理といっても、その実現方法はオペレーティングシステムにおける所定の関数を呼び出して処理することも可能であれば、このような関数を呼び出すことなくハードウェアから入力することも可能である。そして、実際にはオペレーティングシステムの介在のもとで実現するとしても、プログラムが媒体に記録されて流通される過程においては、このプログラムだけで本発明を実施できるものと理解することができる。
Further, even when a part is software and a part is realized by hardware, the idea of the invention is not completely different, and a part is stored on a recording medium and is appropriately changed as necessary. It may be in the form of being read.
When the present invention is realized by software, a configuration using hardware or an operating system may be used, or may be realized separately from these. For example, even if it is a variety of arithmetic processing, if it can be processed by calling a predetermined function in the operating system, it can also be input from hardware without calling such a function. is there. It can be understood that the present invention can be implemented only by this program in the process in which the program is recorded on the medium and distributed even though it is actually realized under the intervention of the operating system.

また、本発明をソフトウェアで実施する場合、発明がプログラムを記録した媒体として実現されるのみならず、本発明がプログラム自体として実現されるのは当然であり、プログラム自体も本発明に含まれる。   When the present invention is implemented by software, the present invention is not only realized as a medium storing a program, but the present invention is naturally realized as a program itself, and the program itself is also included in the present invention.

本発明は、非傾斜の天面と底面からなる多種多様なオブジェクトの詳細なモデルを得るため、ユーザーが迅速かつ容易に映像の中の境界線をトレースする新規な方法を提供することができ、この技術では、曲がっていたり中空とされた部品を有するオブジェクトもモデル化することができる。
また、本発明によれば、二次元化された画像情報から三次元下において互いに直交する平行線の交差点と、三次元像の起点と高さと外縁点を用いて二次元画像から三次元画像を算出することができる。
The present invention can provide a novel method for a user to quickly and easily trace a boundary line in a video in order to obtain a detailed model of a wide variety of objects consisting of a non-tilted top and bottom surface, In this technique, an object having a bent or hollow part can also be modeled.
Further, according to the present invention, a three-dimensional image can be converted from a two-dimensional image using the intersection of parallel lines orthogonal to each other in three dimensions from the two-dimensional image information, and the origin, height and outer edge of the three-dimensional image. Can be calculated.

システムの構成要素図である。It is a component diagram of a system. プロセッシングソフトウェアのフローチャートである。It is a flowchart of processing software. 二次元画像上に三次元の基準となる位置を指定する図である。It is a figure which designates the position used as a three-dimensional reference on a two-dimensional image. ユニークな一つの円を決定する図である。It is a figure which determines one unique circle. 補間状況を示す図である。It is a figure which shows the interpolation condition. フィッティングプロセスが実行される図である。FIG. 10 is a diagram in which a fitting process is performed. フィッティングプロセスが実行される図である。FIG. 10 is a diagram in which a fitting process is performed. ネガティブトレースが使われる例を示す図である。It is a figure which shows the example in which a negative trace is used. ネガティブトレースが使われる例を示す図である。It is a figure which shows the example in which a negative trace is used. ネガティブトレースが使用されるもう一つの例を示す図である。It is a figure which shows another example in which a negative trace is used. ネガティブトレースが使用されるもう一つの例を示す図である。It is a figure which shows another example in which a negative trace is used. ラジアルディストーションの影響を示す図である。It is a figure which shows the influence of radial distortion. ラジアルディストーションのためにカーブされる状況を示す図である。It is a figure which shows the situation curved for radial distortion. 正しい方向のエッジピクセルだけが残る状況を示す図である。It is a figure which shows the condition where only the edge pixel of a right direction remains. セグメント内領域と指示された領域を示す図である。It is a figure which shows the area | region designated as the area | region in a segment. セグメント内領域と指示された領域を示す図である。It is a figure which shows the area | region designated as the area | region in a segment.

以下、下記の順序に従って添付図面にもとづいて本発明の実施形態を説明する。
図1は、システムの構成要素図である。
三次元オブジェクト再構築ステップは、処理装置(例えばコンピューター)にあるプロセッシングソフトウェアプログラムによって実行される。
ユーザーは、一つの映像と、その映像の外周(適用しえるならば、同オブジェクトにおける天面の内側)の境界をトレースすることとなる一セットの点を供給する。その一セットの点がトレースされる様子は、後で更に詳述する。
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings in the following order.
FIG. 1 is a component diagram of the system.
The three-dimensional object reconstruction step is executed by a processing software program in a processing device (for example, a computer).
The user supplies a video and a set of points that will trace the boundaries of the video's perimeter (if applicable, inside the top of the object). The manner in which the set of points is traced will be described in more detail later.

プロセッシングソフトウェアは対象物(オブジェクト)の再構築された三次元モデルを作り出す。それは、各種のロボット工学、モデリングまたはエンターテイメント・アプリケーションででも使われることができる。
プロセッシングソフトウェア1は、トレースアンドポイントマネージャ2と、三次元モデルジェネレータ3と、テクスチャマネージャ4とを備える。トレースアンドポイントマネージャ2は、ユーザーによって入力されるトレースと点を管理する。三次元モデルジェネレータ3は、与えられたトレースと点と高さから三次元モデルを作り上げる。テクスチャマネージャ4は、三次元モデルの各々の表面のために記録されているテクスチャを管理する。
Processing software creates a reconstructed three-dimensional model of the object. It can also be used in various robotics, modeling or entertainment applications.
The processing software 1 includes a trace and point manager 2, a 3D model generator 3, and a texture manager 4. The trace and point manager 2 manages traces and points input by the user. The three-dimensional model generator 3 creates a three-dimensional model from given traces, points, and heights. The texture manager 4 manages the textures recorded for each surface of the 3D model.

図2は、プロセッシングソフトウェアの中に存在するアルゴリズムのフローチャートを表す。
各々のステップについて詳述する前に、オブジェクトモデルプロセスの一般的な概略を説明する。
最初に、映像はプロセッシングソフトウェアプログラム(イメージロード)に取り込まれる(ステップ1)。次に、ユーザーは、キャリブレーションのために、同映像に関して空間座標を定義する必要がある(ステップ2)。
それから、オプションとして、ラジアルディストーション修正を行ってもよい(オプションとしてのラジアルディストーション修正)(ステップ3)。空間座標の情報によって、ユーザーが映像位置と実空間における高さの値を特定したときに、実空間における絶対的な三次元位置が計算できるようになる。
FIG. 2 represents a flowchart of the algorithm that exists in the processing software.
Before describing each step in detail, a general outline of the object model process will be described.
Initially, the video is captured in a processing software program (image load) (step 1). Next, the user needs to define spatial coordinates for the same image for calibration (step 2).
Then, as an option, radial distortion correction may be performed (optional radial distortion correction) (step 3). The spatial coordinate information allows the absolute three-dimensional position in the real space to be calculated when the user specifies the video position and the height value in the real space.

次に、ユーザーは、その映像であるオブジェクトの内部あるいは外周の境界線をトレースする(表面の境界をトレース)(ステップ4)。また、トレースの位置はオプションとして画像情報に基づいて自動的に調整されるようにしてもよい(オプションとしての自動ポイント調整)(ステップ5)。トレースに基づき、プロセッシングソフトウェアは、高さ値を使用しつつ、その境界線の三次元モデルを自動的に再構築する(三次元モデルの構築)(ステップ6)。ユーザーがより多くの境界をトレースしたい(より多くのトレースが必要か?)ならば、追跡ステップは繰り返される(ステップ7)。   Next, the user traces the boundary line inside or around the object that is the image (traces the boundary of the surface) (step 4). Further, the position of the trace may be automatically adjusted based on the image information as an option (automatic point adjustment as an option) (step 5). Based on the trace, the processing software automatically reconstructs the 3D model of the boundary line using the height value (construction of 3D model) (step 6). If the user wants to trace more boundaries (does more traces be needed?), The tracking step is repeated (step 7).

一旦、すべての境界がトレースできたら、視認可能な各面のテクスチャを映像から取得する(ステップ8)。
それから、モデルをリファインするため、あるいは以前は見えていなかったオブジェクトの部品の外観を得るため、任意的にユーザーは異なる視野からのオブジェクトのより多くの映像を取り込む(ステップ9)。追加の各映像のため、ユーザーは再びキャリブレーションを行う必要がある(ステップ10)。
Once all the boundaries have been traced, the texture of each visible surface is acquired from the video (step 8).
Then, in order to refine the model, or to obtain the appearance of parts of the object that were not previously visible, the user optionally captures more images of the object from different fields of view (step 9). For each additional video, the user needs to recalibrate (step 10).

また、オプション的にラジアルディストーションを修正し(オプションとしてのラジアルディストーション修正)(ステップ11)、画像情報に基づいて自動的にトレースポジションを調整し(オプションとしての自動ポイント調整)(ステップ12)してもよい。
そして、既存のモデルは現在の視野(追加のモデル修正)(ステップ13)から修正され、現在の映像で視認できる各面のテクスチャを取得する(ステップ14)。なお、追加のモデル修正では、先の映像で視認できる境界に加えて、新たな視野に対応する映像から新たな境界を加えることも可能である。このようにして新たな境界が生じてくるときには、ステップ6の三次元モデルの構築を実行しても良い。
In addition, the radial distortion is optionally corrected (radial distortion correction as an option) (step 11), and the trace position is automatically adjusted based on the image information (automatic point adjustment as an option) (step 12). Also good.
Then, the existing model is corrected from the current visual field (additional model correction) (step 13), and the texture of each surface visible in the current video is acquired (step 14). In addition, in the additional model modification, it is possible to add a new boundary from an image corresponding to a new visual field in addition to the boundary that can be visually recognized in the previous image. When a new boundary is generated in this way, the construction of the three-dimensional model in step 6 may be executed.

以下、各々のステップの詳細を説明する。
まず、(表1)に、本明細書にて使用されるパラメータのリストを示す。

Figure 2011138267
Details of each step will be described below.
First, (Table 1) shows a list of parameters used in this specification.
Figure 2011138267

ステップ1にて、映像を取り込んだ後、ステップ2で、カメラキャリブレーションが行われる。ここで、ステップ1は画像読込手段に相当し、ステップ2は基準位置指定手段に相当する。
これは映像の中で二つのセットからなる平行な線分(実空間においては、各セットの線分はもう一方のセットの線分に対して垂直)を特定することによって行われる。これは映像に反映される空間での原点と同様である。すなわち、各々の線分が2つの終点から成るので、4本の線と原点の位置を定めることであり、合計9ポイントに対して二次元位置座標を提供することになる。このように、二対の互いに平行な線分であって各対は互いに直交する線分の指定と、原点とで、三次元の基準となる位置を指定している。
After capturing the video in step 1, camera calibration is performed in step 2. Here, Step 1 corresponds to image reading means, and Step 2 corresponds to reference position specifying means.
This is done by identifying two sets of parallel line segments in the image (in real space, each set line segment is perpendicular to the other set line segment). This is the same as the origin in the space reflected in the video. That is, since each line segment consists of two end points, the positions of four lines and the origin are determined, and two-dimensional position coordinates are provided for a total of nine points. As described above, two pairs of parallel line segments, and each pair designates a position serving as a three-dimensional reference by designating a line segment orthogonal to each other and the origin.

これらの値に基づき、縮尺に依存しつつ、プロセッシングソフトウェアは実空間から像空間に対する射影行列を計算する。
図3は、映像上に三次元の基準となる位置を指定するプロセスを示す図である。
波線Rと波線Gの四角いタグは2セットの線分(合計4本の線分)の終点を表す。そして、実線の丸いタグは像空間に反映されるときの原点の位置を表す。それからプロセッシングソフトウェアは像空間(それぞれ実線G、実線B、実線Rで示す)に反映されるときのX、Y、Z軸を自動的に計算する。
Based on these values, the processing software calculates a projection matrix for the image space from the real space, depending on the scale.
FIG. 3 is a diagram illustrating a process of designating a position serving as a three-dimensional reference on the video.
The square tags of the wavy line R and the wavy line G represent the end points of two sets of line segments (a total of four line segments). The round tag with a solid line represents the position of the origin when reflected in the image space. The processing software then automatically calculates the X, Y, and Z axes as reflected in the image space (shown as solid line G, solid line B, and solid line R, respectively).

本実施例における、ステップ2のキャリブレーションの数学的フレームワークは以下のようになっている。なお、以下において三次元の実空間と二次元の像空間との間の変換関係を求めており、これは変換関係取得手段に相当する。
ピンホールカメラモデルにおいては、三次元空間の点は式(1)に示す3x4要素のカメラ射影行列Pを介して映像である二次元の点に(共に同次座標表現で)マップ(取得され貼り付け)される。ここで、Pは自由度が11度からなる射影行列であり、式(2)に示す内部カメラ行列(Kの部分)と外部カメラ行列([R T]の部分)とに分解されることができる。
In this embodiment, the mathematical framework for the calibration in step 2 is as follows. In the following, a conversion relationship between a three-dimensional real space and a two-dimensional image space is obtained, which corresponds to a conversion relationship acquisition unit.
In the pinhole camera model, a point in 3D space is mapped (acquired and pasted together) to a 2D point that is an image via the 3x4 element camera projection matrix P shown in Equation (1). Attached). Here, P is a projection matrix having 11 degrees of freedom, and can be decomposed into an internal camera matrix (K portion) and an external camera matrix ([RT] portion) shown in Equation (2). .

RとTは、それぞれ3x3要素の回転行列と3x1要素の並進ベクトルである。Kは式(3)で示すように3x3要素のカメラ固有行列である。そして、αu、αvは焦点距離とピクセルの正方性に関連し、sはスキューパラメータである、そして、x0 =(u0、v0)は映像の原則点である。
ここでは、映像のピクセルは四角いと仮定している。つまり、αu =αv =αが成立する。さらに、映像の中にはゆがみがないためs = 0とし、原則点x0は映像の中央に位置する。
R and T are a 3x3 element rotation matrix and a 3x1 element translation vector, respectively. K is a 3 × 3 camera eigenmatrix as shown in Equation (3). Αu and αv are related to focal length and pixel squareness, s is a skew parameter, and x0 = (u0, v0) is a principle point of the image.
Here, it is assumed that the pixels of the image are square. That is, αu = αv = α is established. Further, since there is no distortion in the video, s = 0 is set, and in principle, the point x0 is located at the center of the video.

Figure 2011138267


Figure 2011138267


Figure 2011138267


このフレームワークでは、ユーザーが映像中に原点と2つのセットの二対の線分を供給することで、カメラパラメータ(K、R、T)は縮尺に依存して解くことができる。ここで、各々のセットの2本の線分は互いに平行であり、2つのセットの線分は相互に垂直である。各々の線分は2点で表されるので、合計9ポイントがユーザーによって供給される必要がある。2セットの平行線から、各々のセットの消点を計算することができる。
Figure 2011138267


Figure 2011138267


Figure 2011138267


In this framework, the camera parameters (K, R, T) can be solved depending on the scale by the user supplying the origin and two sets of two line segments in the video. Here, the two lines of each set are parallel to each other, and the lines of the two sets are perpendicular to each other. Since each line segment is represented by 2 points, a total of 9 points need to be supplied by the user. From two sets of parallel lines, the vanishing point of each set can be calculated.

各々のセットの消点は、それぞれのセットの2本の線分の交差点である。これらの2つの消点をx1 =(u1、v1)とx2 =(u2、v2)と定義する。これらの2ポイントと映像主点x0 =(u0、v0)とから、第3の消点x3 =(u3、v3)が決定される。なぜなら、映像主点x0は、x1、x2とx3によってつくられる三角形の垂心に位置するからである。
まず、映像主点は、x1、x2とx3によってつくられる三角形の垂心であることが証明されている。3つの直角方向の各々における無限遠の点を考慮すると、式(1)に示す式は式(4)に示すものとなる。そこから、回転行列は式(5)に示すように推論されることができる。
The vanishing point of each set is the intersection of the two line segments of each set. These two vanishing points are defined as x1 = (u1, v1) and x2 = (u2, v2). From these two points and the video principal point x0 = (u0, v0), a third vanishing point x3 = (u3, v3) is determined. This is because the video principal point x0 is located at the centroid of the triangle formed by x1, x2 and x3.
First, it has been proved that the image principal point is a triangular vertice made by x1, x2 and x3. Considering the point at infinity in each of the three perpendicular directions, the equation shown in equation (1) is shown in equation (4). From there, the rotation matrix can be inferred as shown in equation (5).

Figure 2011138267

Figure 2011138267

回転行列の列要素は相互に直角であり、λi≠0(i = 1,2,3)なので、式(6)に示す式のとおりとなり、また、これらの式でαを消去すると式(7)に示す式となる。
Figure 2011138267

Figure 2011138267

この式のセットから、映像主点x0は、x1、x2とx3によってつくられる三角形の垂心であるということが証明される。第3の消点x3の位置を見つけるため、式(7)の中の最初の2つの式が使われる。
いくつかの単純な代数操作で、式(8)に示される式は演繹され、それから(u3、v3)の値が決められる。
Figure 2011138267

Figure 2011138267

Since the column elements of the rotation matrix are perpendicular to each other and λi ≠ 0 (i = 1, 2, 3), the equation is as shown in equation (6), and when α is eliminated in these equations, equation (7 ).
Figure 2011138267

Figure 2011138267

From this set of equations, it is proved that the video principal point x0 is a triangular centroid created by x1, x2 and x3. To find the position of the third vanishing point x3, the first two equations in equation (7) are used.
With some simple algebraic operations, the equation shown in equation (8) is deduced, and then the value of (u3, v3) is determined.

Figure 2011138267

固有行列に残された最後のパラメータは焦点距離である。式(6)に示す3つの式のいずれかを使い、焦点距離を解くことができる。
たとえば最初の式を用いて、式(9)で示すように焦点距離を解くことができる。
Figure 2011138267


つぎに、外部カメラ行列を解くことができる。回転行列の直行性と正規性を適用して、式(5)に示す制約は式(10)に示すように表すことができる。そして、それは式(11)に示すように解くことができる。以上で、回転行列は解かれる。
Figure 2011138267

The last parameter left in the eigenmatrix is the focal length. The focal length can be solved using any of the three formulas shown in formula (6).
For example, using the first equation, the focal length can be solved as shown in equation (9).
Figure 2011138267


Next, the external camera matrix can be solved. Applying the orthogonality and normality of the rotation matrix, the constraint shown in Equation (5) can be expressed as shown in Equation (10). And it can be solved as shown in equation (11). Thus, the rotation matrix is solved.

Figure 2011138267

Figure 2011138267

外部カメラ行列の並進ベクトルを発見するために、映像における原点が使用される。
原点の射影は、式(12)で示すように表すことができる。
Figure 2011138267

ここにおいて、これはλ0における自由度の一つである。このパラメータは原点から離れたカメラの並進に直接関連するものであるから、それは映像におけるピクセル対メーターの縮尺としての働きをする。事実、λ0の値が大きなものであるほど、カメラはより原点から離れ、その場面におけるオブジェクトはその映像上により小さく射影されることになる。この縮尺要素は、ある一つの線分(2つの終点を指定する)を映像に引き、実空間におけるその線分の実際の長さを特定することによって得ることができる。この縮尺値により、射影行列は1つのみとなる。
Figure 2011138267

Figure 2011138267

The origin in the video is used to find the translation vector of the external camera matrix.
The projection of the origin can be expressed as shown in equation (12).
Figure 2011138267

Here, this is one of the degrees of freedom at λ0. Since this parameter is directly related to the translation of the camera away from the origin, it serves as a pixel-to-meter scale in the image. In fact, the larger the value of λ0, the further the camera is from the origin, and the object in the scene will be projected smaller on the video. This scale element can be obtained by drawing a certain line segment (designating two end points) on the image and specifying the actual length of the line segment in real space. With this scale value, there is only one projection matrix.

ステップ3のラジアルディストーション修正については後述する。
次のステップ4では、オブジェクトの天面の外側あるいは内部の境界線に沿ってユーザーがトレースすることである。このトレースは、トレース手段に相当する。一つのトレースは、天面の境界線を定めるという一つの閉ループと定義される。すなわち、表示画像上で、ユーザーが行う操作入力を受け付け、対象物の表面の境界の形状を、各セグメントごとに各セグメントの形状に対応した数の離散的な点位置で指定することになる。
The radial distortion correction in step 3 will be described later.
The next step 4 is that the user traces along the boundary line outside or inside the top of the object. This trace corresponds to a tracing means. A trace is defined as a closed loop that defines the top boundary. That is, on the display image, an operation input performed by the user is received, and the shape of the boundary of the surface of the object is designated by the number of discrete point positions corresponding to the shape of each segment for each segment.

このモデルにおいては、一つのトレースは同一形状で異なるxz平面に存在する天面と底面との高さを有する所定の立体となる。そして、ユーザーは、各々のトレースに対して天面と底面の間の高さ値を指定することができる。むろん、このようにしてユーザーによる高さの値を入力する操作を受け付けることで、高さ値取得手段を構成する。この高さ値の入力もステップ4にて行っている。
オブジェクトの再構築された三次元モデルは、複数のトレースから構成されることができ、さらには、それらのトレースは異なる天面と底面の高さ値から成ることができる。
In this model, one trace is a predetermined solid having the same shape and the height of the top surface and the bottom surface existing in different xz planes. The user can then specify a height value between the top and bottom for each trace. Of course, the height value acquisition unit is configured by receiving the operation of inputting the height value by the user in this way. This height value is also input in step 4.
The reconstructed three-dimensional model of the object can consist of multiple traces, and furthermore, those traces can consist of different top and bottom height values.

一つのトレースは後に一つ以上のセグメントから成り、そして、各々のセグメントはユーザーによって提供される2つ以上の点から成り立つ。
ここで、ユーザーによって提供されることが可能な2種類の点があり、それらは、セグメント構成点、またはセグメント分割点である。なお、本明細書においては特に断りの無い限り、セグメントとセグメントとの境界に位置する点をセグメント分割点と称し、それ以外の各セグメントを構成する点をセグメント構成点と称する。
各々のセグメントは、1つか2つのセグメント分割点(トレースの最初の点は、自動的にセグメント分割点とされる)を含んでいる。1つのセグメント分割点しか含んでいなセグメントとしては、少なくとも1つのセグメント構成点がなければならない。2つのセグメント分割点を含んでいるセグメントとしては、それは0かそれ以上セグメント構成点を含んでいてもよい。言い換えると、各々のセグメントは少なくとも2点を含んでいる。
A trace will later consist of one or more segments, and each segment will consist of two or more points provided by the user.
Here, there are two types of points that can be provided by the user, which are segment composition points, or segment division points. In the present specification, unless otherwise specified, a point located at the boundary between segments is referred to as a segment division point, and points constituting other segments are referred to as segment constituent points.
Each segment includes one or two segment division points (the first point of the trace is automatically taken as the segment division point). A segment that contains only one segment division point must have at least one segment constituent point. As a segment containing two segment split points, it may contain zero or more segment constituent points. In other words, each segment contains at least two points.

セグメントの点の数に応じて、(表2)に示すように、そのセグメントのカーブ(オブジェクトの上面に沿う)は、自動的に異なる方法で区分毎に補間される。
2点を含んでいるセグメントに対しては、そのセグメントは直線によって表現される。3点を含んでいるセグメントに対しては、その3点を通過する円がフィットされる。そして、その円に沿うさらなる点は2つのセグメント分割点の間に自動的に補間される。同様に、4点を含んでいるセグメントに対しては、軸平行楕円がフィットされる。5点を含んでいるセグメントに対しては、一般楕円がフィットされる。セグメントの点の数が5点を超えるケースでは、このフィッティングシステムは過剰決定体系となる。つまり条件が未知数よりも多い。この場合、線形最小二乗法が一般楕円をフィットさせるのに使用される。
Depending on the number of points in the segment, as shown in Table 2, the curve of that segment (along the top surface of the object) is automatically interpolated for each segment in a different way.
For a segment containing two points, the segment is represented by a straight line. For a segment containing three points, a circle passing through the three points is fitted. Further points along the circle are then automatically interpolated between the two segment division points. Similarly, an axis parallel ellipse is fitted to a segment containing 4 points. For segments containing 5 points, a general ellipse is fitted. In cases where the number of segment points exceeds 5, this fitting system is an overdetermined system. In other words, there are more conditions than unknowns. In this case, the linear least squares method is used to fit the general ellipse.

Figure 2011138267
特に、同一直線上にない3つの点があれば、(表3)に示すように使われているパラメータを使い、図4で示すようにユニークな一つの円が決定されることができる。その3点から、点P1と点P2、点P2と点P3とを結ぶことによって2本の線(laとlb)が引かれることができる。続いて、laとlbに直角で、それぞれの中間を通過する線(la'とlb')ができる。la'とlb'の方程式を、式(13)に示している。
Figure 2011138267
In particular, if there are three points that are not on the same straight line, a unique circle as shown in FIG. 4 can be determined using the parameters used as shown in (Table 3). Two lines (la and lb) can be drawn from the three points by connecting the points P1 and P2 and the points P2 and P3. Subsequently, there is a line (la 'and lb') that is perpendicular to la and lb and passes between each. The equation for la ′ and lb ′ is shown in equation (13).

円の中心は、la'とlb'との交点であり、式(14)に示されるαとβの方程式を解くことになり、式(13)に示す方程式へとその値を置き換えることになる。
円の半径は、中心からP1、P2またはP3の3点のいずれかまでの距離である。

Figure 2011138267
Figure 2011138267

Figure 2011138267

4つの点は式(14)に示される形の軸平行楕円の方程式を一義的に定める。その楕円は中心(x0、y0)とし、それぞれxとy軸に沿った半径aとbとなっている。 The center of the circle is the intersection of la ′ and lb ′, which solves the equation of α and β shown in equation (14) and replaces that value with the equation shown in equation (13). .
The radius of the circle is the distance from the center to any of the three points P1, P2 or P3.
Figure 2011138267
Figure 2011138267

Figure 2011138267

The four points uniquely define the equation of the axis parallel ellipse having the form shown in the equation (14). The ellipse has a center (x0, y0) and radii a and b along the x and y axes, respectively.

楕円のパラメータを解くには、4つの方程式(Fの値は、恣意的に-1とする)の4つの未知数により、式(16)に示される分析フォームを解くことになる。幾何学的な解析により、楕円の特性は、式(17)で示すように得られることができる。

Figure 2011138267

Figure 2011138267

Figure 2011138267

5点あるいはそれ以上の点については、式(18)で示すように分析的フォームによって記述される一般楕円が適合する。ちょうど5点の場合は、楕円の方程式が一義的に決定される。5点以上の場合は、このシステムは過剰決定体系となり、少なくとも最小二乗法で近似的に楕円を決めることができる。 To solve the ellipse parameters, the analysis form shown in Equation (16) is solved by four unknowns of four equations (the value of F is arbitrarily set to -1). By geometric analysis, the characteristic of the ellipse can be obtained as shown in equation (17).
Figure 2011138267

Figure 2011138267

Figure 2011138267

For five or more points, the general ellipse described by the analytical form fits as shown in equation (18). In the case of exactly 5 points, the elliptic equation is uniquely determined. In the case of 5 points or more, this system becomes an overdetermined system, and an ellipse can be approximately determined by at least the least square method.

幾何学的な解析によれば、楕円の中心(x0、y0)は、式(19)で示すように計算される。
この場合、長軸と短軸の長さと楕円の傾きは計算されない。中心(x0、y0)からの特定の角度での楕円上の点の位置を得るため、方程式の分析的フォームが使用される。一般楕円、軸平行楕円と円のケースにとって、少なくとも3点が一つの直線上にあるようなときには、一義的な解が存在しないかもしれない。その場合、一般楕円、軸平行楕円、円、直線の順番により、このようなカーブの算定が成功するまで次の形へと続けられる(始点から終点までの直線としての当てはめは、常に成功するはずである)。
According to the geometric analysis, the center (x0, y0) of the ellipse is calculated as shown in equation (19).
In this case, the lengths of the major and minor axes and the inclination of the ellipse are not calculated. An analytical form of the equation is used to obtain the position of the point on the ellipse at a particular angle from the center (x0, y0). For the general ellipse, the axis parallel ellipse and the circle case, when at least three points are on one straight line, a unique solution may not exist. In that case, the order of general ellipse, axis parallel ellipse, circle, and straight line will continue to the next shape until such a curve is calculated successfully (the fitting as a straight line from the start point to the end point should always succeed) Is).

Figure 2011138267

Figure 2011138267

カーブを直線として表すのであれば、補間法は必要とされない。そのセグメントは、単に2つのセグメント分割点によって表現される。円、軸平行楕円、一般楕円の場合では、補間法は必要とされる。
図5で示すように、補間点の数nはまず式(20)に示される方程式によって計算される。そこでは、始点角度θsと終点角度θeは適切な角度(2πを加えるか、引くことによって)となっている。それから、n個の点が、始点角度θsと終点角度θeとの間で等間隔となるようにして補間される。2つの終点がデフォルトで存在するので、そのセグメントは結局、(n+2)点を持っていることになる。
Figure 2011138267

Figure 2011138267

If the curve is represented as a straight line, no interpolation method is required. The segment is simply represented by two segment division points. In the case of a circle, an axis parallel ellipse, or a general ellipse, an interpolation method is required.
As shown in FIG. 5, the number n of interpolation points is first calculated by the equation shown in equation (20). There, the start point angle θs and the end point angle θe are appropriate angles (by adding or subtracting 2π). Then, n points are interpolated so as to be equidistant between the start point angle θs and the end point angle θe. Since there are two endpoints by default, the segment will eventually have (n + 2) points.

Figure 2011138267

図6と図7は、このフィッティングプロセスが実行される例を示している。なお、このフィッティングプロセスは、各セグメントごとに指定された離散的な点位置とその数に基づいて、当該区分全体の三次元での位置情報を算出して上記境界を特定する処理に相当し、境界特定手段を構成する。図6において、セグメント構成点、またはセグメント分割点は、それぞれ一点鎖線の十字と二点鎖線の十字で示されている。
セグメント1、3と5は、各々5点から成る。その結果、一般楕円が適合され、中間点は自動的に補間される。これらの補間された点は、天面から底面まで引かれている垂直の破線で示されている。
Figure 2011138267

6 and 7 show an example in which this fitting process is executed. Note that this fitting process corresponds to a process of calculating the three-dimensional position information of the entire section and specifying the boundary based on the discrete point positions designated for each segment and the number thereof, The boundary specifying means is configured. In FIG. 6, segment constituent points or segment division points are indicated by alternate long and short dash lines.
Segments 1, 3 and 5 each consist of 5 points. As a result, the general ellipse is fitted and the midpoint is automatically interpolated. These interpolated points are shown as vertical dashed lines drawn from the top to the bottom.

他方、セグメント2は、4点だけを含むので、軸平行楕円が適合され、いくつかの点が補間される。
最後に、セグメント4は3点から成るので、これらの点を通る円が適合される。
このように、各セグメントの形状と離散的な点位置の数との対応として、直線は2点、円は3点、軸平行楕円は4点、一般楕円は5点以上としている。
トレースは、2つのタイプのうちの1つであり、それらは、ポジティブかネガティブである。ポジティブトレースは三次元モデルにボリューム加えるものであり、これに対してネガティブトレースは三次元モデルからボリュームを引くものである(たとえば、空洞を形成するときのように)。すなわち、対象物の表面の境界の指定は、中実形状の境界の指定と、中空形状の境界の指定とを含んでいる。そして、ステップ6で、中実形状の算出処理と、中空形状の算出処理とを実行し、両者の合体結果で三次元モデルを再構築する。ステップ6は、三次元モデル再構築手段に相当する。なお、ステップ13の追加のモデル修正によって三次元モデルを再構築する必要が生じたときに行う場合も三次元モデル再構築手段に相当する。
On the other hand, since segment 2 contains only 4 points, the axis parallel ellipse is fitted and some points are interpolated.
Finally, since segment 4 consists of 3 points, the circles through these points are fitted.
Thus, as the correspondence between the shape of each segment and the number of discrete point positions, the straight line has two points, the circle has three points, the axis parallel ellipse has four points, and the general ellipse has five points or more.
Traces are one of two types and they are positive or negative. Positive traces add volume to the three-dimensional model, whereas negative traces subtract volume from the three-dimensional model (eg, when forming a cavity). That is, the designation of the boundary of the surface of the object includes designation of a solid shape boundary and designation of a hollow shape boundary. Then, in step 6, a solid shape calculation process and a hollow shape calculation process are executed, and a three-dimensional model is reconstructed with the combined result of both. Step 6 corresponds to a three-dimensional model reconstruction unit. The case where it is necessary to reconstruct the three-dimensional model due to the additional model modification in step 13 corresponds to the three-dimensional model restructuring means.

ユーザーの操作としては、ポジティブトレースは反時計回りの方法で点を捜し出すことによって達成され、そして、ネガティブトレースは時計回りの方法で点を捜し出すことによって達成される。
図8と図9は、ネガティブトレースが使われる例を示している。
図8において、一点鎖線のトレースは、ポジティブトレースであり、それはオブジェクトの外側の境界線に沿ってたどっている。他方、二点鎖線のトレースは、ネガティブトレースであり、それはオブジェクトの内部の境界線に沿ってトレースされている。2、3、4または5点を含んでいるセグメントは、2つのトレースのどちらででも見つけられることができる。
As a user operation, positive tracing is achieved by searching for points in a counterclockwise manner, and negative tracing is accomplished by searching for points in a clockwise manner.
8 and 9 show examples in which a negative trace is used.
In FIG. 8, the alternate long and short dash line trace is a positive trace, which follows the outer boundary of the object. On the other hand, the dash-dot line trace is a negative trace, which is traced along the internal boundary of the object. A segment containing 2, 3, 4 or 5 points can be found in either of the two traces.

図10と図11は、ネガティブトレースが使用されるもう一つの例を示す。
図10において、ここでは、4つのトレースがある。外側の上のポジティブトレースと内部の上の3つのネガティブトレースである。
ネガティブトレースのうちの2つは1つのセグメント分割点を持っているだけである、しかし、それは2つの他のセグメント構成点を持っている。合計3点があるので、円がフィットされる。
現実の世界では多種多様なオブジェクトが左右対称であるので、ユーザーによって指定された時点で、ユーザーによって指定された点は特定の軸に沿って裏返すことにより自動的に発生することができる。このように、再構築された三次元モデルは、ユーザーによってマニュアルで点の位置を修正させることなく、その左右対称性を維持することが保証される。
10 and 11 show another example in which a negative trace is used.
In FIG. 10, there are four traces here. A positive trace on the outside and three negative traces on the inside.
Two of the negative traces have only one segment split point, but it has two other segment constituent points. Since there are a total of 3 points, the circle is fitted.
Since a wide variety of objects are symmetrical in the real world, at a point specified by the user, the point specified by the user can be automatically generated by flipping along a specific axis. In this way, the reconstructed three-dimensional model is guaranteed to maintain its left-right symmetry without manually correcting the position of the points by the user.

このように、ユーザーによる操作入力を受け付けると、指定された点位置を特定の軸に沿って裏返すことにより、左右対称性を維持した点位置を自動的に発生している。
上に示す3つの例では、オブジェクト全体が対称形であるか、少なくともオブジェクトの一部は対称形である。この特徴は、ユーザーが慎重に対称な位置に映像の点を置いていなければならないという単調で退屈な作業をシンプル化させる。
次に、このプロセスソフトウェアプログラムは、トレースを加えたり、取り除くだけでなく、ユーザーが点を加えたり、修正したり、取り除くことができる。ユーザーは後の時点で天面と底面の高さ値を変えることもできる、そして、すべての点の位置が再評価される。
As described above, when an operation input by the user is received, a point position that maintains left-right symmetry is automatically generated by turning over the designated point position along a specific axis.
In the three examples shown above, the entire object is symmetrical, or at least a portion of the object is symmetrical. This feature simplifies the tedious and tedious task of requiring the user to carefully place video points at symmetrical positions.
The process software program can then not only add and remove traces, but also the user can add, modify and remove points. The user can also change the height value of the top and bottom at a later time, and the position of all points is re-evaluated.

ステップ7で繰り返しの判断を行い、すべてのトレースが加えられたあと、ステップ6でオブジェクトの三次元モデルの再構築をして完了する。すなわち、高さの値と、算出された各セグメントの境界の位置情報と、上記変換関係とに基づいて対象物の立体モデルを算出する。
次のステップ8は、モデルのテクスチャを取得することである。映像の中の視認できる面のため、各面のテクスチャが映像からマップされる。この過程が、三次元モデルを算出する際の各面の位置情報に基づいて、二次元画像からテクスチャを取得し、上記三次元モデルの各面に貼り付けるテクスチャ貼り付け手段に相当する。なお、ステップ11(ラジアルディストーション修正)、ステップ12(自動ポイント調整)、ステップ13(追加のモデル修正)を実行することにより、境界の位置情報が修正されることになる。従って、修正された境界情報に対応したテクスチャを取得して所定の面に貼り付ける必要がある。この意味で、境界の位置情報が修正されたときに、再度、テクスチャを取得して貼り付けるステップ14もテクスチャ貼り付け手段に相当する。
In step 7, iterative determination is made and after all traces have been added, in step 6 the 3D model of the object is reconstructed and completed. That is, a three-dimensional model of the object is calculated based on the height value, the calculated position information of the boundary of each segment, and the conversion relationship.
The next step 8 is to obtain the texture of the model. Because of the visible surfaces in the video, the texture of each surface is mapped from the video. This process corresponds to a texture pasting unit that obtains a texture from a two-dimensional image based on position information of each surface when calculating the three-dimensional model and pastes the texture on each surface of the three-dimensional model. By executing Step 11 (Radial distortion correction), Step 12 (Automatic point adjustment), and Step 13 (Additional model correction), the boundary position information is corrected. Therefore, it is necessary to obtain a texture corresponding to the corrected boundary information and paste it on a predetermined surface. In this sense, when the boundary position information is corrected, step 14 of acquiring and pasting the texture again corresponds to the texture pasting means.

もし、ステップ9にて利用できる映像がさらにあるならば(異なる視野からの同じオブジェクトにおいて)、その映像の9つの点(それぞれ互いに直交する二組の二本の線の両端と、原点)の位置を与えるキャリブレーションステップが、その新しい映像のために繰り返される(ステップ10)。また、ステップ11(およびステップ3)とステップ12(および、ステップ5)においてラジアルディストーション修正と自動ポイント調整とを行なうが、これらについては後述する。   If there are more images available in step 9 (in the same object from different fields of view), the positions of the nine points of the image (the two origins of two sets of two lines, respectively, the origin and the origin) Is repeated for the new video (step 10). In step 11 (and step 3) and step 12 (and step 5), radial distortion correction and automatic point adjustment are performed, which will be described later.

そのモデルはすでに再構築されているので、ステップ14にてテクスチャを取得して貼り付けると、自動的にその映像上に正しく投影されるはずである。
この場合、ユーザーは既存のモデルを修正するかもしれないし、以前は邪魔されていたモデルの一部についてのトレースを加えるかもしれないし、あるいは、このフレームで見える面のテクスチャを取得することができる。十分な視野があれば、そのモデル全体の各面のテクスチャを取得させることができる。
Since the model has already been reconstructed, if the texture is obtained and pasted in step 14, it should automatically be correctly projected onto the video.
In this case, the user may modify the existing model, add a trace for a part of the model that was previously disturbed, or obtain the texture of the surface visible in this frame. If there is a sufficient field of view, the texture of each surface of the entire model can be acquired.

図7、図9と、図11は、その映像で見える(視野)面にテクスチャをマッピングした三次元再構築の結果を示している。
このように、同一対象物に対する複数の異なる視野からの二次元画像を読み込み、各画像ごとに上記操作入力を受け付け、上記三次元モデルの対応する各面に貼り付けている。 ユーザーに表面の境界線をトレースさせる以外に、オブジェクトは予め定義された形(一般的な箱、一般的な錐形、および回転楕円体を含む)の組み合わせを使ってモデル化することもできる。すなわち、オブジェクトを、予め定義された形、一般的な箱、一般的な錐形、および回転楕円体との組み合わせを使ってモデル化する。
7, 9, and 11 show the results of three-dimensional reconstruction in which textures are mapped to the (viewing) plane that can be seen in the video.
In this way, two-dimensional images from a plurality of different fields of view for the same object are read, the operation input is received for each image, and is pasted on each corresponding surface of the three-dimensional model. In addition to letting the user trace the surface boundaries, the object can also be modeled using a combination of predefined shapes (including general boxes, general cones, and spheroids). That is, the object is modeled using a combination of predefined shapes, general boxes, general cones, and spheroids.

(表4)は、これらの形の各々の修正可能なプロパティを示す。
トレースによる柔軟性と同様に、これらの形のすべてが多種多様なオブジェクトをモデル化可能とする。

Figure 2011138267
Table 4 shows the modifiable properties for each of these forms.
All of these shapes allow modeling of a wide variety of objects, as well as the flexibility of tracing.
Figure 2011138267

ところで、多くの状況では、レンズのいろいろな影響のために、歪曲が映像中に導入される。そして、最も目立つ影響のうちの1つは放射歪曲(ラジアルディストーション)であり、実空間(映像主点を通過するものでないもの)での直線を映像中ではカーブするように表示させる。オブジェクトの三次元モデルを再構築する上述した方法は直線または他の原始関数(再構築段階と同様にキャリブレーション段階において)に基づいているため、ラジアルディストーションによって導入される副作用を減らすことにより、結果は改善される。   By the way, in many situations, distortion is introduced into the image due to various effects of the lens. One of the most conspicuous effects is radial distortion, and a straight line in real space (not passing through the video principal point) is displayed so as to curve in the video. The method described above for reconstructing a 3D model of an object is based on straight lines or other primitive functions (in the calibration phase as well as in the reconstruction phase), thus reducing the side effects introduced by radial distortion, resulting in Is improved.

以下、ステップ3やステップ11で行っているように、この二次元画像の位置情報に含まれる放射歪曲を除去して位置情報を変換する方法である放射歪曲除去手段について説明する。
ラジアルディストーションの影響を、図12に示す。
以下の説明において使われるパラメータを、(表5)に示す。

Figure 2011138267
Hereinafter, as described in step 3 and step 11, a radial distortion removing unit that is a method of converting the positional information by removing the radial distortion included in the positional information of the two-dimensional image will be described.
The influence of radial distortion is shown in FIG.
The parameters used in the following description are shown in (Table 5).
Figure 2011138267

なお、ラジアルディストーションは、非特許文献1のような技術に基づいて算定することができる。   The radial distortion can be calculated based on the technique as described in Non-Patent Document 1.

ここでは、歪曲の中心とラジアルディストーションの一項を算定する。特に、まず、歪曲の中心が映像の中央に位置するものと仮定する。それから、ラジアルディストーションは式(21)で示すように分割モデルを使用して記述できる。

Figure 2011138267

歪められていない映像ポジション(x-u, yu)がゆがめられた映像ポジション(xd, yd)に対応する場合、rd{=(xd**2+yd**2)**(1/2)}はゆがめられた点の原点までの距離であり、λはラジアルディストーションパラメータである。 Here, the center of distortion and a term of radial distortion are calculated. In particular, it is first assumed that the center of distortion is located at the center of the video. Then, the radial distortion can be described using a division model as shown in equation (21).
Figure 2011138267

If the undistorted video position (xu, yu) corresponds to the distorted video position (xd, yd), rd {= (xd ** 2 + yd ** 2) ** (1/2)} is The distance to the origin of the distorted point and λ is a radial distortion parameter.

歪曲されていない画像の中での直線は、式(22)のように表されることができる。

Figure 2011138267

ここで、kは傾きで、bがy切片である。あるいは、水平よりも垂直に近い線にとっては、yに関してxを表している方程式が得られる。式(22)に示される式は式(23)として書き直すことができる、そして、いくつかの代数操作で、式(24)に示す式が得られる。この式は、このモデルのもとで、ゆがめられた直線が円になることを示している。 A straight line in an undistorted image can be expressed as in Equation (22).
Figure 2011138267

Here, k is a slope and b is a y-intercept. Alternatively, for a line closer to vertical than horizontal, an equation representing x with respect to y is obtained. The equation shown in equation (22) can be rewritten as equation (23), and with some algebraic operations, the equation shown in equation (24) is obtained. This equation shows that the distorted straight line becomes a circle under this model.

Figure 2011138267

Figure 2011138267

歪曲の中心が中央にないならば、歪曲(x0, y0)のセンターはそれぞれxdとydをxd - x0とyd - y0と入れ替えることによって式(24)に示される式に取り込むことができる。いくつかの代数操作で、式(25)に示される式が得られる。あるいは、式(26)に示される式を記述できる。
Figure 2011138267

Figure 2011138267

3本の線を使って、(Ai, Bi, Ci), i=1,2,3の値は式(25)から計算されることができ、それから、歪曲(x0, y0)の中心は式(27)で示すように計算することができる。最後に、ラジアルディストーションの値は、式(28)で示すように解ける。あるいは、4本の線を用いた最小二乗法を使用できる。
Figure 2011138267

Figure 2011138267

If the center of distortion is not in the center, the center of distortion (x0, y0) can be incorporated into the equation shown in equation (24) by replacing xd and yd with xd-x0 and yd-y0, respectively. Several algebraic operations yield the equation shown in equation (25). Alternatively, the equation shown in equation (26) can be described.
Figure 2011138267

Figure 2011138267

Using three lines, the values of (Ai, Bi, Ci), i = 1,2,3 can be calculated from equation (25), and then the center of the distortion (x0, y0) is It can be calculated as shown in (27). Finally, the radial distortion value can be solved as shown in equation (28). Alternatively, a least square method using four lines can be used.

Figure 2011138267

Figure 2011138267

以上のようにして、二次元画像の位置情報に含まれる放射歪曲を除去して位置情報を変換することができるようになる。
次の問題は、円をエッジピクセルに対して安定してフィットさせることである。円の方程式が式(29)で示すように解析的な形に書かれると仮定する。
Figure 2011138267

エッジ点(xi, yi)から円までの距離は、式(30)で示すように表すことができる。
Figure 2011138267

さらに、式(31)で示すように角座標を使ってa2とa3を書くことにより、式(32)で示す目的の機能は、標準的なLevenberg-Marquardtアルゴリズムを使用することで、三次元空間(a1, a4, θ)で解くことができる。
Figure 2011138267

Figure 2011138267

As described above, it is possible to remove the radial distortion included in the position information of the two-dimensional image and convert the position information.
The next problem is to stably fit the circle to the edge pixels. Assume that the equation of the circle is written in an analytical form as shown in equation (29).
Figure 2011138267

The distance from the edge point (xi, yi) to the circle can be expressed as shown in Expression (30).
Figure 2011138267

Furthermore, by writing a2 and a3 using angular coordinates as shown in equation (31), the intended function shown in equation (32) can be achieved using a standard Levenberg-Marquardt algorithm in a three-dimensional space. It can be solved by (a1, a4, θ).

Figure 2011138267

Figure 2011138267

最後に、エッジピクセルを見つける処理を行う必要がある。すなわち、二次元画像からエッジ画素を検出し、同エッジ画素の位置情報から上記境界の位置情報を修正するものであり、ステップ5やステップ12で行なっているポイント調整手段に相当する。
4本の線の各々ごとに、各線を囲んでいるピクセルからなる長方形の一片の中で、キャニーエッジディテクション(canny edge detection)を最初に実行する。エッジピクセルの強さと法線方向も記録される、そして、法線の向きからの角度差異が設定された閾値を超えるエッジピクセルは排除される。
Figure 2011138267

Figure 2011138267

Finally, it is necessary to perform processing for finding edge pixels. That is, the edge pixel is detected from the two-dimensional image, and the position information of the boundary is corrected from the position information of the edge pixel, which corresponds to the point adjusting means performed in step 5 or step 12.
For each of the four lines, canny edge detection is first performed in a rectangular piece of pixels surrounding each line. Edge pixel strength and normal direction are also recorded, and edge pixels whose angular difference from the normal direction exceeds a set threshold are eliminated.

残りのエッジピクセルは、現在の線に帰属するものとみなす。エッジとして十分なピクセル(閾値を上回っているもの)が4本の線のうちの少なくとも3本において見つかるなら、ラジアルディストーション修正プロセスを進めることができる。
たとえば、図13で示すように、ラジアルディストーションのためにカーブされることになった一点鎖線を含む映像を仮定する。キャリブレーション段階のときにユーザーが二点鎖線を入力したと仮定する。破線の箱は、領域(その中でエッジピクセルがラジアルディストーションパラメータの算定のために使われる)を示す。
The remaining edge pixels are considered to belong to the current line. If enough pixels as edges (above the threshold) are found in at least three of the four lines, the radial distortion correction process can proceed.
For example, as shown in FIG. 13, assume an image including an alternate long and short dash line that is to be curved for radial distortion. Assume that the user entered a two-dot chain line during the calibration phase. The dashed box indicates the region in which edge pixels are used for the calculation of radial distortion parameters.

エッジ検出を実行すると、即座に、入力された線に関して45度を超える標準偏差を持つすべてのエッジピクセルは、分離物として捨てられる。
残りのエッジピクセルの方向は、1つか2つの互いに反対の一般的な方向(互いの近くに現れている二重のエッジの場合)を示すかもしれない。エッジピクセルのこれらの2つのグループのうち、より多数の数のグループだけが保持される。すなわち、図14に示されるように、正しい方向のエッジピクセルだけが残る。
When edge detection is performed, all edge pixels with a standard deviation greater than 45 degrees with respect to the input line are immediately discarded as isolates.
The direction of the remaining edge pixels may indicate one or two opposite general directions (in the case of double edges appearing close to each other). Of these two groups of edge pixels, only a larger number of groups are retained. That is, only the edge pixels in the correct direction remain, as shown in FIG.

ラジアルディストーションがない場合と、ユーザー入力エラーがない場合、すべてのエッジピクセルは正確に直線上に乗ることになる。ラジアルディストーションがあることで、すべてのエッジピクセルが直線上に乗ることにはならない。しかし、映像がラジアルディストーションパラメータの正しい値で正しく歪められていない(歪曲の他のいかなる形も取らない)ならば、エッジピクセルは直線に乗ることになる。
この点で、歪曲の中心(x0、y0)とラジアルディストーションパラメータλは算定される。そして、ラジアルディストーションを修正するために画像を反らすことができる。同時に、ユーザーによって入力された点(原点と、4本の線分の端点)の位置も同様に調節される、そのため、それらは映像上の歪められていない位置に一致する。ラジアルディストーションを修正することにより、画像情報(例えばエッジ)をより信頼性あるものとして利用することができる。
If there is no radial distortion and there is no user input error, all edge pixels will be exactly on a straight line. With radial distortion, not all edge pixels are on a straight line. However, if the video is not correctly distorted with the correct value of the radial distortion parameter (and does not take any other form of distortion), the edge pixel will be on a straight line.
At this point, the distortion center (x0, y0) and the radial distortion parameter λ are calculated. The image can then be warped to correct radial distortion. At the same time, the positions of the points entered by the user (the origin and the end points of the four line segments) are adjusted as well, so they match the undistorted positions on the image. By correcting the radial distortion, the image information (for example, the edge) can be used more reliably.

前景と背景が殆ど乱れていない映像については、エッジ情報を用いてトレース(および各セグメント)の正確さを改善することができる。たとえば、実空間の直線は、映像の中でも直線として現れる。
最初に、キャニーエッジディテクションが映像に適用される、その一方で、各々のエッジピクセルの法線方向を記録する。それから、各セグメントは、属しているエッジピクセルを収集する。
以下の2つの条件が満たされるならば、エッジピクセルはある一定の可能性(どのようにしてその可能性を計算するかは、後述する)を持ってそのセグメントに属している:
For images where the foreground and background are hardly disturbed, the accuracy of the trace (and each segment) can be improved using edge information. For example, a straight line in real space appears as a straight line in an image.
First, canny edge detection is applied to the video, while recording the normal direction of each edge pixel. Each segment then collects the edge pixels to which it belongs.
An edge pixel belongs to that segment with a certain possibility (how to calculate that possibility will be described later) if the following two conditions are met:

・エッジピクセルは、そのセグメントから一定の距離(しきい値)内に入る。
・エッジピクセルの標準の方向は、そのエッジピクセルに最も近いセグメントの点上で、セグメントのタンジェントに対して(あるしきい値を持って)垂直である。
エッジピクセルからセグメントまでの距離を計算するには、「セグメント内」という概念が最初に導入される。
An edge pixel falls within a certain distance (threshold) from its segment.
The normal direction of an edge pixel is perpendicular (with a certain threshold) to the segment tangent on the point of the segment closest to that edge pixel.
To calculate the distance from an edge pixel to a segment, the concept “in-segment” is first introduced.

もしそのセグメントが直線であるならば、セグメント内領域とは始点と終点の間の領域であると定義され、その線と直角をなす外側に広がる。さもなければ、セグメント内領域はカーブの始点と終点の間の領域であり、中心から外方に広がる。
図15と図16は、視覚的に、セグメント内領域と指示された一点鎖線で囲まれた領域として、示している。エッジピクセルjがセグメントiのセグメント内領域内にあるならば、エッジピクセルのセグメントdijまでの距離がそのセグメントまでの最も近い距離である。そのセグメントの既知の方程式に基づいて、この距離は計算される。
If the segment is a straight line, the intra-segment area is defined as the area between the start and end points and extends outwardly perpendicular to the line. Otherwise, the in-segment area is the area between the start point and end point of the curve and extends outward from the center.
15 and 16 are visually shown as an area surrounded by an alternate long and short dash line that is designated as an in-segment area. If edge pixel j is within the intra-segment region of segment i, the distance of edge pixel to segment dij is the closest distance to that segment. This distance is calculated based on the known equations for that segment.

もしエッジピクセルがセグメント内領域の外にあるならば、セグメントdijまでの距離は2つのエンドポイントまでの距離の短い方である。
各々のセグメントは、それが収集するすべてのエッジピクセルに対して重みを割り当てる。セグメントiとエッジピクセルjに対して、式(33)で示すように、重みwijが与えられる。ここで、σは標準偏差の値で、4に等しい。

Figure 2011138267

これから、エッジピクセルjがセグメントiに属しているという可能性は式(34)で示すように計算される。 If the edge pixel is outside the intra-segment region, the distance to the segment dij is the shorter of the distances to the two endpoints.
Each segment assigns a weight to every edge pixel it collects. For the segment i and the edge pixel j, a weight wij is given as shown in the equation (33). Here, σ is the value of standard deviation and is equal to 4.
Figure 2011138267

From this, the possibility that edge pixel j belongs to segment i is calculated as shown in equation (34).

Figure 2011138267

今、各々のセグメントの方程式は、ある特定のピクセルがそのセグメントに属する可能性を計算したのと同様に、そのセグメントが集めたエッジピクセルの位置に基づいて再計算される。
セグメントが直線、円、軸平行楕円または一般楕円であるかどうかにかかわらず、セグメントの複雑さは変わらない。それから、その複雑さ(そのセグメントを定める変数の数)より多くのエッジピクセルがそのセグメントに属し得るということもある。これらの場合、最小二乗法によって求められる。
Figure 2011138267

Now, the equation for each segment is recalculated based on the position of the edge pixel collected by that segment, just as the probability that a particular pixel belongs to that segment is calculated.
Regardless of whether a segment is a straight line, a circle, an axis-parallel ellipse, or a general ellipse, the complexity of the segment does not change. Then, there may be more edge pixels belonging to the segment than its complexity (the number of variables that define the segment). In these cases, the minimum square method is used.

最小二乗法は、通常、式(35)で示すように形式をとる。
n個の点が現在のセグメントにあるとする。それから、Wは、斜めに存在している現在のセグメントに属している各々のエッジピクセルの可能性を備えたnxnマトリックスである。Xは解かれるべき変数のリストである、そして、Sとbはそれらの変数に関連を有するエッジ-ピクセルに特有の値である。

Figure 2011138267
The least square method usually takes a form as shown in the equation (35).
Let n points be in the current segment. Then W is an nxn matrix with the possibility of each edge pixel belonging to the current segment present diagonally. X is a list of variables to be solved, and S and b are edge-pixel specific values related to those variables.
Figure 2011138267

たとえば、式(36)に示される分析的なフォームから、円はA=Cで、かつ、B = 0という制約を持つ。
この場合、SとXとbは、式(37)で示すように書くことができる。
他の形状のためにも類似した式を書くことができる。

Figure 2011138267

Figure 2011138267

それから、更新された各セグメントの方程式に基づき、クリックされた点の位置を修正する。セグメント構成点については、新しい候補位置は、その点に最も近いセグメント上(新しい方程式に従って)の点である。オリジナル位置と新しい候補位置の間の距離が閾値以下にあるならば、その点の位置は候補位置に修正される。 For example, from the analytical form shown in Equation (36), the circle has the constraints that A = C and B = 0.
In this case, S, X, and b can be written as shown in Expression (37).
Similar equations can be written for other shapes.
Figure 2011138267

Figure 2011138267

Then, the position of the clicked point is corrected based on the updated equation for each segment. For segment constituent points, the new candidate position is the point on the segment closest to that point (according to the new equation). If the distance between the original position and the new candidate position is less than or equal to the threshold, the position of that point is modified to the candidate position.

セグメント分割点については、その新しい候補位置はセグメントの先頭及び末尾の点に依存する。2つのセグメントは、0か、1か、2点、4点で交差するかもしれない。その候補位置は、以下にケース1〜ケース3として示すように、各々のケースごとに違う方法で計算される。   For segment split points, the new candidate position depends on the start and end points of the segment. Two segments may intersect at 0, 1, 2, 2, or 4. The candidate positions are calculated differently for each case, as shown as Case 1 to Case 3 below.

ケース1:
2つのセグメントが交差していない場合
この場合は、各セグメント上で、その2つのセグメントの間の最も近い点の中間が候補位置になる
ケース2:
2つのセグメントが1点で交差する場合:
この場合は、その交差点が候補位置になる
ケース3:
2つのセグメントが2点で交差する場合:
その2つの交点を結ぶ線分上でクリックされた点の位置と最も近い点が、新しい候補位置になる
ケース4:
2つのセグメントが4点で交差する場合:
4点の交点のうち、クリックされた点に最も近い2点を選択する。選択した2点に基づきケース3の方法で計算し、新しい候補位置を決める。
Case 1:
When two segments do not intersect In this case, the candidate position is the middle of the closest point between the two segments on each segment Case 2:
If two segments intersect at one point:
In this case, the intersection is a candidate position. Case 3:
If two segments intersect at two points:
The point closest to the clicked point on the line connecting the two intersections becomes the new candidate position. Case 4:
If two segments intersect at four points:
Of the four intersections, two points closest to the clicked point are selected. Based on the two selected points, calculation is performed by the method of Case 3 to determine a new candidate position.

また、候補位置と新しい位置の間の距離がしきい値を越えているならば、クリックされた点の位置は修正されない。
そうでなければ、クリックされた点の位置は候補位置の方へ移動される。このプロセスは、再構築されたモデルの正確さを改善するために、任意に繰り返されることができる(エッジピクセル可能性を計算して、方程式をセグメントに割り当て、クリックされた点位置を移動させる)。
以上のようにして二次元画像からエッジ画素を検出し、同エッジ画素の位置情報から上記境界の位置情報を修正する。すなわち、画像情報(エッジ)に基づいて各々のクリック点の位置を自動的に調節する。
If the distance between the candidate position and the new position exceeds the threshold value, the position of the clicked point is not corrected.
Otherwise, the position of the clicked point is moved toward the candidate position. This process can be repeated arbitrarily to improve the accuracy of the reconstructed model (calculate edge pixel likelihoods, assign equations to segments and move clicked point locations) .
As described above, the edge pixel is detected from the two-dimensional image, and the position information of the boundary is corrected from the position information of the edge pixel. That is, the position of each click point is automatically adjusted based on the image information (edge).

ところで、多くのロボット工学、モデリングと娯楽アプリケーションにおいて、実空間のオブジェクトの三次元モデルを高速に再構築できることは、非常に有益である。
この結果を成し遂げる1つの方法は、ソフトウェアプログラムの助けを借りて、一つ以上の二次元画像から三次元オブジェクトをモデル化しようとすることである。従来技術においても完全に自動的な三次元オブジェクトの再構築手法は、まだまだ成熟しておらず、十分に信頼できるものではない。その結果、簡単で直観的な半自動式の技術は、前述のアプリケーションに対して非常に有益なものである。
By the way, in many robotics, modeling and entertainment applications, it is very beneficial to be able to quickly reconstruct 3D models of real space objects.
One way to achieve this result is to try to model a 3D object from one or more 2D images with the help of a software program. Even in the prior art, a completely automatic 3D object reconstruction method has not yet matured and is not sufficiently reliable. As a result, a simple and intuitive semi-automatic technique is very beneficial for the aforementioned applications.

本技術は、多種多様なオブジェクトの三次元モデルの再構築に対して迅速かつ容易に解決策を提供する。
ユーザーは、マウスのわずか数クリックで、かなり複雑なオブジェクトの再構築でも直観的にできる。ユーザーは、再構築プロセスの速度をさらに上げるために、オブジェクトの左右対称性を利用することもできる。
映像を利用するので、各面のテクスチャはすぐに利用できる。このように、再構築されたモデルにテクスチャを適用することには、さらなる労力を必要としない。
The present technology provides a quick and easy solution for the reconstruction of 3D models of a wide variety of objects.
Users can intuitively reconstruct fairly complex objects with just a few mouse clicks. Users can also take advantage of object symmetry to further speed up the reconstruction process.
Since the image is used, the texture of each surface can be used immediately. Thus, no additional effort is required to apply the texture to the reconstructed model.

したがって、この技術は、三次元オブジェクトのモデル再構築の効率を大幅に改善することができる。
さらに、ラジアルディストーションは映像に不要な誤差を取り込んでしまう。ラジアルディストーションによって引き起こされる大きな人工的な不要物の1つは、実空間の直線が映像の中でカーブして現れるということである。
ユーザーによってすでに提供される情報(ユーザーからの新しい入力を必要としない)に基づいてラジアルディストーションを修正することにより、映像はすぐさま修正することができ、より正確に実空間を表す映像とすることができる。その結果、その映像に基づいてより精密なモデルを再構築することができる。
Therefore, this technique can greatly improve the efficiency of model reconstruction of 3D objects.
Furthermore, radial distortion introduces unnecessary errors in the video. One of the big artifacts caused by radial distortion is that real-space straight lines appear curved in the image.
By correcting the radial distortion based on information already provided by the user (no need for new input from the user), the video can be corrected immediately and more accurately represent the real space. it can. As a result, a more precise model can be reconstructed based on the video.

さらに、画像情報(エッジ)に基づいて各々のクリック点の位置を自動的に調節することにより、人為ミスはさらに減らすことができる。このステップはラジアルディストーション修正ステップと相並んで進行する。なぜなら、ラジアルディストーション修正効果が、この自動調整ステップの品質を改善するからである。その結果、より精密なモデルを再構築することができる。
本発明では、ユーザによって境界をトレースして得られた複数のポイントからなる形状とされた非傾斜の天面と底面とを有するオブジェクトの三次元モデルを生成する。
Furthermore, by automatically adjusting the position of each click point based on the image information (edge), human error can be further reduced. This step proceeds in parallel with the radial distortion correction step. This is because the radial distortion correction effect improves the quality of this automatic adjustment step. As a result, a more precise model can be reconstructed.
In the present invention, a three-dimensional model of an object having a non-tilted top surface and bottom surface, which is formed by a plurality of points obtained by tracing a boundary by a user, is generated.

以下、本実施形態における特徴について要約して説明する。
本実施形態では、多くの人工物は、直線、円または楕円の各区分でモデル化可能なエッジによって構成されているというメリットを活かすことにより、一つ以上の映像から半自動的に三次元オブジェクトをモデル化するための方法を開示している。
また、映像の1つに基づいて、ソフトウェアが実空間から像空間への射影行列を計算するのを許可するアトリビュートをユーザーが定める。本キャリブレーションステップは、ユーザーに柔軟性を提供し、射影行列の正しさに対するユーザーの完全な支配を確実にさせる。
Hereinafter, the features of the present embodiment will be described in summary.
In this embodiment, many artifacts are semi-automatically created from one or more images by taking advantage of the fact that they are composed of edges that can be modeled by straight, circle, or ellipse segments. A method for modeling is disclosed.
Also, based on one of the videos, the user defines an attribute that allows the software to calculate a projection matrix from real space to image space. This calibration step provides the user with flexibility and ensures the user's complete control over the correctness of the projection matrix.

本実施形態では、独立してオブジェクト形の異なる区分をモデル化する方法を開示している。
全体的な形がトレースと区分を通してモジュール化され、カーブの特定の部分と独立して表すことができるように各々の区分が別々に補間されることで成し遂げられる。かなり複雑な形の対象もモデル化されることができる。
本実施形態では、キャリブレーション目的でユーザーによって与えられるデータに基づくラジアルディストーションの修正方法を開示している。
In the present embodiment, a method for independently modeling different sections of object shapes is disclosed.
This is accomplished by modularizing the overall shape through traces and segments and interpolating each segment separately so that it can be represented independently of a particular part of the curve. Quite complex shapes of objects can also be modeled.
In the present embodiment, a radial distortion correction method based on data given by a user for calibration purposes is disclosed.

ラジアルディストーションは、再構築されるモデルの正確さを減少させることになる不要物(ゴミ)を映像中に作り出す。
本実施形態では、再構築された形からボリュームを増減する方法を開示している。
複数の部品はポジティブトレースで結合され、また、中空部品はネガティブトレースで結合されることにより、成し遂げられる。
本実施形態では、あらかじめ定義された原始関数に基づく単純な形で、オブジェクトまたはオブジェクトの部分を描写する方法を開示している。
Radial distortion creates unwanted objects (trash) in the video that will reduce the accuracy of the reconstructed model.
In the present embodiment, a method for increasing or decreasing the volume from the reconstructed form is disclosed.
This is accomplished by joining multiple parts with positive traces and hollow parts with negative traces.
In the present embodiment, a method for drawing an object or a part of an object in a simple manner based on a predefined primitive function is disclosed.

一般的な形によるオブジェクトまたはオブジェクトの部分は、一般的な箱形と、一般的な錐形と、回転楕円体を使ってモデル化されることができる。
本実施形態では、再構築されたモデルに左右対称性を導入することによってモデリングを単純化する方法を開示している。
実空間の多種多様なオブジェクトに起きている左右対称性の特質を利用して、特定の軸に沿ったトレース点のいくつかをユーザーが裏返すことで、成し遂げられる。
本実施形態では、画像情報を使用したトレースポイントの正確さを向上する方法を開示している。
Objects or parts of objects with a general shape can be modeled using a general box shape, a general cone shape, and a spheroid.
This embodiment discloses a method for simplifying modeling by introducing left-right symmetry to the reconstructed model.
This is accomplished by the user flipping some of the trace points along a particular axis, taking advantage of the symmetry property that occurs in many different objects in real space.
In this embodiment, a method for improving the accuracy of trace points using image information is disclosed.

エッジのような画像情報を使用することで、トレースポイントの正確さを向上できる。特にラジアルディストーション修正において有用である。
本実施形態では、再構築されたモデルをリファインする方法を開示している。
ユーザーが、いつでも自由に、ポイントを追加、削除、修正し、トレースすることができることにより、成し遂げられる。天面と底面との高さ値は、いつでも自由に修正することができる。
本実施形態では、現実的な見かけでオブジェクトを再構築する方法を開示している。
By using image information such as edges, the accuracy of trace points can be improved. This is particularly useful in correcting radial distortion.
In the present embodiment, a method for refining a reconstructed model is disclosed.
This is accomplished by allowing the user to freely add, delete, modify and trace points at any time. The height value of the top and bottom can be freely modified at any time.
In the present embodiment, a method for reconstructing an object with a realistic appearance is disclosed.

テクスチャは、映像から再構築されたモデルにマップされることができる。
本実施形態では、再構築されたモデルをより多くの映像で洗練する方法を開示している。
先に、特定の視点からオブジェクトを見ることによって視界を遮られていた構成要素も、モデル化されることができる。特定の視点からオブジェクトを見ることにより、テクスチャがマップ化できなかったが、不十分にマップ化された表面も、マップ化でき、再マップ化もできる。
The texture can be mapped to a model reconstructed from the video.
In the present embodiment, a method for refining the reconstructed model with more images is disclosed.
Components that have previously been blocked from view by looking at the object from a particular viewpoint can also be modeled. By looking at an object from a specific viewpoint, the texture could not be mapped, but a poorly mapped surface can also be mapped and remapped.

最後に、本発明を適用分野と、それぞれの場合のメリットについて説明する。
(1)ロボット工学において
ピックアンドプレースアプリケーションのためのオブジェクトのモデリング
ピックアンドプレースアプリケーションのロボット工学シミュレーションのためのオブジェクトの現実的なモデルの再構築
三次元化のためのオブジェクトのモデリング
ロボット工学シミュレーションアプリケーションでの三次元化のための実空間におけるオブジェクトの現実的なモデルの再構築
Finally, the application field of the present invention and the merits in each case will be described.
(1) Robotics Modeling objects for pick-and-place applications Rebuilding realistic models of objects for robotics simulations in pick-and-place applications Modeling objects for three-dimensionalization With robotics simulation applications Of realistic models of objects in real space for 3D modeling

メリット:
ロボットシミュレーションを現実的にするため、ピックアンドプレースに使われるオブジェクトや、実空間のオブジェクトは、三次元化が実空間で目に見えるのと近いものとなるように、モデリングされなければならない。
ピックアンドプレースシミュレーションのため、ユーザーはロボットがどのようにオブジェクトと相互作用するか、あるいは、オブジェクトのどれほどの特性がその相互作用に影響を及ぼすか試験したいと思うかもしれない。その結果、オブジェクトの精密なモデルが必要となる。
merit:
In order to make robot simulation realistic, objects used for pick-and-place and objects in real space must be modeled so that three-dimensionalization is close to what is visible in real space.
For pick-and-place simulation, the user may want to test how the robot interacts with the object, or how many properties of the object affect that interaction. As a result, a precise model of the object is required.

本技術は、広範囲にわたるオブジェクトを簡単かつ正確にモデル化させることができる。
(2)コンピュータービジョンにおいて
オブジェクトおよびポーズ認知ルーチンのトレーニングのためのオブジェクトのモデリング対象となるオブジェクトの再構築されたモデルがあれば、異なる視点、異なる照明下、異なる量の障害物の状況をシミュレーションすることができる。これらの映像から、そのオブジェクトの特別な特徴を学習するため、マシンラーニングアルゴリズムを適用させることができる。例えば、新しい映像のために新しい映像オブジェクトのタスクやポーズ認知が実行されることができる。
This technique can easily and accurately model a wide range of objects.
(2) In computer vision, if there is a reconstructed model of the object to be modeled for training the object and pose recognition routine, simulate the situation of different obstacles under different viewpoints, different lighting be able to. A machine learning algorithm can be applied to learn special features of the object from these videos. For example, a new video object task or pose recognition may be performed for a new video.

メリット:
オブジェクトの様子は、異なる視点、異なる照明、異なる量の障害物の状況の下で大幅に変化する。このため、オブジェクトの映像セットを作り出し、認知アプリケーションを適用することは通常非常に退屈で時間がかかる。
しかし、本方法により、一旦オブジェクトのモデルが再構築されるならば、ユーザーが望むどんな方法ででもその見かけをシミュレートすることができ、指定されたどのような状況下でも映像を作り出すことができる。これは、マシンラーニングによるデータ収集の作業を非常に簡単化する。
merit:
The appearance of an object changes significantly under different viewpoints, different lighting, and different amounts of obstacles. For this reason, creating a video set of objects and applying a cognitive application is usually very tedious and time consuming.
But with this method, once the model of the object is reconstructed, it can simulate its appearance in whatever way the user wants, and can produce video under any specified circumstances . This greatly simplifies the task of collecting data by machine learning.

(3)ゲーム、エンターテイメント、仮想現実において
ゲーム、エンターテイメント(例えば映画)または仮想現実環境の中でのディスプレイのためのオブジェクトのモデリング
再構築されたオブジェクトはゲームや映画や仮想現実プログラムのような仮想環境の中に置かれることができる。例えば、そのオブジェクトがそのシーンで現実的に三次元化されるように。
ゲームや仮想現実アプリケーションにおいては、ユーザーは各シーンでそのオブジェクトのモデルとかかわり合うことが可能となる。
(3) In games, entertainment, virtual reality Modeling objects for display in games, entertainment (eg movies) or virtual reality environments Reconstructed objects are virtual environments such as games, movies and virtual reality programs Can be placed inside. For example, make the object realistically three-dimensional in the scene.
In games and virtual reality applications, the user can interact with the model of the object in each scene.

メリット:
仮想アプリケーションでオブジェクトをより現実的に表すためにはそのオブジェクトの良いモデルが必要となり、それを構築するには非常に時間がかかる。
しかし、この方法により、良いモデル(幾何学的にも表面的にも)が迅速かつ容易に作成することができる。それにより、ユーザーによる努力を殆ど要することなく仮想環境において使えるようになる。
なお、自動的にトレースの精度を向上させるために、プログラムは映像の手掛かりとなるエッジや角などの情報を扱えるようになっているべきである。
なお、本実施形態では、三次元オブジェクト再構築ステップを、処理装置(例えばコンピューター)にあるプロセッシングソフトウェアプログラムによって実行している。この意味で、本発明は、実体のある三次元画像処理装置としても実現されているし、同プログラムを記憶する媒体も実現可能であり、同様に、三次元画像処理プログラムを記録した媒体としても実現されている。さらに、コンピューターにて実行される過程としての三次元画像処理としても実現されている。また、個々において明示的に説明していないが、コンピューターにて実施される各処理は、コンピューターに対して同処理を行う機能を実現させている。
merit:
In order to represent an object more realistically in a virtual application, a good model of that object is required and it takes a very long time to build it.
However, this method allows a good model (geometrically and superficially) to be created quickly and easily. As a result, it can be used in a virtual environment with little user effort.
In order to automatically improve the accuracy of tracing, the program should be able to handle information such as edges and corners that are clues to the video.
In the present embodiment, the three-dimensional object reconstruction step is executed by a processing software program in a processing device (for example, a computer). In this sense, the present invention is realized as an actual 3D image processing apparatus, and a medium for storing the program can be realized. Similarly, a medium storing a 3D image processing program can also be realized. It has been realized. Furthermore, it is also realized as three-dimensional image processing as a process executed by a computer. Although not explicitly described individually, each process executed by the computer realizes a function of performing the same process on the computer.

1…プロセッシングソフトウェア、2…トレースアンドポイントマネージャ、3…三次元モデルジェネレータ、4…テクスチャマネージャ。 1 ... processing software, 2 ... trace and point manager, 3 ... three-dimensional model generator, 4 ... texture manager.

Claims (14)

二次元画像から三次元画像を算出する三次元画像処理装置であって、
二次元画像を読み込む画像読込手段と、
読み込んだ二次元画像を表示した上で、操作入力を受け付けて同画像上に三次元の基準となる位置を指定する基準位置指定手段と、
三次元の実空間と二次元の像空間との間の変換関係を取得する変換関係取得手段と、
表示画像上で、操作入力を受け付けて対象物の表面の境界の形状を、各セグメントごとに各セグメントの形状に対応した数の離散的な点位置で指定するトレース手段と、
操作入力を受け付けて高さの値を取得する高さ値取得手段と、
各セグメントごとに指定された離散的な点位置とその数に基づいて、当該区分全体の三次元での位置情報を算出して上記境界を特定する境界特定手段と、
高さの値と、算出された各セグメントの境界の位置情報と、上記変換関係とに基づいて対象物の立体モデルを算出する三次元モデル再構築手段とを具備することを特徴とする三次元画像処理装置。
A three-dimensional image processing apparatus for calculating a three-dimensional image from a two-dimensional image,
Image reading means for reading a two-dimensional image;
Reference position specifying means for displaying a read two-dimensional image, receiving an operation input, and specifying a three-dimensional reference position on the image,
A conversion relationship acquisition means for acquiring a conversion relationship between a three-dimensional real space and a two-dimensional image space;
On the display image, a tracing means for accepting an operation input and designating the shape of the boundary of the surface of the object with the number of discrete point positions corresponding to the shape of each segment for each segment;
A height value acquisition means for receiving an operation input and acquiring a height value;
Based on the discrete point positions designated for each segment and the number thereof, boundary specifying means for calculating the three-dimensional position information of the entire section and specifying the boundary,
A three-dimensional model comprising a three-dimensional model reconstructing means for calculating a three-dimensional model of the object based on the height value, the calculated position information of the boundary of each segment, and the conversion relationship. Image processing device.
上記基準位置指定手段では、上記二次元画像の中で、二対の互いに平行な線分であって各対は互いに直交する線分の指定と、原点とで、三次元の基準となる位置を指定することを特徴とする請求項1に記載の三次元画像処理装置。   In the reference position specifying means, in the two-dimensional image, two pairs of parallel line segments and each pair is orthogonal to each other, and the origin is used as a three-dimensional reference position. The three-dimensional image processing apparatus according to claim 1, wherein the three-dimensional image processing apparatus is specified. 上記トレース手段は、各セグメントの形状と離散的な点位置の数との対応として、直線は2点、円は3点、軸平行楕円は4点、一般楕円は5点以上とすることを特徴とする請求項1または請求項2に記載の三次元画像処理装置。   The tracing means is characterized in that as the correspondence between the shape of each segment and the number of discrete point positions, the straight line has 2 points, the circle has 3 points, the axis parallel ellipse has 4 points, and the general ellipse has 5 points or more. The three-dimensional image processing apparatus according to claim 1 or 2. 上記トレース手段での対象物の表面の境界の指定は、中実形状の境界の指定と、中空形状の境界の指定とを含み、上記三次元モデル再構築手段は、中実形状の算出処理と、中空形状の算出処理とを実行し、両者の合体結果で三次元モデルを再構築することを特徴とする請求項1〜請求項3のいずれかに記載の三次元画像処理装置。   The designation of the boundary of the surface of the object in the tracing means includes designation of a solid shape boundary and designation of a hollow shape boundary, and the three-dimensional model reconstruction means includes a solid shape calculation process, The three-dimensional image processing apparatus according to any one of claims 1 to 3, wherein a hollow shape calculation process is executed, and a three-dimensional model is reconstructed based on a result of combining the two. 三次元モデルを算出する際の各面の位置情報に基づいて、二次元画像からテクスチャを取得し、上記三次元モデルの各面に貼り付けるテクスチャ貼り付け手段を有することを特徴とする請求項1〜請求項4のいずれかに記載の三次元画像処理装置。   2. A texture pasting unit that obtains a texture from a two-dimensional image based on positional information of each surface when calculating a three-dimensional model and pastes the texture on each surface of the three-dimensional model. The three-dimensional image processing apparatus according to claim 4. 上記テクスチャ貼り付け手段は、同一対象物に対する複数の異なる視野からの二次元画像を読み込み、各画像ごとに上記操作入力を受け付け、上記三次元モデルの対応する各面に貼り付けることを特徴とする請求項1〜請求項5のいずれかに記載の三次元画像処理装置。   The texture pasting means reads two-dimensional images from a plurality of different fields of view for the same object, accepts the operation input for each image, and pastes it on each corresponding surface of the three-dimensional model. The three-dimensional image processing apparatus according to any one of claims 1 to 5. 上記テクスチャ貼り付け手段は、上記境界の位置情報が修正されたときに、修正された境界情報に対応して上記テクスチャを取得して所定の面に貼り付けることを特徴とする請求項1〜請求項6のいずれかに記載の三次元画像処理装置。   The texture pasting means acquires the texture corresponding to the corrected boundary information and pastes it on a predetermined surface when the boundary position information is corrected. Item 7. The three-dimensional image processing device according to any one of items 6 to 6. 上記境界の形状を特定する過程で、上記二次元画像の位置情報に含まれる放射歪曲を除去して位置情報を変換する放射歪曲除去手段を有することを特徴とする請求項1〜請求項7のいずれかに記載の三次元画像処理装置。   8. The method according to claim 1, further comprising radiation distortion removing means for converting the positional information by removing the radial distortion included in the positional information of the two-dimensional image in the process of specifying the shape of the boundary. The three-dimensional image processing apparatus according to any one of the above. 上記境界の形状を特定する過程で、上記二次元画像からエッジ画素を検出し、同エッジ画素の位置情報から上記境界の位置情報を修正するポイント調整手段を有することを特徴とする請求項1〜請求項8のいずれかに記載の三次元画像処理装置。   The point adjustment means for detecting an edge pixel from the two-dimensional image and correcting the position information of the boundary from the position information of the edge pixel in the process of specifying the shape of the boundary. The three-dimensional image processing apparatus according to claim 8. 上記トレース手段は、操作入力を受け付け、指定された点位置を特定の軸に沿って裏返すことにより、左右対称性を維持した点位置を自動的に発生することを特徴とする請求項1〜請求項9のいずれかに記載の三次元画像処理装置。   The trace means accepts an operation input and automatically generates a point position maintaining left-right symmetry by turning over a specified point position along a specific axis. Item 10. The three-dimensional image processing apparatus according to any one of Items 9 to 9. 上記対象物を、予め定義された形、一般的な箱、一般的な錐形、および回転楕円体との組み合わせを使ってモデル化することを特徴とする請求項1〜請求項10のいずれかに記載の三次元画像処理装置。   11. The object according to claim 1, wherein the object is modeled by using a combination of a predefined shape, a general box, a general cone, and a spheroid. The three-dimensional image processing apparatus described in 1. 上記トレース手段は、各セグメントにおける点位置の追加、削除、修正が可能であることを特徴とする請求項1〜請求項11のいずれかに記載の三次元画像処理装置。   The three-dimensional image processing apparatus according to any one of claims 1 to 11, wherein the tracing means can add, delete, and correct a point position in each segment. 二次元画像から三次元画像を算出する三次元画像処理方法であって、
二次元画像を読み込み、
読み込んだ二次元画像を表示した上で、操作入力を受け付けて同画像上に三次元の基準となる位置を指定し、
三次元の実空間と二次元の像空間との間の変換関係を取得し、
表示画像上で、操作入力を受け付けて対象物の表面の境界の形状を、各セグメントごとに各セグメントの形状に対応した数の離散的な点位置で指定し、
操作入力を受け付けて高さの値を取得し、
各セグメントごとに指定された離散的な点位置とその数に基づいて、当該区分全体の三次元での位置情報を算出して上記境界を特定し、
高さの値と、算出された各セグメントの境界の位置情報と、上記変換関係とに基づいて対象物の立体モデルを算出することを特徴とする三次元画像処理方法。
A three-dimensional image processing method for calculating a three-dimensional image from a two-dimensional image,
Load a 2D image
After displaying the read 2D image, accept the operation input, specify the 3D reference position on the image,
Get the transformation relationship between 3D real space and 2D image space,
On the display image, accept the operation input and specify the shape of the boundary of the surface of the object with the number of discrete point positions corresponding to the shape of each segment for each segment,
Accept the operation input, get the height value,
Based on the discrete point positions specified for each segment and their number, the position information in the three dimensions of the entire segment is calculated to identify the boundary,
A three-dimensional image processing method, comprising: calculating a three-dimensional model of an object based on a height value, calculated position information of a boundary of each segment, and the conversion relationship.
二次元画像から三次元画像を算出する三次元画像処理プログラムを記録した媒体であって、
二次元画像を読み込む画像読込と、
読み込んだ二次元画像を表示した上で、操作入力を受け付けて同画像上に三次元の基準となる位置を指定する基準位置指定機能と、
三次元の実空間と二次元の像空間との間の変換関係を取得する変換関係取得機能と、
表示画像上で、操作入力を受け付けて対象物の表面の境界の形状を、各セグメントごとに各セグメントの形状に対応した数の離散的な点位置で指定するトレース機能と、
操作入力を受け付けて高さの値を取得する高さ値取得機能と、
各セグメントごとに指定された離散的な点位置とその数に基づいて、当該区分全体の三次元での位置情報を算出して上記境界を特定する境界特定機能と、
高さの値と、算出された各セグメントの境界の位置情報と、上記変換関係とに基づいて対象物の立体モデルを算出する三次元モデル再構築機能とをコンピューターに実現させることを特徴とする三次元画像処理プログラムを記録した媒体。
A medium recording a 3D image processing program for calculating a 3D image from a 2D image,
Image reading for reading 2D images,
A reference position specifying function for displaying a read two-dimensional image, receiving an operation input, and specifying a three-dimensional reference position on the image,
A conversion relationship acquisition function for acquiring a conversion relationship between a three-dimensional real space and a two-dimensional image space;
On the display image, a trace function that accepts an operation input and specifies the shape of the boundary of the surface of the object for each segment by the number of discrete point positions corresponding to the shape of each segment;
A height value acquisition function that accepts an operation input and acquires a height value;
Based on discrete point positions designated for each segment and the number thereof, a boundary specifying function for calculating the three-dimensional position information of the entire section and specifying the boundary,
A computer realizes a three-dimensional model reconstruction function for calculating a three-dimensional model of an object based on the height value, the calculated position information of the boundary of each segment, and the conversion relationship. A medium on which a 3D image processing program is recorded.
JP2009297088A 2009-12-28 2009-12-28 3D image processing apparatus, 3D image processing method, and medium on which 3D image processing program is recorded Expired - Fee Related JP5413188B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009297088A JP5413188B2 (en) 2009-12-28 2009-12-28 3D image processing apparatus, 3D image processing method, and medium on which 3D image processing program is recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009297088A JP5413188B2 (en) 2009-12-28 2009-12-28 3D image processing apparatus, 3D image processing method, and medium on which 3D image processing program is recorded

Publications (2)

Publication Number Publication Date
JP2011138267A true JP2011138267A (en) 2011-07-14
JP5413188B2 JP5413188B2 (en) 2014-02-12

Family

ID=44349654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009297088A Expired - Fee Related JP5413188B2 (en) 2009-12-28 2009-12-28 3D image processing apparatus, 3D image processing method, and medium on which 3D image processing program is recorded

Country Status (1)

Country Link
JP (1) JP5413188B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108054640A (en) * 2017-11-27 2018-05-18 江苏南瑞帕威尔电气有限公司 A kind of method for strand design of rationally arranging

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07110866A (en) * 1993-10-12 1995-04-25 Riibuson:Kk Pattern recognition device
JPH07260446A (en) * 1994-03-25 1995-10-13 Olympus Optical Co Ltd Image processor
JPH08335279A (en) * 1995-06-08 1996-12-17 Olympus Optical Co Ltd Design support system
JPH09178463A (en) * 1995-12-26 1997-07-11 Nikon Corp Multidimensional coordinate measuring device
JPH1030917A (en) * 1996-07-16 1998-02-03 Tsubakimoto Chain Co Object recognition method and device therefor, and recording medium
JP2000090290A (en) * 1998-07-13 2000-03-31 Sony Corp Device and method for processing image and medium
US20020080139A1 (en) * 2000-12-27 2002-06-27 Bon-Ki Koo Apparatus and method of interactive model generation using multi-images
US20070127810A1 (en) * 2003-08-08 2007-06-07 Microsoft Corporation System and method for modeling three dimensional objects from a single image

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07110866A (en) * 1993-10-12 1995-04-25 Riibuson:Kk Pattern recognition device
JPH07260446A (en) * 1994-03-25 1995-10-13 Olympus Optical Co Ltd Image processor
JPH08335279A (en) * 1995-06-08 1996-12-17 Olympus Optical Co Ltd Design support system
JPH09178463A (en) * 1995-12-26 1997-07-11 Nikon Corp Multidimensional coordinate measuring device
JPH1030917A (en) * 1996-07-16 1998-02-03 Tsubakimoto Chain Co Object recognition method and device therefor, and recording medium
JP2000090290A (en) * 1998-07-13 2000-03-31 Sony Corp Device and method for processing image and medium
US20020080139A1 (en) * 2000-12-27 2002-06-27 Bon-Ki Koo Apparatus and method of interactive model generation using multi-images
US20070127810A1 (en) * 2003-08-08 2007-06-07 Microsoft Corporation System and method for modeling three dimensional objects from a single image

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSND200100385016; '"MetaCreations CANOMA 日本語版"' WinGraphic 第12巻, 19990901, p.120-121, 株式会社エムディエヌコーポレーション *
JPN6013034215; '"MetaCreations CANOMA 日本語版"' WinGraphic 第12巻, 19990901, p.120-121, 株式会社エムディエヌコーポレーション *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108054640A (en) * 2017-11-27 2018-05-18 江苏南瑞帕威尔电气有限公司 A kind of method for strand design of rationally arranging

Also Published As

Publication number Publication date
JP5413188B2 (en) 2014-02-12

Similar Documents

Publication Publication Date Title
McMillan et al. Plenoptic modeling: An image-based rendering system
CN111739161B (en) Human body three-dimensional reconstruction method and device under shielding condition and electronic equipment
JP7337104B2 (en) Model animation multi-plane interaction method, apparatus, device and storage medium by augmented reality
Miller et al. Interactive 3D model acquisition and tracking of building block structures
US9881417B2 (en) Multi-view drawing apparatus of three-dimensional objects, and method
WO2021225868A1 (en) Fast and deep facial deformations
Petkov et al. Interactive visibility retargeting in vr using conformal visualization
Lai et al. A high-resolution texture mapping technique for 3D textured model
Kazmi et al. Efficient sketch‐based creation of detailed character models through data‐driven mesh deformations
Valentini Natural interface in augmented reality interactive simulations: This paper demonstrates that the use of a depth sensing camera that helps generate a three-dimensional scene and track user's motion could enhance the realism of the interactions between virtual and physical objects
Kumara et al. Real-time 3D human objects rendering based on multiple camera details
JP5413188B2 (en) 3D image processing apparatus, 3D image processing method, and medium on which 3D image processing program is recorded
da Silveira et al. Omnidirectional visual computing: Foundations, challenges, and applications
Niemirepo et al. Open3DGen: open-source software for reconstructing textured 3D models from RGB-D images
Maghoumi et al. Gemsketch: Interactive image-guided geometry extraction from point clouds
Schlette et al. A new benchmark for pose estimation with ground truth from virtual reality
CN113705379A (en) Gesture estimation method and device, storage medium and equipment
EP3779878A1 (en) Method and device for combining a texture with an artificial object
Pan et al. Rapid 3D modelling from live video
Zhang et al. Sceneviewer: Automating residential photography in virtual environments
Stein et al. MAP3D: An explorative approach for automatic mapping of real-world eye-tracking data on a virtual 3D model
WO2023132261A1 (en) Information processing system, information processing method, and information processing program
Zeng et al. 3D plants reconstruction based on point cloud
JP5792210B2 (en) Multi-view drawing apparatus, method, and program for three-dimensional object
Obeysekera Affine Reconstruction from multiple views using Singular Value Decomposition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130716

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131028

R150 Certificate of patent or registration of utility model

Ref document number: 5413188

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees