JP2003232622A - Device, method and program for obtaining three- dimensional information - Google Patents

Device, method and program for obtaining three- dimensional information

Info

Publication number
JP2003232622A
JP2003232622A JP2002032596A JP2002032596A JP2003232622A JP 2003232622 A JP2003232622 A JP 2003232622A JP 2002032596 A JP2002032596 A JP 2002032596A JP 2002032596 A JP2002032596 A JP 2002032596A JP 2003232622 A JP2003232622 A JP 2003232622A
Authority
JP
Japan
Prior art keywords
target object
image
closed
closed region
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002032596A
Other languages
Japanese (ja)
Other versions
JP4094303B2 (en
Inventor
Hidekazu Iwaki
秀和 岩城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2002032596A priority Critical patent/JP4094303B2/en
Priority to US10/218,059 priority patent/US7253832B2/en
Publication of JP2003232622A publication Critical patent/JP2003232622A/en
Priority to US11/821,749 priority patent/US20070252900A1/en
Application granted granted Critical
Publication of JP4094303B2 publication Critical patent/JP4094303B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device, a method and a program for obtaining more precise three-dimensional information. <P>SOLUTION: In one state of implementation, the method for obtaining three- dimensional information provided here comprises an imaging means for taking an image of an object, a relatively moving means for relatively and continuously moving the object and the imaging means so that the image of the object can be taken from a plurality of visual points by the imaging means, a relative position detecting means for detecting the relative positions of the object and the imaging means from each visual point where the image of the object is taken, and a three-dimensional shape estimating means for estimating the three- dimensional shape of the object by using information on the image of the object taken from the plurality of visual points and the relative positions detected by the relative position detecting means. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、対象物体の立体情
報を取得する立体情報取得装置及び立体情報取得方法並
びに立体情報取得プログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a stereoscopic information acquisition device, a stereoscopic information acquisition method and a stereoscopic information acquisition program for acquiring stereoscopic information of a target object.

【0002】[0002]

【従来の技術】従来技術としての立体情報取得装置は、
特開平10−124704号公報に開示されている。
2. Description of the Related Art A three-dimensional information acquisition device as a prior art is
It is disclosed in Japanese Patent Laid-Open No. 10-124704.

【0003】この立体情報取得装置では、画像上の対象
物体と背景の境界を用いて、仮定存在領域を算出する。
In this stereoscopic information acquisition apparatus, a hypothetical existing area is calculated using the boundary between the target object and the background on the image.

【0004】この仮定存在領域とは、カメラの投影中心
を頂点とし、画像上の対象物体と背景の境界を断面形状
とする錐体状の領域である。
The hypothetical existence area is a cone-shaped area having a projection center of the camera as an apex and a boundary between a target object on the image and the background as a cross-sectional shape.

【0005】この錐体状の領域(仮定存在領域)をボク
セルモデル(所定の大きさの立方体によるモデル)で記
述する。
This cone-shaped area (hypothetical existing area) is described by a voxel model (a cubic model having a predetermined size).

【0006】以上のような処理を対象物体を回転テーブ
ルによって所定角度回転させて繰り返し行う。
The above-described processing is repeated by rotating the target object by a predetermined angle with a rotary table.

【0007】そして、共通仮定存在領域を求め、対象物
体の立体情報を取得する。
Then, the common hypothetical existence area is obtained and the stereoscopic information of the target object is acquired.

【0008】ここで、画像上の対象物体と背景の境界
は、対象物体がない状態で背景のみを撮影した画像と、
対象物体がある状態で撮影した画像の差分から求める。
Here, the boundary between the target object and the background on the image is an image obtained by photographing only the background without the target object,
It is calculated from the difference between the images taken with the target object.

【0009】[0009]

【発明が解決しようとする課題】上述したような従来技
術では、立体情報の精度を向上させるためには、前述し
た所定角度を小さくする必要があるため、撮影回数が増
え、撮影時間が増大するという問題がある。
In the prior art as described above, in order to improve the accuracy of stereoscopic information, it is necessary to reduce the above-mentioned predetermined angle, so that the number of times of photographing increases and the photographing time increases. There is a problem.

【0010】また、撮影角度を最初に設定するため、回
転テーブルは運動と停止を繰り返し、対象物体に加速度
がかかり、転倒、変形等の恐れがあるという問題があ
る。
Further, since the photographing angle is set first, the rotary table is repeatedly moved and stopped, and the target object is subject to acceleration, and there is a possibility that the object may fall or be deformed.

【0011】さらに、その停止位置は精度良く制御され
ている必要があるため、回転テーブルの移動装置や制御
装置は複雑かつ高価なものになる。
Further, since the stop position needs to be controlled accurately, the moving device and the control device for the rotary table are complicated and expensive.

【0012】また、画像上の対象物体と背景の境界を求
める際に背景のみの画像との差分を用いているが、カメ
ラの撮影ごとの露出、フォーカス、シャッタースピード
等のばらつきにより、精度良く境界を求められない場合
があるという問題がある。
Further, when the boundary between the target object on the image and the background is obtained, the difference between the image of only the background is used. However, due to variations in exposure, focus, shutter speed, etc. for each photographing of the camera, the boundary can be accurately measured. There is a problem that you may not be asked.

【0013】また、ボクセルモデルを用いて共通仮定存
在領域を直接求めているために、あるボクセルが共通仮
定存在領域に含まれでいるか否かを確認するための必要
な画像の枚数が多数必要であり、処理時間が膨大になる
という問題がある。
Further, since the common hypothesis existing region is directly obtained using the voxel model, a large number of images are required to confirm whether or not a certain voxel is included in the common hypothesis existing region. There is a problem that the processing time becomes huge.

【0014】また、最初に設定されたボクセルモデルの
すべてのボクセルに関する存在確率を保存しておく必要
があるためにメモリ容量が膨大になるという問題があ
る。
Further, since it is necessary to store the existence probabilities of all voxels of the voxel model set initially, there is a problem that the memory capacity becomes huge.

【0015】本発明は、以上のような問題点を解決する
ためになされたものであり、精度よく境界を求め、より
精度の高い立体情報を取得し得ると共に、対象物体の立
体情報取得のためのメモリ容量を大幅に削減し、撮影時
間を短縮し、対象物体を安定した状態に保つことができ
る立体情報取得装置及び立体情報取得方法並びに立体情
報取得プログラムを提供することを目的とする。
The present invention has been made in order to solve the above-mentioned problems, and it is possible to obtain a boundary with high accuracy, obtain more accurate stereoscopic information, and obtain stereoscopic information of a target object. It is an object of the present invention to provide a stereoscopic information acquisition device, a stereoscopic information acquisition method, and a stereoscopic information acquisition program that can significantly reduce the memory capacity of the device, shorten the shooting time, and keep the target object in a stable state.

【0016】[0016]

【課題を解決するための手段】本発明によると、上記課
題を解決するために、(1) 対象物体の画像を撮影す
る撮影手段と、前記撮影手段によって複数の視点から前
記対象物体の画像を撮影可能とするように、前記対象物
体と前記撮影手段とを相対的かつ連続的に移動させる相
対移動手段と、前記撮影手段によって複数の視点から前
記対象物体の画像を撮影した各々の視点における前記対
象物体と前記撮影手段との相対位置を検出する相対位置
検出手段と、前記撮影手段によって複数の視点から撮影
された前記対象物体の画像、及び前記相対位置検出手段
によって検出された相対位置の情報とを用いて、前記対
象物体の立体形状を推定する立体形状推定手段と、を備
えることを特徴とする立体情報取得装置が提供される。
According to the present invention, in order to solve the above problems, (1) a photographing means for photographing an image of a target object, and the photographing means for photographing the image of the target object from a plurality of viewpoints. Relative movement means for relatively and continuously moving the target object and the photographing means so as to enable photographing, and the viewpoint at each viewpoint where images of the target object are photographed from a plurality of viewpoints by the photographing means. Relative position detecting means for detecting the relative position between the target object and the photographing means, images of the target object photographed from a plurality of viewpoints by the photographing means, and information on the relative position detected by the relative position detecting means. And a three-dimensional shape estimation unit that estimates the three-dimensional shape of the target object using the.

【0017】(作用)本発明は、対象物体を運動させた
まま撮影が行えるので、移動中の加減速が少ないことに
よって、撮影時間が減少し、慣性による対象物体の転倒
及び変形が少ないものとし得ると共に、エネルギー消費
量が少ないものとし得る。
(Operation) According to the present invention, since photographing can be performed while the target object is moving, the photographing time is reduced by less acceleration / deceleration during movement, and the target object is less likely to fall or deform due to inertia. In addition, the energy consumption can be reduced.

【0018】また、本発明によると、上記課題を解決す
るために、(2) 対象物体の画像を撮影する撮影手段
と、所定の光学的特性を有すると共に、前記対象物体の
背後に配置されて撮影時に前記対象物体の背景となる背
景板と、前記撮影手段によって複数の視点から前記対象
物体の画像を撮影可能とするように、前記対象物体と前
記撮影手段とを相対的かつ連続的に移動させる相対移動
手段と、前記撮影手段によって複数の視点から前記対象
物体の画像を撮影した各々の視点における前記対象物体
と前記撮影手段との相対位置を検出する相対位置検出手
段と、前記撮影手段によって複数の視点から撮影された
前記対象物体の画像、及び前記相対位置検出手段によっ
て検出された相対位置の情報とを用いて、前記撮影手段
によって撮影された複数の視点からの画像中における前
記対象物体が占める領域を認識し、前記対象物体が占め
る領域を用いて対象物体の立体形状を推定する立体形状
推定手段と、を備えることを特徴とする立体情報取得装
置が提供される。
Further, according to the present invention, in order to solve the above-mentioned problems, (2) a photographing means for photographing an image of a target object, having predetermined optical characteristics, and being arranged behind the target object. The background plate that is the background of the target object at the time of shooting, and the target object and the shooting means are relatively and continuously moved so that images of the target object can be shot from a plurality of viewpoints by the shooting means. Relative movement means for moving the image of the target object from a plurality of viewpoints by the photographing means, relative position detection means for detecting the relative position of the target object and the photographing means at each viewpoint, by the photographing means An image of the target object taken from a plurality of viewpoints and information of the relative position detected by the relative position detecting means are used to take an image by the imaging means. Stereoscopic shape estimating means for recognizing an area occupied by the target object in an image from a plurality of viewpoints and estimating a stereoscopic shape of the target object using the area occupied by the target object. An acquisition device is provided.

【0019】(作用)本発明は、ブルーバックシルエッ
ト法と定速移動により、対象物体を運動させたまま撮影
が行えるので、移動中の加減速が少ないことによって、
撮影時間が減少し、慣性による対象物体の転倒及び変形
が少ないものとし得ると共に、エネルギー消費量が少な
いものとし得、さらに精度よく切り出すことができる。
(Operation) According to the present invention, since the object can be photographed while moving by the blue back silhouette method and the constant speed movement, the acceleration / deceleration during movement is small,
It is possible to reduce the photographing time, reduce the fall and deformation of the target object due to inertia, reduce the energy consumption, and cut out more accurately.

【0020】また、本発明によると、上記課題を解決す
るために、(3) 対象物体の画像を撮影する撮影手段
と、少なくとも前記撮影手段の撮影範囲内おける前記対
象物体の輪郭部分全体またはその一部を含む範囲を前記
対象物体の背後から直接的または間接的に照明する照明
手段と、前記撮影手段によって複数の視点から前記対象
物体の画像を撮影可能とするように、前記対象物体と前
記撮影手段とを相対的かつ連続的に移動させる相対移動
手段と、前記撮影手段によって複数の視点から前記対象
物体の画像を撮影した各々の視点における前記対象物体
と前記撮影手段との相対位置を検出する相対位置検出手
段と、前記撮影手段によって複数の視点から撮影された
前記対象物体の画像、及び前記相対位置検出手段によつ
て検出された相対位置の情報とを用いて、前記撮影手段
によって撮影された複数の視点からの画像それぞれにお
いて前記対象物体が占める領域を認識し、前記対象物体
が占める領域を用いて前記対象物体の立体形状を推定す
る立体形状推定手段と、を備え、前記対象物体が占める
領域を認識するのに使用する画像の撮影時には、前記照
明手段を点灯することを特徴とする立体情報取得装置が
提供される。
Further, according to the present invention, in order to solve the above-mentioned problems, (3) a photographing means for photographing an image of the target object, and at least the entire contour portion of the target object within the photographing range of the photographing means or the same. Illuminating means for directly or indirectly illuminating a range including a part of the target object from behind, and the target object and the target object so that images of the target object can be captured from a plurality of viewpoints by the capturing means. Relative moving means for relatively and continuously moving the photographing means, and detecting the relative position of the target object and the photographing means at each viewpoint at which images of the target object are photographed from a plurality of viewpoints by the photographing means Relative position detecting means, images of the target object photographed from a plurality of viewpoints by the photographing means, and relative positions detected by the relative position detecting means. Position information, the area occupied by the target object in each of the images taken from the plurality of viewpoints by the imaging means is recognized, and the three-dimensional shape of the target object is estimated using the area occupied by the target object. The three-dimensional shape estimating unit is provided, and the three-dimensional information acquiring device is provided, which is characterized in that the illumination unit is turned on when an image used for recognizing an area occupied by the target object is captured.

【0021】(作用)本発明は、バックライトシルエッ
ト法と定速移動により、対象物体を運動させたまま撮影
が行えるので、移動中の加減速が少ないことによって、
撮影時間が減少し、慣性による対象物体の転倒及び変形
が少ないものとし得ると共に、エネルギー消費量が少な
いものとし得、さらに精度よく物体色に関係なく切り出
すことができる。
(Operation) According to the present invention, since the back light silhouette method and the constant speed movement allow photographing while moving the target object, there is little acceleration / deceleration during movement.
It is possible to reduce the photographing time, reduce the fall and deformation of the target object due to inertia, reduce the energy consumption, and more accurately cut out regardless of the object color.

【0022】また、本発明によると、上記課題を解決す
るために、(4) 前記相対移動手段は、前記対象物体
を回転運動させることを特徴とする(2)または(3)
記載の立体情報取得装置が提供される。
Further, according to the present invention, in order to solve the above-mentioned problems, (4) the relative moving means rotates the target object (2) or (3).
The described stereoscopic information acquisition device is provided.

【0023】(作用)本発明は、回転限定により、少な
くとも回転軸の周囲の情報が得られるという保証があ
る。
(Operation) The present invention guarantees that at least information around the rotation axis can be obtained by rotation limitation.

【0024】また、本発明によると、上記課題を解決す
るために、(5) 前記相対移動手段は、前記対象物体
を回転軸に平行な方向に移動させることを特徴とする
(4)記載の立体情報取得装置が提供される。
Further, according to the present invention, in order to solve the above-mentioned problems, (5) the relative moving means moves the target object in a direction parallel to a rotation axis (4). A stereoscopic information acquisition device is provided.

【0025】(作用)本発明は、スパイラル移動によ
り、回転では認識できなかった部位を認識することがで
きる。
(Operation) According to the present invention, by the spiral movement, it is possible to recognize a part which cannot be recognized by rotation.

【0026】また、本発明によると、上記課題を解決す
るために、(6) 前記相対移動手段は、前記対象物体
を一定の角速度で回転させており、前記相対位置検出手
段は、基準角位置を検出する基準角位置検出手段と、前
記基準角位置検出手段が基準角位置を検出してから前記
撮影手段で撮影した時刻までの時間差を算出する時間差
算出手段と、前記一定の角速度と前記時間差算出手段で
得られた結果を用いて、前記基準角からの前記撮影手段
で撮影された時刻までに回転した角度差を特定する角度
差特定手段と、を有することを特徴とする(4)記載の
立体情報取得装置が提供される。
Further, according to the present invention, in order to solve the above-mentioned problems, (6) the relative moving means rotates the target object at a constant angular velocity, and the relative position detecting means uses a reference angular position. A reference angular position detecting means for detecting the time difference, a time difference calculating means for calculating a time difference from the time when the reference angular position detecting means detects the reference angular position to the time when the photographing is performed by the photographing means, the constant angular velocity and the time difference. An angle difference specifying unit that specifies an angle difference rotated from the reference angle by the time when the image is taken by the image taking unit using the result obtained by the calculating unit (4). The three-dimensional information acquisition device is provided.

【0027】(作用)本発明は、定角速度回転により、
特別な角度検出手段を必要としないため、機器構成が単
純になる。
(Operation) The present invention, by rotating at a constant angular velocity,
Since no special angle detecting means is required, the device configuration becomes simple.

【0028】また、本発明によると、上記課題を解決す
るために、(7) 前記立体形状推定手段によって前記
対象物体の立体形状を推定するための撮影時に得られる
画像は、前記対象物体の輪郭付近の背景部より前記対象
物体が占める領域の方が相対的に暗いシルエット画像で
あることを特徴とする(3)記載の立体情報取得装置が
提供される。
Further, according to the present invention, in order to solve the above-mentioned problems, (7) the image obtained at the time of photographing for estimating the three-dimensional shape of the target object by the three-dimensional shape estimation means is a contour of the target object. The stereoscopic information acquisition device according to (3) is characterized in that the region occupied by the target object is a relatively dark silhouette image compared to a background portion in the vicinity.

【0029】(作用)本発明は、(3)において、立体
形状推定のための画像としている。
(Operation) In (3), the present invention provides an image for estimating a three-dimensional shape.

【0030】また、本発明によると、上記課題を解決す
るために、(8) 前記立体形状推定手段は、前記シル
エット画像における前記対象物体の輪郭領域と前記対象
物体周辺の背景領域との輝度差を利用して前記対象物体
の輪郭を抽出し、前記抽出された輪郭を用いて前記対象
物体の占める領域を推定することを特徴とする(7)記
載の立体情報取得装置が提供される。
Further, according to the present invention, in order to solve the above-mentioned problems, (8) the three-dimensional shape estimating means has a luminance difference between a contour area of the target object and a background area around the target object in the silhouette image. The stereoscopic information acquisition device according to (7) is characterized in that the contour of the target object is extracted by utilizing, and the area occupied by the target object is estimated using the extracted contour.

【0031】(作用)本発明は、(7)において、形状
切り出し方法を規定している。
(Operation) In the present invention, in (7), the shape cutting method is specified.

【0032】また、本発明によると、上記課題を解決す
るために、(9) 前記照明手段は、少なくとも可視光
領域の光を発する光源と、前記撮影手段に対して前記対
象物体の背後に配置され、前記光源からの光を散乱させ
る光散乱手段と、を有することを特徴とする(3)記載
の立体情報取得装置が提供される。
Further, according to the present invention, in order to solve the above-mentioned problems, (9) the illuminating means is arranged at the back of the target object with respect to the photographing means and a light source which emits light in at least a visible light region. And a light scattering means for scattering the light from the light source, and the stereoscopic information acquisition apparatus according to (3).

【0033】(作用)本発明は、(3)において、背面
照明散乱を利用している。
(Operation) In the present invention, the back illumination scattering is used in (3).

【0034】また、本発明によると、上記課題を解決す
るために、(10) 前記立体形状推定手段は、前記照
明手段が前記対象物体を照明していない状況で、前記撮
影手段によって少なくとも一回撮影された前記対象物体
のテクスチャ画像をを用いて前記対象物体の表面のテク
スチャを推定することを特徴とする(3)記載の立体情
報取得装置が提供される。
Further, according to the present invention, in order to solve the above-mentioned problems, (10) the three-dimensional shape estimating means is operated by the photographing means at least once when the illuminating means does not illuminate the target object. The stereoscopic information acquisition apparatus according to (3) is characterized in that the texture of the surface of the target object is estimated using the captured texture image of the target object.

【0035】(作用)本発明は、(3)において、テク
スチャ推定としている。
(Operation) In the present invention, the texture is estimated in (3).

【0036】また、本発明によると、上記課題を解決す
るために、(11) 前記立体形状推定手段は、前記対
象物体に対し、3次元空間上に密接して配置された閉領
域の集合を設定する閉領域設定手段と、前記撮影手段に
よって複数の視点から前記対象物体を撮影した画像に基
き、前記各閉領域が前記対象物体の外部に存在する確率
を求めることにより、前記閉領域が前記対象物体の外部
に存在するか否かを判定する閉領域外部判定手段と、を
有し、前記閉領域が前記対象物体の外部に存在する確率
が所定の閾値を超えたと、前記閉領域外部判定手段が判
断した場合、当該閉領域は、以降の前記閉領域外部判定
手段の判定処理対象から除かれることを特徴とする
(2)または(3)記載の立体情報取得装置が提供され
る。
Further, according to the present invention, in order to solve the above-mentioned problems, (11) the three-dimensional shape estimating means sets a set of closed regions closely arranged in a three-dimensional space with respect to the target object. Based on the closed region setting means for setting and the image obtained by photographing the target object from a plurality of viewpoints by the photographing means, the closed region is calculated by calculating the probability that each closed region exists outside the target object. A closed region outside determination means for determining whether the closed region exists outside the target object, and the closed region outside determination means that the probability that the closed region exists outside the target object exceeds a predetermined threshold value. The stereoscopic information acquisition apparatus according to (2) or (3) is characterized in that, when the means determines, the closed area is excluded from the determination processing targets of the closed area outside determination means thereafter.

【0037】(作用)本発明は、(2)または(3)に
おいて、外部判定により、彫刻を削るように不要な部分
は処理しないことで、処理速度が格段に速くなるように
している。
(Operation) In the present invention, in (2) or (3), the processing speed is remarkably increased by not processing the unnecessary portion such as the engraving by the external judgment.

【0038】また、本発明によると、上記課題を解決す
るために、(12) 前記立体形状推定手段は、前記撮
影手段によって複数の視点から撮影した画像の内、第1
の視点からの視線で撮影された画像に基いて前記対象物
体が占める領域を認識すると共に、前記対象物体の立体
形状を推定する認識推定処理を実施し、続いて、前記第
1の視点から最も遠い第2の視点からの視線で撮影され
た画像に基いて前記対象物体が占める領域を認識すると
共に、前記対象物体の立体形状を推定する認識推定処理
を実施し、以降、前記認識推定処理に用いられていない
画像に対応する残余の前記視点であって、前記認識推定
処理に用いられた二つの画像それぞれに対応する視線の
成す角度差が最大のものに挾まれた前記視点の中で、前
記角度差を内挿する角度に最も近い前記視点からの画像
を用いて前記認識推定処理を実施し、これを順次繰り返
すことを特徴とする(4)記載の立体情報取得装置が提
供される。
Further, according to the present invention, in order to solve the above-mentioned problems, (12) the three-dimensional shape estimating means selects the first image from among the images photographed by the photographing means from a plurality of viewpoints.
While recognizing the area occupied by the target object based on the image captured with the line of sight from the viewpoint, the recognition estimation process for estimating the three-dimensional shape of the target object is performed, and then, from the first viewpoint, A recognition estimation process for recognizing an area occupied by the target object based on an image captured with a line of sight from a distant second viewpoint and estimating a three-dimensional shape of the target object is performed. Among the remaining viewpoints corresponding to images not used, among the viewpoints sandwiched by the maximum angle difference formed by the line of sight corresponding to each of the two images used in the recognition estimation process, The stereoscopic information acquisition apparatus according to (4) is characterized in that the recognition estimation processing is performed using an image from the viewpoint closest to the angle at which the angle difference is interpolated, and the processing is sequentially repeated.

【0039】(作用)本発明は、(4)において、境界
画像処理順番を考慮することにより、より効率よく処理
不要な個所を判定できるようにしている。
(Operation) In the present invention, in (4), by considering the boundary image processing order, it is possible to more efficiently determine a portion where processing is unnecessary.

【0040】また、本発明によると、上記課題を解決す
るために、(13) 前記立体形状推定手段は、前記閉
領域の集合に属する閉領域が前記対象物体の外部に存在
する確率が所定の確率範囲となり、前記対象物体の内部
と外部の境界近傍に存在する閉領域であるか否かを判定
する境界閉領域判定手段と、前記境界閉領域判定手段に
よって前記境界近傍に存在する閉領域であると判定され
た閉領域を、さらに小さな分割閉領域に分割する境界閉
領域分割手段と、を有し、前記境界閉領域分割手段によ
って分割される分割閉領域に対して、前記境界閉領域判
定手段によって再び境界近傍に存在する閉領域か否かを
判定し、この判定結果に基いて、前記境界閉領域分割手
段によって前記分割閉領域を再分割し、前記境界閉領域
判定手段による判定と、前記境界閉領域分割手段による
分割との処理を前記閉領域が所定の大きさになるまで繰
り返すことを特徴とする(2)または(3)記載の立体
情報取得装置が提供される。
Further, according to the present invention, in order to solve the above problems, (13) the solid shape estimating means has a predetermined probability that a closed region belonging to the set of closed regions exists outside the target object. It becomes a probability range, and the boundary closed region determination means for determining whether or not the closed region exists near the boundary between the inside and the outside of the target object, and the closed region existing near the boundary by the boundary closed region determination means. Boundary closed area dividing means for dividing the closed area determined to exist into smaller divided closed areas, and the boundary closed area determination for the divided closed area divided by the boundary closed area dividing means. It is again determined by the means whether or not it is a closed region existing near the boundary, and based on this determination result, the boundary closed region dividing unit re-divides the divided closed region, and the boundary closed region determination unit makes a determination. The stereoscopic information acquisition apparatus according to (2) or (3) is characterized in that the processing of dividing by the boundary closed area dividing means is repeated until the closed area has a predetermined size.

【0041】(作用)本発明は、(3)において、境界
ボクセルを再分割することにより、精度が格段に向上す
るようにしている。
(Operation) In the present invention, in (3), the boundary voxels are subdivided so that the accuracy is remarkably improved.

【0042】また、本発明によると、上記課題を解決す
るために、(14) 複数の視点から対象物体を撮影し
た画像と前記視点位置の情報を用いて、前記画像中の前
記対象物体が占める領域を認識し、前記対象物体の占め
る領域に基いて前記対象物体の立体形状を推定して、前
記対象物体の立体情報を取得する立体情報取得方法であ
って、前記対象物体に対し、3次元空間上に密接して配
置された閉領域の集合を設定する閉領域設定工程と、複
数の視点から前記対象物体を撮影した画像に基き、前記
各閉領域が対象物体の外部に存在する確率を求めること
により、前記閉領域が前記対象物体の外部存在するか否
かを判定する閉領域外部判定工程と、前記閉領域が前記
対象物体の外部に存在する確率が所定の閾値を超えた
と、前記閉領域外部判定工程で判定された場合、当該閉
領域を、以降の前記閉領域外部判定工程の判定処理対象
から除く工程と、を有することを特徴とする立体情報取
得方法が提供される。
According to the present invention, in order to solve the above problems, (14) the target object in the image is occupied by using images of the target object photographed from a plurality of viewpoints and information on the viewpoint positions. A three-dimensional information acquisition method for recognizing a region, estimating the three-dimensional shape of the target object based on the region occupied by the target object, and acquiring the three-dimensional information of the target object, which is three-dimensional with respect to the target object. Based on a closed region setting step of setting a set of closed regions closely arranged in space and an image obtained by photographing the target object from a plurality of viewpoints, the probability that each closed region exists outside the target object is calculated. By determining, the closed region external determination step of determining whether the closed region exists outside the target object, and the probability that the closed region exists outside the target object exceeds a predetermined threshold value, and Closed area external format And a step of removing the closed region from the determination processing target of the closed region outside determination process thereafter, when the determination is made in the regular process.

【0043】(作用)本発明は、外部判定により、彫刻
を削るように不要な部分は処理しないことで、処理速度
が格段に速くなるようにしている。
(Operation) According to the present invention, the processing speed is remarkably increased by not processing the unnecessary portion such as the carving by the external judgment.

【0044】また、本発明によると、上記課題を解決す
るために、(15) 複数の視点から対象物体を撮影し
た画像と前記視点位置の情報を用いて、前記画像中の前
記対象物体が占める領域を認識し、前記対象物体の占め
る領域に基いて前記対象物体の立体形状を推定して、前
記対象物体の立体情報を取得する立体情報取得方法であ
って、前記複数の視点から撮影した画像の内、第1の視
点からの視線で撮影された画像に基いて前記撮像対象が
占める領域を認識すると共に、立体形状を推定する認識
推定処理を実施する第1の認識推定処理工程と、前記第
1の視点から最も遠い第2の視点からの視線で撮影され
た画像に基いて前記対象物体が占める領域を認識すると
共に、立体形状を推定する認識推定処理を実施する第2
の認識推定処理工程と、前記認識推定処理に用いられて
いない画像に対応する残余の前記視点であって、前記認
識推定処理に用いられた二つの画像それぞれに対応する
視線の成す角度差が最大のものに挟まれた前記視点の中
で、前記角度差を内挿する角度に最も近い前記視点から
の画像を用いて前記認識推定処理を実施する第3の認識
推定処理工程と、を有し、前記第3の認識推定処理工程
を順次繰り返すことを特徴とする立体情報取得方法が提
供される。
Further, according to the present invention, in order to solve the above-mentioned problems, (15) the target object in the image is occupied by using images of the target object taken from a plurality of viewpoints and information on the viewpoint positions. A stereoscopic information acquisition method of recognizing a region, estimating the stereoscopic shape of the target object based on the region occupied by the target object, and acquiring stereoscopic information of the target object, the image being captured from the plurality of viewpoints. A first recognition estimation processing step of recognizing a region occupied by the imaging target based on an image captured with a line of sight from a first viewpoint and performing a recognition estimation processing of estimating a three-dimensional shape; A second method of recognizing a region occupied by the target object based on an image captured with a line of sight from a second viewpoint farthest from the first viewpoint and performing a recognition estimation process of estimating a three-dimensional shape.
Of the remaining viewpoints corresponding to the images not used in the recognition estimation processing, and the angle difference formed by the line of sight corresponding to each of the two images used in the recognition estimation processing is maximum. Among the viewpoints sandwiched between the two, the third recognition estimation processing step for performing the recognition estimation processing using an image from the viewpoint closest to the angle for interpolating the angle difference. A stereoscopic information acquisition method is provided, which is characterized by sequentially repeating the third recognition estimation processing step.

【0045】(作用)本発明は、境界画像処理順番を考
慮することにより、より効率よく処理不要な個所を判定
できるようにしている。
(Operation) The present invention makes it possible to more efficiently determine a portion that does not require processing by considering the boundary image processing order.

【0046】また、本発明によると、上記課題を解決す
るために、(16) 複数の視点から対象物体を撮影し
た画像と前記視点位置の情報を用いて、前記画像中の前
記対象物体が占める領域を認識し、前記対象物体の占め
る領域に基いて前記対象物体の立体形状を推定して、前
記対象物体の立体情報を取得する立体情報取得方法であ
って、前記対象物体に対し、3次元空間上に密接して配
置された閉領域の集合を設定する閉領域設定工程と、前
記閉領域の集合に属する閉領域が前記対象物体の外部に
存在する確率が所定の確率範囲となり、前記対象物体の
内部と外部の境界近傍に存在する閉領域であるか否かを
判定する境界閉領域判定工程と、前記境界閉領域判定工
程によって前記境界近傍に存在する閉領域であると判定
された閉領域を、さらに小さな分割閉領域に分割する境
界閉領域分割工程と、を有し、前記分割閉領域に対し
て、前記境界閉領域判定工程及び前記境界閉領域分割工
程を実行する処理を、前記閉領域が所定の大きさになる
まで繰り返すことを特徴とする立体情報取得方法が提供
される。
Further, according to the present invention, in order to solve the above-mentioned problems, (16) the target object in the image is occupied by using images of the target object photographed from a plurality of viewpoints and information on the viewpoint positions. A three-dimensional information acquisition method for recognizing a region, estimating the three-dimensional shape of the target object based on the region occupied by the target object, and acquiring the three-dimensional information of the target object, which is three-dimensional with respect to the target object. A closed region setting step of setting a set of closed regions closely arranged in space, and a probability that a closed region belonging to the set of closed regions exists outside the target object becomes a predetermined probability range, and the target A boundary closed region determination step of determining whether or not it is a closed region existing near the boundary between the inside and the outside of the object, and a closed region determined to be a closed region existing near the boundary by the boundary closed region determination step. The area A boundary closed region dividing step of further dividing the closed closed region into smaller divided closed regions, and performing a process of executing the boundary closed region determination step and the boundary closed region dividing step on the divided closed region, A stereoscopic information acquisition method is provided, which is characterized in that is repeated until the size becomes a predetermined size.

【0047】(作用)本発明は、境界ボクセルを再分割
することにより、精度が格段に向上するようにしてい
る。
(Operation) In the present invention, the accuracy is remarkably improved by subdividing the boundary voxels.

【0048】また、本発明によると、上記課題を解決す
るために、(17) コンピュータによって複数の視点
から対象物体を撮影した画像と前記視点位置の情報を用
いて、前記画像中の前記対象物体が占める領域を認識
し、前記対象物体の占める領域に基いて前記対象物体の
立体形状を推定して、前記対象物体の立体情報を取得す
るための立体情報取得プログラムであって、前記コンピ
ュータに、前記対象物体に対し、3次元空間上に密接し
て配置された閉領域の集合を設定する閉領域設定のため
のステップと、複数の視点から前記対象物体を撮影した
画像に基き、前記各閉領域が前記対象物体の外部に存在
する確率を求めることにより、前記閉領域が前記対象物
体の外部存在するか否かを判定する閉領域外部判定のた
めのステップと、前記閉領域が前記対象物体の外部に存
在する確率が所定の閾値を超えたと、前記閉領域外部判
定のためのステップで判定された場合、当該閉領域を、
以降の前記閉領域外部判定のためのステップの判定処理
対象から除くステップと、を実行させるためのプログラ
ムを有することを特徴とする立体情報取得プログラムが
提供される。
Further, according to the present invention, in order to solve the above-mentioned problems, (17) by using an image obtained by photographing a target object from a plurality of viewpoints by a computer and information on the viewpoint position, the target object in the image Recognizing the area occupied by, the three-dimensional information acquisition program for estimating the three-dimensional shape of the target object based on the area occupied by the target object, to acquire the three-dimensional information of the target object, the computer, Based on images of the target object captured from a plurality of viewpoints, a step for setting a closed region for setting a set of closed regions closely arranged in the three-dimensional space for the target object, A step for determining whether or not the closed region exists outside the target object by determining a probability that the region exists outside the target object; If the probability that a closed region exists outside the target object exceeds a predetermined threshold value, if it is determined in the step for the closed region outside determination, the closed region is
There is provided a stereoscopic information acquisition program, characterized in that it has a program for executing the following steps of the step for determining the outside of the closed region from the determination processing target.

【0049】(作用)本発明は、外部判定により、彫刻
を削るように不要な部分は処理しないことで、処理速度
が格段に速くなるようなプログラムとしている。
(Operation) According to the present invention, the program is processed by the external judgment so that unnecessary parts are not processed so as to cut the engraving, thereby significantly increasing the processing speed.

【0050】また、本発明によると、上記課題を解決す
るために、(18) コンピュータによって複数の視点
から対象物体を撮影した画像と前記視点位置の情報を用
いて、前記画像中の前記対象物体が占める領域を認識
し、前記対象物体の占める領域に基いて前記対象物体の
立体形状を推定して、前記対象物体の立体情報を取得す
るための立体情報取得プログラムであって、前記コンピ
ュータに、前記複数の視点から撮影した画像の内、第1
の視点からの視線で撮影された画像に基き前記撮像対象
が占める領域を認識すると共に、前記対象物体の立体形
状を推定する認識推定処理を実施する第1の認識推定処
理のためのステップと、前記第1の視点から最も遠い第
2の視点からの視線で撮影された画像に基き前記対象物
体が占める領域を認識すると共に、前記対象物体の立体
形状を推定する認識推定処理を実施する第2の認識推定
処理のためのステップと、前記認識推定処理に用いられ
ていない画像に対応する残余の前記視点であって、前記
認識推定処理に用いられた二つの画像それぞれに対応す
る視線の成す角度差が最大のものに挟まれた前記視点の
中で、前記角度差を内挿する角度に最も近い前記視点か
らの画像を用いて前記認識推定処理を実施する第3の認
識推定処理のためのステップと、を実行させるためのプ
ログラムを有し、前記第3の認識推定処理のためのステ
ップを順次繰り返すことを特徴とする立体情報取得プロ
グラムが提供される。
According to the present invention, in order to solve the above problems, (18) the target object in the image is obtained by using images of the target object photographed by a computer from a plurality of viewpoints and information on the viewpoint positions. Recognizing the area occupied by, the three-dimensional information acquisition program for estimating the three-dimensional shape of the target object based on the area occupied by the target object, to acquire the three-dimensional information of the target object, the computer, The first of the images taken from the plurality of viewpoints
A step for a first recognition estimation process for recognizing an area occupied by the imaging target based on an image captured with a line of sight from the viewpoint, and performing a recognition estimation process for estimating a three-dimensional shape of the target object; A second step of recognizing a region occupied by the target object based on an image captured with a line of sight from a second viewpoint farthest from the first viewpoint, and performing a recognition estimation process of estimating a three-dimensional shape of the target object. For the recognition estimation process, and the angle of the line of sight corresponding to each of the two images used in the recognition estimation process, which is the remaining viewpoint corresponding to the image not used in the recognition estimation process. For a third recognition estimation process that performs the recognition estimation process using an image from the viewpoint closest to the angle for interpolating the angular difference among the viewpoints sandwiched by the ones with the largest difference Has a step, a program for execution, the three-dimensional information acquisition program characterized by sequentially repeating the steps for the third recognition estimation process is provided.

【0051】(作用)本発明は、境界画像処理順番を考
慮することにより、より効率よく処理不要な個所を判定
できるようなプログラムとしている。
(Operation) The present invention provides a program that can more efficiently determine a portion that does not require processing by considering the boundary image processing order.

【0052】また、本発明によると、上記課題を解決す
るために、(19) コンピュータによって複数の視点
から対象物体を撮影した画像と前記視点位置の情報を用
いて、前記画像中の前記対象物体が占める領域を認識
し、前記対象物体の占める領域に基いて前記対象物体の
立体形状を推定して、前記対象物体の立体情報を取得す
るための立体情報取得プログラムであって、前記コンピ
ュータに、前記対象物体に対し、3次元空間上に密接し
て配置された閉領域の集合を設定する閉領域設定のため
のステップと、前記閉領域の集合に属する閉領域が前記
対象物体の外部に存在する確率が所定の確率範囲とな
り、前記対象物体の内部と外部の境界近傍に存在する閉
領域であるか否かを判定する境界閉領域判定のためのス
テップと、前記閉領域判定のためのステップによって前
記境界近傍に存在する閉領域であると判定された閉領域
を、さらに小さな分割閉領域に分割する境界閉領域分割
のためのステップと、を実行させるためのプログラムを
有し、前記分割閉領域に対して、前記境界閉領域判定の
ためのステップ及び前記境界閉領域分割のためのステッ
プを実行する処理を、前記閉領域が所定の大きさになる
まで繰り返すことを特徴とする立体情報取得プログラム
が提供される。
According to the present invention, in order to solve the above-mentioned problems, (19) the target object in the image is obtained by using images of the target object photographed by a computer from a plurality of viewpoints and information on the viewpoint positions. Recognizing the area occupied by, the three-dimensional information acquisition program for estimating the three-dimensional shape of the target object based on the area occupied by the target object, to acquire the three-dimensional information of the target object, the computer, A step for setting a closed region for setting a set of closed regions closely arranged in the three-dimensional space for the target object, and a closed region belonging to the set of closed regions exists outside the target object. The probability of being within a predetermined probability range, a step for boundary closed area determination for determining whether or not the area is a closed area existing near the boundary between the inside and outside of the target object, and the closed area determination A step of dividing the closed region, which is determined as a closed region existing near the boundary by the determining step, into smaller divided closed regions, and a program for executing the step of dividing the boundary closed region. Then, the processing for executing the step for determining the boundary closed area and the step for dividing the boundary closed area is repeated for the divided closed area until the closed area reaches a predetermined size. A stereoscopic information acquisition program is provided.

【0053】(作用)本発明は、境界ボクセルを再分割
することにより、精度が格段に向上するようなプログラ
ムとしている。
(Operation) The present invention has a program in which the accuracy is remarkably improved by subdividing the boundary voxels.

【0054】[0054]

【発明の実施の形態】以下、図面を参照して本発明によ
る立体情報取得装置の実施の形態について説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of a stereoscopic information acquiring apparatus according to the present invention will be described below with reference to the drawings.

【0055】本発明による立体情報取得装置の実施の形
態の説明では、主に、対象物体を移動することを主眼に
説明するが、撮影手段を移動してもまったく同様に実現
可能である。
In the description of the embodiment of the three-dimensional information acquisition apparatus according to the present invention, mainly the movement of the target object will be explained, but the same can be realized by moving the photographing means.

【0056】(第1の実施の形態)図1は、本発明によ
る立体情報取得装置の第1の実施の形態の構成を示すブ
ロック図である。
(First Embodiment) FIG. 1 is a block diagram showing the configuration of a first embodiment of a stereoscopic information acquisition apparatus according to the present invention.

【0057】本実施の形態は、図1に示すように、撮影
手段としてのカメラCUと、被写体照明用のフラッシュ
FUと、相対位置移動手段としての回転テーブル(撮影
台回転装置)RUと、この回転テーブルRUが一回転し
たことを認識するセンサRUと、背景板としてのブルー
バックBBと、対象物体BEと、撮影時刻記録装置TM
と、相対位置特定手段としての相対位置算出装置PC
と、形状推定を行う形状推定装置SRとからなる。
In the present embodiment, as shown in FIG. 1, a camera CU as a photographing means, a flash FU for illuminating an object, a rotary table (photographing table rotating device) RU as a relative position moving means, and A sensor RU for recognizing that the rotary table RU has rotated once, a blue back BB as a background plate, a target object BE, and a photographing time recording device TM.
And a relative position calculating device PC as relative position specifying means
And a shape estimation device SR that performs shape estimation.

【0058】図2は、本実施の形態における大まかな処
理の流れを示すフローチャートである。
FIG. 2 is a flow chart showing the flow of rough processing in the present embodiment.

【0059】本実施の形態における大まかな処理の流れ
は、キャリブレーションを行うステップS0と、撮影を
行うステップS1と、境界画像作成を行うステップS2
と、形状推定を行うステップS3とからなる。
The general processing flow in this embodiment is as follows: step S0 for performing calibration, step S1 for photographing, and step S2 for creating a boundary image.
And the step S3 of performing shape estimation.

【0060】ただし、キャリブレーションを行うステッ
プS0は、カメラCUのフォーカス位置及びズーム位
置、カメラCUと回転テーブルRUとの位置関係が変わ
らない限り、一度行えなえばよい。
However, the step S0 for performing the calibration may be performed once unless the focus position and zoom position of the camera CU and the positional relationship between the camera CU and the turntable RU are changed.

【0061】(ステップS0)まず、このステップS0
において、キャリブレーションを行う。
(Step S0) First, this step S0
At, calibration is performed.

【0062】本実施の形態によるキャリブレーションと
は、3次元空間上の点が撮影された画像のどの点に射影
されるかを知るために、カメラCUの内部パラメータ及
びカメラCUと回転テーブルRUとの位置関係を求める
処理のことである。
The calibration according to the present embodiment refers to the internal parameters of the camera CU, the camera CU, and the rotation table RU in order to know to which point in the captured image the point in the three-dimensional space is projected. Is a process for obtaining the positional relationship of.

【0063】まず、カメラCUの内部パラメータについ
て説明する。
First, the internal parameters of the camera CU will be described.

【0064】ここで、カメラCUの内部パラメータと
は、撮影された画像の縦の拡大比αuと、横方向の拡大
比αv と、光学中心(図3に示すように、主点位置から
画像面へ下ろした垂線の足)u0 、v0 である。
Here, the internal parameters of the camera CU are the vertical enlargement ratio α u of the captured image, the horizontal enlargement ratio α v, and the optical center (from the principal point position as shown in FIG. 3). Feet of a perpendicular line lowered to the image plane) u 0 , v 0 .

【0065】ここで、拡大比とは、縦横の画像上のピク
セルの幅とカメラCUの光学主点と画像面との距離の比
である。
Here, the enlargement ratio is the ratio of the width of the pixel on the vertical and horizontal images to the distance between the optical principal point of the camera CU and the image plane.

【0066】図3は、カメラ座標系と画像座標系との関
係を示す図である。
FIG. 3 is a diagram showing the relationship between the camera coordinate system and the image coordinate system.

【0067】例えば、画像面IP上に左上に原点Oi、
横方向にu軸、縦方向にv軸を設定した画像座標系O
i、カメラCUの主点位置に原点Oc、u軸に平行にX
軸、v軸に平行にY軸、画像面方向にZ軸を設定したカ
メラ座標系Ocを設定する。
For example, the origin Oi at the upper left on the image plane IP,
Image coordinate system O with u-axis set horizontally and v-axis set vertically
i, origin Oc at the principal point position of the camera CU, X parallel to the u axis
A camera coordinate system Oc is set in which the Y axis is set parallel to the axes and the v axis and the Z axis is set in the image plane direction.

【0068】ある点がカメラ座標系Ocで W=(x,y,z)^T 画像座標系Oiで I=(u,v)^T と表せるとき、これらの二つの座標系Oc,Oiの関係
は、 I′=(u′,v′,w′)^T=U×W′ I=(u′/w′,v′/w′)^T W′=(x,y,z,1)^T となる。
When a point can be expressed as W = (x, y, z) ^ T in the camera coordinate system Oc and I = (u, v) ^ T in the image coordinate system Oi, these two coordinate systems Oc and Oi The relationship is I ′ = (u ′, v ′, w ′) ^ T = U × W ′ I = (u ′ / w ′, v ′ / w ′) ^ T W ′ = (x, y, z, 1) ^ T.

【0069】ここで、^Tはベクトルの転置を表し、U
はカメラ座標系Ocから画像座標系Oiへの変換行列を
表す。
Here, ^ T represents the transpose of the vector, and U
Represents a transformation matrix from the camera coordinate system Oc to the image coordinate system Oi.

【0070】Uはu,v方向のパースペクティブ比αu
と、αv と、光学中心u0 、v0 を用いて、
U is the perspective ratio α u in the u and v directions.
And α v and the optical centers u 0 and v 0 ,

【数1】 と表せる。[Equation 1] Can be expressed as

【0071】これらのパラメータを取得する方法として
は、文献「写真から作る3次元CG、徐 剛著、近代科
学社、2001年」にある。
As a method for obtaining these parameters, there is a document "3D CG made from photographs, Takeshi Xu, Modern Science Company, 2001".

【0072】次に、カメラCUと回転テーブルRUとの
位置関係について説明する。
Next, the positional relationship between the camera CU and the turntable RU will be described.

【0073】これは、前述したカメラ座標系Ocと、回
転テーブルRU上に設定された回転テーブル座標系Or
の関係と同等である。
This is the above-mentioned camera coordinate system Oc and the rotary table coordinate system Or set on the rotary table RU.
Is equivalent to the relationship.

【0074】図4は、カメラ座標系Ocと、回転テーブ
ルRU上に設定された回転テーブル座標系Orの各座標
系の関係を示す図である。
FIG. 4 is a diagram showing the relationship between the camera coordinate system Oc and each coordinate system of the rotary table coordinate system Or set on the rotary table RU.

【0075】ここで、回転テーブル座標系Orは、回転
軸をZ方向、回転板をXY平面に設定する。
Here, in the rotary table coordinate system Or, the rotary axis is set in the Z direction and the rotary plate is set in the XY plane.

【0076】カメラ座標系Ocで W=(x,y,z)^T 回転テーブル座標系Orで Z=(p,q,r)^T と表せるとき、これら二つの座標系Oc,Orの関係
は、 W=M×Z′ W′=(x,y,z,1)^T Z′=(p,q,r,1)^T となる。
When W = (x, y, z) ^ T in the camera coordinate system Oc and Z = (p, q, r) ^ T in the rotary table coordinate system Or, the relationship between these two coordinate systems Oc, Or W = M × Z 'W' = (x, y, z, 1) ^ T Z '= (p, q, r, 1) ^ T.

【0077】ここで、Mはカメラ座標系Ocからみた回
転テーブル座標系Orの位置関係を表す回転行列Rcr
と、並進ベクトルTcrとを用いて
Here, M is a rotation matrix Rcr representing the positional relationship of the rotation table coordinate system Or viewed from the camera coordinate system Oc.
And the translation vector Tcr

【数2】 と表せる。[Equation 2] Can be expressed as

【0078】回転行列Rcrと、並進ベクトルTcrを
求める方法としては、例えば、図5に示すようなパター
ンPCを間隔dで配置したパターン平板PBを図6のよ
うに回転テーブルRUに回転板に直立させて10度づつ
回転させた異なる複数の角度からカメラCUによって撮
影する方法がある。
As a method for obtaining the rotation matrix Rcr and the translation vector Tcr, for example, a pattern flat plate PB in which patterns PC as shown in FIG. 5 are arranged at intervals d is placed upright on the rotary plate on the rotary table RU as shown in FIG. There is a method of photographing with the camera CU from a plurality of different angles that are rotated by 10 degrees.

【0079】例えば、5つの異なる角度から撮影を行っ
たとすると、撮影された画像IPB1,IPB2,…,
IPB5の画像内のすべてのパターンPC11,PC1
2…PC15,PC21,PC22,…,PC25,P
C31,PC32,…,PC35,PC41,PC4
2,…P,C45,PC51,PC52,…,PC55
の重心の各画像座標系Oiにおける座標PC111,P
C112…PC115,PC211,PC212,…,
PC215,PC311,PC312,…,PC31
5,PC411,PC412,…,PC415,PC5
11,PC512,…,PC515を求める。
For example, if images are taken from five different angles, the taken images IPB1, IPB2, ...
All patterns PC11, PC1 in the image of IPB5
2 ... PC15, PC21, PC22, ..., PC25, P
C31, PC32, ..., PC35, PC41, PC4
2, ... P, C45, PC51, PC52, ..., PC55
Of the center of gravity of each of the coordinates PC111, P in each image coordinate system Oi
C112 ... PC115, PC211, PC212, ...
PC215, PC311, PC312, ..., PC31
5, PC411, PC412, ..., PC415, PC5
11, PC512, ..., PC515 are calculated.

【0080】パターン平板の縦方向にZ方向、横方向に
Y方向、平板の法線方向にX方向、平板の左下原点を設
定したパタ一ン平板座標系Opを考えると、各パターン
のパターン平板座標系Opでの座標PC11,PC1
2,…,PC15,PC21,PC22,…,PC2
5,PC31,PC32,…,PC35,PC41,P
C42,…,PC45,PC51,PC52,…,PC
55はPCnm=(0,m×d,n×d)^Tとなる。
Considering a pattern flat plate coordinate system Op in which the vertical direction of the pattern flat plate is the Z direction, the horizontal direction is the Y direction, the normal direction of the flat plate is the X direction, and the lower left origin of the flat plate is set, the pattern flat plate of each pattern is considered. Coordinates PC11 and PC1 in the coordinate system Op
2, ..., PC15, PC21, PC22, ..., PC2
5, PC31, PC32, ..., PC35, PC41, P
C42, ..., PC45, PC51, PC52, ..., PC
55 is PCnm = (0, mxd, nxd) ^ T.

【0081】ここで、パターン平板座標系Opから回転
テーブル座標系Orへの変換行列をG、変換後のベクト
ルをPCRpnmとおくと、 PCRpnm=(PCRpnmx,PCRpnmy,P
CRpnmz)^T PCRpnm′=(PCRpnmx,PCRpnmy,
PCRpnmz,1)^T=Rp×G×PCnm′ PCnm′=(0,m×d,n×d,1)^T
Here, when the conversion matrix from the pattern flat plate coordinate system Op to the rotary table coordinate system Or is G and the vector after conversion is PCRpnm, PCRpnm = (PCRpnmx, PCRpnmy, P
CRpnmz) ^ T PCRpnm '= (PCRpnmx, PCRpnmy,
PCRpnmz, 1) ^ T = Rp × G × PCnm ′ PCnm ′ = (0, m × d, n × d, 1) ^ T

【数3】 となる。[Equation 3] Becomes

【0082】ここで、添え字pは複数の画像の一枚を表
す。
Here, the subscript p represents one of a plurality of images.

【0083】また、Rpは回転テーブルRUの回転を表
す行列で既知である。
Rp is a known matrix representing the rotation of the rotation table RU.

【0084】つまり、 Ppnm′=U×M×Rp×G×PCnm′ という連立方程式を解けばカメラ座標系Ocと、回転テ
ーブル座標系Orの関係つまり行列Mを求めることがで
きる。
That is, by solving the simultaneous equation Ppnm ′ = U × M × Rp × G × PCnm ′, the relationship between the camera coordinate system Oc and the rotary table coordinate system Or, that is, the matrix M can be obtained.

【0085】このMを用いて、ある3次元空間上の点F
の回転テーブル座標系Orから見た座標をFr、画像座
標系Oiから見たの座標をFiとすれば Fi′=(u′,v′,w′)^T=U×M×Fr′ Fi=(u′/w′,v′/w′)^T Fr′=(Fr^T,1)^T となり、3次元空間上の任意の点が画像のどの点に射影
されるかがわかる。
Using this M, a point F on a certain three-dimensional space
Let Fr be the coordinates seen from the rotary table coordinate system Or and Fi be the coordinates seen from the image coordinate system Oi. Fi ′ = (u ′, v ′, w ′) ^ T = U × M × Fr ′ Fi = (U '/ w', v '/ w') ^ T Fr '= (Fr ^ T, 1) ^ T, and it becomes clear which point of the image an arbitrary point in the three-dimensional space is projected on. .

【0086】ここで、パターン平板の代わりに3次元形
状を有した円柱、四角柱あるいは特殊形状の立体表面上
に特徴となるパターンを配置し、そのパターンの重心の
3次元座標が正確にわかるものならば何でも良い。
Here, instead of the pattern flat plate, a characteristic pattern is arranged on a solid surface of a cylinder, a square prism or a special shape having a three-dimensional shape, and the three-dimensional coordinates of the center of gravity of the pattern can be accurately known. Anything will do.

【0087】(ステップS1)次に、ステップS1にお
いて回転テーブルRUに対象物体BEを置き、対象物体
BEを回転させながらカメラCUによって、対象物体B
Eを背景BBとともに撮影し、物体画像A1,A2,
…,Anを得る。
(Step S1) Next, in step S1, the target object BE is placed on the turntable RU and the target object B is rotated by the camera CU while rotating the target object BE.
E is photographed together with the background BB, and the object images A1, A2,
…, Get An.

【0088】例えば、対象物体Bを回転数1rpmで回
転させながら1回転する間にほぼ等間隔に36回撮影
(つまり60/36=約1.67秒間隔で撮影)し、図
7に示すように複数の物体画像A01,A02,…,A
36を得る。
For example, the target object B is photographed 36 times at substantially equal intervals (that is, photographed at 60/36 = 1.67 second intervals) while making one revolution while rotating the target object B as shown in FIG. , A plurality of object images A01, A02, ..., A
Get 36.

【0089】このとき必要に応じて被写体照明用のフラ
ッシュFUを同期させて点灯させるようにしても良い。
At this time, if necessary, the flash FU for illuminating the subject may be synchronized and turned on.

【0090】この場合、シャッタースピード1/500
で撮影したとすると、撮影の間に、対象物体Bは360
÷60÷500=0.012度しか回転しないため、画
像がぶれるという問題は起こりにくい。
In this case, the shutter speed is 1/500
, The target object B is 360
÷ 60 ÷ 500 = Because it rotates only 0.012 degrees, the problem of image blurring is unlikely to occur.

【0091】ここで、回転数は対象物体Bが安定して回
転し、画像がぶれない回転数であれば良い。
Here, the rotation speed may be any rotation speed at which the object B is stably rotated and the image is not blurred.

【0092】ここで、物体画像A01,A02,…,A
36を撮影した時刻T1,T2,…,T36(s)を撮
影時刻記録装置TMによって記録しておく。
Here, the object images A01, A02, ..., A
Times T1, T2, ..., T36 (s) when 36 is photographed are recorded by the photographing time recording device TM.

【0093】この時刻T1,T2,…,T36の保存方
法としては、例えば、画像に付記してもよいし、撮影順
番とペアにしてテーブルとして別ファイルに保存するよ
うにしてもよい。
As a method of saving the times T1, T2, ..., T36, for example, the images may be added or they may be paired with the shooting order and saved as a table in a separate file.

【0094】ここで、回転テーブルRUの回転を認識で
きるように、テーブルRUにセンサRSが設けられてい
る。
Here, a sensor RS is provided on the table RU so that the rotation of the rotary table RU can be recognized.

【0095】このことにより、回転テーブルRUが1回
転する時間を計測することが可能になり、1回転の平均
の角速度を算出することにより、回転テーブルRUの角
速度のふらつきの3次元再構成への影響を軽減すること
ができる。
As a result, it is possible to measure the time required for the rotary table RU to make one rotation, and by calculating the average angular velocity of one rotation, the three-dimensional reconstruction of the angular velocity fluctuation of the rotary table RU can be performed. The impact can be reduced.

【0096】なお、背景としては、例えば、図1に示し
たようにブルーバックの背景BBを用いる。
As the background, for example, a blue background BB as shown in FIG. 1 is used.

【0097】しかるに、この背景としては、背景と認識
できるものであれば何でも良い。
However, any background can be used as long as it can be recognized as the background.

【0098】例えば、ブルーでなくても赤、黄、緑など
でも良いし、格子パターン等の模様があっても良い。
For example, red, yellow, green or the like may be used instead of blue, or a pattern such as a lattice pattern may be provided.

【0099】(ステップS2)スデップS2では、図1
の形状推定装置SRにおいて物体画像A01,A02,
…,A36から境界画像を作成する。
(Step S2) In step S2, as shown in FIG.
Of the object images A01, A02,
A boundary image is created from A36.

【0100】つまり、各物体画像A01,A02,…,
A36から、背景BBを認識し、図8に示すように複数
の境界画像B01,B02,…,B36を作成する。
That is, each object image A01, A02, ...
The background BB is recognized from A36, and a plurality of boundary images B01, B02, ..., B36 are created as shown in FIG.

【0101】これらは、原則的に物体の存在する領域を
「1」とし、存在しない場所「0」とする2値画像であ
る。
These are binary images in which the area where the object exists is "1" and the place where the object does not exist is "0" in principle.

【0102】ただし、物体なのか背景なのかの区別がつ
かなかった領域をアナログ的に「0」、「1」以外の数
字で保存するようにしても良い。
However, an area in which it is not possible to distinguish between an object and a background may be saved as a number other than “0” and “1” in an analog manner.

【0103】物体画像A01,A02,…,A36が3
6枚であるため、境界画像も36枚になる。
Object images A01, A02, ..., A36 are 3
Since there are 6 sheets, the number of boundary images also becomes 36.

【0104】(ステップS3)次に、ステップS3で
は、図1に示した形状推定装置SRにおいて形状推定を
行う。
(Step S3) Next, in step S3, shape estimation is performed in the shape estimation apparatus SR shown in FIG.

【0105】図9は、ステップS3の処理の流れを示す
フローチャートである。
FIG. 9 is a flow chart showing the flow of processing in step S3.

【0106】まず、ポクセル設定処理ステップS301
において、回転テーブル座標系Orに図10に示すよう
にボクセルBOXを設定する。
First, the voxel setting processing step S301
In, the voxel BOX is set in the rotary table coordinate system Or as shown in FIG.

【0107】この場合、ボクセルBOXの設定範囲は、
対象物体が完全に覆い隠せる領域に設定する。
In this case, the setting range of the voxel BOX is
Set it to the area where the target object can be completely covered.

【0108】また、一つのボクセルBOXの大きさ、ボ
クセルBOXの数は所望の精度によって設定する。
The size of one voxel BOX and the number of voxels BOX are set according to desired accuracy.

【0109】例えば、設定範囲が(−1,−1,0)、
(1,1,2)を対角とする立方体であるとすると、一
つのボクセルBOXの大きさは0.001、ボクセルB
OXの数は2000×2000×2000=8×10^
9である。
For example, the setting range is (-1, -1, 0),
Assuming a cube with (1,1,2) as a diagonal, the size of one voxel BOX is 0.001, and the size of voxel B is
The number of OXs is 2000 × 2000 × 2000 = 8 × 10 ^
It is 9.

【0110】ここで、^9は9乗を表す。Here, ^ 9 represents the 9th power.

【0111】この設定範囲では、回転テーブルRUのほ
ぼ中央に置かれた直径が2の球が測定できる。
In this setting range, a sphere having a diameter of 2 placed at the center of the turntable RU can be measured.

【0112】ここで、ボクセルやボクセルの設定範囲は
本実施の形態では立方体を用いたが、例えば、直方体
や、三角柱、六角柱などを用いても良いし、円筒座標系
で扇型のボクセルBOXを用いても良い。
Although a cube is used as the voxel or the setting range of the voxel in the present embodiment, for example, a rectangular parallelepiped, a triangular prism, a hexagonal prism or the like may be used, or a fan-shaped voxel BOX in a cylindrical coordinate system. May be used.

【0113】特に、物体が扁平な場合は、ボクセルの設
定範囲を直方体にすることで計算量、メモリ量を大幅に
軽減できる。
In particular, when the object is flat, the amount of calculation and the amount of memory can be greatly reduced by setting the voxel setting range to a rectangular parallelepiped.

【0114】次に、処理画像選択処理ステップS303
で処理していない画像から1枚画像を選び、撮影角度算
出処理ステップS304にて基準角度からの撮影角度A
a1,Aa2,…,Aa36を求める。
Next, the processing image selection processing step S303.
One image is selected from the images that have not been processed in step S304 and the shooting angle A from the reference angle is calculated in the shooting angle calculation processing step S304.
A1, Aa2, ..., Aa36 are obtained.

【0115】これは、図1に示した相対位置算出装置P
Cの中で行われる。
This is the relative position calculating device P shown in FIG.
Performed in C.

【0116】基準角度は、例えば、最初に撮影された角
度を基準としても良いし、その他の撮影角度を基準とし
ても良い。
The reference angle may be based on, for example, the angle at which the image is first captured, or may be based on other image capturing angles.

【0117】本実施の形態は回転テーブルRUを1rp
mで回転させているので、1秒間に6度回転する。
In this embodiment, the rotary table RU is set to 1 rp.
Since it is rotated at m, it rotates 6 degrees per second.

【0118】よって、 Aan=(Tn−T1)×6 となる。Therefore, Aan = (Tn−T1) × 6 Becomes

【0119】さらに、判定対象ボクセル選択処理ステッ
プS306において、外部と判定されていない各ボクセ
ルの頂点のうち、未判定のボクセルを選択する。
Further, in the judgment target voxel selection processing step S306, an unjudged voxel is selected from the vertices of each voxel which is not judged to be outside.

【0120】選択されたボクセルを、ボクセル頂点座標
射影処理ステップS308にて、前述した変換行列と撮
影角度Aa1,Aa2,…,Aa36に対応する回転行
列Rpを用いて、境界画像B01,B02,…,B36
に射影し、さらにボクセル外部判定処理ステップS30
9にて物体領域にすべての頂点が含まれていない場合は
外部と判定する。
At the voxel vertex coordinate projection processing step S308, the selected voxel is subjected to boundary image B01, B02, ... , B36
Voxel external determination processing step S30
If all the vertices are not included in the object area at 9, it is determined to be outside.

【0121】ここで、外部判定は、ボクセルの重心を境
界画像B01,B02,…,B36に射影し、射影され
た点が物体領域に含まれていない場合を外部と判定する
ようにしても良い。
Here, in the external determination, the centroid of the voxel may be projected onto the boundary images B01, B02, ..., B36, and the case where the projected point is not included in the object area may be determined to be external. .

【0122】この判定結果は、図示しない判定結果保存
部にて保存される。
The determination result is stored in the determination result storage unit (not shown).

【0123】図11は、この判定の例を示す図である。FIG. 11 is a diagram showing an example of this determination.

【0124】すなわち、図11の(a)は、内部と判定
される場合であり、図11の(b)は、外部と判定され
る場合である。
That is, FIG. 11A shows the case where it is judged to be inside, and FIG. 11B shows the case where it is judged to be outside.

【0125】また、図12は、境界画像B01によって
ボクセルが外部と判定される様子を示す図である。
FIG. 12 is a diagram showing how voxels are judged to be outside by the boundary image B01.

【0126】ここで、斜線部が外部と判定されたボクセ
ルである。
Here, the shaded areas are the voxels judged to be outside.

【0127】図13の(a)乃至(d)は、この方法で
対象物体が切り出されていく様子を単純な形状に対して
2次元の例で示す図である。
FIGS. 13 (a) to 13 (d) are diagrams showing how a target object is cut out by this method in a two-dimensional example with respect to a simple shape.

【0128】ここで、斜線部が切り出されたボクセル
で、網目模様部が以前に外部と判定されたため判定を行
わないボクセルである。
Here, the voxels in which the shaded portions are cut out are the voxels which are not determined because the mesh pattern portions have previously been determined to be outside.

【0129】さらに、ボクセル外部判定部において外部
と判定された回数が閾値以上のボクセルを外部ボクセル
として登録する。
Further, a voxel whose number of times of being judged to be outside by the voxel outside judging section is a threshold value or more is registered as an external voxel.

【0130】この判定は、例えば、外部確率=判定され
た回数/判定に用いられた画像数という値を用いて判定
するようにしても良い。
This determination may be performed using, for example, the value of external probability = the number of determinations / the number of images used in the determination.

【0131】最後に、すべての画像に対して処理が終了
したら、外部でないボクセルを対象物体の立体形状とす
る。
Finally, when the processing is completed for all the images, the voxels that are not the outside are set as the three-dimensional shape of the target object.

【0132】また、撮影部による撮影は、複数回転を通
して行っても良い。
Further, the photographing by the photographing section may be carried out through a plurality of rotations.

【0133】この場合、各回転で異なる視点で撮影する
ことによって、次のような効果が得られる。
In this case, the following effects can be obtained by photographing from different viewpoints at each rotation.

【0134】例えば、1回転目で0、180度付近(撮
影角度自体が正確にわかっていれば正確にこの角度にな
らなくてもよい)で撮影し、2回転目で90、270度
付近、3回転目で45、135、225、315度付近
というように、回転方向の解像度を徐々に細かくして撮
影すると、回転ごとに徐々に細かな形状がわかる。
For example, in the first rotation, the image is taken at around 0, 180 degrees (this angle may not be exactly if the shooting angle itself is known), and in the second rotation, it is around 90,270 degrees, If the resolution in the rotation direction is gradually made finer, such as around 45, 135, 225, and 315 degrees at the third rotation, a gradually finer shape can be seen for each rotation.

【0135】このことにより、形状推定部において形状
推定すべき領域を処理過程の早い段階で知ることがで
き、処理を速めることができる。
As a result, the area to be shape-estimated by the shape estimator can be known at an early stage of the processing, and the processing can be speeded up.

【0136】また、撮影部によって0、10、・・・34
0、350度付近で順番に撮影された場合でも、0、1
80、90、270、40、130、220、310…
度といった順番で形状推定を行うと、前述したと同様の
効果が得られる。
Further, depending on the photographing unit, 0, 10, ... 34
Even if the images were taken in sequence around 0 and 350 degrees, 0 and 1
80, 90, 270, 40, 130, 220, 310 ...
If shape estimation is performed in the order of degrees, the same effect as described above can be obtained.

【0137】また、図14に示すように、さらに、回転
軸方向に対象物体BEを一定速度で上下させる撮影テー
ブル昇降装置UDUを備え、回転テーブルRUの回転に
あわせて回転テーブルRUを一定速度で持ち上げながら
撮影するように構成しても良い。
Further, as shown in FIG. 14, a photographing table lifting device UDU for moving the target object BE up and down in the rotation axis direction at a constant speed is further provided, and the rotation table RU is moved at a constant speed in accordance with the rotation of the rotation table RU. You may comprise so that it may shoot while lifting.

【0138】この場合、上下方向の相対位置も変わるた
め、単なる回転運動では、推定できなかった対象物体の
部位を推定することができる。
In this case, since the relative position in the vertical direction also changes, it is possible to estimate the part of the target object that could not be estimated by simple rotational movement.

【0139】撮影位置は角度に加え、高さの移動も変化
するが、一定速度で移動しているため、前述の角度の算
出と同様に一定速度に撮影時刻をかければ高さを求める
ことができる。
The photographing position changes not only in angle but also in movement in height, but since it is moving at a constant speed, the height can be obtained by multiplying the photographing time at a constant speed as in the calculation of the angle described above. it can.

【0140】(第2の実施の形態)この第2の実施の形
態による立体情報取得装置の機器構成は、第1の実施の
形態と同じである。
(Second Embodiment) The device configuration of the stereoscopic information acquisition apparatus according to the second embodiment is the same as that of the first embodiment.

【0141】図15は、この第2の実施の形態による立
体情報取得装置の処理の流れを示すフローチャートであ
る。
FIG. 15 is a flow chart showing the flow of processing of the stereoscopic information acquisition apparatus according to the second embodiment.

【0142】本実施の形態による立体情報取得装置の処
理の流れは、ステップS0乃至S3までは第1の実施の
形態と同じである。
The processing flow of the three-dimensional information acquisition apparatus according to this embodiment is the same as that of the first embodiment in steps S0 to S3.

【0143】テクスチャマッピング処理ステップS4で
は、物体画像A01,A02,…,A36を用いて各表
面にあるボクセルの色情報を決定する。
In the texture mapping processing step S4, the color information of voxels on each surface is determined using the object images A01, A02, ..., A36.

【0144】例えば、まず表面にあるボクセルの中心の
座標をそのボクセルが見えている物体画像A01,A0
2,…,A36へ射影し、射影された画像の色情報を平
均してそのボクセルの色情報とする。
For example, first, the coordinates of the center of a voxel on the surface are set to object images A01 and A0 in which the voxel is visible.
2, ..., A36, and the color information of the projected image is averaged to obtain the color information of the voxel.

【0145】これにより、物体の3次元形状のみなら
ず、各部の色情報も取得できる。
As a result, not only the three-dimensional shape of the object but also the color information of each part can be acquired.

【0146】(第3の実施の形態)図16は、この第3
の実施の形態による立体情報取得装置の構成を示すブロ
ック図である。
(Third Embodiment) FIG. 16 shows the third embodiment.
It is a block diagram showing a configuration of a stereoscopic information acquisition device according to an embodiment of.

【0147】本実施の形態は、第1の実施の形態の撮影
ステップS2と境界画像作成ステップS3とが異なる。
In this embodiment, the photographing step S2 and the boundary image creating step S3 of the first embodiment are different.

【0148】まず、背面全体が明るくなるような光源を
カメラCUに対してオブジェクトとしての対象物体BE
の背後に設置する。
First, a light source that makes the entire back surface bright is provided to the camera CU as a target object BE as an object.
Be installed behind.

【0149】例えば、図16に示すように拡散板FBを
設置し、その背後から撮影に同期させてフラッシュBF
Uを光らせる。
For example, as shown in FIG. 16, a diffuser plate FB is installed, and a flash BF is provided from behind to synchronize with shooting.
Make U glow.

【0150】さらに、対象物体BEは透明な台CBの上
に設置する。
Further, the target object BE is set on the transparent base CB.

【0151】あとは第1の実施の形態と同様に回転テー
ブルRUを回転させることにより、例えば、36枚のシ
ルエット画像S01,S02,…,S36を撮影する
(図17参照)。
Then, the rotary table RU is rotated in the same manner as in the first embodiment, so that, for example, 36 silhouette images S01, S02, ..., S36 are photographed (see FIG. 17).

【0152】このようにして撮影することにより、背景
領域は輝度が高く、オブジェクトの存在する領域は非常
に暗い、いわゆる、逆光下における撮影と同じ画像を得
ることができる。
By photographing in this way, it is possible to obtain the same image as that in the case of so-called backlighting in which the background area has high brightness and the area where the object exists is very dark.

【0153】次に、境界画像作成処理ステップS3で
は、シルエット画像に対して、暗い領域を抽出する。
Next, in the boundary image creating processing step S3, a dark area is extracted from the silhouette image.

【0154】例えば、ある閾値以上の輝度値を持つ画素
を背景とし、残りの領域をオブジェクトとする。
For example, a pixel having a brightness value equal to or higher than a certain threshold is used as a background, and the remaining area is used as an object.

【0155】これら撮影方法と切り出し方法に関しての
詳しくは、特願2001−245593に順ずる。
The details of the photographing method and the clipping method are based on Japanese Patent Application No. 2001-245593.

【0156】(第4の実施の形態)図18は、この第4
の実施の形態による立体情報取得装置の構成を示すブロ
ック図である。
(Fourth Embodiment) FIG. 18 shows the fourth embodiment.
It is a block diagram showing a configuration of a stereoscopic information acquisition device according to an embodiment of.

【0157】本実施の形態は、図15に示した第2の実
施の形態の撮影ステップS1と、境界画像作成処理ステ
ップS2と、テクスチャマッピング処理ステップS4と
が異なる。
The present embodiment is different from the photographing step S1 of the second embodiment shown in FIG. 15, the boundary image creation processing step S2, and the texture mapping processing step S4.

【0158】まず、背面全体が明るくなるような光源を
カメラCUに対してオブジェクトの背後に設置する。
First, a light source that makes the entire back surface bright is installed behind the object with respect to the camera CU.

【0159】例えば、図18に示したように拡散板FB
を設置し、その背後から撮影にあわせてフラッシュBF
Uを光らせる。
For example, as shown in FIG. 18, the diffusion plate FB
Install a flash BF from behind to match the shooting
Make U glow.

【0160】このように撮影することにより、背景領域
は輝度が高く、オブジェクトの存在する領域は非常に暗
い、いわゆる、逆光下における撮影と同じ画像を得るこ
とができる。
By photographing in this way, it is possible to obtain the same image as that in the case of so-called backlighting in which the background area has high brightness and the area where the object exists is very dark.

【0161】また、前面を照射するためのフラッシュF
Uを備え、背後のフラッシュBFUと交互、もしくは、
数回置きに光らせるためのフラッシュ切り替え装置FC
Uを備えている。
In addition, a flash F for illuminating the front surface
Equipped with U and alternate with the flash BFU behind, or
Flash switching device FC for flashing every few times
Equipped with U.

【0162】回転テーブルRUには、透明な台CBが備
えており、その上にオブジェクトとしての対象物体BE
を置いて、回転テーブルRUを回転させながら、複数の
FUを光らせて撮影したテクスチャ画像T01,T0
2,…,T36と複数のBFUを光らせて撮影したシル
エット画像S01,S02,…,S36を、例えば、交
互に撮影する(図19参照)。
The rotary table RU is provided with a transparent base CB, on which the target object BE as an object is mounted.
, The texture images T01 and T0 captured by illuminating a plurality of FUs while rotating the turntable RU.
, ..., T36 and silhouette images S01, S02, ..., S36 photographed by shining a plurality of BFUs are photographed alternately, for example (see FIG. 19).

【0163】次に、境界画像作成処理ステップS3で
は、シルエット画像に対して、暗い領域を抽出する。
Next, in the boundary image creation processing step S3, a dark area is extracted from the silhouette image.

【0164】例えば、ある閾値以上の輝度値を持つ画素
を背景とし、残りの領域をオブジェクトとする。
For example, a pixel having a brightness value equal to or higher than a certain threshold is used as a background, and the remaining area is used as an object.

【0165】これら撮影方法と切り出し方法に関しての
詳しくは、特願2001−245593に順ずる。
Details of the photographing method and the clipping method are in accordance with Japanese Patent Application No. 2001-245593.

【0166】また、テクスチャマッピング処理ステップ
では、テクスチャ画像を用いて、第2の実施の形態同様
にボクセルに色情報を付与することにより、物体の3次
元形状のみならず、各部の色情報も取得することができ
る。
In the texture mapping processing step, the texture image is used to give color information to the voxels as in the second embodiment, so that not only the three-dimensional shape of the object but also the color information of each part is acquired. can do.

【0167】(第5の実施の形態)この第5の実施の形
態は、前述した第1乃至第4の実施の形態の形状推定処
理ステップS3が異なる形態である。
(Fifth Embodiment) In the fifth embodiment, the shape estimation processing step S3 of the first to fourth embodiments is different.

【0168】図20の(a)乃至(d)は、本実施の形
態のボクセルの変化の様子を2次元で示す図である。
20 (a) to 20 (d) are two-dimensional views showing how the voxels of this embodiment are changed.

【0169】本実施の形態では、まず、一つのボクセル
を所望の精度よりも大きめに設定する。
In this embodiment, first, one voxel is set to a size larger than the desired accuracy.

【0170】また、第1乃至第4の実施の形態と同様に
ボクセルの外部判定を行うが、8つの頂点の判定が外部
と内部で混在しているボクセルに対してボクセルの分割
を行う。
Further, as in the first to fourth embodiments, the voxel external determination is performed, but voxel division is performed on a voxel in which the determination of eight vertices is mixed externally and internally.

【0171】図20では、2次元の説明であるために一
つの正方形が4つに分割されているが、3次元では8つ
の立方体に分割する。
In FIG. 20, one square is divided into four because it is a two-dimensional description, but in three dimensions, it is divided into eight cubes.

【0172】そして、分割された立方体に対しても同様
に外部判定を行い再起的に分割を繰り返す。
Then, the external judgment is similarly performed on the divided cubes and the division is repeated recursively.

【0173】所望の精度が得られるボクセルの大きさに
なった時点で終了し、まだ処理が終了していない境界画
像を用いて同様な処理を行う。
The same processing is performed using the boundary image that has ended when the voxel size has reached the desired accuracy and has not yet been processed.

【0174】このように、再起的に分割しながら3次元
再構成することによって、物体内部と外部の境界以外は
所望の精度よりも大きなボクセルで分割されているた
め、処理されるボクセル数は激減する。
As described above, by performing the three-dimensional reconstruction while recursively dividing, the number of voxels to be processed is drastically reduced because the voxels are divided by the voxels larger than the desired accuracy except the boundary between the inside and the outside of the object. To do.

【0175】また、一度分割してしまったボクセルの中
で、そのボクセルの内部にあるすべてのボクセルが外部
であると判定されていた場合には、それらのボクセルを
統合して一つのボクセルとみなすことによって、ボクセ
ルの数をさらに減少させることも可能である。
If it is determined that all voxels inside the voxel that are once divided are outside, then those voxels are integrated and regarded as one voxel. By doing so, it is possible to further reduce the number of voxels.

【0176】ここで、ボクセルの外部判定を8つの頂点
のほかに、例えば、6つの面の角重心や、各辺の中点等
も用いて判定するようにしても良い。
Here, in addition to the eight vertices, the voxel external determination may be performed using, for example, the corner centroids of the six surfaces or the midpoints of the sides.

【0177】このことにより、より複雑な形状の物体の
3次元再構成を行うことができるようになる。
This makes it possible to perform three-dimensional reconstruction of an object having a more complicated shape.

【0178】そして、上述したような実施の形態で示し
た本明細書には、特許請求の範囲に示した請求項1乃至
19以外にも、以下に付記1乃至付記3として示すよう
な発明が含まれている。
In addition to the claims 1 to 19 shown in the scope of the claims, the present invention shown in the above-described embodiments includes the inventions shown as the following supplementary notes 1 to 3. include.

【0179】(付記1) 対象物体の画像を撮影する撮
影手段と、前記撮影手段が複数の視点から前記対象物体
の画像を撮影できるように、前記対象物体と前記撮影手
段を所定の相対速度で移動させる相対移動手段と、前記
対象物体と前記撮影手段の基準相対位置を検出する基準
位置検出手段と、前記基準位置検出手段が前記基準相対
位置を検出した時刻と前記撮影手段が前記対象物体の画
像を撮影した時刻との差と、前記所定の相対速度とか
ら、前記対象物体と前記撮影手段との相対位置を特定す
る相対位置特定手段と、前記撮影手段で撮影された複数
の視点からの前記対象物体の画像、及び前記相対位置特
定手段によって特定された相対位置の情報とを用いて、
前記対象物体の立体形状を推定する立体形状推定手段
と、を備えることを特徴とする立体情報取得装置。
(Supplementary Note 1) A photographing means for photographing an image of the target object, and the target object and the photographing means at a predetermined relative speed so that the photographing means can photograph the image of the target object from a plurality of viewpoints. Relative moving means for moving, reference position detecting means for detecting a reference relative position of the target object and the photographing means, time when the reference position detecting means detects the reference relative position, and the photographing means for measuring the target object. A relative position specifying unit that specifies a relative position between the target object and the photographing unit based on a difference between the time when the image is photographed and the predetermined relative speed, and from a plurality of viewpoints photographed by the photographing unit. Using the image of the target object and the information of the relative position specified by the relative position specifying means,
And a stereoscopic shape estimating means for estimating a stereoscopic shape of the target object.

【0180】(作用)本発明は、対象物体を運動させた
まま撮影が行えるので、移動中の加減速が少ないことに
よって、撮影時間が減少し、慣性による対象物体の転倒
及び変形が少ないものとし得ると共に、エネルギー消費
量が少ないものとし得る。
(Operation) According to the present invention, since photographing can be performed while the target object is moving, since the acceleration / deceleration during movement is small, the photographing time is reduced and the target object is less likely to fall or deform due to inertia. In addition, the energy consumption can be reduced.

【0181】(付記2) 対象物体の画像を撮影する撮
影手段と、少なくとも前記撮影手段の撮影範囲内おける
前記対象物体の背景部分との境界全体を含む範囲を前記
対象物体の背後から直接的または間接的に照明する照明
手段と、前記撮影手段によって複数の視点から前記対象
物体の画像を撮影可能とするように、前記対象物体と前
記撮影手段とを所定の相対速度で移動させる相対移動手
段と、前記対象物体と前記撮影手段の基準相対位置を検
出する基準位置検出手段と、前記基準位置検出手段が前
記基準相対位置を検出した時刻と前記撮影手段が前記対
象物体の画像を撮影した時刻との差と、前記所定の相対
速度とから、前記対象物体と前記撮影手段との相対位置
を特定する相対位置特定手段と、前記撮影手段で撮影さ
れた複数の視点からの前記対象物体の画像、及び前記相
対位置特定手段によって特定された相対位置の情報とを
用いて、前記対象物体の立体形状を推定する立体形状推
定手段と、を備え、前記照明手段は、前記対象物体の立
体形状を推定するための撮影を行うとき、点灯している
ことを特徴とする立体情報取得装置。
(Supplementary Note 2) A range including the entire boundary between the photographing means for photographing the image of the target object and at least the background portion of the target object within the photographing range of the photographing means is directly or directly behind the target object. Illumination means for indirectly illuminating, and relative movement means for moving the target object and the photographing means at a predetermined relative speed so that images of the target object can be photographed from a plurality of viewpoints by the photographing means. A reference position detecting unit that detects a reference relative position between the target object and the image capturing unit, a time when the reference position detecting unit detects the reference relative position, and a time when the image capturing unit captures an image of the target object. From a plurality of viewpoints photographed by the photographing means, the relative position specifying means for specifying the relative position of the target object and the photographing means from the difference of The image of the target object, and the three-dimensional shape estimation means for estimating the three-dimensional shape of the target object using the information of the relative position specified by the relative position specifying means, the illumination means, A stereoscopic information acquisition device, which is turned on when performing imaging for estimating the stereoscopic shape of a target object.

【0182】(作用)本発明は、光切断と切り分けによ
り、対象物体を運動させたまま撮影が行えるので、移動
中の加減速が少ないことによって、撮影時間が減少し、
慣性による対象物体の転倒及び変形が少ないものとし得
ると共に、エネルギー消費量が少ないものとし得る。
(Operation) According to the present invention, since the object can be photographed while moving by the light cutting and the cutting, the photographing time is reduced due to less acceleration / deceleration during movement.
The target object may be less likely to fall and deform due to inertia, and the energy consumption may be less.

【0183】(付記3) 前記相対位置移動手段は、前
記対象物体を一定の角速度で回転させており、前記相対
位置検出手段は、基準角位置を検出する基準角位置検出
手段と、前記基準角位置検出手段が基準角位置を検出し
てから前記撮影手段で撮影した時刻までの時間差を算出
する時間差算出手段と、前記一定の角速度と前記時間差
算出手段で得られた結果を用いて、前記基準角からの前
記撮影手段で撮影された時刻までに回転した角度差を特
定する角度差特定手段と、前記基準角位置検出手段が基
準角位置を一度検出してからもう一度検出するまでの時
間から、平均角速度を算出し、前記一定の角速度とする
一定角速度算出手段とを有することを特徴とする請求項
4記載の立体形状情報取得装置。
(Supplementary Note 3) The relative position moving means rotates the target object at a constant angular velocity, and the relative position detecting means detects the reference angular position and the reference angular position detecting means. Using the time difference calculation means for calculating the time difference from the time when the position detection means detects the reference angular position to the time of photographing by the photographing means, and the constant angular velocity and the result obtained by the time difference calculation means, the reference From an angle difference specifying means for specifying an angle difference rotated by a time taken by the imaging means from an angle, and a time from the reference angular position detecting means once detecting the reference angular position to detecting it again, The three-dimensional shape information acquisition apparatus according to claim 4, further comprising: a constant angular velocity calculation unit that calculates an average angular velocity and sets the constant angular velocity.

【0184】(作用)本発明は、(4)において、定角
速度測定として回転台に対象物体を乗せたこと等による
角速度の揺らぎ影響を軽減することができる。
(Operation) In (4), the present invention can reduce the influence of fluctuation of the angular velocity due to, for example, placing the target object on the turntable as the constant angular velocity measurement.

【0185】[0185]

【発明の効果】従って、以上説明したように、本発明に
よれば、精度よく境界を求め、より精度の高い立体情報
を取得し得ると共に、対象物体の立体情報取得のための
メモリ容量を大幅に削減し、撮影時間を短縮し、対象物
体を安定した状態に保つことができる立体情報取得装置
及び立体情報取得方法並びに立体情報取得プログラムを
提供することができる。
As described above, according to the present invention, it is possible to obtain a boundary with high accuracy and acquire stereoscopic information with higher accuracy, and to increase the memory capacity for acquiring stereoscopic information of a target object. It is possible to provide a three-dimensional information acquisition device, a three-dimensional information acquisition method, and a three-dimensional information acquisition program that can reduce the image capturing time, reduce the shooting time, and keep the target object in a stable state.

【図面の簡単な説明】[Brief description of drawings]

【図1】図1は、本発明による立体情報取得装置の第1
の実施の形態の構成を示すブロック図である。
FIG. 1 shows a first embodiment of a stereoscopic information acquisition device according to the present invention.
3 is a block diagram showing the configuration of the embodiment of FIG.

【図2】図2は、本発明による立体情報取得装置の第1
の実施の形態における大まかな処理の流れを示すフロー
チャートである。
FIG. 2 is a first diagram of a stereoscopic information acquiring apparatus according to the present invention.
4 is a flowchart showing a rough processing flow in the embodiment.

【図3】図3は、カメラ座標系と画像座標系との関係を
示す図である。
FIG. 3 is a diagram showing a relationship between a camera coordinate system and an image coordinate system.

【図4】図4は、カメラ座標系Ocと、回転テーブルR
U上に設定された回転テーブル座標系Orの各座標系の
関係を示す図である。
FIG. 4 is a camera coordinate system Oc and a rotary table R.
It is a figure which shows the relationship of each coordinate system of the rotary table coordinate system Or set on U.

【図5】図5は、回転行列Rcrと、並進ベクトルTc
rを求める一例として用いられるパターン平板PBを示
す図である。
FIG. 5 shows a rotation matrix Rcr and a translation vector Tc.
It is a figure which shows the pattern flat plate PB used as an example which calculates | requires r.

【図6】図6は、回転行列Rcrと、並進ベクトルTc
rを求める一例として図5のパターン平板PBを回転テ
ーブルRUに回転板に直立させて10度づつ回転させた
異なる複数の角度からカメラCUによって撮影する方法
を説明するために示す図である。
FIG. 6 shows a rotation matrix Rcr and a translation vector Tc.
FIG. 6 is a diagram shown for explaining a method of taking an image with a camera CU from a plurality of different angles in which the pattern flat plate PB of FIG.

【図7】図7は、物体画像A01,A02,…,A36
を示す図である。
FIG. 7 shows object images A01, A02, ..., A36.
FIG.

【図8】図8は、境界画像B01,B02,…,B36
を示す図である。
FIG. 8 shows boundary images B01, B02, ..., B36.
FIG.

【図9】図9は、図2のステップS3の処理の流れを示
すフローチャートである。
FIG. 9 is a flowchart showing a flow of processing of step S3 of FIG.

【図10】図10は、設定されるボクセルBOXを示す
図である。
FIG. 10 is a diagram showing a set voxel BOX.

【図11】図11は、外部判定の例を示す図である。FIG. 11 is a diagram illustrating an example of external determination.

【図12】図12は、境界画像B01によってボクセル
が外部と判定される様子を示す図である。
FIG. 12 is a diagram showing how a voxel is determined to be outside by the boundary image B01.

【図13】図13は、対象物体が切り出されていく様子
を単純な形状に対して2次元の例で示す図である。
FIG. 13 is a diagram showing how a target object is cut out in a two-dimensional example with respect to a simple shape.

【図14】図14は、第1の実施の形態の変形例の構成
を示すブロック図である。
FIG. 14 is a block diagram showing a configuration of a modified example of the first exemplary embodiment.

【図15】図15は、本発明の第2の実施の形態による
立体情報取得装置の処理の流れを示すフローチャートで
ある。
FIG. 15 is a flowchart showing a processing flow of the stereoscopic information acquisition device according to the second embodiment of the present invention.

【図16】図16は、本発明の第3の実施の形態による
立体情報取得装置の構成を示すブロック図である。
FIG. 16 is a block diagram showing a configuration of a stereoscopic information acquisition device according to a third embodiment of the present invention.

【図17】図16は、シルエット画像S01,S02,
…S36を示す図である。
FIG. 16 shows silhouette images S01, S02,
... It is a figure which shows S36.

【図18】図18は、本発明の第4の実施の形態による
立体情報取得装置の構成を示すブロック図である。
FIG. 18 is a block diagram showing a configuration of a stereoscopic information acquisition device according to a fourth embodiment of the present invention.

【図19】図19は、第4の実施の形態による撮影画像
を示す図である。
FIG. 19 is a diagram showing a captured image according to a fourth embodiment.

【図20】図20は、本発明の第5の実施の形態のボク
セルの変化の様子を2次元で示す図である。
FIG. 20 is a two-dimensional view showing how voxels are changed in the fifth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

CU…撮影手段としてのカメラ、 FU…被写体照明用のフラッシュ、 RU…相対位置移動手段としての回転テーブル(撮影台
回転装置)、 RU…回転テーブルRUが一回転したことを認識するセ
ンサ、 BB…背景板としてのブルーバック、 BE…対象物体、 TM…撮影時刻記録装置、 PC…相対位置特定手段としての相対位置算出装置、 SR…形状推定を行う形状推定装置、 PB…パターン平板、 FB…拡散板、 BFU…フラッシュ、 CB…透明な台。
CU ... Camera as photographing means, FU ... Flash for illuminating subject, RU ... Rotating table (imaging table rotating device) as relative position moving means, RU ... Sensor for recognizing that the rotating table RU has made one rotation, BB ... Blue background as background plate, BE ... Target object, TM ... Imaging time recording device, PC ... Relative position calculation device as relative position specifying means, SR ... Shape estimation device for shape estimation, PB ... Pattern flat plate, FB ... Diffusion Board, BFU ... Flash, CB ... Transparent base.

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/222 H04N 13/02 5L096 13/02 G01B 11/24 K A Fターム(参考) 2F065 AA04 AA20 AA53 DD06 DD07 FF02 FF05 FF65 GG08 JJ03 JJ19 JJ26 LL49 MM04 PP13 QQ31 5B050 BA01 DA02 DA04 EA06 EA09 EA28 EA30 5B057 AA20 BA02 BA19 CA01 CA08 CA13 CB20 CC01 DA08 DA11 DA20 DB03 DB06 DB09 DC09 DC16 5C022 AB15 AB62 AC27 CA02 5C061 AB03 AB21 5L096 AA09 CA04 CA07 FA02 FA69 HA01 JA11 Front page continuation (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 5/222 H04N 13/02 5L096 13/02 G01B 11/24 KA F term (reference) 2F065 AA04 AA20 AA53 DD06 DD07 FF02 FF05 FF65 GG08 JJ03 JJ19 JJ26 LL49 MM04 PP13 QQ31 5B050 BA01 DA02 DA04 EA06 EA09 EA28 EA30 5B057 AA20 BA02 BA19 CA01 CA08 CA13 CB20 CC01 DA08 DA11 DA20 DB03 FA02 AB01 FA02 AC02 AB02 FA02 AC02 AB05 AB02 AC02 AB15 AB02 AC15 AB02 AB02 AB02 AB15 AB02 AC02 AB15 AB02 AC15 AB02 AB02 AB15 AB02 AB15 AB06 JA11

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 対象物体の画像を撮影する撮影手段と、 前記撮影手段によって複数の視点から前記対象物体の画
像を撮影可能とするように、前記対象物体と前記撮影手
段とを相対的かつ連続的に移動させる相対移動手段と、 前記撮影手段によって複数の視点から前記対象物体の画
像を撮影した各々の視点における前記対象物体と前記撮
影手段との相対位置を検出する相対位置検出手段と、 前記撮影手段によって複数の視点から撮影された前記対
象物体の画像、及び前記相対位置検出手段によって検出
された相対位置の情報とを用いて、前記対象物体の立体
形状を推定する立体形状推定手段と、 を備えることを特徴とする立体情報取得装置。
1. A photographing means for photographing an image of a target object, and the target object and the photographing means are relative and continuous so that the photographing means can photograph the image of the target object from a plurality of viewpoints. A relative movement means for moving the target object from a plurality of viewpoints by the photographing means, and a relative position detection means for detecting a relative position between the target object and the photographing means at each viewpoint, Using the image of the target object photographed from a plurality of viewpoints by the photographing means, and the information of the relative position detected by the relative position detection means, a three-dimensional shape estimation means for estimating the three-dimensional shape of the target object, A stereoscopic information acquisition device comprising:
【請求項2】 対象物体の画像を撮影する撮影手段と、 所定の光学的特性を有すると共に、前記対象物体の背後
に配置されて撮影時に前記対象物体の背景となる背景板
と、 前記撮影手段によって複数の視点から前記対象物体の画
像を撮影可能とするように、前記対象物体と前記撮影手
段とを相対的かつ連続的に移動させる相対移動手段と、 前記撮影手段によって複数の視点から前記対象物体の画
像を撮影した各々の視点における前記対象物体と前記撮
影手段との相対位置を検出する相対位置検出手段と、 前記撮影手段によって複数の視点から撮影された前記対
象物体の画像、及び前記相対位置検出手段によって検出
された相対位置の情報とを用いて、前記撮影手段によっ
て撮影された複数の視点からの画像中における前記対象
物体が占める領域を認識し、前記対象物体が占める領域
を用いて対象物体の立体形状を推定する立体形状推定手
段と、 を備えることを特徴とする立体情報取得装置。
2. A photographing means for photographing an image of a target object, a background plate having predetermined optical characteristics, which is arranged behind the target object and serves as a background of the target object at the time of photographing, and the photographing means. A relative movement unit that relatively and continuously moves the target object and the photographing unit so that images of the target object can be photographed from a plurality of viewpoints by means of the photographing unit; Relative position detecting means for detecting the relative position of the target object and the photographing means at each viewpoint where the image of the object is photographed, images of the target object photographed from a plurality of viewpoints by the photographing means, and the relative Using the relative position information detected by the position detecting means, the target object occupies an image from a plurality of viewpoints photographed by the photographing means. Recognizes the band, three-dimensional information acquisition apparatus characterized by comprising: a three-dimensional shape estimation means for estimating a three-dimensional shape of a target object using an area where the target object occupies.
【請求項3】 対象物体の画像を撮影する撮影手段と、 少なくとも前記撮影手段の撮影範囲内おける前記対象物
体の輪郭部分全体またはその一部を含む範囲を前記対象
物体の背後から直接的または間接的に照明する照明手段
と、 前記撮影手段によって複数の視点から前記対象物体の画
像を撮影可能とするように、前記対象物体と前記撮影手
段とを相対的かつ連続的に移動させる相対移動手段と、 前記撮影手段によって複数の視点から前記対象物体の画
像を撮影した各々の視点における前記対象物体と前記撮
影手段との相対位置を検出する相対位置検出手段と、 前記撮影手段によって複数の視点から撮影された前記対
象物体の画像、及び前記相対位置検出手段によつて検出
された相対位置の情報とを用いて、前記撮影手段によっ
て撮影された複数の視点からの画像それぞれにおいて前
記対象物体が占める領域を認識し、前記対象物体が占め
る領域を用いて前記対象物体の立体形状を推定する立体
形状推定手段と、 を備え、 前記対象物体が占める領域を認識するのに使用する画像
の撮影時には、前記照明手段を点灯することを特徴とす
る立体情報取得装置。
3. A photographing means for photographing an image of the target object, and a range including at least the entire contour portion of the target object or a part thereof within the photographing range of the photographing means, directly or indirectly from behind the target object. Illumination means for illuminating the target object, and relative movement means for relatively and continuously moving the target object and the image capturing means so that the image of the target object can be captured from a plurality of viewpoints by the image capturing means. A relative position detecting unit that detects a relative position between the target object and the image capturing unit at each viewpoint where the image of the target object is captured by the image capturing unit from a plurality of viewpoints; An image of the target object captured and the relative position information detected by the relative position detection means are used to capture an image. A three-dimensional shape estimating unit that recognizes an area occupied by the target object in each of images from several viewpoints and estimates the three-dimensional shape of the target object using the area occupied by the target object; A stereoscopic information acquisition device, characterized in that the illumination means is turned on when an image used for recognizing an area is photographed.
【請求項4】 前記相対移動手段は、前記対象物体を回
転運動させることを特徴とする請求項2または3記載の
立体情報取得装置。
4. The three-dimensional information acquisition apparatus according to claim 2, wherein the relative movement unit rotates the target object.
【請求項5】 前記相対移動手段は、前記対象物体を回
転軸に平行な方向に移動させることを特徴とする請求項
4の立体情報取得装置。
5. The stereoscopic information acquiring apparatus according to claim 4, wherein the relative moving unit moves the target object in a direction parallel to a rotation axis.
【請求項6】 前記相対移動手段は、前記対象物体を一
定の角速度で回転させており、 前記相対位置検出手段は、 基準角位置を検出する基準角位置検出手段と、 前記基準角位置検出手段が基準角位置を検出してから前
記撮影手段で撮影した時刻までの時間差を算出する時間
差算出手段と、 前記一定の角速度と前記時間差算出手段で得られた結果
を用いて、前記基準角からの前記撮影手段で撮影された
時刻までに回転した角度差を特定する角度差特定手段
と、 を有することを特徴とする請求項4記載の立体情報取得
装置。
6. The relative moving means rotates the target object at a constant angular velocity, and the relative position detecting means includes a reference angular position detecting means for detecting a reference angular position, and the reference angular position detecting means. Using the time difference calculation means for calculating the time difference from the time when the reference angle position is detected to the time of photographing by the photographing means, and the constant angular velocity and the result obtained by the time difference calculation means, The three-dimensional information acquisition device according to claim 4, further comprising: an angle difference specifying unit that specifies an angle difference rotated by the time when the image is taken by the image taking unit.
【請求項7】 前記立体形状推定手段によって前記対象
物体の立体形状を推定するための撮影時に得られる画像
は、前記対象物体の輪郭付近の背景部より前記対象物体
が占める領域の方が相対的に暗いシルエット画像である
ことを特徴とする請求項3に記載の立体情報取得装置。
7. An image obtained at the time of photographing for estimating the three-dimensional shape of the target object by the three-dimensional shape estimation means is such that an area occupied by the target object is relatively larger than a background portion near the contour of the target object. The stereoscopic information acquisition device according to claim 3, wherein the stereoscopic image is a very dark silhouette image.
【請求項8】 前記立体形状推定手段は、前記シルエッ
ト画像における前記対象物体の輪郭領域と前記対象物体
周辺の背景領域との輝度差を利用して前記対象物体の輪
郭を抽出し、前記抽出された輪郭を用いて前記対象物体
の占める領域を推定することを特徴とする請求項7に記
載の立体情報取得装置。
8. The three-dimensional shape estimating means extracts the contour of the target object by utilizing a brightness difference between a contour area of the target object and a background area around the target object in the silhouette image, and the extracted contour is extracted. The stereoscopic information acquisition apparatus according to claim 7, wherein the area occupied by the target object is estimated by using the contour.
【請求項9】 前記照明手段は、 少なくとも可視光領域の光を発する光源と、 前記撮影手段に対して前記対象物体の背後に配置され、
前記光源からの光を散乱させる光散乱手段と、 を有することを特徴とする請求項3に記載の立体情報取
得装置。
9. The illuminating means includes a light source that emits light in at least a visible light region, and the illuminating means is disposed behind the target object with respect to the photographing means,
The light-scattering means for scattering light from the light source, and the stereoscopic information acquisition device according to claim 3.
【請求項10】 前記立体形状推定手段は、 前記照明手段が前記対象物体を照明していない状況で、
前記撮影手段によって少なくとも一回撮影された前記対
象物体のテクスチャ画像をを用いて前記対象物体の表面
のテクスチャを推定することを特徴とする請求項3に記
載の立体情報取得装置。
10. The three-dimensional shape estimation means, in a situation where the illumination means does not illuminate the target object,
The stereoscopic information acquisition apparatus according to claim 3, wherein the texture of the surface of the target object is estimated using a texture image of the target object captured at least once by the image capturing unit.
【請求項11】 前記立体形状推定手段は、 前記対象物体に対し、3次元空間上に密接して配置され
た閉領域の集合を設定する閉領域設定手段と、 前記撮影手段によって複数の視点から前記対象物体を撮
影した画像に基き、前記各閉領域が前記対象物体の外部
に存在する確率を求めることにより、前記閉領域が前記
対象物体の外部に存在するか否かを判定する閉領域外部
判定手段と、 を有し、 前記閉領域が前記対象物体の外部に存在する確率が所定
の閾値を超えたと、前記閉領域外部判定手段が判断した
場合、当該閉領域は、以降の前記閉領域外部判定手段の
判定処理対象から除かれることを特徴とする請求項2ま
たは3に記載の立体情報取得装置。
11. The three-dimensional shape estimating unit sets a closed region setting unit that sets a set of closed regions arranged in close contact with each other in a three-dimensional space with respect to the target object, and the photographing unit from a plurality of viewpoints. A closed region outside for determining whether or not the closed region exists outside the target object by obtaining a probability that each closed region exists outside the target object based on an image obtained by photographing the target object. Determining means, and, if the closed area outside determination means determines that the probability that the closed area exists outside the target object exceeds a predetermined threshold, the closed area is the closed area after that. The stereoscopic information acquisition device according to claim 2 or 3, wherein the stereoscopic information acquisition device is excluded from the determination processing target of the external determination means.
【請求項12】 前記立体形状推定手段は、 前記撮影手段によって複数の視点から撮影した画像の
内、第1の視点からの視線で撮影された画像に基いて前
記対象物体が占める領域を認識すると共に、前記対象物
体の立体形状を推定する認識推定処理を実施し、 続いて、前記第1の視点から最も遠い第2の視点からの
視線で撮影された画像に基いて前記対象物体が占める領
域を認識すると共に、前記対象物体の立体形状を推定す
る認識推定処理を実施し、 以降、前記認識推定処理に用いられていない画像に対応
する残余の前記視点であって、前記認識推定処理に用い
られた二つの画像それぞれに対応する視線の成す角度差
が最大のものに挾まれた前記視点の中で、前記角度差を
内挿する角度に最も近い前記視点からの画像を用いて前
記認識推定処理を実施し、 これを順次繰り返すことを特徴とする請求項4に記載の
立体情報取得装置。
12. The three-dimensional shape estimating means recognizes an area occupied by the target object based on an image taken by a line of sight from a first viewpoint among images taken from a plurality of viewpoints by the photographing means. At the same time, a recognition estimation process for estimating the three-dimensional shape of the target object is performed, and subsequently, a region occupied by the target object based on an image captured with a line of sight from a second viewpoint farthest from the first viewpoint. And a recognition estimation process for estimating the three-dimensional shape of the target object, and thereafter, the remaining viewpoints corresponding to images not used in the recognition estimation process, which are used in the recognition estimation process. Among the viewpoints in which the angle difference made by the line of sight corresponding to each of the two captured images is the largest, the recognition estimation is performed using the image from the viewpoint closest to the angle at which the angle difference is interpolated. The three-dimensional information acquisition apparatus according to claim 4, wherein processing is performed and the processing is sequentially repeated.
【請求項13】 前記立体形状推定手段は、 前記閉領域の集合に属する閉領域が前記対象物体の外部
に存在する確率が所定の確率範囲となり、前記対象物体
の内部と外部の境界近傍に存在する閉領域であるか否か
を判定する境界閉領域判定手段と、 前記境界閉領域判定手段によって前記境界近傍に存在す
る閉領域であると判定された閉領域を、さらに小さな分
割閉領域に分割する境界閉領域分割手段と、 を有し、 前記境界閉領域分割手段によって分割される分割閉領域
に対して、前記境界閉領域判定手段によって再び境界近
傍に存在する閉領域か否かを判定し、 この判定結果に基いて、前記境界閉領域分割手段によっ
て前記分割閉領域を再分割し、 前記境界閉領域判定手段による判定と、前記境界閉領域
分割手段による分割との処理を前記閉領域が所定の大き
さになるまで繰り返すことを特徴とする請求項2または
3に記載の立体情報取得装置。
13. The three-dimensional shape estimating means has a probability that a closed area belonging to the set of closed areas exists outside the target object within a predetermined probability range, and exists near the boundary between the inside and the outside of the target object. Boundary closed region determination means for determining whether or not the closed region, and the closed region determined to be a closed region existing near the boundary by the boundary closed region determination means is divided into smaller divided closed regions. Boundary closed region dividing means, and for the divided closed region divided by the boundary closed region dividing means, the boundary closed region determining means determines again whether or not the closed region exists near the boundary. On the basis of this determination result, the divided closed region is re-divided by the boundary closed region dividing unit, and the process of the determination by the boundary closed region determining unit and the division by the boundary closed region dividing unit is performed. The stereoscopic information acquisition apparatus according to claim 2, wherein the closed area is repeated until the closed area has a predetermined size.
【請求項14】 複数の視点から対象物体を撮影した画
像と前記視点位置の情報を用いて、前記画像中の前記対
象物体が占める領域を認識し、前記対象物体の占める領
域に基いて前記対象物体の立体形状を推定して、前記対
象物体の立体情報を取得する立体情報取得方法であっ
て、 前記対象物体に対し、3次元空間上に密接して配置され
た閉領域の集合を設定する閉領域設定工程と、 複数の視点から前記対象物体を撮影した画像に基き、前
記各閉領域が対象物体の外部に存在する確率を求めるこ
とにより、前記閉領域が前記対象物体の外部存在するか
否かを判定する閉領域外部判定工程と、 前記閉領域が前記対象物体の外部に存在する確率が所定
の閾値を超えたと、前記閉領域外部判定工程で判定され
た場合、当該閉領域を、以降の前記閉領域外部判定工程
の判定処理対象から除く工程と、 を有することを特徴とする立体情報取得方法。
14. A region occupied by the target object in the image is recognized by using images of the target object photographed from a plurality of viewpoints and information on the viewpoint positions, and the target is determined based on the region occupied by the target object. A three-dimensional information acquisition method for estimating the three-dimensional shape of an object and acquiring the three-dimensional information of the target object, wherein a set of closed regions closely arranged in a three-dimensional space is set for the target object. Whether the closed region exists outside the target object by determining the probability that each closed region exists outside the target object based on the closed region setting step and images obtained by photographing the target object from multiple viewpoints. A closed region external determination step of determining whether or not, the probability that the closed region exists outside the target object exceeds a predetermined threshold value, if determined in the closed region external determination step, the closed region, Subsequent said closure A stereoscopic information acquisition method, comprising: a step that is excluded from the determination processing target of the area outside determination step.
【請求項15】 複数の視点から対象物体を撮影した画
像と前記視点位置の情報を用いて、前記画像中の前記対
象物体が占める領域を認識し、前記対象物体の占める領
域に基いて前記対象物体の立体形状を推定して、前記対
象物体の立体情報を取得する立体情報取得方法であっ
て、 前記複数の視点から撮影した画像の内、第1の視点から
の視線で撮影された画像に基いて前記撮像対象が占める
領域を認識すると共に、立体形状を推定する認識推定処
理を実施する第1の認識推定処理工程と、 前記第1の視点から最も遠い第2の視点からの視線で撮
影された画像に基いて前記対象物体が占める領域を認識
すると共に、立体形状を推定する認識推定処理を実施す
る第2の認識推定処理工程と、 前記認識推定処理に用いられていない画像に対応する残
余の前記視点であって、前記認識推定処理に用いられた
二つの画像それぞれに対応する視線の成す角度差が最大
のものに挟まれた前記視点の中で、前記角度差を内挿す
る角度に最も近い前記視点からの画像を用いて前記認識
推定処理を実施する第3の認識推定処理工程と、 を有し、 前記第3の認識推定処理工程を順次繰り返すことを特徴
とする立体情報取得方法。
15. An image obtained by capturing images of a target object from a plurality of viewpoints and information on the viewpoint positions are used to recognize a region occupied by the target object in the image, and the target is determined based on the region occupied by the target object. A stereoscopic information acquisition method for acquiring stereoscopic information of the target object by estimating a stereoscopic shape of an object, comprising: an image captured from a first viewpoint among images captured from the plurality of viewpoints. A first recognition estimation processing step of recognizing an area occupied by the imaging target based on the first recognition estimation processing for estimating a three-dimensional shape; and photographing with a line of sight from a second viewpoint farthest from the first viewpoint. A second recognition estimation processing step of recognizing an area occupied by the target object based on the obtained image and performing a recognition estimation processing of estimating a three-dimensional shape; and an image not used in the recognition estimation processing. Of the remaining viewpoints, the angle between which the angle difference is interpolated among the viewpoints sandwiched by the ones having the largest angle difference formed by the line of sight corresponding to each of the two images used in the recognition estimation processing. And a third recognition estimation processing step for performing the recognition estimation processing using an image from the viewpoint closest to the stereoscopic information acquisition, characterized in that the third recognition estimation processing step is sequentially repeated. Method.
【請求項16】 複数の視点から対象物体を撮影した画
像と前記視点位置の情報を用いて、前記画像中の前記対
象物体が占める領域を認識し、前記対象物体の占める領
域に基いて前記対象物体の立体形状を推定して、前記対
象物体の立体情報を取得する立体情報取得方法であっ
て、 前記対象物体に対し、3次元空間上に密接して配置され
た閉領域の集合を設定する閉領域設定工程と、 前記閉領域の集合に属する閉領域が前記対象物体の外部
に存在する確率が所定の確率範囲となり、前記対象物体
の内部と外部の境界近傍に存在する閉領域であるか否か
を判定する境界閉領域判定工程と、 前記境界閉領域判定工程によって前記境界近傍に存在す
る閉領域であると判定された閉領域を、さらに小さな分
割閉領域に分割する境界閉領域分割工程と、 を有し、 前記分割閉領域に対して、前記境界閉領域判定工程及び
前記境界閉領域分割工程を実行する処理を、前記閉領域
が所定の大きさになるまで繰り返すことを特徴とする立
体情報取得方法。
16. An area occupied by the target object in the image is recognized by using images of the target object captured from a plurality of viewpoints and information on the viewpoint positions, and the target is determined based on the area occupied by the target object. A three-dimensional information acquisition method for estimating the three-dimensional shape of an object and acquiring the three-dimensional information of the target object, wherein a set of closed regions closely arranged in a three-dimensional space is set for the target object. Closed region setting step, whether the closed region belonging to the set of closed regions is outside the target object within a predetermined probability range, and whether the closed region exists near the boundary between the inside and outside of the target object. Boundary closed region determination step of determining whether or not, a boundary closed region dividing step of dividing the closed region determined to be a closed region existing near the boundary by the boundary closed region determination step into smaller divided closed regions When, Stereoscopic information characterized by repeating the process of executing the boundary closed region determination step and the boundary closed region dividing step for the divided closed region until the closed region has a predetermined size. Acquisition method.
【請求項17】 コンピュータによって複数の視点から
対象物体を撮影した画像と前記視点位置の情報を用い
て、前記画像中の前記対象物体が占める領域を認識し、
前記対象物体の占める領域に基いて前記対象物体の立体
形状を推定して、前記対象物体の立体情報を取得するた
めの立体情報取得プログラムであって、 前記コンピュータに、 前記対象物体に対し、3次元空間上に密接して配置され
た閉領域の集合を設定する閉領域設定のためのステップ
と、 複数の視点から前記対象物体を撮影した画像に基き、前
記各閉領域が前記対象物体の外部に存在する確率を求め
ることにより、前記閉領域が前記対象物体の外部存在す
るか否かを判定する閉領域外部判定のためのステップ
と、 前記閉領域が前記対象物体の外部に存在する確率が所定
の閾値を超えたと、前記閉領域外部判定のためのステッ
プで判定された場合、当該閉領域を、以降の前記閉領域
外部判定のためのステップの判定処理対象から除くステ
ップと、 を実行させるためのプログラムを有することを特徴とす
る立体情報取得プログラム。
17. A region occupied by the target object in the image is recognized by using images of the target object photographed by a computer from a plurality of viewpoints and information on the viewpoint positions,
A three-dimensional information acquisition program for estimating the three-dimensional shape of the target object based on the area occupied by the target object and acquiring the three-dimensional information of the target object. Based on the image for capturing the target object from a plurality of viewpoints, the step for setting a closed region that sets a set of closed regions closely arranged in the dimensional space, and each closed region is outside the target object. By determining the probability of existing in the closed area outside the target object to determine whether the closed area exists outside the target object, and the probability that the closed area exists outside the target object is When it is determined in the step for determining the outside of the closed region that the predetermined threshold is exceeded, the closed region is excluded from the determination processing targets in the steps for determining the outside of the closed region. And a program for executing the following, a stereoscopic information acquisition program.
【請求項18】 コンピュータによって複数の視点から
対象物体を撮影した画像と前記視点位置の情報を用い
て、前記画像中の前記対象物体が占める領域を認識し、
前記対象物体の占める領域に基いて前記対象物体の立体
形状を推定して、前記対象物体の立体情報を取得するた
めの立体情報取得プログラムであって、 前記コンピュータに、 前記複数の視点から撮影した画像の内、第1の視点から
の視線で撮影された画像に基き前記撮像対象が占める領
域を認識すると共に、前記対象物体の立体形状を推定す
る認識推定処理を実施する第1の認識推定処理のための
ステップと、 前記第1の視点から最も遠い第2の視点からの視線で撮
影された画像に基き前記対象物体が占める領域を認識す
ると共に、前記対象物体の立体形状を推定する認識推定
処理を実施する第2の認識推定処理のためのステップ
と、 前記認識推定処理に用いられていない画像に対応する残
余の前記視点であって、前記認識推定処理に用いられた
二つの画像それぞれに対応する視線の成す角度差が最大
のものに挟まれた前記視点の中で、前記角度差を内挿す
る角度に最も近い前記視点からの画像を用いて前記認識
推定処理を実施する第3の認識推定処理のためのステッ
プと、 を実行させるためのプログラムを有し、 前記第3の認識推定処理のためのステップを順次繰り返
すことを特徴とする立体情報取得プログラム。
18. An image of a target object captured from a plurality of viewpoints by a computer and information of the viewpoint position are used to recognize an area occupied by the target object in the image,
A three-dimensional information acquisition program for estimating the three-dimensional shape of the target object based on the area occupied by the target object and acquiring the three-dimensional information of the target object, wherein the computer captures images from the plurality of viewpoints. A first recognition estimation process for recognizing a region occupied by the imaging target based on an image captured with a line of sight from a first viewpoint in the image and performing a recognition estimation process for estimating a three-dimensional shape of the target object. For recognizing the area occupied by the target object based on the image captured with the line of sight from the second viewpoint farthest from the first viewpoint, and estimating the three-dimensional shape of the target object. A step for a second recognition estimation process for carrying out a process, and the remaining viewpoints corresponding to images not used in the recognition estimation process, which are used in the recognition estimation process. Among the viewpoints sandwiched by the ones having the largest angle difference formed by the line of sight corresponding to each of the two images, the recognition estimation is performed using the image from the viewpoint closest to the angle at which the angle difference is interpolated. A stereoscopic information acquisition program, comprising a step for performing a third recognition estimation process for performing processing, and a program for executing the step, wherein the steps for the third recognition estimation process are sequentially repeated.
【請求項19】 コンピュータによって複数の視点から
対象物体を撮影した画像と前記視点位置の情報を用い
て、前記画像中の前記対象物体が占める領域を認識し、
前記対象物体の占める領域に基いて前記対象物体の立体
形状を推定して、前記対象物体の立体情報を取得するた
めの立体情報取得プログラムであって、 前記コンピュータに、 前記対象物体に対し、3次元空間上に密接して配置され
た閉領域の集合を設定する閉領域設定のためのステップ
と、 前記閉領域の集合に属する閉領域が前記対象物体の外部
に存在する確率が所定の確率範囲となり、前記対象物体
の内部と外部の境界近傍に存在する閉領域であるか否か
を判定する境界閉領域判定のためのステップと、 前記閉領域判定のためのステップによって前記境界近傍
に存在する閉領域であると判定された閉領域を、さらに
小さな分割閉領域に分割する境界閉領域分割のためのス
テップと、 を実行させるためのプログラムを有し、 前記分割閉領域に対して、前記境界閉領域判定のための
ステップ及び前記境界閉領域分割のためのステップを実
行する処理を、前記閉領域が所定の大きさになるまで繰
り返すことを特徴とする立体情報取得プログラム。
19. An area in which the target object occupies in the image is recognized by using an image obtained by capturing an image of the target object from a plurality of viewpoints by a computer and information of the viewpoint position,
A three-dimensional information acquisition program for estimating the three-dimensional shape of the target object based on the area occupied by the target object and acquiring the three-dimensional information of the target object. A step for setting a closed region that sets a set of closed regions closely arranged in a dimensional space, and a probability that a closed region belonging to the set of closed regions exists outside the target object has a predetermined probability range. Therefore, a step for determining a boundary closed area that determines whether or not the area is a closed area existing near the boundary between the inside and the outside of the target object, and the step for determining the closed area exists near the boundary. A step of dividing the closed region determined to be the closed region into smaller divided closed regions, and a program for executing: On the other hand, a stereoscopic information acquisition program, characterized in that the processing for executing the step for determining the boundary closed area and the step for dividing the boundary closed area is repeated until the closed area reaches a predetermined size. .
JP2002032596A 2001-08-13 2002-02-08 3D information acquisition apparatus and 3D information acquisition method Expired - Fee Related JP4094303B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2002032596A JP4094303B2 (en) 2002-02-08 2002-02-08 3D information acquisition apparatus and 3D information acquisition method
US10/218,059 US7253832B2 (en) 2001-08-13 2002-08-13 Shape extraction system and 3-D (three dimension) information acquisition system using the same
US11/821,749 US20070252900A1 (en) 2001-08-13 2007-06-25 Shape extraction system and 3-D (three dimension) information acquisition system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002032596A JP4094303B2 (en) 2002-02-08 2002-02-08 3D information acquisition apparatus and 3D information acquisition method

Publications (2)

Publication Number Publication Date
JP2003232622A true JP2003232622A (en) 2003-08-22
JP4094303B2 JP4094303B2 (en) 2008-06-04

Family

ID=27775665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002032596A Expired - Fee Related JP4094303B2 (en) 2001-08-13 2002-02-08 3D information acquisition apparatus and 3D information acquisition method

Country Status (1)

Country Link
JP (1) JP4094303B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059165A (en) * 2004-08-20 2006-03-02 Riyuukoku Univ Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium
JP2008309533A (en) * 2007-06-13 2008-12-25 Ihi Corp Method and apparatus for measuring vehicle shape
JP2015012375A (en) * 2013-06-27 2015-01-19 貞彦 寺川 Multi-angle imaging system, swivel device, imaging apparatus and multi-angle imaging method
JP2018189623A (en) * 2017-05-08 2018-11-29 国立大学法人横浜国立大学 Three-dimensional shape estimation system, three-dimensional shape estimation device, method for estimating three-dimensional shape, and program
WO2021071081A1 (en) * 2019-10-08 2021-04-15 삼성전자주식회사 Cooking appliance comprising three-dimensional shape estimation device and control method thereof
CN113115024A (en) * 2019-12-12 2021-07-13 天目爱视(北京)科技有限公司 3D information acquisition equipment
WO2023223958A1 (en) * 2022-05-18 2023-11-23 株式会社Preferred Networks Three-dimensional reconstruction method and three-dimensional reconstruction system
JP7494298B2 (en) 2019-12-13 2024-06-03 ソニーグループ株式会社 Multispectral Volumetric Capture

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059165A (en) * 2004-08-20 2006-03-02 Riyuukoku Univ Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium
JP2008309533A (en) * 2007-06-13 2008-12-25 Ihi Corp Method and apparatus for measuring vehicle shape
JP2015012375A (en) * 2013-06-27 2015-01-19 貞彦 寺川 Multi-angle imaging system, swivel device, imaging apparatus and multi-angle imaging method
JP2018189623A (en) * 2017-05-08 2018-11-29 国立大学法人横浜国立大学 Three-dimensional shape estimation system, three-dimensional shape estimation device, method for estimating three-dimensional shape, and program
WO2021071081A1 (en) * 2019-10-08 2021-04-15 삼성전자주식회사 Cooking appliance comprising three-dimensional shape estimation device and control method thereof
CN113115024A (en) * 2019-12-12 2021-07-13 天目爱视(北京)科技有限公司 3D information acquisition equipment
CN113115024B (en) * 2019-12-12 2023-01-31 天目爱视(北京)科技有限公司 3D information acquisition equipment
JP7494298B2 (en) 2019-12-13 2024-06-03 ソニーグループ株式会社 Multispectral Volumetric Capture
WO2023223958A1 (en) * 2022-05-18 2023-11-23 株式会社Preferred Networks Three-dimensional reconstruction method and three-dimensional reconstruction system

Also Published As

Publication number Publication date
JP4094303B2 (en) 2008-06-04

Similar Documents

Publication Publication Date Title
US7253832B2 (en) Shape extraction system and 3-D (three dimension) information acquisition system using the same
US6792140B2 (en) Image-based 3D digitizer
JP4677536B1 (en) 3D object recognition apparatus and 3D object recognition method
CN107172407A (en) Electronic installation and method suitable for producing depth map
EP2294555A1 (en) Three dimensional mesh modeling
JP2004288180A (en) Method for constructing three-dimensional model of scene from set of calibrated images
GB2524983A (en) Method of estimating imaging device parameters
CN107170037A (en) A kind of real-time three-dimensional point cloud method for reconstructing and system based on multiple-camera
KR100834157B1 (en) Method for Light Environment Reconstruction for Image Synthesis and Storage medium storing program therefor.
WO2014145427A1 (en) Systems and methods for 3d photorealistic automated modeling
US9245375B2 (en) Active lighting for stereo reconstruction of edges
JP2003232622A (en) Device, method and program for obtaining three- dimensional information
JP2006226965A (en) Image processing system, computer program and image processing method
US20040095484A1 (en) Object segmentation from images acquired by handheld cameras
JP2007025863A (en) Photographing system, photographing method, and image processing program
JPH0766436B2 (en) 3D model construction device using continuous silhouette images
JP2002117403A (en) Image processor and image processing method
Petković et al. A note on geometric calibration of multiple cameras and projectors
CN111489384B (en) Method, device, system and medium for evaluating shielding based on mutual viewing angle
CN112562057B (en) Three-dimensional reconstruction system and method
WO2021014538A1 (en) Template creation device, object recognition processing device, template creation method, object recognition processing method, and program
JP2004013869A (en) Apparatus for generating three-dimensional shape, method therefor, and its program
CN113834638B (en) Method, device, equipment and storage medium for determining angle of view
Zhu et al. 3D Real-Scene Model of Oblique Photography Based on Retinex
Yu Modeling and editing real scenes with image-based techniques

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080305

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees