JP2007017364A - Device and method for extracting silhouette, and device and method for generating three-dimensional shape data - Google Patents

Device and method for extracting silhouette, and device and method for generating three-dimensional shape data Download PDF

Info

Publication number
JP2007017364A
JP2007017364A JP2005201292A JP2005201292A JP2007017364A JP 2007017364 A JP2007017364 A JP 2007017364A JP 2005201292 A JP2005201292 A JP 2005201292A JP 2005201292 A JP2005201292 A JP 2005201292A JP 2007017364 A JP2007017364 A JP 2007017364A
Authority
JP
Japan
Prior art keywords
background
silhouette
acquired
color
dimensional shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005201292A
Other languages
Japanese (ja)
Inventor
Masahiro Toyoura
正広 豊浦
Masaaki Iiyama
将晃 飯山
Takuya Funatomi
卓哉 舩冨
Takashi Kakusho
考 角所
Michihiko Mino
導彦 美濃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyoto University NUC
Original Assignee
Kyoto University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyoto University NUC filed Critical Kyoto University NUC
Priority to JP2005201292A priority Critical patent/JP2007017364A/en
Publication of JP2007017364A publication Critical patent/JP2007017364A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device and a method for extracting a silhouette capable of extracting a silhouette even in the case of an object having any kind of hue, and extracting a highly accurate silhouette, and to generate three-dimensional shape data (a view volume) of the object by a view volume crossing method based on the acquired silhouette. <P>SOLUTION: In this three-dimensional shape data generation device 1 for generating three-dimensional shape data of the object by the view volume crossing method by extracting respectively a silhouette based on a plurality of background images and a plurality of acquired images acquired by being photographed from a plurality of mutually different directions, a random pattern background wherein colors are assigned at random to each of a plurality of domains is used as a background, and a diffused reflected color on an object domain on the object is estimated from other acquired images excluding one acquired image, and a silhouette deficiency caused by similarity between an object observation color and a background color is repaired. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、物体を撮影した2次元画像から物体のシルエットを抽出するシルエット抽出装置及びシルエット抽出方法に関する。そして、このシルエット抽出装置及びシルエット抽出方法から得られたシルエットに基づいて視体積交差法により該物体の3次元形状データを生成する3次元形状データ生成装置及び3次元形状データ生成方法に関する。   The present invention relates to a silhouette extraction device and a silhouette extraction method for extracting a silhouette of an object from a two-dimensional image obtained by photographing the object. The present invention also relates to a three-dimensional shape data generation device and a three-dimensional shape data generation method for generating three-dimensional shape data of the object by a view volume intersection method based on the silhouette obtained from the silhouette extraction device and the silhouette extraction method.

実世界に存在する物体の3次元形状を獲得しそれを計算機上で処理可能にすることは、3次元形状獲得と呼ばれ、バーチャルリアリティ(仮想現実)等の3次元形状が大量に必要とされる分野でその自動化が望まれている。そして、この3次元形状獲得の技術は、バーチャル博物館等に代表される電子的な情報蓄積やアミューズメント分野等におけるコンピュータグラフィックス(CG、Computer Graphics)等の様々な分野へ応用されることも期待されている。   Acquiring a 3D shape of an object that exists in the real world and making it processable on a computer is called 3D shape acquisition, and a large amount of 3D shape such as virtual reality is required. Automation is desired in certain fields. And this 3D shape acquisition technology is expected to be applied to various fields such as computer graphics (CG, Computer Graphics) in the electronic information storage and amusement fields represented by virtual museums. ing.

3次元形状獲得手法としては、一般に、ステレオ法及び視体積交差法が知られている。ステレオ法は、異なる視点から撮影される2次元画像上で、物体表面上の点の対応付けを行い、3角測量の要領で対象までの距離を求め、奥行きを計算する手法である。視体積交差法は、シルエット制約に基づく手法であり、互いに視点の異なる複数のカメラで被写体の物体をそれぞれ撮影し、この撮影した画像と予め用意された背景画像との差分からシルエット(物体投影領域、前景領域)を抽出し、シルエットに対応する視錐体の積空間を求めることによって視体積を獲得する手法である。この視体積が獲得形状となり、被写体の物体を表す3次元形状となる。背景画像とは、被写体の物体が無い状態で背景のみを撮影した画像である。シルエットとは、撮影した2次元画像上における物体の存在を表す領域をいい、通常、2値データで表される。また、背景及び被写体の物体を撮影して得た画像を取得画像と呼称することとする。   As a three-dimensional shape acquisition method, a stereo method and a view volume intersection method are generally known. The stereo method is a method of calculating a depth by associating points on an object surface on a two-dimensional image photographed from different viewpoints, obtaining a distance to a target in the manner of triangulation. The visual volume intersection method is a technique based on silhouette constraints. Each object is photographed by a plurality of cameras having different viewpoints, and a silhouette (object projection area) is calculated from the difference between the photographed image and a background image prepared in advance. In this method, the foreground region) is extracted, and the viewing volume is obtained by obtaining the product space of the viewing cone corresponding to the silhouette. This visual volume becomes an acquired shape, and becomes a three-dimensional shape representing the object of the subject. The background image is an image obtained by photographing only the background without the subject object. A silhouette is an area representing the presence of an object on a photographed two-dimensional image, and is usually represented by binary data. In addition, an image obtained by photographing the background and the subject object is referred to as an acquired image.

図19は、視体積と物体形状との関係を説明するための図である。シルエット制約とは、図19に示すように、位置及び撮影方向の既知なカメラCのレンズ中心を端点とし、カメラCで撮影された2次元画像のシルエットR上における任意の点を通る半直線の集合から成る錘体状の開空間に内接して対象の物体Oが存在することである。この開空間を“カメラCにおける”視錐体と呼ぶ。2個のカメラC、Cの場合、視体積は、カメラCにおける視錐体とカメラCにおける視錐体との積空間(積領域)である。 FIG. 19 is a diagram for explaining the relationship between the visual volume and the object shape. As shown in FIG. 19, the silhouette constraint has an end point at the lens center of the camera C i whose position and shooting direction are known, and passes through an arbitrary point on the silhouette R i of the two-dimensional image shot by the camera C i. That is, a target object O exists inscribed in a pyramidal open space composed of a set of half straight lines. Referred to as a view frustum body "in the camera C i" this open space. In the case of two cameras C i and C j , the viewing volume is a product space (product region) of the viewing cone in the camera C i and the viewing cone in the camera C j .

これらステレオ法と視体積交差法とを比較した場合、視体積交差法は、ステレオ法に較べて、計測に要する時間が短い、物体表面上の点の対応付けが必要ではないためその誤りが生じない、得られる結果(出力)が距離画像のような2.5次元データではなく3次元形状データであるため張り合わせを行わなくても全周囲形状が復元できる、データとしてシルエットしか必要ではないため画像上に生じるノイズに対して強い、テクスチャ特徴の乏しい対象の物体に対しても適用することができる、等の様々な長所がある。   When comparing these stereo methods and the visual volume intersection method, the visual volume intersection method has an error because the time required for measurement is shorter than the stereo method and it is not necessary to associate points on the object surface. The obtained result (output) is not 2.5D data such as a distance image but 3D shape data, so the entire surrounding shape can be restored without bonding, and only the silhouette is required as data. There are various advantages such as being strong against noise generated above and being applicable to an object having a poor texture feature.

ステレオ法に較べてこのような様々な長所を持つ視体積交差法では、シルエットの抽出精度が、得られる3次元形状データの精度に影響を及ぼす。撮影した取得画像と単一色の背景を用いて予め用意された背景画像との差分値を2値化することによってシルエットの2値データを得る従来の単純なシルエットの抽出方法では、対象の物体の色や照明条件等によって精度の高いシルエットが安定して抽出できないという不都合があった。   In the visual volume intersection method having such various advantages compared to the stereo method, the silhouette extraction accuracy affects the accuracy of the obtained three-dimensional shape data. In the conventional simple silhouette extraction method for obtaining binary data of a silhouette by binarizing a difference value between a captured image and a background image prepared in advance using a single color background, There is an inconvenience that a highly accurate silhouette cannot be stably extracted depending on colors and lighting conditions.

このため、より精度良くシルエットの抽出を行う技術が要望されており、その一技術が例えば特許文献1に開示されている。この特許文献1に開示の画像処理装置は、特に被写体の物体Oが金属等であって背景が写り込む物体である場合に好適にシルエットの抽出を行う装置であり、模様が変化する背景表示装置BDと、模様が変化し被写体の物体Oを乗せるテーブルTと、被写体の物体O、背景表示装置BD及びテーブルTを撮影する撮影装置CMと、シルエットを抽出する比較装置SCとを備えて構成され、模様aの背景と被写体の物体Oを含む2次元画像Aを撮影装置CMで撮影し、模様aと異なる模様bの背景と被写体の物体Oを含む2次元画像Bを撮影装置CMで撮影し、2次元画像Aと2次元画像Bとを画素ごとに比較して2次元画像Aについて変化の無い部分の画素を比較装置SCで一定値に置換し、この置換した2次元画像と2次元画像Aに対応する背景のみを撮影した2次元画像Cを比較し変化の無い画素部分を比較装置SCで背景データとし、2次元画像A(又は2次元画像B)からこの背景データ部分を比較装置SCで切り取ることによってシルエットを抽出する。
特開2001−148021号公報
For this reason, a technique for extracting silhouettes with higher accuracy has been demanded, and one technique is disclosed in, for example, Patent Document 1. The image processing device disclosed in Patent Document 1 is a device that suitably extracts a silhouette when the object O of the subject is a metal or the like and the background is reflected, and a background display device that changes the pattern. BD, a table T on which an object O whose pattern changes and a subject is placed, a photographing device CM that photographs the subject object O, the background display device BD, and the table T, and a comparison device SC that extracts a silhouette are configured. The 2D image A including the background of the pattern a and the subject object O is photographed by the photographing apparatus CM, and the two-dimensional image B including the background of the pattern b different from the pattern a and the subject object O is photographed by the photographing apparatus CM. The two-dimensional image A and the two-dimensional image B are compared for each pixel, and a portion of the two-dimensional image A that does not change is replaced with a constant value by the comparison device SC. Corresponding to A By comparing the two-dimensional image C in which only the background is captured, the pixel portion having no change is used as background data by the comparison device SC, and the background data portion is cut out from the two-dimensional image A (or two-dimensional image B) by the comparison device SC. Extract silhouettes.
JP 2001-148021 A

ところで、単一色の背景を用いる場合、被写体の物体の色と離れた色の背景を用いることによってシルエットの抽出における精度を向上することができるが、被写体の物体の色ごとに背景を選択しなければならず、煩わしいという不都合がある。   By the way, when using a background of a single color, it is possible to improve the accuracy of silhouette extraction by using a background of a color different from the color of the object of the subject, but the background must be selected for each color of the object of the subject. There is an inconvenience that it is troublesome.

また、上記特許文献1には、模様の具体的な記載が無く、どのような模様であるか不明である。そして、上記特許文献1は、被写体の物体Oを撮影した取得画像と背景画像とを比較することによってシルエットの抽出を行うのではなく、相互に異なる模様の背景を用いて撮影した2枚の取得画像から背景データを作成し、この背景データと1枚の取得画像とからシルエットの抽出を行っている。従って、2枚の画像の差分値を取ることによってシルエットの抽出を行う従来の手法と類似している。   Moreover, the above-mentioned Patent Document 1 does not have a specific description of the pattern, and it is unclear what the pattern is. The above-mentioned patent document 1 does not extract silhouettes by comparing an acquired image obtained by photographing the object O of the subject with a background image, but obtains two images obtained by using backgrounds having different patterns. Background data is created from the image, and a silhouette is extracted from the background data and one acquired image. Therefore, it is similar to the conventional method of extracting a silhouette by taking a difference value between two images.

本発明は、上記事情に鑑みて為された発明であり、被写体の物体がどのような色合いであっても所定の精度でシルエットの抽出を行うことができる抽出装置及びシルエット抽出方法を提供することを目的とする。また、上記特許文献1とは異なる手法でシルエットの抽出精度を向上し得るシルエット抽出装置及びシルエット抽出方法を提供することを目的とする。そして、これらシルエット抽出装置及びシルエット抽出方法から得られたシルエットに基づいて視体積交差法により物体の3次元形状データ(視体積)を生成する3次元形状データ生成装置及び3次元形状データ生成方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides an extraction apparatus and a silhouette extraction method capable of extracting a silhouette with a predetermined accuracy regardless of the color of an object of a subject. With the goal. It is another object of the present invention to provide a silhouette extraction device and a silhouette extraction method that can improve the silhouette extraction accuracy by a method different from that of Patent Document 1. A three-dimensional shape data generation device and a three-dimensional shape data generation method for generating three-dimensional shape data (view volume) of an object by a visual volume intersection method based on silhouettes obtained from these silhouette extraction devices and silhouette extraction methods. The purpose is to provide.

本発明者らは、種々検討した結果、上記目的は、以下の本発明により達成されることを見出した。即ち、本発明に係る一態様では、背景のみを撮影することによって取得される背景画像と、前記背景及び被写体の物体を撮影することによって取得される取得画像とに基づいて、前記取得画像上における前記物体の存在を表す領域であるシルエットを抽出するシルエット抽出装置において、前記背景は、複数の領域に分割され、該複数の領域のそれぞれにランダムに色が割り当てられているランダムパターン背景であることを特徴とする。   As a result of various studies, the present inventors have found that the above object is achieved by the present invention described below. That is, in one aspect according to the present invention, based on a background image acquired by capturing only the background and an acquired image acquired by capturing the background and the object of the subject, In the silhouette extracting apparatus for extracting a silhouette which is an area representing the presence of the object, the background is a random pattern background which is divided into a plurality of areas and a color is randomly assigned to each of the plurality of areas. It is characterized by.

そして、本発明に係る他の一態様では、互いに異なる複数の方向から背景のみをそれぞれ撮影することによって取得される複数の背景画像と、前記複数の方向から前記背景及び被写体の物体をそれぞれ撮影することによって取得される複数の取得画像とに基づいて、一の取得画像上における前記物体の存在を表す領域であるシルエットを抽出するシルエット抽出装置において、前記物体上の対象領域における拡散反射色を前記一の取得画像を除く他の取得画像から推定し、前記対象領域に対応する前記一の取得画像上における領域の色が前記推定した拡散反射色に予め設定した閾値よりも近い色である場合には、前記対象領域に対応する前記一の取得画像上における前記領域を前記シルエットに加えることによって、前記シルエットを修復することを特徴とする。   In another aspect of the present invention, a plurality of background images acquired by shooting only the background from a plurality of different directions, and the background and the object of the subject are respectively shot from the plurality of directions. In the silhouette extracting device that extracts a silhouette that is an area representing the presence of the object on one acquired image based on a plurality of acquired images, the diffuse reflection color in the target area on the object When estimated from other acquired images excluding one acquired image, and the color of the region on the one acquired image corresponding to the target region is closer to the estimated diffuse reflection color than a preset threshold value Repairs the silhouette by adding the region on the one acquired image corresponding to the target region to the silhouette. It is characterized in.

また、このシルエット抽出装置において、前記背景は、複数の領域に分割され、該複数の領域のそれぞれにランダムに色が割り当てられているランダムパターン背景であることを特徴とする。   In the silhouette extracting apparatus, the background is a random pattern background that is divided into a plurality of areas and a color is randomly assigned to each of the plurality of areas.

そして、本発明に係る他の態様では、シルエット抽出方法は、複数の領域に分割され該複数の領域のそれぞれにランダムに色が割り当てられているランダムパターン背景である背景のみを撮影することによって背景画像を取得するステップと、前記背景及び被写体の物体を撮影することによって取得画像を取得するステップと、前記背景画像と前記取得画像とに基づいて前記取得画像上における前記物体の存在を表す領域であるシルエットを抽出するステップとを備えることを特徴とする。   In another aspect of the present invention, the silhouette extraction method is configured to capture a background by photographing only a background that is a random pattern background that is divided into a plurality of regions and a color is randomly assigned to each of the plurality of regions. An area representing the presence of the object on the acquired image based on the step of acquiring an image, acquiring the acquired image by photographing the object of the background and the subject, and the background image and the acquired image; And a step of extracting a certain silhouette.

また、本発明に係る他の態様では、シルエット抽出方法は、互いに異なる複数の方向から背景のみをそれぞれ撮影することによって複数の背景画像を取得するステップと、前記複数の方向から前記背景及び被写体の物体をそれぞれ撮影することによって複数の取得画像を取得するステップと、前記複数の背景画像と前記複数の取得画像とに基づいて一の取得画像上における前記物体の存在を表す領域であるシルエットを抽出するステップと、前記物体上の対象領域における拡散反射色を前記一の取得画像を除く他の取得画像から推定し、前記対象領域に対応する前記一の取得画像上における領域の色が前記推定した拡散反射色に予め設定した閾値よりも近い色である場合には、前記対象領域に対応する前記一の取得画像上における前記領域を前記シルエットに加えることによって、前記シルエットを修復するステップとを備えることを特徴とする。   In another aspect of the present invention, the silhouette extraction method includes a step of acquiring a plurality of background images by respectively capturing only backgrounds from a plurality of different directions, and the background and the subject from the plurality of directions. A step of acquiring a plurality of acquired images by photographing each object, and extracting a silhouette that is a region representing the presence of the object on one acquired image based on the plurality of background images and the plurality of acquired images And estimating the diffuse reflection color in the target area on the object from other acquired images excluding the one acquired image, and estimating the color of the area on the one acquired image corresponding to the target area When the color is closer to the diffuse reflection color than a preset threshold value, the region on the one acquired image corresponding to the target region is By adding the serial silhouette, characterized by comprising the step of repairing the silhouette.

そして、本発明に係る他の態様では、互いに異なる複数の方向から背景のみをそれぞれ撮影することによって取得される複数の背景画像と、前記複数の方向から前記背景及び被写体の物体をそれぞれ撮影することによって取得される複数の取得画像とに基づいて視体積交差法により前記物体の3次元形状を表す3次元形状データを生成する3次元形状データ生成装置において、前記背景は、複数の領域に分割され、該複数の領域のそれぞれにランダムに色が割り当てられているランダムパターン背景であることを特徴とする。   In another aspect of the present invention, a plurality of background images acquired by shooting only the background from a plurality of different directions, and the background and the object of the subject are respectively shot from the plurality of directions. In the three-dimensional shape data generation device that generates the three-dimensional shape data representing the three-dimensional shape of the object by the visual volume intersection method based on the plurality of acquired images acquired by the method, the background is divided into a plurality of regions. A random pattern background in which a color is randomly assigned to each of the plurality of regions.

また、本発明に係る他の態様では、互いに異なる複数の方向から背景のみをそれぞれ撮影することによって取得される複数の背景画像と、前記複数の方向から前記背景及び被写体の物体をそれぞれ撮影することによって取得される複数の取得画像とに基づいて、前記複数の取得画像上における前記物体の存在を表す領域であるシルエットをそれぞれ抽出して視体積交差法により前記物体の3次元形状を表す3次元形状データを生成する3次元形状データ生成装置において、前記物体上の対象領域における拡散反射色を一の取得画像を除く他の取得画像から推定し、前記対象領域に対応する前記一の取得画像上における領域の色が前記推定した拡散反射色に予め設定した閾値よりも近い色である場合には、前記対象領域に対応する前記一の取得画像上における前記領域を前記一の取得画像に対応するシルエットに加えることによって、前記一の取得画像に対応する前記シルエットを修復することを特徴とする。   According to another aspect of the present invention, a plurality of background images acquired by shooting only the background from a plurality of different directions, and the background and the object of the subject are respectively shot from the plurality of directions. A three-dimensional representation of the three-dimensional shape of the object by visual volume intersection method by extracting silhouettes that are regions representing the presence of the object on the plurality of acquired images based on the plurality of acquired images acquired by In the three-dimensional shape data generation device that generates shape data, the diffuse reflection color in the target region on the object is estimated from other acquired images except for one acquired image, and the one acquired image corresponding to the target region If the color of the area at is closer to the estimated diffuse reflection color than a preset threshold, the one acquisition corresponding to the target area By adding the area on the image silhouette corresponding to the one acquired image, characterized by repairing the silhouette corresponding to the one acquired image.

さらに、この3次元形状データ生成装置において、前記背景は、複数の領域に分割され、該複数の領域のそれぞれにランダムに色が割り当てられているランダムパターン背景であることを特徴とする。   Furthermore, in the three-dimensional shape data generation apparatus, the background is a random pattern background that is divided into a plurality of regions and a color is randomly assigned to each of the plurality of regions.

そして、本発明に係る他の態様では、3次元形状データ生成方法は、複数の領域に分割され該複数の領域のそれぞれにランダムに色が割り当てられているランダムパターン背景である背景のみを互いに異なる複数の方向からそれぞれ撮影することによって複数の背景画像を取得するステップと、互いに異なる複数の方向から前記背景及び被写体の物体をそれぞれ撮影することによって複数の取得画像を取得するステップと、前記複数の背景画像と前記複数の取得画像とに基づいて前記複数の取得画像上における前記物体の存在を表す領域であるシルエットをそれぞれ抽出して視体積交差法により前記物体の3次元形状を表す3次元形状データを生成するステップとを備える。   In another aspect of the present invention, the three-dimensional shape data generation method is different from each other only in a background that is a random pattern background that is divided into a plurality of regions and a color is randomly assigned to each of the plurality of regions. Acquiring a plurality of background images by respectively capturing images from a plurality of directions, acquiring a plurality of acquired images by respectively capturing the background and the object of the subject from a plurality of different directions, and A three-dimensional shape that represents a three-dimensional shape of the object by a visual volume intersection method by extracting silhouettes that are regions representing the presence of the object on the plurality of acquired images based on a background image and the plurality of acquired images. Generating data.

また、本発明に係る他の態様では、互いに異なる複数の方向から背景のみをそれぞれ撮影することによって複数の背景画像を取得するステップと、互いに異なる複数の方向から前記背景及び被写体の物体をそれぞれ撮影することによって複数の取得画像を取得するステップと、前記複数の背景画像と前記複数の取得画像とに基づいて前記複数の取得画像上における前記物体の存在を表す領域であるシルエットをそれぞれ抽出して視体積交差法により前記物体の3次元形状を表す3次元形状データを生成するステップとを備える3次元形状データ生成方法において、前記物体上の対象領域における拡散反射色を一の取得画像を除く他の取得画像から推定し、前記対象領域に対応する前記一の取得画像上における領域の色が前記推定した拡散反射色に予め設定した閾値よりも近い色である場合には、前記対象領域に対応する前記一の取得画像上における前記領域を前記一の取得画像に対応するシルエットに加えることによって、前記一の取得画像に対応する前記シルエットを修復するステップを備えることを特徴とする。   In another aspect of the present invention, a step of acquiring a plurality of background images by capturing only backgrounds from a plurality of different directions, and a step of capturing the background and the object of the subject from a plurality of different directions, respectively. Obtaining a plurality of acquired images, and extracting silhouettes that are regions representing the presence of the object on the plurality of acquired images based on the plurality of background images and the plurality of acquired images, respectively. A method of generating three-dimensional shape data representing a three-dimensional shape of the object by a visual volume intersection method, wherein a diffuse reflection color in a target region on the object is excluded from one acquired image And the color of the region on the one acquired image corresponding to the target region is the estimated diffuse reflection. If the color is closer to the preset threshold value, the region on the one acquired image corresponding to the target region is added to the silhouette corresponding to the one acquired image, thereby obtaining the one acquired image. The step of repairing the silhouette corresponding to is provided.

このような構成のシルエット抽出装置及びシルエット抽出方法では、ランダムパターン背景を用いるので、様々な色を持つ物体に対しても所定の割合以上の領域で正しくシルエットを抽出することができる。そして、シルエット修復を行うので、物体の観測色と背景色との近さに起因するシルエット欠損を効果的に修復することができ、より精度よくシルエットを抽出することができる。   In the silhouette extraction device and the silhouette extraction method configured as described above, since a random pattern background is used, silhouettes can be correctly extracted in an area of a predetermined ratio or more even for objects having various colors. Since the silhouette is repaired, it is possible to effectively repair the silhouette defect caused by the closeness between the observed color of the object and the background color, and the silhouette can be extracted with higher accuracy.

そして、このような構成の3次元形状データ生成装置及び3次元形状データ生成方法では、ランダムパターン背景を用いるので、様々な色を持つ物体に対しても所定の割合以上の領域で正しくシルエットを抽出することができ、物体の3次元形状を得ることができる。そして、シルエット修復を行うので、物体の観測色と背景色との近さに起因するシルエット欠損を効果的に修復することができ、物体の3次元形状をより高い精度で得ることができる。   In the three-dimensional shape data generation apparatus and the three-dimensional shape data generation method configured as described above, since a random pattern background is used, silhouettes are correctly extracted in an area of a predetermined ratio or more even for objects having various colors. 3D shape of the object can be obtained. Since the silhouette restoration is performed, it is possible to effectively repair the silhouette defect caused by the closeness between the observed color of the object and the background color, and the three-dimensional shape of the object can be obtained with higher accuracy.

以下、本発明に係る実施形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、その説明を省略する。
(実施形態の構成)
図1は、3次元形状データ生成装置の構成を示す図である。図2は、データ生成部の構成を示す図である。
Embodiments according to the present invention will be described below with reference to the drawings. In addition, the structure which attached | subjected the same code | symbol in each figure shows that it is the same structure, The description is abbreviate | omitted.
(Configuration of the embodiment)
FIG. 1 is a diagram illustrating a configuration of a three-dimensional shape data generation apparatus. FIG. 2 is a diagram illustrating a configuration of the data generation unit.

図1において、3次元形状データ生成装置1は、被写体の物体Oを撮影する撮影部10と、撮影部10で撮影した画像のデータから3次元形状データを生成するデータ生成部20とを備えて構成される。   In FIG. 1, the three-dimensional shape data generation apparatus 1 includes a photographing unit 10 that photographs a subject object O, and a data generation unit 20 that generates three-dimensional shape data from image data captured by the photographing unit 10. Composed.

撮影部10は、例えばディジタルビデオカメラやディジタルスチルカメラ等の被写体の物体Oを撮影し画像のデータを生成する撮像装置Cと、被写体の物体Oを照明する照明器具LTと、図略の背景板BDとを備えて構成される。そして、撮像装置Cは、相互に異なる複数の方向から物体Oを撮影し画像を取得することができるように、複数用意されている。   The imaging unit 10 includes, for example, an imaging device C that shoots an object O of a subject such as a digital video camera or a digital still camera and generates image data, a lighting fixture LT that illuminates the object O of the subject, and a background plate (not shown). And a BD. A plurality of imaging devices C are prepared so that the object O can be captured from a plurality of different directions and images can be acquired.

本実施形態では、複数の撮像装置C(s=1〜19)は、物体Oを全方向(4π方向)から撮影することができるように、相互に異なる方向で上方から物体Oを撮影する3台の撮像装置C〜C、相互に異なる方向で側方から物体Oを撮影する12台の撮像装置C〜C15、及び、相互に異なる方向で下方から物体Oを撮影する4台の撮像装置C16〜C19の19台で構成されている。そして、照明器具LT(t=1〜6)は、物体Oを略均一に照明するために、相互に異なる方向で側方から物体Oを照らす6台の照明器具LT〜LTの6台で構成されている。 In the present embodiment, the plurality of imaging devices C s (s = 1 to 19) capture the object O from above in different directions so that the object O can be captured from all directions (4π direction). Three imaging devices C 1 to C 3 , twelve imaging devices C 4 to C 15 that photograph the object O from the side in different directions, and four that photograph the object O from below in mutually different directions It is composed of 19 units of the base of the imaging device C 16 -C 19. The luminaire LT t (t = 1~6), in order to substantially uniformly illuminate the object O, mutually different in the direction from the side of the six illuminating the object O of the luminaire LT 1 to LT 6 6 It consists of a stand.

そして、これら19台の撮像装置C〜C19を所定の撮影方向に向けて固定するために、及び、6台の照明器具LT〜LTを所定の照明方向に向けて固定するために、本実施形態では、撮像装置C〜C19及び照明器具LT〜LTを取り付けるフレームFが用意される。フレームFは、例えば鋼製の12本の棒状部材FM〜FM12で900mm×900mm×900mmの立方体形状に枠組みされ、上面を構成する正方形枠に2本の棒状部材BM、BMが梁のように渡され、側面を構成する4個の正方形枠に1本の棒状部材RD〜RDが略中央に水平状態でそれぞれ渡されている。 Then, these 19 units of the image pickup device C 1 -C 19 for fixing toward the predetermined shooting direction, and, in order to secure towards the luminaire LT 1 to LT 6 six in a predetermined illumination direction In this embodiment, a frame F to which the imaging devices C 1 to C 19 and the lighting fixtures LT 1 to LT 6 are attached is prepared. The frame F is made of, for example, 12 rod-shaped members FM 1 to FM 12 made of steel and framed in a cubic shape of 900 mm × 900 mm × 900 mm, and the two rod-shaped members BM 1 and BM 2 are beams on a square frame constituting the upper surface. The rod-shaped members RD 1 to RD 4 are respectively passed in a horizontal state substantially at the center in the four square frames constituting the side surface.

3台の撮像装置C〜Cのうち2台の撮像装置C、Cは、梁のように渡されている一方の棒状部材BMに間隔を空けて所定の撮影方向を向くようにそれぞれ取り付けられ、1台の撮像装置Cは、梁のように渡されている他方の棒状部材BMに所定の撮影方向を向くように取り付けられている。12台の撮像装置C〜C15のうち2台の撮像装置C、Cは、側面を構成する一正方形枠に渡されてる棒状部材RDに間隔を空けて所定の撮影方向を向くようにそれぞれ取り付けられ、この側面に対向する側面の正方形枠に渡されてる棒状部材RDに2台の撮像装置C10、C11が間隔を空けて所定の撮影方向を向くようにそれぞれ取り付けられている。残余の2側面のうち一方の側面の正方形枠に渡されている棒状部材RDに4台の撮像装置C〜Cが間隔を空けて所定の撮影方向を向くようにそれぞれ取り付けられていると共に、照明器具LTが該棒状部材RDの略中央部に内側を照らすように取り付けられている。そして、残余の2側面のうち他方の側面の正方形枠に渡されている棒状部材RDに4台の撮像装置C12〜C15が間隔を空けて所定の撮影方向を向くようにそれぞれ取り付けられていると共に、照明器具LTが該棒状部材RDの略中央部に内側を照らすように取り付けられている。さらに、上面の正方形枠と下面の正方形枠とを繋ぐ側面の4本の棒状部材FM〜FMの略中央部には、照明器具LT〜LTが内側を向くようにそれぞれ取り付けられている。 Of the three imaging devices C 1 to C 3 , the two imaging devices C 1 and C 2 are directed to a predetermined imaging direction with an interval between one rod-like member BM 1 that is passed like a beam. respectively attached to, the one imaging device C 3, and is mounted so as to face the predetermined imaging direction to the other bar-like member BM 2 being passed as beam. The imaging device C 4, C 5 of two of the twelve imaging device C 4 -C 15 faces toward the predetermined photographing direction spaced rod-like member RD 1 being passed to one square frame constituting the side surface The two imaging devices C 10 and C 11 are respectively attached to the rod-shaped member RD 3 that is passed over the square frame on the side surface opposite to the side surface so that the two imaging devices C 10 and C 11 face each other in a predetermined shooting direction. ing. Four imaging devices C 6 to C 9 are attached to the rod-shaped member RD 2 that is passed to the square frame on one of the remaining two side surfaces so as to face a predetermined photographing direction with a space therebetween. At the same time, the lighting fixture LT 5 is attached so as to illuminate the inside of the substantially central portion of the rod-shaped member RD 2 . Then, the four imaging devices C 12 to C 15 are attached to the rod-shaped member RD 4 that is passed to the square frame on the other side surface of the remaining two side surfaces so as to face each other in a predetermined shooting direction. In addition, a lighting fixture LT 6 is attached to the substantially central portion of the rod-shaped member RD 4 so as to illuminate the inside. Further, the lighting fixtures LT 1 to LT 4 are respectively attached to the substantially central portions of the four rod-like members FM 5 to FM 8 on the side surface connecting the square frame on the upper surface and the square frame on the lower surface so as to face the inside. Yes.

なお、本実施形態では、フレームFによって撮像装置C及び照明器具LTを固定したが、これに限定されず、例えば、これらをワイヤーで天井からそれぞれ吊り下げたり、これらをスタンドでそれぞれ固定したりしてもよく、要は、撮像装置Cが物体Oを所定の撮影方向からそれぞれ撮影するように、及び、照明器具LTが物体Oを所定の照明方向からそれぞれ照らすように、それぞれ配置することができればよい。 In the present embodiment, the imaging device C s and the lighting fixture LT t are fixed by the frame F. However, the present invention is not limited to this. For example, they are suspended from the ceiling with wires or fixed with a stand. The point is that the imaging device C s shoots the object O from a predetermined shooting direction, and the lighting fixture LT t illuminates the object O from a predetermined lighting direction, respectively. I can do it.

被写体の物体Oは、観測環境の略中央にその重心が位置するように、例えば糸ST等を用いて吊り下げられている。   The object O as a subject is suspended using, for example, a thread ST so that the center of gravity is located at the approximate center of the observation environment.

図1及び図2において、データ生成部20は、情報処理部31と、入力部32と、出力部33と、記憶部34と、インタフェース部35と、バス36とを備えて構成される。   1 and 2, the data generation unit 20 includes an information processing unit 31, an input unit 32, an output unit 33, a storage unit 34, an interface unit 35, and a bus 36.

入力部32は、本発明の手法により3次元形状データを生成する3次元形状データ生成プログラムを起動するコマンド等の各種コマンド、及び、後述の閾値等の3次元形状データ生成プログラムを実行するために必要なデータ等の各種データをデータ生成部20に入力する機器であり、例えば、キーボードやマウス等である。出力部33は、入力部32から入力されたコマンドやデータ、及び、本3次元形状データ生成装置1によって生成された3次元形状データに基づく物体Oの3次元モデルや3次元形状データのファイル名等を出力する機器であり、例えばCRTディスプレイ、LCD、有機ELディスプレイ又はプラズマディスプレイ等の表示装置やプリンタ等の印刷装置等である。インタフェース部35は、不図示の通信線によって複数の撮像装置Cとそれぞれ接続され、この通信線を介して複数の撮像装置Cとの間で通信信号を送受信するためのインタフェース回路であり、情報処理部31からのデータに基づいて例えばUSB等の所定の通信プロトコルに従った通信信号を作成すると共に複数の撮像装置Cからの通信信号を情報処理部31が処理可能な形式のデータに変換する。なお、インタフェース部35は、無線通信によって複数の撮像装置Cとそれぞれ通信信号を送受信してもよい。 The input unit 32 executes various commands such as a command for starting a three-dimensional shape data generation program for generating three-dimensional shape data by the method of the present invention, and a three-dimensional shape data generation program such as a threshold described later. A device that inputs various data such as necessary data to the data generation unit 20, such as a keyboard and a mouse. The output unit 33 is a file name of the 3D model or 3D shape data of the object O based on the command or data input from the input unit 32 and the 3D shape data generated by the 3D shape data generation apparatus 1. For example, a display device such as a CRT display, LCD, organic EL display or plasma display, or a printing device such as a printer. Interface unit 35 are respectively connected to a plurality of imaging devices C s by a communication line (not shown), an interface circuit for transmitting and receiving communication signals between a plurality of imaging devices C s through the communication line, the communication signal processing unit 31 is a format processing data from a plurality of imaging devices C s as well as create a communication signal in accordance with a predetermined communication protocol such as USB, for example, based on data from the information processing unit 31 Convert. Incidentally, the interface unit 35 may receive a plurality of imaging devices C s communication signals, respectively, by wireless communication.

記憶部34は、背景画像Bのデータを記憶する背景画像データ記憶部341と、取得画像Fのデータを記憶する取得画像データ記憶部342と、処理中にシルエットRのデータを記憶するシルエットデータ記憶部343と、3次元形状データを記憶する3次元形状データ記憶部344とを備え、3次元形状データ生成プログラム等の各種プログラム、及び、各種プログラムの実行に必要なデータやその実行中に生じるデータ等の各種データを記憶する。記憶部34は、例えば、情報処理部31の所謂ワーキングメモリとなるRAM(Random Access Memory)等の揮発性の記憶素子、ROM(Read Only Memory)や書換え可能なEEPROM(Electrically Erasable Programmable Read Only Memory)等の不揮発性の記憶素子、及び、各種プログラムや各種データを格納しておくハードディスク等を備えて構成される。 The storage unit 34 stores a background image data storage unit 341 that stores data of the background image B s , an acquired image data storage unit 342 that stores data of the acquired image F s , and data of the silhouette R s during processing. A silhouette data storage unit 343 and a three-dimensional shape data storage unit 344 for storing three-dimensional shape data are provided, and various programs such as a three-dimensional shape data generation program, and data necessary for execution of various programs and the execution thereof Various data such as data generated in the memory is stored. The storage unit 34 is, for example, a volatile storage element such as a RAM (Random Access Memory) serving as a so-called working memory of the information processing unit 31, a ROM (Read Only Memory) or a rewritable EEPROM (Electrically Erasable Programmable Read Only Memory). And the like, and a hard disk for storing various programs and various data.

情報処理部31は、例えば、マイクロプロセッサ及びその周辺回路等を備えて構成され、機能的に、複数の撮像装置Cを用いて複数の背景画像B及び複数の取得画像Fのデータをそれぞれ取得し背景画像データ記憶部341及び取得画像データ記憶部342にそれぞれ記憶する画像取得部311と、複数の背景画像B及び複数の取得画像Fに基づいて複数のシルエットRをそれぞれ抽出すると共にこれら抽出した複数のシルエットRのデータをシルエットデータ記憶部343に記憶するシルエット抽出部312と、これら抽出した複数のシルエットRにおけるシルエット欠損をそれぞれ修復すると共にこれら修復した複数のシルエットRのデータをシルエットデータ記憶部343に記憶するシルエット修復部313と、これら修復した複数のシルエットRに基づいて視体積交差法により例えばボクセル表現の3次元形状データを生成すると共にこの生成した3次元形状データを3次元形状データ記憶部344に記憶する3次元形状データ生成部314とを備え、制御プログラムに従い入力部32、出力部33、記憶部34及びインタフェース部35を当該機能に応じてそれぞれ制御する。 The information processing unit 31 includes, for example, a microprocessor and its peripheral circuits, and functionally stores data of a plurality of background images B s and a plurality of acquired images F s using a plurality of imaging devices C s. each extract each image acquisition unit 311 to be stored in each acquired background image data storage unit 341 and acquires the image data storage unit 342, a plurality of background images B s and a plurality of acquired images based on the F s multiple silhouette R s At the same time, the silhouette extracting unit 312 stores the data of the plurality of extracted silhouettes R s in the silhouette data storage unit 343, and repairs the silhouette deficiency in the extracted plurality of silhouettes R s respectively, and repairs the plurality of silhouettes R silhouette restoration unit 313 for storing the s data on the silhouette data storage unit 343 , Three-dimensional shape for storing three-dimensional shape data the generated three-dimensional shape data storing section 344 generates the three-dimensional shape data of the hull method visual based on the plurality of silhouette R s that these repair example voxel representation A data generation unit 314, and controls the input unit 32, the output unit 33, the storage unit 34, and the interface unit 35 according to the function according to the control program.

これら情報処理部31、入力部32、出力部33、記憶部34及びインタフェース部35は、データを相互に交換することができるようにバス36でそれぞれ接続される。   The information processing unit 31, the input unit 32, the output unit 33, the storage unit 34, and the interface unit 35 are connected by a bus 36 so that data can be exchanged with each other.

このようなデータ生成部20は、例えば、コンピュータ、より具体的にはノート型やディスクトップ型等のパーソナルコンピュータ等によって構成可能である。   Such a data generation unit 20 can be configured by, for example, a computer, more specifically, a personal computer such as a notebook type or a desktop type.

なお、必要に応じてデータ生成部20は、破線で示すように、外部記憶部37をさらに備えてもよい。外部記憶部37は、例えば、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、CD−R(Compact Disc Recordable)及びDVD−R(Digital Versatile Disc Recordable)等の記録媒体との間でデータを読み込み及び/又は書き込みを行う装置であり、例えば、フレキシブルディスクドライブ、CD−ROMドライブ、CD−Rドライブ及びDVD−Rドライブ等である。   Note that the data generation unit 20 may further include an external storage unit 37 as indicated by a broken line as necessary. The external storage unit 37 stores data with a recording medium such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), a CD-R (Compact Disc Recordable), and a DVD-R (Digital Versatile Disc Recordable). An apparatus that performs reading and / or writing, such as a flexible disk drive, a CD-ROM drive, a CD-R drive, and a DVD-R drive.

ここで、3次元形状データ生成プログラム等が格納されていない場合には、3次元形状データ生成プログラム等を記録した記録媒体から外部記憶部37を介して記憶部34にインストールされるように構成してもよい。あるいは、取得した複数の背景画像Bのデータや複数の取得画像Fのデータ、生成した複数のシルエットRのデータや3次元形状データが外部記憶部37を介して記録媒体に記録されるように構成してもよい。 Here, when the 3D shape data generation program or the like is not stored, it is configured to be installed in the storage unit 34 via the external storage unit 37 from the recording medium on which the 3D shape data generation program or the like is recorded. May be. Alternatively, the acquired data of the plurality of background images B s , the data of the plurality of acquired images F s , the generated data of the plurality of silhouettes R s and the three-dimensional shape data are recorded on the recording medium via the external storage unit 37. You may comprise as follows.

図3は、撮像装置、被写体の物体及び背景板の位置関係を説明するための図である。背景板BDは、図3に示すように、複数の撮像装置C〜Cごとに複数用意され、各背景板BD〜BDは、被写体の物体Oを挟んで各撮像装置C〜Cと対向するようにそれぞれ配置される。そして、注目すべきは、背景板BDの一方面には、分割された複数の領域RGqrのそれぞれにランダムに色が割り当てられているランダムパターンが描画されていることである。このランダムパターンが描画されている背景をランダムパターン背景と呼称することとする。 FIG. 3 is a diagram for explaining the positional relationship among the imaging device, the object of the subject, and the background plate. Background plate BD, as shown in FIG. 3, a plurality prepared for each of a plurality of imaging devices C a -C e, the background plate BD a ~BD e, each imaging device across the object O of the object C a ~ It is arranged so as to face the C e. It should be noted that a random pattern in which a color is randomly assigned to each of the plurality of divided regions RG qr is drawn on one surface of the background plate BD. The background on which the random pattern is drawn is called a random pattern background.

図4は、ランダムパターン背景の一例を示す図である。図4(A)は、ランダムパターン背景の全体を示し、図4(B)は、その右下の一部分を拡大したものを示す。なお、図は、カラー表示できないため、図4(B)では、各色を相互に異なるテクスチャで表現している。このランダムパターン背景は、図4に示すように、例えば24×32の複数の領域RGqrに区画され、撮像装置Cが観測可能な色の中から所定の色空間で一様に分布するようにランダムに選択された色を各領域RGqrにそれぞれ割り当てたものである。本実施形態では、各領域RGqrの色は、後述するようにシルエット抽出にYUV表色系のU及びVの各値を用いるので、UV空間で一様に分布するようにランダムに選択される。Y、U、Vは、それぞれ輝度、輝度信号とR成分の差、輝度信号とB成分の差を表す。 FIG. 4 is a diagram illustrating an example of a random pattern background. FIG. 4A shows the entire random pattern background, and FIG. 4B shows an enlarged part of the lower right part. Since the figure cannot be displayed in color, in FIG. 4B, each color is expressed by a different texture. As shown in FIG. 4, the random pattern background is divided into a plurality of regions RG qr of 24 × 32, for example, and is uniformly distributed in a predetermined color space from colors observable by the imaging device C. the color selected at random are those assigned to the respective region RG qr. In the present embodiment, the colors of the regions RG qr are randomly selected so as to be uniformly distributed in the UV space since the U and V values of the YUV color system are used for silhouette extraction as will be described later. . Y, U, and V represent the luminance, the difference between the luminance signal and the R component, and the difference between the luminance signal and the B component, respectively.

図5は、ランダムパターン背景の明るさを説明するための図である。Yの値は、シルエット抽出に用いないので、Yは、照明環境に応じて撮像装置Cで観測し得る値の範囲内で適宜設定可能であるが、Yの値によりUV空間における分布が偏ると、例えばYの値が小さく背景色が暗過ぎると、図5(A)に示すように、撮像装置Cによって黒く観測される領域RGが生じてしまう。また例えばYの値が大きく背景色が明る過ぎると、図5(C)に示すように、撮像装置Cによって白飛びして観測される領域RGが生じてしまう。このようにYの値が適切に設定されていない場合には、各撮像装置Cによって観測される色のUV空間における分布に偏りが生じ、1台の撮像装置Cにおけるシルエット欠損が生じる確率pが理論値よりも大きくなってしまう。このため、UV空間で一様に分布するようにYの値が設定される。適切にYの値を設定した例を図5(B)に示す。 FIG. 5 is a diagram for explaining the brightness of the random pattern background. Since the value of Y is not used for silhouette extraction, Y can be set as appropriate within the range of values that can be observed by the imaging apparatus C according to the illumination environment, but if the distribution in the UV space is biased by the value of Y, For example, when the value of Y is small and the background color is too dark, a region RG that is observed black by the imaging device C is generated as shown in FIG. Also, for example, if the value of Y is large and the background color is too bright, a region RG observed by the imaging device C in a manner that is blown out as shown in FIG. Probability this case the value of Y is not properly set, as, deviation occurs in the distribution in UV space color observed by the imaging devices C s, silhouette defect in one of the image pickup device C m occurs p becomes larger than the theoretical value. For this reason, the value of Y is set so as to be uniformly distributed in the UV space. An example in which the value of Y is set appropriately is shown in FIG.

また、焦点ぼけが生じると、隣接する領域RGの中間色が観測され、その結果、観測される背景色のUV空間における分布が偏ってしまう。   Further, when defocusing occurs, an intermediate color between adjacent regions RG is observed, and as a result, the distribution of the observed background color in the UV space is biased.

そして、領域RGの形状は、図4及び図5に示す例では正方形であるが、三角形でも他の四角形でも五角形でも良く任意の形状を用いることができる。また、領域RGの形状は、総て同形状でも複数の形状の組み合わせでも良い。   The shape of the region RG is a square in the examples shown in FIGS. 4 and 5, but may be a triangle, another quadrangle, or a pentagon, and any shape can be used. Further, the shape of the region RG may be the same shape or a combination of a plurality of shapes.

図6は、ランダムパターン背景の領域の大きさを説明するための図である。撮像装置Cの解像度に較べて領域RGの大きさが小さ過ぎると、図6(A)に示すように、撮像装置Cによって一様な色として観測されてしまう。一方、物体Oの大きさに較べて領域RGの大きさが大き過ぎると、図6(C)に示すように、物体Oの背景部分に現れる背景色に多様性が失われ、ランダムパターン背景を用いる意義が失われてしまう。このため、領域RGの大きさは、被写体の物体Oの大きさ及び撮像装置Cの解像度に応じて適宜設定される。物体Oの大きさ及び撮像装置Cに対し、適切に領域RGの大きさを設定した例を図6(B)に示す。   FIG. 6 is a diagram for explaining the size of the area of the random pattern background. If the size of the region RG is too small compared to the resolution of the imaging device C, the imaging device C will observe a uniform color as shown in FIG. On the other hand, if the size of the region RG is too large compared to the size of the object O, the background color appearing in the background portion of the object O is lost as shown in FIG. Use significance is lost. For this reason, the size of the region RG is appropriately set according to the size of the object O as the subject and the resolution of the imaging device C. An example in which the size of the region RG is appropriately set for the size of the object O and the imaging device C is shown in FIG.

次に、本実施形態の動作について説明する。
(実施形態の動作)
図7は、3次元形状データを生成する動作を示すフローチャートである。図8は、シルエット修復の詳細動作を示すフローチャートである。
Next, the operation of this embodiment will be described.
(Operation of the embodiment)
FIG. 7 is a flowchart showing an operation for generating three-dimensional shape data. FIG. 8 is a flowchart showing the detailed operation of silhouette restoration.

まず、ランダムパターン背景の背景板BDが3次元形状データ生成装置1における背景として背景板BDの配置場所にそれぞれ配置される。そして、背景を撮影する指示をユーザから入力部32を介して受付けると、3次元形状データ生成装置1の情報処理部31における画像取得部311は、被写体の物体Oを置いていない状態で複数の撮像装置Cによって背景をそれぞれ撮影し、複数の撮像装置Cにそれぞれ対応する複数の背景画像Bのデータをそれぞれ取得する。画像取得部311は、これら取得した複数の背景画像Bのデータを複数の撮像装置Cとそれぞれ対応付けて記憶部34の背景画像データ記憶部341にそれぞれ記憶する。そして、画像取得部311は、複数の背景画像Bの取得が終了した旨を出力部33に出力する(S11)。 First, the background plate BD s of the random pattern background is arranged at the location of the background plate BD s as the background in the three-dimensional shape data generation device 1. Then, when an instruction to shoot a background is received from the user via the input unit 32, the image acquisition unit 311 in the information processing unit 31 of the three-dimensional shape data generation apparatus 1 has a plurality of objects in a state where the object O is not placed. taking respectively the background by the imaging device C s, respectively obtains a plurality of background image B s of data corresponding to a plurality of imaging devices C s. The image acquisition unit 311 stores the acquired data of the plurality of background images B s in association with the plurality of imaging devices C s in the background image data storage unit 341 of the storage unit 34, respectively. Then, the image acquisition unit 311 outputs the effect that acquisition of the plurality of background image B s is finished to the output section 33 (S11).

次に、被写体の物体Oが3次元形状データ生成装置1における被写体の配置場所(観測環境内)に配置される。そして、物体Oを撮影する指示をユーザから入力部32を介して受付けると、画像取得部311は、この状態で複数の撮影装置Cによって物体Oをそれぞれ撮影し、複数の撮像装置Cにそれぞれ対応する複数の取得画像Fのデータをそれぞれ取得する。画像取得部311は、これら取得した複数の取得画像Fのデータを複数の撮像装置Cとそれぞれ対応付けて記憶部34の取得画像データ記憶部342にそれぞれ記憶する。そして、画像取得部311は、複数の取得画像Fの取得が終了した旨を出力部33に出力する(S12)。 Next, the subject object O is placed at the subject placement location (in the observation environment) in the three-dimensional shape data generation apparatus 1. Then, when receiving via the input unit 32 instructs the user to shoot an object O, the image acquisition unit 311 captures each object O by a plurality of imaging devices C s in this state, the plurality of imaging devices C s corresponding plurality of data acquired image F s to get, respectively. The image acquisition unit 311 stores the acquired data of the plurality of acquired images F s in association with the plurality of imaging devices C s in the acquired image data storage unit 342 of the storage unit 34, respectively. Then, the image acquisition unit 311 outputs the effect that acquisition of the plurality of acquired images F s has been completed to the output section 33 (S12).

3次元形状データを生成する指示をユーザから入力部32を介して受付けると、3次元形状データ生成装置1の情報処理部31におけるシルエット抽出部312は、複数の撮像装置Cにそれぞれ対応する複数の背景画像B及び複数の取得画像Fに基づいて、複数の撮像装置Cにそれぞれ対応する複数のシルエットRの抽出をそれぞれ行う(S13)。なお、複数の撮像装置Cにそれぞれ対応する複数の背景画像B及び複数の取得画像Fがそれぞれ取得され、記憶された場合に、ユーザの指示を待つことなく、シルエット抽出部312が各シルエットRの抽出を行うように構成してもよい。 When instructed to generate a three-dimensional shape data from the user accepted via the input unit 32, the silhouette extraction unit 312 in the information processing unit 31 of the three-dimensional shape data generating apparatus 1, respectively corresponding to the plurality of imaging devices C s more performed on the basis on the background image B s and a plurality of acquired images F s, the extraction of the plurality of silhouette R s respectively corresponding to a plurality of imaging devices C s, respectively (S13). In addition, when a plurality of background images B s and a plurality of acquired images F s respectively corresponding to the plurality of imaging devices C s are acquired and stored, the silhouette extraction unit 312 does not wait for a user's instruction. it may be configured to perform the extraction of the silhouette R s.

シルエットRの抽出は、より具体的には、次のように行われる。撮影装置Cによって取得された背景画像Bのデータ及び取得画像Fのデータは、R成分、G成分及びB成分より構成されている。ここで、RGB表色系でシルエットRの抽出を実行してもよいが、RGB表色系で計算される差分画像よりも、YUV表色系やHSV表色系に変換して差分画像を求める方が精度よくシルエット抽出を行うことができる。そのため、情報処理部31のシルエット抽出部312は、背景画像Bのデータ及び取得画像FのデータをYUV表色系又はHSV表色系に変換する。本実施形態では、背景画像Bのデータ及び取得画像FのデータをYUV表色系に変換する。ここで、RGB表色系からYUV表色系へ変換する変換式は、いくつか知られているが本実施形態では、式1−1乃至式1−3を用いて変換する。
Y=0.299R+0.587G+0.114B ・・・(式1−1)
U=−0.169R+−0.331G+0.500B ・・・(式1−2)
V=0.500R−0.419G−0.081B ・・・(式1−3)
なお、RGB表色系からHSV表色系への変換も公知の変換式を用いて行うことができる。
More specifically, the silhouette R s is extracted as follows. Data of the data and the acquired image F m of the background image B m obtained by the photographing apparatus C m is, R component is composed of G and B components. Here, it may be performed to extract the silhouette of R m in the RGB color system, but from the difference image calculated by the RGB color system, a difference image is converted into YUV color system and HSV color system The person who wants can extract silhouettes with high accuracy. Therefore, the silhouette extraction unit 312 of the information processing unit 31 converts the data of the data and the acquired image F m of the background image B m in YUV color system or HSV color system. In the present embodiment, it converts the data of the data and the acquired image F m of the background image B m in YUV color system. Here, several conversion expressions for converting from the RGB color system to the YUV color system are known, but in the present embodiment, conversion is performed using Expression 1-1 to Expression 1-3.
Y = 0.299R + 0.587G + 0.114B (Formula 1-1)
U = −0.169R + −0.331G + 0.500B (Formula 1-2)
V = 0.500R-0.419G-0.081B (Formula 1-3)
The conversion from the RGB color system to the HSV color system can also be performed using a known conversion formula.

本実施形態における3次元形状データ生成装置1のように、被写体の物体Oが配置される観測環境の内部全体に対して照明が略均一に当たるように設計された照明環境では、物体の観測色と背景の観測色との輝度値の差分は、大きくならない。このため、シルエット抽出部312は、撮像装置Cで得られる取得画像Fにおける画素(x、y)の画素値fm,y(x,y)、fm,U(x,y)、fm,V(x,y)と、撮像装置Cで得られる背景画像Bにおける、取得画像Fの画素(x、y)に対応する画素(x、y)の画素値bm,y(x,y)、bm,U(x,y)、bm,V(x,y)とから、式2を用いてシルエットRをそれぞれ求める。
={(x,y)||fm,U(x,y)−bm,U(x,y)|>Uth、又は、|fm,V(x,y)−bm,V(x,y)|>Vth} ・・・(式2)
ここで、Uth、Vthは、背景差分の閾値であり、経験的、実験的に設定される。
As in the three-dimensional shape data generation apparatus 1 in the present embodiment, in an illumination environment designed so that the illumination is substantially uniformly applied to the entire interior of the observation environment in which the object O of the subject is disposed, The difference in brightness value from the background observation color does not increase. For this reason, the silhouette extraction unit 312 includes the pixel values f m, y (x, y), f m, U (x, y), and the pixel values (x, y) of the acquired image F m obtained by the imaging device C m f m, V (x, y) and the pixel value b m, of the pixel (x, y) corresponding to the pixel (x, y) of the acquired image F m in the background image B m obtained by the imaging device C m The silhouette R m is obtained from Equation (2) from y (x, y), b m, U (x, y), b m, V (x, y).
R m = {(x, y) || f m, U (x, y) −b m, U (x, y) |> U th or | f m, V (x, y) −b m , V (x, y) |> V th } (Formula 2)
Here, U th and V th are threshold values of the background difference, and are set empirically and experimentally.

物体Oの観測色と背景色とが同色又は近い色である場合には、取得画像Fと背景画像Bとの対応する画素間における画素値の差分は、小さくなり、シルエットRの欠損が生じてしまう。そして、単一色背景を各撮像装置Cに対して用いると、或る撮像装置Cでシルエット欠損が生じると他の撮像装置Cでもシルエット欠損を生じてしまう。一方、本発明では、背景にランダムパターン背景を用いるので、撮像装置C間で異なる背景色となり、様々な色を持つ物体Oに対しても所定の割合以上で正しく各シルエットRを抽出することができる。特に、博物学のように多様な色の物体Oを被写体とする場合に好適である。 When the observed color of the object O and the background color are the same or close to each other, the difference in pixel value between corresponding pixels of the acquired image F m and the background image B m becomes small, and the silhouette R m is missing. Will occur. When a single color background is used for each imaging device C s, if a silhouette loss occurs in one imaging device C a , a silhouette loss occurs in another imaging device C b . On the other hand, in the present invention, since a random pattern background is used as the background, different background colors are obtained between the imaging devices C s , and each silhouette R s is correctly extracted at a predetermined ratio or more even for an object O having various colors. be able to. In particular, it is suitable when an object O of various colors is used as a subject as in natural history.

次に、このようにシルエット抽出部312によって各シルエットRが抽出されると、3次元形状データ生成装置1の情報処理部31におけるシルエット修復部313は、この抽出した各シルエットRの修復をそれぞれ行う(S14)。 Next, when each silhouette R s is extracted by the silhouette extraction unit 312 in this way, the silhouette restoration unit 313 in the information processing unit 31 of the three-dimensional shape data generation apparatus 1 restores each extracted silhouette R s . Each is performed (S14).

物体Oの観測色は、拡散反射光及び鏡面反射光の色である。拡散反射光は、光が物体表面に照射された場合にその物体表面を観測することができる全方向に一様な大きさで反射する反射光である。鏡面反射光は、鏡や磨かれた金属の表面で起こる反射であり、光が物体表面に照射された場合にその物体表面の法線ベクトルに対する光の入射方向と反射方向とが等しくなるような全反射方向に対して強く反射する反射光である。このため、物体Oの同じ部分を複数の撮像装置Cが観測する場合に、その部分の拡散反射色は、各撮像装置Cで同じ色として観測されることになる。 The observation color of the object O is the color of diffuse reflection light and specular reflection light. Diffuse reflected light is reflected light that is reflected in a uniform size in all directions in which the object surface can be observed when the object surface is irradiated with light. Specularly reflected light is a reflection that occurs on the surface of a mirror or polished metal, and when light is applied to the object surface, the incident direction of the light with respect to the normal vector of the object surface is equal to the reflection direction. The reflected light is strongly reflected in the total reflection direction. For this reason, when a plurality of imaging devices C s observe the same part of the object O, the diffuse reflection color of that part is observed as the same color in each imaging device C s .

或る撮像装置Cにおけるシルエット欠損は、他の撮像装置Cの取得画像Cから物体Oの拡散反射色を知ることができれば、或る撮像装置Cにおける背景色と他の撮像装置Cから知り得た拡散反射色とを比較することによって、検出することができる。よって、この検出したシルエット欠損をシルエットRに加えることによってシルエットRを修復することができ、よりシルエット欠損の少ない、言い換えれば、より精度の高いシルエットRを抽出することができる。 If a silhouette deficit in a certain imaging device C m can know the diffuse reflection color of the object O from the acquired image C n of another imaging device C n , the background color in the certain imaging device C m and the other imaging device C can be obtained. It can be detected by comparing with the diffuse reflection color obtained from n . Therefore, by adding the detected silhouette defect to the silhouette R m , the silhouette R m can be repaired, and in other words, the silhouette R m with fewer silhouette defects can be extracted.

このシルエット修復は、より具体的には、次のように行われる。まず、シルエット修復部313は、処理S13で抽出した複数のシルエットRを用いて、視体積交差法を用いた公知の情報処理手順によって視体積(例えばボクセル表現の3次元形状)を求める(S21)。なお、この処理S21における視体積を初期視体積と呼称することとする。この複数のシルエットRから視体積交差法によって視体積を求める情報処理手順は、一例を挙げると例えば、『ウ小軍、東海彰吾、和田俊和、松山隆司、「PCクラスタを用いた身体動作の実時間3次元映像化」、情報処理学会研究会資料、CVIM121−9,2000.3』に開示されている。 More specifically, the silhouette restoration is performed as follows. First, silhouette restoration unit 313, by using a plurality of silhouette R s extracted in the processing S13, obtains a view volume by known processing procedure using the volume intersection method (e.g. three-dimensional shape of the voxel representation) (S21 ). Note that the viewing volume in the process S21 is referred to as an initial viewing volume. The information processing procedure for obtaining the view volume by the volume intersection method viewed from the plurality of silhouette R s is an example and for example, "c Xiaojun, Tokai Shogo, Toshikazu Wada, Takashi Matsuyama, of body movements using a" PC Cluster “Real-time 3D visualization”, Information Processing Society of Japan, CVIM 121-9, 2000.3 ”.

次に、シルエット修復部313は、欠損の生じている可能性のあるボクセルvが含まれる領域(以下、「復帰判定領域」と呼称する。)を求める(S22)。初期視体積に含まれないボクセルvのうち、真の視体積から欠損したボクセルvについてのみ修復の判定を行えば、誤ったボクセルvを復帰させることがないから、初期視体積の欠損を修復することができるが、この時点では、真の視体積を知り得ないので、真の視体積を包含しかつ余分な領域を可能な限り含まない領域を求め、これと初期視体積との差分領域を復帰判定領域とする。   Next, the silhouette restoration unit 313 obtains an area (hereinafter, referred to as “recovery determination area”) including a voxel v that may have a defect (S22). Of the voxels v not included in the initial visual volume, if only the voxel v missing from the true visual volume is determined to be repaired, the erroneous voxel v will not be restored, so the initial visual volume defect is repaired. However, since the true visual volume cannot be known at this point, the area that includes the true visual volume and that does not include the extra area as much as possible is obtained, and the difference area between this and the initial visual volume is calculated. This is the return determination area.

より具体的には、シルエット修復部313は、Nallow=Nth(Nth≧1)に設定した視体積と初期視体積の差分領域を求めることによって復帰判定領域を求める。Nallow=Nthに設定した視体積は、相互に撮影方向の異なるn台の撮像装置のうち、(n−Nallow)台以上の撮像装置の視錐体に含まれる領域である。Nthを大きくすると真の視体積からの欠損が少なくなるが余分な領域が増える。一方、Nthを小さくすると真の視体積からの欠損が増えるが余分な領域があまり増えない。このような傾向を考慮の上、被写体の物体Oにおける形状の複雑さ、物体Oを観測する撮像装置の台数及び撮像装置で発生するノイズ等を勘案して、閾値Nthが適宜決定される。本実施形態では、Nth=1とした。 More specifically, silhouette restoration unit 313 obtains a recovery judgment region by obtaining the N allow = N th (N th ≧ 1) the set view volume to the initial view volume of the difference area. N The allow = N the set view volume to th are mutually among photographing direction different n-number of the imaging device, a region included in the viewing cone of the (n-N allow) more than one imaging apparatus. Defect from the true view volume is reduced when the N th is increased but increased extra space. On the other hand, reducing the N th more missing from the true view volume but does not increase so much extra space. Such trend in consideration, the complexity of the shape of the object O of the object, in consideration of noise or the like generated by the number and the imaging device of the imaging device for observing the object O, the threshold N th is determined as appropriate. In this embodiment, N th = 1.

なお、Nallow=Nthとした場合に、復帰判定領域に含まれずシルエット欠損が修復されないボクセルvの生起確率p’は、式3である。 Incidentally, in the case of the N allow = N th, probability p of the voxel v silhouette defects not included in the return determination area does not correct 'is an expression 3.

ここで、pは、ボクセルvが投影される画素Iが背景色と同一色である確率であり、N’vis(e)は、複数の撮像装置Cのうちボクセルeが見える撮像装置Cの個数である。 Here, p is the probability of pixels I of the voxel v is projected is background color and the same color, N'vis (e), the imaging device C voxel e is visible among the plurality of imaging devices C e It is a number.

そして、シルエット修復部313は、求めた復帰判定領域に含まれるボクセルvに対して、視体積表面からのマンハッタン距離を与え、このマンハッタン距離の小さいものから順に、復帰を判定する復帰判定ボクセルaとする(S23)。   Then, the silhouette restoration unit 313 gives the Manhattan distance from the visual volume surface to the voxel v included in the obtained return determination region, and returns determination voxel a for determining return in order from the smallest Manhattan distance. (S23).

次に、シルエット修復部313は、復帰判定ボクセルaが見える撮像装置Cを判定する(S24)。この判定は、復帰判定ボクセルaと撮像装置Cとの間における他のボクセルvの有無を調べ、他のボクセルvがない場合には、復帰判定ボクセルaが見える撮像装置Cであると判定する。図9は、復帰判定ボクセルが見える撮像装置の判定方法を説明するための図である。図9において、より具体的には、複数のボクセルvが同じ画素に投影される場合を考慮して、正の小さな閾値zthを設定し、復帰判定ボクセルaが撮像装置Cから見えているか否かを、復帰判定ボクセルaが投影される画素I(x、y)に対応するZバッファの値z(x、y)がz(q(a))+zthより小さいか否かによって判定する。q(a)は、撮像装置Cのレンズ中心から復帰判定ボクセルaまでのベクトルを考え、このベクトルの撮像装置Cの光軸方向をZとした場合におけるこの光軸方向成分の大きさである。ここで、閾値zthを大きな値とすると視体積の裏側のボクセルvまで見えると判定されることがあるので、閾値zthは、物体Oの大きさ、復帰判定ボクセルaの集合がなす復帰視体積表面上の層の幅等を勘案して、小さな閾値zthを設定する。また、Zバッファの値は、コンピュータグラフィックスにおいて、画像の各画素値に複数個ある物体のどの物体の色が反映されるかを決定し物体の投影像を生成する公知のZバッファ法で用いられる値である。 Next, the silhouette restoration unit 313 determines the imaging device C s in which the return determination voxel a can be seen (S24). In this determination, the presence / absence of another voxel v between the return determination voxel a and the imaging device C m is checked. If there is no other voxel v, it is determined that the imaging device C m can see the return determination voxel a. To do. FIG. 9 is a diagram for explaining a determination method of the imaging apparatus in which the return determination voxel can be seen. In FIG. 9, more specifically, in consideration of the case where a plurality of voxels v are projected onto the same pixel, a positive small threshold value z th is set, and is the return determination voxel a visible from the imaging device C m ? Whether or not the Z buffer value z m (x, y) corresponding to the pixel I m (x, y) onto which the return determination voxel a is projected is smaller than z m (q m (a)) + z th. Judge by. q m (a) is a vector from the lens center of the imaging device C m to the return determination voxel a, and the magnitude of this optical axis direction component when the optical axis direction of the imaging device C m of this vector is Z. It is. Here, if the threshold value z th is set to a large value, it may be determined that even the voxel v on the back side of the visual volume can be seen. Therefore, the threshold value z th is the return view formed by the set of the size of the object O and the return determination voxel a. A small threshold z th is set in consideration of the width of the layer on the volume surface and the like. The value of the Z buffer is used in a known Z buffer method for determining which object color of a plurality of objects is reflected in each pixel value of an image and generating a projected image of the object in computer graphics. Value.

次に、シルエット修復部313は、式4−1、式4−2を用いて復帰判定ボクセルaの拡散反射色を求める(S25)。   Next, the silhouette restoration unit 313 obtains the diffuse reflection color of the return determination voxel a using Equation 4-1 and Equation 4-2 (S25).

ここで、Ave(a)及びAve(a)は、復帰判定ボクセルaの拡散反射色のU及びVの推定値であり、Cin(a)は、復帰判定ボクセルaが見えている撮像装置Cの集合Cvis(a)のうち、復帰判定ボクセルaが投影される画素がシルエットRに含まれる撮像装置Cの集合である。 Here, Ave U (a) and Ave V (a) are estimated values of the diffuse reflection colors U and V of the return determination voxel a, and Cin (a) is an imaging device in which the return determination voxel a is visible. of the set CVIS (a) of C m, the pixel recovery judgment voxels a is projected is a set of an imaging device C m contained in the silhouette R m.

次に、シルエット修復部313は、処理S25で復帰判定ボクセルaの拡散反射色の推定に用いた撮像装置Cの観測色におけるU、Vの分散Var(a)、Var(a)と標準偏差Sig(a)、Sig(a)とを式5−1、式5−2、式6−1、式6−2によってそれぞれ求める(S26)。 Next, the silhouette restoration unit 313 performs U and V dispersions Var U (a) and Var V (a) in the observation color of the imaging device C m used for estimating the diffuse reflection color of the return determination voxel a in the process S25. The standard deviations Sig U (a) and Sig V (a) are obtained by Expressions 5-1, 5-2, 6-1, and 6-2, respectively (S26).

次に、シルエット修復部313は、シルエット欠損の検出及びその修復を行う(S27)。ここで、復帰判定ボクセルaが(1)凹面の部分である場合、(2)鏡面反射が起こっている部分である場合、及び、(3)見えている撮像装置Cの個数が少ない場合には、復帰判定ボクセルaの拡散反射色を正しく判定することができないので、シルエット欠損の修復を実行しない。このようにシルエット欠損の修復を実行することによって、より適切にシルエット欠損を修復することができ、より精度よいシルエットRを得ることができる。 Next, the silhouette restoration unit 313 detects silhouette defects and repairs them (S27). Here, if the recovery judgment voxel a is part of (1) a concave, (2) a partial specular reflection is occurring, and, if a small number of the image pickup apparatus C m which are visible (3) Since the diffuse reflection color of the return determination voxel a cannot be correctly determined, the silhouette defect is not repaired. By thus performing the repair silhouette defect can be repaired more appropriately silhouette deficiency, it is possible to obtain a more accurate silhouette R m.

ここで、凹面部分の各箇所で観測される物体色が異なる物体である場合、分散Var(a)、Var(a)が大きくなるので、この復帰判定ボクセルaが凹面の部分であるか否かは、分散Var(a)、Var(a)が所定の閾値αよりも大きいか否かによって判定することができる。閾値αは、経験的、実験的に設定される。 Here, when the object color observed in each part of the concave surface is different, the variances Var U (a) and Var V (a) become large, so whether the return determination voxel a is a concave surface part. Whether or not the variances Var U (a) and Var V (a) are larger than a predetermined threshold value α can be determined. The threshold value α is set empirically and experimentally.

また、鏡面反射が生じている部分を観測する撮像装置Cでは、拡散反射色とは異なる色を観測することになる。そのため、鏡面反射が生じている部分を観測する撮像装置Cを含めて拡散反射色を推定した場合、推定した拡散反射色は、鏡面反射によった色となってしまう。よって、復帰判定ボクセルaが投影される画素q(a)でUとVとの値が平均値に近いもののみを用いて拡散反射色を推定する。即ち、式7の分散条件を満たす復帰判定ボクセルaが投影される画素q(a)を用いて拡散反射色Ave(a)及びAve(a)を再計算し、推定する。 In the imaging device C m observing partial specular reflection occurs, we will observe a color different from the diffuse reflection color. Therefore, when the diffuse reflection color is estimated including the imaging device C m that observes the portion where the specular reflection occurs, the estimated diffuse reflection color becomes a color due to the specular reflection. Therefore, the diffuse reflection color is estimated using only the pixel q m (a) on which the return determination voxel a is projected and the values of U and V are close to the average value. That is, the diffuse reflection colors Ave U (a) and Ave V (a) are recalculated and estimated using the pixel q m (a) on which the return determination voxel a satisfying the dispersion condition of Expression 7 is projected.

ここで、βは、鏡面反射ではないことを許容する閾値である。閾値βは、経験的、実験的に設定される。 Here, β is a threshold value that allows non-specular reflection. The threshold value β is set empirically and experimentally.

さらに、見えている撮像装置Cの個数が少ない場合には、推定する拡散反射色から上記鏡面反射の影響を排除することができない。このため、式7の分散条件から、復帰判定ボクセルaに対して鏡面反射が高々Nspec個の撮像装置Cでしか観測されないと仮定することができる場合に、Nvis(a)が2×Nspec+1以上でない場合には、修復を行わない。閾値Nspecは、経験的、実験的に設定される。 Furthermore, if the number of which the imaging device C m which appeared is small, it is impossible to eliminate the influence of the specular reflection from the diffuse reflection color to estimate. For this reason, when it can be assumed from the dispersion condition of Expression 7 that specular reflection is observed only at most N spec imaging devices C m with respect to the return determination voxel a, Nvis (a) is 2 × N. If it is not more than spec + 1, no repair is performed. The threshold N spec is set empirically and experimentally.

そして、シルエット修復部313は、上記処理を行った拡散反射色を用いて、式8の平均条件を満たす画素q(a)ではシルエット欠損が起こっていると判定し、シルエット欠損が起こっていると判定した復帰判定ボクセルaをシルエットRに含める。 Then, the silhouette restoration unit 313 determines that a silhouette loss has occurred in the pixel q m (a) that satisfies the average condition of Expression 8 using the diffuse reflection color that has been subjected to the above processing, and a silhouette loss has occurred. the return decision voxels a it is determined that the inclusion in the silhouette R m.

そして、シルエット修復部313は、シルエット欠損を修復したシルエットRを用いて、視体積交差法を用いた公知の情報処理手順によって視体積(例えばボクセル表現の3次元形状)を求める(S28)。この処理S28における視体積を修復視体積と呼称することとする。 The silhouette restoration unit 313 uses the silhouette R m a restored silhouette deficient, obtaining the view volume by known processing procedure using the volume intersection method (e.g. three-dimensional shape of the voxel representation) (S28). The visual volume in this process S28 will be referred to as a repair visual volume.

次に、シルエット修復部313は、シルエット修復の処理が終了したか否かを判断する(S29)。この判断は、例えば、前回の修復視体積と今回の修復視体積とを比較し、今回の修復視体積が前回の修復視体積と所定の閾値内で一致するか否かを判断することによって行われ、判断の結果、今回の修復視体積と前回の修復視体積とが略一致する場合には、シルエット修復の処理が終了したと判断され、一方、今回の修復視体積と前回の修復視体積とが略一致しない場合には、シルエット修復の処理が終了していないと判断される。   Next, the silhouette restoration unit 313 determines whether or not the silhouette restoration process is completed (S29). This determination is performed by, for example, comparing the previous repair visual volume with the current repair visual volume, and determining whether the current repair visual volume matches the previous repair visual volume within a predetermined threshold. As a result of the determination, if the current repair visual volume and the previous repair visual volume substantially coincide with each other, it is determined that the silhouette repair processing has been completed, while the current repair visual volume and the previous repair visual volume are determined. Is not substantially matched, it is determined that the silhouette restoration process has not ended.

処理S29の判断の結果、シルエット修復の処理が終了したと判断された場合(Yes)には、シルエット修復部313は、図7の処理S15を実行し、一方、シルエット修復の処理が終了していないと判断された場合(No)には、シルエット修復部313は、処理を処理S21に戻す。この場合において、処理S21では、今回の修復視体積を新たな初期視体積とする。   If it is determined as a result of the process S29 that the silhouette repair process has been completed (Yes), the silhouette repair unit 313 executes the process S15 of FIG. 7, while the silhouette repair process has been completed. If it is determined that there is no (No), the silhouette restoration unit 313 returns the process to step S21. In this case, in the process S21, the current repair visual volume is set as a new initial visual volume.

以上の処理を各シルエットRに行うことにより、物体の観測色と背景色との近さに起因するシルエット欠損を効果的に修復することができる。このため、精度のよい各シルエットRを得ることができる。特に、本発明に係るランダムパターン背景では、物体Oの或る部分に対して各撮像装置Cに対応する背景色が異なることが期待され得るので、シルエット欠損を修復することができる確率が非常に高くなり、より精度のよい各シルエットRを得ることができる。 By performing the above processing on each silhouette R s , it is possible to effectively repair a silhouette defect caused by the closeness between the observed color of the object and the background color. Therefore, it is possible to obtain each silhouette R s good accuracy. In particular, the random pattern background according to the present invention, since the background colors corresponding to the respective imaging devices C s for a certain portion of the object O are different can be expected, the probability that it is possible to repair the silhouette deficiency very high it is possible to obtain a more accurate each silhouette R s to.

図7に戻って、シルエット修復が完了すると、情報処理部31の3次元形状データ生成部314は、この修復したシルエットRのデータを用いて、視体積交差法を用いた公知の情報処理手順によって例えばボクセル表現の3次元形状のデータを生成する。そして、被写体の物体Oに対応する3次元形状データを生成すると、3次元形状データ生成部314は、この生成した3次元形状データをファイル名を付して記憶部34の3次元形状データ記憶部344に記憶すると共に、この生成した3次元形状データに基づく3次元形状及びファイル名を出力部33に出力する(S15)。 Returning to FIG. 7, when silhouette repair is complete, three-dimensional shape data generating portion 314 of the information processing unit 31 uses the data of the repaired silhouette R s, a known information processing procedure using the volume intersection method For example, voxel representation three-dimensional shape data is generated. When three-dimensional shape data corresponding to the object O of the subject is generated, the three-dimensional shape data generation unit 314 attaches a file name to the generated three-dimensional shape data and stores the three-dimensional shape data storage unit of the storage unit 34. The 3D shape and the file name based on the generated 3D shape data are output to the output unit 33 (S15).

このように動作することによって3次元形状データ生成装置1は、様々な色を持つ物体に対しても所定の割合以上の領域で正しくシルエットRを抽出することができ、そして、物体Oの観測色と背景色との近さに起因するシルエット欠損を効果的に修復することができる。このため、3次元形状データ生成装置1は、物体Oの3次元形状をより高い精度で生成することができる。 Such three-dimensional shape data generating apparatus 1 by operating the can extract the correct silhouette R s at a predetermined ratio or more areas even for objects with different colors, and observation of the object O It is possible to effectively repair a silhouette defect caused by the closeness between the color and the background color. For this reason, the three-dimensional shape data generation apparatus 1 can generate the three-dimensional shape of the object O with higher accuracy.

そして、このような3次元形状データ生成装置1は、物体の3次元座標を出力することができるので、物体の3次元座標から3次元モデルを仮想空間上に復元することによって任意視点画像を生成することもできる。
(実施例)
様々な物体Oに対する3次元形状データをこの3次元形状データ生成装置1を用いて作成した。その結果を以下に示す。
Since such a three-dimensional shape data generation apparatus 1 can output the three-dimensional coordinates of the object, an arbitrary viewpoint image is generated by restoring the three-dimensional model in the virtual space from the three-dimensional coordinates of the object. You can also
(Example)
Three-dimensional shape data for various objects O was created using this three-dimensional shape data generation apparatus 1. The results are shown below.

図10は、第1の物体に対する取得画像及びシルエットを示す図である。図10(A)は、ランダムパターン背景を用いて第1の物体を撮影し取得した取得画像Fを示し、図10(B)は、シルエット修復前のシルエットRを示し、そして、図10(C)は、シルエット修復後のシルエットRを示す。図10(B)及び(C)の白色で示す領域がシルエットRである。図11は、第1の物体及び第1の物体に対する視体積(3次元形状)を示す図である。図11(A)は、第1の物体Oを示し、図11(B)は、正解の視体積を示し、図11(C)は、ランダムパターン背景を用いると共にシルエット修復を行わずに視体積交差法により求めた視体積(以下、「通常の視体積」と呼称する。)を示し、図11(D)は、ランダムパターン背景を用いると共にNallow=1として視体積交差法により求めた視体積(以下、「Nallow=1の視体積」と呼称する。)を示し、そして、図11(E)は、ランダムパターン背景を用いると共にシルエット修復を行って視体積交差法により求めた視体積(以下、「修復の視体積」と呼称する。)を示す。 FIG. 10 is a diagram illustrating an acquired image and a silhouette for the first object. FIG. 10 (A) shows an acquired image F m obtained by photographing a first object using a random pattern background, FIG. 10 (B) shows a silhouette R m before silhouette restoration, and FIG. (C) shows the silhouette R m after silhouette repair. Region indicated by white shown in FIG. 10 (B) and (C) is a silhouette R m. FIG. 11 is a diagram illustrating a first object and a viewing volume (three-dimensional shape) with respect to the first object. FIG. 11A shows the first object O, FIG. 11B shows the correct viewing volume, and FIG. 11C shows the viewing volume using a random pattern background and without silhouette restoration. FIG. 11 (D) shows a visual volume obtained by the visual volume intersection method using a random pattern background and Nallow = 1, which is a visual volume obtained by the crossing method (hereinafter referred to as “normal visual volume”). The volume (hereinafter referred to as “N allow = 1 viewing volume”) is shown, and FIG. 11E shows the viewing volume obtained by the viewing volume intersection method using a random pattern background and performing silhouette restoration. (Hereinafter referred to as “repair visual volume”).

本実施例では、3次元形状データ生成装置1は、YUV表色系でシルエットを抽出し、各閾値がVth=Uth=10、zth=2、Nth=1、Nspec=1、β=0.5に設定された。被写体である第1の物体Oは、図11(A)に示すように、大部分が緑色の恐竜模型である。正解の視体積は、総ての撮像装置Nから得られた取得画像Fについて手動でシルエットRの抽出を行って得たものである。また、図11(B)乃至(D)では、それぞれの視体積に対しマーチングキューブ法を適用し、表面のパッチを構成して表示している。そして、表面の色は、得られた視体積において求めた拡散反射色の平均値である。 In this embodiment, the three-dimensional shape data generation apparatus 1 extracts silhouettes in the YUV color system, and each threshold value is V th = U th = 10, z th = 2, N th = 1, N spec = 1, β was set to 0.5. As shown in FIG. 11A, the first object O that is a subject is a dinosaur model that is mostly green. The correct visual volume is obtained by manually extracting the silhouette R s for the acquired images F s obtained from all the imaging devices N s . Further, in FIGS. 11B to 11D, the marching cube method is applied to each viewing volume, and a surface patch is configured and displayed. The surface color is an average value of diffuse reflection colors obtained in the obtained visual volume.

図10(B)と図10(C)を比較すると分かるように、本発明に係るシルエット修復を行うことによって第1の物体Oの観測色と背景色との近さによるシルエット欠損が軽減されている。   As can be seen by comparing FIG. 10B and FIG. 10C, silhouette loss due to the closeness between the observed color of the first object O and the background color is reduced by performing the silhouette restoration according to the present invention. Yes.

そして、図11(C)と図11(E)を比較すると分かるように、通常の視体積は、背中や尻尾の部分で大きな欠損があるが、本発明に係る3次元形状生成装置1よって得た修復の視体積は、この部分の欠損が略修復されており、より正解の視体積に近い。また、図11(D)と図11(E)を比較すると分かるように、Nallow=1の視体積と較べて修復の視体積は、たてがみの裏や角の周りに確認される余分な領域が減少しており、より正解の視体積に近い。 As can be seen by comparing FIG. 11C and FIG. 11E, the normal visual volume has a large defect in the back and tail, but is obtained by the three-dimensional shape generation apparatus 1 according to the present invention. The visual volume of the repaired image is closer to the correct visual volume, since the defect in this part is almost repaired. Further, as can be seen by comparing FIG. 11 (D) and FIG. 11 (E), the visual volume of the repair is an extra area that is confirmed around the back and corners of the mane as compared to the visual volume of Nallow = 1. Is decreasing and closer to the correct visual volume.

正解の視体積と各視体積に対する数値評価の結果を表1に示す。表1における付加ボクセル数(additional voxels)は、正解の視体積には含まれないが当該視体積に含まれるボクセル数である。消失ボクセル数(missing voxels)は、正解の視体積に含まれるが当該視体積には含まれないボクセル数である。エラーボクセル数(error voxels)は、付加ボクセル数と消失ボクセル数の和である。   Table 1 shows the correct viewing volume and the results of numerical evaluation for each viewing volume. The number of additional voxels in Table 1 is the number of voxels that are not included in the correct visual volume but are included in the visual volume. The number of missing voxels (missing voxels) is the number of voxels that are included in the correct visual volume but not included in the visual volume. The number of error voxels (error voxels) is the sum of the number of additional voxels and the number of lost voxels.

表1から分かるように、修復の視体積は、Nallow=1の視体積と較べて付加ボクセル数が少なく、そして、消失ボクセル数も少なくなっている。また、エラーボクセル数は、通常の視体積の場合やNallow=1の視体積の場合と較べて少なくなっている。 As can be seen from Table 1, the repaired visual volume has a smaller number of additional voxels and a smaller number of lost voxels compared to the visual volume of Nallow = 1. The error number of voxels is made smaller than the case in the normal viewing volume or N The allow = 1 the view volume.

第2乃至第6の物体Oに対する3次元形状データをこの3次元形状データ生成装置1を用いて作成した結果を図12乃至図16に示す。   The results of creating the three-dimensional shape data for the second to sixth objects O using the three-dimensional shape data generation apparatus 1 are shown in FIGS.

図12乃至図16は、第2乃至第6の物体及び第2乃至第6の物体に対する視体積(3次元形状)を示す図である。各図(A)は、各物体を示し、各図(B)は、通常の視体積を示し、そして、各図(C)は、修復の視体積を示す。   FIG. 12 to FIG. 16 are views showing the viewing volumes (three-dimensional shapes) for the second to sixth objects and the second to sixth objects. Each figure (A) shows each object, each figure (B) shows a normal viewing volume, and each figure (C) shows a repairing viewing volume.

第2の物体Oは、図12(A)に示すように、灰色の像模型であり、第3の物体Oは、図13(A)に示すように、白色の像模型であり、第4の物体Oは、図14(A)に示すように、主に白色の雌とり模型であり、第5の物体Oは、図15(A)に示すように、主に褐色のかば模型であり、そして、第6の物体Oは、図16(A)に示すように、主に茶色の馬模型である。   As shown in FIG. 12A, the second object O is a gray image model, and the third object O is a white image model as shown in FIG. The object O is mainly a white female model as shown in FIG. 14 (A), and the fifth object O is mainly a brown case model as shown in FIG. 15 (A). The sixth object O is mainly a brown horse model as shown in FIG.

各図(B)から分かるように、様々な色合いの物体Oに対しても、所定の精度でシルエットが抽出され得て通常の視体積が得られている。そして、各図(C)から分かるように、シルエット修復を行うことにより、様々な色合いの物体Oに対しても、欠損の少ない視体積が得られている。   As can be seen from each figure (B), silhouettes can be extracted with a predetermined accuracy to obtain a normal visual volume even for objects O of various shades. As can be seen from each figure (C), a visual volume with few defects is obtained for the object O of various shades by performing the silhouette restoration.

なお、上述の実施形態では、物体の3次元形状データは、相互に撮影方向の異なるn台のカメラにおける総ての視錐体の積領域から生成したが、相互に撮影方向の異なるn台のカメラのうち、(n−Nallow)台以上のカメラの視錐体に含まれる領域から生成しても良い。ここで、Nallow=1、2、3、・・・、n−1である。 In the above-described embodiment, the three-dimensional shape data of the object is generated from the product area of all viewing cones in n cameras having different shooting directions. You may produce | generate from the area | region included in the viewing cone of a camera of (n- Nallow ) or more units among cameras. Here, N allow = 1,2,3, ···, it is n-1.

また、上述の実施形態では、シルエット抽出をした後に特に後処理を行っていないが、被写体の物体Oが総ての撮像装置Cで或る面積以下の小さな孤立点として投影されない場合には、面積の小さなシルエットを除去する後処理を行ってもよい。 In the aforementioned embodiment, the case is not particularly subjected to post-processing after the silhouette extraction, the object O of the subject is not projected as a small isolated points certain area following in all of the imaging device C s is Post-processing may be performed to remove silhouettes with a small area.

そして、上述の実施形態では、ランダムパターン背景を用いて取得した取得画像Fでシルエット修復を行ったが、従来のように単一色背景を用いる場合にも本発明に係るシルエット修復を適用することができる。上述したシルエット修復の情報処理手順から明らかなように、背景の中で影になっているような特異な部分が存在してシルエット欠損が生じている場合、撮像装置のノイズによってシルエット欠損が生じている場合、及び、鏡面反射が観測される場合等にシルエットRを修復することができ、特に有効である。 In the above-described embodiment, the silhouette restoration is performed on the acquired image F m obtained using the random pattern background. However, the silhouette restoration according to the present invention is also applied to the case where a single color background is used as in the past. Can do. As is clear from the information processing procedure for silhouette restoration described above, if there is a silhouette defect due to the presence of a unique part that is shaded in the background, the silhouette defect is caused by the noise of the imaging device. The silhouette R s can be repaired when the mirror reflection is observed and when specular reflection is observed.

一例として、青色の単一色背景を用いた図11(A)に示す恐竜模型を物体Oとする場合についてシルエット修復を行った。その結果を以下に示す。   As an example, silhouette restoration was performed for the case where the dinosaur model shown in FIG. The results are shown below.

図17は、単一色背景における第1の物体に対する取得画像及びシルエットを示す図である。図17(A)は、単一色背景を用いて第1の物体を撮影し取得した取得画像Fを示し、図17(B)は、シルエット修復前のシルエットを示し、そして、図17(C)は、シルエット修復後のシルエットRを示す。図17(B)及び(C)の白色で示す領域がシルエットRである。図18は、第1の物体及び単一色背景における第1の物体に対する視体積(3次元形状)を示す図である。図18(A)は、第1の物体Oを示し、図18(B)は、正解の視体積を示し、図18(C)は、単一色背景を用いた場合における通常の視体積を示し、図18(D)は、単一色背景を用いた場合におけるNallow=1の視体積を示し、そして、図18(E)は、単一色背景を用い場合における修復の視体積を示す。 FIG. 17 is a diagram illustrating an acquired image and a silhouette for a first object in a single color background. FIG. 17 (A) shows an acquired image F m where the first object photographed obtained using a solid color background, FIG. 17 (B) is shown a silhouette before repair silhouette, and, FIG. 17 (C ) shows a silhouette R m after silhouette repair. Region indicated by white shown in FIG. 17 (B) and (C) is a silhouette R m. FIG. 18 is a diagram illustrating a viewing volume (three-dimensional shape) for the first object and the first object in a single color background. 18A shows the first object O, FIG. 18B shows the correct viewing volume, and FIG. 18C shows the normal viewing volume when a single color background is used. FIG. 18D shows a view volume of N allow = 1 when a single color background is used, and FIG. 18E shows a repair view volume when a single color background is used.

この例では、上述の実施例と同様に、3次元形状データ生成装置1は、YUV表色系でシルエットを抽出し、各閾値がVth=Uth=10、zth=2、Nth=1、Nspec=1、β=0.5に設定された。 In this example, as in the above-described embodiment, the three-dimensional shape data generation apparatus 1 extracts silhouettes in the YUV color system, and each threshold value is V th = U th = 10, z th = 2 and N th = 1, N spec = 1, β = 0.5.

図17(B)と図17(C)を比較すると分かるように、本発明に係るシルエット修復を行うことによって第1の物体Oの観測色と背景色との近さによるシルエット欠損が軽減されている。   As can be seen by comparing FIG. 17B and FIG. 17C, silhouette loss due to the closeness between the observed color of the first object O and the background color is reduced by performing the silhouette restoration according to the present invention. Yes.

そして、図18(C)と図18(E)を比較すると分かるように、通常の視体積は、尻尾の部分で大きな欠損があるが、本発明に係る3次元形状生成装置1よって得た修復の視体積は、この部分の欠損が略修復されており、より正解の視体積に近い。また、図18(D)と図18(E)を比較すると分かるように、Nallow=1の視体積と較べて修復の視体積は、たてがみの裏や胴回りに確認される余分な領域が減少しており、より正解の視体積に近い。 As can be seen by comparing FIG. 18C and FIG. 18E, the normal visual volume has a large defect in the tail portion, but the restoration obtained by the three-dimensional shape generation apparatus 1 according to the present invention. The visual volume of this area is almost restored to the defect of this part, and is closer to the correct visual volume. Further, as can be seen by comparing FIG. 18D and FIG. 18E , the visual volume of the repair is smaller than the visual volume of N allow = 1, and the extra area that is confirmed on the back of the mane and around the waist is reduced. It is closer to the correct visual volume.

正解の視体積と各視体積に対する数値評価の結果を表2に示す。   Table 2 shows the correct viewing volume and the results of numerical evaluation for each viewing volume.

表2から分かるように、修復の視体積におけるエラーボクセル数は、通常の視体積の場合やNallow=1の視体積の場合と較べて少なくなっている。 As can be seen from Table 2, the error number of voxels in the view volume of the repair is made smaller as compared with the case in the normal viewing volume or N The allow = 1 the view volume.

3次元形状データ生成装置の構成を示す図である。It is a figure which shows the structure of a three-dimensional shape data generation apparatus. データ生成部の構成を示す図である。It is a figure which shows the structure of a data generation part. 撮像装置、被写体の物体及び背景板の位置関係を説明するための図である。It is a figure for demonstrating the positional relationship of an imaging device, a to-be-photographed object, and a background board. ランダムパターン背景の一例を示す図である。It is a figure which shows an example of a random pattern background. ランダムパターン背景の明るさを説明するための図である。It is a figure for demonstrating the brightness of a random pattern background. ランダムパターン背景の領域の大きさを説明するための図である。It is a figure for demonstrating the magnitude | size of the area | region of a random pattern background. 3次元形状データを生成する動作を示すフローチャートである。It is a flowchart which shows the operation | movement which produces | generates three-dimensional shape data. シルエット修復の詳細動作を示すフローチャートである。It is a flowchart which shows the detailed operation | movement of a silhouette restoration. 復帰判定ボクセルが見える撮像装置の判定方法を説明するための図である。It is a figure for demonstrating the determination method of the imaging device which can see a return determination voxel. 第1の物体に対する取得画像及びシルエットを示す図である。It is a figure which shows the acquired image and silhouette with respect to a 1st object. 第1の物体及び第1の物体に対する視体積(3次元形状)を示す図である。It is a figure which shows the visual volume (three-dimensional shape) with respect to a 1st object and a 1st object. 第2の物体及び第2の物体に対する視体積(3次元形状)を示す図である。It is a figure which shows the visual volume (three-dimensional shape) with respect to a 2nd object and a 2nd object. 第3の物体及び第3の物体に対する視体積(3次元形状)を示す図である。It is a figure which shows the visual volume (three-dimensional shape) with respect to a 3rd object and a 3rd object. 第4の物体及び第4の物体に対する視体積(3次元形状)を示す図である。It is a figure which shows the visual volume (three-dimensional shape) with respect to a 4th object and a 4th object. 第5の物体及び第5の物体に対する視体積(3次元形状)を示す図である。It is a figure which shows the visual volume (three-dimensional shape) with respect to a 5th object and a 5th object. 第6の物体及び第6の物体に対する視体積(3次元形状)を示す図である。It is a figure which shows the visual volume (three-dimensional shape) with respect to a 6th object and a 6th object. 単一色背景における第1の物体に対する取得画像及びシルエットを示す図である。It is a figure which shows the acquired image and silhouette with respect to the 1st object in a single color background. 第1の物体及び単一色背景における第1の物体に対する視体積(3次元形状)を示す図である。It is a figure which shows the visual volume (three-dimensional shape) with respect to the 1st object in the 1st object and a single color background. 視体積と物体形状との関係を説明するための図である。It is a figure for demonstrating the relationship between a visual volume and an object shape.

符号の説明Explanation of symbols

BD 背景板
C 撮像装置
LT 照明器具
O 物体
RG 背景板の領域
1 3次元形状データ生成装置
10 撮影部
20 データ生成部
31 情報処理部
32 入力部
33 出力部
34 記憶部
35 インタフェース部
311 画像取得部
312 シルエット抽出部
313 シルエット修復部
314 3次元形状データ生成部
341 背景画像データ記憶部
342 取得画像データ記憶部
343 シルエットデータ記憶部
344 3次元形状データ記憶部
BD Background plate C Imaging device LT Lighting fixture O Object RG Background plate area 1 3D shape data generation device 10 Imaging unit 20 Data generation unit 31 Information processing unit 32 Input unit 33 Output unit 34 Storage unit 35 Interface unit 311 Image acquisition unit 312 Silhouette extraction unit 313 Silhouette restoration unit 314 3D shape data generation unit 341 Background image data storage unit 342 Acquired image data storage unit 343 Silhouette data storage unit 344 3D shape data storage unit

Claims (10)

背景のみを撮影することによって取得される背景画像と、前記背景及び被写体の物体を撮影することによって取得される取得画像とに基づいて、前記取得画像上における前記物体の存在を表す領域であるシルエットを抽出するシルエット抽出装置において、
前記背景は、複数の領域に分割され、該複数の領域のそれぞれにランダムに色が割り当てられているランダムパターン背景であること
を特徴とするシルエット抽出装置。
A silhouette that is a region representing the presence of the object on the acquired image based on a background image acquired by capturing only the background and an acquired image acquired by capturing the background and the object of the subject In the silhouette extraction device that extracts
The silhouette extraction apparatus according to claim 1, wherein the background is a random pattern background that is divided into a plurality of areas and a color is randomly assigned to each of the plurality of areas.
互いに異なる複数の方向から背景のみをそれぞれ撮影することによって取得される複数の背景画像と、前記複数の方向から前記背景及び被写体の物体をそれぞれ撮影することによって取得される複数の取得画像とに基づいて、一の取得画像上における前記物体の存在を表す領域であるシルエットを抽出するシルエット抽出装置において、
前記物体上の対象領域における拡散反射色を前記一の取得画像を除く他の取得画像から推定し、前記対象領域に対応する前記一の取得画像上における領域の色が前記推定した拡散反射色に予め設定した閾値よりも近い色である場合には、前記対象領域に対応する前記一の取得画像上における前記領域を前記シルエットに加えることによって、前記シルエットを修復すること
を特徴とするシルエット抽出装置。
Based on a plurality of background images acquired by shooting only the background from a plurality of different directions, and a plurality of acquired images acquired by shooting the background and the object of the subject from the plurality of directions, respectively. In a silhouette extraction device that extracts a silhouette that is an area representing the presence of the object on one acquired image,
The diffuse reflection color in the target area on the object is estimated from other acquired images excluding the one acquired image, and the color of the area on the one acquired image corresponding to the target area is the estimated diffuse reflection color. When the color is closer to a preset threshold, the silhouette is restored by adding the region on the one acquired image corresponding to the target region to the silhouette. .
前記背景は、複数の領域に分割され、該複数の領域のそれぞれにランダムに色が割り当てられているランダムパターン背景であること
を特徴とする請求項2に記載のシルエット抽出装置。
The silhouette extraction device according to claim 2, wherein the background is a random pattern background that is divided into a plurality of areas, and a color is randomly assigned to each of the plurality of areas.
複数の領域に分割され該複数の領域のそれぞれにランダムに色が割り当てられているランダムパターン背景である背景のみを撮影することによって背景画像を取得するステップと、
前記背景及び被写体の物体を撮影することによって取得画像を取得するステップと、
前記背景画像と前記取得画像とに基づいて前記取得画像上における前記物体の存在を表す領域であるシルエットを抽出するステップとを備えること
を特徴とするシルエット抽出方法。
Obtaining a background image by capturing only a background that is a random pattern background divided into a plurality of regions and randomly assigned to each of the plurality of regions; and
Acquiring an acquired image by photographing the background and the object of the subject;
Extracting a silhouette, which is a region representing the presence of the object on the acquired image, based on the background image and the acquired image.
互いに異なる複数の方向から背景のみをそれぞれ撮影することによって複数の背景画像を取得するステップと、
前記複数の方向から前記背景及び被写体の物体をそれぞれ撮影することによって複数の取得画像を取得するステップと、
前記複数の背景画像と前記複数の取得画像とに基づいて一の取得画像上における前記物体の存在を表す領域であるシルエットを抽出するステップと、
前記物体上の対象領域における拡散反射色を前記一の取得画像を除く他の取得画像から推定し、前記対象領域に対応する前記一の取得画像上における領域の色が前記推定した拡散反射色に予め設定した閾値よりも近い色である場合には、前記対象領域に対応する前記一の取得画像上における前記領域を前記シルエットに加えることによって、前記シルエットを修復するステップとを備えること
を特徴とするシルエット抽出方法。
Acquiring a plurality of background images by shooting only the background from a plurality of different directions, respectively;
Acquiring a plurality of acquired images by respectively capturing the background and the object of the subject from the plurality of directions;
Extracting a silhouette that is an area representing the presence of the object on one acquired image based on the plurality of background images and the plurality of acquired images;
The diffuse reflection color in the target area on the object is estimated from other acquired images excluding the one acquired image, and the color of the area on the one acquired image corresponding to the target area is the estimated diffuse reflection color. A step of repairing the silhouette by adding the region on the one acquired image corresponding to the target region to the silhouette when the color is closer to a preset threshold value. To extract silhouettes.
互いに異なる複数の方向から背景のみをそれぞれ撮影することによって取得される複数の背景画像と、前記複数の方向から前記背景及び被写体の物体をそれぞれ撮影することによって取得される複数の取得画像とに基づいて視体積交差法により前記物体の3次元形状を表す3次元形状データを生成する3次元形状データ生成装置において、
前記背景は、複数の領域に分割され、該複数の領域のそれぞれにランダムに色が割り当てられているランダムパターン背景であること
を特徴とする3次元形状データ生成装置。
Based on a plurality of background images acquired by shooting only the background from a plurality of different directions, and a plurality of acquired images acquired by shooting the background and the object of the subject from the plurality of directions, respectively. In a three-dimensional shape data generation device that generates three-dimensional shape data representing the three-dimensional shape of the object by a visual volume intersection method,
The background is a random pattern background that is divided into a plurality of regions, and a color is randomly assigned to each of the plurality of regions.
互いに異なる複数の方向から背景のみをそれぞれ撮影することによって取得される複数の背景画像と、前記複数の方向から前記背景及び被写体の物体をそれぞれ撮影することによって取得される複数の取得画像とに基づいて、前記複数の取得画像上における前記物体の存在を表す領域であるシルエットをそれぞれ抽出して視体積交差法により前記物体の3次元形状を表す3次元形状データを生成する3次元形状データ生成装置において、
前記物体上の対象領域における拡散反射色を一の取得画像を除く他の取得画像から推定し、前記対象領域に対応する前記一の取得画像上における領域の色が前記推定した拡散反射色に予め設定した閾値よりも近い色である場合には、前記対象領域に対応する前記一の取得画像上における前記領域を前記一の取得画像に対応するシルエットに加えることによって、前記一の取得画像に対応する前記シルエットを修復すること
を特徴とする3次元形状データ生成装置。
Based on a plurality of background images acquired by shooting only the background from a plurality of different directions, and a plurality of acquired images acquired by shooting the background and the object of the subject from the plurality of directions, respectively. A three-dimensional shape data generation device that extracts silhouettes that are regions representing the presence of the object on the plurality of acquired images and generates three-dimensional shape data representing the three-dimensional shape of the object by a visual volume intersection method. In
The diffuse reflection color in the target area on the object is estimated from other acquired images except for one acquired image, and the color of the area on the one acquired image corresponding to the target area is set in advance to the estimated diffuse reflection color. Corresponding to the one acquired image by adding the region on the one acquired image corresponding to the target region to the silhouette corresponding to the one acquired image when the color is closer to the set threshold value A three-dimensional shape data generation device characterized by repairing the silhouette.
前記背景は、複数の領域に分割され、該複数の領域のそれぞれにランダムに色が割り当てられているランダムパターン背景であること
を特徴とする請求項7に記載の3次元形状データ生成装置。
The three-dimensional shape data generation apparatus according to claim 7, wherein the background is a random pattern background that is divided into a plurality of regions and a color is randomly assigned to each of the plurality of regions.
複数の領域に分割され該複数の領域のそれぞれにランダムに色が割り当てられているランダムパターン背景である背景のみを互いに異なる複数の方向からそれぞれ撮影することによって複数の背景画像を取得するステップと、
互いに異なる複数の方向から前記背景及び被写体の物体をそれぞれ撮影することによって複数の取得画像を取得するステップと、
前記複数の背景画像と前記複数の取得画像とに基づいて前記複数の取得画像上における前記物体の存在を表す領域であるシルエットをそれぞれ抽出して視体積交差法により前記物体の3次元形状を表す3次元形状データを生成するステップとを備えること
を特徴とする3次元形状データ生成方法。
Obtaining a plurality of background images by photographing only a background which is a random pattern background divided into a plurality of regions and randomly assigned to each of the plurality of regions from a plurality of directions different from each other;
Acquiring a plurality of acquired images by photographing the background and the object of the subject from a plurality of different directions, respectively;
Based on the plurality of background images and the plurality of acquired images, silhouettes that are regions representing the presence of the object on the plurality of acquired images are respectively extracted, and the three-dimensional shape of the object is represented by a visual volume intersection method. And a step of generating three-dimensional shape data.
互いに異なる複数の方向から背景のみをそれぞれ撮影することによって複数の背景画像を取得するステップと、互いに異なる複数の方向から前記背景及び被写体の物体をそれぞれ撮影することによって複数の取得画像を取得するステップと、前記複数の背景画像と前記複数の取得画像とに基づいて前記複数の取得画像上における前記物体の存在を表す領域であるシルエットをそれぞれ抽出して視体積交差法により前記物体の3次元形状を表す3次元形状データを生成するステップとを備える3次元形状データ生成方法において、
前記物体上の対象領域における拡散反射色を一の取得画像を除く他の取得画像から推定し、前記対象領域に対応する前記一の取得画像上における領域の色が前記推定した拡散反射色に予め設定した閾値よりも近い色である場合には、前記対象領域に対応する前記一の取得画像上における前記領域を前記一の取得画像に対応するシルエットに加えることによって、前記一の取得画像に対応する前記シルエットを修復するステップを備えること
を特徴とする3次元形状データ生成方法。
A step of acquiring a plurality of background images by respectively capturing only backgrounds from a plurality of different directions, and a step of acquiring a plurality of acquired images by respectively capturing the background and the object of the subject from a plurality of different directions. And a three-dimensional shape of the object by a view volume intersection method by extracting silhouettes that are regions representing the presence of the object on the plurality of acquired images based on the plurality of background images and the plurality of acquired images. Generating three-dimensional shape data representing the three-dimensional shape data generating method,
The diffuse reflection color in the target area on the object is estimated from other acquired images except for one acquired image, and the color of the area on the one acquired image corresponding to the target area is set in advance to the estimated diffuse reflection color. Corresponding to the one acquired image by adding the region on the one acquired image corresponding to the target region to the silhouette corresponding to the one acquired image when the color is closer to the set threshold value A method for generating three-dimensional shape data, comprising: restoring the silhouette.
JP2005201292A 2005-07-11 2005-07-11 Device and method for extracting silhouette, and device and method for generating three-dimensional shape data Pending JP2007017364A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005201292A JP2007017364A (en) 2005-07-11 2005-07-11 Device and method for extracting silhouette, and device and method for generating three-dimensional shape data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005201292A JP2007017364A (en) 2005-07-11 2005-07-11 Device and method for extracting silhouette, and device and method for generating three-dimensional shape data

Publications (1)

Publication Number Publication Date
JP2007017364A true JP2007017364A (en) 2007-01-25

Family

ID=37754642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005201292A Pending JP2007017364A (en) 2005-07-11 2005-07-11 Device and method for extracting silhouette, and device and method for generating three-dimensional shape data

Country Status (1)

Country Link
JP (1) JP2007017364A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009058349A1 (en) 2008-12-26 2010-07-08 Kddi Corp. Method and program for extracting a silhouette image and method and program for creating a three-dimensional model
JP2011043879A (en) * 2009-08-19 2011-03-03 Kddi Corp Method and program for extracting mask image, and method and program for constructing voxel data
TWI381150B (en) * 2009-06-09 2013-01-01 Nat Univ Chung Hsing System for estimating and monitoring the volume of object
JP2014089104A (en) * 2012-10-30 2014-05-15 Mitsubishi Electric Corp Cubic volume estimation device, cubic volume estimation system, cubic volume estimation method and cubic volume estimation program
JP5758533B1 (en) * 2014-09-05 2015-08-05 楽天株式会社 Image processing apparatus, image processing method, and program
JP2018205788A (en) * 2017-05-30 2018-12-27 Kddi株式会社 Silhouette extraction apparatus, and method and program
US11095871B2 (en) * 2018-04-26 2021-08-17 Canon Kabushiki Kaisha System that generates virtual viewpoint image, method and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004301607A (en) * 2003-03-31 2004-10-28 Honda Motor Co Ltd Moving object detection device, moving object detection method, and moving object detection program
JP2005500719A (en) * 2001-06-05 2005-01-06 レアクトリックス・システムズ・インコーポレイテッド Interactive video display system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005500719A (en) * 2001-06-05 2005-01-06 レアクトリックス・システムズ・インコーポレイテッド Interactive video display system
JP2004301607A (en) * 2003-03-31 2004-10-28 Honda Motor Co Ltd Moving object detection device, moving object detection method, and moving object detection program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009058349A1 (en) 2008-12-26 2010-07-08 Kddi Corp. Method and program for extracting a silhouette image and method and program for creating a three-dimensional model
US8363941B2 (en) 2008-12-26 2013-01-29 Kddi Corporation Method and program for extracting silhouette image and method and program for constructing three dimensional model
TWI381150B (en) * 2009-06-09 2013-01-01 Nat Univ Chung Hsing System for estimating and monitoring the volume of object
JP2011043879A (en) * 2009-08-19 2011-03-03 Kddi Corp Method and program for extracting mask image, and method and program for constructing voxel data
JP2014089104A (en) * 2012-10-30 2014-05-15 Mitsubishi Electric Corp Cubic volume estimation device, cubic volume estimation system, cubic volume estimation method and cubic volume estimation program
JP5758533B1 (en) * 2014-09-05 2015-08-05 楽天株式会社 Image processing apparatus, image processing method, and program
JP2016057664A (en) * 2014-09-05 2016-04-21 楽天株式会社 Image processing device, image processing method, and program
JP2018205788A (en) * 2017-05-30 2018-12-27 Kddi株式会社 Silhouette extraction apparatus, and method and program
US11095871B2 (en) * 2018-04-26 2021-08-17 Canon Kabushiki Kaisha System that generates virtual viewpoint image, method and storage medium

Similar Documents

Publication Publication Date Title
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
US6455835B1 (en) System, method, and program product for acquiring accurate object silhouettes for shape recovery
EP2045774B1 (en) Homography estimation from multithreshold edges of a feature
WO2016158856A1 (en) Imaging system, imaging device, imaging method, and imaging program
US8917317B1 (en) System and method for camera calibration
JP2007017364A (en) Device and method for extracting silhouette, and device and method for generating three-dimensional shape data
JP5756322B2 (en) Information processing program, information processing method, information processing apparatus, and information processing system
JP2007206797A (en) Image processing method and image processor
JP7505866B2 (en) Inspection support method, inspection support system, and inspection support program
CN113514008A (en) Three-dimensional scanning method, three-dimensional scanning system, and computer-readable storage medium
AU2017279672A1 (en) Alignment of captured images by fusing colour and geometrical information.
US10863082B2 (en) Image processing apparatus, image processing method, and storage medium
US9204130B2 (en) Method and system for creating a three dimensional representation of an object
CN107517346A (en) Photographic method, device and mobile device based on structure light
WO2020130070A1 (en) Detecting device, information processing device, detecting method, and information processing program
CN116503388A (en) Defect detection method, device and storage medium
Papadaki et al. Accurate 3D scanning of damaged ancient Greek inscriptions for revealing weathered letters
US20040095484A1 (en) Object segmentation from images acquired by handheld cameras
JPWO2005096129A1 (en) Method and apparatus for detecting designated position of imaging apparatus, and program for detecting designated position of imaging apparatus
Knecht et al. Interactive BRDF estimation for mixed-reality applications
Miles et al. Photogrammetry and RTI Survey of Hoa Hakananai’a Easter Island Statue
JP2018196426A (en) Pore detection method and pore detection device
TW201502466A (en) Method and system for three-dimensional model reconstruction
JP2018197692A (en) Damage state processing system
JP5865092B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110308