JP2002058045A - System and method for entering real object into virtual three-dimensional space - Google Patents

System and method for entering real object into virtual three-dimensional space

Info

Publication number
JP2002058045A
JP2002058045A JP2000240125A JP2000240125A JP2002058045A JP 2002058045 A JP2002058045 A JP 2002058045A JP 2000240125 A JP2000240125 A JP 2000240125A JP 2000240125 A JP2000240125 A JP 2000240125A JP 2002058045 A JP2002058045 A JP 2002058045A
Authority
JP
Japan
Prior art keywords
data
user
dimensional model
stereo
voxel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000240125A
Other languages
Japanese (ja)
Inventor
Hiroyoshi Yamaguchi
博義 山口
Hisafumi Hamachi
尚史 浜地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Ltd
Original Assignee
Komatsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Ltd filed Critical Komatsu Ltd
Priority to JP2000240125A priority Critical patent/JP2002058045A/en
Priority to US09/902,644 priority patent/US20020024517A1/en
Publication of JP2002058045A publication Critical patent/JP2002058045A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To simply fetch tree-dimensional model data of a real object such as a man's body, an article, or the like into a virtual three-dimensional space to make the three-dimensional model take different pause or perform a motion. SOLUTION: An object 7 such as a man's body, an article, or the like is photographed by a plurality of sets of multiple-eye stereoscopic camera (for example, 9 video camera disposed in 3×3 matrix) installed in a store, etc., and output dynamic picture image data is transmitted to a modeling server 1 through a network 8. The modeling server 1 forms a three-dimensional model of the object 7 from the dynamic picture image. This three-dimensional model is formed so as to move based on a motion of the object 7 when photographing. A user system 4 receives the three-dimensional model, and fetches it into a virtual three-dimensional space of applications such as a virtual fitting of cloths, an experience game, or the like to move it.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明が属する技術分野】本発明は、現実の物体の3次
元モデルデータをバーチャル3次元空間に登場させるた
めのシステム及び方法に関する。
The present invention relates to a system and a method for displaying three-dimensional model data of a real object in a virtual three-dimensional space.

【0002】[0002]

【従来の技術】コンピュータによるバーチャル3次元空
間を応用したシステムは、衣服試着や体験型ゲームなど
の様々な用途で提案されている。例えば、特開平10−
124574号には、ユーザの身体の写真又は寸法デー
タから、ユーザ身体の3次元モデルデータを作成し、そ
のユーザ身体の3次元モデルをコンピュータのバーチャ
ル3次元空間に取りこんで、衣服の3次元モデルを着せ
たり口紅の色データを付けたりすることで、衣服や口紅
の試着シミュレーションができるようにしたシステムが
開示されている。これと類似又は関連性のある試着シス
テムは、特開平10−340282号、特開平11−2
03347号及び特開平11−265243号などにも
開示されている。
2. Description of the Related Art A system using a virtual three-dimensional space by a computer has been proposed for various uses, such as trying on clothes and experiencing games. For example, JP-A-10-
No. 124574 discloses a method of creating three-dimensional model data of a user's body from a photograph or dimensional data of the user's body, incorporating the three-dimensional model of the user's body into a virtual three-dimensional space of a computer, and creating a three-dimensional model of clothes. There is disclosed a system that allows a try-on simulation of clothes or lipstick by attaching or attaching lipstick color data. A fitting system similar or related to this is disclosed in JP-A-10-340282 and JP-A-11-2102.
No. 03347 and JP-A-11-265243.

【0003】また、特開平11−3437号には、バー
チャル3次元空間を体験型ゲームに応用したシステムが
開示されている。これは、ゲームのバーチャル3次元空
間内に存在する登場人物の3次元モデルに、カメラで撮
影したゲームプレイヤの2次元画像をテクスチャマッピ
ングすることで、プレイヤ自身がゲームの登場人物にな
ったように演出するものである。
[0003] Japanese Patent Application Laid-Open No. 11-3437 discloses a system in which a virtual three-dimensional space is applied to an interactive game. This is because texture mapping of a two-dimensional image of a game player captured by a camera onto a three-dimensional model of a character existing in a virtual three-dimensional space of the game makes the player himself a character of the game. It is to direct.

【0004】[0004]

【発明が解決しようとする課題】上述した従来のゲーム
システムでは、バーチャル3次元空間内に存在する登場
人物の3次元モデルは、ゲームプレイヤの身体特徴とは
全く関係のない、一定の姿形をもったものである。その
点で、プレイヤ自身がゲームの登場人物になるというリ
アリティのレベルはまだ不満足である。一方、上述した
従来の試着システムでは、ユーザ身体の3次元モデルデ
ータをバーチャル3次元空間に取りこむため、ユーザ自
身が試着をするというリアリティは非常に高い。
In the above-described conventional game system, the three-dimensional model of the character existing in the virtual three-dimensional space has a fixed shape that is completely unrelated to the physical characteristics of the game player. It has something. In that respect, the level of reality that the player himself becomes a character in the game is still unsatisfactory. On the other hand, in the above-mentioned conventional fitting system, since the three-dimensional model data of the user's body is taken into the virtual three-dimensional space, the reality that the user himself tries on the fitting is very high.

【0005】しかしながら、上述の従来技術は、ユーザ
身体の3次元モデルデータを作成するための具体的な方
法又は手段を何も提供していない。もし、ユーザ身体の
3次元モデルデータを生成するのに、ユーザ自身が非常
に高価な設備を持つ必要があったり、多大な手間や費用
がかかったりするようであれば、上述したようなバーチ
ャル空間を利用したシステムを実用化することは困難で
ある。
[0005] However, the above-mentioned prior art does not provide any specific method or means for creating three-dimensional model data of a user's body. If generating the three-dimensional model data of the user's body requires the user to have very expensive facilities or requires a lot of trouble and cost, the virtual space as described above is used. It is difficult to put a system that uses the technology into practical use.

【0006】従って、本発明の目的は、人の身体や物品
などの現実の物体の3次元モデルデータをユーザに過大
な負担をかけることなく生成して、その3次元モデルを
バーチャル3次元空間に取り込めるようにすることにあ
る。
Accordingly, an object of the present invention is to generate three-dimensional model data of a real object such as a human body or an article without imposing an excessive burden on a user, and to generate the three-dimensional model in a virtual three-dimensional space. To be able to capture it.

【0007】また、本発明の別の目的は、現実の物体の
3次元モデルデータを取り込んだバーチャル3次元空間
のリアリティを一層高めるために、その3次元モデルデ
ータをバーチャル3次元空間内で異なるポーズをとった
りモーションを行わせたりすることができるようにする
ことにある。
[0007] Another object of the present invention is to further enhance the reality of a virtual three-dimensional space in which three-dimensional model data of a real object is fetched. And to make the user perform motion.

【0008】[0008]

【課題を解決するための手段】本発明の第1の観点に従
う、ユーザの利用するコンピュータアプリケーションの
バーチャル3次元空間に現実の物体を登場させ得るよう
にするためのシステムは、ユーザが利用可能なステレオ
撮影装置と通信可能であって、そのステレオ撮影装置か
ら、現実の物体をステレオ撮影した実写データを受信す
る実写データ受信手段と、受信した実写データに基づい
て、前記コンピュータアプリケーションがバーチャル3
次元空間に取り込むことのできる所定のデータフォーマ
ットで、前記物体の3次元モデルを作成するモデリング
手段と、作成した3次元モデルデータを、ユーザ又はユ
ーザの利用するコンピュータアプリケーションに提供で
きるような方法で出力する3次元モデル出力手段とを備
えている。
According to a first aspect of the present invention, there is provided a system for allowing a real object to appear in a virtual three-dimensional space of a computer application used by a user. A real image data receiving unit that can communicate with a stereo image capturing device and receives real image data obtained by stereo shooting an actual object from the stereo image capturing device;
Modeling means for creating a three-dimensional model of the object in a predetermined data format that can be taken into a three-dimensional space, and outputting the created three-dimensional model data in a manner that can be provided to a user or a computer application used by the user And a three-dimensional model output means.

【0009】このシステムを利用すれば、ユーザは、自
分の身体や物品など、コンピュータアプリケーションの
バーチャル3次元空間に取り込みたいと思っている物体
を、ステレオ撮影装置で撮影して、その実写データをこ
のシステムに送信すれば、このシステムからその物体の
3次元モデルデータを受け取ることができるので、その
受け取った3次元モデルデータを自分のコンピュータア
プリケーションに取り込むことができる。
Using this system, a user takes an image of an object, such as his or her body or an article, which the user wants to capture in a virtual three-dimensional space of a computer application, using a stereo imaging device, and obtains the actual image data of the object. When transmitted to the system, the three-dimensional model data of the object can be received from the system, so that the received three-dimensional model data can be imported into the own computer application.

【0010】好適な実施形態では、このシステムは、イ
ンターネットなどの通信ネットワーク上にモデリングサ
ーバとして存在ている。そして、例えば百貨店やゲーム
センタやコンビニエンスストアなどの店舗に設置したス
テレオ撮影装置か、又はユーザ自身が持っているステレ
オ撮影装置で、ユーザが所望の物体を撮影して、その実
写データを通信ネットワークを通じてモデリングサーバ
に送信すれば、モデリングサーバがその物体の3次元モ
デルを作成して、その3次元モデルを通信ネットワーク
を通じて店舗のコンピュータシステムか又はユーザ自身
のコンピュータシステムに返送してくれる。こうして、
ユーザは簡単に、所望の物体の3次元モデルを取得し
て、それをバーチャル試着や体験型ゲームなどの所望の
アプリケーションに取り込むことができる。
In a preferred embodiment, the system resides on a communication network, such as the Internet, as a modeling server. Then, for example, a user photographs a desired object with a stereo photographing device installed in a store such as a department store, a game center or a convenience store, or a stereo photographing device owned by the user himself, and the actual photograph data is transmitted through a communication network. When the data is transmitted to the modeling server, the modeling server creates a three-dimensional model of the object, and returns the three-dimensional model to the computer system of the store or the user's own computer system through the communication network. Thus,
A user can easily acquire a three-dimensional model of a desired object and incorporate it into a desired application such as virtual fitting or an interactive game.

【0011】好適な実施形態では、ステレオ撮影装置で
撮影した物体の実写データは、その物体が異なるポーズ
をそれぞれとったときに撮影された複数ポーズの実写デ
ータを含んでいる。例えば、ステレオ撮影装置がビデオ
カメラを用いたものであれば、例えばユーザが自分自身
を撮影するときに、様々なポーズをとったり、或るモー
ションを行ったりしながら撮影すれば、多くの異なるポ
ーズの実写データが得られる。モデリング手段は、この
ような異なるポーズの実写データを受け取って、それに
基づき、異なるポーズをとったり又はモーションを行う
ことのできるような構成の3次元モデルデータを作成す
る。これにより、ユーザは、作成された3次元モデルデ
ータをコンピュータアプリケーションのバーチャル3次
元空間に取り込んで、その3次元モデルに様々な異なる
ポーズをとらせたり又はモーションを行わせたりするこ
とができる。
In a preferred embodiment, the actual photograph data of the object photographed by the stereo photographing apparatus includes actual photograph data of a plurality of poses photographed when the object takes different poses. For example, if the stereo photographing device uses a video camera, for example, when the user takes a picture of himself or herself while taking various poses or performing a certain motion, many different poses can be obtained. Actual photograph data is obtained. The modeling means receives the real shot data of such different poses, and creates three-dimensional model data having a configuration capable of taking different poses or performing motions based on the data. This allows the user to capture the created three-dimensional model data into the virtual three-dimensional space of the computer application and cause the three-dimensional model to take various different poses or perform motions.

【0012】好適な実施形態では、ステレオ撮影装置は
ビデオカメラを用いており、現実の物体が或るモーショ
ンを行っているときに、それを撮影してそのモーション
の動画像データを出力する。モデリング手段は、その動
画像データを受け取って、それに基づいて、現実の物体
が行ったと同じモーションを行なうような構成の3次元
モデルデータを作成する。そのため、ユーザは、バーチ
ャル3次元空間内でその3次元モデルに、現実の物体と
同じモーションを行わせることができる。さらに、好適
な実施形態では、モデリング手段は、ステレオ撮影装置
による撮影中に現実の物体が行っているモーションに実
質的にリアルタイムで追従して同じモーションを行うよ
うに、前記3次元モデルデータを作成する。そのため、
ユーザが例えば自分自身を撮影しながら、モデリング手
段からリアルタイムで出力される自分自身の3次元モデ
ルデータを例えばゲームなどのバーチャル3次元空間に
取り込めば、ユーザが或るモーションを行なうと、それ
と同時にゲームのバーチャル3次元空間内でもユーザの
3次元モデルが全く同じモーションを行うことになる。
それにより、ユーザ自身がバーチャル3次元空間に入り
込んだような高いリアリティが得られる。
In a preferred embodiment, the stereo photographing apparatus uses a video camera, and when a real object is performing a certain motion, it photographs the motion and outputs moving image data of the motion. The modeling means receives the moving image data and creates three-dimensional model data based on the moving image data so as to perform the same motion as that performed by the real object. Therefore, the user can cause the three-dimensional model to perform the same motion as the real object in the virtual three-dimensional space. Further, in a preferred embodiment, the modeling means generates the three-dimensional model data so as to follow the motion performed by the real object substantially in real time during the shooting by the stereo shooting device and to perform the same motion. I do. for that reason,
For example, if the user captures his / her own three-dimensional model data output in real time from the modeling means into a virtual three-dimensional space such as a game, for example, while taking a picture of himself / herself, when the user makes a certain motion, In the virtual three-dimensional space, the user's three-dimensional model performs exactly the same motion.
Thereby, high reality as if the user himself entered the virtual three-dimensional space can be obtained.

【0013】本発明の第2の観点に従うシステムは、上
述したステレオ撮影装置とモデリング装置とを組み合わ
せたものである。
A system according to a second aspect of the present invention is a combination of the above-described stereo photographing device and a modeling device.

【0014】本発明の第3の観点に従うシステムは、上
述したステレオ撮影装置とモデリング装置に更に、作成
された3次元モデルをバーチャル3次元空間に取り込む
コンピュータアプリケーションが実行できるコンピュー
タ装置を組み合わせたものである。
A system according to a third aspect of the present invention is a combination of the above-described stereo photographing device and modeling device, and a computer device capable of executing a computer application for taking a created three-dimensional model into a virtual three-dimensional space. is there.

【0015】[0015]

【発明の実施の形態】図1は、本発明の一実施形態にか
かるバーチャル試着システムの全体構成を示す。
FIG. 1 shows an overall configuration of a virtual fitting system according to an embodiment of the present invention.

【0016】モデリングサーバ1と、衣裳メーカや衣裳
販売店などの衣裳サプライヤが管理するコンピュータシ
ステム(以下、「衣裳サプライヤシステム」という)2
と、バーチャル試着サーバ3と、ユーザのコンピュータ
システム(例えば、パーソナルコンピュータやゲームコ
ンピュータなどであり、以下、「ユーザシステム」とい
う)4と、百貨店やゲームセンタやコンビニエンススト
アなどの店舗に設備されたコンピュータシステム(以
下、「店舗システム」という)5が、インターネットの
ような通信ネットワーク8を通じて相互通信可能に接続
されている。図1では、モデリングサーバ1、衣裳サプ
ライヤシステム2、バーチャル試着サーバ3、ユーザシ
ステム4及び店舗システム5がそれぞれ一台づつしか図
示されていないが、それぞれ複数台あってよい。特に、
衣裳サプライヤシステム2、ユーザシステム4及び店舗
システム5は、それぞれ、衣裳サプライヤ、ユーザ及び
店舗の数に応じて複数台存在するのが通常である。
A modeling server 1 and a computer system (hereinafter referred to as a “costume supplier system”) 2 managed by costume suppliers such as costume manufacturers and costume shops.
, A virtual fitting server 3, a user's computer system (for example, a personal computer or a game computer, hereinafter, referred to as a "user system") 4, and a computer installed in a store such as a department store, a game center, or a convenience store. A system (hereinafter referred to as a “store system”) 5 is communicably connected through a communication network 8 such as the Internet. FIG. 1 shows only one modeling server 1, costume supplier system 2, virtual fitting server 3, user system 4, and store system 5, but there may be a plurality of each. In particular,
Usually, a plurality of costume supplier systems 2, user systems 4, and store systems 5 exist in accordance with the number of costume suppliers, users, and stores, respectively.

【0017】百貨店やゲームセンタやコンビニエンスス
トアなどの店舗にはまた、店舗システム5と接続された
ステレオ撮影システム6が設備されている。ステレオ撮
影システム6は、後に図9を参照して詳述するように、
ユーザ7が入って様々なポーズをとることのできる広さ
をもった部屋のような空間6Aと、その空間6Aの周囲
にその空間6Aを撮影できるように配置された複数の多
眼ステレオカメラ6B、6B、…とからなる設備であ
る。個々の多眼ステレオカメラ6Bは、例えば3×3マ
トリックスに配置された9個のビデオカメラから構成さ
れ、その9個のカメラから出力される実写データは後述
するようにステレオ視法を用いた撮影対象物の距離画像
の作成に用いられる。図示のようにステレオ撮影システ
ム6の空間6Aの中にユーザ7が入り、そして、複数の
多眼ステレオカメラ6B、6B、…でそのユーザ7を撮
影すると、それら多眼ステレオカメラ6B、6B、…で
撮影されたユーザ7の身体の実写データが、店舗システ
ム5に送られる。
Stores such as department stores, game centers and convenience stores are also provided with a stereo photographing system 6 connected to the store system 5. As will be described later in detail with reference to FIG.
A space 6A such as a room having a size in which the user 7 can enter and take various poses, and a plurality of multi-view stereo cameras 6B arranged around the space 6A so as to be able to photograph the space 6A. , 6B,... Each of the multi-view stereo cameras 6B is composed of, for example, nine video cameras arranged in a 3 × 3 matrix, and real-image data output from the nine cameras is photographed using stereoscopic vision as described later. It is used to create a distance image of the object. As shown, a user 7 enters the space 6A of the stereo photographing system 6, and when the user 7 is photographed by a plurality of multi-view stereo cameras 6B, 6B,..., The multi-view stereo cameras 6B, 6B,. Is transmitted to the store system 5.

【0018】店舗システム5は、ステレオ撮影システム
6から受け取ったユーザ身体の実写データを、通信ネッ
トワーク8を通じて、モデリングサーバ1へ送る。モデ
リングサーバ1は、店舗システム5から受信したユーザ
身体の実写データを用いて、後に図9〜図13参照して
詳述するような処理を行うことにより、ユーザの身体の
3次元モデルデータを作成する。モデリングサーバ1
は、作成したユーザ身体の3次元モデルデータをユーザ
データベース1Aに保存し、その後に、そのユーザ身体
の3次元モデルデータを通信ネットワーク8を通じて店
舗システム5に送信する。店舗システム5は、そのユー
ザ身体の3次元モデルデータを、通信ネットワーク8を
通じて(或いは記録ディスクのような可搬記録媒体など
を通じて)、ユーザシステム4に送る。又は、モデリン
グサーバ1は、ユーザデータベース1Aに保存したユー
ザ身体の3次元モデルデータを、ユーザシステム4から
要求された時に、通信ネットワーク8を通じて直接的に
ユーザシステム4に送信するようにしてもよい。
The store system 5 sends the actual photographing data of the user's body received from the stereo photographing system 6 to the modeling server 1 via the communication network 8. The modeling server 1 creates three-dimensional model data of the user's body by performing processing as will be described later in detail with reference to FIGS. 9 to 13 using the real image data of the user's body received from the store system 5. I do. Modeling server 1
Saves the created three-dimensional model data of the user's body in the user database 1A, and thereafter transmits the three-dimensional model data of the user's body to the store system 5 through the communication network 8. The store system 5 sends the three-dimensional model data of the user's body to the user system 4 via the communication network 8 (or via a portable recording medium such as a recording disk). Alternatively, the modeling server 1 may directly transmit the three-dimensional model data of the user's body stored in the user database 1A to the user system 4 via the communication network 8 when requested by the user system 4.

【0019】ところで、ユーザ自身がステレオ撮影シス
テム6を持つことも可能である。その場合は、複数台
(例えば、2台か3台)の多眼ステレオカメラ6B、6
B、…を自分の部屋に設置して、それら多眼ステレオカ
メラ6B、6B、…から実写データをユーザシステム4
を通じてモデリングサーバ1へ送るようにしておけばよ
い。多眼ステレオカメラ6Bそれ自体の価格は本願の出
願時点で10万円以下であり、将来的には一層低下する
であろうから、ステレオ撮影システム6を自分で持つこ
とができるユーザは今後増えるであろう。
Incidentally, it is also possible for the user to have the stereo photography system 6 himself. In that case, a plurality of (for example, two or three) multi-view stereo cameras 6B and 6
.. Are installed in their own rooms, and real-image data from the multi-view stereo cameras 6B, 6B,.
May be sent to the modeling server 1 through. The price of the multi-view stereo camera 6B itself is less than 100,000 yen at the time of filing of the present application, and will be further reduced in the future. Therefore, the number of users who can have the stereo photography system 6 by themselves will increase in the future. There will be.

【0020】さて、衣裳サプライヤシステム2は、その
衣裳サプライヤが提供する様々な衣裳(衣服、靴、帽
子、アクセサリ、バッグなど)の3次元モデルデータを
作成して衣裳データベース2Aに蓄積しており、それら
の衣裳の3次元モデルデータを、通信ネットワーク8又
はディスク記録媒体などを通じて、バーチャル試着サー
バ3に送る。又は、衣裳サプライヤシステム2は、店舗
のステレオ撮影システム6と同様又は類似のステレオ撮
影システムで衣裳(又は、その衣裳を着た人)を撮影し
て、その実写データをモデリングサーバ1に送ってモデ
リングサーバ1に衣裳の3次元モデルデータを作成して
もらい、その衣裳の3次元モデルデータを、モデリング
サーバ1から受け取ってバーチャル試着サーバ3へ送っ
てもよい(又は、モデリングサーバ1から直接的に通信
ネットワーク8を通じてバーチャル試着サーバ3へ送っ
てもらってもよい)。
The costume supplier system 2 creates three-dimensional model data of various costumes (clothes, shoes, hats, accessories, bags, etc.) provided by the costume supplier and accumulates them in the costume database 2A. The three-dimensional model data of the costumes is sent to the virtual fitting server 3 via the communication network 8 or a disk recording medium. Alternatively, the costume supplier system 2 photographs the costume (or a person wearing the costume) with a stereo photography system similar to or similar to the stereo photography system 6 of the store, and sends the actual photography data to the modeling server 1 for modeling. The server 1 may create three-dimensional model data of the costume, and may receive the three-dimensional model data of the costume from the modeling server 1 and send it to the virtual fitting server 3 (or directly communicate from the modeling server 1). It may be sent to the virtual fitting server 3 via the network 8).

【0021】バーチャル試着サーバ3は、例えば百貨店
や衣料品店のウェブサイトなどであって、衣裳サプライ
ヤシステム2などから受け取った様々な衣裳の3次元モ
デルデータを、サプライヤ別に衣裳データベース3Aに
蓄積しており、また、ユーザシステム4で実行可能なバ
ーチャル試着用プログラム3Bを有している。そして、
ユーザシステム4から要求されると、バーチャル試着サ
ーバ3は、その様々な衣裳の3次元モデルデータとバー
チャル試着用プログラムとをユーザシステム4に通信ネ
ットワーク8を通じて送る。
The virtual fitting server 3 is, for example, a website of a department store or a clothing store, and stores three-dimensional model data of various costumes received from the costume supplier system 2 or the like in the costume database 3A for each supplier. And a virtual fitting program 3B that can be executed by the user system 4. And
When requested by the user system 4, the virtual fitting server 3 sends the three-dimensional model data of the various costumes and the virtual fitting program to the user system 4 via the communication network 8.

【0022】ユーザシステム4は、モデリングサーバ1
などから受け取ったユーザ身体の3次元モデルデータ
と、バーチャル試着システム3から受け取った様々な衣
裳の3次元モデルデータとバーチャル試着用プログラム
とをハードディスクドライブなどの補助記憶装置4Aに
インストールし、そして、ユーザの指示に従ってバーチ
ャル試着用プログラムを実行する。ユーザ身体の3次元
モデルデータ及び衣裳の3次元モデルデータは、バーチ
ャル試着プログラムがそれをバーチャル3次元空間に取
り込むことができるような所定のデータフォーマットで
作られている。バーチャル試着用プログラムは、ユーザ
身体の3次元モデルデータと、様々な衣裳の3次元モデ
ルデータとをバーチャル3次元空間に取り込んで、その
バーチャル3次元空間内でユーザの3次元モデルに好き
な衣裳を装わせて好きなポーズをとったり好きな動きを
させ、その姿を好きな視点から見た画像をレンダリング
してディスプレイ画面上に表示する。バーチャル試着用
プログラムは、また、ユーザ身体や衣裳の3次元モデル
データの任意の部位に任意の色やテクスチャを公知技術
によってマッピングすることで、日焼けした場合や様々
な化粧を施した場合や髪を染めた場合や衣服の色を変え
た場合の姿もシミュレートでき、また、ユーザ身体の3
次元モデルデータに公知技術で拡大や縮小や変形や他モ
デルとの置換を加えることで、太った場合や痩せた場合
や身長が伸びた場合や髪型を変えた場合などの姿もシミ
ュレートすることができる。さらに、バーチャル試着用
プログラムは、ユーザから任意の衣裳の注文を受け、そ
の注文をバーチャル試着サーバ3へ送ることができる。
The user system 4 includes the modeling server 1
The user installs the three-dimensional model data of the user's body, the three-dimensional model data of various costumes received from the virtual fitting system 3 and the virtual fitting program received from the virtual fitting system 3 in an auxiliary storage device 4A such as a hard disk drive, and Execute the virtual try-on program according to the instructions of. The three-dimensional model data of the user's body and the three-dimensional model data of the costume are made in a predetermined data format so that the virtual fitting program can take them into the virtual three-dimensional space. The virtual fitting program takes in the 3D model data of the user's body and the 3D model data of various costumes into a virtual 3D space, and puts the desired costume on the user's 3D model in the virtual 3D space. It poses and moves in any way you want it to appear, renders an image of its appearance from any viewpoint, and displays it on the display screen. The virtual fitting program also maps any color or texture to any part of the three-dimensional model data of the user's body or costume by using a known technique, so that the user can tan, apply various makeups, or apply hair. You can simulate the appearance of dyeing or changing the color of clothing,
By adding enlargement, reduction, deformation, and replacement with other models to the dimensional model data using known techniques, it is possible to simulate the appearance of fat, thin, tall, and changed hairstyles. it can. Further, the virtual fitting program can receive an order for an arbitrary costume from the user and send the order to the virtual fitting server 3.

【0023】このバーチャル試着システムによれば、ユ
ーザは、自分では3次元モデリングのための設備を持た
なくても、百貨店やゲームセンタやコンビニエンススト
アなどの店舗に行ってそこに設置されたステレオ撮影シ
ステム6で自分の身体を撮影することで、自分の身体の
3次元モデルデータを作ってもらって自分のコンピュー
タに取り込むことができ、その自分の3次元モデルデー
タを用いて、コンピュータのバーチャル3次元空間内で
リアリティの高い様々な衣裳の試着を行うことができ
る。加えて、後述するように、その自分の3次元モデル
データを、バーチャル試着だけでなく、体験型ゲームな
どの他のアプリケーションのバーチャル3次元空間に取
り込んで利用することも可能になる。また、衣裳サプラ
イヤなどでは、ユーザの実写データ又はそれに基づく3
次元モデルデータを、ユーザの承諾を得た上でユーザの
プライバシーを侵害しないような方法で取得し活用すれ
ば、ユーザの身体に最適に合った衣裳を従来より低コス
トで設計製造したり、通常の採寸では得られない人体の
細かいデータに基づいて人間工学的に一層進歩した新た
な衣裳を開発設計したりすることが可能になる。
According to this virtual fitting system, the user can go to a store such as a department store, a game center or a convenience store and install the stereo photographing system installed there without having the equipment for three-dimensional modeling. By photographing one's own body in step 6, the user can create three-dimensional model data of his own body and import it into his own computer. Using his own three-dimensional model data, the virtual three-dimensional space of the computer You can try on various costumes with high reality. In addition, as will be described later, it becomes possible to take in and use the user's own three-dimensional model data not only in virtual fitting but also in a virtual three-dimensional space of another application such as an interactive game. Also, in costume suppliers, etc., actual photographed data of the user or 3
By acquiring and utilizing the dimensional model data in a manner that does not invade the privacy of the user with the consent of the user, it is possible to design and manufacture costumes optimally suited to the user's body at lower cost than usual, It is possible to develop and design new ergonomically advanced costumes based on detailed data of the human body that cannot be obtained by measurement.

【0024】図2と図3は、このバーチャル試着システ
ムの処理手順をより詳細に示している。図2は、モデリ
ングサーバ1が中心となって行うユーザ身体の3次元モ
デルデータを作成するための処理手順を示している。図
3は、バーチャル試着サーバ3が中心となって行うバー
チャル試着がユーザシステムで実行させるための処理手
順を示している。
FIGS. 2 and 3 show the processing procedure of this virtual fitting system in more detail. FIG. 2 shows a processing procedure for creating three-dimensional model data of the user's body, which is performed mainly by the modeling server 1. FIG. 3 shows a processing procedure for causing the user system to execute the virtual fitting performed mainly by the virtual fitting server 3.

【0025】まず、ユーザ身体の3次元モデルデータを
作成するための処理手順を図1と図2を参照して説明す
る。
First, a processing procedure for creating three-dimensional model data of a user's body will be described with reference to FIGS.

【0026】(1) 図1に示すように、ユーザ7は、
百貨店やゲームセンタやコンビニエンスストアなどの店
舗に行き、料金を支払って、そこに設置されたステレオ
撮影システム6になるべく薄着で入る。
(1) As shown in FIG. 1, the user 7
Go to a store such as a department store, a game center, or a convenience store, pay a fee, and enter the stereo photographing system 6 installed there with light clothes as much as possible.

【0027】(2) 図2に示すように、店舗システム
5は、ユーザから料金を受けると、モデリングサーバ1
にアクセスを申し込み(ステップS11)、モデリング
サーバ1は、店舗システム5からのアクセスを受け付け
る(S1)。
(2) As shown in FIG. 2, when the store system 5 receives a fee from the user, the store system 5
(Step S11), the modeling server 1 accepts access from the store system 5 (S1).

【0028】(3) 店舗システム5側では、ステレオ
撮影システム6にてユーザの全身の撮影が行われ、その
全身の実写データがモデリングサーバ1へ送信される
(S12)。モデリングサーバ1は、その全身の実写デ
ータを受け取る(S2)。
(3) On the side of the store system 5, the whole body of the user is photographed by the stereo photographing system 6, and actual photographing data of the whole body is transmitted to the modeling server 1 (S 12). The modeling server 1 receives actual photograph data of the whole body (S2).

【0029】(4) モデリングサーバ1は、受け取っ
た全身の実写データに基づいて、ユーザの全身の形状を
表した体形3次元モデルデータを作成する(S3)。
(4) The modeling server 1 creates body shape three-dimensional model data representing the shape of the whole body of the user based on the received real-body image data of the whole body (S3).

【0030】(5) 店舗システム5側では、ステレオ
撮影システム6にて、全身よりも詳細にモデリングした
い局所、典型的にはユーザの顔、の撮影が行われ、その
局所の実写データがモデリングサーバ1へ送信される
(S13)。モデリングサーバ1は、その局所の実写デ
ータを受け取る(S4)。なお、この局所の撮影は、全
身の撮影とは別に、全身よりも高倍率又は高解像度で局
所だけを撮影するという方法で行ってもよいし、或るい
は、始めから局所撮影に必要な高倍率又は高解像度で全
身を撮影することで全身と局所を同時に撮影するという
方法で行っても良い(後者の場合、撮影後に全身の実写
データは必要十分な低解像度までデータ量を削減するこ
とができる)。
(5) On the side of the store system 5, the stereo photographing system 6 photographs a local area, typically a user's face, to be modeled in more detail than the whole body. 1 (S13). The modeling server 1 receives the local photographed data (S4). In addition, this local imaging may be performed by a method of imaging only the local at a higher magnification or higher resolution than the whole body, separately from the imaging of the whole body, or a method necessary for local imaging from the beginning. The whole body and the local area may be photographed at the same time by photographing the whole body at a magnification or high resolution. (In the latter case, the actual photographed data of the whole body can be reduced to a necessary and sufficient low resolution after the photographing. it can).

【0031】(6) モデリングサーバ1は、受け取っ
た局所の実写データに基づいて、ユーザの局所、特に
顔、の形状を表した局所3次元モデルデータを作成する
(S5)。
(6) The modeling server 1 creates local three-dimensional model data representing the shape of the user's local area, particularly the face, based on the received local real data (S5).

【0032】(7) モデリングサーバ1は、全身の体
形3次元モデルデータの顔などの局所に、対応する局所
3次元モデルデータを入れ込むことで、ユーザの全身の
形状と顔などの局所の詳細形状とを表した標準全身モデ
ルを作成する(S6)。モデリングサーバ1は、その標
準全身モデルを店舗システム5に送信し(S7)、店舗
システム5は、その標準全身モデルを受信する(S1
4)。
(7) The modeling server 1 inserts the corresponding local three-dimensional model data into a local part such as a face of the three-dimensional body model data of the whole body to thereby obtain the detailed shape of the whole body and the local part such as the face of the user. A standard whole body model representing the shape is created (S6). The modeling server 1 transmits the standard full-body model to the store system 5 (S7), and the store system 5 receives the standard full-body model (S1).
4).

【0033】(8) 店舗システム5は、受信した標準
全身モデルをユーザシステム4に通信ネットワーク8を
通じて送信するか、又は、CD−ROMのような可搬記
録媒体に出力する(S15)。ユーザシステム4は、店
舗システム5から通信ネットワーク8を通じて、又はC
D−ROMのような可搬記録媒体から、その標準全身モ
デルを受け取り保存する(S21)。ここで、受信した
標準全身モデルを、店舗システム5又はユーザシステム
4でレンダリングしてディスプレイ画面に表示すること
で、その標準全身モデルに問題がないかどうかをユーザ
が確認できるようにしてもよい。
(8) The store system 5 transmits the received standard full-body model to the user system 4 via the communication network 8 or outputs it to a portable recording medium such as a CD-ROM (S15). The user system 4 is connected to the store system 5 via the communication network 8 or C
The standard whole body model is received and stored from a portable recording medium such as a D-ROM (S21). Here, the received standard full-body model may be rendered by the store system 5 or the user system 4 and displayed on the display screen so that the user can confirm whether or not there is a problem with the standard full-body model.

【0034】(9) モデリングサーバ1は、店舗シス
テム5が標準全身モデルを正常に受信し且つその標準全
身モデルに問題がないことが確認されると、店舗(又は
ユーザ)から料金を徴収するための課金処理を行い、そ
の課金結果のデータを店舗システム5に送る(S8)。
店舗システム5は、課金結果のデータを受け取る(S1
6)。
(9) The modeling server 1 collects a fee from the store (or user) when the store system 5 normally receives the standard full-body model and it is confirmed that there is no problem with the standard full-body model. Is performed, and the data of the charging result is sent to the store system 5 (S8).
The store system 5 receives the charging result data (S1).
6).

【0035】次に、図1と図3を参照して、バーチャル
試着をユーザシステムで実行させるための処理手順を説
明する。
Next, with reference to FIG. 1 and FIG. 3, a processing procedure for causing the user system to execute virtual fitting will be described.

【0036】(1) 衣裳サプライヤシステム2が、様
々な衣裳の3次元モデルデータを作成して(S31)、
バーチャル試着サーバ3に送信し(S32),バーチャ
ル試着サーバ3は、その様々な衣裳の3次元モデルデー
タを受信して衣裳データベースに蓄積する(S41)。
(1) The costume supplier system 2 creates three-dimensional model data of various costumes (S31),
The virtual fitting server 3 transmits the data to the virtual fitting server 3 (S32), and receives the three-dimensional model data of the various costumes and stores the data in the costume database (S41).

【0037】(2) ユーザシステム4は、任意の時に
バーチャル試着システム3にアクセスを申し込む(S5
1)。バーチャル試着システム3は、ユーザシステム4
からのアクセスを受け付けると(S42)、バーチャル
試着用プログラムと様々な衣裳の3次元モデルデータと
をユーザシステム4に送信する(S43)。ユーザシス
テム4は、受信したバーチャル試着用プログラムと様々
な衣裳の3次元モデルデータとを、バーチャル試着用プ
ログラムが実行できるように自機にインストールする
(S52)。なお、必ずしも、バーチャル試着用プログ
ラムと衣裳の3次元モデルデータとを同時にバーチャル
試着システム3からユーザシステム4にダウンロードし
なければならないわけではない。バーチャル試着用プロ
グラムと衣裳の3次元モデルデータと別の機会にダウン
ロードしてもよいし、或いは、バーチャル試着用プログ
ラムと衣裳の3次元モデルデータの一方又は双方を、通
信ネットワークを通じてではなく、CD−ROMなどの
固体記録媒体に記録してユーザに配布してユーザシステ
ム4にインストールするようにしてもよい。
(2) The user system 4 applies for access to the virtual fitting system 3 at any time (S5).
1). The virtual fitting system 3 includes a user system 4
When the access is received (S42), the virtual try-on program and the three-dimensional model data of various costumes are transmitted to the user system 4 (S43). The user system 4 installs the received virtual fitting program and the three-dimensional model data of various costumes on its own device so that the virtual fitting program can be executed (S52). It is not always necessary to download the virtual fitting program and the three-dimensional model data of the costume from the virtual fitting system 3 to the user system 4 at the same time. The virtual fitting program and the three-dimensional model data of the costume may be downloaded at another time, or the virtual fitting program and one or both of the three-dimensional model data of the costume may be downloaded to a CD-ROM instead of through a communication network. It may be recorded on a solid recording medium such as a ROM, distributed to users, and installed in the user system 4.

【0038】(3) ユーザシステム4は、任意の時に
バーチャル試着用プログラムを実行する(S53)。
(3) The user system 4 executes the virtual try-on program at any time (S53).

【0039】(4) ユーザは、バーチャル試着用プロ
グラムに、任意の衣裳について注文を入力することがで
き、すると、バーチャル試着用プログラムは、その衣裳
についての発注データをバーチャル試着サーバ3へ送信
する(S54)。
(4) The user can input an order for an arbitrary costume into the virtual fitting program, and the virtual fitting program transmits order data for the costume to the virtual fitting server 3 ( S54).

【0040】(5) バーチャル試着サーバ3は、ユー
ザシステム4から発注データを受けると、その衣裳を提
供する衣装サプライヤの衣裳サプライヤシステム2へ、
その衣裳についての注文データを送り(S44)、続い
て、代金決済のための処理を行なって請求書などの決済
関連のデータをユーザシステム4や衣裳サプライヤシス
テムへ送る(S45)。衣裳サプライヤシステム2は、
バーチャル試着サーバ3から注文データや決済関連のデ
ータを受信し必要な業務処理を行う(S33、S3
4)。ユーザシステム4は、バーチャル試着サーバ3か
ら決済関連のデータを受信し、ユーザに確認させる(S
55)。
(5) Upon receiving the order data from the user system 4, the virtual fitting server 3 sends the order data to the costume supplier system 2 of the costume supplier that provides the costume.
The order data for the costume is sent (S44), and the settlement processing is performed to send settlement-related data such as an invoice to the user system 4 or the costume supplier system (S45). Costume Supplier System 2
Receives order data and payment-related data from the virtual fitting server 3 and performs necessary business processing (S33, S3)
4). The user system 4 receives the payment-related data from the virtual fitting server 3 and causes the user to confirm the data (S
55).

【0041】図4は、バーチャル試着用プログラムがユ
ーザシステムのディスプレイ画面に表示するバーチャル
試着ウィンドウの一例を示す。
FIG. 4 shows an example of a virtual fitting window displayed on the display screen of the user system by the virtual fitting program.

【0042】このバーチャル試着ウィンドウ500に
は、ショウステージウィンドウ501と、カメラコント
ロールウィンドウ502と、モデルコントロールウィン
ドウ503と、衣裳ルームウィンドウ504とがある。
The virtual fitting window 500 includes a show stage window 501, a camera control window 502, a model control window 503, and a costume room window 504.

【0043】バーチャル試着用プログラムは、ファッシ
ョンショウステージの空間を模したバーチャル3次元空
間内で、ユーザの標準全身モデル506をステージ上に
立たせ、そして、その標準全身モデル506に所定のポ
ーズを取らせ又は所定のモーションを行わせて、それを
所定の位置に配置したカメラで所定のズーム倍率で撮影
した2次元カラー画像をレンダリングして、その2次元
カラー画像を図示のようにショウステージウィンドウ5
01に表示する。
The virtual try-on program causes the user's standard full body model 506 to stand on the stage in a virtual three-dimensional space imitating the space of the fashion show stage, and causes the standard full body model 506 to take a predetermined pose. Alternatively, a predetermined motion is performed, a two-dimensional color image photographed at a predetermined zoom magnification by a camera arranged at a predetermined position is rendered, and the two-dimensional color image is rendered as shown in the show stage window 5 as shown in the figure.
01 is displayed.

【0044】衣裳ルームウィンドウ504には、様々な
衣裳の3次元モデルを基本的な形で正面から見た2次元
カラー画像508、508、…と、「着る」、「脱ぐ」
及び「ショッピングカートへ」のボタンが表示されてい
る。ユーザが衣裳ルームウィンドウ504に表示された
任意の衣裳画像508、508、…を選択して、「着
る」ボタンを操作すると、バーチャル試着用プログラム
は、ショウステージウィンドウ501に表示されている
ユーザの標準全身モデル506に、選択された衣裳の3
次元モデル507を着せる。ユーザが「脱ぐ」ボタンを
操作すると、バーチャル試着用プログラムは、その標準
全身モデル506から、選択された衣裳の3次元モデル
507を除去する。
In the costume room window 504, two-dimensional color images 508, 508,... Of the three-dimensional models of various costumes viewed from the front in a basic form, and "wear" and "take off"
And a button of “to shopping cart” is displayed. When the user selects any one of the costume images 508, 508,... Displayed on the costume room window 504 and operates the “wear” button, the virtual fitting program executes the user standard displayed on the show stage window 501. The selected costume 3
The dimensional model 507 is put on. When the user operates the “take off” button, the virtual try-on program removes the three-dimensional model 507 of the selected costume from its standard full-body model 506.

【0045】カメラコントロールウィンドウ502内の
「前」、「後」、「左」又は「右」ボタンをユーザが操
作すると、バーチャル試着用プログラムは、バーチャル
3次元空間内でユーザの標準全身モデル506を撮影し
ているカメラの位置を前、後、左又は右に移動させるの
で、ショウステージウィンドウ501に表示されている
画像がカメラの移動に応じて変わる。カメラコントロー
ルウィンドウ502内の「ズームイン」又は「ズームア
ウト」ボタンをユーザが操作すると、バーチャル試着用
プログラムは、バーチャル3次元空間内でユーザの標準
全身モデル506を撮影しているカメラのズーム倍率を
増大又は減少させるので、ショウステージウィンドウ5
01に表示されている画像がズーム倍率の変化に応じて
変わる。
When the user operates the “front”, “back”, “left” or “right” button in the camera control window 502, the virtual fitting program causes the user's standard whole body model 506 to be displayed in the virtual three-dimensional space. Since the position of the camera that is shooting is moved forward, backward, left, or right, the image displayed in the show stage window 501 changes according to the movement of the camera. When the user operates the “zoom in” or “zoom out” button in the camera control window 502, the virtual fitting program increases the zoom magnification of the camera capturing the user's standard full body model 506 in a virtual three-dimensional space. Or reduce it, so show stage window 5
The image displayed at 01 changes according to the change of the zoom magnification.

【0046】モデルコントロールウィンドウ503内の
「ポーズ1」又は「ポーズ2」ボタンをユーザが操作す
ると、バーチャル試着用プログラムは、バーチャル3次
元空間内のユーザの標準全身モデル506に、「ポーズ
1」又は「ポーズ2」にそれぞれ割り当てられたポーズ
(例えば、気を付けの姿勢、休めの姿勢など)をとらせ
る。モデルコントロールウィンドウ503内の「モーシ
ョン1」又は「モーション2」ボタンをユーザが操作す
ると、バーチャル試着用プログラムは、バーチャル3次
元空間内のユーザの標準全身モデル506に、「モーシ
ョン1」又は「モーション2」にそれぞれ割り当てられ
たモーション(例えば、ステージ先端まで歩いて行って
Uターンして歩いて戻って来る、数回転ターンするな
ど)を行わせる。このようにユーザの標準全身モデル5
06にユーザ指定のポーズを取らせたりモーションを行
わせたりするとき、バーチャル試着用プログラムは、ユ
ーザの標準全身モデル506が着ている衣裳の3次元モ
デル507も、そのポーズやモーションに合わせて動か
す。
When the user operates the “pose 1” or “pose 2” button in the model control window 503, the virtual fitting program places the “pose 1” or “pose 1” on the user's standard whole body model 506 in the virtual three-dimensional space. The user is caused to take a pose (for example, a cautious posture, a resting posture, etc.) assigned to “pose 2”. When the user operates the “Motion 1” or “Motion 2” button in the model control window 503, the virtual fitting program places “Motion 1” or “Motion 2” on the user's standard whole body model 506 in the virtual three-dimensional space. (For example, walking to the front end of the stage, making a U-turn, walking and returning, making several turns, etc.). Thus, the user's standard whole body model 5
When causing the user 06 to take a pose or perform a motion specified by the user, the virtual fitting program also moves the three-dimensional model 507 of the costume worn by the user's standard whole body model 506 in accordance with the pose or the motion. .

【0047】こうして、ユーザは、自分の標準全身モデ
ル506に任意の衣裳を着せてファッションショウを行
わせ、衣裳の良し悪しを確かめることができる。ユーザ
が、衣裳ルームウィンドウ504内から任意の衣裳画像
508、508、…を選択して「ショッピングカート
へ」ボタンを操作すると、バーチャル試着用プログラム
は、選択された衣裳を、注文候補のリストである「ショ
ッピングカート」へ入れる。後に、ユーザが所定の発注
ウィンドウ(図示せず)を開いて発注操作を行えば、バ
ーチャル試着用プログラムは、ショッピングカートに入
っている衣裳の注文データを作成してバーチャル試着サ
イトへ送信する。
Thus, the user can wear a desired costume on his / her standard whole body model 506 to perform a fashion show, and confirm the quality of the costume. When the user selects an arbitrary costume image 508, 508,... From the costume room window 504 and operates the “go to shopping cart” button, the virtual fitting program displays the selected costume as a list of order candidates. Add to shopping cart. Later, when the user opens a predetermined order window (not shown) and performs an ordering operation, the virtual fitting program creates order data for the costumes in the shopping cart and transmits the order data to the virtual fitting site.

【0048】さて、図4に示したように、ユーザの標準
全身モデル506に複数のポーズをとらせたりモーショ
ンを行わせたりするためには、それが可能なようにユー
ザの標準全身モデル506が構成されている必要があ
る。そのような標準全身モデル506の構成には、例え
ば次の2種類が考えられる。
Now, as shown in FIG. 4, in order to cause the user's standard full body model 506 to take a plurality of poses and perform motions, the user's standard full body model 506 must be able to do so. Must be configured. For example, the following two types of configurations of the standard whole body model 506 can be considered.

【0049】(1) 標準全身モデル506が、現実の
人間と同様に、その身体の各部が関節でジョイントされ
た別個の立体モデルになっている。その関節を支点にし
て各部の立体モデルを回転させる(つまり、関節で折れ
曲げる)ことで、その標準全身モデル506は様々な姿
勢をとることができる。
(1) The standard whole body model 506 is a separate three-dimensional model in which each part of the body is jointed with a joint, like a real human. By rotating the three-dimensional model of each part with the joint as a fulcrum (ie, bending at the joint), the standard whole body model 506 can take various postures.

【0050】(2) 多数の異なるポーズの各々毎に標
準全身モデル506が用意されている。それらの多数の
標準全身モデル506の中から任意のポーズのものを選
択してバーチャル3次元空間に置けば、その任意のポー
ズの姿が表示できる。また、それら多数の標準全身モデ
ル506を任意のモーションのポーズ変化に従った順序
で、高速にバーチャル3次元空間内に入れ替えて行くこ
とで、任意のモーションを行なっている姿を表示するこ
とができる。
(2) A standard whole body model 506 is prepared for each of a number of different poses. If an arbitrary pose is selected from these many standard whole body models 506 and placed in the virtual three-dimensional space, the figure of the arbitrary pose can be displayed. In addition, by replacing these many standard whole body models 506 in a virtual three-dimensional space at high speed in an order according to a pose change of an arbitrary motion, it is possible to display a figure performing an arbitrary motion. .

【0051】上記のうち、(2)の多数の異なるポーズ
の標準全身モデルを用意する方法は、後に図9〜図13
を参照して説明する3次元モデルを作成する方法から理
解できるように、多眼ステレオカメラから出力される動
画の各フレーム毎に3次元モデルを作成することで、簡
単に行うことができる。
Of the above, the method of (2) for preparing a standard whole body model having many different poses will be described later with reference to FIGS.
As can be understood from the method of creating a three-dimensional model described with reference to, this can be easily performed by creating a three-dimensional model for each frame of a moving image output from the multi-view stereo camera.

【0052】一方、(1)の関節を持った標準全身モデ
ルを作成する方法は、例えば図5及び図6に示すような
処理手順によって行うことができる。ここで、図5は、
関節を持った標準全身モデルを作成するためにモデリン
グサーバが行う処理流れを示し、既に説明した図2のス
テップS2〜S6に相当するものである。図6は、この
処理流れの過程で作成される体形3次元モデルの構成を
示す。
On the other hand, the method (1) of creating a standard whole body model having joints can be performed by a processing procedure as shown in FIGS. 5 and 6, for example. Here, FIG.
It shows a processing flow performed by the modeling server to create a standard whole body model having joints, and corresponds to steps S2 to S6 in FIG. 2 already described. FIG. 6 shows the configuration of a three-dimensional body shape model created in the course of this processing flow.

【0053】図5のステップS61に示すように、モデ
リングサーバは、まず、ユーザが或る基本ポーズとそれ
以外の複数の変形ポーズの各々をとったとき実写データ
をステレオ撮影システムから受け取る。これは、後に図
9〜図13を参照して説明するように、ステレオ撮影シ
ステム内でユーザが或るモーションを行いながら撮影を
行って、そのときに多眼ステレオカメラから出力される
動画を構成する一連の多数のフレーム画像(つまり、少
しづつ異なる多数のポーズの実写データ)を受け取るこ
とに相当する。
As shown in step S61 of FIG. 5, the modeling server first receives actual photograph data from the stereo photographing system when the user takes a certain basic pose and a plurality of other modified poses. As described later with reference to FIGS. 9 to 13, a user performs shooting while performing a certain motion in a stereo shooting system, and forms a moving image output from the multi-lens stereo camera at that time. This is equivalent to receiving a series of many frame images (that is, actual photograph data of a number of poses slightly different from each other).

【0054】次に、ステップS62に示すように、モデ
リングサーバは、それら異なる多数のポーズの実写デー
タから、各ポーズ毎にユーザの全身の体形3次元モデル
データを作成する。このときに作成された各ポーズの体
形3次元モデルデータは、図6に参照番号600で示す
ように、ユーザの全身を一塊の立体として捉えた3次元
モデルデータ(以下、全身一体モデルという)である。
Next, as shown in step S62, the modeling server creates three-dimensional body shape model data of the whole body of the user for each pose from the photographed data of many different poses. The body shape three-dimensional model data of each pose created at this time is, as shown by reference numeral 600 in FIG. 6, three-dimensional model data that captures the whole body of the user as a solid body (hereinafter, referred to as a whole body integrated model). is there.

【0055】次に、ステップS63に示すように、モデ
リングサーバは、異なるポーズ間で全身一体モデル60
0を比較して、それが変形するときの折れ曲がり点、つ
まり各部の回転の支点を検出することで、肩、肘、股関
節、膝などの関節の位置を例えば基本ポーズの全身一体
モデル600で決定する。そして、それらの関節で区切
られる全身一体モデル600の各部分が身体の頭、首、
左右の上腕、左右の下腕、左右の手、胸、腹、腰、左右
の大腿、左右の下腿、左右の足などのどの部位に該当す
るのか決定する。
Next, as shown in step S63, the modeling server sends the whole-body integrated model 60 between different poses.
By comparing 0 and detecting a bending point when it deforms, that is, a fulcrum of rotation of each part, the positions of the joints such as the shoulder, elbow, hip joint, and knee are determined by, for example, the whole body integrated model 600 in the basic pose. I do. Each part of the whole body integrated model 600 separated by the joints is the head, neck,
It determines which part, such as the left and right upper arm, the left and right lower arm, the left and right hand, the chest, the belly, the waist, the left and right thigh, the left and right thigh, the left and right foot, etc.

【0056】次に、ステップS64に示すように、モデ
リングサーバは、基本ポーズの全身一体モデル600
を、上述した多数の部位の立体モデルに分割し、図6に
参照番号601で示すように、それらの部位の立体モデ
ル602〜618を関節(黒丸点で図示する)でジョイ
ントした体形3次元モデル(以下、部位ジョイントモデ
ルという)を作成する。
Next, as shown in step S64, the modeling server sends the whole body integrated model 600 of the basic pose.
Is divided into the above-described three-dimensional models of a number of parts, and as shown by reference numeral 601 in FIG. 6, the three-dimensional models 602 to 618 of those parts are jointed by joints (shown by black dots). (Hereinafter referred to as “part joint model”).

【0057】次に、ステップS65に示すように、モデ
リングサーバは、作成した部位ジョイントモデル601
の所定部位(例えば、頭部602の顔の部分)に、局所
3次元モデルをあてはめて、これをユーザの標準全身モ
デルとする。
Next, as shown in step S65, the modeling server sends the created part joint model 601
Is applied to a predetermined part (for example, the face part of the head 602), and this is used as a standard whole body model of the user.

【0058】このようにして作成された関節で曲がる標
準全身モデルを用いることで、ユーザシステムのバーチ
ャル試着プログラムは、その標準全身モデルに複数のポ
ーズをとらせたり、モーションを行わせたりすることが
できる。図7は、そのためのバーチャル試着プログラム
の処理流れを示す。図8は、この処理流れの過程で行わ
れるユーザの標準全身モデルと衣裳の3次元モデルに対
する操作を説明している。
By using the standard full-body model that bends at joints created in this way, the virtual fitting program of the user system can cause the standard full-body model to take a plurality of poses and perform motions. it can. FIG. 7 shows a processing flow of the virtual fitting program for that. FIG. 8 illustrates an operation performed on the standard whole body model and the three-dimensional model of the costume performed in the process of this processing flow.

【0059】図7に示すように、バーチャル試着プログ
ラムは、ステップS71で、ユーザの標準全身モデル6
01を得る。また、ステップS72で、ユーザの選択し
た衣裳の3次元モデルデータを得る。この衣裳の3次元
モデルデータは、図8に参照番号620で示すように、
ユーザの標準全身モデルと同様に複数の部分621〜6
27に分割されて、それらの部分621〜627が黒丸
点で示す関節でジョイントされた構成になっている。
As shown in FIG. 7, in the virtual fitting program, in step S71, the user's standard whole body model 6
Get 01. In step S72, three-dimensional model data of the costume selected by the user is obtained. The three-dimensional model data of this costume is represented by reference numeral 620 in FIG.
A plurality of parts 621 to 6 like the standard whole body model of the user
27, and these portions 621 to 627 are joined by joints indicated by black dots.

【0060】次に、ステップS73に示すように、バー
チャル試着プログラムは、バーチャル3次元空間内で、
ユーザの標準全身モデル601に衣裳の3次元モデルデ
ータ620を位置合わせする(つまり、衣裳を着せ
る)。
Next, as shown in step S73, the virtual fitting program executes a virtual three-dimensional
The three-dimensional model data 620 of the costume is aligned with the standard whole body model 601 of the user (that is, the costume is put on).

【0061】次に、ステップS74に示すように、バー
チャル試着プログラムは、バーチャル3次元空間内で、
図8に参照番号630で示すように、衣裳を着た標準全
身モデル601がユーザ指定のポーズをとる又はモーシ
ョンを行うように、標準全身モデル601と衣裳の3次
元モデルデータ620とを関節で曲げて変形させてい
く。そして、ステップS75に示すように、そのように
変形していく標準全身モデル601と衣裳の3次元モデ
ルデータ620とを、ユーザ指定のカメラ位置からユー
ザ指定のズーム倍率で見たときの2次元画像をレンダリ
ングして、図4に示したショウステージウィンドウ50
1に表示する。
Next, as shown in step S74, the virtual fitting program executes a virtual three-dimensional
As shown by reference numeral 630 in FIG. 8, the standard full-body model 601 and the three-dimensional model data 620 of the costume are bent at joints such that the standard full-body model 601 wearing the costume takes a pose or motion specified by the user. And transform it. Then, as shown in step S75, a two-dimensional image obtained by viewing the deformed standard whole body model 601 and the three-dimensional model data 620 of the costume from the camera position designated by the user at the zoom magnification designated by the user. Is rendered, and the show stage window 50 shown in FIG.
1 is displayed.

【0062】以下に、図1に示したステレオ撮影システ
ム6の構成について詳細に説明する。図9は、このステ
レオ撮影システム6の概略的な全体構成を示す。
Hereinafter, the configuration of the stereo photographing system 6 shown in FIG. 1 will be described in detail. FIG. 9 shows a schematic overall configuration of the stereo photography system 6.

【0063】モデリングの対象物(この例では人である
が、何の物体でもよい)10を入れるための所定の3次
元空間20が設定されている。この空間20の周囲の複
数の異なる箇所に、多眼ステレオカメラ11、12、1
3がそれぞれ固定されている。この実施形態では3台の
多眼ステレオカメラ11、12、13があるが、これは
好適な一例であって、2台以上であればいくつでもよ
い。これら多眼ステレオカメラ11、12、13の視線
14、15、16は互いに異なる方向で空間20内に向
って延びている。
A predetermined three-dimensional space 20 into which a modeling object (in this example, a human, but any object) 10 is set is set. At a plurality of different locations around the space 20, multi-view stereo cameras 11, 12, 1
3 are fixed respectively. In this embodiment, there are three multi-view stereo cameras 11, 12, and 13. However, this is a preferable example, and any number of two or more cameras may be used. The lines of sight 14, 15, 16 of the multi-lens stereo cameras 11, 12, 13 extend into the space 20 in different directions.

【0064】多眼ステレオカメラ11、12、13の出
力信号は演算装置18に入力される。演算装置18は、
多眼ステレオカメラ11、12、13からの入力信号を
基に、対象物10の3次元モデルデータを作成する。こ
こで、演算装置18は便宜上1つのブロックで図示して
あるが、図1に示したバーチャル試着システムにおける
店舗システム5とモデリングサーバ1を合わせてなる3
次元モデリングを行う機能部分を意味している。
The output signals of the multi-lens stereo cameras 11, 12 and 13 are input to the arithmetic unit 18. The arithmetic unit 18
Based on input signals from the multi-view stereo cameras 11, 12, and 13, three-dimensional model data of the object 10 is created. Here, the arithmetic unit 18 is shown as a single block for convenience, but the combination of the store system 5 and the modeling server 1 in the virtual fitting system shown in FIG.
It means the functional part that performs dimensional modeling.

【0065】多眼ステレオカメラ11、12、13の各
々は、相対的に位置が異なり且つ視線が略平行な3個以
上、好適には3×3マトリックス状に配列された9個、
の独立したビデオカメラ17S、17R、…、17Rを
備える。この3×3マトリックスの中央に位置する一つ
のビデオカメラ17Sは「基準カメラ」と呼ばれる。基
準カメラ17Sを囲むように位置する8個のビデオカメ
ラ17R、…、17Rはそれぞれ「参照カメラ」と呼ば
れる。基準カメラ17Sと1個の参照カメラ17Rは、
ステレオ視法が適用可能な最小単位である1ペアのステ
レオカメラを構成する。よって、基準カメラ17Sと8
個の参照カメラ17は、基準カメラ17Sを中心に放射
方向に配列された8ペアのステレオカメラを構成する。
この8ペアのステレオカメラは、対象物10に関する高
精度で安定した距離データを計算することを可能にす
る。ここで、基準カメラ17Sはカラー又は白黒のカメ
ラである。カラー画像をテレビジョンモニタ19に表示
したい場合、カラーカメラを基準カメラ17Sに用い
る。一方、参照カメラ17R、…、17Rは白黒カメラ
で十分であるが、カラーカメラを用いても良い。
Each of the multi-view stereo cameras 11, 12 and 13 has three or more, whose positions are relatively different and their lines of sight are substantially parallel, preferably nine arranged in a 3 × 3 matrix.
, 17R independent video cameras 17S, 17R,. One video camera 17S located at the center of the 3 × 3 matrix is called a “reference camera”. Each of the eight video cameras 17R,..., 17R positioned so as to surround the reference camera 17S is called a “reference camera”. The reference camera 17S and one reference camera 17R are
A pair of stereo cameras, which is a minimum unit applicable to stereo vision, is configured. Therefore, the reference cameras 17S and 8S
The reference cameras 17 constitute eight pairs of stereo cameras arranged radially around the reference camera 17S.
The eight pairs of stereo cameras enable highly accurate and stable distance data for the object 10 to be calculated. Here, the reference camera 17S is a color or monochrome camera. When a color image is to be displayed on the television monitor 19, a color camera is used as the reference camera 17S. On the other hand, a black and white camera is sufficient for the reference cameras 17R,..., 17R, but a color camera may be used.

【0066】多眼ステレオカメラ11、12、13の各
々は、9個のビデオカメラ17S、17R、…、17R
からの9本の動画像を出力する。まず、演算装置18
は、1番目の多眼ステレオカメラ11から出力された9
本の動画像の最新のフレーム画像(静止画像)を取り込
み、その9枚の静止画像(つまり、基準カメラ17Sか
らの一枚の基準画像と、8個の参照カメラ17R、…、
17Rからの8枚の参照画像)を基に、公知の多眼ステ
レオ視法によって、対象物10の最新の距離画像(つま
り、基準カメラ17Sからの距離で表現した対象物10
の画像)を作成する。演算装置18は、上記と並行し
て、上記同様の方法で、2番目の多眼ステレオカメラ1
2についても、3番目の多眼ステレオカメラ13につい
ても、対象物10の最新の距離画像を作成する。続い
て、演算装置18は、3つの多眼ステレオカメラ11、
12、13についてそれぞれ作成した最新の距離画像を
用いて、後に詳述する方法により、対象物10の最新の
3次元モデルを作成する。
Each of the multi-view stereo cameras 11, 12, 13 has nine video cameras 17S, 17R,.
Output nine moving images. First, the arithmetic unit 18
Is the 9 output from the first multi-lens stereo camera 11
The latest frame images (still images) of the moving images of the book are captured, and the nine still images (that is, one reference image from the reference camera 17S and eight reference cameras 17R,.
The latest distance image of the object 10 (that is, the object 10 represented by the distance from the reference camera 17S) by the known multi-view stereoscopic vision based on the eight reference images from the 17R.
Image). In parallel with the above, the arithmetic unit 18 uses the same method as described above to execute the second multi-view stereo camera 1.
For both the second and third multi-view stereo cameras 13, the latest distance images of the object 10 are created. Subsequently, the arithmetic unit 18 includes three multi-view stereo cameras 11,
The latest three-dimensional model of the object 10 is created by the method described later in detail using the latest distance image created for each of 12 and 13.

【0067】以上の動作を、演算装置18は、多眼ステ
レオカメラ11、12、13から動画像の最新フレーム
を取り込む都度に繰り返して、各フレーム毎に対象物1
0の3次元モデルを作成する。対象物10が動けば、そ
れに実時間又はそれに近い状態で追従して、演算装置1
8の作成する最新の3次元モデルが変化する。
The arithmetic unit 18 repeats the above operation every time the latest frame of a moving image is taken in from the multi-view stereo cameras 11, 12, and 13.
0 is created. When the object 10 moves, it follows the object 10 in real time or in a state close thereto, and the arithmetic unit 1
8 changes the latest three-dimensional model created.

【0068】以下、演算装置18の内部構成と動作をよ
り詳細に説明する。
Hereinafter, the internal configuration and operation of the arithmetic unit 18 will be described in more detail.

【0069】演算装置18では、以下の複数の座標系が
用いられる。すなわち、図9に示すように、1番目の多
眼ステレオカメラ11からの画像を処理するため、1番
目の多眼ステレオカメラ11の位置と向きに適合した座
標軸をもつ第1のカメラ直交座標系i1、j1、d1が用いられ
る。同様に、2番目の多眼ステレオカメラ12と3番目
の多眼ステレオカメラ13からの画像をそれぞれ処理す
るために、2番目の多眼ステレオカメラ12と3番目の
多眼ステレオカメラ13の位置と向きにそれぞれ適合し
た第2のカメラ直交座標系i2、j2、d2及び第3のカメラ直
交座標系i3、j3、d3がそれぞれ用いられる。さらに、空間
20内の位置を定義し且つ対象物10の3次元モデルを
処理するために、所定の一つの全体直交座標系x、y、zが
用いられる。
The arithmetic unit 18 uses the following plural coordinate systems. That is, as shown in FIG. 9, in order to process an image from the first multi-view stereo camera 11, a first camera orthogonal coordinate system having coordinate axes adapted to the position and orientation of the first multi-view stereo camera 11 i1, j1, and d1 are used. Similarly, in order to process images from the second multi-view stereo camera 12 and the third multi-view stereo camera 13, respectively, the positions of the second multi-view stereo camera 12 and the third multi-view stereo camera 13 are set. A second camera orthogonal coordinate system i2, j2, d2 and a third camera orthogonal coordinate system i3, j3, d3 respectively adapted to the orientation are used. Further, a predetermined one global rectangular coordinate system x, y, z is used to define a position in the space 20 and to process the three-dimensional model of the object 10.

【0070】また、演算装置18は、図9に示すよう
に、空間20の全域を、全体座標系x、y、zの座標軸に沿
ってそれぞれNx個、Ny個、Nz個のボクセル(voxe
l:小さい立方体)30、…、30に仮想的に細分す
る。従って、空間20は、Nx×Ny×Nz個のボクセ
ル30、…、30によって構成される。これらのボクセ
ル30、…、30を用いて対象物10の3次元モデルが
作られる。以下、各ボクセル30の全体座標系x、y、
zによる座標を(vx、vy、vz)で表す。
As shown in FIG. 9, the arithmetic unit 18 divides the entire space 20 into Nx, Ny, and Nz voxels (voxes) along the coordinate axes of the global coordinate system x, y, and z.
l: a small cube) 30,. Therefore, the space 20 is constituted by Nx × Ny × Nz voxels 30,. A three-dimensional model of the object 10 is created using these voxels 30,. Hereinafter, the overall coordinate system x, y,
The coordinates by z are represented by (vx, vy, vz).

【0071】図10は、演算装置18の内部構成を示
す。
FIG. 10 shows the internal configuration of the arithmetic unit 18.

【0072】演算装置18は、多眼ステレオ処理部6
1、62、63、画素座標生成部64、多眼ステレオデ
ータ記憶部65、ボクセル座標生成部71、72、7
3、ボクセルデータ生成部74、75、76、統合ボク
セルデータ生成部77及びモデリング部78を有する。
なお、既に述べたように、演算装置18は図1に示した
バーチャル試着システムにおいては、店舗システム5と
モデリングサーバ1とから構成されるものであるから、
これらの演算装置18の多数の構成要素61〜78のう
ち、どれを店舗システム5が受け持ち、どれをモデリン
グサーバ1が受け持つかという点については、様々な形
態が採用し得る。以下、これら構成要素61〜78の処
理機能を説明する。
The arithmetic unit 18 includes the multi-view stereo processing unit 6
1, 62, 63, a pixel coordinate generation unit 64, a multi-view stereo data storage unit 65, voxel coordinate generation units 71, 72, 7
3. It has a voxel data generation unit 74, 75, 76, an integrated voxel data generation unit 77, and a modeling unit 78.
As described above, in the virtual fitting system shown in FIG. 1, the arithmetic unit 18 includes the store system 5 and the modeling server 1.
As to which of the many components 61 to 78 of the arithmetic device 18 is handled by the store system 5 and which is handled by the modeling server 1, various modes can be adopted. Hereinafter, the processing functions of these components 61 to 78 will be described.

【0073】(1) 多眼ステレオ処理部61、62、6
3 多眼ステレオカメラ11、12、13に対し多眼ステレ
オ処理部61、62、63が一対一で設けられる。多眼
ステレオ処理部61、62、63の機能は互いに同じで
あるから、1番目の多眼ステレオ処理部61について代
表的に説明する。
(1) Multi-view stereo processing units 61, 62, 6
3. Multi-view stereo processing units 61, 62, 63 are provided for the multi-view stereo cameras 11, 12, 13 in a one-to-one correspondence. Since the functions of the multi-view stereo processing units 61, 62, and 63 are the same as each other, the first multi-view stereo processing unit 61 will be representatively described.

【0074】多眼ステレオ処理部61は、多眼ステレオ
カメラ11から、その9個のビデオカメラ17S、17
R、…、17Rが出力する9本の動画像の最新のフレー
ム(静止画像)を取り込む。この9枚の静止画像は、白
黒カメラの場合はグレースケールの輝度画像であり、カ
ラーカメラの場合は例えばR、G、Bの3色成分の輝度
画像である。R、G、Bの輝度画像は、それを統合すれ
ば白黒カメラと同様のグレースケールの輝度画像にな
る。多眼ステレオ処理部61は、基準カメラ17Sから
の1枚の輝度画像(白黒カメラの場合はそのまま、カラ
ーカメラの場合はR、G、Bを統合してグレースケール
としたもの)を基準画像とし、他の8台の参照カメラ
(白黒カメラである)17R、…、17Rからの8枚の
輝度画像を参照画像とする。そして、多眼ステレオ処理
部61は、8枚の参照画像の各々と基準画像とでペアを
作り(8ペアができる)、各ペアについて、両輝度画像
間の画素毎の視差を所定の方法で求める。
The multi-view stereo processing section 61 transmits the nine video cameras 17S, 17
The latest frames (still images) of the nine moving images output by R,..., 17R are captured. These nine still images are grayscale luminance images in the case of a monochrome camera, and are luminance images of, for example, three color components of R, G, and B in the case of a color camera. The R, G, and B luminance images become gray-scale luminance images similar to those of a monochrome camera when they are integrated. The multi-view stereo processing unit 61 sets a single luminance image from the reference camera 17S (as it is in the case of a black-and-white camera, or in the case of a color camera, by integrating R, G, and B into a gray scale) as a reference image. , And 17R, eight luminance images from the other eight reference cameras (black and white cameras) 17R,..., 17R. Then, the multi-view stereo processing unit 61 creates a pair of each of the eight reference images and the reference image (eight pairs are formed), and for each pair, calculates a parallax for each pixel between both luminance images by a predetermined method. Ask.

【0075】ここで、視差を求める方法としては、例え
ば特開平11−175725号に開示された方法を用い
ることができる。特開平11−175725号に開示さ
れた方法は、簡単に言えば、次のようなものである。ま
ず、基準画像上で1つ画素を選択し、その選択画素を中
心にした所定サイズ(例えば3×3画素)のウィンドウ
領域を基準画像から取り出す。次に、参照画像上で上記
選択画素から所定の視差分だけずれた位置にある画素
(対応候補点という)を選び、その対応候補点を中心に
した同サイズのウィンドウ領域を参照画像から取り出
す。そして、参照画像から取り出した対応候補点のウィ
ンドウ領域と、基準画像から取り出した選択画素のウィ
ンドウ領域との間で、輝度パターンの類似度(例えば両
ウィンドウ領域内の位置的に対応する画素間の輝度値の
差の二乗加算値の逆数)を計算する。視差を最小値から
最大値まで順次に変えて対応候補点を移動させながら、
個々の対応候補点について、その対応候補点のウィンド
ウ領域と、基準画像からの選択画素のウィンドウ領域と
の間の類似度の計算を繰り返す。その結果から、最も高
い類似度が得られた対応候補点を選び、その対応候補点
に対応する視差を、上記選択画素における視差と決定す
る。このような視差の決定を、基準画像の全ての画素に
ついて行う。基準画像の各画素についての視差から、対
象物の各画素に対応する部分と基準カメラとの間の距離
が一対一で決まる。従って、基準画像の全ての画素につ
いて視差を計算することで、結果として、基準カメラか
ら対象物までの距離を基準画像の画素毎に表した距離画
像が得られる。
Here, as a method of obtaining the parallax, for example, a method disclosed in Japanese Patent Application Laid-Open No. H11-175725 can be used. The method disclosed in Japanese Patent Application Laid-Open No. H11-175725 is simply as follows. First, one pixel is selected on the reference image, and a window area of a predetermined size (for example, 3 × 3 pixels) centered on the selected pixel is extracted from the reference image. Next, a pixel (referred to as a corresponding candidate point) at a position shifted from the selected pixel by a predetermined parallax on the reference image is selected, and a window region of the same size centered on the corresponding candidate point is extracted from the reference image. Then, the similarity of the luminance pattern (for example, between pixels corresponding to positions in both window regions) between the window region of the corresponding candidate point extracted from the reference image and the window region of the selected pixel extracted from the reference image. Calculate the reciprocal of the square addition value of the luminance value difference). While sequentially changing the parallax from the minimum value to the maximum value and moving the corresponding candidate point,
For each corresponding candidate point, the calculation of the similarity between the window area of the corresponding candidate point and the window area of the selected pixel from the reference image is repeated. From the result, the corresponding candidate point with the highest similarity is selected, and the parallax corresponding to the corresponding candidate point is determined as the parallax in the selected pixel. Such determination of parallax is performed for all pixels of the reference image. From the parallax of each pixel of the reference image, the distance between the portion corresponding to each pixel of the target object and the reference camera is determined on a one-to-one basis. Therefore, by calculating the parallax for all the pixels of the reference image, a distance image that represents the distance from the reference camera to the object for each pixel of the reference image is obtained as a result.

【0076】多眼ステレオ処理部61は、8ペアの各々
について上記の方法で距離画像を計算し、それら8枚の
距離画像を統計的手法で統合して(例えば平均を計算し
て)、その結果を最終的な距離画像D1として出力する。
また、多眼ステレオ処理部61は、基準カメラ17Sか
らの輝度画像Im1も出力する。さらに、多眼ステレオ処
理部61は、距離画像D1の信頼度を表す信頼度画像Re1
を作成して出力する。ここで、信頼度画像Re1とは、距
離画像D1が示す画素毎の距離の信頼度を画素毎に示した
画像である。例えば、基準画像の各画素について上述し
たように視差を変化させながら視差毎の類似度を計算し
た結果から、最も類似度の高かった視差とその前後隣の
視差との間の類似度の差を求め、これを各画素の信頼度
として用いることができる。この例の場合、類似度の差
が大きいほど、信頼性がより高いことを意味する。
The multi-view stereo processing unit 61 calculates a distance image for each of the eight pairs by the above method, integrates the eight distance images by a statistical method (for example, calculates an average), and The result is output as the final distance image D1.
The multi-view stereo processing unit 61 also outputs the luminance image Im1 from the reference camera 17S. Further, the multi-view stereo processing unit 61 outputs a reliability image Re1 representing the reliability of the distance image D1.
And output. Here, the reliability image Re1 is an image indicating the reliability of the distance of each pixel indicated by the distance image D1 for each pixel. For example, from the result of calculating the similarity for each parallax while changing the parallax as described above for each pixel of the reference image, the similarity difference between the parallax with the highest similarity and the parallaxes immediately before and after it is calculated. And can be used as the reliability of each pixel. In this example, the larger the difference between the similarities, the higher the reliability.

【0077】このように、1番目の多眼ステレオ処理部
61からは、1番目の多眼ステレオカメラ11の位置か
ら見た輝度画像Im1と距離画像D1と信頼度画像Re1の3種
類の出力が得られる。従って、3つの多眼ステレオ処理
部61、62、63から、3台のカメラ位置からの輝度
画像Im1,Im2,Im3と距離画像D1,D2,D3と信頼度画像Re1,R
e2,Re3が得られる(これら多眼ステレオ処理部から出力
された画像を総称するときは、「ステレオ出力画像」と
いう)。
As described above, from the first multi-view stereo processing unit 61, three types of outputs of the luminance image Im1, the distance image D1, and the reliability image Re1 viewed from the position of the first multi-view stereo camera 11 are output. can get. Therefore, the luminance images Im1, Im2, Im3, the distance images D1, D2, D3, and the reliability images Re1, R from the three camera positions are obtained from the three multi-view stereo processing units 61, 62, 63.
e2 and Re3 are obtained (the images output from these multi-view stereo processing units are collectively referred to as “stereo output images”).

【0078】(2) 多眼ステレオデータ記憶部65 多眼ステレオデータ記憶部65は、3つの多眼ステレオ
処理部61、62、63からのステレオ出力画像、つま
り輝度画像Im1,Im2,Im3、距離画像D1,D2,D3及び信頼度
画像Re1,Re2,Re3を入力して、図示のように、それらの
ステレオ出力画像を多眼ステレオ処理部61、62、6
3に対応した記憶領域66、67、68に記憶する。そ
して、多眼ステレオデータ記憶部65は、画素座標生成
部64から処理対象画素を指す座標(図9に示した各多
眼ステレオカメラ11、12、13のカメラ座標系での
座標であり、以下(i11,j11)で表す)が入力されると、
その画素座標(i11,j11)が指す画素の値を輝度画像Im1,I
m2,Im3、距離画像D1,D2,D3及び信頼度画像Re1,Re2,Re3
から読み出して出力する。
(2) Multi-view stereo data storage section 65 The multi-view stereo data storage section 65 stores stereo output images from the three multi-view stereo processing sections 61, 62, 63, that is, luminance images Im1, Im2, Im3, and distances. The images D1, D2, D3 and the reliability images Re1, Re2, Re3 are input, and their stereo output images are multi-view stereo processing units 61, 62, 6 as shown in the figure.
3 is stored in the storage areas 66, 67, and 68 corresponding to 3. Then, the multi-view stereo data storage unit 65 stores the coordinates (the coordinates in the camera coordinate system of each of the multi-view stereo cameras 11, 12, and 13 shown in FIG. 9) indicating the processing target pixel from the pixel coordinate generation unit 64. (represented by (i11, j11))
The value of the pixel indicated by the pixel coordinates (i11, j11) is represented by a luminance image Im1, I
m2, Im3, distance images D1, D2, D3 and reliability images Re1, Re2, Re3
And output it.

【0079】すなわち、多眼ステレオデータ記憶部65
は、画素座標(i11,j11)が入力されると、1番目の記憶
領域66の輝度画像Im1、距離画像D1及び信頼度画像Re1
からは、1番目のカメラ座標系i1,j1,d1での座標(i11,j
11)に対応する画素の輝度Im1(i11,j11)、距離D1(i11,j1
1)及び信頼度Re1(i11,j11)を読み出し、2番目の記憶領
域67の輝度画像Im2、距離画像D2及び信頼度画像Re2か
らは、2番目のカメラ座標系i2,j2,d2での座標(i11,j1
1)に対応する画素の輝度Im2(i11,j11)、距離D2(i11,j1
1)及び信頼度Re2(i11,j11)を読み出し、また、3番目の
記憶領域68の輝度画像Im3、距離画像D3及び信頼度画
像Re3からは、3番目のカメラ座標系i3,j3,d3での座標
(i11,j11)に対応する画素の輝度Im3(i11,j11)、距離D3
(i11,j11)及び信頼度Re3(i11,j11)を読み出して、それ
らの値を出力する。
That is, the multi-view stereo data storage unit 65
When the pixel coordinates (i11, j11) are input, the luminance image Im1, the distance image D1, and the reliability image Re1 in the first storage area 66
From the first camera coordinate system i1, j1, d1 (i11, j
11) The luminance of the pixel corresponding to (11) Im1 (i11, j11) and the distance D1 (i11, j1
1) and the reliability Re1 (i11, j11) are read, and the coordinates in the second camera coordinate system i2, j2, d2 are obtained from the luminance image Im2, the distance image D2, and the reliability image Re2 in the second storage area 67. (i11, j1
The luminance Im2 (i11, j11) and the distance D2 (i11, j1) of the pixel corresponding to (1)
1) and the reliability Re2 (i11, j11), and from the luminance image Im3, the distance image D3, and the reliability image Re3 in the third storage area 68, in the third camera coordinate system i3, j3, d3. Coordinates
The luminance Im3 (i11, j11) of the pixel corresponding to (i11, j11) and the distance D3
(i11, j11) and the reliability Re3 (i11, j11) are read and their values are output.

【0080】(3) 画素座標生成部64 画素座標生成部64は、3次元モデル作成処理の対象と
なる画素を指す座標(i11,j11)を生成して、多眼ステレ
オデータ記憶部65及びボクセル座標生成部71、7
2、73に出力する。画素座標生成部64は、上述した
ステレオ出力画像の全範囲又は一部の範囲を例えばラス
タ走査するように、その範囲の全画素の座標(i11,j11)
を順次に出力する。
(3) Pixel Coordinate Generation Unit 64 The pixel coordinate generation unit 64 generates coordinates (i11, j11) indicating the pixel to be subjected to the three-dimensional model creation processing, and stores the multi-view stereo data storage unit 65 and the voxel. Coordinate generators 71, 7
2, 73. The pixel coordinate generation unit 64 performs, for example, raster scanning on the entire range or a partial range of the above-described stereo output image, so that the coordinates (i11, j11) of all the pixels in the range are obtained.
Are sequentially output.

【0081】(4) ボクセル座標生成部71、72、7
3 3つの多眼ステレオ処理部61、62、63に対応して
3つのボクセル座標生成部71、72、73が設けられ
る。3つのボクセル座標生成部71、72、73の機能
は互いに同じであるから、1番目のボクセル座標生成部
71を代表的に説明する。
(4) Voxel coordinate generation units 71, 72, 7
3. Three voxel coordinate generation units 71, 72, 73 are provided corresponding to the three multi-view stereo processing units 61, 62, 63. Since the functions of the three voxel coordinate generation units 71, 72, and 73 are the same, the first voxel coordinate generation unit 71 will be described as a representative.

【0082】ボクセル座標生成部71は、画素座標生成
部64から画素座標(i11,j11)を入力し、また、その画
素座標(i11,j11)について多眼ステレオデータ記憶部6
5の対応する記憶領域66から読み出された距離D1(i1
1,j11)を入力する。入力した画素座標(i11,j11)と距離D
1(i11,j11)は、1番目のカメラ座標系i1,j1,d1による対
象物10の外表面の一箇所の座標を示している。そこ
で、ボクセル座標生成部71は、予め組み込まれている
1番目のカメラ座標系i1,j1,d1の座標値を全体座標系x,
y,zの座標値へ変換する処理を実行して、入力した1番
目のカメラ座標系i1,j1,d1による画素座標(i11,j11)と
距離D1(i11,j11)を、全体座標系x,y,zによる座標(x11,y
11,z11)に変換する。次に、ボクセル座標生成部71
は、その変換後の座標(x11,y11,z11)が、空間20内の
どのボクセル30に含まれるか否かを判断し、或るボク
セル30に含まれる場合には、そのボクセル30(それ
は、対象物10の外表面が存在すると推定されるボクセ
ルの一つを意味する)の座標(vx11,vy11,vz11)を出力す
る。一方、変換後の座標(x11,y11,z11)が空間20内の
どのボクセル30にも含まれない場合には、含まれない
こと(つまり、その座標が空間20外であること)を示
す所定の座標値(xout,yout,zout)を出力する。
The voxel coordinate generation section 71 receives the pixel coordinates (i11, j11) from the pixel coordinate generation section 64, and stores the pixel coordinates (i11, j11) in the multi-view stereo data storage section 6.
The distance D1 (i1
Enter 1, j11). Input pixel coordinates (i11, j11) and distance D
1 (i11, j11) indicates the coordinates of one location on the outer surface of the object 10 in the first camera coordinate system i1, j1, d1. Therefore, the voxel coordinate generation unit 71 converts the coordinate values of the first camera coordinate system i1, j1, d1 incorporated in advance into the global coordinate system x,
By executing a process of converting into the coordinate values of y and z, the pixel coordinates (i11, j11) and the distance D1 (i11, j11) of the input first camera coordinate system i1, j1, d1 are converted into the global coordinate system x. , y, z (x11, y
11, z11). Next, the voxel coordinate generation unit 71
Determines whether or not the converted coordinates (x11, y11, z11) are included in which voxel 30 in the space 20. If the voxel 30 is included in a certain voxel 30, the voxel 30 (that is, It outputs the coordinates (vx11, vy11, vz11) of one of the voxels in which the outer surface of the object 10 is estimated to exist. On the other hand, if the converted coordinates (x11, y11, z11) are not included in any of the voxels 30 in the space 20, a predetermined value indicating that they are not included (that is, the coordinates are outside the space 20) Outputs the coordinates (xout, yout, zout) of

【0083】このようにして、1番目のボクセル座標生
成部71は、1番目の多眼ステレオカメラ11からの画
像に基づいて推定された対象物10の外表面が位置する
ボクセル座標(vx11,vy11,vz11)を出力する。2番目及び
3番目のボクセル座標生成部72、73も、同様に、2
番目及び3番目の多眼ステレオカメラ12、13からの
画像に基づいて推定された対象物10の外表面が位置す
るボクセル座標(vx12,vy12,vz12)及び(vx13,vy13,vz13)
をそれぞれ出力する。
As described above, the first voxel coordinate generation unit 71 calculates the voxel coordinates (vx11, vy11) at which the outer surface of the object 10 is located based on the image from the first multi-view stereo camera 11. , vz11). Similarly, the second and third voxel coordinate generation units 72 and 73
Voxel coordinates (vx12, vy12, vz12) and (vx13, vy13, vz13) where the outer surface of the object 10 is estimated based on the images from the third and third multi-view stereo cameras 12, 13.
Are output.

【0084】3つのボクセル座標生成部71、72、7
3は、それぞれ、画素座標生成部64から出力された全
ての画素座標(i11,j11)について上記の処理を繰り返
す。その結果、対象物10の外表面が位置すると推定さ
れるボクセル座標の全てが得られる。
The three voxel coordinate generators 71, 72, 7
3 repeats the above processing for all pixel coordinates (i11, j11) output from the pixel coordinate generation unit 64. As a result, all the voxel coordinates at which the outer surface of the object 10 is estimated to be located are obtained.

【0085】(5) ボクセルデータ生成部74、75、
76 3つの多眼ステレオ処理部61、62、63に対応して
3つのボクセルデータ生成部74、75、76が設けら
れる。3つのボクセルデータ生成部74、75、76の
機能は互いに同じであるから、1番目のボクセルデータ
生成部74を代表的に説明する。
(5) Voxel data generation units 74, 75,
76 Three voxel data generation units 74, 75, 76 are provided corresponding to the three multi-view stereo processing units 61, 62, 63. Since the functions of the three voxel data generators 74, 75, and 76 are the same, the first voxel data generator 74 will be described as a representative.

【0086】ボクセルデータ生成部74は、対応するボ
クセル座標生成部71から上記のボクセル座標(vx11,vy
11,vz11)を入力し、その値が(xout,yout,zout)でない場
合は、そのボクセル座標(vx11,vy11,vz11)に関して多眼
ステレオデータ記憶部65から入力したデータを記憶す
る。そのデータとは、すなわち、そのボクセル座標(vx1
1,vy11,vz11)に対応する画素の距離D1(i11,j11)、輝度I
m1(i11,j11)及び信頼度Re1(i11,j11)の3種類の値のセ
ットである。この3種類の値を、そのボクセル座標(vx1
1,vy11,vz11)に関係付けて、それぞれボクセル距離Vd1
(vx11,vy11,vz11)、ボクセル輝度Vim1(vx11,vy11,vz11)
及びボクセル信頼度Vre1(vx11,vy11,vz11)として蓄積す
る(これらのように各ボクセルに対応付けられた値のセ
ットを「ボクセルデータ」という)。
The voxel data generator 74 sends the voxel coordinates (vx11, vy) from the corresponding voxel coordinate generator 71.
11, vz11), and if the value is not (xout, yout, zout), the data input from the multi-view stereo data storage unit 65 for the voxel coordinates (vx11, vy11, vz11) is stored. That data is, that is, its voxel coordinates (vx1
1, vy11, vz11), the distance D1 (i11, j11) of the pixel corresponding to the luminance I
It is a set of three types of values: m1 (i11, j11) and reliability Re1 (i11, j11). These three values are converted to their voxel coordinates (vx1
1, vy11, vz11) and voxel distance Vd1
(vx11, vy11, vz11), voxel luminance Vim1 (vx11, vy11, vz11)
And stored as voxel reliability Vre1 (vx11, vy11, vz11) (the set of values associated with each voxel like these is referred to as “voxel data”).

【0087】画素座標発生部64が処理対象の全ての画
素の座標(i11,j11)を発生し終わった後、ボクセルデー
タ生成部74は、全てのボクセル30、…、30につい
て蓄積したボクセルデータを出力する。個々のボクセル
について蓄積されたボクセルデータの数は一定ではな
い。例えば、複数のボクセルデータが蓄積されたボクセ
ルもあれば、全くボクセルデータが蓄積されていないボ
クセルもある。全くボクセルデータが蓄積されていない
ボクセルとは、1番目の多眼ステレオカメラ11からの
撮影画像に基づいては、そこに対象物10の外表面が存
在するとは推定されなかったボクセルである。
After the pixel coordinate generating section 64 has generated the coordinates (i11, j11) of all the pixels to be processed, the voxel data generating section 74 stores the voxel data accumulated for all the voxels 30,. Output. The number of voxel data stored for each voxel is not constant. For example, some voxels store a plurality of voxel data, and some voxels do not store any voxel data. A voxel in which no voxel data is stored is a voxel for which it is not estimated that the outer surface of the object 10 exists there based on a captured image from the first multi-view stereo camera 11.

【0088】このようにして、1番目のボクセルデータ
生成部74は、全てのボクセルについて、1番目の多眼
ステレオカメラ11からの撮影画像に基づくボクセルデ
ータVd1(vx11,vy11,vz11)、Vim1(vx11,vy11,vz11)、Vre
1(vx11,vy11,vz11)を出力する。同様に、2番目及び3
番目のボクセルデータ生成部75、76も、全てのボク
セルについて、2番目及び3番目の多眼ステレオカメラ
12、13からの撮影画像にそれぞれ基づくボクセルデ
ータVd2(vx12,vy12,vz12)、Vim2(vx12,vy12,vz12)、Vre
2(vx12,vy12,vz12)及びVd3(vx13,vy13,vz13)、Vim3(vx1
3,vy13,vz13)、Vre3(vx13,vy13,vz13)をそれぞれ出力す
る。
As described above, the first voxel data generation unit 74 calculates the voxel data Vd1 (vx11, vy11, vz11) and Vim1 (vx11) based on the image captured from the first multi-view stereo camera 11 for all voxels. vx11, vy11, vz11), Vre
Outputs 1 (vx11, vy11, vz11). Similarly, the second and third
The voxel data generation units 75 and 76 also generate voxel data Vd2 (vx12, vy12, vz12) and Vim2 (vx12) based on the captured images from the second and third multi-view stereo cameras 12 and 13, respectively, for all voxels. , vy12, vz12), Vre
2 (vx12, vy12, vz12) and Vd3 (vx13, vy13, vz13), Vim3 (vx1
3, vy13, vz13) and Vre3 (vx13, vy13, vz13) are output.

【0089】(6) 統合ボクセルデータ生成部77 統合ボクセルデータ生成部77は、上述した3つのボク
セルデータ生成部74、75、76から入力されるボク
セルデータVd1(vx11,vy11,vz11)、Vim1(vx11,vy11,vz1
1)、Vre1(vx11,vy11,vz11)及びVd2(vx12,vy12,vz12)、V
im2(vx12,vy12,vz12)、Vre2(vx12,vy12,vz12)及びVd3(v
x13,vy13,vz13)、Vim3(vx13,vy13,vz13)、Vre3(vx13,vy
13,vz13)を、各ボクセル30毎に蓄積して統合すること
により、各ボクセルの統合輝度Vim(vx14,vy14,vz14)を
求める。
(6) Integrated Voxel Data Generation Unit 77 The integrated voxel data generation unit 77 includes the voxel data Vd1 (vx11, vy11, vz11) and Vim1 (vx11) input from the three voxel data generation units 74, 75, and 76 described above. vx11, vy11, vz1
1), Vre1 (vx11, vy11, vz11) and Vd2 (vx12, vy12, vz12), V
im2 (vx12, vy12, vz12), Vre2 (vx12, vy12, vz12) and Vd3 (v
x13, vy13, vz13), Vim3 (vx13, vy13, vz13), Vre3 (vx13, vy
13, vz13) is accumulated and integrated for each voxel 30 to obtain an integrated luminance Vim (vx14, vy14, vz14) of each voxel.

【0090】統合方法の例として、下記のようなものが
ある。
The following is an example of the integration method.

【0091】A. 複数のボクセルデータが蓄積されて
いるボクセルの場合 蓄積された複数の輝度の平均を統合輝度Vim(vx14,v
y14,vz14)とする。この場合、蓄積された複数の輝度の
分散値を求め、その分散値が所定値以上であった場合に
は、そのボクセルにはデータがないとみなして、例えば
統合輝度Vim(vx14,vy14,vz14)=0としてもよい。
A. In the case of a voxel in which multiple voxel data are stored, the average of the stored multiple brightnesses is integrated into the integrated brightness Vim (vx14, v
y14, vz14). In this case, a variance value of a plurality of accumulated luminances is obtained.If the variance value is equal to or more than a predetermined value, it is considered that the voxel has no data, and for example, the integrated luminance Vim (vx14, vy14, vz14 ) = 0.

【0092】 或いは、蓄積された複数の信頼度の中
から最も高い1つを選び、その最も高い信頼度に対応す
る輝度を統合輝度Vim(vx14,vy14,vz14)とする。この場
合、その最も高い信頼度が所定値より低い場合には、そ
のボクセルにはデータがないとみなして、例えば統合輝
度Vim(vx14,vy14,vz14)=0としてもよい。
Alternatively, the highest reliability is selected from the plurality of stored reliability levels, and the brightness corresponding to the highest reliability level is defined as the integrated brightness Vim (vx14, vy14, vz14). In this case, if the highest reliability is lower than a predetermined value, it is considered that the voxel has no data, and for example, the integrated luminance Vim (vx14, vy14, vz14) = 0 may be set.

【0093】 或いは、蓄積された信頼度から重み係
数を決め、対応する輝度にその重み係数を掛けて平均化
した値を統合輝度Vim(vx14,vy14,vz14)とする。
Alternatively, a weighting factor is determined from the accumulated reliability, and a value obtained by multiplying the corresponding brightness by the weighting factor and averaging is set as an integrated brightness Vim (vx14, vy14, vz14).

【0094】 或いは、カメラと対象物までの距離が
近いほど輝度の信頼性が高いと考えられるので、蓄積さ
れた複数の距離の中で最も短い一つを選び、その最も短
い距離に対応する一つの輝度を統合輝度Vim(vx14,vy14,
vz14)とする。
Alternatively, it is considered that the shorter the distance between the camera and the object is, the higher the reliability of luminance is. Therefore, the shortest one of the plurality of stored distances is selected, and one corresponding to the shortest distance is selected. Integrated brightness Vim (vx14, vy14,
vz14).

【0095】 或いは、上記の〜の方法を変形し
たり又は組み合わせたりした方法。
Alternatively, a method obtained by modifying or combining the above methods (1) to (4).

【0096】B. 1つのボクセルデータのみが蓄積さ
れているボクセルの場合 蓄積された1つの輝度をそのまま統合輝度Vim(vx1
4,vy14,vz14)とする。
B. In the case of a voxel in which only one voxel data is stored, the stored one brightness is used as the integrated brightness Vim (vx1
4, vy14, vz14).

【0097】 或いは、信頼度が所定値以上の場合
は、その輝度を統合輝度Vim(vx14,vy14,vz14)とし、信
頼度が所定値未満の場合は、そのボクセルにはデータが
ないとして、例えば統合輝度Vim(vx14,vy14,vz14)=0と
する。
Alternatively, when the reliability is equal to or more than a predetermined value, the luminance is set to the integrated luminance Vim (vx14, vy14, vz14). When the reliability is less than the predetermined value, it is determined that the voxel has no data. It is assumed that the integrated luminance Vim (vx14, vy14, vz14) = 0.

【0098】C. ボクセルデータが蓄積されていない
ボクセルの場合 そのボクセルにはデータがないとして、例えば統合
輝度Vim(vx14,vy14,vz14)=0とする。
C. In the case of a voxel in which voxel data is not stored, it is assumed that the voxel has no data, and for example, the integrated luminance Vim (vx14, vy14, vz14) = 0.

【0099】統合ボクセルデータ生成部77は、全ての
ボクセル30、…、30の統合輝度Vim(vx14,vy14,vz1
4)を求めてモデリング部78に出力する。
The integrated voxel data generation unit 77 generates an integrated luminance Vim (vx14, vy14, vz1) of all the voxels 30,.
4) is obtained and output to the modeling unit 78.

【0100】(7) モデリング部78 モデリング部78は、統合ボクセルデータ生成部77よ
り空間20内の全てのボクセル30、…、30の統合輝
度Vim(vx14,vy14,vz14)を入力する。統合輝度Vim(vx14,
vy14,vz14)が"0"以外の値をもったボクセルは、そこに
対象物10の外表面が存在すると推定されたボクセルを
意味する。そこで、モデリング部78は、統合輝度Vim
(vx14,vy14,vz14)が"0"以外の値をもつボクセルの座標
(vx14,vy14,vz14)を基にして、対象物10の外表面の3
次元形状を表す3次元モデルを作成する。この3次元モ
デルとしては、例えば、統合輝度Vim(vx14,vy14,vz14)
が"0"以外の値をもつボクセルの座標(vx14,vy14,vz14)
を近いもの同士で閉ループに繋ぐことで得られる多数の
ポリゴンによって3次元形状を表現したポリゴンデータ
などである。なお、ここで生成された3次元モデルは、
それがユーザの全身をモデリングしたものである場合
は、図5、図6を参照して既に説明したような全身一体
モデル600である。モデリング部78は、その全身一
体モデル600を図5、図6を参照して既に説明した処
理手順で、部位ジョイントモデル601に変換してもよ
いし、或いは、その全身一体モデル600をそのまま出
力してもよい。
(7) Modeling Unit 78 The modeling unit 78 receives the integrated luminance Vim (vx14, vy14, vz14) of all the voxels 30,..., 30 in the space 20 from the integrated voxel data generation unit 77. Integrated brightness Vim (vx14,
A voxel whose vy14, vz14) has a value other than “0” means a voxel in which it is estimated that the outer surface of the object 10 exists. Therefore, the modeling unit 78 sets the integrated luminance Vim
Voxel coordinates where (vx14, vy14, vz14) has a value other than "0"
Based on (vx14, vy14, vz14), 3 of the outer surface of the object 10
A three-dimensional model representing a three-dimensional shape is created. As the three-dimensional model, for example, an integrated luminance Vim (vx14, vy14, vz14)
The coordinates of voxels whose has a value other than "0" (vx14, vy14, vz14)
Is a polygon data expressing a three-dimensional shape by a large number of polygons obtained by connecting close to each other in a closed loop. The 3D model generated here is
When it is a model of the whole body of the user, it is the whole body integrated model 600 as already described with reference to FIGS. The modeling unit 78 may convert the whole-body integrated model 600 into the part joint model 601 by the processing procedure already described with reference to FIGS. 5 and 6, or may output the whole-body integrated model 600 as it is. You may.

【0101】上述した(1)〜(7)の各部の処理は、多眼
ステレオカメラ11、12、13から出力される動画像
の各フレーム毎に繰り返される。結果として、対象物1
0の動きに実時間又はそれに近い状態で追従して、多数
の3次元モデルが次々と高速に生成されることになる。
The processing of each section described above (1) to (7) is repeated for each frame of the moving image output from the multi-view stereo cameras 11, 12, and 13. As a result, object 1
A large number of three-dimensional models are generated one after another at high speed following the motion of zero in real time or in a state close thereto.

【0102】図11は、図9及び図10に示した演算装
置18と置き替えることのできる第2の演算装置200
の構成を示す。
FIG. 11 shows a second arithmetic unit 200 which can be replaced with the arithmetic unit 18 shown in FIGS. 9 and 10.
Is shown.

【0103】図11に示す演算装置200において、多
眼ステレオ処理部61、62、63、画素座標生成部6
4、多眼ステレオデータ記憶部65及びボクセル座標生
成部71、72、73及びモデリング部78は、既に説
明した図10に示す演算装置18がもつ同じ参照番号の
処理部と全く同じ機能をもつ。図11に示す演算装置2
00が、図10に示した演算装置18とは異なる部分
は、対象面傾き算出部91、92、93が追加されてい
る点と、この対象面傾き算出部91、92、93の出力
を処理することになるボクセルデータ生成部94、9
5、96及び統合ボクセルデータ生成部97の機能であ
る。以下、この相違する部分について説明する。
In the arithmetic unit 200 shown in FIG. 11, the multi-view stereo processing units 61, 62, 63, the pixel coordinate generation unit 6
4. The multi-view stereo data storage unit 65, the voxel coordinate generation units 71, 72, 73, and the modeling unit 78 have exactly the same functions as the processing units with the same reference numbers of the arithmetic unit 18 shown in FIG. Arithmetic unit 2 shown in FIG.
10 differs from the arithmetic unit 18 shown in FIG. 10 in that the target plane tilt calculators 91, 92, and 93 are added and the output of the target plane tilt calculators 91, 92, and 93 is processed. Voxel data generation units 94 and 9
5, 96 and the function of the integrated voxel data generation unit 97. Hereinafter, the difference will be described.

【0104】(1) 対象面傾き算出部91、92、93 3つの多眼ステレオ処理部61、62、63にそれぞれ
対応して3つの対象面傾き算出部91、92、93が設
けられる。これら対象面傾き算出部91、92、93の
機能は互いに同じであるので、1番目の対象面傾き算出
部91を代表的に説明する。
(1) Object plane inclination calculating sections 91, 92, and 93 Three object plane inclination calculating sections 91, 92, and 93 are provided corresponding to the three multi-view stereo processing sections 61, 62, and 63, respectively. Since the functions of these target plane inclination calculating units 91, 92, and 93 are the same as each other, the first target plane inclination calculating unit 91 will be described as a representative.

【0105】対象面傾き算出部91は、画素座標生成部
64から座標(i11,j11)を入力すると、その座標(i11,j1
1)を中心とした所定サイズ(例えば3×3画素)のウイ
ンドウを設定し、そのウインドウ内の全ての画素につい
ての距離を、多眼ステレオデータ記憶部65の対応する
記憶領域66内の距離画像D1から入力する。次に、対
象面傾き算出部91は、上記ウインドウの領域内の対象
物10の外表面(以下、対象面という)は平面であると
の仮定の下で、そのウインドウ内の全画素の距離に基づ
いて、そのウィンドウ内の対象面と、多眼ステレオカメ
ラ11からの視線14に直角な平面(傾きゼロ平面)と
の間の傾きを算出する。
When the coordinates (i11, j11) are input from the pixel coordinate generator 64, the target plane inclination calculator 91 receives the coordinates (i11, j1).
A window having a predetermined size (for example, 3 × 3 pixels) centering on 1) is set, and the distances for all the pixels in the window are stored in the distance image in the corresponding storage area 66 of the multi-view stereo data storage unit 65. Input from D1. Next, under the assumption that the outer surface of the object 10 (hereinafter, referred to as the object surface) in the window area is a plane, the object plane inclination calculator 91 calculates the distance between all pixels in the window. Based on this, the inclination between the target plane in the window and a plane (zero inclination plane) perpendicular to the line of sight 14 from the multi-view stereo camera 11 is calculated.

【0106】算出方法としては、例えば、ウインドウ内
の各距離を使用して、最小二乗法により対象面の法線ベ
クトルを求め、そして、その法線ベクトルとカメラ11
からの視線14のベクトルとの差分のベクトルを求め、
この差分ベクトルのi方向成分Si11及びj方向成分Sj11を
取り出して、対象面の傾きSi11,Sj11とする方法があ
る。
As a calculation method, for example, a normal vector of the target surface is obtained by the least square method using each distance in the window, and the normal vector and the camera 11
From the vector of the line of sight 14 from
There is a method in which the i-direction component Si11 and the j-direction component Sj11 of the difference vector are extracted and used as inclinations Si11 and Sj11 of the target surface.

【0107】このようにして、1番目の対象面傾き算出
部91は、1番目の多眼ステレオカメラ11から見た対
象面の傾きSi11,Sj11を、そのカメラ11で撮影した基
準画像の全画素について計算して出力する。同様に、2
番目及び3番目の対象面傾き算出部92、93も、2番
目及び3番目の多眼ステレオカメラ12、13からそれ
ぞれ見た対象面の傾きSi12,Sj12およびSi13,Sj13を、そ
れぞれのカメラ12、13で撮影した基準画像の全画素
について計算して出力する。
As described above, the first target plane inclination calculator 91 calculates the inclinations Si11 and Sj11 of the target plane viewed from the first multi-view stereo camera 11 by using all the pixels of the reference image taken by the camera 11. Is calculated and output. Similarly, 2
The third and third target plane tilt calculators 92 and 93 also calculate the tilts Si12 and Sj12 and Si13 and Sj13 of the target plane viewed from the second and third multi-view stereo cameras 12 and 13, respectively, with the respective cameras 12, The calculation and output are performed for all pixels of the reference image captured in step S13.

【0108】(2) ボクセルデータ生成部94、95、
96 3つの多眼ステレオ処理部61、62、63にそれぞれ
対応して3つのボクセルデータ生成部94、95、96
が設けられる。これらボクセルデータ生成部94、9
5、96の機能は互いに同じであるので、1番目のボク
セルデータ生成部94を代表的に説明する。
(2) Voxel data generators 94 and 95,
96 Three voxel data generating units 94, 95, 96 corresponding to the three multi-view stereo processing units 61, 62, 63, respectively.
Is provided. These voxel data generators 94 and 9
Since the functions of the fifth and 96 are the same, the first voxel data generator 94 will be described as a representative.

【0109】ボクセルデータ生成部94は、対応するボ
クセル座標生成部からボクセル座標(vx11,vy11,vz11)を
入力し、その値が(xout,yout,zout)でない場合は、その
ボクセル座標(vx11,vy11,vz11)についてのボクセルデー
タを蓄積する。蓄積するボクセルデータとしては、その
ボクセル座標(vx11,vy11,vz11)に対応する画素について
多眼ステレオデータ記憶部65内の一番目の記憶領域6
6から読み出された輝度Im1(i11,j11)と、1番目の対象
面傾き算出部91から出力された対象面の傾きSi11,Sj1
1の3種類の値であり、それら3種類の値をそれぞれVim
1(vx11,vy11,vz11)、Vsi1(vx11,vy11,vz11)、Vsj1(vx1
1,vy11,vz11)として蓄積する。
The voxel data generator 94 receives the voxel coordinates (vx11, vy11, vz11) from the corresponding voxel coordinate generator, and if the value is not (xout, yout, zout), the voxel coordinates (vx11, Voxel data for vy11, vz11) is stored. As the voxel data to be stored, the first storage area 6 in the multi-view stereo data storage unit 65 for the pixel corresponding to the voxel coordinates (vx11, vy11, vz11) is stored.
6 and the gradients Si11, Sj1 of the target surface output from the first target surface tilt calculator 91.
Vim
1 (vx11, vy11, vz11), Vsi1 (vx11, vy11, vz11), Vsj1 (vx1
1, vy11, vz11).

【0110】画素座標発生部64が処理対象の全ての画
素の座標(i11,j11)を発生し終わった後、ボクセルデー
タ生成部94は、全てのボクセル30、…、30につい
て蓄積したボクセルデータVim1(vx11,vy11,vz11)、Vsi1
(vx11,vy11,vz11)、Vsj1(vx11,vy11,vz11)を出力する。
After the pixel coordinate generator 64 has generated the coordinates (i11, j11) of all the pixels to be processed, the voxel data generator 94 stores the voxel data Vim1 stored for all the voxels 30,. (vx11, vy11, vz11), Vsi1
(vx11, vy11, vz11) and Vsj1 (vx11, vy11, vz11) are output.

【0111】同様にして、2番目及び3番目のボクセル
データ生成部95、96も、全てのボクセル30、…、
30について蓄積した、2番目及び3番目の多眼ステレ
オカメラ12、13からの撮影画像にそれぞれ基づくボ
クセルデータVim2(vx12,vy12,vz12)、Vsi2(vx12,vy12,v
z12)、Vsj2(vx12,vy12,vz12)及びVim3(vx13,vy13,vz1
3)、Vsi3(vx13,vy13,vz13)、Vsj3(vx13,vy13,vz13)をそ
れぞれ出力する。
Similarly, the second and third voxel data generating units 95 and 96 also execute the processing for all the voxels 30,.
The voxel data Vim2 (vx12, vy12, vz12) and Vsi2 (vx12, vy12, vv) based on the captured images from the second and third multi-view stereo cameras 12 and 13 accumulated for 30 respectively.
z12), Vsj2 (vx12, vy12, vz12) and Vim3 (vx13, vy13, vz1
3), Vsi3 (vx13, vy13, vz13) and Vsj3 (vx13, vy13, vz13) are output, respectively.

【0112】(3) 統合ボクセルデータ生成部97 統合ボクセルデータ生成部97は、3つのボクセルデー
タ生成部94、95、96からのボクセルデータVim1(v
x11,vy11,vz11)、Vsi1(vx11,vy11,vz11)、Vsj1(vx11,vy
11,vz11)及びVim2(vx12,vy12,vz12)、Vsi2(vx12,vy12,v
z12)、Vsj2(vx12,vy12,vz12)及びVim3(vx13,vy13,vz1
3)、Vsi3(vx13,vy13,vz13)、Vsj3(vx13,vy13,vz13)を各
ボクセル30毎に蓄積して統合することにより、各ボク
セルの統合輝度Vim(vx14,vy14,vz14)を求める。
(3) Integrated Voxel Data Generation Unit 97 The integrated voxel data generation unit 97 outputs the voxel data Vim1 (v) from the three voxel data generation units 94, 95, and 96.
x11, vy11, vz11), Vsi1 (vx11, vy11, vz11), Vsj1 (vx11, vy
11, vz11) and Vim2 (vx12, vy12, vz12), Vsi2 (vx12, vy12, v
z12), Vsj2 (vx12, vy12, vz12) and Vim3 (vx13, vy13, vz1
3), Vsi3 (vx13, vy13, vz13) and Vsj3 (vx13, vy13, vz13) are accumulated and integrated for each voxel 30, thereby obtaining an integrated luminance Vim (vx14, vy14, vz14) of each voxel.

【0113】統合方法としては、下記のようなものがあ
る。ここでは、対象面の傾きが小さいほど多眼ステレオ
データの信頼性が高いことを前提として処理する。
As an integration method, there is the following method. Here, the processing is performed on the assumption that the reliability of the multi-view stereo data is higher as the inclination of the target surface is smaller.

【0114】A. 複数のボクセルデータが蓄積されて
いるボクセルの場合 蓄積された各傾きのi方向成分Vsi1(vx11,vy11,vz1
1)とj方向成分Vsj1(vx11,vy11,vz11)の二乗和を求め、
その二乗和が最も小さい傾きに対応する輝度を統合輝度
Vim(vx14,vy14,vz14)とする。この場合、上記最も小さ
い二乗和の値が所定値より大きい場合には、そのボクセ
ルにはデータがないとして、例えば統合輝度Vim(vx14,v
y14,vz14)=0としても良い。
A. In the case of a voxel in which a plurality of voxel data are accumulated, the i-direction component Vsi1 (vx11, vy11, vz1
1) and the sum of squares of the j-direction component Vsj1 (vx11, vy11, vz11),
The brightness corresponding to the gradient with the smallest sum of squares is integrated brightness.
Vim (vx14, vy14, vz14). In this case, when the value of the smallest sum of squares is larger than a predetermined value, it is determined that the voxel has no data, and for example, the integrated luminance Vim (vx14, v
(y14, vz14) = 0.

【0115】 或いは、蓄積された複数の傾きのi成
分の平均値と、j成分の平均値とを求め、そのi成分とj
成分の平均値を中心とした所定範囲内に入る傾きだけを
抽出し、その抽出した傾きに対応する輝度を抽出し、そ
の抽出した輝度の平均値を統合輝度Vim(vx14,vy14,vz1
4)とする。
Alternatively, the average value of the accumulated i-components and the average value of the j-components of the plurality of gradients are obtained, and the i-component and j
Only the slope that falls within a predetermined range centered on the average value of the components is extracted, the brightness corresponding to the extracted slope is extracted, and the average value of the extracted brightness is integrated brightness Vim (vx14, vy14, vz1
4).

【0116】B. 1個のボクセルデータのみが蓄積さ
れているボクセルの場合 蓄積されている1個の輝度をそのまま統合輝度Vim
(vx14,vy14,vz14)とする。この場合、蓄積されている1
個の傾きのi成分とj成分の二乗和が所定値以上の場合
は、そのボクセルにはデータがないとして、例えば統合
輝度Vim(vx14,vy14,vz14)=0としても良い。
B. In the case of a voxel in which only one voxel data is stored, the stored one brightness is used as the integrated brightness Vim
(vx14, vy14, vz14). In this case, the stored 1
If the sum of squares of the i component and the j component of the number of inclinations is equal to or greater than a predetermined value, there is no data in the voxel, and for example, the integrated luminance Vim (vx14, vy14, vz14) = 0 may be set.

【0117】C. ボクセルデータが蓄積されていない
ボクセルの場合 そのボクセルにはデータがないとして、例えば統合
輝度Vim(vx14,vy14,vz14)=0とする。
C. In the case of a voxel in which voxel data is not stored, it is assumed that the voxel has no data, and for example, the integrated luminance Vim (vx14, vy14, vz14) = 0.

【0118】このようにして統合ボクセルデータ生成部
97は、全てのボクセルの統合輝度Vim(vx14,vy14,vz1
4)を計算して、モデリング部78へ送る。モデリング部
78の処理は、図10を参照して既に説明した通りであ
る。
In this way, the integrated voxel data generation unit 97 sets the integrated luminance Vim (vx14, vy14, vz1
4) is calculated and sent to the modeling unit 78. The processing of the modeling unit 78 is as described above with reference to FIG.

【0119】図12は、図9及び図10に示した演算装
置18と置き替えることのできる第3の演算装置300
の構成を示す。
FIG. 12 shows a third arithmetic unit 300 which can be replaced with the arithmetic unit 18 shown in FIGS. 9 and 10.
Is shown.

【0120】図12に示す演算装置300は、図10や
図11に示した演算装置18や200と比較して、ボク
セルデータを作成する処理手順において次のように異な
る。すなわち、図10や図11に示した演算装置18や
200は、多眼ステレオ処理部の出力画像内をスキャン
して、その画像内の各画素毎に、対応するボクセル30
を空間20から見つけてボクセルデータを割り当ててい
く。図12に示す演算装置300は、これとは逆に、ま
ず空間20をスキャンして、空間20内の各ボクセル3
0毎に、対応するステレオデータを多眼ステレオ処理部
の出力画像から見つけて各ボクセルに割り当てていく。
Arithmetic unit 300 shown in FIG. 12 differs from arithmetic units 18 and 200 shown in FIGS. 10 and 11 in the processing procedure for creating voxel data as follows. That is, the arithmetic units 18 and 200 shown in FIGS. 10 and 11 scan the output image of the multi-view stereo processing unit, and for each pixel in the image, the corresponding voxel 30
Is found from the space 20 and voxel data is allocated. On the contrary, the arithmetic unit 300 shown in FIG. 12 scans the space 20 first, and
For each 0, corresponding stereo data is found from the output image of the multi-view stereo processing unit and assigned to each voxel.

【0121】図12に示す演算装置300は、多眼ステ
レオ処理部61、62、63、ボクセル座標成部10
1、画素座標生成部111、112、113、距離生成
部114、多眼ステレオデータ記憶部115、距離一致
検出部121、122、123、ボクセルデータ生成部
124、125、126、統合ボクセルデータ生成部1
27及びモデリング部78を有する。このうち、多眼ス
テレオ処理部61、62、63とモデリング部78は、
既に説明した図10に示す演算装置18がもつ同じ参照
番号の処理部と全く同じ機能をもつ。その他の処理部の
機能は、図10に示した演算装置18とは異なる。以
下、この相違する部分について説明する。以下の説明で
は、各ボクセル30の位置を表す座標を(vx24,vy24,vz2
4)とする。
The arithmetic unit 300 shown in FIG. 12 includes a multi-view stereo processing unit 61, 62, 63, a voxel coordinate forming unit 10
1. Pixel coordinate generation units 111, 112, 113, distance generation unit 114, multi-view stereo data storage unit 115, distance coincidence detection units 121, 122, 123, voxel data generation units 124, 125, 126, integrated voxel data generation unit 1
27 and a modeling unit 78. Among them, the multi-view stereo processing units 61, 62, 63 and the modeling unit 78
It has exactly the same function as the processing unit with the same reference number of the arithmetic unit 18 shown in FIG. 10 already described. Other functions of the processing unit are different from those of the arithmetic unit 18 shown in FIG. Hereinafter, the difference will be described. In the following description, the coordinates representing the position of each voxel 30 are (vx24, vy24, vz2
4).

【0122】(1) ボクセル座標生成部101 空間20内の全ボクセル30、…、30の各々の座標(v
x24,vy24,vz24)を順々に出力する。
(1) Voxel coordinate generation unit 101 The coordinates (v
x24, vy24, vz24) in order.

【0123】(2) 画素座標生成部111、112、1
13 3つの多眼ステレオ処理部61、62、63にそれぞれ
対応して3つの画素座標生成部111、112、113
が設けられる。これら画素座標生成部111、112、
113の機能は互いに同じであるので、1番目の画素座
標生成部111を代表的に説明する。
(2) Pixel coordinate generation units 111, 112, 1
13 Three pixel coordinate generation units 111, 112, 113 corresponding to the three multi-view stereo processing units 61, 62, 63, respectively.
Is provided. These pixel coordinate generation units 111, 112,
Since the functions of the 113 are the same, the first pixel coordinate generation unit 111 will be representatively described.

【0124】1番目の画素座標生成部111は、ボクセ
ル座標(vx24,vy24,vz24)を入力し、それに対応する1番
目の多眼ステレオ処理部61の出力画像の画素座標(i2
1,j21)を出力する。なお、ボクセル座標(vx24,vy24,vz2
4)と画素座標(i21,j21)の関係は、毎回、多眼ステレオ
カメラ11の取付位置情報およびレンズ歪み情報などを
使用して算出しても良いし、或いは、あらかじめ全ての
ボクセル座標(vx24,vy24,vz24)について画素座標(i21,j
21)との関係を算出してルックアップテーブル等の形式
で記憶しておき、その記憶から呼び出しても良い。
The first pixel coordinate generation unit 111 receives the voxel coordinates (vx24, vy24, vz24) and inputs the corresponding pixel coordinates (i2) of the output image of the first multi-view stereo processing unit 61.
1, j21) is output. Note that voxel coordinates (vx24, vy24, vz2
The relationship between 4) and the pixel coordinates (i21, j21) may be calculated each time using the mounting position information and the lens distortion information of the multi-view stereo camera 11, or may be calculated in advance for all voxel coordinates (vx24 , vy24, vz24) at the pixel coordinates (i21, j
21) may be calculated and stored in the form of a look-up table or the like, and may be called from the storage.

【0125】同様に、2番目と3番目の画素座標生成部
112、113も、ボクセル座標(vx24,vy24,vz24)に対
応する2番目と3番目の多眼ステレオシステム62、6
3の出力画像の座標(i22,j22)と(i23,j23)をそれぞれ出
力する。
Similarly, the second and third pixel coordinate generators 112 and 113 also perform the second and third multi-view stereo systems 62 and 6 corresponding to the voxel coordinates (vx24, vy24, vz24).
Output the coordinates (i22, j22) and (i23, j23) of the output image of No. 3 respectively.

【0126】(4) 距離生成部114 距離生成部114は、ボクセル座標(vx24,vy24,vz24)を
入力し、それに対応するボクセルと1番目、2番目及び
3番目の多眼ステレオカメラ11、12、13の各々と
の間の距離Dvc21,Dvc22,Dvc23を出力する。なお、各距
離Dvc21,Dvc22,Dvc23は、各多眼ステレオカメラ11、
12、13の取付位置情報およびレンズ歪み情報などを
使用して算出する。
(4) Distance Generation Unit 114 The distance generation unit 114 inputs the voxel coordinates (vx24, vy24, vz24), and the corresponding voxel and the first, second, and third multi-view stereo cameras 11, 12. , 13 are output as distances Dvc21, Dvc22, and Dvc23. In addition, each distance Dvc21, Dvc22, Dvc23 is each multi-view stereo camera 11,
The calculation is performed using the mounting position information and lens distortion information of 12, 13.

【0127】(5) 多眼ステレオデータ記憶部115 多眼ステレオデータ記憶部115は、3つの多眼ステレ
オ処理部61、62、63に対応する記憶領域116、
117、118を有し、3つの多眼ステレオ処理部6
1、62、63からステレオ処理後の画像(輝度画像Im
1,Im2,Im3、距離画像D1,D2,D3、信頼度画像Re1,Re2,Re
3)を入力し、これらの入力画像を対応する記憶領域1
16、117、118に蓄積する。例えば、1番目の多
眼ステレオ処理部61からの輝度画像Im1、距離画像D1
及び信頼度画像Re1は1番目の記憶領域116に蓄積す
る。
(5) Multiview Stereo Data Storage Unit 115 The multiview stereo data storage unit 115 has storage areas 116 corresponding to the three multiview stereo processing units 61, 62, and 63,
117, 118, and three multi-view stereo processing units 6
From 1, 62 and 63, the image after the stereo processing (the luminance image Im
1, Im2, Im3, range image D1, D2, D3, reliability image Re1, Re2, Re
3), and store these input images in the corresponding storage area 1
16, 117 and 118. For example, the luminance image Im1 and the distance image D1 from the first multi-view stereo processing unit 61
The reliability image Re1 is stored in the first storage area 116.

【0128】続いて、多眼ステレオデータ記憶部115
は、3つの画素座標生成部111、112、113から
画素座標(i21,j21)、(i22,j22)、(i23,j23)を入力し、
3つの画素座標生成部111、112、113にそれぞ
れ対応する記憶領域116、117、118から、入力
した画素座標(i21,j21)、(i22,j22)、(i23,j23)にそれ
ぞれ対応する画素のステレオデータ(輝度、距離、信頼
度)を読み出して出力する。例えば、1番目の画素座標
生成部111から入力した画素座標(i21,j21)に対して
は、蓄積してある1番目の多眼ステレオ処理部61の輝
度画像Im1、距離画像D1及び信頼度画像Re1中から、その
入力画素座標(i21,j21)に対応する画素の輝度Im1(i21,j
21)、距離D1(i21,j21)及び信頼度Re1(i21,j21)を読み出
して出力する。
Subsequently, the multi-view stereo data storage unit 115
Inputs pixel coordinates (i21, j21), (i22, j22), and (i23, j23) from three pixel coordinate generation units 111, 112, and 113,
Pixels corresponding to the input pixel coordinates (i21, j21), (i22, j22), and (i23, j23) from the storage areas 116, 117, and 118 respectively corresponding to the three pixel coordinate generation units 111, 112, and 113. And outputs the stereo data (luminance, distance, reliability). For example, for the pixel coordinates (i21, j21) input from the first pixel coordinate generation unit 111, the accumulated luminance image Im1, distance image D1, and reliability image of the first multi-view stereo processing unit 61 are stored. From Re1, the luminance Im1 (i21, j) of the pixel corresponding to the input pixel coordinates (i21, j21)
21), the distance D1 (i21, j21) and the reliability Re1 (i21, j21) are read and output.

【0129】なお、入力される画素座標(i21,j21)、(i2
2,j22)、(i23,j23)はボクセル座標から計算で求めた実
数データであるが、これに対し、多眼ステレオデータ記
憶部115内に記憶されている画像の画素座標(つま
り、メモリアドレス)は整数である。そこで、多眼ステ
レオデータ記憶部115は、入力した画素座標(i21,j2
1)、(i22,j22)、(i23,j23)の小数点以下を切り捨てて整
数の画素座標に変換するか、あるいは、入力した画素座
標(i21,j21)、(i22,j22)、(i23,j23)各々の付近にある
整数の画素座標を複数選択し、その複数の整数画素座標
のステレオデータを読み出して補間し、その補間結果を
入力画素座標に対するステレオデータとして出力しても
良い。
The input pixel coordinates (i21, j21), (i2
(2, j22) and (i23, j23) are real number data obtained by calculation from voxel coordinates, whereas pixel coordinates of an image stored in the multi-view stereo data storage unit 115 (that is, memory addresses ) Is an integer. Therefore, the multi-view stereo data storage unit 115 stores the input pixel coordinates (i21, j2
(1), (i22, j22), (i23, j23) is converted to integer pixel coordinates by rounding down the decimal point, or input pixel coordinates (i21, j21), (i22, j22), (i23, j23) A plurality of integer pixel coordinates near each may be selected, stereo data of the plurality of integer pixel coordinates may be read and interpolated, and the interpolation result may be output as stereo data for the input pixel coordinates.

【0130】(6) 距離一致検出部121、122、1
23 3つの多眼ステレオ処理部61、62、63にそれぞれ
対応して3つの距離一致検出部121、122、123
が設けられる。これら距離一致検出部121、122、
123の機能は互いに同じであるので、1番目の距離一
致検出部121を代表的に説明する。
(6) Distance coincidence detecting sections 121, 122, 1
23 three distance match detection units 121, 122, 123 corresponding to the three multi-view stereo processing units 61, 62, 63, respectively.
Is provided. These distance match detection units 121, 122,
Since the functions of 123 are the same as each other, the first distance match detection unit 121 will be described as a representative.

【0131】1番目の距離一致検出部121は、多眼ス
テレオデータ記憶部115から出力された1番目の多眼
ステレオ処理部61により測定された距離D1(i21,j21)
と、距離生成部114から出力されたボクセル座標(vx2
4,vy24,vz24)に対応する距離Dvc1とを比較する。対象物
10の外表面がそのボクセル中に存在する場合には、D1
(i21,j21)とDvc21が一致する筈である。そこで、距離一
致検出部121は、D1(i21,j21)とDvc21の差の絶対値が
所定値以下である場合には、対象物10の外表面が当該
ボクセル中に存在すると判定して判定値Ma21=1を出力
し、D1(i21,j21)とDvc21の差の絶対値が所定値より大き
い場合には、対象物10の外表面がそのボクセル中は存
在しないと判定して判定値Ma21=0を出力する。
The first distance match detecting section 121 outputs the distance D1 (i21, j21) measured by the first multi-view stereo processing section 61 output from the multi-view stereo data storage section 115.
And the voxel coordinates (vx2
4, vy24, vz24) is compared with the distance Dvc1. If the outer surface of the object 10 is in the voxel, D1
(i21, j21) should match Dvc21. Therefore, when the absolute value of the difference between D1 (i21, j21) and Dvc21 is equal to or smaller than a predetermined value, the distance match detection unit 121 determines that the outer surface of the object 10 exists in the voxel and determines the determination value. Ma21 = 1 is output, and when the absolute value of the difference between D1 (i21, j21) and Dvc21 is larger than a predetermined value, it is determined that the outer surface of the object 10 does not exist in the voxel, and the determination value Ma21 = Outputs 0.

【0132】同様に、2番目と3番目の距離一致検出部
122、123も、2番目と3番目の多眼ステレオ処理
部62、63による測定距離D2(i22,j22)、D3(i23,j23)
にそれぞれ基づいて、該ボクセルに対象物10の外表面
が存在するか否かを判定して、判定値Ma22およびMa23を
それぞれ出力する。
Similarly, the second and third distance coincidence detecting sections 122 and 123 measure the distances D2 (i22, j22) and D3 (i23, j23) measured by the second and third multi-view stereo processing sections 62 and 63, respectively. )
, And determines whether or not the outer surface of the object 10 exists in the voxel, and outputs determination values Ma22 and Ma23, respectively.

【0133】(7) ボクセルデータ生成部124、12
5、126 3つの多眼ステレオ処理部61、62、63にそれぞれ
対応して3つのボクセルデータ生成部124、125、
126が設けられる。これらボクセルデータ生成部12
4、125、126の機能は互いに同じであるので、1
番目のボクセルデータ生成部124を代表的に説明す
る。
(7) Voxel data generators 124 and 12
5, 126 Three voxel data generators 124, 125, corresponding to the three multi-view stereo processors 61, 62, 63, respectively.
126 are provided. These voxel data generators 12
Since the functions of 4, 125 and 126 are the same as each other, 1
The voxel data generation unit 124 will be described as a representative.

【0134】1番目のボクセルデータ生成部124は、
1番目の距離一致検出部からの判定値Ma21をチェック
し、Ma21が1であれば(つまり、ボクセル座標(vx24,vy2
4,vz24)のボクセル中に対象物10の外表面が存在する
場合には)、当該ボクセルについて多眼ステレオ記憶部
115の1番目の記憶領域116から出力されたデータ
を、当該ボクセルのボクセルデータとして蓄積する。蓄
積するボクセルデータは、そのボクセル座標(vx24,vy2
4,vz24)に対応する画素座標(i21,j21)の輝度Im1(i21,j2
1)および信頼度Re1(i21,j21)であり、それぞれボクセル
輝度Vim1(vx24,vy24,vz24)およびボクセル信頼度Vre1(v
x24,vy24,vz24)として蓄積する。
The first voxel data generation unit 124
The judgment value Ma21 from the first distance match detection unit is checked, and if Ma21 is 1, the voxel coordinates (vx24, vy2
4, vz24), when the outer surface of the object 10 is present in the voxel), the data output from the first storage area 116 of the multi-view stereo storage unit 115 for the voxel is used as the voxel data of the voxel. Accumulate as The voxel data to be stored is the voxel coordinates (vx24, vy2
4, vz24) at the pixel coordinates (i21, j21) at the luminance Im1 (i21, j2).
1) and the reliability Re1 (i21, j21), and the voxel luminance Vim1 (vx24, vy24, vz24) and the voxel reliability Vre1 (v
x24, vy24, vz24).

【0135】ボクセル座標発生部101が処理すべき全
てのボクセル30、…、30のボクセル座標を発生した
後、ボクセルデータ生成部124は、全てのボクセル3
0、…、30の各々について蓄積されたボクセルデータ
Vim1(vx24,vy24,vz24)、Vre1(vx24,vy24,vz24)を出力す
る。個々のボクセルについて蓄積されたボクセルデータ
の個数は同じではなく、ボクセルデータが蓄積されない
ボクセルもある。
After the voxel coordinate generating section 101 has generated the voxel coordinates of all the voxels 30,..., 30 to be processed, the voxel data generating section 124 generates all the voxel 3
Voxel data accumulated for each of 0, ..., 30
Vim1 (vx24, vy24, vz24) and Vre1 (vx24, vy24, vz24) are output. The number of voxel data stored for each voxel is not the same, and some voxels do not store voxel data.

【0136】同様に、2番目と3番目のボクセルデータ
生成部125、126も、全てのボクセル30、…、3
0の各々について、2番目と3番目のステレオ処理部6
2、63の出力にそれぞれ基づくボクセルデータVim2(v
x24,vy24,vz24)、Vre2(vx24,vy24,vz24)およびVim3(vx2
4,vy24,vz24)、Vre3(vx24,vy24,vz24)を蓄積し、出力す
る。
Similarly, the second and third voxel data generators 125 and 126 also output all voxels 30,.
0 and the second and third stereo processing units 6
Voxel data Vim2 (v
x24, vy24, vz24), Vre2 (vx24, vy24, vz24) and Vim3 (vx2
4, vy24, vz24) and Vre3 (vx24, vy24, vz24) are accumulated and output.

【0137】(8) 統合ボクセルデータ生成部127 統合ボクセルデータ生成部127は、3つのボクセルデ
ータ生成部124、125、126からのボクセルデー
タを各ボクセル毎に統合することにより、各ボクセルの
統合輝度Vim(vx24,vy24,vz24)を求める。
(8) Integrated Voxel Data Generation Unit 127 The integrated voxel data generation unit 127 integrates the voxel data from the three voxel data generation units 124, 125, and 126 for each voxel, thereby obtaining the integrated luminance of each voxel. Find Vim (vx24, vy24, vz24).

【0138】統合方法としては、下記のようなものがあ
る。
The following integration methods are available.

【0139】A. 複数のボクセルデータが蓄積されて
いるボクセルの場合 蓄積された複数の輝度の平均を統合輝度Vim(vx24,v
y24,vz24)とする。この場合、複数の輝度の分散値を求
め、その分散値が所定値以上であった場合には、そのボ
クセルにはデータがないとして、たとえばVim(vx24,vy2
4,vz24)=0としてもよい。
A. In the case of a voxel in which multiple voxel data are stored, the average of the stored multiple brightnesses is integrated into the integrated brightness Vim (vx24, v
y24, vz24). In this case, a variance value of a plurality of luminances is obtained, and if the variance value is equal to or greater than a predetermined value, it is determined that there is no data in the voxel, and for example, Vim (vx24,
4, vz24) = 0.

【0140】 或いは、蓄積された複数の信頼度の中
で最も高いものを選び、その最も高い信頼度に対応する
輝度を統合輝度Vim(vx24,vy24,vz24)とする。この場
合、その最も高い信頼度が所定値以下の場合、そのボク
セルにはデータがないとして、たとえばVim(vx24,vy24,
vz24)=0としてもよい。
Alternatively, the highest one of the plurality of accumulated reliability values is selected, and the luminance corresponding to the highest reliability is set as the integrated luminance Vim (vx24, vy24, vz24). In this case, if the highest reliability is equal to or less than a predetermined value, it is determined that the voxel has no data, for example, Vim (vx24, vy24,
vz24) = 0.

【0141】 或いは、蓄積された信頼度から重み係
数を決め、蓄積された複数の輝度にそれぞれに対応する
重み係数を掛けて平均化した値を統合輝度Vim(vx24,vy2
4,vz24)とする。
Alternatively, a weight coefficient is determined from the accumulated reliability, and a value obtained by multiplying the accumulated luminance by a corresponding weight coefficient and averaging the integrated luminance Vim (vx24, vy2
4, vz24).

【0142】B. ボクセルデータが1個のみ蓄積され
ているボクセルの場合 その輝度を統合輝度Vim(vx24,vy24,vz24)とする。
その場合、信頼度が所定値以下の場合、そのボクセルに
はデータがないとして、たとえばVim(vx24,vy24,vz24)=
0としてもよい。
B. In the case of a voxel in which only one voxel data is stored, the luminance is set as an integrated luminance Vim (vx24, vy24, vz24).
In that case, if the reliability is equal to or less than a predetermined value, it is assumed that the voxel has no data, and for example, Vim (vx24, vy24, vz24) =
It may be set to 0.

【0143】C. ボクセルデータが蓄積されていない
ボクセルの場合 そのボクセルにはデータがないとして、たとえばVi
m(vx24,vy24,vz24)=0とする。
C. In the case of a voxel that does not store voxel data, it is assumed that the voxel has no data.
m (vx24, vy24, vz24) = 0.

【0144】このようにして統合ボクセルデータ生成部
127は、全てのボクセルの統合輝度Vim(vx24,vy24,vz
24)を計算して、モデリング部78へ送る。モデリング
部78の処理は、図10を参照して既に説明した通りで
ある。
As described above, the integrated voxel data generation unit 127 outputs the integrated luminance Vim (vx24, vy24, vz
24) is calculated and sent to the modeling unit 78. The processing of the modeling unit 78 is as described above with reference to FIG.

【0145】ところで、図10の演算装置18と図11
の演算装置200との違いと同様に、図12の演算装置
300においても、対象面の傾き算出部を追加して、統
合輝度を生成する際に信頼度の代わりに対象面の傾きを
使用することも可能である。
By the way, the arithmetic unit 18 in FIG.
Similar to the difference from the arithmetic device 200, the arithmetic device 300 of FIG. 12 also includes a target surface inclination calculator, and uses the target surface inclination instead of the reliability when generating the integrated luminance. It is also possible.

【0146】図13は、図9及び図10に示した演算装
置18と置き替えることのできる第4の演算装置400
の構成を示す。
FIG. 13 shows a fourth arithmetic unit 400 which can be replaced with the arithmetic unit 18 shown in FIGS. 9 and 10.
Is shown.

【0147】図13に示す演算装置400は、図10に
示した演算装置18の構成と、図12に示した演算装置
300の構成とを組み合わせて、それぞれの構成の長所
を活かして互いの短所を埋めるようにしたものである。
すなわち、図12の演算装置300の構成によると、ボ
クセル座標(vx24,vy24,vz24)の3軸の座標を変化させ
て処理を行うので、精細な3次元モデルを作るためにボ
クセルサイズを小さくしてボクセル数を増やすと計算量
が膨大になるという問題がある。一方、図10の演算装
置18の構成によると、画素座標(i11,j11)の2軸の座
標を変化させればよいため図12の演算装置300と比
較して計算量は少ないが、精細な3次元モデルを得よう
としてボクセル数を増やしても、ボクセルデータが与え
られるボクセル数が画素数によって限定されているた
め、ボクセルデータが与えられるボクセル間に隙間が空
いてしまい、精細な3次元モデルが得られないという問
題がある。
The arithmetic device 400 shown in FIG. 13 combines the configuration of the arithmetic device 18 shown in FIG. 10 with the configuration of the arithmetic device 300 shown in FIG. Is to be filled.
That is, according to the configuration of the arithmetic unit 300 in FIG. 12, since the processing is performed by changing the coordinates of the three axes of the voxel coordinates (vx24, vy24, vz24), the voxel size is reduced in order to create a fine three-dimensional model. Therefore, when the number of voxels is increased, the amount of calculation becomes enormous. On the other hand, according to the configuration of the arithmetic unit 18 in FIG. 10, the coordinates of the two axes of the pixel coordinates (i11, j11) need only be changed, so that the amount of calculation is smaller than that of the arithmetic unit 300 in FIG. Even if the number of voxels is increased in order to obtain a three-dimensional model, since the number of voxels to which voxel data is given is limited by the number of pixels, there is a gap between voxels to which voxel data is given, and a fine three-dimensional model There is a problem that can not be obtained.

【0148】そこで、上記の問題を解消するために、図
13に示す演算装置400は、まず少ない数の粗大なボ
クセルを設定して図10の演算装置18と同様の画素指
向型の演算処理を行って、粗大ボクセルについての統合
輝度Vim11(vx15,vy15,vz15)を求める。次に、粗大ボク
セルの統合輝度Vim11(vx15,vy15,vz15)に基づいて、対
象物10の外表面が存在すると判断される統合輝度をも
った粗大ボクセルに関し、その粗大ボクセルの領域をよ
り小さな領域をもった精細なボクセルに分割し、その分
割した精細ボクセルに関してのみ図12の演算装置30
0のようなボクセル指向型の演算処理を行う。
Therefore, in order to solve the above problem, the arithmetic unit 400 shown in FIG. 13 first sets a small number of coarse voxels and performs the same pixel-oriented arithmetic processing as the arithmetic unit 18 in FIG. Then, an integrated luminance Vim11 (vx15, vy15, vz15) for the coarse voxel is obtained. Next, based on the integrated luminance Vim11 (vx15, vy15, vz15) of the coarse voxel, regarding the coarse voxel having the integrated luminance in which the outer surface of the object 10 is determined to be present, the area of the coarse voxel is reduced to a smaller area. Are divided into fine voxels having the symbol v, and only the divided fine voxels shown in FIG.
A voxel-oriented operation such as 0 is performed.

【0149】すなわち、図13に示す演算装置400
は、既に説明したものと同構成の多眼ステレオ処理部6
1、62、63の下流に、画素座標生成部131、画素
指向型演算部132、ボクセル座標生成部133、ボク
セル指向型演算部134、及び既に説明したものと同構
成のモデリング部78を備える。
That is, the arithmetic unit 400 shown in FIG.
Is a multi-view stereo processing unit 6 having the same configuration as that already described.
Downstream of 1, 62, and 63, there are provided a pixel coordinate generation unit 131, a pixel-oriented operation unit 132, a voxel coordinate generation unit 133, a voxel-oriented operation unit 134, and a modeling unit 78 having the same configuration as that already described.

【0150】画素座標生成部131と画素指向型演算部
132は、図10に示した演算装置18の部分79(画
素座標生成部64、多眼ステレオデータ記憶部65、ボ
クセル座標生成部71、72、73、ボクセルデータ生
成部74、75、76及び統合ボクセルデータ生成部7
7)と実質的に同一の構成である。すなわち、画素座標
生成部131は、図10に示した画素座標生成部64と
同様に、多眼ステレオ処理部61、62、63の出力画
像の全域又は処理すべき部分域の全画素をスキャンし
て、各画素の座標(i15,j15)を順次に出力する。画素指
向型演算部132は、各画素座標(i15,j15)と、その画
素座標(i15,j15)に対する距離とに基づき、空間20を
予め粗く分割して設定してある粗大ボクセルの座標(vx1
5,vy15,vz15)を求め、その粗大ボクセル座標(vx15,vy1
5,vz15)に対する統合輝度Vim11(vx15,vy15,vz15)を図1
0の演算装置18と同様の方法で求めて出力する。な
お、ここでの統合輝度Vim11(vx15,vy15,vz15)を求める
方法には、既に説明したような方法に代えて、Vim11(vx
15,vy15,vz15)がゼロか否か(つまり、その粗大ボクセ
ルに対象物10の外表面が存在するか否か)を区別する
だけの簡単な方法を用いてよい。
The pixel coordinate generation section 131 and the pixel-oriented operation section 132 are composed of the portion 79 (pixel coordinate generation section 64, multi-view stereo data storage section 65, voxel coordinate generation sections 71 and 72) of the arithmetic unit 18 shown in FIG. , 73, voxel data generators 74, 75, 76 and integrated voxel data generator 7
The configuration is substantially the same as 7). That is, the pixel coordinate generation unit 131 scans all pixels of the output image of the multi-view stereo processing units 61, 62, and 63 or all pixels of a partial region to be processed, similarly to the pixel coordinate generation unit 64 illustrated in FIG. Then, the coordinates (i15, j15) of each pixel are sequentially output. The pixel-oriented operation unit 132 calculates the coordinates (vx1) of the large voxel which is set by roughly dividing the space 20 based on each pixel coordinate (i15, j15) and the distance to the pixel coordinate (i15, j15).
5, vy15, vz15) and its coarse voxel coordinates (vx15, vy1
5, the integrated luminance Vim11 (vx15, vy15, vz15) for FIG.
It is obtained and output in the same manner as the arithmetic unit 18 of 0. Note that the method of obtaining the integrated luminance Vim11 (vx15, vy15, vz15) here is different from the method described above in that Vim11 (vx15
15, vy15, vz15) may be used as a simple method of distinguishing whether or not the coarse voxel has the outer surface of the object 10 or not.

【0151】ボクセル座標生成部133は、各粗大ボク
セル座標(vx15,vy15,vz15)の統合輝度Vim11(vx15,vy15,
vz15)を入力して、その統合輝度Vim11(vx15,vy15,vz15)
がゼロでない(つまり、対象物10の外表面が存在する
と推定される)粗大ボクセルについてのみ、その粗大ボ
クセルを複数の精細ボクセルに分割して、各精細ボクセ
ルのボクセル座標(vx16,vy16,vz16)を順次に出力する。
The voxel coordinate generation unit 133 generates the integrated luminance Vim11 (vx15, vy15, vx15, vy15, vz15) of each coarse voxel coordinate (vx15, vy15, vz15).
vz15) and input its integrated brightness Vim11 (vx15, vy15, vz15)
Is not zero (that is, it is estimated that the outer surface of the object 10 exists), the coarse voxel is divided into a plurality of fine voxels, and the voxel coordinates (vx16, vy16, vz16) of each fine voxel are divided. Are sequentially output.

【0152】ボクセル指向型演算部134は、図12の
演算装置300の部分128(画素座標生成部111、
112、113、距離生成部114、多眼ステレオデー
タ記憶部115、距離一致検出部121、122、12
3、ボクセルデータ生成部124、125、126、及
び統合ボクセルデータ生成部127)と実質的に同一の
構成を有する。このボクセル指向型演算部134は、各
精細ボクセル座標(vx16,vy16,vz16)について、多眼ステ
レオ処理部61、62、63からの出力画像に基づいて
ボクセルデータを求め、それを統合して統合輝度Vim12
(vx16,vy16,vz16)を求めて出力する。
The voxel-oriented operation unit 134 is the same as the operation unit 300 shown in FIG.
112, 113, distance generation unit 114, multi-view stereo data storage unit 115, distance coincidence detection units 121, 122, 12
3, has substantially the same configuration as the voxel data generators 124, 125, 126 and the integrated voxel data generator 127). The voxel-oriented operation unit 134 obtains voxel data for each fine voxel coordinates (vx16, vy16, vz16) based on the output images from the multi-view stereo processing units 61, 62, 63, and integrates and integrates them. Brightness Vim12
(vx16, vy16, vz16) is calculated and output.

【0153】ボクセル指向型演算部134による精細な
ボクセルデータの生成処理は、対象物10の外表面が存
在すると推定されたボクセルのみに限定して行われるの
で、対象物10の外表面が存在しないボクセルに対する
無駄な処理が省かれ、その分だけ処理時間が低減され
る。
Since the processing for generating fine voxel data by the voxel-oriented operation unit 134 is performed only for voxels estimated to have the outer surface of the object 10, the outer surface of the object 10 does not exist. Useless processing for voxels is omitted, and processing time is reduced accordingly.

【0154】なお、上記の構成では、画素指向型演算部
132とボクセル指向型演算部134のそれぞそれが多
眼ステレオデータ記憶部をもつが、そうする代わりに、
1つの多眼ステレオデータ記憶部を画素指向型演算部1
32とボクセル指向型演算部134の双方が共用するよ
うに構成することもできる。
In the above configuration, each of the pixel-oriented operation unit 132 and the voxel-oriented operation unit 134 has a multi-view stereo data storage unit.
One multi-view stereo data storage unit is a pixel-oriented operation unit 1
32 and the voxel-oriented operation unit 134 may be configured to be shared.

【0155】ところで、上述した図10〜図13に示し
た演算装置18、200、300、400を構成する個
々の要素は、純粋なハードウェア回路によっても、コン
ピュータによって実行されるコンピュータプログラムに
よっても、また、両方を組み合わせた形でも実現するこ
とができる。純粋なハードウェア回路によって実現した
場合、非常に高速にモデリングが完了する。
By the way, the individual elements constituting the arithmetic units 18, 200, 300, and 400 shown in FIGS. 10 to 13 described above can be realized by either a pure hardware circuit or a computer program executed by a computer. Further, it can also be realized in a form in which both are combined. If it is realized by a pure hardware circuit, the modeling is completed very quickly.

【0156】図14は、本発明に従うバーチャル試着シ
ステムの第2の実施形態の全体構成を示す。
FIG. 14 shows the overall configuration of the second embodiment of the virtual fitting system according to the present invention.

【0157】図14に示すバーチャル試着システムは、
例えば百貨店や衣料品店やゲームセンタなどの店舗内で
バーチャル試着を行うのに適したものである。すなわ
ち、図9に示したものと同じ構成をもつステレオ撮影シ
ステム6が店舗内に設けられており、それに、図10に
示した構成をもつ演算装置18(又は図11〜図13に
示した演算装置200、300又は400)が接続され
ている。演算装置18には、コンピュータシステム19
が接続されている。コンピュータシステム19は、既に
説明したようなバーチャル試着用プログラムを有し、様
々な衣裳の3次元モデルを蓄積した衣裳データベース5
2を持ち、ステレオ撮影システム6内に入っているユー
ザ10が操作可能なコントローラ51を有し、さらに、
そのディスプレイ画面50は、ステレオ撮影システム6
内に入っているユーザ10が見れる位置に配置されてい
る。
The virtual fitting system shown in FIG.
For example, it is suitable for performing virtual fitting in a store such as a department store, a clothing store, or a game center. That is, a stereo imaging system 6 having the same configuration as that shown in FIG. 9 is provided in a store, and the arithmetic unit 18 (or the arithmetic unit shown in FIGS. 11 to 13) having the configuration shown in FIG. Devices 200, 300 or 400) are connected. The arithmetic unit 18 includes a computer system 19
Is connected. The computer system 19 has the virtual fitting program as described above, and stores the costume database 5 storing three-dimensional models of various costumes.
2 having a controller 51 that can be operated by the user 10 who is in the stereo shooting system 6,
The display screen 50 displays the stereo shooting system 6.
It is arranged at a position where the user 10 inside can be seen.

【0158】演算装置18は、ステレオ撮影システム6
からユーザ10の実写データを入力して、既に説明した
方法でユーザの標準全身モデルを作成し、その標準全身
モデルをコンピュータシステム50に出力する。演算装
置18はまた、標準全身モデルを外部出力する(例え
ば、CD−ROMなどの記録媒体に書き込んだり、通信
ネットワークへ送出する)こともできる)。コンピュー
タシステム19は、演算装置18から入力したユーザの
標準全身モデルと、衣裳データベース52内の様々な衣
裳の3次元モデルを用いて、バーチャル試着用プログラ
ムを実行して、そのディスプレイ画面50に、図4に示
したようなバーチャル試着ウィンドウ500を表示す
る。
[0158] The arithmetic unit 18 is the stereo imaging system 6
, A user's real body data is input, a standard whole body model of the user is created by the method already described, and the standard whole body model is output to the computer system 50. The arithmetic unit 18 can also output the standard whole-body model to the outside (for example, write it on a recording medium such as a CD-ROM or send it out to a communication network). The computer system 19 executes the virtual fitting program using the user's standard whole body model input from the arithmetic unit 18 and the three-dimensional models of various costumes in the costume database 52, and displays the virtual screen on the display screen 50 thereof. A virtual fitting window 500 as shown in FIG. 4 is displayed.

【0159】ユーザ10は、コントローラ51を操作し
て、着る衣裳を選んだり、バーチャル3次元空間内のバ
ーチャルカメラ40の位置や視線41やズーム倍率を変
更したりすることができる。さらに、既に説明したよう
に、演算装置18はユーザ10の動きに実時間又はそれ
に近い状態で追従して同様に変化していく多数の標準全
身モデルを次々と作成してコンピュータシステム19に
送り込むことができるので、ユーザ10がステレオ撮影
システム6内で自由にポーズをとったりモーションを行
えば、ディスプレイ画面50に表示されたバーチャル試
着ウィンドウ500内のユーザの3次元モデルも同じポ
ーズをとったりモーションを行うことになる。
By operating the controller 51, the user 10 can select a costume to be worn, and change the position of the virtual camera 40 in the virtual three-dimensional space, the line of sight 41, and the zoom magnification. Further, as described above, the arithmetic unit 18 creates a number of standard whole-body models that follow the movement of the user 10 in real time or in a state close thereto in a similar manner, and sends them to the computer system 19 one after another. If the user 10 freely poses and performs motion in the stereo shooting system 6, the user's three-dimensional model in the virtual fitting window 500 displayed on the display screen 50 can also perform the same pose and perform motion. become.

【0160】図15は、本発明に従うゲームシステムの
一実施形態の全体構成を示す。このゲームシステムは、
ユーザが任意の物品の3次元モデルデータをコンピュー
タゲームのバーチャル3次元空間に取り込んで遊ぶため
のものである。
FIG. 15 shows the overall configuration of an embodiment of the game system according to the present invention. This game system is
This is for a user to take in three-dimensional model data of an arbitrary article into a virtual three-dimensional space of a computer game and play.

【0161】図15に示すように、モデリングサーバ7
01、ゲームメーカやゲーム販売店などのゲームサプラ
イヤのコンピュータシステム(以下、「ゲームサプライ
ヤシステム」という)702、及びユーザのコンピュー
タシステム(例えば、パーソナルコンピュータやゲーム
コンピュータなどであり、以下、「ユーザシステム」と
いう)704が、インターネットのような通信ネットワ
ーク703を通じて通信可能に接続されている。ユーザ
システム704は、少なくとも一台の多眼ステレオカメ
ラ705と、ユーザが操作するコントローラ706と、
ディスプレイ装置707とを有している。ユーザシステ
ム704には、ゲームプログラムと、ステレオ撮影用プ
ログラムとが搭載されている。
As shown in FIG. 15, the modeling server 7
01, a computer system of a game supplier such as a game maker or a game store (hereinafter, referred to as a “game supplier system”) 702, and a computer system of a user (for example, a personal computer or a game computer, hereinafter referred to as a “user system”) ) Are communicably connected through a communication network 703 such as the Internet. The user system 704 includes at least one multi-view stereo camera 705, a controller 706 operated by a user,
And a display device 707. The user system 704 includes a game program and a stereo shooting program.

【0162】図16は、このゲームシステムの処理流れ
を示す。図15と図16を参照して、このゲームシステ
ムの動作を説明する。
FIG. 16 shows a processing flow of the game system. The operation of the game system will be described with reference to FIGS.

【0163】(1) 図16のステップS81に示すよ
うに、ユーザシステム704にて、まず、ステレオ撮影
用プログラムが実行される。そこで、ユーザは、ゲーム
プログラムで使用したいと思っている物品(例えば、自
動車レースゲームで使用したいと思う自分の自動車おも
ちゃ)709の静止画像を、多眼ステレオカメラ704
を用いて複数方向(例えば、前、後、左、右、上、下、
斜め上前、斜め上後など)からそれぞれ撮影する。この
とき、ステレオ撮影用プログラムは、ディスプレイ装置
707に例えば図17に示すような撮影ウィンドウ71
0を表示する。この撮影ウィンドウ710には、各方向
から撮影するときの手本を示した手本ウィンドウ711
と、ユーザが実際に撮影した結果を示す実写データウィ
ンドウ712と、多眼ステレオカメラ705から現在出
力されているビデオ画像を示すモニタウィンドウ713
と、「シャッター」ボタン714と「キャンセル」ボタ
ン715などが配置されている。ユーザは、モニタウィ
ンドウ713に表示されている画像が手本ウィンドウ7
11内の撮ろうとする方向の画像と同様の向きになるよ
うに多眼ステレオカメラ705と物品709の位置関係
を調整した上で、「シャッター」ボタン714を押せ
ば、その方向の物品709の静止画が撮影される。
(1) As shown in step S81 of FIG. 16, the user system 704 first executes a stereo photography program. Therefore, the user uses the multi-view stereo camera 704 to capture a still image of an article 709 desired to be used in the game program (for example, his / her car toy used in a car racing game).
Using multiple directions (e.g., front, back, left, right, up, down,
(Diagonally up front, back up, etc.). At this time, the stereo shooting program is displayed on the display device 707 by, for example, a shooting window 71 as shown in FIG.
Displays 0. An example window 711 showing an example when shooting from each direction is shown in the shooting window 710.
And a real image data window 712 showing the result of the user's actual shooting, and a monitor window 713 showing the video image currently output from the multi-view stereo camera 705.
, A "shutter" button 714, a "cancel" button 715, and the like. The user displays the image displayed on the monitor window 713 in the example window 7.
After adjusting the positional relationship between the multi-lens stereo camera 705 and the article 709 so as to be in the same direction as the image to be taken in 11, the user presses the “shutter” button 714 to stop the article 709 in that direction. The picture is taken.

【0164】(2) 全ての方向からの撮影が終わる
と、図16のステップS82に示すように、ユーザシス
テム704のステレオ撮影用プログラムは、モデリング
サーバ701に通信ネットワーク703を通じて接続し
て、物品709の実写データ(複数方向から撮影した静
止画)をモデリングサーバ701に送り、モデリングサ
ーバ701は、その実写データを受け取る(S92)。
また、このとき、ユーザシステム704のステレオ撮影
用プログラムは、モデリングサーバ701に対して、ユ
ーザが使用しようと思っているゲームプログラムの識別
情報(ゲームID)も通知する。
(2) When photographing from all directions is completed, the stereo photographing program of the user system 704 is connected to the modeling server 701 via the communication network 703 and the article 709 as shown in step S82 of FIG. Is transmitted to the modeling server 701, and the modeling server 701 receives the photographed data (S92).
At this time, the stereo shooting program of the user system 704 also notifies the modeling server 701 of the identification information (game ID) of the game program that the user intends to use.

【0165】(3) ステップS101及びS91に示
すように、モデリングサーバ701は、前もって、ゲー
ムサプライヤシステム702から、様々なゲームプログ
ラムについて、それぞれのプログラムで使用される3次
元モデルのデータフォーマットを表した情報を受信して
蓄積している。そして、モデリングサーバ701は、ユ
ーザシステム704から物品709の実写データとゲー
ムIDを受けると、ステップS93に示すように、受信
した実写データを用いて、受信したゲームIDのデータ
フォーマットで、その物品709の3次元モデルデータ
を作成する。3次元モデルデータの作り方は、基本的
に、図10〜図13を参照して説明した方法と同様であ
る。モデリングサーバ701は、作成した物品の3次元
モデルデータをユーザシステム704に送信し、ステッ
プS83に示すように、ユーザシステム704のステレ
オ撮影用プログラムがその3次元モデルデータを受信す
る。
(3) As shown in steps S101 and S91, the modeling server 701 previously expressed the data format of the three-dimensional model used in each of the various game programs from the game supplier system 702. Information is received and stored. Then, upon receiving the real image data and the game ID of the article 709 from the user system 704, the modeling server 701 uses the received real image data in the data format of the received game ID using the received real image data as shown in step S93. Is created. The method of creating three-dimensional model data is basically the same as the method described with reference to FIGS. The modeling server 701 transmits the created three-dimensional model data of the article to the user system 704, and the stereo shooting program of the user system 704 receives the three-dimensional model data as shown in step S83.

【0166】(4) ステップS83に示すように、ユ
ーザシステム704のステレオ撮影用プログラムは、受
信した3次元モデルデータを用いて、その3次元モデル
をいろいろな方向から見た2次元画像(例えば、その3
次元モデルを回転させながら全方向から見た動画像)を
レンダリングして、ディスプレイ装置707に表示す
る。ユーザはそれを見て、受信した3次元モデルデータ
に問題はないかチェックする。問題のないことが確認さ
れると、ステレオ撮影用プログラムは、受信した3次元
モデルデータを保存し、受領した旨をモデリングサーバ
701に通知する。
(4) As shown in step S83, the stereo shooting program of the user system 704 uses the received three-dimensional model data to generate a two-dimensional image of the three-dimensional model viewed from various directions (for example, Part 3
The moving image viewed from all directions while rotating the dimensional model is rendered and displayed on the display device 707. The user looks at it and checks whether there is any problem in the received three-dimensional model data. When it is confirmed that there is no problem, the stereoscopic imaging program saves the received three-dimensional model data, and notifies the modeling server 701 of the reception.

【0167】(5) ステップS94及びS95に示す
ように、モデリングサーバ701は、ユーザが3次元モ
デルデータを受領した旨を確認すると、ユーザから料金
を徴収するための課金処理を行い、請求書などの課金結
果データをユーザシステム704に送信し、ステップS
85に示すように、ユーザシステム704のステレオ撮
影用プログラムはその課金結果データを受信して表示す
る。
(5) As shown in steps S94 and S95, when the modeling server 701 confirms that the user has received the three-dimensional model data, the modeling server 701 performs a billing process for collecting a fee from the user, and executes a billing process. Is transmitted to the user system 704 in step S
As shown at 85, the stereo photography program of the user system 704 receives and displays the billing result data.

【0168】(6) こうして物品709の3次元モデ
ルデータの作成が完了すると、その後、ステップS86
で示すように、ユーザはユーザシステム704でゲーム
プログラムを実行し、そのゲームプログラムにおいて、
先ほど保存した物品709の3次元モデルデータを使用
する。例えば、図15のディスプレイ装置707に示し
たように、ユーザの自動車おもちゃ709の3次元モデ
ル708を用いて自動車レースゲームをプレイすること
ができる。
(6) When the creation of the three-dimensional model data of the article 709 is completed in this way, then, in step S86
As shown by, the user executes a game program on the user system 704, and in the game program,
The three-dimensional model data of the article 709 saved earlier is used. For example, as shown in the display device 707 of FIG. 15, the user can play a car racing game using the three-dimensional model 708 of the car toy 709 of the user.

【0169】図18は、本発明に従うゲームシステムの
第2の実施形態を示す。このゲームシステムは、ユーザ
が自分や友達など人間の身体の3次元モデルデータをコ
ンピュータゲームのバーチャル3次元空間に取り込んで
遊ぶためのものである。
FIG. 18 shows a second embodiment of the game system according to the present invention. This game system is for a user to take three-dimensional model data of a human body such as himself or a friend into a virtual three-dimensional space of a computer game and play.

【0170】図18に示すように、モデリングサーバ7
21、ゲームサプライヤシステム722、ユーザシステ
ム724及び店舗システム729が、通信ネットワーク
723を通じて通信可能に接続されている。店舗システ
ム729にはステレオ撮影システム730が接続されて
いる。
As shown in FIG. 18, the modeling server 7
21, a game supplier system 722, a user system 724, and a store system 729 are communicably connected via a communication network 723. A stereo imaging system 730 is connected to the store system 729.

【0171】ゲームサプライヤシステム722は、図1
5に示したゲームシステムのゲームサプライヤシステム
702と同様に、様々なゲームプログラム用の3次元モ
デルのフォーマット情報をモデリングサーバ721に提
供する。店舗システム729とステレオ撮影システム7
30は、図1に示したバーチャル試着システムの店舗シ
ステム5とステレオ撮影システム6と同様に、ユーザの
身体を複数台の多眼ステレオカメラで撮影してその実写
データをモデリングサーバ721へ送る。
The game supplier system 722 is similar to the game supplier system 722 shown in FIG.
As with the game supplier system 702 of the game system shown in FIG. 5, the format server 721 provides format information of three-dimensional models for various game programs to the modeling server 721. Store system 729 and stereo photography system 7
The camera 30 shoots the user's body with a plurality of multi-view stereo cameras and sends the actual shot data to the modeling server 721, as in the store system 5 and the stereo shooting system 6 of the virtual fitting system shown in FIG.

【0172】ユーザシステム724は、例えばパーソナ
ルコンピュータやゲームコンピュータであって、ユーザ
が操作するコントローラ727と、ディスプレイ装置7
28を有し、そして、人間が登場するゲーム(例えば、
格闘ゲーム)のゲームプログラムを搭載している。さら
に、ユーザシステム724には、ユーザが望めば、複数
台(例えば2台)の多眼ステレオカメラ725、726
を接続し、そして、その多眼ステレオカメラ725、7
26からの実写データをモデリングサーバ721へ送っ
て、モデリングサーバ721から3次元モデルデータを
受け取るためのステレオ撮影用プログラムを搭載するこ
とができる。
The user system 724 is, for example, a personal computer or a game computer, and includes a controller 727 operated by a user and a display device 7.
Games with humans (for example,
Fighting game). Further, the user system 724 includes a plurality (for example, two) of multi-view stereo cameras 725 and 726 if the user desires.
And the multi-view stereo cameras 725, 7
It is possible to install a stereo shooting program for sending the real photograph data from the modeling server 26 to the modeling server 721 and receiving the three-dimensional model data from the modeling server 721.

【0173】図19は、このゲームシステムの処理流れ
を示す。図18と図19を参照して、このゲームシステ
ムの動作を説明する。
FIG. 19 shows a processing flow of the game system. The operation of the game system will be described with reference to FIGS.

【0174】(1) まず、ユーザはゲームに登場させ
たい人物、例えば自分、の身体のステレオ撮影を行う。
これは、既に説明したバーチャル試着システムの場合の
ように、店舗に設置されたステレオ撮影システム730
で行っても良いが、それについては既に説明した。そこ
で、ここでは、ユーザが自分のユーザシステム724に
接続された多眼ステレオカメラ725、726を用いて
撮影を行う場合を例にとって説明する。図19のステッ
プS111で示すように、ユーザは、ユーザシステム7
24でステレオ撮影用プログラムを実行し、異なる場所
から自分を撮影できるように配置した複数台の多眼ステ
レオカメラ725、726で自分の身体を撮影する。そ
のとき、ユーザは、ゲームで使用する所定の様々なモー
ション(例えば、格闘ゲームの場合のパンチ、キック、
投げ、受け、かわし身などの各種動さ)を多眼ステレオ
カメラ725、726の前で行って、各モーション毎に
多眼ステレオカメラ725、726が撮影した動画像デ
ータをユーザシステム724で受け取る。そして、ステ
ップS112で示すように、各モーションの実写データ
(動画像データ)と、使用したいゲームプログラムのゲ
ームIDとをユーザシステム724からモデリングサー
バ721へ送信する。
(1) First, the user performs stereo photography of the body of a person who wants to appear in the game, for example, himself.
This is a stereo shooting system 730 installed in a store, as in the case of the virtual fitting system described above.
, But that has already been explained. Therefore, here, a case will be described as an example where the user performs photographing using the multi-view stereo cameras 725 and 726 connected to the user system 724 of the user. As shown in step S111 of FIG.
At 24, a stereo photographing program is executed, and a plurality of multi-view stereo cameras 725 and 726 arranged so as to photograph the person from different places photograph their own body. At that time, the user may select various predetermined motions used in the game (for example, punch, kick,
Various movements such as throwing, receiving, and dodging) are performed in front of the multi-view stereo cameras 725 and 726, and the moving image data captured by the multi-view stereo cameras 725 and 726 for each motion is received by the user system 724. Then, as shown in step S112, the real system data (moving image data) of each motion and the game ID of the game program to be used are transmitted from the user system 724 to the modeling server 721.

【0175】(2) ステップS121及びS122で
示すように、モデリングサーバ721は、ユーザの各モ
ーションの実写データとゲームIDを受信すると、各モ
ーションについて、その実写データ(動画像データ)の
各フレーム毎に、図10〜図13で説明した処理方法
で、ユーザ身体の3次元モデルデータをゲームIDのデ
ータフォーマットで作成し、そして、各モーションの動
画の一連の多数のフレームからそれぞれ作成した多数の
3次元モデルデータを、フレーム順序に従って連続的に
並べる。結果として、各モーションを構成する一連の多
数の3次元モデルデータが形成される。そして、ステッ
プS123に示すように、モデリングサーバ721は、
各モーションを構成する一連の3次元モデルデータを、
ユーザシステム724に送信する。
(2) As shown in steps S121 and S122, when the modeling server 721 receives the real image data of each motion of the user and the game ID, the modeling server 721 converts each frame of the real image data (moving image data) for each motion. In the processing method described with reference to FIGS. 10 to 13, three-dimensional model data of the user's body is created in the data format of the game ID, and a plurality of 3D models created from a series of many frames of the moving image of each motion. The dimensional model data is arranged continuously according to the frame order. As a result, a series of a large number of three-dimensional model data constituting each motion is formed. Then, as shown in step S123, the modeling server 721
A series of three-dimensional model data that constitutes each motion
Send to user system 724.

【0176】(3) ステップS113及びS114に
示すように、ユーザシステム724のステレオ撮影用プ
ログラムは、各モーションの一連の3次元モデルデータ
を受信すると、その各モーションの一連の3次元モデル
を用いて、ユーザが各モーションを行っている様子を幾
つかの異なる視点からそれぞれ見た複数本のアニメーシ
ョン画像を作成して、それらのアニメーション画像を逐
次にディスプレイ装置728に表示する。ユーザはそれ
らのアニメーション画像を、受信した各モーションの一
連の3次元モデルデータに問題はないかチェックする。
問題のないことが確認されると、ステレオ撮影用プログ
ラムは、受信した各モーションの一連の3次元モデルデ
ータを保存し、受領した旨をモデリングサーバ721に
通知する。
(3) As shown in steps S113 and S114, upon receiving a series of three-dimensional model data of each motion, the stereo shooting program of the user system 724 uses the series of three-dimensional models of each motion. Then, a plurality of animation images, each of which shows the user performing each motion from different viewpoints, are created, and the animation images are sequentially displayed on the display device 728. The user checks these animated images for any problem with the received series of three-dimensional model data of each motion.
When it is confirmed that there is no problem, the stereo shooting program saves the received series of three-dimensional model data of each motion, and notifies the modeling server 721 of the receipt.

【0177】(4) ステップS124及びS125に
示すように、モデリングサーバ721は、ユーザが3次
元モデルデータを受領した旨を確認すると、ユーザから
料金を徴収するための課金処理を行い、請求書などの課
金結果データをユーザシステム724に送信し、ステッ
プS115に示すように、ユーザシステム724のステ
レオ撮影用プログラムはその課金結果データを受信して
表示する。
(4) As shown in steps S124 and S125, when the modeling server 721 confirms that the user has received the three-dimensional model data, the modeling server 721 performs a billing process for collecting a fee from the user, and executes a billing process. Is transmitted to the user system 724, and as shown in step S115, the stereo photography program of the user system 724 receives and displays the charging result data.

【0178】(5) その後、ステップS116で示す
ように、ユーザはユーザシステム724でゲームプログ
ラムを実行し、そのゲームプログラムにおいて、先ほど
保存した各モーションの一連の3次元モデルデータを使
用する。例えば、ユーザのコントローラ727の操作に
応答して、図18のディスプレイ装置728に示したよ
うに格闘ゲームのバーチャル3次元空間内でユーザの3
次元モデル731がストレートパンチやアッパーカット
や回し蹴りなどの様々な技のモーションを繰り出す。
(5) Thereafter, as shown in step S116, the user executes the game program in the user system 724, and uses the series of three-dimensional model data of each motion stored earlier in the game program. For example, in response to the user's operation of the controller 727, the user's three-dimensional image is displayed in the virtual three-dimensional space of the fighting game as shown in the display device 728 of FIG.
The dimensional model 731 performs motions of various techniques such as a straight punch, an upper cut, and a turning kick.

【0179】ところで、上述の説明では、各モーション
を一連の多数の3次元モデルで構成したが、これに代え
て、図6に示したような身体各部位が関節でジョイント
された3次元モデル(部位ジョイントモデル)601
と、その部位ジョイントモデル601をユーザのモーシ
ョンと同じように動かすためのモーションデータとを用
いることもできる。この部位ジョイントモデル601と
モーションデータとを用いる場合には、モデリングサー
バ721は、既に図5及び図6で説明したような処理を
行って部位ジョイントモデル601を作成するととも
に、ユーザの各モーションの動画像の各フレームから作
成した3次元モデルと同じ姿勢に部位ジョイントモデル
601をするための各関節での各部位の回転確度や部位
ジョイントモデル601の存在位置などを割り出してそ
れをモーションデータとし、その部位ジョイントモデル
601とモーションデータとをユーザシステム724に
送信する。
In the above description, each motion is constituted by a series of a large number of three-dimensional models. Instead, a three-dimensional model (FIG. 6) in which each part of the body is jointed by joints is used. Part joint model) 601
And motion data for moving the part joint model 601 in the same manner as the motion of the user. When the part joint model 601 and the motion data are used, the modeling server 721 creates the part joint model 601 by performing the processing described with reference to FIGS. The rotational accuracy of each part at each joint and the location of the part joint model 601 for determining the part joint model 601 in the same posture as the three-dimensional model created from each frame of the image are determined and used as motion data. The part joint model 601 and the motion data are transmitted to the user system 724.

【0180】図20は、本発明に従うゲームシステムの
第3の実施形態の全体構成を示す。このゲームシステム
では、ユーザは、自分の身体の3次元モデルであって自
分と全く同じようにリアルタイムで動作する3次元モデ
ルを、ゲームのバーチャル3次元空間に取り込んで、非
常にリアリティの高いゲームを体験することができる。
FIG. 20 shows the overall configuration of the third embodiment of the game system according to the present invention. In this game system, a user takes in a virtual three-dimensional space of a game a three-dimensional model of his / her body, which operates in real time in exactly the same way as his / her own, and plays a highly realistic game. You can experience.

【0181】図20に示すように、ユーザ748が入る
べき所定の空間の周囲の異なる場所に、その空間を撮影
できるように複数台の多眼ステレオカメラ741〜74
3が配置されている。これらの多眼ステレオカメラ74
1〜743が、3次元モデリングのための演算装置74
4に接続され、その演算装置744の出力がゲーム装置
(例えば、パーソナルコンピュータ、家庭用ゲームコン
ピュータ、或いはゲームセンタなどに設置された業務用
ゲームコンピュータなど)745に接続されている。ゲ
ーム装置745はディスプレイ装置746を有し、ユー
ザ748は、そのディスプレイ装置746の画面を見る
ことができる。要するに、このゲームシステムは、図1
4に示したバーチャル試着システムと実質的に同様の構
成であって、図14のコンピュータシステム19でゲー
ムが実行できるようになっているものである。
As shown in FIG. 20, a plurality of multi-view stereo cameras 741 to 74 are provided at different places around a predetermined space into which a user 748 should enter so that the space can be photographed.
3 are arranged. These multi-view stereo cameras 74
1 to 743 are arithmetic units 74 for three-dimensional modeling
The output of the arithmetic unit 744 is connected to a game device (for example, a personal computer, a home game computer, or a business game computer installed in a game center or the like) 745. The game device 745 has a display device 746, and the user 748 can see the screen of the display device 746. In short, this game system has
14 has a configuration substantially similar to that of the virtual fitting system shown in FIG. 4, and allows a computer system 19 shown in FIG. 14 to execute a game.

【0182】演算装置744は、図10〜図13で説明
したと同様の方法で、多眼ステレオカメラ741〜74
3からの実写データ(動画像データ)から、ユーザ74
8のモーションにリアルタイムで追従して同様に動いて
いく一連の3次元モデルデータを高速に次々と作成して
ゲーム装置745へ送り込む。ゲーム装置745は、そ
の一連の3次元モデルデータをゲームのバーチャル3次
元空間に取り込んで、その実際のユーザ748と全く同
じ姿で全く同じように動く3次元モデル747をディス
プレイ装置746に表示する。それにより、ユーザ74
8は、自分自身がゲームの世界に入り込んだようなリア
リティをもってゲームをプレイすることができる。
The arithmetic unit 744 operates in the same manner as described with reference to FIGS.
3 from the photographed image data (moving image data)
A series of three-dimensional model data that moves in the same manner following the motion of No. 8 in real time is created at high speed and sent to the game device 745. The game device 745 takes the series of three-dimensional model data into the virtual three-dimensional space of the game, and displays on the display device 746 a three-dimensional model 747 that moves in exactly the same manner as the actual user 748. Thereby, the user 74
8 can play the game with a reality as if he / she entered the game world.

【0183】以上、本発明の幾つかの実施形態を説明し
たが、これらの実施形態はあくまで本発明の説明のため
の例示であり、本発明をこれら実施形態にのみ限定する
趣旨ではない。従って、本発明は、上記実施形態以外の
様々な形態でも実施することができる。例えば、本発明
は、バーチャル試着やゲームだけでなく、3次元モデル
が利用可能な様々な用途に適用することができる。
While some embodiments of the present invention have been described above, these embodiments are merely examples for describing the present invention, and are not intended to limit the present invention to only these embodiments. Therefore, the present invention can be implemented in various modes other than the above-described embodiment. For example, the present invention can be applied not only to virtual fitting and games, but also to various uses in which a three-dimensional model can be used.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態にかかるバーチャル試着シ
ステムの全体構成を示すブロック図。
FIG. 1 is a block diagram showing an overall configuration of a virtual fitting system according to an embodiment of the present invention.

【図2】バーチャル試着システムの処理手順のうち、モ
デリングサーバ1が中心となって行う部分を示したフロ
ーチャート。
FIG. 2 is a flowchart showing a part of the processing procedure of the virtual fitting system performed mainly by the modeling server 1;

【図3】バーチャル試着システムの処理手順のうち、バ
ーチャル試着サーバ3が中心となって行う部分を示した
フローチャート。
FIG. 3 is a flowchart showing a part of the processing procedure of the virtual fitting system performed mainly by the virtual fitting server 3.

【図4】バーチャル試着用プログラムがユーザシステム
のディスプレイ画面に表示するバーチャル試着ウィンド
ウの一例を示す図。
FIG. 4 is a view showing an example of a virtual fitting window displayed by a virtual fitting program on a display screen of a user system.

【図5】関節を持った標準全身モデルをモデリングサー
バが作成するときの処理流れを示すフローチャート。
FIG. 5 is a flowchart showing a processing flow when a modeling server creates a standard whole body model having joints.

【図6】図5の処理流れの過程で作成される体形3次元
モデルの構成を示す図。
FIG. 6 is a view showing the configuration of a three-dimensional body model created in the course of the processing flow of FIG. 5;

【図7】関節を持った標準全身モデルを用いたバーチャ
ル試着プログラムの処理流れを示すフローチャート。
FIG. 7 is a flowchart showing a processing flow of a virtual fitting program using a standard whole body model having joints.

【図8】図7の処理流れの過程で行われるユーザの標準
全身モデルと衣裳の3次元モデルに対する操作を説明し
た図。
FIG. 8 is a diagram illustrating an operation performed on the standard full-body model and the three-dimensional model of the costume performed in the process of the processing flow of FIG.

【図9】ステレオ撮影システムの概略的な全体構成を示
す斜視図。
FIG. 9 is a perspective view showing a schematic overall configuration of a stereo imaging system.

【図10】演算装置18の内部構成を示すブロック図。FIG. 10 is a block diagram showing the internal configuration of the arithmetic unit 18.

【図11】図9及び図10に示した演算装置18と置き
替えることのできる第2の演算装置200の内部構成を
示すブロック図。
FIG. 11 is a block diagram showing an internal configuration of a second arithmetic device 200 that can be replaced with the arithmetic device 18 shown in FIGS. 9 and 10;

【図12】図9及び図10に示した演算装置18と置き
替えることのできる第3の演算装置300の内部構成を
示すブロック図。
FIG. 12 is a block diagram showing an internal configuration of a third arithmetic device 300 which can be replaced with the arithmetic device 18 shown in FIGS. 9 and 10;

【図13】図9及び図10に示した演算装置18と置き
替えることのできる第4の演算装置400の内部構成を
示すブロック図。
FIG. 13 is a block diagram showing an internal configuration of a fourth arithmetic unit 400 which can be replaced with the arithmetic unit 18 shown in FIGS. 9 and 10;

【図14】本発明に従うバーチャル試着システムの第2
の実施形態の全体構成を示す斜視図。
FIG. 14 shows a second embodiment of the virtual fitting system according to the present invention.
FIG. 2 is a perspective view showing the overall configuration of the embodiment.

【図15】本発明に従うゲームシステムの一実施形態の
全体構成を示すブロック図。
FIG. 15 is a block diagram showing an overall configuration of an embodiment of a game system according to the present invention.

【図16】図15のゲームシステムの処理のフローチャ
ート。
FIG. 16 is a flowchart of processing of the game system in FIG. 15;

【図17】撮影ウィンドウを示す図。FIG. 17 is a diagram showing a shooting window.

【図18】本発明に従うゲームシステムの第2の実施形
態の全体構成を示すブロック図。
FIG. 18 is a block diagram showing an overall configuration of a second embodiment of the game system according to the present invention.

【図19】図18のゲームシステムの処理のフローチャ
ート。
FIG. 19 is a flowchart of processing of the game system in FIG. 18;

【図20】本発明に従うゲームシステムの第3の実施形
態の全体構成を示す斜視図。
FIG. 20 is a perspective view showing an overall configuration of a third embodiment of the game system according to the present invention.

【符号の説明】[Explanation of symbols]

1、701、721 モデリングサーバ 2 衣裳サプライヤシステム 3 バーチャル試着サーバ 4、704、724 ユーザシステム 5、729 店舗システム 6、730 ステレオ撮影システム 6B、11、12、13、705、725、726、7
41、742、743多眼ステレオカメラ 8、703、723 通信ネットワーク 18、744 演算装置 19 コンピュータシステム 500 バーチャル試着ウィンドウ 600 全身一体モデル 601 部位ジョイントモデル 620 衣裳の3次元モデル 709 ゲームで使用したい物品 710 ステレオ撮影ウィンドウ 722 ゲームサプライヤシステム 745 ゲーム装置
1, 701, 721 Modeling server 2 Costume supplier system 3 Virtual fitting server 4, 704, 724 User system 5, 729 Store system 6, 730 Stereo shooting system 6B, 11, 12, 13, 705, 725, 726, 7
41, 742, 743 Multi-view stereo camera 8, 703, 723 Communication network 18, 744 Arithmetic unit 19 Computer system 500 Virtual fitting window 600 Whole body integrated model 601 Partial joint model 620 3D model of costume 709 Goods to be used in game 710 Stereo Shooting window 722 Game supplier system 745 Game device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 17/40 G06T 17/40 D 5C054 H04N 5/262 H04N 5/262 5C061 // H04N 7/18 7/18 Z Fターム(参考) 2C001 BA00 BA04 BC00 BC05 CA00 CA08 CB01 CC02 5B046 AA10 CA06 EA09 FA18 GA01 HA05 JA04 KA06 5B050 AA10 BA08 BA09 BA12 BA13 CA07 CA08 DA02 EA24 EA28 FA02 FA13 FA19 5B057 AA18 BA02 CA13 CA16 CB13 CB20 DA07 DB03 DB06 DC02 DC08 DC22 DC32 5C023 AA11 AA37 AA38 CA03 DA08 5C054 AA02 CC00 DA09 EH00 FA04 FD01 FE12 GB01 GB16 HA14 HA15 5C061 AB04 AB08 AB10 AB14 AB21──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 17/40 G06T 17/40 D 5C054 H04N 5/262 H04N 5/262 5C061 // H04N 7/18 7 / 18Z F term (reference) 2C001 BA00 BA04 BC00 BC05 CA00 CA08 CB01 CC02 5B046 AA10 CA06 EA09 FA18 GA01 HA05 JA04 KA06 5B050 AA10 BA08 BA09 BA12 BA13 CA07 CA08 DA02 EA24 EA28 FA02 FA13 FA19 5B057 AA18 BA02 DB03 DC08 DC22 DC32 5C023 AA11 AA37 AA38 CA03 DA08 5C054 AA02 CC00 DA09 EH00 FA04 FD01 FE12 GB01 GB16 HA14 HA15 5C061 AB04 AB08 AB10 AB14 AB21

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 ユーザの利用するコンピュータアプリケ
ーションのバーチャル3次元空間に現実の物体を登場さ
せ得るようにするためのシステムであって、 前記ユーザが利用可能なステレオ撮影装置と通信可能で
あって、前記ステレオ撮影装置から、現実の物体をステ
レオ撮影した実写データを受信する実写データ受信手段
と、 受信した前記実写データに基づいて、前記コンピュータ
アプリケーションがバーチャル3次元空間に取り込むこ
とのできる所定のデータフォーマットで、前記物体の3
次元モデルを作成するモデリング手段と、 前記物体の3次元モデルデータを、前記ユーザ又は前記
ユーザの利用するコンピュータアプリケーションに提供
できるような方法で出力する3次元モデル出力手段とを
備えたシステム。
1. A system for allowing a real object to appear in a virtual three-dimensional space of a computer application used by a user, wherein the system is capable of communicating with a stereo imaging device available to the user, A real image data receiving means for receiving real image data obtained by stereo shooting of a real object from the stereo image capturing apparatus; and a predetermined data format which the computer application can take in a virtual three-dimensional space based on the received real image data. In the object 3
A system comprising: modeling means for creating a dimensional model; and three-dimensional model output means for outputting the three-dimensional model data of the object in a manner that can be provided to the user or a computer application used by the user.
【請求項2】 前記ステレオ撮影装置から受信した前記
実写データは、前記現実の物体が異なるポーズをそれぞ
れとったときに撮影された複数ポーズの実写データを含
んでおり、 前記モデリング手段は、前記複数ポーズの実写データに
基づいて、前記物体の前記3次元モデルデータを、異な
るポーズがとれるか又はモーションを行うことのできる
ような構成に作成する請求項1記載のシステム。
2. The photographing data received from the stereo photographing device includes photographing data of a plurality of poses taken when the real object takes different poses. The system according to claim 1, wherein the three-dimensional model data of the object is created based on the real shot data of the pose so that the three-dimensional model data can take different poses or perform a motion.
【請求項3】 前記ステレオ撮影装置から受信した前記
実写データは、前記現実の物体が或るモーションを行っ
たときに撮影された動画像の実写データを含んでおり、 前記モデリング手段は、前記動画像の実写データに基づ
いて、前記物体の前記3次元モデルデータを、前記物体
が行ったと同じモーションを行なうような構成に作成す
る請求項1記載のシステム。
3. The actual photographing data received from the stereo photographing device includes actual photographing data of a moving image photographed when the real object performs a certain motion. The system according to claim 1, wherein the three-dimensional model data of the object is created based on real image data of the image so as to perform the same motion as performed by the object.
【請求項4】 前記モデリング手段は、前記ステレオ撮
影装置による撮影中に前記現実の物体が行っているモー
ションに実質的にリアルタイムで追従して、同じモーシ
ョンを行うように前記3次元モデルデータを作成する請
求項3記載のシステム。
4. The modeling means creates the three-dimensional model data so as to follow the motion performed by the real object substantially in real time during shooting by the stereo shooting device and perform the same motion. 4. The system of claim 3, wherein
【請求項5】 ユーザの利用するコンピュータアプリケ
ーションのバーチャル3次元空間に現実の物体を登場さ
せ得るようにするための方法であって、 前記ユーザが利用可能なステレオ撮影装置から、現実の
物体をステレオ撮影した実写データを受信するステップ
と、 受信した前記実写データに基づいて、前記コンピュータ
アプリケーションがバーチャル3次元空間に取り込むこ
とのできる所定のデータフォーマットで、前記物体の3
次元モデルを作成するステップと、 前記物体の3次元モデルデータを、前記ユーザ又は前記
ユーザの利用するコンピュータアプリケーションに提供
できるような方法で出力するステップとを備えた方法。
5. A method for allowing a real object to appear in a virtual three-dimensional space of a computer application used by a user, the method comprising: converting a real object from a stereo image capturing device available to the user to a stereo image. Receiving the photographed actual photographed data; and, based on the received photographed actual data, the object application in a predetermined data format that the computer application can take in the virtual three-dimensional space.
Creating a three-dimensional model; and outputting the three-dimensional model data of the object in a manner that can be provided to the user or a computer application used by the user.
【請求項6】 ユーザの利用するコンピュータアプリケ
ーションのバーチャル3次元空間に現実の物体を登場さ
せ得るようにするためのシステムであって、 前記ユーザが利用可能なステレオ撮影装置と、 前記ステレオ撮影装置と通信可能であるとともに、前記
ユーザが利用可能なコンピュータ装置とも通信可能であ
るモデリング装置とを備え、 前記モデリング装置は、 前記ステレオ撮影装置から、現実の物体をステレオ撮影
した実写データを受信する実写データ受信手段と、 受信した前記実写データに基づいて、前記コンピュータ
アプリケーションがバーチャル3次元空間に取り込むこ
とのできる所定のデータフォーマットで、前記物体の3
次元モデルを作成するモデリング手段と、 前記物体の3次元モデルデータを、前記ユーザが利用可
能なコンピュータ装置に送信する3次元モデル送信手段
とを有しているシステム。
6. A system for allowing a real object to appear in a virtual three-dimensional space of a computer application used by a user, comprising: a stereo photographing device usable by the user; A modeling device that is communicable and can also communicate with a computer device available to the user, wherein the modeling device receives, from the stereo shooting device, shooting data of a real object in stereo. Receiving means, based on the received actual photographed data, in a predetermined data format which the computer application can capture in the virtual three-dimensional space;
A system comprising: modeling means for creating a three-dimensional model; and three-dimensional model transmitting means for transmitting three-dimensional model data of the object to a computer device usable by the user.
【請求項7】 ユーザの利用するコンピュータアプリケ
ーションのバーチャル3次元空間に現実の物体を登場さ
せ得るようにするためのシステムであって、 前記ユーザが前記コンピュータアプリケーションを実行
するためのコンピュータ装置と、 前記ユーザが利用可能なステレオ撮影装置と、 前記ステレオ撮影装置及び前記コンピュータ装置と通信
可能であるモデリング装置とを備え、 前記モデリング装置は、 前記ステレオ撮影装置から、現実の物体をステレオ撮影
した実写データを受信する実写データ受信手段と、 受信した前記実写データに基づいて、前記コンピュータ
アプリケーションがバーチャル3次元空間に取り込むこ
とのできる所定のデータフォーマットで、前記物体の3
次元モデルを作成するモデリング手段と、 前記物体の3次元モデルデータを、前記コンピュータ装
置に送信する3次元モデル送信手段とを有しているシス
テム。
7. A system for allowing a real object to appear in a virtual three-dimensional space of a computer application used by a user, comprising: a computer device for the user to execute the computer application; A stereo photographing device that can be used by a user, and a modeling device that can communicate with the stereo photographing device and the computer device. The modeling device, from the stereo photographing device, captures actual photographed data of a real object in stereo. Means for receiving actual photograph data; and receiving the actual photograph data in a predetermined data format which the computer application can take in the virtual three-dimensional space.
A system comprising: modeling means for creating a three-dimensional model; and three-dimensional model transmitting means for transmitting three-dimensional model data of the object to the computer device.
【請求項8】 ユーザの利用するコンピュータアプリケ
ーションのバーチャル3次元空間に現実の物体を登場さ
せ得るようにするための方法であって、 現実の物体をステレオ撮影するステップと、 ステレオ撮影で得られた前記物体の実写データに基づい
て、前記コンピュータアプリケーションがバーチャル3
次元空間に取り込むことのできる所定のデータフォーマ
ットで、前記物体の3次元モデルを作成するステップ
と、 前記物体の3次元モデルデータを、前記コンピュータア
プリケーションが実行できるコンピュータ装置に入力す
るステップとを備えた方法。
8. A method for allowing a real object to appear in a virtual three-dimensional space of a computer application used by a user, comprising: a step of taking a stereo image of the real object; Based on the real image data of the object, the computer application is a virtual 3
Creating a three-dimensional model of the object in a predetermined data format that can be captured in a three-dimensional space; and inputting the three-dimensional model data of the object to a computer device capable of executing the computer application. Method.
JP2000240125A 2000-07-14 2000-08-08 System and method for entering real object into virtual three-dimensional space Pending JP2002058045A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000240125A JP2002058045A (en) 2000-08-08 2000-08-08 System and method for entering real object into virtual three-dimensional space
US09/902,644 US20020024517A1 (en) 2000-07-14 2001-07-12 Apparatus and method for three-dimensional image production and presenting real objects in virtual three-dimensional space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000240125A JP2002058045A (en) 2000-08-08 2000-08-08 System and method for entering real object into virtual three-dimensional space

Publications (1)

Publication Number Publication Date
JP2002058045A true JP2002058045A (en) 2002-02-22

Family

ID=18731546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000240125A Pending JP2002058045A (en) 2000-07-14 2000-08-08 System and method for entering real object into virtual three-dimensional space

Country Status (1)

Country Link
JP (1) JP2002058045A (en)

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005152255A (en) * 2003-11-25 2005-06-16 Matsushita Electric Works Ltd Human body posture measuring apparatus
JP2007034992A (en) * 2005-07-29 2007-02-08 Sharp Corp Image generation apparatus, game device, image generation method, image generation program and readable recording medium
JP2007041876A (en) * 2005-08-03 2007-02-15 Samii Kk Image display device and image display program
JP2009116871A (en) * 2007-11-06 2009-05-28 Palo Alto Research Center Inc Method and apparatus for extending function of mirror using information related to mirrored content and motion
KR100915298B1 (en) * 2007-10-24 2009-09-03 중앙대학교 산학협력단 A system for wearing imaginary 3d footwear and an operation method of the same
WO2010138428A2 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Systems and methods for applying animations or motions to a character
WO2010138431A2 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Systems and methods for tracking a model
JP2011501326A (en) * 2007-10-26 2011-01-06 ザズル ドット コム インコーポレイテッド Product modeling system and method
JP2011041638A (en) * 2009-08-20 2011-03-03 Nintendo Co Ltd Game program and game apparatus
WO2010126816A3 (en) * 2009-05-01 2011-03-03 Microsoft Corporation Systems and methods for applying model tracking to motion capture
GB2473503A (en) * 2009-09-15 2011-03-16 Metail Ltd Image processing with keying of foreground objects
WO2011071801A2 (en) * 2009-12-07 2011-06-16 Microsoft Corporation Visual target tracking
WO2011071815A2 (en) * 2009-12-07 2011-06-16 Microsoft Corporation Visual target tracking
WO2011071811A2 (en) * 2009-12-07 2011-06-16 Microsoft Corporation Visual target tracking
WO2011087888A2 (en) * 2010-01-15 2011-07-21 Microsoft Corporation Directed performance in motion capture system
WO2012083596A1 (en) * 2010-12-23 2012-06-28 Li Qihan Vehicle for customizing garment
JP2012142791A (en) * 2010-12-28 2012-07-26 Casio Comput Co Ltd Three-dimensional model generation system, server, and program
US8267781B2 (en) 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
JP2012244583A (en) * 2011-05-24 2012-12-10 Canon Inc Imaging device, image processing method, and program
JP2012257282A (en) * 2012-07-26 2012-12-27 Casio Comput Co Ltd Three-dimensional image generation method
JP2013518340A (en) * 2010-01-26 2013-05-20 サーブ アクティエボラーグ Automated 3D mapping method
US8565476B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
JP5605885B1 (en) * 2014-02-27 2014-10-15 木下 泰男 Virtual try-on system and virtual try-on program
WO2015167039A1 (en) * 2014-04-28 2015-11-05 (주)에프엑스기어 Apparatus and method for generating virtual clothes for augmented reality-based virtual fitting
US9288179B2 (en) 2010-12-30 2016-03-15 Huawei Technologies Co., Ltd. Method and apparatus for assigning IP address
US9377858B2 (en) 2009-10-27 2016-06-28 Samsung Electronics Co., Ltd. Three-dimensional space interface apparatus and method
US9465980B2 (en) 2009-01-30 2016-10-11 Microsoft Technology Licensing, Llc Pose tracking pipeline
IT201600095426A1 (en) * 2016-09-22 2018-03-22 Ovs S P A EQUIPMENT FOR THE OFFER FOR SALE OF GOODS
KR101897704B1 (en) * 2017-09-25 2018-10-29 넷마블 주식회사 Apparatus and method for providing game service
WO2019049298A1 (en) * 2017-09-08 2019-03-14 株式会社Vrc 3d data system and 3d data processing method
CN110400375A (en) * 2019-07-31 2019-11-01 陶峰 Mixed reality interactive system
US10573278B2 (en) 2017-01-18 2020-02-25 Fujitsu Limited Display control method, display control device, and non-transitory computer-readable recording medium storing display control program
JP2020107251A (en) * 2018-12-28 2020-07-09 株式会社バンダイナムコエンターテインメント Image generation system and program
JP2020107252A (en) * 2018-12-28 2020-07-09 株式会社バンダイナムコエンターテインメント Image generation system and program
CN113082716A (en) * 2021-04-15 2021-07-09 网易(杭州)网络有限公司 Motion control method, motion control device, electronic equipment and machine-readable storage medium
CN113487727A (en) * 2021-07-14 2021-10-08 广西民族大学 Three-dimensional modeling system, device and method
JP2021192242A (en) * 2015-03-12 2021-12-16 ハッピー エル−ロード アクチボラグHappy L−Lord Ab System for, method of, and device for three-dimensional voxel based modeling
CN114422677A (en) * 2022-01-19 2022-04-29 上海璞洛瑟尔泽科技有限公司 Three-dimensional modeling garment digital design device and method
JP2022089846A (en) * 2018-10-25 2022-06-16 株式会社Vrc Three-dimensional modeling data generation device
JP2023027583A (en) * 2021-08-17 2023-03-02 任天堂株式会社 Game program, information processing apparatus, information processing system and game processing method

Cited By (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4507571B2 (en) * 2003-11-25 2010-07-21 パナソニック電工株式会社 Human body posture measurement device
JP2005152255A (en) * 2003-11-25 2005-06-16 Matsushita Electric Works Ltd Human body posture measuring apparatus
JP2007034992A (en) * 2005-07-29 2007-02-08 Sharp Corp Image generation apparatus, game device, image generation method, image generation program and readable recording medium
JP4591962B2 (en) * 2005-07-29 2010-12-01 シャープ株式会社 Image generation device, game device, image generation method, image generation program, and readable recording medium
JP2007041876A (en) * 2005-08-03 2007-02-15 Samii Kk Image display device and image display program
KR100915298B1 (en) * 2007-10-24 2009-09-03 중앙대학교 산학협력단 A system for wearing imaginary 3d footwear and an operation method of the same
JP2011501326A (en) * 2007-10-26 2011-01-06 ザズル ドット コム インコーポレイテッド Product modeling system and method
JP2009116871A (en) * 2007-11-06 2009-05-28 Palo Alto Research Center Inc Method and apparatus for extending function of mirror using information related to mirrored content and motion
US9842405B2 (en) 2009-01-30 2017-12-12 Microsoft Technology Licensing, Llc Visual target tracking
US9465980B2 (en) 2009-01-30 2016-10-11 Microsoft Technology Licensing, Llc Pose tracking pipeline
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8577085B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8565477B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8565476B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US8267781B2 (en) 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US9039528B2 (en) 2009-01-30 2015-05-26 Microsoft Technology Licensing, Llc Visual target tracking
RU2580450C2 (en) * 2009-05-01 2016-04-10 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Systems and methods for applying model tracking for motion capture
WO2010126816A3 (en) * 2009-05-01 2011-03-03 Microsoft Corporation Systems and methods for applying model tracking to motion capture
JP2012528390A (en) * 2009-05-29 2012-11-12 マイクロソフト コーポレーション System and method for adding animation or motion to a character
US8351652B2 (en) 2009-05-29 2013-01-08 Microsoft Corporation Systems and methods for tracking a model
US8803889B2 (en) 2009-05-29 2014-08-12 Microsoft Corporation Systems and methods for applying animations or motions to a character
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US9861886B2 (en) 2009-05-29 2018-01-09 Microsoft Technology Licensing, Llc Systems and methods for applying animations or motions to a character
WO2010138431A3 (en) * 2009-05-29 2011-03-03 Microsoft Corporation Systems and methods for tracking a model
WO2010138428A2 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Systems and methods for applying animations or motions to a character
WO2010138428A3 (en) * 2009-05-29 2011-02-24 Microsoft Corporation Systems and methods for applying animations or motions to a character
US8660310B2 (en) 2009-05-29 2014-02-25 Microsoft Corporation Systems and methods for tracking a model
WO2010138431A2 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Systems and methods for tracking a model
JP2011041638A (en) * 2009-08-20 2011-03-03 Nintendo Co Ltd Game program and game apparatus
GB2473503A (en) * 2009-09-15 2011-03-16 Metail Ltd Image processing with keying of foreground objects
US8605148B2 (en) 2009-09-15 2013-12-10 Metail Limited System and method for image processing and generating a body model
US9591236B2 (en) 2009-09-15 2017-03-07 Metail Limited System and method for image processing and generating a body model
GB2473503B (en) * 2009-09-15 2015-02-11 Metail Ltd System and method for image processing
US10037618B2 (en) 2009-09-15 2018-07-31 Metail Limited System and method for image processing and generating a body model
US9377858B2 (en) 2009-10-27 2016-06-28 Samsung Electronics Co., Ltd. Three-dimensional space interface apparatus and method
US9880698B2 (en) 2009-10-27 2018-01-30 Samsung Electronics Co., Ltd. Three-dimensional space interface apparatus and method
WO2011071801A3 (en) * 2009-12-07 2011-10-06 Microsoft Corporation Visual target tracking
WO2011071801A2 (en) * 2009-12-07 2011-06-16 Microsoft Corporation Visual target tracking
WO2011071815A2 (en) * 2009-12-07 2011-06-16 Microsoft Corporation Visual target tracking
WO2011071811A2 (en) * 2009-12-07 2011-06-16 Microsoft Corporation Visual target tracking
CN102639198A (en) * 2009-12-07 2012-08-15 微软公司 Visual target tracking
WO2011071811A3 (en) * 2009-12-07 2011-09-29 Microsoft Corporation Visual target tracking
WO2011071815A3 (en) * 2009-12-07 2011-11-03 Microsoft Corporation Visual target tracking
WO2011087888A2 (en) * 2010-01-15 2011-07-21 Microsoft Corporation Directed performance in motion capture system
WO2011087888A3 (en) * 2010-01-15 2011-11-10 Microsoft Corporation Directed performance in motion capture system
JP2013518340A (en) * 2010-01-26 2013-05-20 サーブ アクティエボラーグ Automated 3D mapping method
WO2012083596A1 (en) * 2010-12-23 2012-06-28 Li Qihan Vehicle for customizing garment
JP2012142791A (en) * 2010-12-28 2012-07-26 Casio Comput Co Ltd Three-dimensional model generation system, server, and program
US9288179B2 (en) 2010-12-30 2016-03-15 Huawei Technologies Co., Ltd. Method and apparatus for assigning IP address
JP2012244583A (en) * 2011-05-24 2012-12-10 Canon Inc Imaging device, image processing method, and program
JP2012257282A (en) * 2012-07-26 2012-12-27 Casio Comput Co Ltd Three-dimensional image generation method
WO2015129353A1 (en) * 2014-02-27 2015-09-03 泰男 木下 Virtual trial-fitting system, virtual trial-fitting program, virtual trial-fitting method, and storage medium in which virtual trial-fitting program is stored
JP5605885B1 (en) * 2014-02-27 2014-10-15 木下 泰男 Virtual try-on system and virtual try-on program
WO2015167039A1 (en) * 2014-04-28 2015-11-05 (주)에프엑스기어 Apparatus and method for generating virtual clothes for augmented reality-based virtual fitting
JP2021192242A (en) * 2015-03-12 2021-12-16 ハッピー エル−ロード アクチボラグHappy L−Lord Ab System for, method of, and device for three-dimensional voxel based modeling
WO2018054586A1 (en) * 2016-09-22 2018-03-29 Ovs S.P.A. Apparatus for making a goods sales offer
IT201600095426A1 (en) * 2016-09-22 2018-03-22 Ovs S P A EQUIPMENT FOR THE OFFER FOR SALE OF GOODS
US10573278B2 (en) 2017-01-18 2020-02-25 Fujitsu Limited Display control method, display control device, and non-transitory computer-readable recording medium storing display control program
WO2019049298A1 (en) * 2017-09-08 2019-03-14 株式会社Vrc 3d data system and 3d data processing method
JP6489726B1 (en) * 2017-09-08 2019-03-27 株式会社Vrc 3D data system and 3D data processing method
WO2019059712A1 (en) * 2017-09-25 2019-03-28 넷마블 주식회사 Apparatus and method for providing game service
US11554325B2 (en) 2017-09-25 2023-01-17 Netmarble Corporation Apparatus and method for providing game service
KR101897704B1 (en) * 2017-09-25 2018-10-29 넷마블 주식회사 Apparatus and method for providing game service
JP2022089846A (en) * 2018-10-25 2022-06-16 株式会社Vrc Three-dimensional modeling data generation device
JP2020107251A (en) * 2018-12-28 2020-07-09 株式会社バンダイナムコエンターテインメント Image generation system and program
JP2020107252A (en) * 2018-12-28 2020-07-09 株式会社バンダイナムコエンターテインメント Image generation system and program
JP7418956B2 (en) 2018-12-28 2024-01-22 株式会社バンダイナムコエンターテインメント Image generation system and program
JP7335695B2 (en) 2018-12-28 2023-08-30 株式会社バンダイナムコエンターテインメント Image generation system and program
CN110400375A (en) * 2019-07-31 2019-11-01 陶峰 Mixed reality interactive system
CN113082716A (en) * 2021-04-15 2021-07-09 网易(杭州)网络有限公司 Motion control method, motion control device, electronic equipment and machine-readable storage medium
CN113487727B (en) * 2021-07-14 2022-09-02 广西民族大学 Three-dimensional modeling system, device and method
CN113487727A (en) * 2021-07-14 2021-10-08 广西民族大学 Three-dimensional modeling system, device and method
JP2023027583A (en) * 2021-08-17 2023-03-02 任天堂株式会社 Game program, information processing apparatus, information processing system and game processing method
CN114422677A (en) * 2022-01-19 2022-04-29 上海璞洛瑟尔泽科技有限公司 Three-dimensional modeling garment digital design device and method

Similar Documents

Publication Publication Date Title
JP2002058045A (en) System and method for entering real object into virtual three-dimensional space
US20020024517A1 (en) Apparatus and method for three-dimensional image production and presenting real objects in virtual three-dimensional space
US8933965B2 (en) Method for calculating light source information and generating images combining real and virtual images
CN107315470B (en) Graphic processing method, processor and virtual reality system
JP4065507B2 (en) Information presentation apparatus and information processing method
JP3450704B2 (en) Position and orientation detection apparatus and information processing method
JP4473754B2 (en) Virtual fitting device
KR101707707B1 (en) Method for fiiting virtual items using human body model and system for providing fitting service of virtual items
CN109598798B (en) Virtual object fitting method and virtual object fitting service system
JP3728160B2 (en) Depth image measuring apparatus and method, and mixed reality presentation system
JP4757115B2 (en) Image processing apparatus and image processing method
CN102171726B (en) Information processing device, information processing method, program, and information storage medium
JP6348623B2 (en) 3D model creation method, 3D model creation device, 3D model creation system, and 3D model creation program
US11156830B2 (en) Co-located pose estimation in a shared artificial reality environment
TW202101374A (en) Processing of depth maps for images
JP6775669B2 (en) Information processing device
JP2002032744A (en) Device and method for three-dimensional modeling and three-dimensional image generation
WO2020121406A1 (en) Three-dimensional measurement device, three-dimensional measurement device, moving robot, wheelbarrow-type moving device, and three-dimensional measurement processing method
JP2020071718A (en) Information processing device, information processing method, and program
JP2017151917A (en) Program and eye wear
US20220245885A1 (en) Volumetric Imaging
WO2018173205A1 (en) Information processing system, method for controlling same, and program
CN110419062A (en) Information processing unit
JP2003256804A (en) Visual field video generating device and method, and visual field video generating program and recording medium with its program recorded
JP7458731B2 (en) Image generation system, image processing device, information processing device, image generation method, and program