JP2003077011A - Display method and device for three-dimensional shape model - Google Patents

Display method and device for three-dimensional shape model

Info

Publication number
JP2003077011A
JP2003077011A JP2002183475A JP2002183475A JP2003077011A JP 2003077011 A JP2003077011 A JP 2003077011A JP 2002183475 A JP2002183475 A JP 2002183475A JP 2002183475 A JP2002183475 A JP 2002183475A JP 2003077011 A JP2003077011 A JP 2003077011A
Authority
JP
Japan
Prior art keywords
image
area
feature amount
dimensional shape
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002183475A
Other languages
Japanese (ja)
Other versions
JP3732158B2 (en
Inventor
Masanori Watanabe
正規 渡辺
Naohisa Kawaguchi
尚久 川口
Kazuki Matsui
一樹 松井
Shuichi Shiitani
秀一 椎谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2002183475A priority Critical patent/JP3732158B2/en
Publication of JP2003077011A publication Critical patent/JP2003077011A/en
Application granted granted Critical
Publication of JP3732158B2 publication Critical patent/JP3732158B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system capable of composing computer graphics and photographic image with high operatability. SOLUTION: This image composing device for composing the computer graphics and the photographic image comprises a means 1 for extracting a specific area in the photographic image, a means 2 for adding the three-dimensional shape information to the extracted area, and a means for computer graphic- modeling the information relating to the extracted area on the basis of the information on the extracted area and the information on the three-dimensional shape.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明はコンピュータグラフ
ィックスと実写映像との合成を行う方法及びその装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for synthesizing computer graphics and a real image.

【0002】[0002]

【従来の技術】最近、映画やコマーシャルフィルムの製
作でコンピュータグラフィックス(以下CGという) と実
写映像の合成が盛んに用いられるようになってきた。例
えば、CGで作った架空の建築物などに、予め撮影した人
間の実写映像を合成することで、あたかも人間がその建
築物の中を歩いている効果を創り出せる。このCGと実写
映像の合成によって作られた映像は、見る者にとってリ
アルでインパクトの強いものであり、特に景観シミュレ
ーションには欠かせないものとなっている。
2. Description of the Related Art Recently, computer graphics (hereinafter referred to as CG) and synthesis of live-action video have been widely used in the production of movies and commercial films. For example, by synthesizing a live-action image of a human previously taken on a fictional building created with CG, it is possible to create the effect that a human is walking through the building. The image created by synthesizing this CG and the live-action image is real and has a strong impact on the viewer, and is especially indispensable for landscape simulation.

【0003】一般的に、CGでは描画する物体の形状は、
平面、2次曲面などの簡単な幾何形状 (形状プリミティ
ブ) を使って定義し、その表面には任意の色付けをした
り、画像データを貼り付ける処理を行う。しかしこの方
法では、木や川などの自然物を描画すると常にその姿が
固定された状態に見えてしまう。そこで、予め風に揺れ
ている木あるいは水が流れている川を撮影しておき、CG
で作成したシーンにその実写映像を合成することで、よ
り自然なアニメーションを作ることができる。従来の方
法では、撮影した実写映像から画像を選択し、平板など
の簡単な形状プリミティブに貼り付けることでCGとの合
成処理を行っている。この合成処理を各フレームごとに
繰り返して行い、連続した合成画像のアニメーションを
製作するのである。
Generally, the shape of an object drawn in CG is
It is defined using simple geometric shapes (shape primitives) such as planes and quadric surfaces, and the surface is colored as desired and image data is pasted. However, with this method, when drawing natural objects such as trees and rivers, the figure always looks fixed. Therefore, we photographed in advance the trees swaying in the wind or the river in which water was flowing, and CG
A more natural animation can be created by synthesizing the live-action image with the scene created in. In the conventional method, an image is selected from a photographed live-action image and is attached to a simple shape primitive such as a flat plate to perform compositing processing with CG. This compositing process is repeated for each frame to produce a continuous composite image animation.

【0004】なお、静止画の合成画像に関する公知文献
として「景観シミュレーションのための 2.5次元簡易情
景モデル構築の一手法」 (1992年7月:「画像の認識・
理解シンボジウム (MIRU '92) 」がある。また本発明の
一部である3次元図形抽出に関するものとして特開昭62
-162173号公報及び特開平3-244005号公報がある。
As a publicly known document regarding a composite image of a still image, "A method for constructing a 2.5-dimensional simple scene model for landscape simulation" (July 1992: "Image recognition /
There is an understanding of Symbodium (MIRU '92). In addition, Japanese Patent Application Laid-Open No. Sho 62-62 discloses a three-dimensional figure extraction which is a part of the present invention.
-162173 and JP-A-3-244005.

【0005】[0005]

【発明が解決しようとする課題】この種技術においては
以下の如き解決すべき課題があった。 (1) 実写映像を3次元形状を持ったCGモデルに変換する
のを簡便に行わしめること (2) この変換の際にオペレータの介入を許容すること (3) 動画の実写映像とCGとの合成を可能にすること (4) 実写映像から所要の部分を抽出する場合の操作性、
能率を高めること (5) CGモデルの回転、拡大縮小及び移動の操作性を高め
ること (6) CGと実写映像との合成の同期を容易にとれるように
すること
In this type of technique, there are the following problems to be solved. (1) Easy conversion of a live-action video into a CG model having a three-dimensional shape (2) Allowing operator intervention during this conversion (3) Enabling composition (4) Operability when extracting the required parts from the live-action video,
Improve efficiency (5) Improve operability of rotation, scaling and movement of CG model (6) Make it easy to synchronize the synthesis of CG and live-action video

【0006】〔発明の概要〕この発明で提案する方法,
装置(システム)では、画像処理の技法を用いて、計算
機がユーザとの対話処理を行って、 1) 映像情報の物体単位の切り分け、 2) 3次元幾何情報を付加した動画オブジェクトの生
成、 3) CGモデルと動画オブジェクトの同時表示、の3つの
処理を行う。1)によりスタジオでのブルーバック撮影
が、2)により映像撮影時のカメラの位置情報の測定や記
録が不要になり、また3)により表示の際に視点を変更す
ることが可能となる。
[Outline of the Invention] The method proposed by the present invention,
In the device (system), the computer interacts with the user using the image processing technique to 1) separate the image information into object units, 2) generate a moving image object with 3D geometric information, 3 ) Performs three processes: simultaneous display of CG model and moving image object. 1) makes it possible to take a blue back shot in the studio, 2) makes it unnecessary to measure or record the position information of the camera at the time of image shooting, and 3) makes it possible to change the viewpoint at the time of display.

【0007】システム構成の概略 図1に本発明のシステムの構成の概略を示す。本システ
ムでは、特定物体領域の抽出部、3次元幾何情報の抽出
部、動画オブジェクトとCGの同時描画部の3つの処理部
から構成されている。特定物体領域の抽出部と3次元幾
何情報の抽出部により、CGと合成するための動画オブジ
ェクトと呼ぶデータが作られて、ハードディスクに格納
される。このデータを利用して、動画オブジェクト及び
CGの同時描画部では、非リアルタイムに合成画像を生成
する。
Outline of System Configuration FIG. 1 shows an outline of the configuration of the system of the present invention. This system is composed of three processing units: a specific object area extraction unit, a three-dimensional geometric information extraction unit, and a moving image object and CG simultaneous drawing unit. The specific object area extraction unit and the three-dimensional geometric information extraction unit create data called a moving image object to be combined with the CG and store it in the hard disk. This data is used to create a video object and
The CG simultaneous drawing section generates a composite image in non-real time.

【0008】特定物体領域の抽出部 特定物体領域の抽出部は、キャプチャリングツールによ
って入力された映像情報から、特定物体の領域を切り出
す処理を行う。この処理の流れを図2に示す。ここでは
入力データとして連続画像シーケンスを受け取り、出力
として特定物体を包含する矩形領域の画像シーケンス
と、それと同じサイズのアルファ値を格納したアルファ
マップシーケンスを作る。物体の領域を2値のマスクで
切り分けると境界部分に不自然なエリアシングが生じ
る。これを防ぐためにアルファ値を使って領域を定義す
る。あるn枚目の画像について、ユーザとの対話処理で
特定物体の領域を決定後、n+1〜n+m枚目の処理は
前フレームの処理結果を利用して計算機で半自動的に行
う。
Specific Object Area Extraction Section The specific object area extraction section cuts out the area of the specific object from the video information input by the capturing tool. The flow of this processing is shown in FIG. Here, a continuous image sequence is received as input data, and as an output, an image sequence of a rectangular area including a specific object and an alpha map sequence storing an alpha value of the same size are created. If the object area is divided by a binary mask, unnatural aliasing occurs at the boundary. To prevent this, the area is defined by using the alpha value. After the area of the specific object is determined by the interactive process with the user for a certain n-th image, the n + 1 to n + m-th process is semi-automatically performed by the computer using the processing result of the previous frame.

【0009】3次元幾何情報の抽出部 3次元幾何情報の抽出部は、前述の特定物体領域の抽出
部が作った特定物体を包含する矩形領域の画像シーケン
スとアルファマップシーケンスを利用して2次元の映像
情報から3次元幾何情報を抽出する。この3次元幾何情
報の抽出は、ユーザが2次元の画像上の物体に、複数の
簡単な形状プリミティブ(直方体など)を変形、回転、
移動なとの操作をして、フィッティングを行うことで実
現する。本システムでは視点情報だけでなく、物体の形
状情報及び各面に張り付いているテクスチャ画像を抽出
する。この抽出部では、動画オブジェクトと呼ぶデータ
構造を作るために、映像中の物体に3次元幾何情報を与
え、そのCGモデル化された物体の各面に張り付く映像情
報を抽出し、正面から見たものに正規化して格納する。
3D Geometric Information Extraction Unit The 3D geometric information extraction unit uses the image sequence of the rectangular area including the specific object created by the specific object area extraction unit and the alpha map sequence to generate the 2D information. 3D geometrical information is extracted from the image information of. The extraction of this three-dimensional geometric information allows the user to transform, rotate, and transform a plurality of simple shape primitives (such as a rectangular parallelepiped) into an object on a two-dimensional image.
It is realized by performing fitting with the operation such as moving. This system extracts not only viewpoint information but also shape information of objects and texture images attached to each surface. In order to create a data structure called a moving image object, this extraction unit gives three-dimensional geometric information to an object in a video, extracts the video information sticking to each surface of the CG modeled object, and views it from the front. Normalize and store it.

【0010】動画オブジェクトの構造 特定物体領域の抽出部と3次元幾何情報の抽出部の処理
を経て生成されたデータは動画オブジェクトと呼ぶ構造
になる。図3に動画オブジェクトの構造の概略を示す。
動画オブジェクトはCGと映像を融合するために新たに作
ったデータ構造で、形状データの他に表面情報として、
各面に張り付く映像情報(静止画,或いは動画)へのポ
インタを格納している。
Structure of Moving Image Object The data generated through the processing of the specific object region extracting unit and the three-dimensional geometric information extracting unit has a structure called a moving image object. FIG. 3 shows an outline of the structure of the moving image object.
The video object is a new data structure created to combine CG and video, and as surface information in addition to shape data,
It stores pointers to video information (still images or moving images) that stick to each surface.

【0011】合成画像生成部 合成画像生成部では、生成された動画オブジェクトデー
タとCGデータとを同時に描画する。このとき、メタ情報
として描画するCGシーンの時刻Ti と時間間隔Δtを指
定する。CGデータには各物体の形状データの他に、各時
刻に於ける位置情報が含まれる。また、時刻Ti によ
り、動画オブジェクトの中の映像データから各面に貼り
付けられる映像が選択される。時刻Ti に於ける物体の
表面属性が決定された後、時刻Ti における合成シーン
を生成する。
Synthetic image generation unit The synthetic image generation unit simultaneously draws the generated moving image object data and CG data. At this time, the time T i and the time interval Δt of the CG scene to be drawn are specified as the meta information. The CG data includes position information at each time in addition to the shape data of each object. Further, at time T i , the image to be attached to each surface is selected from the image data in the moving image object. After the surface attributes of the object at time T i are determined, a composite scene at time T i is generated.

【0012】以下本発明を具体的に説明する。本願の発
明は大きく2つに分けられる。 (1) 全体構成に関するもの (2) 特定物体の領域の抽出部及び3次元形状情報の付加
部に関するもの
The present invention will be specifically described below. The invention of the present application can be roughly divided into two. (1) Overall configuration (2) Specific object area extraction section and 3D shape information addition section

【0013】(2) は 2-1 特定物体領域の抽出部及び3次元形状情報の付加部
の構成に関するもの 2-2 前記抽出部の構成に関するもの 2-3 3次元形状モデルの表示に関するもの の3つに分けられる。以下(1) を第1群の発明、2-1 、
2-2 、2-3 を夫々第2、3、4群の発明と言う。
(2) 2-1 Concerning the structure of the extraction unit of the specific object area and the addition unit of the three-dimensional shape information 2-2 Concerning the structure of the extraction unit 2-3 Concerning the display of the three-dimensional shape model 3 It is divided into two. In the following (1), the invention of the first group, 2-1,
2-2 and 2-3 are called inventions of the second, third and fourth groups, respectively.

【0014】本願の主題は第4群の発明であるが、それ
に関連する第1〜第3群の発明も説明する。第1群の発
明から詳細に説明する。 [第1群の発明] (概要)第1群の発明はCGと実写映像との合成の全体構成
に関するものである。
Although the subject matter of the present application is the fourth group of inventions, the inventions of the first to third groups related thereto are also described. The first group of inventions will be described in detail. [Invention of the First Group] (Outline) The invention of the first group relates to an overall configuration of composition of CG and a live-action image.

【0015】[0015]

【従来の技術及び発明が解決しようとする課題】CGと実
写映像の合成は、合成後の映像を想定した上で撮影し、
実写画像から合成すべき部分のみを切り出し、CGに重ね
合わせる手法をとっていた。このような手法における撮
影の場合、ブルーバックによるスタジオ撮影が必要であ
ったり、撮影時にカメラの位置を測定する必要があるな
ど、大掛かりな環境が必要である。
[Prior Art and Problems to be Solved by the Invention] When synthesizing a CG and a live-action image, the image after the synthesization is supposed to be taken,
The technique was to cut out only the part to be combined from the live-action image and overlay it on CG. In the case of shooting with such a method, a large-scale environment is required, such as studio shooting with blue background or measurement of the camera position during shooting.

【0016】計算機によって支援する方式も前述のMIRU
'92の文献に提案されている。これは視点情報を実写映
像から抽出し、その映像中の対象物を平面に近似して、
CGと合成する手法である。しかし、完全な3次元情報を
有するモデルではないため、合成時に視点を変更できな
いなど、合成処理に制限を受ける。特開平3-138784号公
報には静止画中の物体を3次元として扱うために、静止
画中の物体を3次元モデルに基づいて再構成し、その3
次元物体に相当する部分画像を、3次元物体モデルの表
面テクスチャとしてマッピングし表示する方式が提案さ
れている。この方式では、1つの3次元部に対し、複数
枚の入力画像から表面テクスチャを合成することも提案
している。しかし、映像 (動画像) の場合、表面テクス
チャが刻々と変化する場合も考えられ、複数テクスチャ
を合成した場合、時系列方向で平滑化したテクスチャが
得られてしまうこともあり不適当である。
The method supported by a computer is also the MIRU mentioned above.
Proposed in the '92 literature. This extracts viewpoint information from a live-action video, approximates the object in the video to a plane,
This is a method of combining with CG. However, since it is not a model that has complete three-dimensional information, the viewpoint cannot be changed at the time of composition, and the composition processing is limited. Japanese Patent Laid-Open No. 3-138784 discloses that an object in a still image is reconstructed based on a three-dimensional model in order to treat the object in the still image as three-dimensional.
A method has been proposed in which a partial image corresponding to a three-dimensional object is mapped and displayed as a surface texture of a three-dimensional object model. In this method, it is also proposed to synthesize a surface texture from a plurality of input images for one three-dimensional portion. However, in the case of a video (moving image), the surface texture may change every moment, and when a plurality of textures are combined, a texture smoothed in the time series direction may be obtained, which is unsuitable.

【0017】[0017]

【発明が解決しようとする課題】本発明はこのような技
術的背景の下になされたものであり、実写映像を3次元
形状を有するCGモデルに簡便に変換することができる画
像合成方法を提案することを第1の目的とする。また前
記CGモデルをフレームごとに生成して、その結果動画に
もできる映像合成方法を提供することを第2の目的とす
る。
The present invention has been made under such a technical background, and proposes an image synthesizing method capable of easily converting a photographed image into a CG model having a three-dimensional shape. The first purpose is to do so. A second object is to provide a video synthesizing method that can generate the CG model for each frame and, as a result, create a moving image.

【0018】[0018]

【課題を解決するための手段】本発明に係る画像合成方
法は、コンピュータグラフィックスと実写映像とを合成
する画像合成方法において、実写映像中の特定の領域を
抽出する過程と、抽出した領域に3次元形状の情報を付
加する過程と、抽出領域の情報及び3次元形状の情報に
基づき、抽出領域に係る情報をコンピュータグラフィッ
クスモデル化する過程とを備えることを主な特徴とす
る。
An image synthesizing method according to the present invention is an image synthesizing method for synthesizing computer graphics and a live-action video, and a process of extracting a specific area in the live-action video The main features are that it includes a process of adding information of a three-dimensional shape and a process of computerizing information on the extraction region based on the information of the extraction region and the information of the three-dimensional shape.

【0019】更に、コンピュータグラフィックスモデル
化した前記抽出領域に係る情報と他のコンピュータグラ
フィックスモデルとを混在表示させるべくこれらを合成
する過程を備える。そして動画作成のために複数フレー
ムに亘って同様の処理を実行する。
Further, there is provided a step of synthesizing the computer graphics modeled information relating to the extraction area and another computer graphics model so as to be mixedly displayed. Then, the same processing is executed over a plurality of frames to create a moving image.

【0020】本発明に係る画像合成装置は、コンピュー
タグラフィックスと実写映像とを合成する画像合成装置
において、実写映像中の特定の領域を抽出する手段と、
抽出した領域に3次元形状の情報を付加する手段と、抽
出領域の情報及び3次元形状の情報に基づき、抽出領域
に係る情報をコンピュータグラフィックスモデル化する
手段とを備えることを主な特徴とする。
An image synthesizing device according to the present invention is a device for synthesizing computer graphics and a live-action video, and means for extracting a specific region in the live-action video,
A main feature is that it is provided with means for adding three-dimensional shape information to the extracted region, and means for computerizing the information related to the extracted region into a computer graphics model based on the extracted region information and the three-dimensional shape information. To do.

【0021】更に、コンピュータグラフィックスモデル
化した前記抽出領域に係る情報と他のコンピュータグラ
フィックスモデルとを混在表示させるべくこれらを合成
する手段を備える。
Further, there is provided means for synthesizing the computer graphics modeled information relating to the extraction area and another computer graphics model so as to display them together.

【0022】実写映像から特定の物体に対応する領域を
切り出し、これに3次元形状情報を付加する。これによ
り実写映像の前記特定物体の表面属性を有するCGモデル
が生成される。これを単独で用いるか、又は他のCGモデ
ルと混合する。更に複数フレームに亘って同様の処理を
行うことで動画での画像合成が行える。
A region corresponding to a specific object is cut out from a real image and three-dimensional shape information is added to this. As a result, a CG model having the surface attribute of the specific object of the live-action image is generated. It can be used alone or mixed with other CG models. Further, by performing the same processing over a plurality of frames, it is possible to combine images in a moving image.

【0023】[0023]

【発明の実施の形態】以下本発明をその実施の形態を示
す図面に基づき具体的に説明する。図4は本発明方法を
実施するための装置のブロック図であり、図5はその処
理の流れ図である。図4において9はTVカメラ、ビデオ
テープ、ビデオディスク等の映像供給装置であり、これ
らから得られた実写映像情報はビデオメモリ等からなる
画像記憶部5へフレーム毎に記憶される。この画像記憶
部5に記憶されている実写映像情報は特定物体領域抽出
部1へ与えられ、ここで実写映像中の特定の物体の領域
が抽出される。抽出領域の指示はオペレータがマウス等
のポインティング装置12を用いて行う。またその具体的
な内容は第2〜4群の発明の説明に詳しい。図6は実写
映像として4角柱及び3角錐が表示されている場合に4
角柱を抽出領域として指定した(太線で示す)場合の状
態を示している。このようにして指定された領域の映像
情報は3次元形状情報付加部2へ送られ、ここで3次元
形状情報が付加される一方、形状・表面属性情報記憶部
6に記憶される。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be specifically described below with reference to the drawings showing the embodiments thereof. FIG. 4 is a block diagram of an apparatus for carrying out the method of the present invention, and FIG. 5 is a flow chart of the processing. In FIG. 4, reference numeral 9 denotes an image supply device such as a TV camera, a video tape, a video disk, etc., and the actually-photographed image information obtained from these is stored in each frame in the image storage unit 5 including a video memory. The photographed image information stored in the image storage unit 5 is given to the specific object region extraction unit 1, where the region of a specific object in the photographed image is extracted. The operator designates the extraction area using a pointing device 12 such as a mouse. The specific contents thereof are detailed in the description of the inventions of the second to fourth groups. FIG. 6 shows a case where a quadrangular prism and a three-sided pyramid are displayed as a live-action image.
The state is shown when a prism is designated as an extraction region (shown by a thick line). The image information of the area designated in this way is sent to the three-dimensional shape information adding unit 2, where the three-dimensional shape information is added and stored in the shape / surface attribute information storage unit 6.

【0024】3次元形状情報付加部2は特定物体領域抽
出部1から与えられた情報に3次元形状情報を付加し
て、これを形状・表面属性情報記憶部6に蓄える。3次
元形状情報付加部2の具体的構成は第2群の発明に詳し
いが、ここでも1例を挙げて説明する。
The three-dimensional shape information addition section 2 adds three-dimensional shape information to the information given from the specific object area extraction section 1 and stores it in the shape / surface attribute information storage section 6. The specific configuration of the three-dimensional shape information adding unit 2 is detailed in the invention of the second group, but here again, one example will be described.

【0025】図7はそのフローチャートである。まず図
8に示すように指定して抽出した領域、又は物体を画像
表示装置10の画面に表示させて、オペレータに画像の焦
点距離fを入力させる(S1)。この入力にはキーボード等
の文字・数値入力装置11が使用される。次にポインティ
ング装置12を用いて画面上に稜線を描画させ、その奥行
の値を入力させる(S2)。図8には描画した稜線を太線で
示し、指定した奥行の値をZで表示している。この描
画、奥行指定は取消、訂正が可能である。面の特定は基
本的に3角形(3本の稜線)によって行えるから、この
発明でも図9に示すように3角形に分割するように稜線
を描画し、また3角形への分割のための補助線(矩形の
対角線)の描画を行い、相異る2本の稜線(補助線を含
む)が交わることなく、抽出領域内の総ての点が3本の
稜線に囲まれた状態になっている状態にする(S3)。
FIG. 7 is a flowchart thereof. First, as shown in FIG. 8, an area or object that is designated and extracted is displayed on the screen of the image display device 10 and the operator is prompted to input the focal length f of the image (S1). A character / numeric input device 11 such as a keyboard is used for this input. Next, the ridge line is drawn on the screen by using the pointing device 12, and the depth value is input (S2). In FIG. 8, the drawn ridge line is indicated by a thick line, and the designated depth value is indicated by Z. This drawing and depth designation can be canceled and corrected. Since the surface can be specified basically by a triangle (three ridges), the present invention also draws ridges so as to divide into triangles as shown in FIG. 9, and assists in dividing into triangles. Draws a line (diagonal rectangle), and two different ridgelines (including auxiliary lines) do not intersect and all points in the extraction area are surrounded by three ridgelines. It is in the state of being on (S3).

【0026】次に端点の3次元座標の算出をする(S4)。
これはS1、S2で入力した焦点距離f、奥行Z、及び端点
の画像上の座標(x,y)に基づき、 X=(x/f)×Z Y=(y/f)×Z により得る。なお、稜線上の点及び稜線で囲まれた領域
内の点の3次元座標は、次の式によって算出できる。
Next, the three-dimensional coordinates of the end points are calculated (S4).
This is obtained by X = (x / f) × Z Y = (y / f) × Z based on the focal length f input in S1 and S2, the depth Z, and the coordinates (x, y) on the image of the end point. . The three-dimensional coordinates of the point on the ridgeline and the point in the area surrounded by the ridgeline can be calculated by the following formula.

【0027】稜線上の点 稜線の端点の3次元座標、及び画像上の座標を夫々、
(xi ,yi ),(Xi,Yi ,Zi )(i=1,2)
とすると、稜線上の点(x,y)の3次元座標(X,
Y,Z)は、 X=(1−t)X1 +tX2 Y=(1−t)Y1 +tY2 Z=(1−t)Z1 +tZ2 により得る。ただし、tは、x1 ≠x2 の場合は(x−
1 )/(x2 −x1 )、x1 =x2 の場合は(y−y
1 )/(y2 −y1 )である。
The three-dimensional coordinates of the end points of the ridge and the coordinates on the image are respectively
(X i , y i ), (X i , Y i , Z i ) (i = 1, 2)
Then, the three-dimensional coordinates (X, y) of the point (x, y) on the edge line
Y, Z) is obtained by X = (1-t) X 1 + tX 2 Y = (1-t) Y 1 + tY 2 Z = (1-t) Z 1 + tZ 2. However, when t is x 1 ≠ x 2 , t is (x−
x 1 ) / (x 2 −x 1 ), and when x 1 = x 2 , (y−y)
1 ) / (y 2 −y 1 ).

【0028】稜線で囲まれた領域内の点 この領域内の点はいずれも3本の稜線に囲まれており、
それらの交点は3本の稜線の端点であることが保証され
ている。従って3つの交点の座標がなす平面は、3つの
交点の座標(Xi ,Yi ,Zi )(i=1,2,3)に
より求めることができる(自明)。この平面の方程式を
aX+bY+cZ−1=0とおくと、領域内の点の画像
上の座標(x,y)の3次元座標(X,Y,Z)は、 X=x/(ax+by+cf) Y=y/(ax+by+cf) Z=f/(ax+by+cf) により得られる。
Points in Region Surrounded by Ridges All points in this region are surrounded by three ridges,
Their intersections are guaranteed to be the endpoints of the three ridges. Therefore, the plane formed by the coordinates of the three intersections can be obtained from the coordinates (X i , Y i , Z i ) of the three intersections (i = 1, 2, 3) (obvious). Letting the equation of this plane be aX + bY + cZ-1 = 0, the three-dimensional coordinates (X, Y, Z) of the coordinates (x, y) on the image of the points in the area are: X = x / (ax + by + cf) Y = y / (ax + by + cf) Z = f / (ax + by + cf)

【0029】このようにして得られた稜線から、端点の
3次元座標及び接続関係は形状情報として、端点の特定
物体領域上の座標対応及び特定物体領域画像の画像デー
タは表面属性情報として、形状・表面属性情報記憶部6
へ格納する(S5)。表1は形状・表面属性情報記憶部6の
記憶内容を示している。以上のS1〜S5の処理を全フレー
ムにつき反復する(S6)。
From the ridge thus obtained, the three-dimensional coordinates of the end points and the connection relation are shape information, and the coordinate correspondence of the end points on the specific object area and the image data of the specific object area image are the surface attribute information. .Surface attribute information storage unit 6
Store in (S5). Table 1 shows the stored contents of the shape / surface attribute information storage unit 6. The above steps S1 to S5 are repeated for all frames (S6).

【0030】[0030]

【表1】 [Table 1]

【0031】次に形状・表面属性情報記憶部6の内容を
映像CGモデル生成部3でCGモデル化する。形状情報のCG
モデル化については稜線の接続関係及び3次元座標よ
り、端点を頂点、稜線を辺、囲まれる部分を面とみなす
ことによりそのままCGモデルを生成できる。
Next, the contents of the shape / surface attribute information storage unit 6 are converted into a CG model by the video CG model generation unit 3. CG of shape information
Regarding modeling, it is possible to generate a CG model as it is by regarding the end points as vertices, the ridge lines as sides, and the enclosed parts as faces based on the connection relationship of the ridge lines and the three-dimensional coordinates.

【0032】一方、表面属性情報については面とみなし
た部分の表面属性情報として、その位置に対応する画像
情報を、生成するCGモデルのテクスチャとする。その
際、その画像情報を、3次元空間で法線方向から見た画
像として正規化する。正規化の際の回転行列Rは、次式
で与える。
On the other hand, regarding the surface attribute information, the image information corresponding to the position is used as the texture of the generated CG model as the surface attribute information of the portion regarded as the surface. At that time, the image information is normalized as an image viewed from the normal direction in a three-dimensional space. The rotation matrix R for normalization is given by the following equation.

【0033】[0033]

【数1】 [Equation 1]

【0034】ただし、回転角ψ及び回転角κは、この領
域の平面の方程式をaX+bY+cZ−1=0と表した
際のa,b,cに基づき
However, the rotation angle ψ and the rotation angle κ are based on a, b, and c when the equation of the plane of this region is expressed as aX + bY + cZ-1 = 0.

【0035】[0035]

【数2】 [Equation 2]

【0036】である。a,b,cは、3つの頂点の3次
元座標(Xi ,Yi ,Zi )(i=1,2,3)により
求めることができる。このようなCGモデル化処理をすべ
てのフレームに対して適用し、実写映像に対するCGモデ
ルを、各フレームに対するCGモデル列として獲得し、こ
れを映像CGモデル記憶部7bに記憶させる。CGモデル作成
部13は上述のような実写映像から作成するのではない通
常のCGモデルを作成するものであり、作成されたCGモデ
ルはCGモデル記憶部7aに記憶される。
It is The values a, b, and c can be obtained from the three-dimensional coordinates (X i , Y i , Z i ) (i = 1, 2, 3) of the three vertices. Such a CG modeling process is applied to all frames, and a CG model for a live-action video is acquired as a CG model sequence for each frame and stored in the video CG model storage unit 7b. The CG model creating unit 13 creates a normal CG model, which is not created from the above-described photographed image, and the created CG model is stored in the CG model storage unit 7a.

【0037】合成情報記憶部8はこのCGモデルと実写映
像から作成した映像CGモデルとを合成画像生成部4で合
成するための情報 (CGモデル配置情報) を記憶するもの
であり、合成画像生成部4は、これに基づいて両CGモデ
ルの合成をし、これを画像表示装置10に表示させたり、
或いは図示しない記録媒体に記録させる。合成画像生成
部4及び合成情報記憶部8については第5群の発明に詳
しい。
The composite information storage unit 8 stores the information (CG model layout information) for combining the CG model and the video CG model created from the photographed image in the composite image generation unit 4, and generates the composite image. Based on this, the section 4 synthesizes both CG models and displays them on the image display device 10,
Alternatively, it is recorded on a recording medium (not shown). The composite image generation unit 4 and the composite information storage unit 8 are detailed in the fifth group of inventions.

【0038】[0038]

【発明の効果】以上の如き本発明による場合は実写映像
を3次元形状を持つCGモデルへ変換するので、通常のCG
モデルと同様の取扱いができ、これらの合成等の処理が
容易に行える。そして実写映像のCGモデル化は領域の抽
出及びこれに対する3次元形状情報の付加という簡便な
操作で行える。またこの際オペレータの手動介入が可能
であるので、微妙な調整、或いはこの作為的変更が行
え、自由度が高まる。また複数フレームを同様に処理す
ることで動画への適用も可能である。
In the case of the present invention as described above, since the photographed image is converted into a CG model having a three-dimensional shape, a normal CG
It can be handled in the same way as the model, and processing such as composition can be performed easily. Then, the CG model of the photographed image can be obtained by a simple operation of extracting a region and adding three-dimensional shape information thereto. Further, at this time, since the operator can manually intervene, delicate adjustment or this artificial change can be performed, and the degree of freedom is increased. Also, it can be applied to a moving image by processing a plurality of frames in the same manner.

【0039】[第2群の発明] (概要)この発明は図4の特定物体領域抽出部1及び3次
元形状情報付加部2の構成に係るものである。
[Invention of Second Group] (Outline) The present invention relates to the configurations of the specific object area extracting section 1 and the three-dimensional shape information adding section 2 of FIG.

【0040】[0040]

【従来の技術及び発明が解決しようとする課題】画像中
の3次元物体に対し、その物体の形状を完全に抽出する
方式は、未だ確立されていない。従来技術として提案さ
れているのは、物体表面の反射特性を仮定し、観察され
る色値から物体表面の傾きを求める方式や、画像に観察
される物体のモデルを予め記憶しておき、そのモデルと
画像に観察される物体の見えかたを照合する方式、等々
である。これらは、画像理解研究の発展とともに、開発
されてきた。
2. Description of the Related Art A method for completely extracting the shape of a three-dimensional object in an image has not been established yet. Proposed as a conventional technique is to assume the reflection characteristics of the object surface and store the model of the object observed in the image in advance and the method of obtaining the inclination of the object surface from the observed color value. A method of matching the appearance of an object observed in a model and an image, and so on. These have been developed with the development of image understanding research.

【0041】しかし、何れの方式も、適用条件に合致し
ていないと適用できない。例えば、前者の方式に対して
は、反射特性を仮定できない物体の場合、後者の方式に
対しては、記憶していないモデルの物体の場合、適用す
ることができない。そこでこの発明では映像に含まれる
物体の3次元形状を得る際、その物体のおよその形状を
人間が指定し、その形状のモデルを画像に表示しなが
ら、その重ね合わせ方を、人間による指定と、画像処理
の手法を用いた計算機による自動調整を、交互に対話的
に行う3次元形状抽出方法及び装置を提供することを目
的とする。
However, neither method can be applied unless the application conditions are met. For example, the former method cannot be applied to an object whose reflection characteristics cannot be assumed, and the latter method cannot be applied to a model object that is not stored. Therefore, in the present invention, when a three-dimensional shape of an object included in an image is obtained, a human specifies a rough shape of the object, a model of the shape is displayed on an image, and a superimposing method is specified by a human. It is an object of the present invention to provide a three-dimensional shape extraction method and apparatus that interactively perform automatic adjustment by a computer using an image processing method alternately.

【0042】[0042]

【課題を解決するための手段】第2群の発明の方法は、
実写映像に含まれる物体の3次元形状を抽出する方法に
おいて、複数の幾何学的形状のデータを予め用意してお
く過程と、実写映像から前記物体に相当する領域を抽出
する過程と、抽出した領域を表示している画面に前記デ
ータによっていずれかの形状を選択表示させる過程と、
前記領域および形状を一致させるべく前記形状の位置、
向き、大きさを調整する過程とを備えることを特徴とす
る。
The method of the second group of inventions comprises:
In a method of extracting a three-dimensional shape of an object included in a live-action image, a process of preparing data of a plurality of geometric shapes in advance and a process of extracting a region corresponding to the object from the live-action image are extracted. A process of selectively displaying one of the shapes according to the data on the screen displaying the area,
The position of the shape to match the region and shape,
And a process of adjusting the direction and the size.

【0043】また第2群の発明の装置は、実写映像に含
まれる物体の3次元形状を抽出する装置において、複数
の幾何学的形状のデータを予め用意しておく手段と、実
写映像から前記物体に相当する領域を抽出する手段と、
抽出した領域を表示している画面に前記データによって
いずれかの形状を選択表示させる手段と、前記領域およ
び形状を一致させるべく前記形状の位置、向き、大きさ
を調整する調整手段とを備えることを特徴とする。
The device of the second group of inventions is a device for extracting the three-dimensional shape of an object included in a live-action image, and means for preparing data of a plurality of geometric shapes in advance, Means for extracting a region corresponding to the object,
A means for selectively displaying any shape according to the data on a screen displaying the extracted area, and an adjusting means for adjusting the position, orientation, and size of the shape so as to match the area and the shape. Is characterized by.

【0044】そして調整手段では物体の形状及び色相値
に基づく位置,向き,大きさの自動調整手段を備える。
更に調整済形状に実写映像から抽出した領域の画像情報
をマッピングする手段を備える。
The adjusting means is provided with automatic adjusting means for position, orientation and size based on the shape and hue value of the object.
Further, it is provided with means for mapping the image information of the area extracted from the photographed image on the adjusted shape.

【0045】抽出した物体の領域に近い形状を予め用意
されている形状の中から選択して表示させる。そうする
とこの領域と形状とが一致するように調整されて目的と
する物体の3次元形状が抽出できたことになる。この結
果は前述の3次元形状情報付加部2で得られた結果と同
様のものである。
A shape close to the area of the extracted object is selected and displayed from the shapes prepared in advance. Then, this region and the shape are adjusted so as to match, and the three-dimensional shape of the target object can be extracted. This result is similar to the result obtained by the three-dimensional shape information adding unit 2 described above.

【0046】[0046]

【発明の実施の形態】以下第2群の発明をその実施の形
態を示す図面に基づいて詳述する。図10は3次元形状抽
出装置のブロック図である。図において21は物体領域抽
出部であり、実写映像から所要の物体の領域を抽出して
画像表示装置27に表示させるものである。これについて
は第3群の発明に詳しい。実写映像及び抽出映像は画像
記憶部25に記憶される。基本形状選択部22は図12に示す
ような基本形状のパターンを多数記憶しており、これを
オペレータが選択して画像表示装置27に表示させるもの
である。基本形状重ね合わせ部23はオペレータが選択し
た基本形状のパターンと、抽出した物体の画像とを図13
に示すように重ね合わせて表示させ、後述するようなオ
ペレータの操作とコンピュータによる自動調整とにより
両者を合致させるものである。合致するように重ね合わ
された結果は重ね合わせ情報記憶部26に記憶される。ま
た重ね合わせ結果表示部24は調整の済んだ基本形状に抽
出物体の表面の画像情報をマッピングするものである。
BEST MODE FOR CARRYING OUT THE INVENTION The second group of inventions will be described in detail below with reference to the drawings showing the embodiments thereof. FIG. 10 is a block diagram of a three-dimensional shape extraction device. In the figure, reference numeral 21 denotes an object area extraction unit, which extracts an area of a desired object from a real image and displays it on the image display device 27. This is detailed in the invention of the third group. The photographed image and the extracted image are stored in the image storage unit 25. The basic shape selection unit 22 stores a large number of basic shape patterns as shown in FIG. 12, and the operator selects the pattern and displays it on the image display device 27. The basic shape superposition unit 23 displays the pattern of the basic shape selected by the operator and the image of the extracted object as shown in FIG.
As shown in FIG. 5, the two are displayed in a superimposed manner, and the both are matched by the operation of the operator and the automatic adjustment by the computer as described later. The result of overlapping so as to match is stored in the overlapping information storage unit 26. The overlay result display unit 24 maps the image information of the surface of the extracted object on the adjusted basic shape.

【0047】次に図11に基づき3次元形状抽出方法を説
明する。画像記憶部25に記憶させてある実写映像を取出
し、これを画像表示装置27に表示させて物体領域抽出部
21で所要物体の抽出を行う(S21) 。図14はこの操作の説
明図である。オペレータは描画装置を用いて画面上に物
体領域及び背景領域を各例示する閉曲線を描く。物体領
域抽出部21は物体領域の閉曲線を拡張し、背景領域の閉
曲線は収縮させる。この拡張、収縮は色相が類似する部
分についてのみ認める。そうすると両閉曲線は境界で接
することになり、これにより境界を特定して所要の物体
の領域が抽出する。なお図14(b) のように拡張、収縮の
結果、影が存在する等のために境界が太く認定されるこ
とが生じ得るが、この場合は太い境界の内側線を物体の
境界とする。
Next, the three-dimensional shape extraction method will be described with reference to FIG. The real image stored in the image storage unit 25 is taken out and displayed on the image display device 27 so that the object area extraction unit
The required object is extracted at 21 (S21). FIG. 14 is an explanatory diagram of this operation. The operator draws a closed curve exemplifying the object area and the background area on the screen by using the drawing device. The object area extraction unit 21 expands the closed curve of the object area and contracts the closed curve of the background area. This expansion and contraction is recognized only in the portions having similar hues. Then, the two closed curves come into contact with each other at the boundary, whereby the boundary is specified and the desired object region is extracted. As shown in Fig. 14 (b), as a result of expansion and contraction, the border may be recognized as thick due to the presence of a shadow, etc. In this case, the inner line of the thick border is set as the boundary of the object.

【0048】次に所定操作を行わせて基本形状 (形状プ
リミティブ) のパターンを表示させ、抽出物体の形状に
類似するものを選択する(S22) 。これにより図13に示す
ように重ね合わせ表示させる(S23) 。一般的に抽出した
物体形状と選択した基本形状とは一致しない。そこで両
者が一致するまで(S24) 、物体形状と基本形状とにつ
き、位置調整(S27) 、向きの調整(S28) 、大きさの調整
(S29) 及び形状の部分的変形(S30) を行う。一致, 不一
致はオペレータの判断による。
Next, the pattern of the basic shape (shape primitive) is displayed by performing a predetermined operation, and a pattern similar to the shape of the extracted object is selected (S22). As a result, the images are overlaid and displayed as shown in FIG. 13 (S23). Generally, the extracted object shape does not match the selected basic shape. Therefore, until both match (S24), position adjustment (S27), orientation adjustment (S28), and size adjustment are performed for the object shape and basic shape.
(S29) and partial deformation of the shape (S30) are performed. Match / mismatch depends on the operator's judgment.

【0049】図15は位置移動に関する処理のフローチャ
ート、図16はその説明図である。この移動の原理は物体
領域と形状プリミティブのワイヤフレームの重心を一致
させる点にある。即ち物体領域の重心GROの算出(S31)
、及び形状プリミティブのワイヤフレームの重心GRP
の算出(S33) を行う。そしてこれらを一致させるべく形
状プリミティブのワイヤフレームの表示位置を移動する
(S32) 。
FIG. 15 is a flow chart of processing relating to position movement, and FIG. 16 is an explanatory diagram thereof. The principle of this movement is to match the center of gravity of the wire frame of the shape primitive with that of the object region. That is, calculation of the center of gravity G RO of the object area (S31)
, And the center of gravity of the wireframe of the shape primitive G RP
Is calculated (S33). Then, move the wireframe display position of the shape primitive to match them.
(S32).

【0050】物体領域の重心RROと、形状プリミティブ
のワイヤフレーム表示で囲まれる領域の重心RRPが一致
するように、形状プリミティブのワイヤフレーム表示位
置を移動する (図16) 。なお、領域Rの重心GR は、 GR =( m10/m00,m01/m00 )T により求めることができる。但し、 m0000=∫fdR 領域Rを構成する点の個数を示す。この値は面積を表
す。 m1010=∫xdR 領域Rを構成する各点のx座標の総和値を示す。 m0101=∫ydR 領域Rを構成する各点のy座標の総和値を示す。これに
従い、形状プリミティブのワイヤフレーム表示位置を
(GRO−GRP)移動する。
The wireframe display position of the shape primitive is moved so that the barycenter R RO of the object area and the barycenter R RP of the area surrounded by the wireframe display of the shape primitive match (FIG. 16). The center of gravity G R of the region R can be obtained by G R = (m 10 / m 00 , m 01 / m 00 ) T. However, m 00 m 00 = ∫fdR Indicates the number of points forming the region R. This value represents the area. m 10 m 10 = ∫xdR Shows the sum of the x-coordinates of each point forming the region R. m 01 m 01 = ∫ ydR Indicates the sum of y coordinates of the points forming the region R. In accordance with this, the wireframe display position of the shape primitive is moved (G RO -G RP ).

【0051】図17は向きの調整のために行う形状プリミ
ティブの回転の処理を示すフローチャート、図18はその
説明図である。回転による向きの調整の原理は、物体領
域及び形状プリミティブのワイヤフレームの長軸の平行
化にある。領域Rの長軸方向θR は、領域の重心回りの
慣性主軸として求めることができる。すなわち、 tan2 θR +[{m20−m10/m00)−(m02−m01
00)}/(m11−m1001/m00)] tanθR −1=
0 の解として求めればよい。但し、 m1111=∫xydR 領域Rを構成する各点のx座標とy座標の積の総和値を
示す。 m2020=∫x2 dR 領域Rを構成する各点のx座標の2乗の総和値を示す。 m0202=∫y2 dR 領域Rを構成する各点のy座標の2乗の総和値を示す。
これに従い、形状プリミティブのワイヤフレーム表示位
置を(θRO−θRP)回転する。
FIG. 17 is a flowchart showing the processing of rotating the shape primitive for adjusting the orientation, and FIG. 18 is an explanatory diagram thereof. The principle of orientation adjustment by rotation lies in the parallelization of the long axes of the object region and the wireframe of the shape primitive. The major axis direction θ R of the region R can be obtained as the principal axis of inertia around the center of gravity of the region. That is, tan 2 θ R + [{m 20 −m 10 / m 00 ) − (m 02 −m 01 /
m 00 )} / (m 11 −m 10 m 01 / m 00 )] tan θ R −1 =
It can be obtained as a solution of 0. However, m 11 m 11 = ∫xydR indicates the sum total value of the products of the x-coordinate and the y-coordinate of each point forming the region R. m 20 m 20 = ∫x 2 dR Shows the sum of squares of the x-coordinates of the points forming the region R. m 02 m 02 = ∫y 2 dR Shows the sum of squares of the y-coordinates of the points forming the region R.
According to this, the wireframe display position of the shape primitive is rotated by (θ RO −θ RP ).

【0052】図17のフローチャートに示すように抽出し
た物体領域及び形状プリミティブのワイヤフレームのモ
ーメント量を算出する(S41,S44) 。このモーメント量の
算出は mij=∫xi j dR (ij)={(0,0),(1,0),(0,1),(1,1),(2,0),(0,2) } で求められる。
As shown in the flow chart of FIG. 17, the amount of moment of the wire frame of the extracted object region and shape primitive is calculated (S41, S44). The calculation of this moment amount is m ij = ∫x i y j dR (ij) = {(0,0), (1,0), (0,1), (1,1), (2,0), (0,2)}.

【0053】一方、前述のようにして物体領域の長軸、
並びに形状プリミティブのワイヤフレームの長軸及び重
心GRPを前述のようにして求める(S42,S45,S46) 。そし
てG RPを中心としてθRO−RRPだけ形状プリミティブの
ワイヤフレーム表示位置を回転する(S43) 。
On the other hand, as described above, the long axis of the object region,
And shape primitive wireframe long axis and weight
Heart GRPIs obtained as described above (S42, S45, S46). That
G RPCentered on θRO-RRPOnly of shape primitives
Rotate the wireframe display position (S43).

【0054】大きさの調整は図20に示すように両者の表
示面積が一致するように領域RP の重心GRPを中心とし
て形状プリミティブのワイヤフレームを拡大又は縮小す
ることで行う。即ち領域Rの面積SR は SR =m00 として求めることができる。これに従い、形状プリミテ
ィブのワイヤフレームをSRO/SRP倍すればよい。 ここにSROは物体領域の面積 SRPは形状プリミティブのワイヤフレームの面積 である。
As shown in FIG. 20, the size is adjusted by enlarging or reducing the wireframe of the shape primitive around the center of gravity G RP of the region R P so that their display areas coincide with each other. That is, the area S R of the region R can be obtained as S R = m 00 . Accordingly, the wireframe of the shape primitive may be multiplied by S RO / S RP . Here, S RO is the area of the object region S RP is the area of the wireframe of the shape primitive.

【0055】図19のフローチャートにおいて、抽出した
物体の領域のモーメント量、形状プリミティブのワイヤ
フレーム表示領域のモーメント量を算出する(S51,S54)
。そしてこれを用いて両者の面積SRO, SRPを算出す
る(S52,S55) 。また形状プリミティブのワイヤフレーム
の重心GRPを算出する(S56) 。そして形状プリミティブ
のワイヤフレームをSRO/SRP倍する(S53) 。面積はモ
ーメント量m00として求めることができる。
In the flowchart of FIG. 19, the moment amount of the extracted object region and the moment amount of the wire frame display region of the shape primitive are calculated (S51, S54).
. Then, using this, the areas S RO and S RP of both are calculated (S52, S55). Also, the center of gravity G RP of the wire frame of the shape primitive is calculated (S56). Then, the wireframe of the shape primitive is multiplied by S RO / S RP (S53). The area can be obtained as the moment amount m 00 .

【0056】図11に返って、形状の変形について説明す
る。物体領域の形状が基本形状と部分的に異なる場合は
オペレータが入力する命令で基本形状を部分的に変形す
る。以上のようにして物体領域と基本形状が一致した場
合は、これを重ね合わせ情報記憶部26へ格納する(S25)
。そして図21に示すように形状プリミティブのワイヤ
フレームに抽出した物体領域の画像情報をマッピングす
る(S26) 。つまり実写映像の所要部が切り出されて形状
プリミティブのワイヤフレームに貼り付けられた如き状
態になる。
Returning to FIG. 11, the deformation of the shape will be described. When the shape of the object region is partially different from the basic shape, the basic shape is partially deformed by a command input by the operator. When the object region and the basic shape match as described above, this is stored in the overlay information storage unit 26 (S25).
. Then, as shown in FIG. 21, the image information of the extracted object region is mapped to the wire frame of the shape primitive (S26). In other words, the required part of the real image is cut out and attached to the wireframe of the shape primitive.

【0057】[0057]

【発明の効果】以上のような第2群の発明による場合は
オペレータが対話方式で3次元形状の抽出ができるので
適用条件に制約されず、また物体に対する既知情報(反
射情報など)を必要とすることなく抽出が可能である。
また基本形状を物体領域に一致させる作業はコンピュー
タが自動的に行うのでオペレータの負担は軽微である。
またマッピングを行うので抽出した3次元形状情報の適
否が直感的に判断できる。
In the case of the second group of inventions as described above, the operator can extract the three-dimensional shape in an interactive manner, so that the application conditions are not restricted and the known information (reflection information etc.) for the object is required. It is possible to extract without doing.
Further, since the computer automatically performs the work of matching the basic shape with the object area, the burden on the operator is light.
In addition, since the mapping is performed, the suitability of the extracted three-dimensional shape information can be intuitively determined.

【0058】[第3群の発明] (概要)第3群の発明は図4の特定物体領域抽出部又は図
10の物体領域抽出部に係るものである。
[Invention of Third Group] (Outline) The invention of the third group is based on the specific object area extracting unit or the drawing of FIG.
The present invention relates to 10 object area extracting units.

【0059】[0059]

【従来の技術】電気的に画像を合成する場合は図22に示
すようにして行われていた。例えば人物像の画像をブル
ー背景として画像入力部Aで撮影し、また風景画像を画
像入力部Bで撮影する。そして画像入力部Aの画像から
ブルー成分を検出し、これを反転増幅して、適宜の混合
比制御をして、この反転増幅信号と、画像入力部A, B
からの信号とを混合増幅器で合成し、画像出力部へ出力
することとしていた。これにより画像入力部Aからの背
景が消えて画像入力部Bを背景とする人物像が合成され
ることになる。
2. Description of the Related Art An image is electrically synthesized as shown in FIG. For example, an image of a person image is photographed by the image input section A with a blue background, and a landscape image is photographed by the image input section B. Then, the blue component is detected from the image of the image input unit A, the blue component is inverted and amplified, and the mixing ratio is appropriately controlled, and the inverted amplified signal and the image input units A and B are detected.
The signal from is combined with a mixing amplifier and output to the image output unit. As a result, the background from the image input section A disappears, and the person image with the image input section B as the background is synthesized.

【0060】[0060]

【発明が解決しようとする課題】このような従来の方式
ではブルー背景を必要とし設備面での負担がある。また
当初から画像合成を意図したものしか利用できず、汎用
性に欠ける。更に混合増幅器における合成のためのパラ
メータ設定が難しく、また操作も煩雑である。本発明は
このような問題を解決するためになされたものであり、
特別な撮影設備を必要とせず、また汎用性が高く、更に
操作が簡便な画像合成装置、特に合成対象となるキー画
像の生成装置を提供することを目的とする。
However, such a conventional method requires a blue background and is burdensome in terms of equipment. In addition, since only those intended for image composition can be used from the beginning, they lack versatility. Furthermore, it is difficult to set parameters for synthesis in the mixed amplifier, and the operation is complicated. The present invention has been made to solve such a problem,
An object of the present invention is to provide an image synthesizing device that does not require special photographing equipment, has high versatility, and is easy to operate, and in particular, a device for generating a key image to be synthesized.

【0061】[0061]

【課題を解決するための手段】第3群の発明の第1の方
法は、映像から特定の領域を抽出する方法において、抽
出対象とすべき領域内の複数の画素を指定する過程と、
指定した画素における所定の特徴量を求める過程と、求
めた特徴量の最大値及び最小値を求める過程と、抽出対
象とすべき領域の内外の画素につき特徴量を求めて、そ
の特徴量が前記最大値と最小値との間にある画素を選択
する過程とを備え、前記画素によって構成される領域を
抽出領域とすることを特徴とする。
According to a first method of the third group of inventions, in a method of extracting a specific area from an image, a process of designating a plurality of pixels in an area to be extracted,
A process of obtaining a predetermined feature amount in a specified pixel, a process of obtaining the maximum value and the minimum value of the obtained feature amount, a feature amount of pixels inside and outside an area to be extracted, and the feature amount And a step of selecting a pixel between a maximum value and a minimum value, and an area constituted by the pixels is set as an extraction area.

【0062】第2の方法は、映像から特定の領域を抽出
する方法において、抽出対象とすべき領域内の複数の画
素を指定する過程と、指定した画素における所定の特徴
量を求める過程と、指定した画素の、求めた特徴量につ
き、隣接画素間の差分を計算する過程と、計算した差分
の最大値を求める過程と、指定した画素を開始点とし
て、隣接画素間の特徴量の差分が前記最大値より小さい
4近傍又は8近傍の画素を連結する過程とを備え、連結
した画素によって構成される領域を抽出領域とすること
を特徴とする。
A second method is a method of extracting a specific area from an image, a step of designating a plurality of pixels in the area to be extracted, and a step of obtaining a predetermined feature amount in the designated pixel, The process of calculating the difference between adjacent pixels for the obtained feature amount of the specified pixel, the process of obtaining the maximum value of the calculated difference, and the difference in the feature amount between the adjacent pixels starting from the specified pixel And a process of connecting pixels in four neighborhoods or eight neighborhoods that are smaller than the maximum value, and a region formed by the joined pixels is set as an extraction region.

【0063】第3の方法は、前記抽出領域の画素及び非
抽出領域の画素に各別の値を付与する過程と、前記抽出
領域の境界の外縁に位置する画素に、前記値の中間の値
を付与する過程とを備え、これらの付与した値による画
像を生成することを特徴とする。
A third method is a process of assigning different values to the pixels of the extraction area and the pixels of the non-extraction area, and the pixel located at the outer edge of the boundary of the extraction area has an intermediate value of the values. And a step of giving a value, and generating an image with these added values.

【0064】第4の方法は、前記抽出領域から遠ざかる
方向に隣接する複数の画素の各々に異なる中間の値を付
与する。
In the fourth method, a different intermediate value is given to each of a plurality of pixels adjacent to each other in the direction away from the extraction area.

【0065】第5の方法は、映像から特定の領域を抽出
する方法において、抽出対象とすべき領域内の複数の画
素を指定する過程と、指定した画素における所定の特徴
量を求める過程と、求めた特徴量の最大値及び最小値を
求める過程と、抽出対象とすべき領域の内外の画素につ
き特徴量を求めて、特徴量が前記最大値と最小値との間
の範囲にあるか否かを判定する過程と、前記範囲内の画
素に定数Kを付与する過程と、前記範囲外の画素の特徴
量と前記最大値又は最小値との差分を算出する過程と、
前記範囲外の画素に、定数Kから前記差分に関連して定
まる値を減じた値を付与する過程とを備え、これらの付
与した値による画像を生成することを特徴とする。
A fifth method is a method of extracting a specific area from an image, a step of specifying a plurality of pixels in an area to be extracted, and a step of obtaining a predetermined feature amount in the specified pixel, The process of obtaining the maximum value and the minimum value of the obtained feature amount, and the feature amount is obtained for pixels inside and outside the region to be extracted, and whether the feature amount is in the range between the maximum value and the minimum value. A step of determining whether or not, a step of giving a constant K to the pixels within the range, a step of calculating a difference between the feature amount of the pixel outside the range and the maximum value or the minimum value,
A step of giving a value obtained by subtracting a value determined in relation to the difference from a constant K to pixels outside the range, and generating an image with these given values.

【0066】第6の方法は、映像から特定の領域を抽出
する方法において、抽出対象とすべき領域内の複数の画
素を指定する過程と、指定した画素における所定の複数
の特徴量を求める過程と、求めた特徴量の最大値及び最
小値を特徴量の各々について求める過程と、抽出対象と
すべき領域の内外の画素につき特徴量を求めて、特徴量
が前記最大値と最小値との間の範囲にあるか否かを判定
する過程と、前記範囲内の画素に定数Kを付与する過程
と、前記範囲外の画素の特徴量と前記最大値又は最小値
との差分を算出する過程と、前記範囲外の画素に、定数
Kから各々の特徴量の前記差分に関連して定まる値を減
じた値を付与する過程とを備え、これらの付与した値に
よる画像を生成することを特徴とする。
A sixth method is a method of extracting a specific area from an image, a step of designating a plurality of pixels in an area to be extracted and a step of obtaining a plurality of predetermined feature quantities in the designated pixel. And a process of obtaining the maximum value and the minimum value of the obtained feature amount for each of the feature amounts, and the feature amount is obtained for pixels inside and outside the region to be the extraction target, and the feature amount is the maximum value and the minimum value. A step of determining whether or not there is a range, a step of assigning a constant K to the pixels within the range, and a step of calculating the difference between the feature amount of the pixel outside the range and the maximum value or the minimum value. And a step of giving a value obtained by subtracting a value determined in relation to the difference of each feature amount from a constant K to pixels outside the range, and generating an image with these given values. And

【0067】第7の方法は、映像から特定の領域を抽出
する方法において、抽出対象とすべき領域内の複数の画
素を指定する過程と、指定した画素における所定の特徴
量を求める過程と、求めた特徴量の平均値及び分散を求
める過程と、抽出対象とすべき領域の内外の画素につき
特徴量を求めて、特徴量が前記平均値及び分散で定まる
範囲にあるか否かを判定する過程と、前記範囲内の画素
に定数Kを付与する過程と、前記範囲外の画素の特徴量
と前記平均値との偏差を算出する過程と、前記範囲外の
画素に、定数Kから前記偏差に関連して定まる値を減じ
た値を付与する過程とを備え、これらの付与した値によ
る画像を生成することを特徴とする。
A seventh method is a method of extracting a specific area from an image, a step of designating a plurality of pixels in an area to be extracted, and a step of obtaining a predetermined feature amount in the designated pixel. The process of obtaining the average value and variance of the obtained feature amount, and the feature amount is obtained for pixels inside and outside the region to be extracted, and it is determined whether the feature amount is within the range defined by the average value and variance. A step of giving a constant K to the pixels within the range, a step of calculating a deviation between the feature value of the pixel outside the range and the average value, and a deviation of the constant K from the constant K to the pixel outside the range. And a step of giving a value obtained by subtracting a value determined in association with the above, and generating an image with these given values.

【0068】第8の方法は、映像から特定の領域を抽出
する方法において、抽出対象とすべき領域内の複数の画
素を指定する過程と、指定した画素における所定の複数
の特徴量を求める過程と、求めた特徴量の平均値及び分
散を特徴量の各々について求める過程と、抽出対象とす
べき領域の内外の画素につき特徴量を求めて、特徴量が
前記平均値及び分散で定まる範囲にあるか否かを判定す
る過程と、前記範囲内の画素に定数Kを付与する過程
と、前記範囲外の画素の特徴量と前記平均値との偏差を
算出する過程と、前記範囲外の画素に、定数Kから各々
の特徴量の前記偏差に関連して定まる値を減じた値を付
与する過程とを備え、これらの付与した値による画像を
生成することを特徴とする。
The eighth method is a method of extracting a specific area from an image, a step of designating a plurality of pixels in an area to be extracted and a step of obtaining a plurality of predetermined feature quantities in the designated pixel. And a process of obtaining the average value and variance of the obtained feature amount for each feature amount, and obtaining the feature amount for pixels inside and outside the region to be the extraction target, the feature amount falls within the range determined by the average value and variance. A step of determining whether or not there is a pixel, a step of giving a constant K to the pixels within the range, a step of calculating a deviation between the feature amount of the pixel outside the range and the average value, and a pixel outside the range And a step of giving a value obtained by subtracting a value determined in relation to the deviation of each feature amount from the constant K, and generating an image with these given values.

【0069】第9の方法は、映像から抽出した複数の領
域のうちのいずれかの領域に含まれる画素を指定する過
程と、指定した画素を開始点として4連結又は8連結の
ラベリングをする過程と、ラベリングされていない領域
を非抽出領域に変更する過程とを備えることを特徴とす
る。
The ninth method is a process of designating a pixel included in any one of a plurality of regions extracted from an image, and a process of labeling 4 or 8 connections with the designated pixel as a starting point. And a step of changing an unlabeled area into a non-extracted area.

【0070】第10の方法は、複数フレームの映像から特
定の領域を抽出する方法において、一のフレームで抽出
対象とすべき領域内の複数の画素を指定する過程と、指
定した画素を開始点として4連結又は8連結のラベリン
グをする過程と、ラベリングされていない領域を非抽出
領域に変更する過程と、抽出領域の幾何学的特徴量を算
出する過程とを備え、また次フレームでラベリングする
過程と、異なるラベルを付与された領域ごとに幾何学的
特徴量を算出する過程と、前フレームの抽出領域の幾何
学的特徴量に近い幾何学的特徴量を有する領域を抽出領
域として残存させ、他の領域を非抽出領域に変更する過
程とを備えることを特徴とする。
The tenth method is a method of extracting a specific area from a video of a plurality of frames, and a process of specifying a plurality of pixels in an area to be extracted in one frame and a start point of the specified pixel. As a 4-connected or 8-connected labeling, a process of changing an unlabeled region into a non-extracted region, and a process of calculating a geometric feature amount of the extracted region, and labeling in the next frame. The process, the process of calculating the geometric feature amount for each region with different labels, and the region having the geometric feature amount close to the geometric feature amount of the extraction region of the previous frame is left as the extraction region. , And a step of changing another area to a non-extracted area.

【0071】第11の方法は、複数フレームの映像から特
定の領域を抽出する方法において、一のフレームで抽出
対象とすべき領域内の複数の画素を指定する過程と、指
定した画素を開始点として4連結又は8連結のラベリン
グをする過程と、ラベリングされていない領域を非抽出
領域に変更する過程と、抽出領域の光学的特徴量を算出
する過程とを備え、また次フレームでラベリングする過
程と、異なるラベルを付与された領域ごとに光学的特徴
量を算出する過程と、前フレームの抽出領域の光学的特
徴量に近い光学的特徴量を有する領域を抽出領域として
残存させ、他の領域を非抽出領域に変更する過程とを備
えることを特徴とする。
The eleventh method is a method of extracting a specific area from a video of a plurality of frames, and a process of specifying a plurality of pixels in an area to be extracted in one frame, and a start point of the specified pixel. And a process of labeling unconnected regions into non-extracted regions and a process of calculating the optical feature amount of the extracted regions, and labeling in the next frame And a process of calculating the optical feature amount for each region to which different labels are given, and a region having an optical feature amount close to the optical feature amount of the extraction region of the previous frame is left as the extraction region, and the other regions are To a non-extracted area.

【0072】第1の装置は、映像から特定の領域を抽出
する装置において、抽出対象とすべき領域内の複数の画
素を指定する手段と、指定した画素における所定の特徴
量を求める手段と、求めた特徴量の最大値及び最小値を
求める手段と、これらの最大値及び最小値を記憶する手
段と、抽出対象とすべき領域の内外の画素につき特徴量
を求めて、その特徴量が前記最大値と最小値との間にあ
る画素を選択する手段とを備え、前記画素によって構成
される領域を抽出領域とすべくなしてあることを特徴と
する。
The first device is a device for extracting a specific area from an image, a means for designating a plurality of pixels in the area to be extracted, a means for obtaining a predetermined feature amount in the designated pixel, A means for obtaining the maximum value and the minimum value of the obtained feature amount, a means for storing the maximum value and the minimum value, and a feature amount for pixels inside and outside the region to be extracted, and the feature amount is Means for selecting a pixel between a maximum value and a minimum value, and an area constituted by the pixels is set as an extraction area.

【0073】第2の装置は、映像から特定の領域を抽出
する装置において、抽出対象とすべき領域内の複数の画
素を指定する手段と、指定した画素における所定の特徴
量を求める手段と、指定した画素の、求めた特徴量につ
き、隣接画素間の差分を計算する手段と、計算した差分
の最大値を求める手段と、該最大値を記憶する手段と、
指定した画素を開始点として、隣接画素間の特徴量の差
分が前記最大値より小さい4近傍又は8近傍の画素を連
結する手段とを備え、連結した画素によって構成される
領域を抽出領域とすべくなしてあることを特徴とする。
The second device is a device for extracting a specific area from an image, a means for specifying a plurality of pixels in the area to be extracted, a means for obtaining a predetermined feature amount in the specified pixel, A means for calculating a difference between adjacent pixels for the obtained feature amount of the designated pixel, a means for obtaining a maximum value of the calculated difference, and a means for storing the maximum value,
A specified pixel as a starting point, means for connecting pixels in four or eight neighborhoods in which the difference in feature amount between adjacent pixels is smaller than the maximum value, and a region formed by the connected pixels is defined as an extraction region. The feature is that it is done.

【0074】第3の装置は、前記抽出領域の画素及び非
抽出領域の画素に各別の値を付与する手段と、前記抽出
領域の境界の外縁に位置する画素に、前記値の中間の値
を付与する手段とを備え、これらの付与した値による画
像を生成すべくなしてあることを特徴とする。
The third device is a means for giving different values to the pixels of the extraction area and the pixels of the non-extraction area, and the pixel located at the outer edge of the boundary of the extraction area has an intermediate value of the values. Is provided to generate an image with these added values.

【0075】第4の装置は、前記抽出領域から遠ざかる
方向に隣接する複数の画素の各々に異なる中間の値を付
与すべくなしてある。
The fourth device is designed to give different intermediate values to each of a plurality of pixels adjacent to each other in the direction away from the extraction area.

【0076】第5の装置は、映像から特定の領域を抽出
する装置において、抽出対象とすべき領域内の複数の画
素を指定する手段と、指定した画素における所定の特徴
量を求める手段と、求めた特徴量の最大値及び最小値を
求める手段と、これら最大値及び最小値を記憶する手段
と、抽出対象とすべき領域の内外の画素につき特徴量を
求めて、特徴量が前記最大値と最小値との間の範囲にあ
るか否かを判定する手段と、前記範囲内の画素に定数K
を付与する手段と、前記範囲外の画素の特徴量と前記最
大値又は最小値との差分を算出する手段と、前記範囲外
の画素に、定数Kから前記差分に関連して定まる値を減
じた値を付与する手段とを備え、これらの付与した値に
よる画像を生成すべくなしてあることを特徴とする。
A fifth device is a device for extracting a specific region from an image, a device for designating a plurality of pixels in the region to be extracted, and a device for obtaining a predetermined feature amount in the designated pixel. A means for obtaining the maximum value and the minimum value of the obtained feature amount, a means for storing these maximum value and the minimum value, and a feature amount for the pixels inside and outside the region to be extracted, and the feature amount is the maximum value. And a minimum value, and a constant K for pixels in the range.
Means for calculating the difference between the feature amount of the pixel outside the range and the maximum value or the minimum value, and for the pixel outside the range subtracting the value determined in relation to the difference from the constant K. It is characterized in that it is provided with means for giving different values to generate an image with these given values.

【0077】第6の装置は、映像から特定の領域を抽出
する装置において、抽出対象とすべき領域内の複数の画
素を指定する手段と、指定した画素における所定の複数
の特徴量を求める手段と、求めた特徴量の最大値及び最
小値を特徴量の各々について求める手段と、これら最大
値及び最小値を記憶する手段と、抽出対象とすべき領域
の内外の画素につき特徴量を求めて、特徴量が前記最大
値と最小値との間の範囲にあるか否かを判定する手段
と、前記範囲内の画素に定数Kを付与する手段と、前記
範囲外の画素の特徴量と前記最大値又は最小値との差分
を算出する手段と、前記範囲外の画素に、定数Kから各
々の特徴量の前記差分に関連して定まる値を減じた値を
付与する手段とを備え、これらの付与した値による画像
を生成すべくなしてあることを特徴とする。
A sixth device is a device for extracting a specific area from a video, and means for designating a plurality of pixels in the area to be extracted and means for obtaining a plurality of predetermined feature quantities in the designated pixel. A means for obtaining the maximum value and the minimum value of the obtained feature amount for each feature amount, a means for storing the maximum value and the minimum value, and obtaining the feature amount for pixels inside and outside the region to be extracted. , Means for determining whether or not the feature amount is in the range between the maximum value and the minimum value, means for assigning a constant K to pixels within the range, and feature values for pixels outside the range. A means for calculating a difference from the maximum value or the minimum value, and means for giving to the pixels outside the range a value obtained by subtracting a value determined in relation to the difference of each feature amount from a constant K, To generate an image with the value given by And wherein the Rukoto.

【0078】第7の装置は、映像から特定の領域を抽出
する装置において、抽出対象とすべき領域内の複数の画
素を指定する手段と、指定した画素における所定の特徴
量を求める手段と、求めた特徴量の平均値及び分散を求
める手段と、該平均値及び分散を記憶する手段と、抽出
対象とすべき領域の内外の画素につき特徴量を求めて、
特徴量が前記平均値及び分散で定まる範囲にあるか否か
を判定する手段と、前記範囲内の画素に定数Kを付与す
る手段と、前記範囲外の画素の特徴量と前記平均値との
偏差を算出する手段と、前記範囲外の画素に、定数Kか
ら前記偏差に関連して定まる値を減じた値を付与する手
段とを備え、これらの付与した値による画像を生成すべ
くなしてあることを特徴とする。
A seventh device is a device for extracting a specific region from a video image, and means for designating a plurality of pixels in the region to be extracted, and means for determining a predetermined feature amount in the designated pixel, A means for obtaining the average value and the variance of the obtained feature amount, a means for storing the average value and the variance, and a feature amount for pixels inside and outside the region to be extracted,
A means for determining whether or not the feature amount is within a range determined by the average value and the variance, a means for giving a constant K to pixels within the range, and a feature amount and an average value for pixels outside the range. A means for calculating the deviation and a means for giving a value obtained by subtracting a value determined in relation to the deviation from the constant K to the pixels outside the range are provided to generate an image with these given values. It is characterized by being.

【0079】第8の装置は、映像から特定の領域を抽出
する装置において、抽出対象とすべき領域内の複数の画
素を指定する手段と、指定した画素における所定の複数
の特徴量を求める手段と、求めた特徴量の平均値及び分
散を特徴量の各々について求める手段と、該平均値及び
分散を記憶する手段と、抽出対象とすべき領域の内外の
画素につき特徴量を求めて、特徴量が前記平均値及び分
散で定まる範囲にあるか否かを判定する手段と、前記範
囲内の画素に定数Kを付与する手段と、前記範囲外の画
素の特徴量と前記平均値との偏差を算出する手段と、前
記範囲外の画素に、定数Kから各々の特徴量の前記偏差
に関連して定まる値を減じた値を付与する手段とを備
え、これらの付与した値による画像を生成すべくなして
あることを特徴とする。
The eighth apparatus is an apparatus for extracting a specific area from a video image, and means for designating a plurality of pixels in the area to be extracted and means for obtaining a plurality of predetermined feature quantities in the designated pixel. A means for obtaining the average value and variance of the obtained feature amount for each feature amount, a means for storing the average value and variance, and a feature amount for pixels inside and outside the region to be extracted, Means for determining whether or not the amount is in a range determined by the average value and variance, means for giving a constant K to pixels within the range, and deviation between the feature amount of pixels outside the range and the average value And means for giving to the pixels outside the range a value obtained by subtracting a value determined in relation to the deviation of each feature amount from the constant K, and generating an image with these added values. Characterized by what is done .

【0080】第9の装置は、映像から抽出した複数の領
域のうちのいずれかの領域に含まれる画素を指定する手
段と、指定した画素を開始点として4連結又は8連結の
ラベリングをする手段と、ラベリングされていない領域
を非抽出領域に変更する手段とを備えることを特徴とす
る。
A ninth apparatus is a means for designating a pixel included in any one of a plurality of areas extracted from an image, and a means for labeling four or eight connections with the designated pixel as a starting point. And means for changing an unlabeled area into a non-extracted area.

【0081】第10の装置は、複数フレームの映像から特
定の領域を抽出する装置において、一のフレームで抽出
対象とすべき領域内の複数の画素を指定する手段と、指
定した画素を開始点として4連結又は8連結のラベリン
グをする手段と、ラベリングされていない領域を非抽出
領域に変更する手段と、抽出領域の幾何学的特徴量を算
出する手段とを備え、また次フレームでラベリングする
手段と、異なるラベルを付与された領域ごとに幾何学的
特徴量を算出する手段と、前フレームの抽出領域の幾何
学的特徴量に近い幾何学的特徴量を有する領域を抽出領
域として残存させ、他の領域を非抽出領域に変更する手
段とを備えることを特徴とする。
The tenth apparatus is, in an apparatus for extracting a specific area from a video of a plurality of frames, a means for designating a plurality of pixels in an area to be extracted in one frame and a starting point for the designated pixel. 4 means or 8 means labeling, means for changing an unlabeled area to a non-extraction area, and means for calculating a geometric feature amount of the extraction area, and labeling in the next frame Means, a means for calculating the geometric feature amount for each region to which different labels are given, and a region having a geometric feature amount close to the geometric feature amount of the extraction region of the previous frame is left as the extraction region. , And means for changing another area to a non-extracted area.

【0082】第11の装置は、複数フレームの映像から特
定の領域を抽出する装置において、一のフレームで抽出
対象とすべき領域内の複数の画素を指定する手段と、指
定した画素を開始点として4連結又は8連結のラベリン
グをする手段と、ラベリングされていない領域を非抽出
領域に変更する手段と、抽出領域の光学的特徴量を算出
する手段とを備え、また次フレームでラベリングする手
段と、異なるラベルを付与された領域ごとに光学的特徴
量を算出する手段と、前フレームの抽出領域の光学的特
徴量に近い光学的特徴量を有する領域を抽出領域として
残存させ、他の領域を非抽出領域に変更する手段とを備
えることを特徴とする。
The eleventh apparatus is, in an apparatus for extracting a specific area from a video of a plurality of frames, a means for designating a plurality of pixels in an area to be extracted in one frame and a starting point for the designated pixel. Means for performing 4-connection or 8-connection labeling, means for changing an unlabeled area into a non-extraction area, and means for calculating an optical characteristic amount of the extraction area, and means for labeling in the next frame And a means for calculating an optical feature amount for each region to which a different label is given, and a region having an optical feature amount close to the optical feature amount of the extraction region of the previous frame is left as an extraction region, and another region To a non-extracted area.

【0083】第1の方法、装置では抽出したい画像部分
の中の複数画素を指定する (ライトペン、又はマウス操
作のカーソルでなぞる) 。このなぞった画素群中の特徴
量 (R, G, B,色相, 彩度, 明度, 輝度などの一又は
複数) を求め、更にその最大値, 最小値を選んで記憶す
る。
In the first method and apparatus, a plurality of pixels in an image portion to be extracted are designated (traced with a light pen or a cursor operated by a mouse). The feature quantity (one or more of R, G, B, hue, saturation, brightness, brightness, etc.) in the traced pixel group is obtained, and the maximum value and minimum value thereof are selected and stored.

【0084】次いで画像全体の画素につき各特徴量が前
記最大値〜最小値の範囲内にあるか否かを調べる。範囲
内にある画素は抽出を望む画像部分と同様の特徴量を有
しているので、該画像部分は属すると判断し、0より大
きい値を付与し、範囲外のものは非抽出部分であるとし
て0を付与する。これにより非0の部分を抽出すること
で所望の画像部分が抽出できる。
Then, it is checked whether or not each feature amount is within the range of the maximum value to the minimum value for the pixels of the entire image. Pixels within the range have the same feature amount as the image portion desired to be extracted, so it is determined that the image portion belongs, a value greater than 0 is given, and pixels outside the range are non-extracted portions. 0 is given as. As a result, a desired image portion can be extracted by extracting the non-zero portion.

【0085】第2の方法、装置ではなぞった画素の特徴
量と隣接画素の特徴量との差分を求め、その最大値を記
憶しておく。そしてこの最大値以下の差分を有する4近
傍又は8近傍の画素はなぞって抽出を望む領域と同程度
の隣接閾値を有しているとして抽出領域として0より大
きい値を付与し、それ以外の部分は0を付与する。これ
により非0の部分を抽出することができる。
In the second method and apparatus, the difference between the characteristic amount of the traced pixel and the characteristic amount of the adjacent pixel is obtained, and the maximum value is stored. Pixels near 4 or 8 having a difference less than or equal to this maximum value are given a value larger than 0 as an extraction area, assuming that they have a threshold value of adjacency that is similar to that of the area desired to be extracted, and other areas. Gives 0. As a result, the non-zero portion can be extracted.

【0086】第3の方法、装置は抽出領域に1、非抽出
領域に0を付与した場合に両者の境界の画素に1と0と
の中間の値を与える。これにより境界がマイルド化し、
抽出画像を合成した場合に背景への溶け込みがよくな
る。
In the third method and apparatus, when 1 is given to the extraction area and 0 is given to the non-extraction area, the pixel at the boundary between them is given an intermediate value between 1 and 0. This makes the boundaries mild,
When the extracted images are combined, they blend well into the background.

【0087】第4の方法、装置はこの中間の値を複数に
することで境界の一層のマイルド化が行われる。
In the fourth method and apparatus, the boundary is further made mild by setting a plurality of intermediate values.

【0088】第5の方法、装置は境界のマイルド化を適
応制御するものであり、1〜0の中間値の決定を、非抽
出領域の特徴量と、特徴量の最大値 (又は最小値) との
差分に応じて定める。これにより抽出画像の境界は背景
に良く溶け込む。
The fifth method and apparatus adaptively control the mildness of the boundary, and determine the intermediate value of 1 to 0 by determining the feature amount of the non-extracted area and the maximum value (or minimum value) of the feature amount. Determined according to the difference between and. This allows the boundaries of the extracted image to blend well with the background.

【0089】第6の方法、装置は特徴量を一種ではな
く、二種以上とし、上述の差分を複数の特徴量について
求め、例えばその加重平均等に依って中間値を決定す
る。複数の特徴量を用いるのでより自然な境界が得られ
る。
The sixth method and apparatus use not only one kind of feature quantity but two or more kinds, obtain the above difference for a plurality of feature quantities, and determine an intermediate value based on, for example, a weighted average. Since a plurality of feature quantities are used, a more natural boundary can be obtained.

【0090】第7, 第8の方法、装置は第5, 第6では
最大値, 最小値を用いているのに対し、分散を用いてい
る点が異なる。
The seventh and eighth methods and apparatuses use the maximum value and the minimum value in the fifth and sixth methods, but are different in that the variance is used.

【0091】第9の方法、装置は過剰抽出した部分を非
抽出領域とする。即ちラベリングにより、同様に抽出さ
れた複数の領域に各別の符号を付与される。このうち、
なぞられた画素を含む領域のみを残して他を消すのであ
る。
In the ninth method and apparatus, the excessively extracted portion is set as the non-extracted area. That is, by labeling, different codes are given to a plurality of similarly extracted regions. this house,
Only the area containing the traced pixel is left and the others are erased.

【0092】第10の方法、装置は動画に対応するもので
ある。第9の方法、装置と同様にラベリングし、非抽出
領域を消去する。次のフレームで同様のラベリングをす
るが、フレーム間の領域の同定を幾何学的特徴量の類似
度に基づいて行う。このため抽出領域のみが残り、他は
消える。これを複数のフレームに亘って行うことで動画
での抽出処理が自動的に行えることになる。
The tenth method and apparatus are for moving pictures. Labeling is performed in the same manner as in the ninth method and apparatus to erase the non-extracted area. The same labeling is performed in the next frame, but the region between the frames is identified based on the similarity of the geometric features. Therefore, only the extraction area remains and the others disappear. By performing this over a plurality of frames, the extraction process in the moving image can be automatically performed.

【0093】第11の方法、装置は上記の幾何学的特徴量
に替えて光学的特徴量を用いるものであり、同効を奏す
る。
The eleventh method and apparatus use the optical feature amount instead of the above-mentioned geometric feature amount, and have the same effect.

【0094】[0094]

【発明の実施の形態】図23は第3群の発明の第1の領域
抽出装置のブロック図である。3系統の画像入力部31,3
2,33はいずれも同様の構成を有し、NTSC信号をアナログ
のRGB 信号に変換するNTSC-RGB変換器31a,32a,33a 及び
アナログのRGB 信号をディジタルのRGB 信号に変換する
A/D 変換器31b,32b,33b を備える。これら画像入力部3
1,32,33からの入力はデュアルポートRAM からなる画像
メモリ37,38,39,40 へ与えられ、またこれらから読出さ
れた画像データは画像出力部34へ与えられ、ここから出
力される。画像出力部34は画像メモリ37等からのディジ
タルのRGB 信号をアナログのRGB 信号に変換するD/A 変
換器34b 及び、この変換されたアナログのRGB 信号をNT
SC信号に変換するRGB-NTSC変換器34a の出力がモニタ
(図示せず)に表示されることになる。
BEST MODE FOR CARRYING OUT THE INVENTION FIG. 23 is a block diagram of a first region extraction device of the third group of inventions. Image input section of 3 systems 31,3
Both 2, 33 have the same configuration, and NTSC-RGB converters 31a, 32a, 33a that convert NTSC signals to analog RGB signals and analog RGB signals to digital RGB signals.
Equipped with A / D converters 31b, 32b, 33b. These image input section 3
Inputs from 1, 32 and 33 are given to image memories 37, 38, 39 and 40 consisting of dual port RAM, and image data read from these are given to an image output section 34 and outputted from there. The image output unit 34 includes a D / A converter 34b for converting a digital RGB signal from the image memory 37 or the like into an analog RGB signal, and an NT / DC converter for converting the converted analog RGB signal.
The output of the RGB-NTSC converter 34a that converts to an SC signal is monitored
Will be displayed (not shown).

【0095】35は座標入力部であり、ライトペンとその
座標認識手段、等によって構成されており、モニタに表
示された映像の一部をなぞるのに使用される。この座標
入力部35で入力された座標情報は処理部41へ入力され
る。400 は半導体メモリであり、演算に使用するメモリ
42、後述する特徴量上限レジスタ43、下限レジスタ44を
備える。36はハードディスク、光磁気ディスク等の大容
量記録部であり、複数フレームの画像を記録する。
Reference numeral 35 is a coordinate input unit, which is composed of a light pen and its coordinate recognition means, and is used to trace a part of the image displayed on the monitor. The coordinate information input by the coordinate input unit 35 is input to the processing unit 41. 400 is a semiconductor memory, the memory used for calculation
42, and a feature amount upper limit register 43 and a lower limit register 44 described later. A large-capacity recording unit 36 such as a hard disk or a magneto-optical disk records images of a plurality of frames.

【0096】而してマイクロプロセッサ等からなる処理
部41は以下の如き領域抽出のための処理を行う。図24
は、この処理の手順を示すフローチャート、図25はその
説明図である。図25(a) に示すように抽出したい領域
(白抜きで示されている) を座標入力部35のペンでなぞ
る。この間ペン軌跡の複数画素につき、特徴量 (一又は
複数種)を計算する。そして特徴量の最大値又は最小値
を夫々特徴量上限レジスタ43、下限レジスタ44に格納す
る。これにはペンが移動していく都度、既格納のレジス
タ内容を更新していくことで行う。なぞりが終わると全
軌跡中での特徴量の最大値, 最小値が得られることにな
る。特徴量としてはR,G,B、色相、彩度、明度、輝
度等が挙げられる。
Thus, the processing unit 41 including a microprocessor or the like performs the following processing for area extraction. Figure 24
FIG. 25 is a flowchart showing the procedure of this process, and FIG. 25 is an explanatory diagram thereof. Area to be extracted as shown in Fig. 25 (a)
Trace (marked in white) with the pen of the coordinate input section 35. During this time, the feature quantity (one or more kinds) is calculated for a plurality of pixels of the pen locus. Then, the maximum value or the minimum value of the characteristic amount is stored in the characteristic amount upper limit register 43 and the lower limit register 44, respectively. This is done by updating the already stored register contents each time the pen moves. When the tracing is completed, the maximum and minimum values of the feature quantity in all trajectories will be obtained. Examples of the feature amount include R, G, B, hue, saturation, brightness, and brightness.

【0097】而して次には画面全体の画素ドット特徴量
(一又は複数種) を求め、最大値〜最小値の範囲内にあ
る画素には0より大きい値 (例えば255)を、また範囲外
にある画素には0を付与する。これによりキー画像、つ
まり抽出領域を含む画像が得られることになる。図25
(b) はこれを示す。なお、所望どおりの抽出ができなか
った場合は特徴量の選択又は組合わせを種々変更するこ
とで再試行すればよい。なお以上の処理を複数フレーム
について反復することで動画の処理が可能となる。
Then, next, the pixel dot feature amount of the entire screen
(One or a plurality of types) is calculated, and a value larger than 0 (for example, 255) is given to the pixels within the range of the maximum value to the minimum value, and 0 is given to the pixels outside the range. As a result, a key image, that is, an image including the extraction area is obtained. Figure 25
(b) shows this. If the desired extraction cannot be performed, it may be retried by changing the selection or combination of the feature amounts. It is possible to process a moving image by repeating the above process for a plurality of frames.

【0098】図26は第2の領域抽出装置のブロック図で
ある。第1の領域抽出装置と相違するのは半導体メモリ
400 に特徴量上限レジスタ43、下限レジスタ44に替えて
特徴量閾値レジスタ45を備える点である。他の構成は同
様であるので、同符号を付して説明を省略する。
FIG. 26 is a block diagram of the second area extracting apparatus. A semiconductor memory is different from the first area extraction device.
The feature 400 is that a feature amount upper limit register 43 and a lower limit register 44 are replaced with a feature amount threshold value register 45. Since other configurations are similar, the same reference numerals are given and description thereof is omitted.

【0099】図27は処理部41による処理のフローチャー
ト、図28はその説明図である。図28(a) のようにペンで
なぞった軌跡の画素の特徴量を求めるのは第1の装置と
同様であるが、第2の装置ではなぞられた画素のうちで
の隣接画素間の特徴量の差分を演算し、その最大値を閾
値レジスタ45に格納する。そしてなぞられた画素の夫々
について隣接画素 (4近傍又は8近傍) が閾値以下であ
るか否かを調べていき、以下である隣接画素を次々と連
結していく (図28(b))。このようにして連結された領域
に0より大きい値を付与する。
FIG. 27 is a flowchart of the processing by the processing unit 41, and FIG. 28 is its explanatory diagram. As in the case of the first device, the feature amount of the pixel of the locus traced by the pen as shown in FIG. 28 (a) is obtained, but the feature between adjacent pixels of the traced pixels is obtained in the second device. The difference between the quantities is calculated, and the maximum value is stored in the threshold value register 45. Then, for each traced pixel, it is checked whether or not the adjacent pixel (4 vicinity or 8 vicinity) is less than or equal to the threshold value, and the following adjacent pixels are connected one after another (FIG. 28 (b)). A value greater than 0 is given to the areas thus connected.

【0100】図29は第3〜6の領域抽出装置のブロック
図である。第1の装置と相違するのは処理部41の演算内
容であり、以下に説明する混合比計算41a,総合混合比計
算41b を行う。図30は処理部41の処理手順を示すフロー
チャートである。図31(a) に示すようにペンでなぞった
軌跡の画素につき、第1の装置と同様に特徴量を計算
し、その最大値, 最小値を夫々特徴量上限レジスタ43,
下限レジスタ44に入れる。
FIG. 29 is a block diagram of the third to sixth area extracting devices. The difference from the first apparatus is the calculation contents of the processing unit 41, and the mixing ratio calculation 41a and the total mixing ratio calculation 41b described below are performed. FIG. 30 is a flowchart showing the processing procedure of the processing unit 41. As shown in FIG. 31 (a), for the pixels of the locus traced by the pen, the feature amount is calculated in the same manner as in the first device, and the maximum value and the minimum value are respectively set in the feature amount upper limit register 43,
Put in the lower limit register 44.

【0101】次に画像の全画素について特徴量を計算
し、これが特徴量上, 下限値レジスタ43,44 に各記憶さ
れている最大値, 最小値の範囲内にあるか否かを調べ、
範囲内にある場合は0でない値のKを付与する。範囲外
にある場合は、算出した特徴量と最大値(特徴量が大き
いとき)との差、又は算出した特徴量と最小値(特徴量
が小さいとき)との差の差分を演算し、差分に応じてK
〜0の範囲の値(混合比)を特徴量ごとに求める。そし
て各特徴量ごとの混合比を加重平均した総合混合比を求
める。そして総合混合比に応じた値を対応画素に付与す
る。そうすると図31(b) に示すように境界にグラデーシ
ョンが付与された抽出画像が得られることになる。そし
てこれを複数フレームにつき反復することによって動画
に対応できる。
Next, the feature amount is calculated for all pixels of the image, and it is checked whether or not this is within the range of the maximum value and the minimum value stored in the upper and lower limit registers 43 and 44 of the feature amount,
If it is within the range, a non-zero value K is given. If it is out of the range, the difference between the calculated feature amount and the maximum value (when the feature amount is large) or the difference between the calculated feature amount and the minimum value (when the feature amount is small) is calculated, and the difference is calculated. Depending on K
A value (mixing ratio) in the range of 0 is obtained for each feature amount. Then, the total mixture ratio is obtained by weighted averaging the mixture ratios for each feature amount. Then, a value according to the total mixture ratio is given to the corresponding pixel. Then, as shown in FIG. 31 (b), an extracted image with a gradation added to the boundary is obtained. Then, by repeating this for a plurality of frames, a moving image can be dealt with.

【0102】図32は第3, 4, 7, 8の領域抽出装置の
ブロック図である。図29と異なるのは、特徴量上限レジ
スタ43, 下限レジスタ44に替えて特徴量平均値レジスタ
46、特徴量分散値レジスタ47を備える点である。図33は
この場合の処理手順を示すフローチャートであり、図34
(a) に示すようにペンでなぞった軌跡の画素の特徴量を
計算し、その平均値及び分散値を算出し、これらを特徴
量平均値レジスタ46, 特徴量分散値レジスタ47に格納し
ておく。
FIG. 32 is a block diagram of the third, fourth, seventh and eighth area extracting devices. The difference from FIG. 29 is that the feature amount upper limit register 43 and the lower limit register 44 are replaced with the feature amount average value register.
46, and a feature value variance value register 47 is provided. FIG. 33 is a flowchart showing the processing procedure in this case.
As shown in (a), the feature amount of the pixel traced by the pen is calculated, the average value and the variance value thereof are calculated, and these are stored in the feature amount average value register 46 and the feature amount variance value register 47. deep.

【0103】そしてこの装置では画像中の全画素につい
ての特徴量が所定偏差(例えば平均値±分散値)内にあ
るか否かを調べ、範囲内にある場合にKを付与する。範
囲外の場合は平均値からの偏差に従い、混合比を特徴量
ごとに計算し、この計算値の加重平均を総合混合比とし
て求め、これに従ってKを付与する。
In this apparatus, it is checked whether the feature values of all the pixels in the image are within a predetermined deviation (for example, mean value ± dispersion value), and if it is within the range, K is given. If it is out of the range, the mixing ratio is calculated for each feature amount according to the deviation from the average value, the weighted average of the calculated values is obtained as the total mixing ratio, and K is given according to this.

【0104】図34(b) はその結果を示し、境界部にグラ
デーションを有する抽出画像が得られる。図35は第3,
4の領域抽出装置の他の実施の形態のブロック図であ
る。この装置は処理部41の処理が他の装置と異なってい
る。この処理内容を図37, 38につき説明する。この実施
の形態は第1の領域抽出装置等で得た抽出領域と非抽出
領域(値0を付与) との輪郭 (画素と画素との間になる)
の内側の内周輪郭点 (画素) の値Xから定数Kを減じ
た値を、前記輪郭の外側の外周輪郭点(画素)に付与す
る。この処理は遠心方向の1画素についてだけ行っても
よいが図38に示すように複数画素について行うことでよ
りなめらかなエッジが得られる。
FIG. 34B shows the result, and an extracted image having a gradation at the boundary is obtained. Figure 35 shows the third
4 is a block diagram of another embodiment of the region extraction device of No. 4 of FIG. This device is different from the other devices in the processing of the processing unit 41. The details of this processing will be described with reference to FIGS. In this embodiment, the outline (between pixels) between the extraction area and the non-extraction area (giving a value of 0) obtained by the first area extraction device or the like
A value obtained by subtracting a constant K from the value X of the inner peripheral contour point (pixel) on the inner side is given to the outer peripheral contour point (pixel) on the outer side of the contour. This processing may be performed only for one pixel in the centrifugal direction, but a smoother edge can be obtained by performing this processing for a plurality of pixels as shown in FIG.

【0105】図36はこの処理の手順を示すフローチャー
トであり、画面上の左上側から輪郭を追跡するようにし
て処理を反復する。そしてこの処理を複数フレームにつ
いて行うことで動画への対応が可能である。
FIG. 36 is a flowchart showing the procedure of this processing, and the processing is repeated so that the contour is traced from the upper left side on the screen. Then, by performing this process for a plurality of frames, it is possible to deal with a moving image.

【0106】図39は第9の領域抽出装置のブロック図で
ある。この装置は処理部41で後述するラベリング処理
(48)を行うことにより雑音、つまり本来抽出を望まな
いのに抽出領域として現れる部分を削除するためのもの
である。この処理は例えば第1の領域抽出装置等によっ
て得られたキー画像 (図41(a))に対して行うものであ
る。この画像は中央の抽出を望む部分以外に同様の特徴
量を有する雑音の領域 (非0領域) を含んでいる。
FIG. 39 is a block diagram of the ninth area extraction device. This device is for removing noise, that is, a portion that appears as an extraction region when originally not desired to be extracted, by performing a labeling process (48) described later in the processing unit 41. This processing is performed on the key image (FIG. 41 (a)) obtained by, for example, the first area extracting device. This image contains a noise region (non-zero region) having the same feature amount other than the portion desired to be extracted in the center.

【0107】図40はこの処理のフローチャートであり、
該処理はペンでなぞった軌跡の画素を開始点として4連
結又は8連結のラベリングを行う。雑音の非0領域が離
散しているのでラベリングはその領域には到らない。次
いでラベリングされていない領域を消去する。そうする
と図41(b) に示すように所望の抽出領域が得られるので
ある。
FIG. 40 is a flow chart of this processing.
In this processing, labeling of 4 or 8 connections is performed with the pixel of the locus traced by the pen as the starting point. Since the non-zero area of noise is discrete, labeling does not reach that area. Then, the unlabeled area is erased. Then, a desired extraction region can be obtained as shown in FIG. 41 (b).

【0108】図42は第10の領域抽出装置のブロック図で
ある。この装置は第9の領域抽出装置と同様の処理を1
回行うだけで爾後のフレームは簡単な処理で雑音消去で
きる動画対応のものである。これを可能とするためにな
ぞった領域及びこれと対応づけられる他フレームの領域
の幾何学的特徴量 (例えば面積、中心位置) を計算する
処理(49)及び幾何学的特徴量が近い領域をフレーム内で
対応づける対応付け(50)を処理部41が行う。図43はこの
処理のフローチャート、図44はその説明図である。第9
の領域抽出装置と同処理を先頭フレームに施して図44の
(a) に示すように雑音を消去する。そして残った非0領
域、つまり抽出領域につき、その幾何学的特徴量を計算
する。
FIG. 42 is a block diagram of the tenth area extraction device. This device performs the same processing as the ninth region extraction device
The frame after that is for moving images that can be noise-removed by a simple process just by performing it once. In order to make this possible, the process of calculating the geometric features (e.g. area, center position) of the traced region and the regions of other frames associated with this (49) The processing unit 41 performs the association (50) in the frame. FIG. 43 is a flowchart of this processing, and FIG. 44 is an explanatory diagram thereof. 9th
The same process as the region extraction device of
Eliminate noise as shown in (a). Then, the geometric feature amount of the remaining non-zero area, that is, the extracted area is calculated.

【0109】次に第2フレームでは非0領域(雑音領域
も含む)につき幾何学的特徴量を計算する。そして先頭
フレームの非0領域の特徴量に最も近い幾何学的特徴量
を有するものを選択し、他を消去(非抽出領域と)す
る。以下、前後する2フレームにつき同様の処理を反復
することで雑音領域は自動的に消えていく。
Next, in the second frame, the geometric feature amount is calculated for the non-zero area (including the noise area). Then, the one having the geometric feature amount that is closest to the feature amount of the non-zero area of the first frame is selected, and the others are erased (non-extracted area). After that, the noise region automatically disappears by repeating the same process for the two preceding and following frames.

【0110】図45は第11の領域抽出装置のブロック図で
ある。この装置は第10の装置が幾何学的特徴量を利用し
てフレーム内の領域の同定を行っていたのに対し、光学
的 (テクスチャ) 特徴量を利用する。このため処理部41
内、光学的特徴量を計算するための画素値構成計算(5
1)を行う。図46は雑音消去のフローチャート、図47は
その説明図である。いずれも幾何学的特徴量が光学的特
徴量に替わっただけであるので説明を省略する。
FIG. 45 is a block diagram of the eleventh area extraction device. This device uses optical (texture) features, whereas the 10th device uses geometric features to identify regions in a frame. Therefore, the processing unit 41
Among them, pixel value composition calculation (5
Do 1). 46 is a flowchart of noise elimination, and FIG. 47 is an explanatory diagram thereof. In either case, the geometrical feature amount is simply replaced with the optical feature amount, and therefore the description is omitted.

【0111】[0111]

【発明の効果】以上の如き第3群の発明によればブルー
の背景の撮影設備が不要である。また特に画像合成を意
識していない映像からでも抽出ができる。そして操作は
必要部分をなぞるだけでよく、簡便である。
According to the invention of the third group as described above, there is no need for a photographing facility with a blue background. In addition, it is possible to extract even from images that are not particularly conscious of image composition. The operation is simple because it only requires tracing the necessary parts.

【0112】[第4群の発明] (概要)第4群の発明はCGモデル (映像から抽出した3次
元形状モデルを含む) に対する加工又は表示態様の変更
を容易に行わせる表示方法及び装置を提供するものであ
る。
[Invention of Fourth Group] (Outline) The invention of the fourth group provides a display method and device for easily performing processing or changing the display mode for a CG model (including a three-dimensional shape model extracted from a video). It is provided.

【0113】[0113]

【従来の技術】本発明はディスプレイに2次元表示され
た3次元形状モデルに対して対話的手法により回転、拡
大縮小、平行移動し、その結果を逐次再表示するという
3次元形状文字表示方法に関する。計算機の高速化に伴
い、3次元形状モデルをリアルタイムに回転、拡大縮
小、平行移動して表示することが可能となり、3次元形
状モデルを人間が対話的に操作し、その結果を再表示す
るような機能が要求されている。このため、人間の思考
を妨げずに3次元形状モデルを回転、拡大縮小、平行移
動するための操作方法が必要である。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional shape character display method in which a three-dimensional shape model displayed two-dimensionally on a display is rotated, scaled, moved in parallel by an interactive method, and the result is redisplayed successively. . With the increase in computer speed, it is possible to rotate, scale, and translate the 3D shape model in real time, so that the human can interactively operate the 3D shape model and redisplay the result. Functions are required. Therefore, there is a need for an operation method for rotating, enlarging / reducing, and translating the three-dimensional shape model without disturbing human thinking.

【0114】3次元空間で3次元形状モデルを変換する
には、回転3自由度、平行移動3自由度の計6自由度の
変換が必要である。3次元形状モデルをディスプレイ上
に2次元表示する場合は上記の自由度のうちディスプレ
イに対して奥行方向の移動を拡大縮小で表現できる。し
たがって、この場合は回転3自由度、拡大縮小1自由
度、平行移動2自由度の計6自由度の変換になる。従来
の3次元モデル操作ではこの操作を6自由度×正負を夫
々キーボードの12個のキーに割り当てていた。また、マ
ウスなどのポインティングデバイスを利用した3次元モ
デル操作では、2自由度しかないポインティングデバイ
スを6自由度の変換に対応させるためにモードの切替え
を行っていた。両者の融合型として、2自由度をポイン
ティングデバイスで操作し残りの4自由度をキーボード
で操作するという方法もあった。
In order to convert a three-dimensional shape model in a three-dimensional space, it is necessary to convert a total of 6 degrees of freedom including rotation 3 degrees of freedom and translation 3 degrees of freedom. When the three-dimensional shape model is displayed two-dimensionally on the display, the movement in the depth direction with respect to the display can be expressed by enlarging or reducing among the above degrees of freedom. Therefore, in this case, a total of 6 degrees of freedom including rotation 3 degrees of freedom, scaling 1 degree of freedom, and parallel movement 2 degrees of freedom are converted. In the conventional three-dimensional model operation, this operation was assigned 6 degrees of freedom x positive and negative to each of the 12 keys of the keyboard. Further, in the operation of a three-dimensional model using a pointing device such as a mouse, the mode is switched so that the pointing device having only two degrees of freedom corresponds to the conversion of six degrees of freedom. As a fusion type of both, there was also a method of operating two degrees of freedom with a pointing device and the remaining four degrees of freedom with a keyboard.

【0115】[0115]

【発明が解決しようとする課題】キーボードによる操作
方法では夫々の軸に対して正負方向の2つのキーが割り
当てられているので、軸方向の変換しかできない。例え
ば平面上の平行移動のときに縦横の軸が用意されている
場合、斜めに平行移動するには縦移動をしてから横移動
(或いは横移動してから縦移動)という2ステップの操
作を必要とする。さらに回転の場合は、想定した変換を
軸方向のベクトルに分解することが大変困難であるとい
う問題もある。
In the operating method using the keyboard, since two keys in the positive and negative directions are assigned to each axis, only the conversion in the axial direction can be performed. For example, if vertical and horizontal axes are prepared for parallel movement on a plane, a two-step operation of vertical movement and then horizontal movement (or horizontal movement and then vertical movement) is required for diagonal parallel movement. I need. Further, in the case of rotation, there is a problem that it is very difficult to decompose the assumed conversion into a vector in the axial direction.

【0116】ポインティングデバイスによる操作方法で
は軸に対して斜めの変換を行うことができるが、モード
の切替えが面倒であることと、回転の3自由度をうまく
操作できないという問題点がある。キーボードとポイン
ティングデバイスの併用による操作方法においても、2
つの異なるデバイスでの入力によって操作がし難くなる
という問題点を増すだけで、夫々の欠点を補っていると
は言えない。また表示に関して、実際に回転させてみな
いとどこを中心として回転するのかがよくわからないと
いう問題点がある。本発明は、あるゆる方向への変換を
直接行うことができ、モード切替えといった面倒な操作
を排し、わかりやすい操作画面を実現することにより、
高速で自由自在の操作を行うことができる表示方法及び
装置を提供することを目的とする。
Although the operation method using the pointing device can perform the oblique conversion with respect to the axis, it has a problem that mode switching is troublesome and the three degrees of freedom of rotation cannot be operated well. Even if you use the keyboard and pointing device in combination,
It does not mean that the drawbacks of each of them are compensated, only by increasing the problem that operation is difficult due to input from two different devices. Further, regarding the display, there is a problem that it is difficult to know where to rotate the display unless it is actually rotated. The present invention can directly perform conversion in a certain direction, eliminates troublesome operations such as mode switching, and realizes an easy-to-understand operation screen.
It is an object of the present invention to provide a display method and a device capable of performing high-speed and free operation.

【0117】[0117]

【課題を解決するための手段】本発明に係る3次元形状
モデルの表示方法は、2次元平面に3次元形状モデルを
表示する方法において、前記3次元形状モデルの一部又
は全部を内部に含むガイドポリゴンを併せて表示し、ま
た前記ガイドポリゴンの中心を求め、ポインティングデ
バイスによる指定点がガイドポリゴンの周縁にある場合
には求めた前記ガイドポリゴンの中心を基準点とする前
記3次元形状モデルの拡大又は縮小を行わせ、前記指定
点がガイドポリゴン内にある場合は求めたガイドポリゴ
ンの中心を基準点とする前記3次元形状モデルの回転を
行わせ、前記指定点がガイドポリゴン外にある場合は前
記3次元形状モデルの移動を行わせることを特徴とす
る。ここにポリゴンは球体を含む。そしてこのガイドポ
リゴンは半透明とし、その色は3次元形状モデルの色及
び背景色との対比で見えやすい色とする。更にポインテ
ィングデバイスによる指定点とガイドポリゴンとの相対
位置関係で移動、拡大、縮小、回転等の表示態様の変更
を行わせる。
A method of displaying a three-dimensional shape model according to the present invention is a method of displaying a three-dimensional shape model on a two-dimensional plane, and includes a part or all of the three-dimensional shape model inside. A guide polygon is also displayed, the center of the guide polygon is calculated, and if the point specified by the pointing device is on the periphery of the guide polygon, the calculated center of the guide polygon is used as a reference point of the three-dimensional shape model. When the designated point is outside the guide polygon by enlarging or reducing, and when the designated point is inside the guide polygon, the three-dimensional shape model is rotated with the obtained center of the guide polygon as a reference point. Is characterized in that the three-dimensional shape model is moved. Here, the polygon includes a sphere. The guide polygon is semitransparent, and its color is a color that is easily visible in comparison with the color of the three-dimensional shape model and the background color. Further, the display mode such as movement, enlargement, reduction, rotation, etc. is changed according to the relative positional relationship between the designated point by the pointing device and the guide polygon.

【0118】また本発明の3次元形状モデルの表示装置
は、2次元平面に3次元形状モデルを表示する装置にお
いて、前記3次元形状モデルの一部又は全部を内部に含
むガイドポリゴンを算出する手段と、前記ガイドポリゴ
ンの中心を算出する手段と、ポインティングデバイス
と、ポインティングデバイスで指定された点とガイドポ
リゴンの中心との距離lをガイドポリゴンの半径rと比
較する手段と、l=rの場合に前記ガイドポリゴンの中
心を基準点とする前記3次元形状モデルの拡大又は縮小
を行う手段と、l<rの場合に前記ガイドポリゴンの中
心を基準点とする前記3次元形状モデルの回転を行う手
段と、l>rの場合に前記3次元形状モデルの移動を行
う手段とを備えることを特徴とする。
The three-dimensional shape model display device of the present invention is a device for displaying a three-dimensional shape model on a two-dimensional plane, and is a means for calculating a guide polygon including a part or all of the three-dimensional shape model therein. And a means for calculating the center of the guide polygon, a pointing device, a means for comparing a distance l between a point designated by the pointing device and the center of the guide polygon with a radius r of the guide polygon, and when l = r And means for enlarging or reducing the three-dimensional shape model with the center of the guide polygon as a reference point, and rotating the three-dimensional shape model with the center of the guide polygon as a reference point when l <r. Means and means for moving the three-dimensional shape model when 1> r are provided.

【0119】図48はガイドポリゴンの表示例を示してい
る。3次元形状モデルは踏台状のものであり、これを包
絡する球体 (緯線、経線を合わせて示している) が認識
又は操作を案内するガイドポリゴンとして表示されてい
る。このような表示により拡大、縮小又は回転の中心が
一目で認識できることになる。マウス等のポインティン
グデバイスで指定した点が図49に示すようにガイドポリ
ゴンの中であると回転、外であると平行移動、周縁であ
ると拡大・縮小が指示されることになる。そして次の操
作でその量が指定されることになる。
FIG. 48 shows a display example of the guide polygon. The three-dimensional shape model is a step-like model, and a sphere enclosing the step model (the latitude line and the meridian line are shown together) is displayed as a guide polygon for guiding recognition or operation. With such a display, the center of enlargement, reduction, or rotation can be recognized at a glance. As shown in FIG. 49, when the point designated by a pointing device such as a mouse is in the guide polygon, rotation is instructed, when it is outside, parallel movement is instructed, and when it is at the periphery, enlargement / reduction is instructed. Then, the amount will be specified by the next operation.

【0120】[0120]

【発明の実施の形態】以下第4群の発明をその実施の形
態を示す図面に基づいて詳述する。図50は本発明の3次
元形状モデル表示装置のブロック図である。図において
60はディスプレイ装置であり、マウス等のポインティン
グデバイス61を備えている。3次元形状モデルの形状は
形状記憶部63に、位置は位置記憶部70に夫々記憶されて
おり、背景画像は背景画像記憶部62に記憶されている。
BEST MODE FOR CARRYING OUT THE INVENTION The fourth group of inventions will be described in detail below with reference to the drawings showing the embodiments thereof. FIG. 50 is a block diagram of a three-dimensional shape model display device of the present invention. In the figure
A display device 60 includes a pointing device 61 such as a mouse. The shape of the three-dimensional shape model is stored in the shape storage unit 63, the position is stored in the position storage unit 70, and the background image is stored in the background image storage unit 62.

【0121】ガイドポリゴン生成部64は色解析部64a,色
選択部64b,形状決定部64c からなり、その後の操作に必
要となるガイドポリゴンの大きさ・色を決定する。色解
析部64a は背景画像記憶部62から背景画像の色情報を、
また形状記憶部63から3次元形状モデルの色情報を夫々
取込んで解析し、色選択部64b は背景及び3次元形状モ
デルの表示を妨げず、しかも視認し易い色を選択する。
形状決定部64c は表示すべきガイドポリゴンの形状, 寸
法を決定する。
The guide polygon generating unit 64 comprises a color analyzing unit 64a, a color selecting unit 64b, and a shape determining unit 64c, and determines the size and color of the guide polygon required for the subsequent operation. The color analysis unit 64a stores the color information of the background image from the background image storage unit 62,
In addition, the color information of the three-dimensional shape model is fetched and analyzed from the shape storage unit 63, and the color selection unit 64b selects a color that does not interfere with the display of the background and the three-dimensional shape model and is easily visible.
The shape determining unit 64c determines the shape and size of the guide polygon to be displayed.

【0122】図51は色選択のフローチャート、図52は形
状寸法決定のフローチャートである。まず背景画像記憶
部62及び形状記憶部63から夫々背景画像及び3次元形状
モデルの情報を取込み、背景画像に対してどの色相が何
%使用されているか(S75) 、また3次元形状モデルに対
してどの色相が何%使用されているかを調べる(S71)。
そして3次元形状の使用色相については適宜の重みづけ
をする(S72) 。ここまでが前述した色解析部64a の機能
であり、以下は色選択部64b の機能である。即ち以上の
解析の結果により、予め用意してある候補表示色中から
近郊の色相の量を調べる(S73) 。そして最も近郊の色相
が少ない候補表示色を選択してガイドポリゴンの色とす
る(S74) 。
FIG. 51 is a color selection flowchart, and FIG. 52 is a shape dimension determination flowchart. First, information on the background image and the three-dimensional shape model is respectively fetched from the background image storage unit 62 and the shape storage unit 63, which hue is used for the background image and what percentage is used (S75), and for the three-dimensional shape model. Which hue is used and what percentage is used (S71).
Then, the used hue of the three-dimensional shape is appropriately weighted (S72). The above is the function of the color analysis unit 64a described above, and the following is the function of the color selection unit 64b. That is, the amount of hue in the suburbs is checked from the candidate display colors prepared in advance based on the results of the above analysis (S73). Then, the candidate display color with the smallest hue in the nearest suburb is selected and set as the color of the guide polygon (S74).

【0123】次に形状・位置の決定について説明する。
まず形状記憶部63及び位置記憶部70からデータを取込ん
で3次元形状モデルの重心を算出する(S61) 。そしてこ
の重心をガイドポリゴンの中心とする(S62) 。次にこの
中心から3次元形状モデルの各頂点までの距離を求める
(S63) 。そして最長距離をガイドポリゴンの半径とし(S
64) 、このガイドポリゴンの情報をガイドポリゴン記憶
部65に記憶させる。球体でない正多面体をガイドポリゴ
ンとして用いる場合も同様の手法によればよい。
Next, the determination of the shape / position will be described.
First, data is taken from the shape storage unit 63 and the position storage unit 70 to calculate the center of gravity of the three-dimensional shape model (S61). Then, this center of gravity is set as the center of the guide polygon (S62). Next, find the distance from this center to each vertex of the 3D shape model.
(S63). Then, let the longest distance be the radius of the guide polygon (S
64) The guide polygon storage unit 65 is caused to store this guide polygon information. When a regular polyhedron that is not a sphere is used as a guide polygon, the same method may be used.

【0124】上述のようにして作成されたガイドポリゴ
ンは表示部66により、ディスプレイ装置60に表示され
る。表示部66はガイドポリゴン記憶部65、背景画像記憶
部62、形状記憶部63及び位置記憶部70から読み出した内
容を重ね合わせる重ね合わせ部66a 及びこれをディスプ
レイ表示装置60に表示するための変換を行うディスプレ
イ表示部66b からなる。
The guide polygons created as described above are displayed on the display device 60 by the display unit 66. The display unit 66 includes a superimposing unit 66a that superimposes the contents read from the guide polygon storage unit 65, the background image storage unit 62, the shape storage unit 63, and the position storage unit 70, and conversion for displaying this on the display device 60. It consists of the display unit 66b.

【0125】一方、ポインティングデバイス61からの入
力はインターフェース部67へ取込まれる。入力制御部67
a はポインティングデバイス61の制御を行うものであ
り、マウスのドラッグのように入力が直前の操作と連動
している場合は直前に行った変換の続きと判断する。操
作位置判別部67b は入力された操作開始点がガイドポリ
ゴンの外側か内側か境界上かを判別し、外側で操作した
場合は平行移動を、内側で操作した場合は回転を、境界
線上で操作した場合は拡大縮小を行う。また、直前に行
った変換の続きであれば、前変換と同じ変換処理を選択
する。
On the other hand, the input from the pointing device 61 is taken into the interface section 67. Input control unit 67
a controls the pointing device 61, and if the input is linked to the immediately preceding operation like dragging the mouse, it is determined to be a continuation of the conversion performed immediately before. The operation position discriminating unit 67b discriminates whether the input operation start point is outside, inside, or on the boundary of the guide polygon, and operates parallel movement when operated outside, rotation when operated inside, and operates on boundary line. If so, enlargement / reduction is performed. If it is a continuation of the conversion performed immediately before, the same conversion process as the previous conversion is selected.

【0126】図53はこの操作位置判別部67b の処理手順
を示すフローチャートである。ガイドポリゴン生成部64
で決定した半径をrとし(S81) 、ポインティングデバイ
ス61による指定点、即ち操作開始点とガイドポリゴンの
中心点との距離lを求める(S82) 。そしてr=lの場合
は(S83) 拡大縮小処理(S86) 、r>lの場合は回転処理
(S87) 、r<lの場合は平行移動処理(S85) をする。
FIG. 53 is a flow chart showing the processing procedure of the operation position discriminating section 67b. Guide polygon generator 64
The radius determined in step 1 is defined as r (S81), and the distance l between the point designated by the pointing device 61, that is, the operation start point and the center point of the guide polygon is determined (S82). Then, if r = 1, (S83) scaling processing (S86), and if r> l, rotation processing.
(S87) If r <l, parallel movement processing (S85) is performed.

【0127】而して操作位置情報又は操作位置判別情報
は変換量決定部68へ入力され、その平行移動量決定部68
a 、拡大縮小量決定部68b 及び回転量決定部68c で夫々
平行移動量、拡大縮小量及び回転量が決定され、これら
の変換量は変換部69へ与えられ、ここで変換量に応じた
変換が行われる。平行移動部69a,拡大縮小部69b 及び回
転部69c は夫々平行移動, 拡大縮小及び回転を行わせ
る。
Thus, the operation position information or the operation position determination information is input to the conversion amount determination unit 68, and the parallel movement amount determination unit 68 thereof.
a, the scaling amount determination unit 68b and the rotation amount determination unit 68c respectively determine the translation amount, the scaling amount, and the rotation amount, and these conversion amounts are given to the conversion unit 69, where the conversion corresponding to the conversion amount is performed. Is done. The parallel moving unit 69a, the scaling unit 69b, and the rotating unit 69c perform parallel translation, scaling, and rotation, respectively.

【0128】次にこれらの変換について説明する。まず
平行移動はガイドポリゴン外の領域(図49参照) にカー
ソルを位置させてクリックする等の方法により平行移動
を指定し、カーソルを所望方向へ移動 (ドラッグ) す
る。これにより3次元形状モデル及びガイドポリゴンが
連動移動する。なお移動の単位はピクセルである。この
平行移動はそれ自体公知の各種の技法を用い得る。
Next, these conversions will be described. First, for the parallel movement, the parallel movement is specified by a method such as positioning the cursor in an area outside the guide polygon (see FIG. 49) and clicking, and then moving (dragging) the cursor in a desired direction. As a result, the three-dimensional shape model and the guide polygon move together. The unit of movement is a pixel. This translation can use various techniques known per se.

【0129】次に拡大縮小について説明する。図54はそ
の原理説明図であり、まずガイドポリゴンの周縁の点P
1 でクリックし、ドラッグしていって次いで拡大又は縮
小したい倍率に応じた位置P2 でクリックする。ガイド
ポリゴンの中心を0とするとバーOP2 /バーOP1 に拡大
又は縮小されることになる。拡大縮小自体の処理につい
てはそれ自体公知の技法を適宜用いればよい。
Enlargement / reduction will be described below. FIG. 54 is an explanatory view of the principle thereof. First, a point P on the peripheral edge of the guide polygon.
Click at 1 , drag and then click at position P 2 according to the magnification to be enlarged or reduced. When the center of the guide polygon is set to 0, it is enlarged or reduced to bar OP 2 / bar OP 1 . For the processing of the enlargement / reduction itself, a technique known per se may be appropriately used.

【0130】次に回転について説明する。図55はその原
理説明図、図56は回転のための処理手順を示すフローチ
ャートである。図55においてDはディスプレイ装置60の
2次元平面、Hは光体的に表したガイドポリゴンの中心
を通るDに平行な平面である。いま点P1 でクリックし
て回転を指示し、ドラッグしていき、αP だけ回転した
2 点でクリックしたとする(S91) 。このP1 , P2
ガイドポリゴンに投影した点R1 , R2 を算出する(S9
2) 。∠P2 O′P1 (O′は平面Dにおけるガイドポ
リゴンの中心)=αP とおく(S93) 。次に∠R1 OR2
を求めてこれをα r とする。次にR1 O,R2 O(Oは
平面H上のガイドポリゴン中心)がなす角度を求め、こ
の∠R1 OR2 をαr とする(S94) 。次に基準点O上の
基準線LをバーR1 O及びバーR2 Oに垂直な直線とし
て規定する(S95) 。そしてこの軸Lを中心としてαr
け回転する(S96) 。回転量決定以後の処理については公
知の図形回転手法によればよい。このような回転操作の
際には球体をガイドポリゴンとして使用する場合もその
経線, 緯線上をなぞるか又はこれを参照することで簡単
に回転操作が行える。以上のようにして変換されたモデ
ルはその位置記憶部70へ入力され、記憶される。
Next, the rotation will be described. Figure 55 is the source
FIG. 56 is a flow chart showing the processing procedure for rotation.
It is a chart. In FIG. 55, D is the display device 60.
2D plane, H is the center of the guide polygon
It is a plane parallel to D passing through. Now point P1Click on
Instruct to rotate, drag andPJust rotated
P2Suppose you click on a point (S91). This P1, P2so
Point R projected on the guide polygon1, R2Is calculated (S9
2). ∠P2O'P1(O 'is the guide port on plane D
The center of Ligon) = αP(S93). Then ∠R1OR2
For this α rAnd Then R1O, R2O (O is
Find the angle formed by the guide polygon center on the plane H)
∠R1OR2Αr(S94). Next, on the reference point O
Reference line L to bar R1O and bar R2A straight line perpendicular to O
(S95). And centering on this axis L αrIs
Rotate (S96). Regarding the processing after determining the rotation amount,
A known figure rotation method may be used. Of such rotation operation
When using a sphere as a guide polygon,
Easy by tracing or referring to meridians and parallels
Can be rotated. The model converted as above
Is input and stored in the position storage unit 70.

【0131】図57はこの3次元形状モデル表示装置の全
体的フローチャートである。前述のようにまず、ガイド
ポリゴンの決定をし(S101)、次いで背景, 3次元形状モ
デル及びガイドポリゴンの混合表示をし(S102)、次いで
オペレータによる変換指定があると(S103)、操作領域又
は移動、拡大縮小、回転の判別を行い(S104)、変換量を
決定して(S106)、その変換を実行する(S107)。
FIG. 57 is an overall flow chart of this three-dimensional shape model display device. As described above, first, the guide polygon is determined (S101), then the background, the three-dimensional shape model and the guide polygon are mixedly displayed (S102), and then when the operator designates conversion (S103), the operation area or The movement, enlargement / reduction, and rotation are discriminated (S104), the conversion amount is determined (S106), and the conversion is executed (S107).

【0132】[0132]

【発明の効果】以上の如き本発明による場合は拡大縮小
又は回転の原点(中心)を直感的に認識することができ
る。また3次元形状モデルの姿勢がガイドポリゴンとの
対比により認識し易い。またガイドポリゴンの色が自動
的に定まるので3次元形状モデルが見難くなる虞れはな
い。また移動、拡大縮小、回転に関してモード切替の煩
雑な操作、特別なデバイスを必要としない。更に回転に
ついてはディスプレイ装置の2次元表示平面での2自由
度の入力だけで3自由度の回転量、方向の入力ができ、
しかもその操作はガイドポリゴンの形状に倣えばよく容
易である。
According to the present invention as described above, the origin (center) of the scaling or rotation can be intuitively recognized. Further, the posture of the three-dimensional shape model can be easily recognized by comparing it with the guide polygon. Moreover, since the color of the guide polygon is automatically determined, there is no fear that the three-dimensional shape model becomes difficult to see. Further, it does not require complicated operations for mode switching for moving, enlarging / reducing, and rotating, and no special device. Further, regarding the rotation, it is possible to input the rotation amount and the direction of 3 degrees of freedom only by inputting the 2 degrees of freedom on the two-dimensional display plane of the display device.
Moreover, the operation is easy as long as it follows the shape of the guide polygon.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のシステムの説明図である。FIG. 1 is an explanatory diagram of a system of the present invention.

【図2】特定物体領域の抽出部の処理の流れ図である。FIG. 2 is a flowchart of a process of a specific object region extraction unit.

【図3】動画オブジェクトの構造の説明図である。FIG. 3 is an explanatory diagram of a structure of a moving image object.

【図4】第1群の発明の実施に使用する装置のブロック
図である。
FIG. 4 is a block diagram of an apparatus used to practice the first group of inventions.

【図5】処理の流れ図である。FIG. 5 is a flowchart of processing.

【図6】特定物体の領域指定の説明図である。FIG. 6 is an explanatory diagram of area designation of a specific object.

【図7】3次元形状情報付加処理のフローチャートであ
る。
FIG. 7 is a flowchart of a three-dimensional shape information addition process.

【図8】稜線及び端点の奥行の指定の説明図である。FIG. 8 is an explanatory diagram of designation of depths of ridge lines and end points.

【図9】稜線指定の説明図である。FIG. 9 is an explanatory diagram of ridge line designation.

【図10】3次元形状抽出装置のブロック図である。FIG. 10 is a block diagram of a three-dimensional shape extraction device.

【図11】3次元形状抽出方法のフローチャートであ
る。
FIG. 11 is a flowchart of a three-dimensional shape extraction method.

【図12】基本形状の立体図である。FIG. 12 is a three-dimensional view of a basic shape.

【図13】基本形状と画像との重畳表示例を示す説明図
である。
FIG. 13 is an explanatory diagram showing an example of a superimposed display of a basic shape and an image.

【図14】物体領域抽出の説明図である。FIG. 14 is an explanatory diagram of object area extraction.

【図15】基本形状の位置移動の処理のフローチャート
である。
FIG. 15 is a flowchart of a process of moving the position of a basic shape.

【図16】基本形状の位置移動の処理の説明図である。FIG. 16 is an explanatory diagram of a process of moving the position of the basic shape.

【図17】基本形状の回転の処理のフローチャートであ
る。
FIG. 17 is a flowchart of a process of rotating a basic shape.

【図18】基本形状の回転の処理の説明図である。FIG. 18 is an explanatory diagram of a process of rotating a basic shape.

【図19】大きさ変更処理のフローチャートである。FIG. 19 is a flowchart of a size changing process.

【図20】大きさ変更処理の説明図である。FIG. 20 is an explanatory diagram of a size changing process.

【図21】マッピングの説明図である。FIG. 21 is an explanatory diagram of mapping.

【図22】従来の画像合成方式の説明図である。FIG. 22 is an explanatory diagram of a conventional image synthesizing method.

【図23】第1領域抽出装置のブロック図である。FIG. 23 is a block diagram of a first area extraction device.

【図24】領域抽出のフローチャートである。FIG. 24 is a flowchart of region extraction.

【図25】領域抽出の説明図である。FIG. 25 is an explanatory diagram of area extraction.

【図26】第2領域抽出装置のブロック図である。FIG. 26 is a block diagram of a second area extraction device.

【図27】領域抽出のフローチャートである。FIG. 27 is a flowchart of region extraction.

【図28】領域抽出の説明図である。FIG. 28 is an explanatory diagram of area extraction.

【図29】第3〜6領域抽出装置のブロック図である。FIG. 29 is a block diagram of a third to sixth area extracting device.

【図30】領域抽出のフローチャートである。FIG. 30 is a flowchart of region extraction.

【図31】領域抽出の説明図である。FIG. 31 is an explanatory diagram of area extraction.

【図32】第3,4,7,8の領域抽出装置のブロック
図である。
FIG. 32 is a block diagram of a third, fourth, seventh and eighth area extracting device.

【図33】領域抽出のフローチャートである。FIG. 33 is a flowchart of region extraction.

【図34】領域抽出の説明図である。FIG. 34 is an explanatory diagram of area extraction.

【図35】第3,4の領域抽出装置のブロック図であ
る。
FIG. 35 is a block diagram of a third and fourth area extraction device.

【図36】エッジ処理のフローチャートである。FIG. 36 is a flowchart of edge processing.

【図37】エッジ処理の説明図である。FIG. 37 is an explanatory diagram of edge processing.

【図38】エッジ処理の説明図である。FIG. 38 is an explanatory diagram of edge processing.

【図39】第10の領域抽出装置のブロック図である。FIG. 39 is a block diagram of a tenth area extraction device.

【図40】雑音消去のフローチャートである。FIG. 40 is a flowchart of noise cancellation.

【図41】雑音消去の説明図である。FIG. 41 is an explanatory diagram of noise cancellation.

【図42】第10の領域抽出装置のブロック図である。FIG. 42 is a block diagram of a tenth area extraction device.

【図43】雑音消去のフローチャートである。FIG. 43 is a flowchart of noise cancellation.

【図44】雑音消去の説明図である。FIG. 44 is an explanatory diagram of noise cancellation.

【図45】第11の領域抽出装置のブロック図である。FIG. 45 is a block diagram of an eleventh area extraction device.

【図46】雑音消去のフローチャートである。FIG. 46 is a flowchart of noise cancellation.

【図47】雑音消去の説明図である。FIG. 47 is an explanatory diagram of noise cancellation.

【図48】ガイドポリゴンの表示例を示す画面図であ
る。
FIG. 48 is a screen diagram showing a display example of a guide polygon.

【図49】操作の説明図である。FIG. 49 is an explanatory diagram of an operation.

【図50】3次元形状モデル表示装置のブロック図であ
る。
FIG. 50 is a block diagram of a three-dimensional shape model display device.

【図51】ガイドポリゴンの色選択のフローチャートで
ある。
FIG. 51 is a flowchart of color selection of a guide polygon.

【図52】ガイドポリゴンの形状決定のフローチャート
である。
FIG. 52 is a flowchart for determining the shape of a guide polygon.

【図53】操作位置判別の寸法フローチャートである。FIG. 53 is a dimensional flowchart for operating position determination.

【図54】拡大縮小の原理説明図である。FIG. 54 is an explanatory diagram of the principle of enlargement / reduction.

【図55】回転の原理説明図である。FIG. 55 is a diagram illustrating the principle of rotation.

【図56】回転のフローチャートである。FIG. 56 is a flowchart of rotation.

【図57】3次元形状モデルの表示装置の全体的ブロッ
ク図である。
[Fig. 57] Fig. 57 is an overall block diagram of a display device of a three-dimensional shape model.

【符号の説明】[Explanation of symbols]

1 特定物体領域抽出部 2 3次元形状情報付加部 3 映像CGモデル生成部 4 合成画像生成部 5 画像記憶部 6 形状・表面属性情報記憶部 7a,7b CGモデル記憶部 8 合成情報記憶部 10 画像表示装置 12 ポインティング装置 13 CGモデル作成部 1 Specific object area extraction unit 2 3D shape information addition section 3 Video CG model generator 4 Composite image generator 5 Image storage 6 Shape / surface attribute information storage 7a, 7b CG model storage 8 Compositing information storage 10 Image display device 12 pointing device 13 CG model creation department

───────────────────────────────────────────────────── フロントページの続き (72)発明者 松井 一樹 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 椎谷 秀一 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 Fターム(参考) 5B050 AA08 AA09 BA07 BA08 BA11 BA18 DA02 EA19 EA24 EA27 FA02 FA08 5C023 AA02 AA10 AA16 BA02 BA13 DA04 DA08    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Kazuki Matsui             1015 Kamiodanaka, Nakahara-ku, Kawasaki City, Kanagawa Prefecture             Within Fujitsu Limited (72) Inventor Shuichi Shiiya             1015 Kamiodanaka, Nakahara-ku, Kawasaki City, Kanagawa Prefecture             Within Fujitsu Limited F-term (reference) 5B050 AA08 AA09 BA07 BA08 BA11                       BA18 DA02 EA19 EA24 EA27                       FA02 FA08                 5C023 AA02 AA10 AA16 BA02 BA13                       DA04 DA08

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 2次元平面に3次元形状モデルを表示す
る方法において、前記3次元形状モデルの一部又は全部
を内部に含むガイドポリゴンを併せて表示し、また前記
ガイドポリゴンの中心を求め、ポインティングデバイス
による指定点がガイドポリゴンの周縁にある場合には求
めた前記ガイドポリゴンの中心を基準点とする前記3次
元形状モデルの拡大又は縮小を行わせ、前記指定点がガ
イドポリゴン内にある場合は求めたガイドポリゴンの中
心を基準点とする前記3次元形状モデルの回転を行わ
せ、前記指定点がガイドポリゴン外にある場合は前記3
次元形状モデルの移動を行わせることを特徴とする3次
元形状モデルの表示方法。
1. A method of displaying a three-dimensional shape model on a two-dimensional plane, wherein a guide polygon including a part or all of the three-dimensional shape model therein is also displayed, and a center of the guide polygon is obtained. When the designated point by the pointing device is on the periphery of the guide polygon, the three-dimensional shape model with the obtained center of the guide polygon as a reference point is enlarged or reduced, and the designated point is within the guide polygon. Causes the three-dimensional shape model to rotate with the obtained center of the guide polygon as a reference point, and if the designated point is outside the guide polygon, the three
A method for displaying a three-dimensional shape model, characterized in that the three-dimensional shape model is moved.
【請求項2】 2次元平面に3次元形状モデルを表示す
る装置において、前記3次元形状モデルの一部又は全部
を内部に含むガイドポリゴンを算出する手段と、前記ガ
イドポリゴンの中心を算出する手段と、ポインティング
デバイスと、ポインティングデバイスで指定された点と
ガイドポリゴンの中心との距離lをガイドポリゴンの半
径rと比較する手段と、l=rの場合に前記ガイドポリ
ゴンの中心を基準点とする前記3次元形状モデルの拡大
又は縮小を行う手段と、l<rの場合に前記ガイドポリ
ゴンの中心を基準点とする前記3次元形状モデルの回転
を行う手段と、l>rの場合に前記3次元形状モデルの
移動を行う手段とを備えることを特徴とする3次元形状
モデルの表示装置。
2. A device for displaying a three-dimensional shape model on a two-dimensional plane, means for calculating a guide polygon including a part or all of the three-dimensional shape model therein, and means for calculating the center of the guide polygon. A pointing device, a means for comparing a distance l between a point designated by the pointing device and the center of the guide polygon with a radius r of the guide polygon, and when l = r, the center of the guide polygon is used as a reference point. Means for enlarging or reducing the three-dimensional shape model; means for rotating the three-dimensional shape model with the center of the guide polygon as a reference point when l <r; A display device for a three-dimensional shape model, comprising: means for moving the three-dimensional shape model.
JP2002183475A 2002-06-24 2002-06-24 Method and apparatus for displaying a three-dimensional shape model Expired - Lifetime JP3732158B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002183475A JP3732158B2 (en) 2002-06-24 2002-06-24 Method and apparatus for displaying a three-dimensional shape model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002183475A JP3732158B2 (en) 2002-06-24 2002-06-24 Method and apparatus for displaying a three-dimensional shape model

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP31023699A Division JP3345808B2 (en) 1999-10-29 1999-10-29 Method and apparatus for displaying a three-dimensional shape model

Publications (2)

Publication Number Publication Date
JP2003077011A true JP2003077011A (en) 2003-03-14
JP3732158B2 JP3732158B2 (en) 2006-01-05

Family

ID=19195378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002183475A Expired - Lifetime JP3732158B2 (en) 2002-06-24 2002-06-24 Method and apparatus for displaying a three-dimensional shape model

Country Status (1)

Country Link
JP (1) JP3732158B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007080029A (en) * 2005-09-15 2007-03-29 Kgt Inc Method of synthetically integrating multiple three-dimensional computer graphics
JP2007166383A (en) * 2005-12-15 2007-06-28 Nec Saitama Ltd Digital camera, image composing method, and program
JP2007207251A (en) * 2006-02-03 2007-08-16 Metaio Gmbh Method of and system for determining data model designed for being superposed with image of real object
WO2020179438A1 (en) * 2019-03-04 2020-09-10 パナソニックIpマネジメント株式会社 Object amount calculation device and object amount calculation method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007080029A (en) * 2005-09-15 2007-03-29 Kgt Inc Method of synthetically integrating multiple three-dimensional computer graphics
JP2007166383A (en) * 2005-12-15 2007-06-28 Nec Saitama Ltd Digital camera, image composing method, and program
JP2007207251A (en) * 2006-02-03 2007-08-16 Metaio Gmbh Method of and system for determining data model designed for being superposed with image of real object
JP4531069B2 (en) * 2006-02-03 2010-08-25 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and system for determining a data model designed to be superimposed with an image of a real object
WO2020179438A1 (en) * 2019-03-04 2020-09-10 パナソニックIpマネジメント株式会社 Object amount calculation device and object amount calculation method
JPWO2020179438A1 (en) * 2019-03-04 2020-09-10
CN113544462A (en) * 2019-03-04 2021-10-22 松下知识产权经营株式会社 Quantity calculation device and quantity calculation method

Also Published As

Publication number Publication date
JP3732158B2 (en) 2006-01-05

Similar Documents

Publication Publication Date Title
JP3030485B2 (en) Three-dimensional shape extraction method and apparatus
Sinha et al. Interactive 3D architectural modeling from unordered photo collections
US9282321B2 (en) 3D model multi-reviewer system
JP5299173B2 (en) Image processing apparatus, image processing method, and program
Pighin et al. Synthesizing realistic facial expressions from photographs
RU2215326C2 (en) Image-based hierarchic presentation of motionless and animated three-dimensional object, method and device for using this presentation to visualize the object
US7920144B2 (en) Method and system for visualization of dynamic three-dimensional virtual objects
US9014507B2 (en) Automatic tracking matte system
US20140125654A1 (en) Modeling and Editing Image Panoramas
US20050166163A1 (en) Systems and methods of interfacing with a machine
CN111325824A (en) Image data display method and device, electronic equipment and storage medium
EP2546806A2 (en) Image based rendering for AR - enabling user generation of 3D content
JP2000067267A (en) Method and device for restoring shape and pattern in there-dimensional scene
JP3104638B2 (en) 3D image creation device
EP3980975B1 (en) Method of inferring microdetail on skin animation
Jeong et al. Automatic generation of subdivision surface head models from point cloud data
JP3732158B2 (en) Method and apparatus for displaying a three-dimensional shape model
JP2832463B2 (en) 3D model reconstruction method and display method
JP3345808B2 (en) Method and apparatus for displaying a three-dimensional shape model
JP3364682B2 (en) Image sequence generation method
JP2024512672A (en) Surface texturing from multiple cameras
JP3309841B2 (en) Synthetic moving image generating apparatus and synthetic moving image generating method
JPH11175765A (en) Method and device for generating three-dimensional model and storage medium
TW201019265A (en) Auxiliary design system and method for drawing and real-time displaying 3D objects
JP3575469B2 (en) Synthetic moving image generating apparatus and synthetic moving image generating method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050405

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050705

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051011

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081021

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091021

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091021

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101021

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101021

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111021

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111021

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121021

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121021

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131021

Year of fee payment: 8

EXPY Cancellation because of completion of term