JP2000105841A - Method and device for displaying three-dimensional shape model - Google Patents
Method and device for displaying three-dimensional shape modelInfo
- Publication number
- JP2000105841A JP2000105841A JP31023699A JP31023699A JP2000105841A JP 2000105841 A JP2000105841 A JP 2000105841A JP 31023699 A JP31023699 A JP 31023699A JP 31023699 A JP31023699 A JP 31023699A JP 2000105841 A JP2000105841 A JP 2000105841A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- area
- extracted
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明はコンピュータグラフ
ィックスと実写映像との合成を行う方法及びその装置に
関する。[0001] 1. Field of the Invention [0002] The present invention relates to a method and an apparatus for synthesizing computer graphics and real images.
【0002】[0002]
【従来の技術】最近、映画やコマーシャルフィルムの製
作でコンピュータグラフィックス(以下CGという) と実
写映像の合成が盛んに用いられるようになってきた。例
えば、CGで作った架空の建築物などに、予め撮影した人
間の実写映像を合成することで、あたかも人間がその建
築物の中を歩いている効果を創り出せる。このCGと実写
映像の合成によって作られた映像は、見る者にとってリ
アルでインパクトの強いものであり、特に景観シミュレ
ーションには欠かせないものとなっている。2. Description of the Related Art In recent years, the synthesis of computer graphics (hereinafter referred to as CG) and live-action video has been actively used in the production of movies and commercial films. For example, by synthesizing a fictitious building made of CG with a real photographed image of a human being taken in advance, it is possible to create the effect of a human walking in the building. The video created by combining the CG with the live-action video is real and has a strong impact on the viewer, and is especially indispensable for landscape simulation.
【0003】一般的に、CGでは描画する物体の形状は、
平面、2次曲面などの簡単な幾何形状 (形状プリミティ
ブ) を使って定義し、その表面には任意の色付けをした
り、画像データを貼り付ける処理を行う。しかしこの方
法では、木や川などの自然物を描画すると常にその姿が
固定された状態に見えてしまう。そこで、予め風に揺れ
ている木あるいは水が流れている川を撮影しておき、CG
で作成したシーンにその実写映像を合成することで、よ
り自然なアニメーションを作ることができる。従来の方
法では、撮影した実写映像から画像を選択し、平板など
の簡単な形状プリミティブに貼り付けることでCGとの合
成処理を行っている。この合成処理を各フレームごとに
繰り返して行い、連続した合成画像のアニメーションを
製作するのである。In general, in CG, the shape of an object to be drawn is
It is defined using a simple geometric shape (shape primitive) such as a plane or a quadratic surface, and the surface is colored and any image data is pasted. However, in this method, when a natural object such as a tree or a river is drawn, its shape always looks fixed. So, beforehand, I shot a tree swaying in the wind or a river with flowing water,
A more natural animation can be created by synthesizing the live-action video with the scene created in. In a conventional method, an image is selected from a photographed video image and attached to a simple primitive such as a flat plate to perform a synthesis process with a CG. This synthesis process is repeated for each frame to produce an animation of a continuous synthesized image.
【0004】なお、静止画の合成画像に関する公知文献
として「景観シミュレーションのための 2.5次元簡易情
景モデル構築の一手法」 (1992年7月:「画像の認識・
理解シンボジウム (MIRU '92) 」がある。また本発明の
一部である3次元図形抽出に関するものとして特開昭62
-162173号公報及び特開平3-244005号公報がある。As a well-known document relating to a composite image of a still image, a method for constructing a simple 2.5-dimensional scene model for landscape simulation (July 1992: "Image recognition /
Understanding Symbolium (MIRU '92). Also, Japanese Patent Application Laid-Open No.
-162173 and JP-A-3-244005.
【0005】[0005]
【発明が解決しようとする課題】この種技術においては
以下の如き解決すべき課題があった。 (1) 実写映像を3次元形状を持ったCGモデルに変換する
のを簡便に行わしめること (2) この変換の際にオペレータの介入を許容すること (3) 動画の実写映像とCGとの合成を可能にすること (4) 実写映像から所要の部分を抽出する場合の操作性、
能率を高めること (5) CGモデルの回転、拡大縮小及び移動の操作性を高め
ること (6) CGと実写映像との合成の同期を容易にとれるように
することIn this type of technology, there are the following problems to be solved. (1) To make it easy to convert a live-action video to a CG model having a three-dimensional shape. (2) To allow the intervention of an operator during this conversion. Enable composition (4) Operability when extracting required parts from live-action video,
(5) Enhance operability of rotation, scaling and movement of CG model (6) To facilitate synchronizing the synthesis of CG and live-action video
【0006】〔発明の概要〕この発明で提案する方法,
装置(システム)では、画像処理の技法を用いて、計算
機がユーザとの対話処理を行って、 1) 映像情報の物体単位の切り分け、 2) 3次元幾何情報を付加した動画オブジェクトの生
成、 3) CGモデルと動画オブジェクトの同時表示、の3つの
処理を行う。1)によりスタジオでのブルーバック撮影
が、2)により映像撮影時のカメラの位置情報の測定や記
録が不要になり、また3)により表示の際に視点を変更す
ることが可能となる。[Summary of the Invention] The method proposed in the present invention,
In the device (system), using a technique of image processing, a computer performs interactive processing with a user, 1) segmenting video information into object units, 2) generating a moving image object to which 3D geometric information is added, 3 3) Simultaneous display of the CG model and the moving image object is performed. The 1) eliminates the need to measure and record the camera's positional information when shooting a video, and the 3) allows the viewpoint to be changed when displaying the image.
【0007】システム構成の概略 図1に本発明のシステムの構成の概略を示す。本システ
ムでは、特定物体領域の抽出部、3次元幾何情報の抽出
部、動画オブジェクトとCGの同時描画部の3つの処理部
から構成されている。特定物体領域の抽出部と3次元幾
何情報の抽出部により、CGと合成するための動画オブジ
ェクトと呼ぶデータが作られて、ハードディスクに格納
される。このデータを利用して、動画オブジェクト及び
CGの同時描画部では、非リアルタイムに合成画像を生成
する。FIG. 1 schematically shows the configuration of a system according to the present invention. The present system includes three processing units: a specific object region extraction unit, a three-dimensional geometric information extraction unit, and a moving image object and CG simultaneous drawing unit. Data called a moving image object to be combined with CG is created by the specific object region extraction unit and the three-dimensional geometric information extraction unit, and stored on the hard disk. Using this data, video objects and
The CG simultaneous drawing unit generates a composite image in non-real time.
【0008】特定物体領域の抽出部 特定物体領域の抽出部は、キャプチャリングツールによ
って入力された映像情報から、特定物体の領域を切り出
す処理を行う。この処理の流れを図2に示す。ここでは
入力データとして連続画像シーケンスを受け取り、出力
として特定物体を包含する矩形領域の画像シーケンス
と、それと同じサイズのアルファ値を格納したアルファ
マップシーケンスを作る。物体の領域を2値のマスクで
切り分けると境界部分に不自然なエリアシングが生じ
る。これを防ぐためにアルファ値を使って領域を定義す
る。あるn枚目の画像について、ユーザとの対話処理で
特定物体の領域を決定後、n+1〜n+m枚目の処理は
前フレームの処理結果を利用して計算機で半自動的に行
う。Specific Object Region Extraction Unit The specific object region extraction unit performs a process of cutting out a specific object region from video information input by a capturing tool. FIG. 2 shows the flow of this processing. Here, a continuous image sequence is received as input data, and an image sequence of a rectangular area containing a specific object as an output and an alpha map sequence storing an alpha value of the same size are created. When the region of the object is cut by the binary mask, unnatural aliasing occurs at the boundary. To prevent this, use alpha values to define regions. After the area of the specific object is determined for a certain n-th image by dialog processing with the user, the processing of the (n + 1) to (n + m) -th images is semi-automatically performed by a computer using the processing result of the previous frame.
【0009】3次元幾何情報の抽出部 3次元幾何情報の抽出部は、前述の特定物体領域の抽出
部が作った特定物体を包含する矩形領域の画像シーケン
スとアルファマップシーケンスを利用して2次元の映像
情報から3次元幾何情報を抽出する。この3次元幾何情
報の抽出は、ユーザが2次元の画像上の物体に、複数の
簡単な形状プリミティブ(直方体など)を変形、回転、
移動なとの操作をして、フィッティングを行うことで実
現する。本システムでは視点情報だけでなく、物体の形
状情報及び各面に張り付いているテクスチャ画像を抽出
する。この抽出部では、動画オブジェクトと呼ぶデータ
構造を作るために、映像中の物体に3次元幾何情報を与
え、そのCGモデル化された物体の各面に張り付く映像情
報を抽出し、正面から見たものに正規化して格納する。The extraction unit for three-dimensional geometric information The three-dimensional geometric information extraction unit uses a two-dimensional image sequence and an alpha map sequence of a rectangular region containing a specific object created by the above-described specific object region extraction unit. 3D geometric information is extracted from the video information. The extraction of the three-dimensional geometric information is performed by a user transforming, rotating, or transforming a plurality of simple shape primitives (such as a rectangular parallelepiped) into an object on a two-dimensional image.
It is realized by performing the operation of moving and performing fitting. In this system, not only viewpoint information but also shape information of an object and a texture image attached to each surface are extracted. In this extraction unit, in order to create a data structure called a moving image object, three-dimensional geometric information is given to the object in the video, the video information attached to each surface of the CG modeled object is extracted, and viewed from the front. Normalize and store it.
【0010】動画オブジェクトの構造 特定物体領域の抽出部と3次元幾何情報の抽出部の処理
を経て生成されたデータは動画オブジェクトと呼ぶ構造
になる。図3に動画オブジェクトの構造の概略を示す。
動画オブジェクトはCGと映像を融合するために新たに作
ったデータ構造で、形状データの他に表面情報として、
各面に張り付く映像情報(静止画,或いは動画)へのポ
インタを格納している。Structure of Moving Image Object The data generated through the processing of the specific object area extraction unit and the three-dimensional geometric information extraction unit has a structure called a moving image object. FIG. 3 schematically shows the structure of the moving image object.
The video object is a newly created data structure for fusing CG and video.
A pointer to video information (still image or moving image) attached to each surface is stored.
【0011】合成画像生成部 合成画像生成部では、生成された動画オブジェクトデー
タとCGデータとを同時に描画する。このとき、メタ情報
として描画するCGシーンの時刻Ti と時間間隔Δtを指
定する。CGデータには各物体の形状データの他に、各時
刻に於ける位置情報が含まれる。また、時刻Ti によ
り、動画オブジェクトの中の映像データから各面に貼り
付けられる映像が選択される。時刻Ti に於ける物体の
表面属性が決定された後、時刻Ti における合成シーン
を生成する。Synthesized image generator The synthesized image generator simultaneously draws the generated moving image object data and CG data. In this case, specifying the time T i and the time interval Δt of the CG scene to be rendered as meta-information. The CG data includes position information at each time in addition to the shape data of each object. Moreover, the time T i, the image to be pasted on each side from the video data in the video object is selected. After the time T i is the surface attributes of the in the object is determined to generate a composite scene at time T i.
【0012】以下本発明を具体的に説明する。本願の発
明は大きく2つに分けられる。 (1) 全体構成に関するもの (2) 特定物体の領域の抽出部及び3次元形状情報の付加
部に関するものHereinafter, the present invention will be described specifically. The invention of the present application is roughly divided into two. (1) Concerning the overall configuration (2) Concerning the part for extracting the area of the specific object and the part for adding three-dimensional shape information
【0013】(2) は 2-1 特定物体領域の抽出部及び3次元形状情報の付加部
の構成に関するもの 2-2 前記抽出部の構成に関するもの 2-3 3次元形状モデルの表示に関するものの3つに分け
られる。以下(1) を第1群の発明、2-1 、2-2 、2-3 を
夫々第2、3、4群の発明と言う。(2) relates to 2-1 the configuration of a specific object region extraction unit and a three-dimensional shape information addition unit. 2-2 relates to the configuration of the extraction unit. 2-3 relates to the display of a three-dimensional shape model. Divided into two. Hereinafter, (1) is referred to as a first group of inventions, and 2-1, 2-2, and 2-3 are referred to as second, third, and fourth group inventions, respectively.
【0014】本願の主題は第4群の発明であるが、それ
に関連する第1〜第3群の発明も説明する。第1群の発
明から詳細に説明する。 [第1群の発明] (概要)第1群の発明はCGと実写映像との合成の全体構成
に関するものである。Although the subject of the present application is the fourth group of inventions, the first to third group inventions related thereto will also be described. The invention of the first group will be described in detail. [Invention of First Group] (Summary) The invention of the first group relates to the overall configuration of the synthesis of CG and real shot video.
【0015】[0015]
【従来の技術及び発明が解決しようとする課題】CGと実
写映像の合成は、合成後の映像を想定した上で撮影し、
実写画像から合成すべき部分のみを切り出し、CGに重ね
合わせる手法をとっていた。このような手法における撮
影の場合、ブルーバックによるスタジオ撮影が必要であ
ったり、撮影時にカメラの位置を測定する必要があるな
ど、大掛かりな環境が必要である。2. Description of the Related Art The synthesis of a CG and a live-action video is performed by assuming the synthesized video,
Only the part to be synthesized was cut out from the actual image and superimposed on the CG. In the case of shooting using such a method, a large-scale environment is required, such as a need for studio shooting with a blue background or a need to measure the position of a camera during shooting.
【0016】計算機によって支援する方式も前述のMIRU
'92の文献に提案されている。これは視点情報を実写映
像から抽出し、その映像中の対象物を平面に近似して、
CGと合成する手法である。しかし、完全な3次元情報を
有するモデルではないため、合成時に視点を変更できな
いなど、合成処理に制限を受ける。特開平3-138784号公
報には静止画中の物体を3次元として扱うために、静止
画中の物体を3次元モデルに基づいて再構成し、その3
次元物体に相当する部分画像を、3次元物体モデルの表
面テクスチャとしてマッピングし表示する方式が提案さ
れている。この方式では、1つの3次元部に対し、複数
枚の入力画像から表面テクスチャを合成することも提案
している。しかし、映像 (動画像) の場合、表面テクス
チャが刻々と変化する場合も考えられ、複数テクスチャ
を合成した場合、時系列方向で平滑化したテクスチャが
得られてしまうこともあり不適当である。The method supported by a computer is also the MIRU described above.
Proposed in '92. This extracts viewpoint information from a live-action video, approximates the object in the video to a plane,
This is a method of combining with CG. However, since the model does not have complete three-dimensional information, the viewpoint cannot be changed at the time of synthesis. Japanese Patent Application Laid-Open No. 3-138784 discloses that in order to treat an object in a still image as three-dimensional, the object in the still image is reconstructed based on a three-dimensional model.
A method of mapping and displaying a partial image corresponding to a three-dimensional object as a surface texture of a three-dimensional object model has been proposed. This method also proposes synthesizing a surface texture from a plurality of input images for one three-dimensional portion. However, in the case of a video (moving image), the surface texture may change every moment. When a plurality of textures are combined, a texture smoothed in a time-series direction may be obtained, which is inappropriate.
【0017】[0017]
【発明が解決しようとする課題】本発明はこのような技
術的背景の下になされたものであり、実写映像を3次元
形状を有するCGモデルに簡便に変換することができる画
像合成方法を提案することを第1の目的とする。また前
記CGモデルをフレームごとに生成して、その結果動画に
もできる映像合成方法を提供することを第2の目的とす
る。SUMMARY OF THE INVENTION The present invention has been made under such a technical background, and proposes an image synthesizing method capable of easily converting a real image into a CG model having a three-dimensional shape. The first purpose is to do so. It is a second object of the present invention to provide a video synthesizing method in which the CG model is generated for each frame and, as a result, a moving image can be obtained.
【0018】[0018]
【課題を解決するための手段】本発明に係る画像合成方
法は、コンピュータグラフィックスと実写映像とを合成
する画像合成方法において、実写映像中の特定の領域を
抽出する過程と、抽出した領域に3次元形状の情報を付
加する過程と、抽出領域の情報及び3次元形状の情報に
基づき、抽出領域に係る情報をコンピュータグラフィッ
クスモデル化する過程とを備えることを主な特徴とす
る。SUMMARY OF THE INVENTION An image synthesizing method according to the present invention is an image synthesizing method for synthesizing computer graphics and a real shot video, wherein a step of extracting a specific area in the real shot video is performed. The main feature is to include a process of adding information of a three-dimensional shape and a process of computerizing information relating to the extraction region into a computer graphics model based on the information of the extraction region and the information of the three-dimensional shape.
【0019】更に、コンピュータグラフィックスモデル
化した前記抽出領域に係る情報と他のコンピュータグラ
フィックスモデルとを混在表示させるべくこれらを合成
する過程を備える。そして動画作成のために複数フレー
ムに亘って同様の処理を実行する。Further, the method further comprises a step of synthesizing the computer graphics model information and the other computer graphics models so that the information on the extraction region and other computer graphics models are mixedly displayed. Then, the same processing is executed over a plurality of frames to create a moving image.
【0020】本発明に係る画像合成装置は、コンピュー
タグラフィックスと実写映像とを合成する画像合成装置
において、実写映像中の特定の領域を抽出する手段と、
抽出した領域に3次元形状の情報を付加する手段と、抽
出領域の情報及び3次元形状の情報に基づき、抽出領域
に係る情報をコンピュータグラフィックスモデル化する
手段とを備えることを主な特徴とする。An image synthesizing apparatus according to the present invention is an image synthesizing apparatus for synthesizing computer graphics and a real photographed image, means for extracting a specific area in the real photographed image,
The main feature is that it comprises means for adding information of a three-dimensional shape to an extracted area, and means for computer graphics modeling of information relating to the extracted area based on the information of the extracted area and the information of the three-dimensional shape. I do.
【0021】更に、コンピュータグラフィックスモデル
化した前記抽出領域に係る情報と他のコンピュータグラ
フィックスモデルとを混在表示させるべくこれらを合成
する手段を備える。Further, there is provided means for synthesizing the computer graphics modeled information relating to the extraction area and another computer graphics model so as to display them together.
【0022】実写映像から特定の物体に対応する領域を
切り出し、これに3次元形状情報を付加する。これによ
り実写映像の前記特定物体の表面属性を有するCGモデル
が生成される。これを単独で用いるか、又は他のCGモデ
ルと混合する。更に複数フレームに亘って同様の処理を
行うことで動画での画像合成が行える。An area corresponding to a specific object is cut out from the actual photographed video, and three-dimensional shape information is added to this. As a result, a CG model having the surface attribute of the specific object in the actual video is generated. Use it alone or mix it with other CG models. Further, by performing the same processing over a plurality of frames, image synthesis with a moving image can be performed.
【0023】[0023]
【発明の実施の形態】以下本発明をその実施の形態を示
す図面に基づき具体的に説明する。図4は本発明方法を
実施するための装置のブロック図であり、図5はその処
理の流れ図である。図4において9はTVカメラ、ビデオ
テープ、ビデオディスク等の映像供給装置であり、これ
らから得られた実写映像情報はビデオメモリ等からなる
画像記憶部5へフレーム毎に記憶される。この画像記憶
部5に記憶されている実写映像情報は特定物体領域抽出
部1へ与えられ、ここで実写映像中の特定の物体の領域
が抽出される。抽出領域の指示はオペレータがマウス等
のポインティング装置12を用いて行う。またその具体的
な内容は第2〜4群の発明の説明に詳しい。図6は実写
映像として4角柱及び3角錐が表示されている場合に4
角柱を抽出領域として指定した(太線で示す)場合の状
態を示している。このようにして指定された領域の映像
情報は3次元形状情報付加部2へ送られ、ここで3次元
形状情報が付加される一方、形状・表面属性情報記憶部
6に記憶される。DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the drawings showing the embodiments. FIG. 4 is a block diagram of an apparatus for implementing the method of the present invention, and FIG. 5 is a flowchart of the processing. In FIG. 4, reference numeral 9 denotes a video supply device such as a TV camera, a video tape, or a video disc. The real image information stored in the image storage unit 5 is supplied to the specific object region extracting unit 1, where a specific object region in the real image is extracted. The operator designates the extraction area using the pointing device 12 such as a mouse. The specific contents are detailed in the description of the inventions of the second to fourth groups. FIG. 6 shows a case where a quadrangular prism and a triangular pyramid are displayed as live-action images.
This shows a state in which a prism is designated as an extraction area (shown by a thick line). The video information of the area designated in this way is sent to the three-dimensional shape information adding unit 2, where the three-dimensional shape information is added, and stored in the shape / surface attribute information storage unit 6.
【0024】3次元形状情報付加部2は特定物体領域抽
出部1から与えられた情報に3次元形状情報を付加し
て、これを形状・表面属性情報記憶部6に蓄える。3次
元形状情報付加部2の具体的構成は第2群の発明に詳し
いが、ここでも1例を挙げて説明する。The three-dimensional shape information adding unit 2 adds three-dimensional shape information to the information provided from the specific object region extracting unit 1 and stores the information in the shape / surface attribute information storage unit 6. Although the specific configuration of the three-dimensional shape information adding unit 2 is detailed in the second group of the invention, an example will be described here.
【0025】図7はそのフローチャートである。まず図
8に示すように指定して抽出した領域、又は物体を画像
表示装置10の画面に表示させて、オペレータに画像の焦
点距離fを入力させる(S1)。この入力にはキーボード等
の文字・数値入力装置11が使用される。次にポインティ
ング装置12を用いて画面上に稜線を描画させ、その奥行
の値を入力させる(S2)。図8には描画した稜線を太線で
示し、指定した奥行の値をZで表示している。この描
画、奥行指定は取消、訂正が可能である。面の特定は基
本的に3角形(3本の稜線)によって行えるから、この
発明でも図9に示すように3角形に分割するように稜線
を描画し、また3角形への分割のための補助線(矩形の
対角線)の描画を行い、相異る2本の稜線(補助線を含
む)が交わることなく、抽出領域内の総ての点が3本の
稜線に囲まれた状態になっている状態にする(S3)。FIG. 7 is a flowchart. First, as shown in FIG. 8, an area or an object designated and extracted is displayed on the screen of the image display device 10, and the operator inputs the focal length f of the image (S1). For this input, a character / numerical input device 11 such as a keyboard is used. Next, a ridge line is drawn on the screen using the pointing device 12, and a value of the depth is input (S2). In FIG. 8, the drawn ridgeline is indicated by a thick line, and the value of the designated depth is indicated by Z. This drawing and depth designation can be canceled and corrected. Since the surface can be basically specified by a triangle (three ridges), the present invention also draws the ridges so as to be divided into triangles as shown in FIG. 9 and also assists the division into triangles. Draws a line (diagonal line of a rectangle), and all points in the extraction area are surrounded by three ridge lines without crossing two different ridge lines (including auxiliary lines). State (S3).
【0026】次に端点の3次元座標の算出をする(S4)。
これはS1、S2で入力した焦点距離f、奥行Z、及び端点
の画像上の座標(x,y)に基づき、 X=(x/f)×Z Y=(y/f)×Z により得る。なお、稜線上の点及び稜線で囲まれた領域
内の点の3次元座標は、次の式によって算出できる。Next, the three-dimensional coordinates of the end point are calculated (S4).
X = (x / f) × Z Y = (y / f) × Z based on the focal length f, the depth Z, and the coordinates (x, y) of the end point on the image input in S1 and S2. . Note that the three-dimensional coordinates of a point on the ridge line and a point in a region surrounded by the ridge line can be calculated by the following equation.
【0027】稜線上の点 稜線の端点の3次元座標、及び画像上の座標を夫々、
(xi ,yi ),(Xi,Yi ,Zi )(i=1,2)
とすると、稜線上の点(x,y)の3次元座標(X,
Y,Z)は、 X=(1−t)X1 +tX2 Y=(1−t)Y1 +tY2 Z=(1−t)Z1 +tZ2 により得る。ただし、tは、x1 ≠x2 の場合は(x−
x1 )/(x2 −x1 )、x1 =x2 の場合は(y−y
1 )/(y2 −y1 )である。Point on Edge Line The three-dimensional coordinates of the edge point of the edge line and the coordinates on the image are respectively
(X i , y i ), (X i , Y i , Z i ) (i = 1, 2)
Then, the three-dimensional coordinates (X, y) of the point (x, y) on the ridge line
Y, Z) is obtained by X = (1-t) X 1 + tX 2 Y = (1-t) Y 1 + tY 2 Z = (1-t) Z 1 + tZ 2. Here, t is (x−x) when x 1 ≠ x 2.
x 1 ) / (x 2 −x 1 ), and when x 1 = x 2 , (y−y)
1 ) / (y 2 −y 1 ).
【0028】稜線で囲まれた領域内の点 この領域内の点はいずれも3本の稜線に囲まれており、
それらの交点は3本の稜線の端点であることが保証され
ている。従って3つの交点の座標がなす平面は、3つの
交点の座標(Xi ,Yi ,Zi )(i=1,2,3)に
より求めることができる(自明)。この平面の方程式を
aX+bY+cZ−1=0とおくと、領域内の点の画像
上の座標(x,y)の3次元座標(X,Y,Z)は、 X=x/(ax+by+cf) Y=y/(ax+by+cf) Z=f/(ax+by+cf) により得られる。A point in the area surrounded by the ridgeline Each point in this area is surrounded by three ridgelines,
Their intersection is guaranteed to be the endpoint of the three ridges. The plane of the three intersections of coordinates thus can be determined by three intersections of the coordinate (X i, Y i, Z i) (i = 1,2,3) ( trivial). Assuming that the equation of this plane is aX + bY + cZ-1 = 0, the three-dimensional coordinates (X, Y, Z) of the coordinates (x, y) on the image of the point in the area are: X = x / (ax + by + cf) Y = y / (ax + by + cf) Z = f / (ax + by + cf)
【0029】このようにして得られた稜線から、端点の
3次元座標及び接続関係は形状情報として、端点の特定
物体領域上の座標対応及び特定物体領域画像の画像デー
タは表面属性情報として、形状・表面属性情報記憶部6
へ格納する(S5)。表1は形状・表面属性情報記憶部6の
記憶内容を示している。以上のS1〜S5の処理を全フレー
ムにつき反復する(S6)。From the ridge lines obtained in this manner, the three-dimensional coordinates and connection relations of the end points are used as shape information, the coordinates of the end points on the specific object area, and the image data of the specific object area image are used as surface attribute information.・ Surface attribute information storage unit 6
(S5). Table 1 shows the storage contents of the shape / surface attribute information storage unit 6. The above processing of S1 to S5 is repeated for all frames (S6).
【0030】[0030]
【表1】 [Table 1]
【0031】次に形状・表面属性情報記憶部6の内容を
映像CGモデル生成部3でCGモデル化する。形状情報のCG
モデル化については稜線の接続関係及び3次元座標よ
り、端点を頂点、稜線を辺、囲まれる部分を面とみなす
ことによりそのままCGモデルを生成できる。Next, the contents of the shape / surface attribute information storage unit 6 are converted into CG models by the video CG model generation unit 3. CG of shape information
With respect to modeling, a CG model can be generated as it is by regarding the end points as vertices, the ridge lines as sides, and the enclosed portion as a surface from the connection relation of the ridge lines and the three-dimensional coordinates.
【0032】一方、表面属性情報については面とみなし
た部分の表面属性情報として、その位置に対応する画像
情報を、生成するCGモデルのテクスチャとする。その
際、その画像情報を、3次元空間で法線方向から見た画
像として正規化する。正規化の際の回転行列Rは、次式
で与える。On the other hand, regarding the surface attribute information, as the surface attribute information of the portion regarded as a surface, the image information corresponding to the position is used as the texture of the CG model to be generated. At that time, the image information is normalized as an image viewed from a normal direction in a three-dimensional space. The rotation matrix R at the time of normalization is given by the following equation.
【0033】[0033]
【数1】 (Equation 1)
【0034】ただし、回転角ψ及び回転角κは、この領
域の平面の方程式をaX+bY+cZ−1=0と表した
際のa,b,cに基づきHere, the rotation angle ψ and the rotation angle κ are based on a, b, and c when the plane equation of this area is expressed as aX + bY + cZ−1 = 0.
【0035】[0035]
【数2】 (Equation 2)
【0036】である。a,b,cは、3つの頂点の3次
元座標(Xi ,Yi ,Zi )(i=1,2,3)により
求めることができる。このようなCGモデル化処理をすべ
てのフレームに対して適用し、実写映像に対するCGモデ
ルを、各フレームに対するCGモデル列として獲得し、こ
れを映像CGモデル記憶部7bに記憶させる。CGモデル作成
部13は上述のような実写映像から作成するのではない通
常のCGモデルを作成するものであり、作成されたCGモデ
ルはCGモデル記憶部7aに記憶される。Is as follows. a, b, and c can be obtained from the three-dimensional coordinates (X i , Y i , Z i ) of three vertices (i = 1, 2, 3). Such a CG modeling process is applied to all the frames, a CG model for the actual video is obtained as a CG model sequence for each frame, and this is stored in the video CG model storage unit 7b. The CG model creation unit 13 creates a normal CG model that is not created from the above-described actual shot video, and the created CG model is stored in the CG model storage unit 7a.
【0037】合成情報記憶部8はこのCGモデルと実写映
像から作成した映像CGモデルとを合成画像生成部4で合
成するための情報 (CGモデル配置情報) を記憶するもの
であり、合成画像生成部4は、これに基づいて両CGモデ
ルの合成をし、これを画像表示装置10に表示させたり、
或いは図示しない記録媒体に記録させる。合成画像生成
部4及び合成情報記憶部8については第5群の発明に詳
しい。The composite information storage unit 8 stores information (CG model arrangement information) for synthesizing the CG model and the video CG model created from the actually shot video in the composite image generation unit 4. The unit 4 synthesizes both CG models based on this, and causes the image display device 10 to display them,
Alternatively, it is recorded on a recording medium (not shown). The composite image generation unit 4 and the composite information storage unit 8 are described in detail in the fifth group of the invention.
【0038】[0038]
【発明の効果】以上の如き本発明による場合は実写映像
を3次元形状を持つCGモデルへ変換するので、通常のCG
モデルと同様の取扱いができ、これらの合成等の処理が
容易に行える。そして実写映像のCGモデル化は領域の抽
出及びこれに対する3次元形状情報の付加という簡便な
操作で行える。またこの際オペレータの手動介入が可能
であるので、微妙な調整、或いはこの作為的変更が行
え、自由度が高まる。また複数フレームを同様に処理す
ることで動画への適用も可能である。As described above, in the case of the present invention, a real image is converted into a CG model having a three-dimensional shape.
The same handling as a model can be performed, and processing such as synthesis can be easily performed. The CG model of the actual image can be formed by a simple operation of extracting a region and adding three-dimensional shape information thereto. At this time, since manual intervention by the operator is possible, fine adjustments or intentional changes can be made, and the degree of freedom is increased. In addition, by processing a plurality of frames in the same manner, application to moving images is also possible.
【0039】[第2群の発明] (概要)この発明は図4の特定物体領域抽出部1及び3次
元形状情報付加部2の構成に係るものである。[Invention of Second Group] (Summary) The present invention relates to the configuration of the specific object region extracting unit 1 and the three-dimensional shape information adding unit 2 shown in FIG.
【0040】[0040]
【従来の技術及び発明が解決しようとする課題】画像中
の3次元物体に対し、その物体の形状を完全に抽出する
方式は、未だ確立されていない。従来技術として提案さ
れているのは、物体表面の反射特性を仮定し、観察され
る色値から物体表面の傾きを求める方式や、画像に観察
される物体のモデルを予め記憶しておき、そのモデルと
画像に観察される物体の見えかたを照合する方式、等々
である。これらは、画像理解研究の発展とともに、開発
されてきた。2. Description of the Related Art A method for completely extracting the shape of a three-dimensional object in an image has not yet been established. The prior art is proposed assuming the reflection characteristics of the surface of the object, a method of calculating the inclination of the surface of the object from the observed color values, and storing a model of the object to be observed in an image in advance. There is a method of collating the appearance of an object observed in a model and an image, and the like. These have been developed with the development of image understanding research.
【0041】しかし、何れの方式も、適用条件に合致し
ていないと適用できない。例えば、前者の方式に対して
は、反射特性を仮定できない物体の場合、後者の方式に
対しては、記憶していないモデルの物体の場合、適用す
ることができない。そこでこの発明では映像に含まれる
物体の3次元形状を得る際、その物体のおよその形状を
人間が指定し、その形状のモデルを画像に表示しなが
ら、その重ね合わせ方を、人間による指定と、画像処理
の手法を用いた計算機による自動調整を、交互に対話的
に行う3次元形状抽出方法及び装置を提供することを目
的とする。However, none of these methods can be applied unless the conditions are met. For example, the former method cannot be applied to an object whose reflection characteristics cannot be assumed, and the latter method cannot be applied to an object of a model that is not stored. Therefore, in the present invention, when obtaining the three-dimensional shape of an object included in a video, a human specifies an approximate shape of the object, and while displaying a model of the shape on an image, a method of superimposing is designated by a human. Another object of the present invention is to provide a method and apparatus for extracting a three-dimensional shape, in which automatic adjustment by a computer using an image processing technique is alternately and interactively performed.
【0042】[0042]
【課題を解決するための手段】第2群の発明の方法は、
実写映像に含まれる物体の3次元形状を抽出する方法に
おいて、複数の幾何学的形状のデータを予め用意してお
く過程と、実写映像から前記物体に相当する領域を抽出
する過程と、抽出した領域を表示している画面に前記デ
ータによっていずれかの形状を選択表示させる過程と、
前記領域および形状を一致させるべく前記形状の位置、
向き、大きさを調整する過程とを備えることを特徴とす
る。The method of the second group of the invention comprises:
In a method for extracting a three-dimensional shape of an object included in a real video, a process of preparing data of a plurality of geometric shapes in advance, and a process of extracting a region corresponding to the object from the real video, A step of selectively displaying one of the shapes according to the data on a screen displaying an area,
Position of the shape to match the region and shape,
Adjusting the orientation and size.
【0043】また第2群の発明の装置は、実写映像に含
まれる物体の3次元形状を抽出する装置において、複数
の幾何学的形状のデータを予め用意しておく手段と、実
写映像から前記物体に相当する領域を抽出する手段と、
抽出した領域を表示している画面に前記データによって
いずれかの形状を選択表示させる手段と、前記領域およ
び形状を一致させるべく前記形状の位置、向き、大きさ
を調整する調整手段とを備えることを特徴とする。In a second group of the invention, there is provided an apparatus for extracting a three-dimensional shape of an object included in a real video, wherein a plurality of data of a plurality of geometric shapes are prepared in advance; Means for extracting a region corresponding to the object;
A means for selecting and displaying one of the shapes on the screen displaying the extracted area based on the data; and adjusting means for adjusting the position, orientation, and size of the shape so that the area and the shape match. It is characterized by.
【0044】そして調整手段では物体の形状及び色相値
に基づく位置,向き,大きさの自動調整手段を備える。
更に調整済形状に実写映像から抽出した領域の画像情報
をマッピングする手段を備える。The adjusting means includes automatic adjusting means for adjusting the position, orientation and size based on the shape and hue value of the object.
Further, there is provided a means for mapping image information of an area extracted from the actual photographed video to the adjusted shape.
【0045】抽出した物体の領域に近い形状を予め用意
されている形状の中から選択して表示させる。そうする
とこの領域と形状とが一致するように調整されて目的と
する物体の3次元形状が抽出できたことになる。この結
果は前述の3次元形状情報付加部2で得られた結果と同
様のものである。A shape close to the region of the extracted object is selected from the prepared shapes and displayed. Then, the three-dimensional shape of the target object can be extracted by adjusting the region to match the shape. This result is similar to the result obtained by the above-described three-dimensional shape information adding unit 2.
【0046】[0046]
【発明の実施の形態】以下第2群の発明をその実施の形
態を示す図面に基づいて詳述する。図10は3次元形状抽
出装置のブロック図である。図において21は物体領域抽
出部であり、実写映像から所要の物体の領域を抽出して
画像表示装置27に表示させるものである。これについて
は第3群の発明に詳しい。実写映像及び抽出映像は画像
記憶部25に記憶される。基本形状選択部22は図12に示す
ような基本形状のパターンを多数記憶しており、これを
オペレータが選択して画像表示装置27に表示させるもの
である。基本形状重ね合わせ部23はオペレータが選択し
た基本形状のパターンと、抽出した物体の画像とを図13
に示すように重ね合わせて表示させ、後述するようなオ
ペレータの操作とコンピュータによる自動調整とにより
両者を合致させるものである。合致するように重ね合わ
された結果は重ね合わせ情報記憶部26に記憶される。ま
た重ね合わせ結果表示部24は調整の済んだ基本形状に抽
出物体の表面の画像情報をマッピングするものである。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The second group of the invention will be described below in detail with reference to the drawings showing the embodiments. FIG. 10 is a block diagram of the three-dimensional shape extraction device. In the figure, reference numeral 21 denotes an object area extracting unit, which extracts an area of a required object from a photographed video and causes the image display device 27 to display the extracted area. This is detailed in the third group of inventions. The actual video and the extracted video are stored in the image storage unit 25. The basic shape selection unit 22 stores a large number of basic shape patterns as shown in FIG. 12, and the operator selects this and displays it on the image display device 27. The basic shape superimposing unit 23 compares the pattern of the basic shape selected by the operator and the image of the extracted object in FIG.
Are displayed in a superimposed manner as shown in FIG. 1 and both are matched by an operation of an operator and automatic adjustment by a computer as described later. The result of superimposition so as to match is stored in the superimposition information storage unit 26. The superimposition result display unit 24 maps the image information of the surface of the extracted object onto the adjusted basic shape.
【0047】次に図11に基づき3次元形状抽出方法を説
明する。画像記憶部25に記憶させてある実写映像を取出
し、これを画像表示装置27に表示させて物体領域抽出部
21で所要物体の抽出を行う(S21) 。図14はこの操作の説
明図である。オペレータは描画装置を用いて画面上に物
体領域及び背景領域を各例示する閉曲線を描く。物体領
域抽出部21は物体領域の閉曲線を拡張し、背景領域の閉
曲線は収縮させる。この拡張、収縮は色相が類似する部
分についてのみ認める。そうすると両閉曲線は境界で接
することになり、これにより境界を特定して所要の物体
の領域が抽出する。なお図14(b) のように拡張、収縮の
結果、影が存在する等のために境界が太く認定されるこ
とが生じ得るが、この場合は太い境界の内側線を物体の
境界とする。Next, a three-dimensional shape extraction method will be described with reference to FIG. The real image taken out from the image storage unit 25 is taken out and displayed on the image display device 27, and the object region extracting unit
At 21, required objects are extracted (S 21). FIG. 14 is an explanatory diagram of this operation. The operator draws closed curves each exemplifying the object region and the background region on the screen using the drawing device. The object area extraction unit 21 expands the closed curve of the object area and contracts the closed curve of the background area. The expansion and contraction are recognized only for the parts having similar hues. Then, both closed curves come into contact at the boundary, whereby the boundary is specified and the region of the required object is extracted. As shown in FIG. 14B, as a result of expansion and contraction, a boundary may be recognized as being thick due to the presence of a shadow or the like. In this case, the inner line of the thick boundary is set as the boundary of the object.
【0048】次に所定操作を行わせて基本形状 (形状プ
リミティブ) のパターンを表示させ、抽出物体の形状に
類似するものを選択する(S22) 。これにより図13に示す
ように重ね合わせ表示させる(S23) 。一般的に抽出した
物体形状と選択した基本形状とは一致しない。そこで両
者が一致するまで(S24) 、物体形状と基本形状とにつ
き、位置調整(S27) 、向きの調整(S28) 、大きさの調整
(S29) 及び形状の部分的変形(S30) を行う。一致, 不一
致はオペレータの判断による。Next, a pattern of the basic shape (shape primitive) is displayed by performing a predetermined operation, and a pattern similar to the shape of the extracted object is selected (S22). As a result, superimposed display is performed as shown in FIG. 13 (S23). Generally, the extracted object shape does not match the selected basic shape. Therefore, until the two coincide (S24), the position adjustment (S27), the orientation adjustment (S28), and the size adjustment of the object shape and the basic shape are performed.
(S29) and partial deformation of the shape (S30). The agreement and disagreement are determined by the operator.
【0049】図15は位置移動に関する処理のフローチャ
ート、図16はその説明図である。この移動の原理は物体
領域と形状プリミティブのワイヤフレームの重心を一致
させる点にある。即ち物体領域の重心GROの算出(S31)
、及び形状プリミティブのワイヤフレームの重心GRP
の算出(S33) を行う。そしてこれらを一致させるべく形
状プリミティブのワイヤフレームの表示位置を移動する
(S32) 。FIG. 15 is a flowchart of a process relating to position movement, and FIG. 16 is an explanatory diagram thereof. The principle of this movement is to match the center of gravity of the object region with the shape primitive wireframe. That is, calculation of the center of gravity G RO of the object area (S31)
, And the center of gravity G RP wireframe shape primitives
Is calculated (S33). Then, the display position of the wire frame of the shape primitive is moved so as to match these.
(S32).
【0050】物体領域の重心RROと、形状プリミティブ
のワイヤフレーム表示で囲まれる領域の重心RRPが一致
するように、形状プリミティブのワイヤフレーム表示位
置を移動する (図16) 。なお、領域Rの重心GR は、 GR =( m10/m00,m01/m00 )T により求めることができる。但し、 m00 m00=∫fdR 領域Rを構成する点の個数を示す。この値は面積を表
す。 m10 m10=∫xdR 領域Rを構成する各点のx座標の総和値を示す。 m01 m01=∫ydR 領域Rを構成する各点のy座標の総和値を示す。 これに従い、形状プリミティブのワイヤフレーム表示位
置を(GRO−GRP)移動する。The display position of the shape primitive wire frame is moved so that the center of gravity R RO of the object region matches the center of gravity R RP of the region surrounded by the wire frame display of the shape primitive (FIG. 16). Incidentally, the center of gravity G R region R can be obtained by G R = (m 10 / m 00, m 01 / m 00) T. Here, m 00 m 00 = ∫fdR indicates the number of points constituting the region R. This value represents the area. m 10 m 10 = ∫xdR Indicates the sum of the x-coordinates of the points constituting the region R. m 01 m 01 = ∫ydR Indicates the sum of the y-coordinates of the points constituting the region R. In accordance with this, the wire frame display position of the shape primitive is moved by (G RO -G RP ).
【0051】図17は向きの調整のために行う形状プリミ
ティブの回転の処理を示すフローチャート、図18はその
説明図である。回転による向きの調整の原理は、物体領
域及び形状プリミティブのワイヤフレームの長軸の平行
化にある。領域Rの長軸方向θR は、領域の重心回りの
慣性主軸として求めることができる。すなわち、 tan2 θR +[{m20−m10/m00)−(m02−m01/
m00)}/(m11−m10m01/m00)] tanθR −1=
0 の解として求めればよい。但し、 m11 m11=∫xydR 領域Rを構成する各点のx座標とy座標の積の総和値を
示す。 m20 m20=∫x2 dR 領域Rを構成する各点のx座標の2乗の総和値を示す。 m02 m02=∫y2 dR 領域Rを構成する各点のy座標の2乗の総和値を示す。 これに従い、形状プリミティブのワイヤフレーム表示位
置を(θRO−θRP)回転する。FIG. 17 is a flowchart showing a process of rotating a shape primitive for adjusting the direction, and FIG. 18 is an explanatory diagram thereof. The principle of the orientation adjustment by rotation lies in the parallelization of the long axes of the object region and the shape primitive wireframe. The major axis direction θ R of the region R can be obtained as a principal axis of inertia around the center of gravity of the region R. That is, tan 2 θ R + [{m 20 −m 10 / m 00 ) − (m 02 −m 01 /
m 00 )} / (m 11 −m 10 m 01 / m 00 )] tan θ R −1 =
0 may be obtained as a solution. Here, m 11 m 11 = ∫xy R Indicates the total sum of the products of the x coordinate and the y coordinate of each point constituting the region R. m 20 m 20 = ∫x 2 dR Indicates the sum of squares of the x-coordinate of each point constituting the region R. m 02 m 02 = ∫y 2 dR Indicates the sum of squares of the y coordinate of each point constituting the region R. In accordance with this, the wireframe display position of the shape primitive is rotated by (θ RO −θ RP ).
【0052】図17のフローチャートに示すように抽出し
た物体領域及び形状プリミティブのワイヤフレームのモ
ーメント量を算出する(S41,S44) 。このモーメント量の
算出は mij=∫xi yj dR (ij)={(0,0),(1,0),(0,1),(1,1),(2,0),(0,2) } で求められる。As shown in the flowchart of FIG. 17, the moment amounts of the extracted object region and the shape primitive wire frame are calculated (S41, S44). The moment calculation of the amount of m ij = ∫x i y j dR (ij) = {(0,0), (1,0), (0,1), (1,1), (2,0), (0,2)}.
【0053】一方、前述のようにして物体領域の長軸、
並びに形状プリミティブのワイヤフレームの長軸及び重
心GRPを前述のようにして求める(S42,S45,S46) 。そし
てG RPを中心としてθRO−RRPだけ形状プリミティブの
ワイヤフレーム表示位置を回転する(S43) 。On the other hand, as described above, the long axis of the object area
And the long axis and weight of the shape primitive wireframe
Heart GRPIs obtained as described above (S42, S45, S46). Soshi
G RPΘ aroundRO-RRPOnly shape primitives
The wireframe display position is rotated (S43).
【0054】大きさの調整は図20に示すように両者の表
示面積が一致するように領域RP の重心GRPを中心とし
て形状プリミティブのワイヤフレームを拡大又は縮小す
ることで行う。即ち領域Rの面積SR は SR =m00 として求めることができる。これに従い、形状プリミテ
ィブのワイヤフレームをSRO/SRP倍すればよい。ここ
にSROは物体領域の面積 SRPは形状プリミティブのワイヤフレームの面積であ
る。[0054] Adjustment of the size is performed by enlarging or reducing the wireframe shape primitives around the center of gravity G RP regions R P as display area therebetween, as shown in FIG. 20 coincide. That is, the area S R of the region R can be obtained as S R = m 00 . In accordance with this, the shape primitive wire frame may be multiplied by S RO / S RP . Where S RO is the area of the object region S RP is the area of the shape primitive wireframe.
【0055】図19のフローチャートにおいて、抽出した
物体の領域のモーメント量、形状プリミティブのワイヤ
フレーム表示領域のモーメント量を算出する(S51,S54)
。そしてこれを用いて両者の面積SRO, SRPを算出す
る(S52,S55) 。また形状プリミティブのワイヤフレーム
の重心GRPを算出する(S56) 。そして形状プリミティブ
のワイヤフレームをSRO/SRP倍する(S53) 。面積はモ
ーメント量m00として求めることができる。In the flowchart of FIG. 19, the moment amount of the region of the extracted object and the moment amount of the wire frame display region of the shape primitive are calculated (S51, S54).
. Then, using these, the areas S RO and S RP of both are calculated (S52, S55). Further, the center of gravity G RP of the shape primitive wire frame is calculated (S56). Then, the shape primitive wire frame is multiplied by S RO / S RP (S53). Area can be determined as a moment amount m 00.
【0056】図11に返って、形状の変形について説明す
る。物体領域の形状が基本形状と部分的に異なる場合は
オペレータが入力する命令で基本形状を部分的に変形す
る。以上のようにして物体領域と基本形状が一致した場
合は、これを重ね合わせ情報記憶部26へ格納する(S25)
。そして図21に示すように形状プリミティブのワイヤ
フレームに抽出した物体領域の画像情報をマッピングす
る(S26) 。つまり実写映像の所要部が切り出されて形状
プリミティブのワイヤフレームに貼り付けられた如き状
態になる。Returning to FIG. 11, deformation of the shape will be described. If the shape of the object area is partially different from the basic shape, the basic shape is partially deformed by a command input by the operator. When the object area and the basic shape match as described above, this is stored in the overlay information storage unit 26 (S25).
. Then, as shown in FIG. 21, the image information of the extracted object region is mapped on the wire frame of the shape primitive (S26). In other words, a required portion of the actual video is cut out and attached to the shape primitive wire frame.
【0057】[0057]
【発明の効果】以上のような第2群の発明による場合は
オペレータが対話方式で3次元形状の抽出ができるので
適用条件に制約されず、また物体に対する既知情報(反
射情報など)を必要とすることなく抽出が可能である。
また基本形状を物体領域に一致させる作業はコンピュー
タが自動的に行うのでオペレータの負担は軽微である。
またマッピングを行うので抽出した3次元形状情報の適
否が直感的に判断できる。According to the invention of the second group as described above, since the three-dimensional shape can be extracted by the operator in an interactive manner, there is no restriction on application conditions, and known information (reflection information, etc.) on the object is required. Extraction is possible without performing.
In addition, since the operation of matching the basic shape with the object area is automatically performed by the computer, the burden on the operator is light.
In addition, since the mapping is performed, the suitability of the extracted three-dimensional shape information can be intuitively determined.
【0058】[第3群の発明] (概要)第3群の発明は図4の特定物体領域抽出部又は図
10の物体領域抽出部に係るものである。[Invention of Third Group] (Summary) The invention of the third group is a specific object region extracting unit or FIG.
This relates to ten object region extraction units.
【0059】[0059]
【従来の技術】電気的に画像を合成する場合は図22に示
すようにして行われていた。例えば人物像の画像をブル
ー背景として画像入力部Aで撮影し、また風景画像を画
像入力部Bで撮影する。そして画像入力部Aの画像から
ブルー成分を検出し、これを反転増幅して、適宜の混合
比制御をして、この反転増幅信号と、画像入力部A, B
からの信号とを混合増幅器で合成し、画像出力部へ出力
することとしていた。これにより画像入力部Aからの背
景が消えて画像入力部Bを背景とする人物像が合成され
ることになる。2. Description of the Related Art An image is electrically synthesized as shown in FIG. For example, an image of a person is photographed by the image input unit A as a blue background, and a landscape image is photographed by the image input unit B. Then, a blue component is detected from the image of the image input unit A, the blue component is inverted and amplified, and an appropriate mixing ratio control is performed.
And a signal from the multiplexing unit, and synthesizes the signal with a mixing amplifier and outputs the synthesized signal to an image output unit. As a result, the background from the image input unit A disappears, and a person image with the image input unit B as the background is synthesized.
【0060】[0060]
【発明が解決しようとする課題】このような従来の方式
ではブルー背景を必要とし設備面での負担がある。また
当初から画像合成を意図したものしか利用できず、汎用
性に欠ける。更に混合増幅器における合成のためのパラ
メータ設定が難しく、また操作も煩雑である。本発明は
このような問題を解決するためになされたものであり、
特別な撮影設備を必要とせず、また汎用性が高く、更に
操作が簡便な画像合成装置、特に合成対象となるキー画
像の生成装置を提供することを目的とする。In such a conventional system, a blue background is required and there is a burden on facilities. In addition, only those intended for image synthesis can be used from the beginning, and lack versatility. Further, it is difficult to set parameters for synthesis in the mixing amplifier, and the operation is complicated. The present invention has been made to solve such a problem,
It is an object of the present invention to provide an image synthesizing apparatus which does not require any special photographing equipment, has high versatility, and is easy to operate, and particularly, a key image generating apparatus to be synthesized.
【0061】[0061]
【課題を解決するための手段】第3群の発明の第1の方
法は、映像から特定の領域を抽出する方法において、抽
出対象とすべき領域内の複数の画素を指定する過程と、
指定した画素における所定の特徴量を求める過程と、求
めた特徴量の最大値及び最小値を求める過程と、抽出対
象とすべき領域の内外の画素につき特徴量を求めて、そ
の特徴量が前記最大値と最小値との間にある画素を選択
する過程とを備え、前記画素によって構成される領域を
抽出領域とすることを特徴とする。According to a first method of a third group of the invention, there is provided a method of extracting a specific area from an image, wherein a plurality of pixels in the area to be extracted are designated.
A step of obtaining a predetermined feature amount of the designated pixel, a step of obtaining a maximum value and a minimum value of the obtained feature amount, and a step of obtaining a feature amount for pixels inside and outside the region to be extracted. Selecting a pixel between the maximum value and the minimum value, wherein a region formed by the pixel is set as an extraction region.
【0062】第2の方法は、映像から特定の領域を抽出
する方法において、抽出対象とすべき領域内の複数の画
素を指定する過程と、指定した画素における所定の特徴
量を求める過程と、指定した画素の、求めた特徴量につ
き、隣接画素間の差分を計算する過程と、計算した差分
の最大値を求める過程と、指定した画素を開始点とし
て、隣接画素間の特徴量の差分が前記最大値より小さい
4近傍又は8近傍の画素を連結する過程とを備え、連結
した画素によって構成される領域を抽出領域とすること
を特徴とする。A second method is a method of extracting a specific area from a video, in which a plurality of pixels in an area to be extracted are specified, a step of obtaining a predetermined feature amount in the specified pixel, The process of calculating the difference between adjacent pixels for the obtained feature amount of the specified pixel, the process of obtaining the maximum value of the calculated difference, and the process of calculating the difference between the feature amounts of adjacent pixels starting from the specified pixel. Connecting pixels near four or eight pixels smaller than the maximum value, wherein a region formed by the connected pixels is set as an extraction region.
【0063】第3の方法は、前記抽出領域の画素及び非
抽出領域の画素に各別の値を付与する過程と、前記抽出
領域の境界の外縁に位置する画素に、前記値の中間の値
を付与する過程とを備え、これらの付与した値による画
像を生成することを特徴とする。A third method is to assign different values to the pixels in the extraction region and the pixels in the non-extraction region, and to assign a value intermediate between the values to a pixel located at the outer edge of the boundary of the extraction region. And a step of generating an image based on the assigned values.
【0064】第4の方法は、前記抽出領域から遠ざかる
方向に隣接する複数の画素の各々に異なる中間の値を付
与する。In a fourth method, a different intermediate value is assigned to each of a plurality of pixels adjacent in the direction away from the extraction area.
【0065】第5の方法は、映像から特定の領域を抽出
する方法において、抽出対象とすべき領域内の複数の画
素を指定する過程と、指定した画素における所定の特徴
量を求める過程と、求めた特徴量の最大値及び最小値を
求める過程と、抽出対象とすべき領域の内外の画素につ
き特徴量を求めて、特徴量が前記最大値と最小値との間
の範囲にあるか否かを判定する過程と、前記範囲内の画
素に定数Kを付与する過程と、前記範囲外の画素の特徴
量と前記最大値又は最小値との差分を算出する過程と、
前記範囲外の画素に、定数Kから前記差分に関連して定
まる値を減じた値を付与する過程とを備え、これらの付
与した値による画像を生成することを特徴とする。A fifth method is a method of extracting a specific area from a video, in which a plurality of pixels in an area to be extracted are specified, a step of obtaining a predetermined feature amount in the specified pixel, Calculating the maximum value and the minimum value of the determined feature amount; determining the feature amount for pixels inside and outside the region to be extracted; and determining whether the feature amount is in the range between the maximum value and the minimum value. Determining, whether to assign a constant K to the pixels within the range, and calculating the difference between the feature value of the pixel outside the range and the maximum or minimum value,
Assigning a value obtained by subtracting a value determined in relation to the difference from the constant K to the pixels outside the range, and generating an image based on the assigned values.
【0066】第6の方法は、映像から特定の領域を抽出
する方法において、抽出対象とすべき領域内の複数の画
素を指定する過程と、指定した画素における所定の複数
の特徴量を求める過程と、求めた特徴量の最大値及び最
小値を特徴量の各々について求める過程と、抽出対象と
すべき領域の内外の画素につき特徴量を求めて、特徴量
が前記最大値と最小値との間の範囲にあるか否かを判定
する過程と、前記範囲内の画素に定数Kを付与する過程
と、前記範囲外の画素の特徴量と前記最大値又は最小値
との差分を算出する過程と、前記範囲外の画素に、定数
Kから各々の特徴量の前記差分に関連して定まる値を減
じた値を付与する過程とを備え、これらの付与した値に
よる画像を生成することを特徴とする。A sixth method is a method of extracting a specific region from a video, in which a plurality of pixels in a region to be extracted are specified, and a plurality of predetermined feature values in the specified pixel are obtained. Obtaining the maximum value and the minimum value of the obtained characteristic amount for each of the characteristic amounts, obtaining the characteristic amount for the pixels inside and outside the region to be extracted, and calculating the characteristic amount between the maximum value and the minimum value. Determining whether the pixel is within the range, providing a constant K to pixels within the range, and calculating a difference between the feature value of the pixel outside the range and the maximum value or the minimum value. And assigning a value obtained by subtracting a value determined in relation to the difference between the respective characteristic amounts from the constant K to pixels outside the range, and generating an image based on these assigned values. And
【0067】第7の方法は、映像から特定の領域を抽出
する方法において、抽出対象とすべき領域内の複数の画
素を指定する過程と、指定した画素における所定の特徴
量を求める過程と、求めた特徴量の平均値及び分散を求
める過程と、抽出対象とすべき領域の内外の画素につき
特徴量を求めて、特徴量が前記平均値及び分散で定まる
範囲にあるか否かを判定する過程と、前記範囲内の画素
に定数Kを付与する過程と、前記範囲外の画素の特徴量
と前記平均値との偏差を算出する過程と、前記範囲外の
画素に、定数Kから前記偏差に関連して定まる値を減じ
た値を付与する過程とを備え、これらの付与した値によ
る画像を生成することを特徴とする。A seventh method is a method of extracting a specific area from a video, in which a plurality of pixels in an area to be extracted are specified, a step of obtaining a predetermined feature amount in the specified pixel, The process of obtaining the average value and variance of the obtained feature amount, and the feature amount of pixels inside and outside the region to be extracted is determined, and it is determined whether the feature amount is in a range determined by the average value and variance. A step of assigning a constant K to pixels within the range, a step of calculating a deviation between the feature amount of the pixels outside the range and the average value, and a step of calculating the deviation from the constant K for the pixels outside the range. And giving a value obtained by subtracting a value determined in relation to the image data, and generating an image based on the given value.
【0068】第8の方法は、映像から特定の領域を抽出
する方法において、抽出対象とすべき領域内の複数の画
素を指定する過程と、指定した画素における所定の複数
の特徴量を求める過程と、求めた特徴量の平均値及び分
散を特徴量の各々について求める過程と、抽出対象とす
べき領域の内外の画素につき特徴量を求めて、特徴量が
前記平均値及び分散で定まる範囲にあるか否かを判定す
る過程と、前記範囲内の画素に定数Kを付与する過程
と、前記範囲外の画素の特徴量と前記平均値との偏差を
算出する過程と、前記範囲外の画素に、定数Kから各々
の特徴量の前記偏差に関連して定まる値を減じた値を付
与する過程とを備え、これらの付与した値による画像を
生成することを特徴とする。An eighth method is a method for extracting a specific region from a video, in which a plurality of pixels in a region to be extracted are specified and a plurality of predetermined feature values in the specified pixel are obtained. And a step of obtaining an average value and a variance of the obtained characteristic amount for each of the characteristic amounts, and obtaining a characteristic amount for pixels inside and outside the region to be extracted, so that the characteristic amount falls within a range determined by the average value and the variance. A step of determining whether there is a pixel, a step of assigning a constant K to pixels within the range, a step of calculating a deviation between a feature value of the pixel outside the range and the average value, and a step of Assigning a value obtained by subtracting a value determined in relation to the deviation of each feature amount from the constant K, and generating an image based on these assigned values.
【0069】第9の方法は、映像から抽出した複数の領
域のうちのいずれかの領域に含まれる画素を指定する過
程と、指定した画素を開始点として4連結又は8連結の
ラベリングをする過程と、ラベリングされていない領域
を非抽出領域に変更する過程とを備えることを特徴とす
る。A ninth method is a process of designating a pixel included in any one of a plurality of regions extracted from an image, and a process of performing 4-link or 8-link labeling with the designated pixel as a starting point. And a step of changing an unlabeled area into a non-extracted area.
【0070】第10の方法は、複数フレームの映像から特
定の領域を抽出する方法において、一のフレームで抽出
対象とすべき領域内の複数の画素を指定する過程と、指
定した画素を開始点として4連結又は8連結のラベリン
グをする過程と、ラベリングされていない領域を非抽出
領域に変更する過程と、抽出領域の幾何学的特徴量を算
出する過程とを備え、また次フレームでラベリングする
過程と、異なるラベルを付与された領域ごとに幾何学的
特徴量を算出する過程と、前フレームの抽出領域の幾何
学的特徴量に近い幾何学的特徴量を有する領域を抽出領
域として残存させ、他の領域を非抽出領域に変更する過
程とを備えることを特徴とする。A tenth method is a method of extracting a specific region from a plurality of frames of video, in which a plurality of pixels in a region to be extracted in one frame are specified, and the specified pixel is used as a starting point. A step of performing 4-connected or 8-connected labeling, a step of changing an unlabeled area to a non-extracted area, and a step of calculating a geometric feature of the extracted area, and labeling in the next frame. Calculating the geometric feature for each of the regions with different labels, and leaving the region having the geometric feature close to the geometric feature of the extraction region of the previous frame as the extraction region. Changing other areas to non-extraction areas.
【0071】第11の方法は、複数フレームの映像から特
定の領域を抽出する方法において、一のフレームで抽出
対象とすべき領域内の複数の画素を指定する過程と、指
定した画素を開始点として4連結又は8連結のラベリン
グをする過程と、ラベリングされていない領域を非抽出
領域に変更する過程と、抽出領域の光学的特徴量を算出
する過程とを備え、また次フレームでラベリングする過
程と、異なるラベルを付与された領域ごとに光学的特徴
量を算出する過程と、前フレームの抽出領域の光学的特
徴量に近い光学的特徴量を有する領域を抽出領域として
残存させ、他の領域を非抽出領域に変更する過程とを備
えることを特徴とする。An eleventh method is a method for extracting a specific area from a video of a plurality of frames, in which a plurality of pixels in an area to be extracted in one frame are specified, and the specified pixel is used as a starting point. A step of labeling four or eight links, a step of changing an unlabeled area into a non-extracted area, and a step of calculating an optical feature of the extracted area, and a step of labeling in the next frame And a process of calculating an optical feature amount for each of the regions with different labels, and a region having an optical feature amount close to the optical feature amount of the extraction region of the previous frame is left as an extraction region, and other regions To a non-extraction area.
【0072】第1の装置は、映像から特定の領域を抽出
する装置において、抽出対象とすべき領域内の複数の画
素を指定する手段と、指定した画素における所定の特徴
量を求める手段と、求めた特徴量の最大値及び最小値を
求める手段と、これらの最大値及び最小値を記憶する手
段と、抽出対象とすべき領域の内外の画素につき特徴量
を求めて、その特徴量が前記最大値と最小値との間にあ
る画素を選択する手段とを備え、前記画素によって構成
される領域を抽出領域とすべくなしてあることを特徴と
する。The first apparatus is an apparatus for extracting a specific area from an image, a means for designating a plurality of pixels in an area to be extracted, a means for obtaining a predetermined feature amount of the specified pixel, Means for obtaining the maximum value and the minimum value of the obtained feature amount; means for storing the maximum value and the minimum value; and obtaining the feature amount for pixels inside and outside the region to be extracted. Means for selecting a pixel between a maximum value and a minimum value, wherein a region formed by the pixel is set as an extraction region.
【0073】第2の装置は、映像から特定の領域を抽出
する装置において、抽出対象とすべき領域内の複数の画
素を指定する手段と、指定した画素における所定の特徴
量を求める手段と、指定した画素の、求めた特徴量につ
き、隣接画素間の差分を計算する手段と、計算した差分
の最大値を求める手段と、該最大値を記憶する手段と、
指定した画素を開始点として、隣接画素間の特徴量の差
分が前記最大値より小さい4近傍又は8近傍の画素を連
結する手段とを備え、連結した画素によって構成される
領域を抽出領域とすべくなしてあることを特徴とする。The second device is a device for extracting a specific region from an image, a device for designating a plurality of pixels in a region to be extracted, a device for obtaining a predetermined feature amount of the designated pixel, Means for calculating the difference between adjacent pixels for the calculated feature amount of the specified pixel, means for calculating the maximum value of the calculated difference, means for storing the maximum value,
Means for linking pixels in the vicinity of 4 or 8 in which the difference in the feature value between adjacent pixels is smaller than the maximum value with the designated pixel as a starting point, and a region formed by the connected pixels is defined as an extraction region. It is characterized by what it does.
【0074】第3の装置は、前記抽出領域の画素及び非
抽出領域の画素に各別の値を付与する手段と、前記抽出
領域の境界の外縁に位置する画素に、前記値の中間の値
を付与する手段とを備え、これらの付与した値による画
像を生成すべくなしてあることを特徴とする。The third device includes means for assigning different values to the pixels in the extraction area and pixels in the non-extraction area, and a pixel located at the outer edge of the boundary of the extraction area, , And generating an image based on the assigned values.
【0075】第4の装置は、前記抽出領域から遠ざかる
方向に隣接する複数の画素の各々に異なる中間の値を付
与すべくなしてある。The fourth device is adapted to give a different intermediate value to each of a plurality of pixels adjacent in the direction away from the extraction area.
【0076】第5の装置は、映像から特定の領域を抽出
する装置において、抽出対象とすべき領域内の複数の画
素を指定する手段と、指定した画素における所定の特徴
量を求める手段と、求めた特徴量の最大値及び最小値を
求める手段と、これら最大値及び最小値を記憶する手段
と、抽出対象とすべき領域の内外の画素につき特徴量を
求めて、特徴量が前記最大値と最小値との間の範囲にあ
るか否かを判定する手段と、前記範囲内の画素に定数K
を付与する手段と、前記範囲外の画素の特徴量と前記最
大値又は最小値との差分を算出する手段と、前記範囲外
の画素に、定数Kから前記差分に関連して定まる値を減
じた値を付与する手段とを備え、これらの付与した値に
よる画像を生成すべくなしてあることを特徴とする。A fifth device is a device for extracting a specific region from a video, which is a device for designating a plurality of pixels in a region to be extracted, a device for obtaining a predetermined characteristic amount of the designated pixel, Means for obtaining the maximum value and the minimum value of the obtained feature amount; means for storing the maximum value and the minimum value; and obtaining the feature amount for pixels inside and outside the region to be extracted. Means for determining whether or not the pixel is in a range between the minimum value and a minimum value.
Means for calculating the difference between the feature value of the pixel outside the range and the maximum value or the minimum value, and subtracting a value determined in relation to the difference from a constant K for the pixel outside the range. Means for assigning the assigned values to generate an image based on the assigned values.
【0077】第6の装置は、映像から特定の領域を抽出
する装置において、抽出対象とすべき領域内の複数の画
素を指定する手段と、指定した画素における所定の複数
の特徴量を求める手段と、求めた特徴量の最大値及び最
小値を特徴量の各々について求める手段と、これら最大
値及び最小値を記憶する手段と、抽出対象とすべき領域
の内外の画素につき特徴量を求めて、特徴量が前記最大
値と最小値との間の範囲にあるか否かを判定する手段
と、前記範囲内の画素に定数Kを付与する手段と、前記
範囲外の画素の特徴量と前記最大値又は最小値との差分
を算出する手段と、前記範囲外の画素に、定数Kから各
々の特徴量の前記差分に関連して定まる値を減じた値を
付与する手段とを備え、これらの付与した値による画像
を生成すべくなしてあることを特徴とする。The sixth device is a device for extracting a specific area from a video, wherein the means for specifying a plurality of pixels in the area to be extracted and the means for obtaining a plurality of predetermined feature values in the specified pixel. Means for obtaining the maximum value and the minimum value of the obtained characteristic amounts for each of the characteristic amounts; means for storing these maximum values and the minimum values; and obtaining the characteristic amounts for the pixels inside and outside the region to be extracted. Means for determining whether or not the feature value is in a range between the maximum value and the minimum value; means for assigning a constant K to pixels within the range; Means for calculating a difference from a maximum value or a minimum value, and means for assigning a value obtained by subtracting a value determined in relation to the difference between the respective characteristic amounts from a constant K to a pixel outside the range, To generate an image with the value given by And wherein the Rukoto.
【0078】第7の装置は、映像から特定の領域を抽出
する装置において、抽出対象とすべき領域内の複数の画
素を指定する手段と、指定した画素における所定の特徴
量を求める手段と、求めた特徴量の平均値及び分散を求
める手段と、該平均値及び分散を記憶する手段と、抽出
対象とすべき領域の内外の画素につき特徴量を求めて、
特徴量が前記平均値及び分散で定まる範囲にあるか否か
を判定する手段と、前記範囲内の画素に定数Kを付与す
る手段と、前記範囲外の画素の特徴量と前記平均値との
偏差を算出する手段と、前記範囲外の画素に、定数Kか
ら前記偏差に関連して定まる値を減じた値を付与する手
段とを備え、これらの付与した値による画像を生成すべ
くなしてあることを特徴とする。A seventh device is a device for extracting a specific region from a video, a device for designating a plurality of pixels in a region to be extracted, a device for obtaining a predetermined characteristic amount of the designated pixel, Means for obtaining the average value and variance of the obtained feature amount; means for storing the average value and variance; and obtaining the feature amount for pixels inside and outside the region to be extracted.
Means for determining whether or not the feature value is within a range determined by the average value and the variance; means for assigning a constant K to pixels within the range; and a feature value of pixels outside the range and the average value. Means for calculating a deviation, and means for applying a value obtained by subtracting a value determined in relation to the deviation from a constant K to pixels outside the range, so as to generate an image based on the value provided. There is a feature.
【0079】第8の装置は、映像から特定の領域を抽出
する装置において、抽出対象とすべき領域内の複数の画
素を指定する手段と、指定した画素における所定の複数
の特徴量を求める手段と、求めた特徴量の平均値及び分
散を特徴量の各々について求める手段と、該平均値及び
分散を記憶する手段と、抽出対象とすべき領域の内外の
画素につき特徴量を求めて、特徴量が前記平均値及び分
散で定まる範囲にあるか否かを判定する手段と、前記範
囲内の画素に定数Kを付与する手段と、前記範囲外の画
素の特徴量と前記平均値との偏差を算出する手段と、前
記範囲外の画素に、定数Kから各々の特徴量の前記偏差
に関連して定まる値を減じた値を付与する手段とを備
え、これらの付与した値による画像を生成すべくなして
あることを特徴とする。An eighth device is a device for extracting a specific area from a video, wherein the means for specifying a plurality of pixels in the area to be extracted and the means for obtaining a plurality of predetermined feature values in the specified pixel. Means for obtaining the average value and variance of the obtained feature amount for each of the feature amounts; means for storing the average value and variance; and obtaining the feature amount for pixels inside and outside the region to be extracted. Means for determining whether the amount is within a range determined by the average value and the variance; means for assigning a constant K to pixels within the range; and deviation between the feature amount of pixels outside the range and the average value. And a means for assigning a value obtained by subtracting a value determined in relation to the deviation of each feature value from a constant K to a pixel outside the range, and generating an image using these assigned values. Characterized by what they do .
【0080】第9の装置は、映像から抽出した複数の領
域のうちのいずれかの領域に含まれる画素を指定する手
段と、指定した画素を開始点として4連結又は8連結の
ラベリングをする手段と、ラベリングされていない領域
を非抽出領域に変更する手段とを備えることを特徴とす
る。The ninth apparatus is a means for designating a pixel included in any one of a plurality of areas extracted from an image, and a means for labeling four or eight links with the specified pixel as a starting point. And means for changing an unlabeled area into a non-extracted area.
【0081】第10の装置は、複数フレームの映像から特
定の領域を抽出する装置において、一のフレームで抽出
対象とすべき領域内の複数の画素を指定する手段と、指
定した画素を開始点として4連結又は8連結のラベリン
グをする手段と、ラベリングされていない領域を非抽出
領域に変更する手段と、抽出領域の幾何学的特徴量を算
出する手段とを備え、また次フレームでラベリングする
手段と、異なるラベルを付与された領域ごとに幾何学的
特徴量を算出する手段と、前フレームの抽出領域の幾何
学的特徴量に近い幾何学的特徴量を有する領域を抽出領
域として残存させ、他の領域を非抽出領域に変更する手
段とを備えることを特徴とする。A tenth apparatus is an apparatus for extracting a specific area from a plurality of frames of video, wherein a means for specifying a plurality of pixels in an area to be extracted in one frame, Means for performing 4-connected or 8-connected labeling, means for changing an unlabeled area to a non-extracted area, and means for calculating a geometric feature value of an extracted area, and labeling in the next frame. Means, means for calculating a geometric feature amount for each of the regions provided with different labels, and leaving an area having a geometric feature amount close to the geometric feature amount of the extraction area of the previous frame as the extraction area. Means for changing another area to a non-extraction area.
【0082】第11の装置は、複数フレームの映像から特
定の領域を抽出する装置において、一のフレームで抽出
対象とすべき領域内の複数の画素を指定する手段と、指
定した画素を開始点として4連結又は8連結のラベリン
グをする手段と、ラベリングされていない領域を非抽出
領域に変更する手段と、抽出領域の光学的特徴量を算出
する手段とを備え、また次フレームでラベリングする手
段と、異なるラベルを付与された領域ごとに光学的特徴
量を算出する手段と、前フレームの抽出領域の光学的特
徴量に近い光学的特徴量を有する領域を抽出領域として
残存させ、他の領域を非抽出領域に変更する手段とを備
えることを特徴とする。An eleventh apparatus is an apparatus for extracting a specific area from a plurality of frames of video, wherein a means for specifying a plurality of pixels in an area to be extracted in one frame, Means for performing four-link or eight-link labeling, means for changing an unlabeled area into a non-extracted area, means for calculating an optical characteristic amount of the extracted area, and means for labeling in the next frame And means for calculating an optical characteristic amount for each of the regions with different labels, and a region having an optical characteristic amount close to the optical characteristic amount of the extraction region of the previous frame is left as an extraction region, and other regions To a non-extraction area.
【0083】第1の方法、装置では抽出したい画像部分
の中の複数画素を指定する (ライトペン、又はマウス操
作のカーソルでなぞる) 。このなぞった画素群中の特徴
量 (R, G, B,色相, 彩度, 明度, 輝度などの一又は
複数) を求め、更にその最大値, 最小値を選んで記憶す
る。In the first method and apparatus, a plurality of pixels in an image portion to be extracted are designated (tracing with a light pen or a cursor operated by a mouse). The feature amount (one or more of R, G, B, hue, saturation, lightness, brightness, etc.) in the traced pixel group is obtained, and the maximum value and the minimum value are selected and stored.
【0084】次いで画像全体の画素につき各特徴量が前
記最大値〜最小値の範囲内にあるか否かを調べる。範囲
内にある画素は抽出を望む画像部分と同様の特徴量を有
しているので、該画像部分は属すると判断し、0より大
きい値を付与し、範囲外のものは非抽出部分であるとし
て0を付与する。これにより非0の部分を抽出すること
で所望の画像部分が抽出できる。Next, it is checked whether or not each feature amount is within the range between the maximum value and the minimum value for each pixel of the entire image. Since the pixels within the range have the same feature amount as the image portion desired to be extracted, it is determined that the image portion belongs, and a value larger than 0 is assigned, and the pixel outside the range is a non-extracted portion. Is given as 0. Thus, a desired image portion can be extracted by extracting a non-zero portion.
【0085】第2の方法、装置ではなぞった画素の特徴
量と隣接画素の特徴量との差分を求め、その最大値を記
憶しておく。そしてこの最大値以下の差分を有する4近
傍又は8近傍の画素はなぞって抽出を望む領域と同程度
の隣接閾値を有しているとして抽出領域として0より大
きい値を付与し、それ以外の部分は0を付与する。これ
により非0の部分を抽出することができる。In the second method and apparatus, the difference between the characteristic value of the traced pixel and the characteristic value of the adjacent pixel is obtained, and the maximum value is stored. Pixels in the vicinity of 4 or 8 having a difference equal to or less than the maximum value are traced and have a threshold value close to that of the region desired to be extracted. Gives 0. Thereby, a non-zero portion can be extracted.
【0086】第3の方法、装置は抽出領域に1、非抽出
領域に0を付与した場合に両者の境界の画素に1と0と
の中間の値を与える。これにより境界がマイルド化し、
抽出画像を合成した場合に背景への溶け込みがよくな
る。The third method and apparatus give an intermediate value between 1 and 0 to the pixel at the boundary between them when 1 is added to the extraction area and 0 is added to the non-extraction area. This makes the boundaries milder,
When the extracted images are combined, they blend well into the background.
【0087】第4の方法、装置はこの中間の値を複数に
することで境界の一層のマイルド化が行われる。In the fourth method and apparatus, the boundary is further mildened by setting a plurality of intermediate values.
【0088】第5の方法、装置は境界のマイルド化を適
応制御するものであり、1〜0の中間値の決定を、非抽
出領域の特徴量と、特徴量の最大値 (又は最小値) との
差分に応じて定める。これにより抽出画像の境界は背景
に良く溶け込む。The fifth method and apparatus are for adaptively controlling the mildness of the boundary, and determine the intermediate value of 1 to 0 by determining the feature value of the non-extracted area and the maximum value (or minimum value) of the feature value. Is determined according to the difference between Thereby, the boundary of the extracted image blends well into the background.
【0089】第6の方法、装置は特徴量を一種ではな
く、二種以上とし、上述の差分を複数の特徴量について
求め、例えばその加重平均等に依って中間値を決定す
る。複数の特徴量を用いるのでより自然な境界が得られ
る。In the sixth method and apparatus, the feature amount is not one kind but two or more kinds, and the above difference is obtained for a plurality of feature amounts, and an intermediate value is determined based on, for example, a weighted average thereof. Since a plurality of feature values are used, a more natural boundary can be obtained.
【0090】第7, 第8の方法、装置は第5, 第6では
最大値, 最小値を用いているのに対し、分散を用いてい
る点が異なる。The seventh and eighth methods and apparatuses are different in that the fifth and sixth methods use the maximum value and the minimum value, whereas the variance is used.
【0091】第9の方法、装置は過剰抽出した部分を非
抽出領域とする。即ちラベリングにより、同様に抽出さ
れた複数の領域に各別の符号を付与される。このうち、
なぞられた画素を含む領域のみを残して他を消すのであ
る。In the ninth method and apparatus, an excessively extracted portion is set as a non-extraction area. That is, different labels are assigned to a plurality of similarly extracted regions by labeling. this house,
Only the area including the traced pixel is left and the others are erased.
【0092】第10の方法、装置は動画に対応するもので
ある。第9の方法、装置と同様にラベリングし、非抽出
領域を消去する。次のフレームで同様のラベリングをす
るが、フレーム間の領域の同定を幾何学的特徴量の類似
度に基づいて行う。このため抽出領域のみが残り、他は
消える。これを複数のフレームに亘って行うことで動画
での抽出処理が自動的に行えることになる。The tenth method and apparatus correspond to moving images. Labeling is performed in the same manner as in the ninth method and apparatus, and the non-extraction area is deleted. Similar labeling is performed in the next frame, but regions between frames are identified based on the similarity of the geometric feature values. Therefore, only the extraction region remains, and the others disappear. By performing this over a plurality of frames, the extraction processing for a moving image can be automatically performed.
【0093】第11の方法、装置は上記の幾何学的特徴量
に替えて光学的特徴量を用いるものであり、同効を奏す
る。The eleventh method and apparatus use optical features instead of the above-mentioned geometric features, and have the same effect.
【0094】[0094]
【発明の実施の形態】図23は第3群の発明の第1の領域
抽出装置のブロック図である。3系統の画像入力部31,3
2,33はいずれも同様の構成を有し、NTSC信号をアナログ
のRGB 信号に変換するNTSC-RGB変換器31a,32a,33a 及び
アナログのRGB 信号をディジタルのRGB 信号に変換する
A/D 変換器31b,32b,33b を備える。これら画像入力部3
1,32,33からの入力はデュアルポートRAM からなる画像
メモリ37,38,39,40 へ与えられ、またこれらから読出さ
れた画像データは画像出力部34へ与えられ、ここから出
力される。画像出力部34は画像メモリ37等からのディジ
タルのRGB 信号をアナログのRGB 信号に変換するD/A 変
換器34b 及び、この変換されたアナログのRGB 信号をNT
SC信号に変換するRGB-NTSC変換器34a の出力がモニタ
(図示せず)に表示されることになる。FIG. 23 is a block diagram of a first area extracting apparatus according to a third group of the present invention. Three image input units 31,3
The NTSC-RGB converters 31a, 32a, and 33a convert the NTSC signal into an analog RGB signal, and convert the analog RGB signal into a digital RGB signal.
A / D converters 31b, 32b, and 33b are provided. These image input units 3
Inputs from 1, 32 and 33 are applied to image memories 37, 38, 39 and 40 comprising a dual-port RAM, and image data read from these is applied to an image output unit 34 and output therefrom. The image output unit 34 converts a digital RGB signal from the image memory 37 or the like into an analog RGB signal, a D / A converter 34b, and converts the converted analog RGB signal into an NT RGB signal.
Monitors the output of RGB-NTSC converter 34a that converts to SC signal
(Not shown).
【0095】35は座標入力部であり、ライトペンとその
座標認識手段、等によって構成されており、モニタに表
示された映像の一部をなぞるのに使用される。この座標
入力部35で入力された座標情報は処理部41へ入力され
る。400 は半導体メモリであり、演算に使用するメモリ
42、後述する特徴量上限レジスタ43、下限レジスタ44を
備える。36はハードディスク、光磁気ディスク等の大容
量記録部であり、複数フレームの画像を記録する。Reference numeral 35 denotes a coordinate input unit, which includes a light pen and its coordinate recognition means, and is used to trace a part of the image displayed on the monitor. The coordinate information input by the coordinate input unit 35 is input to the processing unit 41. 400 is a semiconductor memory, a memory used for calculation
42, a feature amount upper limit register 43 and a lower limit register 44 described later. Reference numeral 36 denotes a large-capacity recording unit such as a hard disk or a magneto-optical disk, which records images of a plurality of frames.
【0096】而してマイクロプロセッサ等からなる処理
部41は以下の如き領域抽出のための処理を行う。図24
は、この処理の手順を示すフローチャート、図25はその
説明図である。図25(a) に示すように抽出したい領域
(白抜きで示されている) を座標入力部35のペンでなぞ
る。この間ペン軌跡の複数画素につき、特徴量 (一又は
複数種)を計算する。そして特徴量の最大値又は最小値
を夫々特徴量上限レジスタ43、下限レジスタ44に格納す
る。これにはペンが移動していく都度、既格納のレジス
タ内容を更新していくことで行う。なぞりが終わると全
軌跡中での特徴量の最大値, 最小値が得られることにな
る。特徴量としてはR,G,B、色相、彩度、明度、輝
度等が挙げられる。The processing section 41 composed of a microprocessor or the like performs the following processing for area extraction. Fig. 24
Is a flowchart showing the procedure of this processing, and FIG. 25 is an explanatory diagram thereof. The area to be extracted as shown in Fig. 25 (a)
(Shown in white) is traced with the pen of the coordinate input unit 35. During this time, the feature amount (one or more types) is calculated for a plurality of pixels of the pen locus. Then, the maximum value or the minimum value of the feature value is stored in the feature value upper limit register 43 and the lower limit register 44, respectively. This is performed by updating the stored contents of the register each time the pen moves. After the tracing, the maximum and minimum values of the feature values in all the trajectories are obtained. The feature amounts include R, G, B, hue, saturation, lightness, luminance, and the like.
【0097】而して次には画面全体の画素ドット特徴量
(一又は複数種) を求め、最大値〜最小値の範囲内にあ
る画素には0より大きい値 (例えば255)を、また範囲外
にある画素には0を付与する。これによりキー画像、つ
まり抽出領域を含む画像が得られることになる。図25
(b) はこれを示す。なお、所望どおりの抽出ができなか
った場合は特徴量の選択又は組合わせを種々変更するこ
とで再試行すればよい。なお以上の処理を複数フレーム
について反復することで動画の処理が可能となる。Next, the pixel dot feature amount of the entire screen
(One or a plurality of types), and a value larger than 0 (for example, 255) is assigned to a pixel within the range from the maximum value to the minimum value, and 0 is assigned to a pixel outside the range. As a result, a key image, that is, an image including the extraction region is obtained. FIG.
(b) illustrates this. If the extraction cannot be performed as desired, a retry may be performed by variously changing the selection or combination of the feature amounts. By repeating the above process for a plurality of frames, a moving image can be processed.
【0098】図26は第2の領域抽出装置のブロック図で
ある。第1の領域抽出装置と相違するのは半導体メモリ
400 に特徴量上限レジスタ43、下限レジスタ44に替えて
特徴量閾値レジスタ45を備える点である。他の構成は同
様であるので、同符号を付して説明を省略する。FIG. 26 is a block diagram of the second region extracting apparatus. What differs from the first region extraction device is the semiconductor memory.
400 is provided with a feature amount threshold register 45 in place of the feature amount upper limit register 43 and the lower limit register 44. Since other configurations are the same, the same reference numerals are given and the description is omitted.
【0099】図27は処理部41による処理のフローチャー
ト、図28はその説明図である。図28(a) のようにペンで
なぞった軌跡の画素の特徴量を求めるのは第1の装置と
同様であるが、第2の装置ではなぞられた画素のうちで
の隣接画素間の特徴量の差分を演算し、その最大値を閾
値レジスタ45に格納する。そしてなぞられた画素の夫々
について隣接画素 (4近傍又は8近傍) が閾値以下であ
るか否かを調べていき、以下である隣接画素を次々と連
結していく (図28(b))。このようにして連結された領域
に0より大きい値を付与する。FIG. 27 is a flowchart of the processing by the processing section 41, and FIG. 28 is an explanatory diagram thereof. As shown in FIG. 28 (a), the feature value of the pixel of the locus traced by the pen is obtained in the same manner as in the first device, but the feature between the adjacent pixels among the traced pixels in the second device. The difference between the quantities is calculated, and the maximum value is stored in the threshold register 45. Then, for each of the traced pixels, it is checked whether or not the adjacent pixels (near four or eight) are equal to or smaller than a threshold value, and the following adjacent pixels are successively connected (FIG. 28 (b)). A value greater than 0 is assigned to the areas connected in this manner.
【0100】図29は第3〜6の領域抽出装置のブロック
図である。第1の装置と相違するのは処理部41の演算内
容であり、以下に説明する混合比計算41a,総合混合比計
算41b を行う。図30は処理部41の処理手順を示すフロー
チャートである。図31(a) に示すようにペンでなぞった
軌跡の画素につき、第1の装置と同様に特徴量を計算
し、その最大値, 最小値を夫々特徴量上限レジスタ43,
下限レジスタ44に入れる。FIG. 29 is a block diagram of the third to sixth region extracting devices. The difference from the first apparatus is the operation content of the processing unit 41, which performs a mixture ratio calculation 41a and a total mixture ratio calculation 41b described below. FIG. 30 is a flowchart showing the processing procedure of the processing unit 41. As shown in FIG. 31 (a), for the pixel of the locus traced by the pen, the feature value is calculated in the same manner as in the first device, and the maximum value and the minimum value are respectively set to the feature value upper limit register 43,
Put into lower limit register 44.
【0101】次に画像の全画素について特徴量を計算
し、これが特徴量上, 下限値レジスタ43,44 に各記憶さ
れている最大値, 最小値の範囲内にあるか否かを調べ、
範囲内にある場合は0でない値のKを付与する。範囲外
にある場合は、算出した特徴量と最大値(特徴量が大き
いとき)との差、又は算出した特徴量と最小値(特徴量
が小さいとき)との差の差分を演算し、差分に応じてK
〜0の範囲の値(混合比)を特徴量ごとに求める。そし
て各特徴量ごとの混合比を加重平均した総合混合比を求
める。そして総合混合比に応じた値を対応画素に付与す
る。そうすると図31(b) に示すように境界にグラデーシ
ョンが付与された抽出画像が得られることになる。そし
てこれを複数フレームにつき反復することによって動画
に対応できる。Next, a feature amount is calculated for all the pixels of the image, and it is checked whether or not this is within the range of the maximum value and the minimum value stored in the upper and lower limit value registers 43 and 44, respectively.
If it is within the range, a non-zero value K is assigned. If the difference is outside the range, the difference between the calculated feature value and the maximum value (when the feature value is large) or the difference between the calculated feature value and the minimum value (when the feature value is small) is calculated. According to K
A value (mixing ratio) in a range from 0 to 0 is obtained for each feature amount. Then, an overall mixture ratio is obtained by weighted averaging the mixture ratio for each feature amount. Then, a value corresponding to the total mixture ratio is given to the corresponding pixel. Then, as shown in FIG. 31 (b), an extracted image with a gradation added to the boundary is obtained. By repeating this for a plurality of frames, a moving image can be handled.
【0102】図32は第3, 4, 7, 8の領域抽出装置の
ブロック図である。図29と異なるのは、特徴量上限レジ
スタ43, 下限レジスタ44に替えて特徴量平均値レジスタ
46、特徴量分散値レジスタ47を備える点である。図33は
この場合の処理手順を示すフローチャートであり、図34
(a) に示すようにペンでなぞった軌跡の画素の特徴量を
計算し、その平均値及び分散値を算出し、これらを特徴
量平均値レジスタ46, 特徴量分散値レジスタ47に格納し
ておく。FIG. 32 is a block diagram of the third, fourth, seventh and eighth region extracting devices. 29 is different from FIG. 29 in that the feature amount upper limit register 43 and the lower limit register 44 are replaced with a feature amount average value register.
46, a feature value variance value register 47 is provided. FIG. 33 is a flowchart showing a processing procedure in this case.
As shown in (a), the feature amount of the pixel of the locus traced by the pen is calculated, the average value and the variance value are calculated, and these are stored in the feature amount average value register 46 and the feature amount variance value register 47. deep.
【0103】そしてこの装置では画像中の全画素につい
ての特徴量が所定偏差(例えば平均値±分散値)内にあ
るか否かを調べ、範囲内にある場合にKを付与する。範
囲外の場合は平均値からの偏差に従い、混合比を特徴量
ごとに計算し、この計算値の加重平均を総合混合比とし
て求め、これに従ってKを付与する。The apparatus checks whether or not the feature amounts of all the pixels in the image are within a predetermined deviation (for example, the average value ± variance value). If the feature amount is within the range, K is added. If the value is out of the range, the mixture ratio is calculated for each feature value according to the deviation from the average value, a weighted average of the calculated values is obtained as an overall mixture ratio, and K is assigned according to the calculated average.
【0104】図34(b) はその結果を示し、境界部にグラ
デーションを有する抽出画像が得られる。図35は第3,
4の領域抽出装置の他の実施の形態のブロック図であ
る。この装置は処理部41の処理が他の装置と異なってい
る。この処理内容を図37, 38につき説明する。この実施
の形態は第1の領域抽出装置等で得た抽出領域と非抽出
領域(値0を付与) との輪郭 (画素と画素との間になる)
の内側の内周輪郭点 (画素) の値Xから定数Kを減じ
た値を、前記輪郭の外側の外周輪郭点(画素)に付与す
る。この処理は遠心方向の1画素についてだけ行っても
よいが図38に示すように複数画素について行うことでよ
りなめらかなエッジが得られる。FIG. 34 (b) shows the result, and an extracted image having a gradation at the boundary is obtained. FIG. 35 shows the third,
FIG. 14 is a block diagram of another embodiment of the region extracting device of No. 4; This device is different from the other devices in the processing of the processing unit 41. This processing will be described with reference to FIGS. In this embodiment, the outline (between pixels) of an extraction region obtained by the first region extraction device or the like and a non-extraction region (given a value of 0)
A value obtained by subtracting a constant K from the value X of the inner peripheral contour point (pixel) inside the image is given to the outer peripheral contour point (pixel) outside the contour. This processing may be performed only on one pixel in the centrifugal direction, but by performing the processing on a plurality of pixels as shown in FIG. 38, a smoother edge can be obtained.
【0105】図36はこの処理の手順を示すフローチャー
トであり、画面上の左上側から輪郭を追跡するようにし
て処理を反復する。そしてこの処理を複数フレームにつ
いて行うことで動画への対応が可能である。FIG. 36 is a flow chart showing the procedure of this processing. The processing is repeated so as to trace the contour from the upper left corner on the screen. By performing this processing for a plurality of frames, it is possible to deal with moving images.
【0106】図39は第9の領域抽出装置のブロック図で
ある。この装置は処理部41で後述するラベリング処理
(48)を行うことにより雑音、つまり本来抽出を望まな
いのに抽出領域として現れる部分を削除するためのもの
である。この処理は例えば第1の領域抽出装置等によっ
て得られたキー画像 (図41(a))に対して行うものであ
る。この画像は中央の抽出を望む部分以外に同様の特徴
量を有する雑音の領域 (非0領域) を含んでいる。FIG. 39 is a block diagram of a ninth region extracting apparatus. This apparatus deletes noise, that is, a part that appears as an extraction area when it is not originally desired to extract, by performing a labeling processing (48) described later in the processing unit 41. This process is performed, for example, on a key image (FIG. 41 (a)) obtained by the first region extraction device or the like. This image includes a noise region (non-zero region) having the same characteristic amount other than the portion where the center is desired to be extracted.
【0107】図40はこの処理のフローチャートであり、
該処理はペンでなぞった軌跡の画素を開始点として4連
結又は8連結のラベリングを行う。雑音の非0領域が離
散しているのでラベリングはその領域には到らない。次
いでラベリングされていない領域を消去する。そうする
と図41(b) に示すように所望の抽出領域が得られるので
ある。FIG. 40 is a flowchart of this process.
In this processing, four-link or eight-link labeling is performed with the pixel of the locus traced by the pen as a starting point. Since the non-zero region of noise is discrete, labeling does not reach that region. Then, the unlabeled area is erased. Then, a desired extraction area is obtained as shown in FIG. 41 (b).
【0108】図42は第10の領域抽出装置のブロック図で
ある。この装置は第9の領域抽出装置と同様の処理を1
回行うだけで爾後のフレームは簡単な処理で雑音消去で
きる動画対応のものである。これを可能とするためにな
ぞった領域及びこれと対応づけられる他フレームの領域
の幾何学的特徴量 (例えば面積、中心位置) を計算する
処理(49)及び幾何学的特徴量が近い領域をフレーム内で
対応づける対応付け(50)を処理部41が行う。図43はこの
処理のフローチャート、図44はその説明図である。第9
の領域抽出装置と同処理を先頭フレームに施して図44の
(a) に示すように雑音を消去する。そして残った非0領
域、つまり抽出領域につき、その幾何学的特徴量を計算
する。FIG. 42 is a block diagram of a tenth region extracting apparatus. This device performs the same processing as the ninth region extraction device for one.
The subsequent frames are for moving images that can be subjected to noise elimination by simple processing only by performing this operation once. To make this possible, the process of calculating the geometric features (e.g., area, center position) of the traced area and the area of the other frame associated with it (49) The processing unit 41 performs the association (50) of associating in the frame. FIG. 43 is a flowchart of this process, and FIG. 44 is an explanatory diagram thereof. Ninth
The same processing as in the region extraction device of
The noise is eliminated as shown in (a). Then, for the remaining non-zero area, that is, the extracted area, the geometric feature amount is calculated.
【0109】次に第2フレームでは非0領域(雑音領域
も含む)につき幾何学的特徴量を計算する。そして先頭
フレームの非0領域の特徴量に最も近い幾何学的特徴量
を有するものを選択し、他を消去(非抽出領域と)す
る。以下、前後する2フレームにつき同様の処理を反復
することで雑音領域は自動的に消えていく。Next, in the second frame, a geometric feature value is calculated for a non-zero area (including a noise area). Then, the one having the geometric feature amount closest to the feature amount of the non-zero region of the first frame is selected, and the others are deleted (the non-extraction region). Thereafter, the same process is repeated for the two preceding and succeeding frames, so that the noise region automatically disappears.
【0110】図45は第11の領域抽出装置のブロック図で
ある。この装置は第10の装置が幾何学的特徴量を利用し
てフレーム内の領域の同定を行っていたのに対し、光学
的 (テクスチャ) 特徴量を利用する。このため処理部41
内、光学的特徴量を計算するための画素値構成計算(5
1)を行う。図46は雑音消去のフローチャート、図47は
その説明図である。いずれも幾何学的特徴量が光学的特
徴量に替わっただけであるので説明を省略する。FIG. 45 is a block diagram of an eleventh region extracting apparatus. This device uses optical (texture) features, whereas the tenth device uses geometric features to identify regions in a frame. Therefore, the processing unit 41
Of these, pixel value configuration calculation (5
Do 1). FIG. 46 is a flowchart of noise elimination, and FIG. 47 is an explanatory diagram thereof. In each case, the geometric feature is merely replaced with the optical feature, and the description is omitted.
【0111】[0111]
【発明の効果】以上の如き第3群の発明によればブルー
の背景の撮影設備が不要である。また特に画像合成を意
識していない映像からでも抽出ができる。そして操作は
必要部分をなぞるだけでよく、簡便である。According to the third group of the invention as described above, the photographing equipment for the blue background is unnecessary. In addition, extraction can be performed even from a video that is not particularly conscious of image synthesis. The user only has to trace the necessary parts, and the operation is simple.
【0112】[第4群の発明] (概要)第4群の発明はCGモデル (映像から抽出した3次
元形状モデルを含む) に対する加工又は表示態様の変更
を容易に行わせる表示方法及び装置を提供するものであ
る。[Invention of the Fourth Group] (Summary) The invention of the fourth group is a display method and apparatus for easily processing or changing the display mode of a CG model (including a three-dimensional shape model extracted from a video). To provide.
【0113】[0113]
【従来の技術】本発明はディスプレイに2次元表示され
た3次元形状モデルに対して対話的手法により回転、拡
大縮小、平行移動し、その結果を逐次再表示するという
3次元形状文字表示方法に関する。計算機の高速化に伴
い、3次元形状モデルをリアルタイムに回転、拡大縮
小、平行移動して表示することが可能となり、3次元形
状モデルを人間が対話的に操作し、その結果を再表示す
るような機能が要求されている。このため、人間の思考
を妨げずに3次元形状モデルを回転、拡大縮小、平行移
動するための操作方法が必要である。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional character display method for rotating, enlarging, reducing and translating a three-dimensional shape model two-dimensionally displayed on a display by an interactive method and sequentially displaying the results. . With the speeding up of the computer, it is possible to rotate, scale and translate the 3D shape model in real time and display it, so that humans can interactively operate the 3D shape model and redisplay the results. Functions are required. Therefore, an operation method for rotating, enlarging, reducing, and translating the three-dimensional shape model without hindering human thinking is required.
【0114】3次元空間で3次元形状モデルを変換する
には、回転3自由度、平行移動3自由度の計6自由度の
変換が必要である。3次元形状モデルをディスプレイ上
に2次元表示する場合は上記の自由度のうちディスプレ
イに対して奥行方向の移動を拡大縮小で表現できる。し
たがって、この場合は回転3自由度、拡大縮小1自由
度、平行移動2自由度の計6自由度の変換になる。従来
の3次元モデル操作ではこの操作を6自由度×正負を夫
々キーボードの12個のキーに割り当てていた。また、マ
ウスなどのポインティングデバイスを利用した3次元モ
デル操作では、2自由度しかないポインティングデバイ
スを6自由度の変換に対応させるためにモードの切替え
を行っていた。両者の融合型として、2自由度をポイン
ティングデバイスで操作し残りの4自由度をキーボード
で操作するという方法もあった。In order to convert a three-dimensional shape model in a three-dimensional space, a total of six degrees of freedom, ie, three degrees of freedom of rotation and three degrees of translation are required. When the three-dimensional shape model is displayed two-dimensionally on the display, the movement in the depth direction with respect to the display among the above degrees of freedom can be expressed by scaling. Therefore, in this case, conversion is performed in three degrees of freedom, one degree of enlargement / reduction, and two degrees of parallel movement, for a total of six degrees of freedom. In the conventional three-dimensional model operation, this operation is assigned 6 degrees of freedom × positive / negative to each of the 12 keys of the keyboard. Further, in a three-dimensional model operation using a pointing device such as a mouse, the mode is switched in order to make a pointing device having only two degrees of freedom correspond to conversion of six degrees of freedom. As a fusion type of the two, there is also a method of operating two degrees of freedom with a pointing device and operating the remaining four degrees of freedom with a keyboard.
【0115】[0115]
【発明が解決しようとする課題】キーボードによる操作
方法では夫々の軸に対して正負方向の2つのキーが割り
当てられているので、軸方向の変換しかできない。例え
ば平面上の平行移動のときに縦横の軸が用意されている
場合、斜めに平行移動するには縦移動をしてから横移動
(或いは横移動してから縦移動)という2ステップの操
作を必要とする。さらに回転の場合は、想定した変換を
軸方向のベクトルに分解することが大変困難であるとい
う問題もある。In the operation method using the keyboard, since two keys in the positive and negative directions are assigned to each axis, only the axial direction conversion can be performed. For example, if vertical and horizontal axes are prepared for parallel movement on a plane, a two-step operation of performing vertical movement and then horizontal movement (or horizontal movement and then vertical movement) is required for oblique parallel movement. I need. Furthermore, in the case of rotation, there is a problem that it is very difficult to decompose the assumed transformation into an axial vector.
【0116】ポインティングデバイスによる操作方法で
は軸に対して斜めの変換を行うことができるが、モード
の切替えが面倒であることと、回転の3自由度をうまく
操作できないという問題点がある。キーボードとポイン
ティングデバイスの併用による操作方法においても、2
つの異なるデバイスでの入力によって操作がし難くなる
という問題点を増すだけで、夫々の欠点を補っていると
は言えない。また表示に関して、実際に回転させてみな
いとどこを中心として回転するのかがよくわからないと
いう問題点がある。本発明は、あるゆる方向への変換を
直接行うことができ、モード切替えといった面倒な操作
を排し、わかりやすい操作画面を実現することにより、
高速で自由自在の操作を行うことができる表示方法及び
装置を提供することを目的とする。In the operation method using the pointing device, the conversion can be performed obliquely with respect to the axis. However, there are problems that the mode switching is troublesome and that the three degrees of freedom of rotation cannot be operated well. In the operation method using both the keyboard and the pointing device,
It does not make up for the shortcomings of each, simply adding to the difficulty of operation due to input on three different devices. Further, there is a problem in that it is difficult to know where the image is to be rotated unless the image is actually rotated. The present invention can directly perform conversion in any direction, eliminates troublesome operations such as mode switching, and realizes an easy-to-understand operation screen,
It is an object of the present invention to provide a display method and an apparatus capable of performing high-speed and free operation.
【0117】[0117]
【課題を解決するための手段】本発明に係る3次元形状
モデルの表示方法は、2次元平面に3次元形状モデルを
表示する方法において、前記3次元形状モデルの一部又
は全部を内部に含むポリゴンを併せて表示することを特
徴とする。ここにポリゴンは球体を含む。そしてこのポ
リゴンは半透明とし、その色は3次元形状モデルの色及
び背景色との対比で見えやすい色とする。更にポインテ
ィングデバイスによる指定点とポリゴンとの相対位置関
係で移動、拡大縮小、回転等の表示態様の変更を行わせ
る。According to a third aspect of the present invention, there is provided a method for displaying a three-dimensional shape model on a two-dimensional plane, wherein a part or all of the three-dimensional shape model is included therein. It is characterized in that polygons are displayed together. Here, the polygon includes a sphere. The polygon is translucent, and its color is a color that is easily seen in comparison with the color of the three-dimensional shape model and the background color. Further, the display mode such as movement, enlargement / reduction, rotation, etc. is changed based on the relative positional relationship between the designated point and the polygon by the pointing device.
【0118】また本発明の3次元形状文字の表示装置
は、2次元平面に3次元形状モデルを表示する装置にお
いて、前記3次元形状モデルの一部又は全部を内部に含
むポリゴンを算出する手段と、ポインティングデバイス
と、ポインティングデバイスで指定された点と前記ポリ
ゴンとの相対的位置関係を判定する手段と、この判定結
果に従い前記3次元形状モデルの表示態様を変更する手
段とを備えることを特徴とする。A three-dimensional character display device according to the present invention is a device for displaying a three-dimensional model on a two-dimensional plane, comprising: means for calculating a polygon containing a part or the whole of the three-dimensional model. A pointing device; means for determining a relative positional relationship between a point designated by the pointing device and the polygon; and means for changing a display mode of the three-dimensional shape model according to a result of the determination. I do.
【0119】図48はポリゴンの表示例を示している。3
次元形状モデルは踏台状のものであり、これを包絡する
球体 (緯線、経線を合わせて示している) が認識又は操
作を案内するガイドポリゴンとして表示されている。こ
のような表示により拡大、縮小又は回転の中心が一目で
認識できることになる。マウス等のポインティングデバ
イスで指定した点が図49に示すようにポリゴンの中であ
ると回転、外であると平行移動、周縁であると拡大・縮
小が指示されることになる。そして次の操作でその量が
指定されることになる。FIG. 48 shows a display example of polygons. 3
The three-dimensional shape model has a step shape, and a sphere (showing parallel lines and meridians) enclosing the model is displayed as a guide polygon for guiding recognition or operation. With such a display, the center of enlargement, reduction, or rotation can be recognized at a glance. As shown in FIG. 49, rotation is instructed when a point specified by a pointing device such as a mouse is inside the polygon, translation is performed when the point is outside the polygon, and enlargement / reduction is instructed when the point is a periphery. Then, the amount is specified in the next operation.
【0120】[0120]
【発明の実施の形態】以下第4群の発明をその実施の形
態を示す図面に基づいて詳述する。図50は本発明の3次
元形状モデル表示装置のブロック図である。図において
60はディスプレイ装置であり、マウス等のポインティン
グデバイス61を備えている。3次元形状モデルの形状は
形状記憶部63に、位置は位置記憶部70に夫々記憶されて
おり、背景画像は背景画像記憶部62に記憶されている。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a fourth group of the invention will be described in detail with reference to the drawings showing the embodiments. FIG. 50 is a block diagram of the three-dimensional shape model display device of the present invention. In the figure
A display device 60 includes a pointing device 61 such as a mouse. The shape of the three-dimensional shape model is stored in the shape storage unit 63, the position is stored in the position storage unit 70, and the background image is stored in the background image storage unit 62.
【0121】ガイドポリゴン生成部64は色解析部64a,色
選択部64b,形状決定部64c からなり、その後の操作に必
要となるガイドポリゴンの大きさ・色を決定する。色解
析部64a は背景画像記憶部62から背景画像の色情報を、
また形状記憶部63から3次元形状モデルの色情報を夫々
取込んで解析し、色選択部64b は背景及び3次元形状モ
デルの表示を妨げず、しかも視認し易い色を選択する。
形状決定部64c は表示すべきガイドポリゴンの形状, 寸
法を決定する。The guide polygon generating section 64 includes a color analyzing section 64a, a color selecting section 64b, and a shape determining section 64c, and determines the size and color of the guide polygon required for the subsequent operation. The color analysis unit 64a reads the color information of the background image from the background image storage unit 62,
Further, the color information of the three-dimensional shape model is fetched from the shape storage unit 63 and analyzed, and the color selection unit 64b selects a color that does not hinder the display of the background and the three-dimensional shape model and is easily visible.
The shape determining unit 64c determines the shape and size of the guide polygon to be displayed.
【0122】図51は色選択のフローチャート、図52は形
状寸法決定のフローチャートである。まず背景画像記憶
部62及び形状記憶部63から夫々背景画像及び3次元形状
モデルの情報を取込み、背景画像に対してどの色相が何
%使用されているか(S75) 、また3次元形状モデルに対
してどの色相が何%使用されているかを調べる(S71)。
そして3次元形状の使用色相については適宜の重みづけ
をする(S72) 。ここまでが前述した色解析部64a の機能
であり、以下は色選択部64b の機能である。即ち以上の
解析の結果により、予め用意してある候補表示色中から
近郊の色相の量を調べる(S73) 。そして最も近郊の色相
が少ない候補表示色を選択してガイドポリゴンの色とす
る(S74) 。FIG. 51 is a flowchart of color selection, and FIG. 52 is a flowchart of shape and dimension determination. First, information on the background image and the three-dimensional shape model is fetched from the background image storage unit 62 and the shape storage unit 63, respectively, which hue is used for what percentage of the background image (S75), and Then, it is checked which hue is used and what percentage is used (S71).
Then, the used hue of the three-dimensional shape is appropriately weighted (S72). The above is the function of the color analysis unit 64a described above, and the following is the function of the color selection unit 64b. That is, based on the results of the above analysis, the amount of hue in the vicinity is examined from among the candidate display colors prepared in advance (S73). Then, a candidate display color having the smallest hue is selected as a guide polygon color (S74).
【0123】次に形状・位置の決定について説明する。
まず形状記憶部63及び位置記憶部70からデータを取込ん
で3次元形状モデルの重心を算出する(S61) 。そしてこ
の重心をガイドポリゴンの中心とする(S62) 。次にこの
中心から3次元形状モデルの各頂点までの距離を求める
(S63) 。そして最長距離をガイドポリゴンの半径とし(S
64) 、このガイドポリゴンの情報をガイドポリゴン記憶
部65に記憶させる。球体でない正多面体をガイドポリゴ
ンとして用いる場合も同様の手法によればよい。Next, the determination of the shape and position will be described.
First, data is taken in from the shape storage unit 63 and the position storage unit 70 to calculate the center of gravity of the three-dimensional shape model (S61). The center of gravity is set as the center of the guide polygon (S62). Next, the distance from this center to each vertex of the three-dimensional shape model is obtained.
(S63). Then, let the longest distance be the radius of the guide polygon (S
64) Then, the information of the guide polygon is stored in the guide polygon storage unit 65. A similar technique may be used when a regular polyhedron other than a sphere is used as a guide polygon.
【0124】上述のようにして作成されたガイドポリゴ
ンは表示部66により、ディスプレイ装置60に表示され
る。表示部66はガイドポリゴン記憶部65、背景画像記憶
部62、形状記憶部63及び位置記憶部70から読み出した内
容を重ね合わせる重ね合わせ部66a 及びこれをディスプ
レイ表示装置60に表示するための変換を行うディスプレ
イ表示部66b からなる。The guide polygon created as described above is displayed on the display device 60 by the display unit 66. The display unit 66 includes a guide polygon storage unit 65, a background image storage unit 62, a shape storage unit 63, and a superimposition unit 66a for superimposing contents read from the position storage unit 70, and a conversion unit for displaying the superimposition unit 66a on the display device 60. And a display unit 66b.
【0125】一方、ポインティングデバイス61からの入
力はインターフェース部67へ取込まれる。入力制御部67
a はポインティングデバイス61の制御を行うものであ
り、マウスのドラッグのように入力が直前の操作と連動
している場合は直前に行った変換の続きと判断する。操
作位置判別部67b は入力された操作開始点がガイドポリ
ゴンの外側か内側か境界上かを判別し、外側で操作した
場合は平行移動を、内側で操作した場合は回転を、境界
線上で操作した場合は拡大縮小を行う。また、直前に行
った変換の続きであれば、前変換と同じ変換処理を選択
する。On the other hand, an input from the pointing device 61 is taken into the interface section 67. Input control unit 67
“a” controls the pointing device 61. When the input is linked with the immediately preceding operation such as dragging the mouse, it is determined that the continuation of the immediately preceding conversion is performed. The operation position determination unit 67b determines whether the input operation start point is outside, inside, or on the boundary of the guide polygon.If the operation is performed outside, the translation is performed, if the operation is performed inside, the rotation is performed, and the operation is performed on the boundary. If so, enlarge or reduce. If the conversion is the continuation of the conversion performed immediately before, the same conversion processing as the previous conversion is selected.
【0126】図53はこの操作位置判別部67b の処理手順
を示すフローチャートである。ガイドポリゴン生成部64
で決定した半径をrとし(S81) 、ポインティングデバイ
ス61による指定点、即ち操作開始点とガイドポリゴンの
中心点との距離lを求める(S82) 。そしてr=lの場合
は(S83) 拡大縮小処理(S86) 、r>lの場合は回転処理
(S87) 、r<lの場合は平行移動処理(S85) をする。FIG. 53 is a flowchart showing a processing procedure of the operation position discriminating section 67b. Guide polygon generator 64
The radius determined in is set to r (S81), and the distance 1 between the point designated by the pointing device 61, that is, the operation start point and the center point of the guide polygon is obtained (S82). If r = 1 (S83) enlargement / reduction processing (S86), if r> l, rotation processing
(S87) If r <1, a parallel movement process (S85) is performed.
【0127】而して操作位置情報又は操作位置判別情報
は変換量決定部68へ入力され、その平行移動量決定部68
a 、拡大縮小量決定部68b 及び回転量決定部68c で夫々
平行移動量、拡大縮小量及び回転量が決定され、これら
の変換量は変換部69へ与えられ、ここで変換量に応じた
変換が行われる。平行移動部69a,拡大縮小部69b 及び回
転部69c は夫々平行移動, 拡大縮小及び回転を行わせ
る。The operation position information or the operation position discrimination information is input to the conversion amount determining unit 68, and the parallel movement amount determining unit 68
a, the translation amount, the enlargement / reduction amount, and the rotation amount are determined by the enlargement / reduction amount determination unit 68b and the rotation amount determination unit 68c, respectively, and these conversion amounts are given to the conversion unit 69, where the conversion according to the conversion amount is performed. Is performed. The translation unit 69a, the enlargement / reduction unit 69b, and the rotation unit 69c perform translation, enlargement / reduction, and rotation, respectively.
【0128】次にこれらの変換について説明する。まず
平行移動はポリゴン外の領域 (図49参照) にカーソルを
位置させてクリックする等の方法により平行移動を指定
し、カーソルを所望方向へ移動 (ドラッグ) する。これ
により3次元形状モデル及びポリゴンが連動移動する。
なお移動の単位はピクセルである。この平行移動はそれ
自体公知の各種の技法を用い得る。Next, these conversions will be described. First, for the parallel movement, the user specifies the parallel movement by a method such as placing the cursor in an area outside the polygon (see FIG. 49) and clicking, and moves (drags) the cursor in a desired direction. Thereby, the three-dimensional shape model and the polygon move in conjunction.
The unit of movement is a pixel. This translation can use various techniques known per se.
【0129】次に拡大縮小について説明する。図54はそ
の原理説明図であり、まずガイドポリゴンの周縁の点P
1 でクリックし、ドラッグしていって次いで拡大又は縮
小したい倍率に応じた位置P2 でクリックする。ガイド
ポリゴンの中心を0とするとバーOP2 /バーOP1 に拡大
又は縮小されることになる。拡大縮小自体の処理につい
てはそれ自体公知の技法を適宜用いればよい。Next, enlargement / reduction will be described. FIG. 54 is a diagram for explaining the principle. First, a point P on the periphery of the guide polygon is set.
Click 1, click at the position P 2 corresponding to the magnification to be went then enlarged or reduced drag. When the center of the guide polygon and 0 becomes enlarged or reduced is that the bar OP 2 / bar OP 1. For the processing of the enlargement / reduction itself, a technique known per se may be appropriately used.
【0130】次に回転について説明する。図55はその原
理説明図、図56は回転のための処理手順を示すフローチ
ャートである。図55においてDはディスプレイ装置60の
2次元平面、Hは光体的に表したガイドポリゴンの中心
を通るDに平行な平面である。いま点P1 でクリックし
て回転を指示し、ドラッグしていき、αP だけ回転した
P2 点でクリックしたとする(S91) 。このP1 , P2 で
ガイドポリゴンに投影した点R1 , R2 を算出する(S9
2) 。∠P2 O′P1 (O′は平面Dにおけるガイドポ
リゴンの中心)=αP とおく(S93) 。次に∠R1 OR2
を求めてこれをα r とする。次にR1 O,R2 O(Oは
平面H上のポリゴン中心)がなす角度を求め、この∠R
1 OR2 をαr とする(S94) 。次に基準点O上の基準線
LをバーR 1 O及びバーR2 Oに垂直な直線として規定
する(S95) 。そしてこの軸L を中心としてαr だけ回転
する(S96) 。回転量決定以後の処理については公知の図
形回転手法によればよい。このような回転操作の際には
球体をガイドポリゴンとして使用する場合もその経線,
緯線上をなぞるか又はこれを参照することで簡単に回転
操作が行える。以上のようにして変換されたモデルはそ
の位置記憶部70へ入力され、記憶される。Next, the rotation will be described. Figure 55 shows the source
FIG. 56 is a flowchart showing a processing procedure for rotation.
It is a chart. In FIG. 55, D represents the display device 60.
2D plane, H is the center of the guide polygon expressed optically
Is a plane parallel to D passing through. Now point P1Click on
Command to rotate, drag, αPJust rotated
PTwoIt is assumed that a click is made at a point (S91). This P1, PTwoso
Point R projected on guide polygon1, RTwo(S9
2) ∠PTwoO'P1(O 'is the guide point on the plane D
Rigon's center) = αP(S93). Then ∠R1ORTwo
To obtain α rAnd Then R1O, RTwoO (O is
The angle formed by the polygon center on the plane H) is obtained,
1ORTwoIs αr(S94). Next, the reference line on the reference point O
L to bar R 1O and bar RTwoDefined as a straight line perpendicular to O
Yes (S95). And α about this axis LrJust rotate
Yes (S96). Known figures for the processing after the rotation amount determination
The shape rotation method may be used. In the case of such a rotation operation
When using a sphere as a guide polygon, its meridians,
Easy rotation by tracing or referencing parallels
Operation can be performed. The model converted as described above is
Is stored and stored in the position storage unit 70.
【0131】図57はこの3次元形状モデル表示装置の全
体的フローチャートである。前述のようにまず、ガイド
ポリゴンの決定をし(S101)、次いで背景, 3次元形状モ
デル及びガイドポリゴンの混合表示をし(S102)、次いで
オペレータによる変換指定があると(S103)、操作領域又
は移動、拡大縮小、回転の判別を行い(S104)、変換量を
決定して(S106)、その変換を実行する(S107)。FIG. 57 is an overall flowchart of the three-dimensional shape model display device. As described above, first, the guide polygon is determined (S101), then the background, the three-dimensional shape model and the guide polygon are mixed and displayed (S102), and if there is a conversion designation by the operator (S103), the operation area or Determination of movement, enlargement / reduction, and rotation is performed (S104), the amount of conversion is determined (S106), and the conversion is executed (S107).
【0132】[0132]
【発明の効果】以上の如き本発明による場合は拡大縮小
又は回転の原点(中心)を直感的に認識することができ
る。また3次元形状モデルの姿勢がガイドポリゴンとの
対比により認識し易い。またガイドポリゴンの色が自動
的に定まるので3次元形状モデルが見難くなる虞れはな
い。また移動、拡大縮小、回転に関してモード切替の煩
雑な操作、特別なデバイスを必要としない。更に回転に
ついてはディスプレイ装置の2次元表示平面での2自由
度の入力だけで3自由度の回転量、方向の入力ができ、
しかもその操作はガイドポリゴンの形状に倣えばよく容
易である。According to the present invention as described above, the origin (center) of enlargement / reduction or rotation can be intuitively recognized. Further, the posture of the three-dimensional shape model can be easily recognized by comparison with the guide polygon. In addition, since the color of the guide polygon is automatically determined, there is no possibility that the three-dimensional shape model becomes difficult to see. In addition, complicated operation of mode switching regarding movement, enlargement / reduction, and rotation does not require a special device. Further, as for the rotation, a rotation amount and a direction of three degrees of freedom can be input only by inputting two degrees of freedom on the two-dimensional display plane of the display device,
Moreover, the operation is easy if it follows the shape of the guide polygon.
【図1】本発明のシステムの説明図である。FIG. 1 is an explanatory diagram of a system of the present invention.
【図2】特定物体領域の抽出部の処理の流れ図である。FIG. 2 is a flowchart of a process performed by a specific object region extraction unit.
【図3】動画オブジェクトの構造の説明図である。FIG. 3 is an explanatory diagram of a structure of a moving image object.
【図4】第1群の発明の実施に使用する装置のブロック
図である。FIG. 4 is a block diagram of an apparatus used for implementing the first group of the invention.
【図5】処理の流れ図である。FIG. 5 is a flowchart of a process.
【図6】特定物体の領域指定の説明図である。FIG. 6 is an explanatory diagram of area designation of a specific object.
【図7】3次元形状情報付加処理のフローチャートであ
る。FIG. 7 is a flowchart of a three-dimensional shape information adding process.
【図8】稜線及び端点の奥行の指定の説明図である。FIG. 8 is an explanatory diagram of designation of a depth of a ridge line and an end point.
【図9】稜線指定の説明図である。FIG. 9 is an explanatory diagram of designation of a ridge line.
【図10】3次元形状抽出装置のブロック図である。FIG. 10 is a block diagram of a three-dimensional shape extraction device.
【図11】3次元形状抽出方法のフローチャートであ
る。FIG. 11 is a flowchart of a three-dimensional shape extraction method.
【図12】基本形状の立体図である。FIG. 12 is a three-dimensional view of a basic shape.
【図13】基本形状と画像との重畳表示例を示す説明図
である。FIG. 13 is an explanatory diagram showing an example of superimposed display of a basic shape and an image.
【図14】物体領域抽出の説明図である。FIG. 14 is an explanatory diagram of object region extraction.
【図15】基本形状の位置移動の処理のフローチャート
である。FIG. 15 is a flowchart of a process of moving the position of the basic shape.
【図16】基本形状の位置移動の処理の説明図である。FIG. 16 is an explanatory diagram of a process of moving the position of the basic shape.
【図17】基本形状の回転の処理のフローチャートであ
る。FIG. 17 is a flowchart of a process of rotating a basic shape.
【図18】基本形状の回転の処理の説明図である。FIG. 18 is an explanatory diagram of a process of rotating a basic shape.
【図19】大きさ変更処理のフローチャートである。FIG. 19 is a flowchart of a size changing process.
【図20】大きさ変更処理の説明図である。FIG. 20 is an explanatory diagram of a size changing process.
【図21】マッピングの説明図である。FIG. 21 is an explanatory diagram of mapping.
【図22】従来の画像合成方式の説明図である。FIG. 22 is an explanatory diagram of a conventional image synthesis method.
【図23】第1領域抽出装置のブロック図である。FIG. 23 is a block diagram of a first region extraction device.
【図24】領域抽出のフローチャートである。FIG. 24 is a flowchart of region extraction.
【図25】領域抽出の説明図である。FIG. 25 is an explanatory diagram of region extraction.
【図26】第2領域抽出装置のブロック図である。FIG. 26 is a block diagram of a second region extraction device.
【図27】領域抽出のフローチャートである。FIG. 27 is a flowchart of region extraction.
【図28】領域抽出の説明図である。FIG. 28 is an explanatory diagram of region extraction.
【図29】第3〜6領域抽出装置のブロック図である。FIG. 29 is a block diagram of third to sixth region extracting devices.
【図30】領域抽出のフローチャートである。FIG. 30 is a flowchart of region extraction.
【図31】領域抽出の説明図である。FIG. 31 is an explanatory diagram of region extraction.
【図32】第3,4,7,8の領域抽出装置のブロック
図である。FIG. 32 is a block diagram of a third, fourth, seventh, and eighth region extraction devices.
【図33】領域抽出のフローチャートである。FIG. 33 is a flowchart of region extraction.
【図34】領域抽出の説明図である。FIG. 34 is an explanatory diagram of region extraction.
【図35】第3,4の領域抽出装置のブロック図であ
る。FIG. 35 is a block diagram of a third and fourth region extracting devices.
【図36】エッジ処理のフローチャートである。FIG. 36 is a flowchart of edge processing.
【図37】エッジ処理の説明図である。FIG. 37 is an explanatory diagram of edge processing.
【図38】エッジ処理の説明図である。FIG. 38 is an explanatory diagram of edge processing.
【図39】第10の領域抽出装置のブロック図である。FIG. 39 is a block diagram of a tenth region extraction device.
【図40】雑音消去のフローチャートである。FIG. 40 is a flowchart of noise cancellation.
【図41】雑音消去の説明図である。FIG. 41 is an explanatory diagram of noise cancellation.
【図42】第10の領域抽出装置のブロック図である。FIG. 42 is a block diagram of a tenth region extraction device.
【図43】雑音消去のフローチャートである。FIG. 43 is a flowchart of noise cancellation.
【図44】雑音消去の説明図である。FIG. 44 is an explanatory diagram of noise cancellation.
【図45】第11の領域抽出装置のブロック図である。FIG. 45 is a block diagram of an eleventh region extracting apparatus.
【図46】雑音消去のフローチャートである。FIG. 46 is a flowchart of noise cancellation.
【図47】雑音消去の説明図である。FIG. 47 is an explanatory diagram of noise cancellation.
【図48】ポリゴンの表示例を示す画面図である。FIG. 48 is a screen diagram showing a display example of polygons.
【図49】操作の説明図である。FIG. 49 is an explanatory diagram of an operation.
【図50】3次元形状モデル表示装置のブロック図であ
る。FIG. 50 is a block diagram of a three-dimensional shape model display device.
【図51】ガイドポリゴンの色選択のフローチャートで
ある。FIG. 51 is a flowchart of guide polygon color selection.
【図52】ガイドポリゴンの形状決定のフローチャート
である。FIG. 52 is a flowchart of determining the shape of a guide polygon.
【図53】操作位置判別の寸法フローチャートである。FIG. 53 is a dimensional flowchart of operation position determination.
【図54】拡大縮小の原理説明図である。FIG. 54 is a diagram illustrating the principle of enlargement / reduction.
【図55】回転の原理説明図である。FIG. 55 is a view for explaining the principle of rotation.
【図56】回転のフローチャートである。FIG. 56 is a flowchart of rotation.
【図57】3次元形状モデルの表示装置の全体的ブロッ
ク図である。FIG. 57 is an overall block diagram of a display device for a three-dimensional shape model.
1 特定物体領域抽出部 2 3次元形状情報付加部 3 映像CGモデル生成部 4 合成画像生成部 5 画像記憶部 6 形状・表面属性情報記憶部 7a,7b CGモデル記憶部 8 合成情報記憶部 10 画像表示装置 12 ポインティング装置 13 CGモデル作成部 DESCRIPTION OF SYMBOLS 1 Specific object area extraction part 2 Three-dimensional shape information addition part 3 Video CG model generation part 4 Synthetic image generation part 5 Image storage part 6 Shape / surface attribute information storage part 7a, 7b CG model storage part 8 Synthesis information storage part 10 Image Display device 12 Pointing device 13 CG model creation unit
───────────────────────────────────────────────────── フロントページの続き (72)発明者 松井 一樹 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 椎谷 秀一 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 ──────────────────────────────────────────────────続 き Continuing from the front page (72) Inventor Kazuki Matsui 1015 Uedanaka, Nakahara-ku, Kawasaki City, Kanagawa Prefecture Inside Fujitsu Limited (72) Inventor Shuichi Shiiya 1015 Kamidadanaka, Nakahara-ku, Kawasaki City, Kanagawa Prefecture Fujitsu Limited
Claims (4)
る方法において、前記3次元形状モデルの一部又は全部
を内部に含むポリゴンを併せて表示し、また前記ポリゴ
ンの中心を求め、この中心を基準点とする前記3次元形
状モデルの拡大・縮小を行うことを特徴とする3次元形
状モデルの表示方法。1. A method for displaying a three-dimensional shape model on a two-dimensional plane, wherein a polygon including a part or the whole of the three-dimensional shape model is displayed together, and a center of the polygon is obtained. A method for displaying a three-dimensional shape model, wherein the three-dimensional shape model is enlarged / reduced with reference to a reference point.
面の背景色の色情報を抽出し、抽出した色情報の要素を
最も含まない色を、前記ポリゴンの色として決定する請
求項1記載の3次元形状モデルの表示方法。2. The polygon according to claim 1, wherein the polygon is semi-transparent, color information of a background color on a two-dimensional plane is extracted, and a color that does not include the extracted color information element most is determined as the color of the polygon. 3D shape model display method.
る方法において、前記3次元形状モデルの一部又は全部
を内部に含むポリゴンを併せて表示し、ポインティング
デバイスによる指定点と前記ポリゴンとの相対位置関係
に従い、前記3次元形状モデルの拡大・縮小を行わせる
ことを特徴とする3次元形状モデルの表示方法。3. A method for displaying a three-dimensional shape model on a two-dimensional plane, wherein a polygon including a part or the entirety of the three-dimensional shape model is also displayed, and a point designated by a pointing device and the polygon are displayed. A method for displaying a three-dimensional shape model, wherein the three-dimensional shape model is enlarged or reduced in accordance with a relative positional relationship.
る装置において、前記3次元形状モデルの一部又は全部
を内部に含むポリゴンを算出する手段(64)と、前記ポリ
ゴンの中心を算出する手段(64)と、ポインティングデバ
イス(61)と、ポインティングデバイス(51)で指定された
点と前記ポリゴンの中心点との相対的位置関係を判定す
る手段(68)と、この判定結果に従い前記ポリゴンの中心
を基準点とする前記3次元形状モデルの拡大・縮小を行
う手段(69)とを備えることを特徴とする3次元形状モデ
ルの表示装置。4. An apparatus for displaying a three-dimensional shape model on a two-dimensional plane, comprising: means (64) for calculating a polygon including a part or all of the three-dimensional shape model therein; and calculating a center of the polygon. Means (64), a pointing device (61), means (68) for determining a relative positional relationship between a point designated by the pointing device (51) and a center point of the polygon, and the polygon according to the determination result. Means (69) for enlarging / reducing the three-dimensional model using the center of the three-dimensional model as a reference point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31023699A JP3345808B2 (en) | 1999-10-29 | 1999-10-29 | Method and apparatus for displaying a three-dimensional shape model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31023699A JP3345808B2 (en) | 1999-10-29 | 1999-10-29 | Method and apparatus for displaying a three-dimensional shape model |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6047491A Division JP3030485B2 (en) | 1994-03-17 | 1994-03-17 | Three-dimensional shape extraction method and apparatus |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002183475A Division JP3732158B2 (en) | 2002-06-24 | 2002-06-24 | Method and apparatus for displaying a three-dimensional shape model |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000105841A true JP2000105841A (en) | 2000-04-11 |
JP3345808B2 JP3345808B2 (en) | 2002-11-18 |
Family
ID=18002830
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP31023699A Expired - Lifetime JP3345808B2 (en) | 1999-10-29 | 1999-10-29 | Method and apparatus for displaying a three-dimensional shape model |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3345808B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113544462A (en) * | 2019-03-04 | 2021-10-22 | 松下知识产权经营株式会社 | Quantity calculation device and quantity calculation method |
-
1999
- 1999-10-29 JP JP31023699A patent/JP3345808B2/en not_active Expired - Lifetime
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113544462A (en) * | 2019-03-04 | 2021-10-22 | 松下知识产权经营株式会社 | Quantity calculation device and quantity calculation method |
Also Published As
Publication number | Publication date |
---|---|
JP3345808B2 (en) | 2002-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3030485B2 (en) | Three-dimensional shape extraction method and apparatus | |
US6867787B1 (en) | Character generator and character generating method | |
JP5299173B2 (en) | Image processing apparatus, image processing method, and program | |
US5598182A (en) | Image synthesis and processing | |
US5990901A (en) | Model based image editing and correction | |
US6208360B1 (en) | Method and apparatus for graffiti animation | |
EP0950988B1 (en) | Three-Dimensional image generating apparatus | |
JP5896424B2 (en) | Omnidirectional image editing program and omnidirectional image editing apparatus | |
WO1992021096A1 (en) | Image synthesis and processing | |
JP2000067267A (en) | Method and device for restoring shape and pattern in there-dimensional scene | |
JP3104638B2 (en) | 3D image creation device | |
JP3732158B2 (en) | Method and apparatus for displaying a three-dimensional shape model | |
Mattos et al. | 3D linear facial animation based on real data | |
CN116681854A (en) | Virtual city generation method and device based on target detection and building reconstruction | |
JP3345808B2 (en) | Method and apparatus for displaying a three-dimensional shape model | |
KR101780496B1 (en) | Method for producing 3D digital actor image based on character modelling by computer graphic tool | |
JP3309841B2 (en) | Synthetic moving image generating apparatus and synthetic moving image generating method | |
JP3364682B2 (en) | Image sequence generation method | |
JPH11175765A (en) | Method and device for generating three-dimensional model and storage medium | |
JP2018081430A (en) | Image processing apparatus, image processing method, image processing system, and program | |
JP3116019B2 (en) | 3D image data creation method and 3D color image display method | |
JP3575469B2 (en) | Synthetic moving image generating apparatus and synthetic moving image generating method | |
US6633291B1 (en) | Method and apparatus for displaying an image | |
US20230196702A1 (en) | Object Deformation with Bindings and Deformers Interpolated from Key Poses | |
JP3157015B2 (en) | Image processing method and image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20020813 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080906 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080906 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090906 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090906 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100906 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100906 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110906 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120906 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120906 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130906 Year of fee payment: 11 |
|
EXPY | Cancellation because of completion of term |