JP3364682B2 - 画像列生成方法 - Google Patents

画像列生成方法

Info

Publication number
JP3364682B2
JP3364682B2 JP31033999A JP31033999A JP3364682B2 JP 3364682 B2 JP3364682 B2 JP 3364682B2 JP 31033999 A JP31033999 A JP 31033999A JP 31033999 A JP31033999 A JP 31033999A JP 3364682 B2 JP3364682 B2 JP 3364682B2
Authority
JP
Japan
Prior art keywords
image
video
area
feature amount
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP31033999A
Other languages
English (en)
Other versions
JP2000152079A (ja
Inventor
正規 渡辺
尚久 川口
一樹 松井
秀一 椎谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP6047491A external-priority patent/JP3030485B2/ja
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP31033999A priority Critical patent/JP3364682B2/ja
Publication of JP2000152079A publication Critical patent/JP2000152079A/ja
Application granted granted Critical
Publication of JP3364682B2 publication Critical patent/JP3364682B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明はコンピュータグラフ
ィックスと実写映像との合成を行う方法及びその装置に
関する。
【0002】
【従来の技術】最近、映画やコマーシャルフィルムの製
作でコンピュータグラフィックス(以下CGという) と実
写映像の合成が盛んに用いられるようになってきた。例
えば、CGで作った架空の建築物などに、予め撮影した人
間の実写映像を合成することで、あたかも人間がその建
築物の中を歩いている効果を創り出せる。このCGと実写
映像の合成によって作られた映像は、見る者にとってリ
アルでインパクトの強いものであり、特に景観シミュレ
ーションには欠かせないものとなっている。
【0003】一般的に、CGでは描画する物体の形状は、
平面、2次曲面などの簡単な幾何形状 (形状プリミティ
ブ) を使って定義し、その表面には任意の色付けをした
り、画像データを貼り付ける処理を行う。しかしこの方
法では、木や川などの自然物を描画すると常にその姿が
固定された状態に見えてしまう。そこで、予め風に揺れ
ている木あるいは水が流れている川を撮影しておき、CG
で作成したシーンにその実写映像を合成することで、よ
り自然なアニメーションを作ることができる。従来の方
法では、撮影した実写映像から画像を選択し、平板など
の簡単な形状プリミティブに貼り付けることでCGとの合
成処理を行っている。この合成処理を各フレームごとに
繰り返して行い、連続した合成画像のアニメーションを
製作するのである。
【0004】なお、静止画の合成画像に関する公知文献
として「景観シミュレーションのための 2.5次元簡易情
景モデル構築の一手法」 (1992年7月:「画像の認識・
理解シンボジウム (MIRU '92) 」がある。また本発明の
一部である3次元図形抽出に関するものとして特開昭62
-162173号公報及び特開平3-244005号公報がある。
【0005】
【発明が解決しようとする課題】この種技術においては
以下の如き解決すべき課題があった。 (1) 実写映像を3次元形状を持ったCGモデルに変換する
のを簡便に行わしめること (2) この変換の際にオペレータの介入を許容すること (3) 動画の実写映像とCGとの合成を可能にすること (4) 実写映像から所要の部分を抽出する場合の操作性、
能率を高めること (5) CGモデルの回転、拡大縮小及び移動の操作性を高め
ること (6) CGと実写映像との合成の同期を容易にとれるように
すること
【0006】〔発明の概要〕この発明で提案する方法,
装置(システム)では、画像処理の技法を用いて、計算
機がユーザとの対話処理を行って、 1) 映像情報の物体単位の切り分け、 2) 3次元幾何情報を付加した動画オブジェクトの生
成、 3) CGモデルと動画オブジェクトの同時表示、の3つの
処理を行う。1)によりスタジオでのブルーバック撮影
が、2)により映像撮影時のカメラの位置情報の測定や記
録が不要になり、また3)により表示の際に視点を変更す
ることが可能となる。
【0007】システム構成の概略 図1に本発明のシステムの構成の概略を示す。本システ
ムでは、特定物体領域の抽出部、3次元幾何情報の抽出
部、動画オブジェクトとCGの同時描画部の3つの処理部
から構成されている。特定物体領域の抽出部と3次元幾
何情報の抽出部により、CGと合成するための動画オブジ
ェクトと呼ぶデータが作られて、ハードディスクに格納
される。このデータを利用して、動画オブジェクト及び
CGの同時描画部では、非リアルタイムに合成画像を生成
する。
【0008】特定物体領域の抽出部 特定物体領域の抽出部は、キャプチャリングツールによ
って入力された映像情報から、特定物体の領域を切り出
す処理を行う。この処理の流れを図2に示す。ここでは
入力データとして連続画像シーケンスを受け取り、出力
として特定物体を包含する矩形領域の画像シーケンス
と、それと同じサイズのアルファ値を格納したアルファ
マップシーケンスを作る。物体の領域を2値のマスクで
切り分けると境界部分に不自然なエリアシングが生じ
る。これを防ぐためにアルファ値を使って領域を定義す
る。あるn枚目の画像について、ユーザとの対話処理で
特定物体の領域を決定後、n+1〜n+m枚目の処理は
前フレームの処理結果を利用して計算機で半自動的に行
う。
【0009】3次元幾何情報の抽出部 3次元幾何情報の抽出部は、前述の特定物体領域の抽出
部が作った特定物体を包含する矩形領域の画像シーケン
スとアルファマップシーケンスを利用して2次元の映像
情報から3次元幾何情報を抽出する。この3次元幾何情
報の抽出は、ユーザが2次元の画像上の物体に、複数の
簡単な形状プリミティブ(直方体など)を変形、回転、
移動なとの操作をして、フィッティングを行うことで実
現する。本システムでは視点情報だけでなく、物体の形
状情報及び各面に張り付いているテクスチャ画像を抽出
する。この抽出部では、動画オブジェクトと呼ぶデータ
構造を作るために、映像中の物体に3次元幾何情報を与
え、そのCGモデル化された物体の各面に張り付く映像情
報を抽出し、正面から見たものに正規化して格納する。
【0010】動画オブジェクトの構造 特定物体領域の抽出部と3次元幾何情報の抽出部の処理
を経て生成されたデータは動画オブジェクトと呼ぶ構造
になる。図3に動画オブジェクトの構造の概略を示す。
動画オブジェクトはCGと映像を融合するために新たに作
ったデータ構造で、形状データの他に表面情報として、
各面に張り付く映像情報(静止画,或いは動画)へのポ
インタを格納している。
【0011】合成画像生成部 合成画像生成部では、生成された動画オブジェクトデー
タとCGデータとを同時に描画する。このとき、メタ情報
として描画するCGシーンの時刻Ti と時間間隔Δtを指
定する。CGデータには各物体の形状データの他に、各時
刻に於ける位置情報が含まれる。また、時刻Ti によ
り、動画オブジェクトの中の映像データから各面に貼り
付けられる映像が選択される。時刻Ti に於ける物体の
表面属性が決定された後、時刻Ti における合成シーン
を生成する。
【0012】以下本発明を具体的に説明する。本願の発
明は大きく3つに分けられる。 (1) 全体構成に関するもの (2) 特定物体の領域の抽出部及び3次元形状情報の付加
部に関するもの (3) 合成画像生成部に関するもの
【0013】(2) は 2-1 特定物体領域の抽出部及び3次元形状情報の付加部
の構成に関するもの 2-2 前記抽出部の構成に関するもの 2-3 3次元形状モデルの表示に関するものの3つに分け
られる。 以下(1) を第1群の発明、2-1 、2-2 、2-3 を夫々第
2、3、4群の発明、(3)を第5群の発明と言う。
【0014】本願の主題は第5群の発明であるが、それ
に関連する第1〜第4群の発明も説明する。第1群の発
明から詳細に説明する。 [第1群の発明] (概要)第1群の発明はCGと実写映像との合成の全体構成
に関するものである。
【0015】
【従来の技術及び発明が解決しようとする課題】CGと実
写映像の合成は、合成後の映像を想定した上で撮影し、
実写画像から合成すべき部分のみを切り出し、CGに重ね
合わせる手法をとっていた。このような手法における撮
影の場合、ブルーバックによるスタジオ撮影が必要であ
ったり、撮影時にカメラの位置を測定する必要があるな
ど、大掛かりな環境が必要である。
【0016】計算機によって支援する方式も前述のMIRU
'92の文献に提案されている。これは視点情報を実写映
像から抽出し、その映像中の対象物を平面に近似して、
CGと合成する手法である。しかし、完全な3次元情報を
有するモデルではないため、合成時に視点を変更できな
いなど、合成処理に制限を受ける。特開平3-138784号公
報には静止画中の物体を3次元として扱うために、静止
画中の物体を3次元モデルに基づいて再構成し、その3
次元物体に相当する部分画像を、3次元物体モデルの表
面テクスチャとしてマッピングし表示する方式が提案さ
れている。この方式では、1つの3次元部に対し、複数
枚の入力画像から表面テクスチャを合成することも提案
している。しかし、映像 (動画像) の場合、表面テクス
チャが刻々と変化する場合も考えられ、複数テクスチャ
を合成した場合、時系列方向で平滑化したテクスチャが
得られてしまうこともあり不適当である。
【0017】
【発明が解決しようとする課題】本発明はこのような技
術的背景の下になされたものであり、実写映像を3次元
形状を有するCGモデルに簡便に変換することができる画
像合成方法を提案することを第1の目的とする。また前
記CGモデルをフレームごとに生成して、その結果動画に
もできる映像合成方法を提供することを第2の目的とす
る。
【0018】
【課題を解決するための手段】本発明に係る画像合成方
法は、コンピュータグラフィックスと実写映像とを合成
する画像合成方法において、実写映像中の特定の領域を
抽出する過程と、抽出した領域に3次元形状の情報を付
加する過程と、抽出領域の情報及び3次元形状の情報に
基づき、抽出領域に係る情報をコンピュータグラフィッ
クスモデル化する過程とを備えることを主な特徴とす
る。
【0019】更に、コンピュータグラフィックスモデル
化した前記抽出領域に係る情報と他のコンピュータグラ
フィックスモデルとを混在表示させるべくこれらを合成
する過程を備える。そして動画作成のために複数フレー
ムに亘って同様の処理を実行する。
【0020】本発明に係る画像合成装置は、コンピュー
タグラフィックスと実写映像とを合成する画像合成装置
において、実写映像中の特定の領域を抽出する手段と、
抽出した領域に3次元形状の情報を付加する手段と、抽
出領域の情報及び3次元形状の情報に基づき、抽出領域
に係る情報をコンピュータグラフィックスモデル化する
手段とを備えることを主な特徴とする。
【0021】更に、コンピュータグラフィックスモデル
化した前記抽出領域に係る情報と他のコンピュータグラ
フィックスモデルとを混在表示させるべくこれらを合成
する手段を備える。
【0022】実写映像から特定の物体に対応する領域を
切り出し、これに3次元形状情報を付加する。これによ
り実写映像の前記特定物体の表面属性を有するCGモデル
が生成される。これを単独で用いるか、又は他のCGモデ
ルと混合する。更に複数フレームに亘って同様の処理を
行うことで動画での画像合成が行える。
【0023】
【発明の実施の形態】以下本発明をその実施の形態を示
す図面に基づき具体的に説明する。図4は本発明方法を
実施するための装置のブロック図であり、図5はその処
理の流れ図である。図4において9はTVカメラ、ビデオ
テープ、ビデオディスク等の映像供給装置であり、これ
らから得られた実写映像情報はビデオメモリ等からなる
画像記憶部5へフレーム毎に記憶される。この画像記憶
部5に記憶されている実写映像情報は特定物体領域抽出
部1へ与えられ、ここで実写映像中の特定の物体の領域
が抽出される。抽出領域の指示はオペレータがマウス等
のポインティング装置12を用いて行う。またその具体的
な内容は第2〜4群の発明の説明に詳しい。図6は実写
映像として4角柱及び3角錐が表示されている場合に4
角柱を抽出領域として指定した(太線で示す)場合の状
態を示している。このようにして指定された領域の映像
情報は3次元形状情報付加部2へ送られ、ここで3次元
形状情報が付加される一方、形状・表面属性情報記憶部
6に記憶される。
【0024】3次元形状情報付加部2は特定物体領域抽
出部1から与えられた情報に3次元形状情報を付加し
て、これを形状・表面属性情報記憶部6に蓄える。3次
元形状情報付加部2の具体的構成は第2群の発明に詳し
いが、ここでも1例を挙げて説明する。
【0025】図7はそのフローチャートである。まず図
8に示すように指定して抽出した領域、又は物体を画像
表示装置10の画面に表示させて、オペレータに画像の焦
点距離fを入力させる(S1)。この入力にはキーボード等
の文字・数値入力装置11が使用される。次にポインティ
ング装置12を用いて画面上に稜線を描画させ、その奥行
の値を入力させる(S2)。図8には描画した稜線を太線で
示し、指定した奥行の値をZで表示している。この描
画、奥行指定は取消、訂正が可能である。面の特定は基
本的に3角形(3本の稜線)によって行えるから、この
発明でも図9に示すように3角形に分割するように稜線
を描画し、また3角形への分割のための補助線(矩形の
対角線)の描画を行い、相異る2本の稜線(補助線を含
む)が交わることなく、抽出領域内の総ての点が3本の
稜線に囲まれた状態になっている状態にする(S3)。
【0026】次に端点の3次元座標の算出をする(S4)。
これはS1、S2で入力した焦点距離f、奥行Z、及び端点
の画像上の座標(x,y)に基づき、 X=(x/f)×Z Y=(y/f)×Z により得る。なお、稜線上の点及び稜線で囲まれた領域
内の点の3次元座標は、次の式によって算出できる。
【0027】稜線上の点稜線の端点の画像上の座標及び
3次元座標を夫々、(xi ,yi ),(Xi ,Yi ,Z
i )(i=1,2)とすると、稜線上の点(x,y)の
3次元座標(X,Y,Z)は、 X=(1−t)X1 +tX2 Y=(1−t)Y1 +tY2 Z=(1−t)Z1 +tZ2 により得る。ただし、tは、x1 ≠x2 の場合は(x−
1 )/(x2 −x1 )、x1 =x2 の場合は(y−y
1 )/(y2 −y1 )である。
【0028】稜線で囲まれた領域内の点この領域内の点
はいずれも3本の稜線に囲まれており、それらの交点は
3本の稜線の端点であることが保証されている。従って
3つの交点の座標がなす平面は、3つの交点の座標(X
i ,Yi ,Zi )(i=1,2,3)により求めること
ができる(自明)。この平面の方程式をaX+bY+c
Z−1=0とおくと、領域内の点の画像上の座標(x,
y)の3次元座標(X,Y,Z)は、 X=x/(ax+by+cf) Y=y/(ax+by+cf) Z=f/(ax+by+cf) により得られる。
【0029】このようにして得られた稜線から、端点の
3次元座標及び接続関係は形状情報として、端点の特定
物体領域上の座標対応及び特定物体領域画像の画像デー
タは表面属性情報として、形状・表面属性情報記憶部6
へ格納する(S5)。表1は形状・表面属性情報記憶部6の
記憶内容を示している。以上のS1〜S5の処理を全フレー
ムにつき反復する(S6)。
【0030】
【表1】
【0031】次に形状・表面属性情報記憶部6の内容を
映像CGモデル生成部3でCGモデル化する。形状情報のCG
モデル化については稜線の接続関係及び3次元座標よ
り、端点を頂点、稜線を辺、囲まれる部分を面とみなす
ことによりそのままCGモデルを生成できる。
【0032】一方、表面属性情報については面とみなし
た部分の表面属性情報として、その位置に対応する画像
情報を、生成するCGモデルのテクスチャとする。その
際、その画像情報を、3次元空間で法線方向から見た画
像として正規化する。正規化の際の回転行列Rは、次式
で与える。
【0033】
【数1】
【0034】ただし、回転角ψ及び回転角κは、この領
域の平面の方程式をaX+bY+cZ−1=0と表した
際のa,b,cに基づき
【0035】
【数2】
【0036】である。a,b,cは、3つの頂点の3次
元座標(Xi ,Yi ,Zi )(i=1,2,3)により
求めることができる。このようなCGモデル化処理をすべ
てのフレームに対して適用し、実写映像に対するCGモデ
ルを、各フレームに対するCGモデル列として獲得し、こ
れを映像CGモデル記憶部7bに記憶させる。CGモデル作成
部13は上述のような実写映像から作成するのではない通
常のCGモデルを作成するものであり、作成されたCGモデ
ルはCGモデル記憶部7aに記憶される。
【0037】合成情報記憶部8はこのCGモデルと実写映
像から作成した映像CGモデルとを合成画像生成部4で合
成するための情報 (CGモデル配置情報) を記憶するもの
であり、合成画像生成部4は、これに基づいて両CGモデ
ルの合成をし、これを画像表示装置10に表示させたり、
或いは図示しない記録媒体に記録させる。合成画像生成
部4及び合成情報記憶部8については第5群の発明に詳
しい。
【0038】
【発明の効果】以上の如き本発明による場合は実写映像
を3次元形状を持つCGモデルへ変換するので、通常のCG
モデルと同様の取扱いができ、これらの合成等の処理が
容易に行える。そして実写映像のCGモデル化は領域の抽
出及びこれに対する3次元形状情報の付加という簡便な
操作で行える。またこの際オペレータの手動介入が可能
であるので、微妙な調整、或いはこの作為的変更が行
え、自由度が高まる。また複数フレームを同様に処理す
ることで動画への適用も可能である。
【0039】[第2群の発明] (概要)この発明は図4の特定物体領域抽出部1及び3次
元形状情報付加部2の構成に係るものである。
【0040】
【従来の技術及び発明が解決しようとする課題】画像中
の3次元物体に対し、その物体の形状を完全に抽出する
方式は、未だ確立されていない。従来技術として提案さ
れているのは、物体表面の反射特性を仮定し、観察され
る色値から物体表面の傾きを求める方式や、画像に観察
される物体のモデルを予め記憶しておき、そのモデルと
画像に観察される物体の見えかたを照合する方式、等々
である。これらは、画像理解研究の発展とともに、開発
されてきた。
【0041】しかし、何れの方式も、適用条件に合致し
ていないと適用できない。例えば、前者の方式に対して
は、反射特性を仮定できない物体の場合、後者の方式に
対しては、記憶していないモデルの物体の場合、適用す
ることができない。そこでこの発明では映像に含まれる
物体の3次元形状を得る際、その物体のおよその形状を
人間が指定し、その形状のモデルを画像に表示しなが
ら、その重ね合わせ方を、人間による指定と、画像処理
の手法を用いた計算機による自動調整を、交互に対話的
に行う3次元形状抽出方法及び装置を提供することを目
的とする。
【0042】
【課題を解決するための手段】第2群の発明の方法は、
実写映像に含まれる物体の3次元形状を抽出する方法に
おいて、複数の幾何学的形状のデータを予め用意してお
く過程と、実写映像から前記物体に相当する領域を抽出
する過程と、抽出した領域を表示している画面に前記デ
ータによっていずれかの形状を選択表示させる過程と、
前記領域および形状を一致させるべく前記形状の位置、
向き、大きさを調整する過程とを備えることを特徴とす
る。
【0043】また第2群の発明の装置は、実写映像に含
まれる物体の3次元形状を抽出する装置において、複数
の幾何学的形状のデータを予め用意しておく手段と、実
写映像から前記物体に相当する領域を抽出する手段と、
抽出した領域を表示している画面に前記データによって
いずれかの形状を選択表示させる手段と、前記領域およ
び形状を一致させるべく前記形状の位置、向き、大きさ
を調整する調整手段とを備えることを特徴とする。
【0044】そして調整手段では物体の形状及び色相値
に基づく位置,向き,大きさの自動調整手段を備える。
更に調整済形状に実写映像から抽出した領域の画像情報
をマッピングする手段を備える。
【0045】抽出した物体の領域に近い形状を予め用意
されている形状の中から選択して表示させる。そうする
とこの領域と形状とが一致するように調整されて目的と
する物体の3次元形状が抽出できたことになる。この結
果は前述の3次元形状情報付加部2で得られた結果と同
様のものである。
【0046】
【発明の実施の形態】以下第2群の発明をその実施の形
態を示す図面に基づいて詳述する。図10は3次元形状抽
出装置のブロック図である。図において21は物体領域抽
出部であり、実写映像から所要の物体の領域を抽出して
画像表示装置27に表示させるものである。これについて
は第3群の発明に詳しい。実写映像及び抽出映像は画像
記憶部25に記憶される。基本形状選択部22は図12に示す
ような基本形状のパターンを多数記憶しており、これを
オペレータが選択して画像表示装置27に表示させるもの
である。基本形状重ね合わせ部23はオペレータが選択し
た基本形状のパターンと、抽出した物体の画像とを図13
に示すように重ね合わせて表示させ、後述するようなオ
ペレータの操作とコンピュータによる自動調整とにより
両者を合致させるものである。合致するように重ね合わ
された結果は重ね合わせ情報記憶部26に記憶される。ま
た重ね合わせ結果表示部24は調整の済んだ基本形状に抽
出物体の表面の画像情報をマッピングするものである。
【0047】次に図11に基づき3次元形状抽出方法を説
明する。画像記憶部25に記憶させてある実写映像を取出
し、これを画像表示装置27に表示させて物体領域抽出部
21で所要物体の抽出を行う(S21) 。図14はこの操作の説
明図である。オペレータは描画装置を用いて画面上に物
体領域及び背景領域を各例示する閉曲線を描く。物体領
域抽出部21は物体領域の閉曲線を拡張し、背景領域の閉
曲線は収縮させる。この拡張、収縮は色相が類似する部
分についてのみ認める。そうすると両閉曲線は境界で接
することになり、これにより境界を特定して所要の物体
の領域が抽出する。なお図14(b) のように拡張、収縮の
結果、影が存在する等のために境界が太く認定されるこ
とが生じ得るが、この場合は太い境界の内側線を物体の
境界とする。
【0048】次に所定操作を行わせて基本形状 (形状プ
リミティブ) のパターンを表示させ、抽出物体の形状に
類似するものを選択する(S22) 。これにより図13に示す
ように重ね合わせ表示させる(S23) 。一般的に抽出した
物体形状と選択した基本形状とは一致しない。そこで両
者が一致するまで(S24) 、物体形状と基本形状とにつ
き、位置調整(S27) 、向きの調整(S28) 、大きさの調整
(S29) 及び形状の部分的変形(S30) を行う。一致, 不一
致はオペレータの判断による。
【0049】図15は位置移動に関する処理のフローチャ
ート、図16はその説明図である。この移動の原理は物体
領域と形状プリミティブのワイヤフレームの重心を一致
させる点にある。即ち物体領域の重心GROの算出(S31)
、及び形状プリミティブのワイヤフレームの重心GRP
の算出(S33) を行う。そしてこれらを一致させるべく形
状プリミティブのワイヤフレームの表示位置を移動する
(S32) 。
【0050】物体領域の重心RROと、形状プリミティブ
のワイヤフレーム表示で囲まれる領域の重心RRPが一致
するように、形状プリミティブのワイヤフレーム表示位
置を移動する (図16) 。なお、領域Rの重心GR は、 GR =( m10/m00,m01/m00 )T により求めることができる。但し、 m0000=∫fdR 領域Rを構成する点の個数を示す。この値は面積を表
す。 m1010=∫xdR 領域Rを構成する各点のx座標の総和値を示す。 m0101=∫ydR 領域Rを構成する各点のy座標の総和値を示す。これに
従い、形状プリミティブのワイヤフレーム表示位置を
(GRO−GRP)移動する。
【0051】図17は向きの調整のために行う形状プリミ
ティブの回転の処理を示すフローチャート、図18はその
説明図である。回転による向きの調整の原理は、物体領
域及び形状プリミティブのワイヤフレームの長軸の平行
化にある。領域Rの長軸方向θR は、領域の重心回りの
慣性主軸として求めることができる。すなわち、 tan2 θR +[{m20−m10/m00)−(m02−m01
00)}/(m11−m1001/m00)] tanθR −1=
0 の解として求めればよい。但し、 m1111=∫xydR 領域Rを構成する各点のx座標とy座標の積の総和値を
示す。 m2020=∫x2 dR 領域Rを構成する各点のx座標の2乗の総和値を示す。 m0202=∫y2 dR 領域Rを構成する各点のy座標の2乗の総和値を示す。
これに従い、形状プリミティブのワイヤフレーム表示位
置を(θRO−θRP)回転する。
【0052】図17のフローチャートに示すように抽出し
た物体領域及び形状プリミティブのワイヤフレームのモ
ーメント量を算出する(S41,S44) 。このモーメント量の
算出は mij=∫xi j dR (ij)={(0,0),(1,0),(0,1),(1,1),(2,0),(0,2) } で求められる。
【0053】一方、前述のようにして物体領域の長軸、
並びに形状プリミティブのワイヤフレームの長軸及び重
心GRPを前述のようにして求める(S42,S45,S46) 。そし
てG RPを中心としてθRO−RRPだけ形状プリミティブの
ワイヤフレーム表示位置を回転する(S43) 。
【0054】大きさの調整は図20に示すように両者の表
示面積が一致するように領域RP の重心GRPを中心とし
て形状プリミティブのワイヤフレームを拡大又は縮小す
ることで行う。即ち領域Rの面積SR は SR =m00 として求めることができる。これに従い、形状プリミテ
ィブのワイヤフレームをSRO/SRP倍すればよい。ここ
にSROは物体領域の面積SRPは形状プリミティブのワイ
ヤフレームの面積である。
【0055】図19のフローチャートにおいて、抽出した
物体の領域のモーメント量、形状プリミティブのワイヤ
フレーム表示領域のモーメント量を算出する(S51,S54)
。そしてこれを用いて両者の面積SRO, SRPを算出す
る(S52,S55) 。また形状プリミティブのワイヤフレーム
の重心GRPを算出する(S56) 。そして形状プリミティブ
のワイヤフレームをSRO/SRP倍する(S53) 。面積はモ
ーメント量m00として求めることができる。
【0056】図11に返って、形状の変形について説明す
る。物体領域の形状が基本形状と部分的に異なる場合は
オペレータが入力する命令で基本形状を部分的に変形す
る。以上のようにして物体領域と基本形状が一致した場
合は、これを重ね合わせ情報記憶部26へ格納する(S25)
。そして図21に示すように形状プリミティブのワイヤ
フレームに抽出した物体領域の画像情報をマッピングす
る(S26) 。つまり実写映像の所要部が切り出されて形状
プリミティブのワイヤフレームに貼り付けられた如き状
態になる。
【0057】
【発明の効果】以上のような第2群の発明による場合は
オペレータが対話方式で3次元形状の抽出ができるので
適用条件に制約されず、また物体に対する既知情報(反
射情報など)を必要とすることなく抽出が可能である。
また基本形状を物体領域に一致させる作業はコンピュー
タが自動的に行うのでオペレータの負担は軽微である。
またマッピングを行うので抽出した3次元形状情報の適
否が直感的に判断できる。
【0058】[第3群の発明] (概要)第3群の発明は図4の特定物体領域抽出部又は図
10の物体領域抽出部に係るものである。
【0059】
【従来の技術】電気的に画像を合成する場合は図22に示
すようにして行われていた。例えば人物像の画像をブル
ー背景として画像入力部Aで撮影し、また風景画像を画
像入力部Bで撮影する。そして画像入力部Aの画像から
ブルー成分を検出し、これを反転増幅して、適宜の混合
比制御をして、この反転増幅信号と、画像入力部A, B
からの信号とを混合増幅器で合成し、画像出力部へ出力
することとしていた。これにより画像入力部Aからの背
景が消えて画像入力部Bを背景とする人物像が合成され
ることになる。
【0060】
【発明が解決しようとする課題】このような従来の方式
ではブルー背景を必要とし設備面での負担がある。また
当初から画像合成を意図したものしか利用できず、汎用
性に欠ける。更に混合増幅器における合成のためのパラ
メータ設定が難しく、また操作も煩雑である。本発明は
このような問題を解決するためになされたものであり、
特別な撮影設備を必要とせず、また汎用性が高く、更に
操作が簡便な画像合成装置、特に合成対象となるキー画
像の生成装置を提供することを目的とする。
【0061】
【課題を解決するための手段】第3群の発明の第1の方
法は、映像から特定の領域を抽出する方法において、抽
出対象とすべき領域内の複数の画素を指定する過程と、
指定した画素における所定の特徴量を求める過程と、求
めた特徴量の最大値及び最小値を求める過程と、抽出対
象とすべき領域の内外の画素につき特徴量を求めて、そ
の特徴量が前記最大値と最小値との間にある画素を選択
する過程とを備え、前記画素によって構成される領域を
抽出領域とすることを特徴とする。
【0062】第2の方法は、映像から特定の領域を抽出
する方法において、抽出対象とすべき領域内の複数の画
素を指定する過程と、指定した画素における所定の特徴
量を求める過程と、指定した画素の、求めた特徴量につ
き、隣接画素間の差分を計算する過程と、計算した差分
の最大値を求める過程と、指定した画素を開始点とし
て、隣接画素間の特徴量の差分が前記最大値より小さい
4近傍又は8近傍の画素を連結する過程とを備え、連結
した画素によって構成される領域を抽出領域とすること
を特徴とする。
【0063】第3の方法は、前記抽出領域の画素及び非
抽出領域の画素に各別の値を付与する過程と、前記抽出
領域の境界の外縁に位置する画素に、前記値の中間の値
を付与する過程とを備え、これらの付与した値による画
像を生成することを特徴とする。
【0064】第4の方法は、前記抽出領域から遠ざかる
方向に隣接する複数の画素の各々に異なる中間の値を付
与する。
【0065】第5の方法は、映像から特定の領域を抽出
する方法において、抽出対象とすべき領域内の複数の画
素を指定する過程と、指定した画素における所定の特徴
量を求める過程と、求めた特徴量の最大値及び最小値を
求める過程と、抽出対象とすべき領域の内外の画素につ
き特徴量を求めて、特徴量が前記最大値と最小値との間
の範囲にあるか否かを判定する過程と、前記範囲内の画
素に定数Kを付与する過程と、前記範囲外の画素の特徴
量と前記最大値又は最小値との差分を算出する過程と、
前記範囲外の画素に、定数Kから前記差分に関連して定
まる値を減じた値を付与する過程とを備え、これらの付
与した値による画像を生成することを特徴とする。
【0066】第6の方法は、映像から特定の領域を抽出
する方法において、抽出対象とすべき領域内の複数の画
素を指定する過程と、指定した画素における所定の複数
の特徴量を求める過程と、求めた特徴量の最大値及び最
小値を特徴量の各々について求める過程と、抽出対象と
すべき領域の内外の画素につき特徴量を求めて、特徴量
が前記最大値と最小値との間の範囲にあるか否かを判定
する過程と、前記範囲内の画素に定数Kを付与する過程
と、前記範囲外の画素の特徴量と前記最大値又は最小値
との差分を算出する過程と、前記範囲外の画素に、定数
Kから各々の特徴量の前記差分に関連して定まる値を減
じた値を付与する過程とを備え、これらの付与した値に
よる画像を生成することを特徴とする。
【0067】第7の方法は、映像から特定の領域を抽出
する方法において、抽出対象とすべき領域内の複数の画
素を指定する過程と、指定した画素における所定の特徴
量を求める過程と、求めた特徴量の平均値及び分散を求
める過程と、抽出対象とすべき領域の内外の画素につき
特徴量を求めて、特徴量が前記平均値及び分散で定まる
範囲にあるか否かを判定する過程と、前記範囲内の画素
に定数Kを付与する過程と、前記範囲外の画素の特徴量
と前記平均値との偏差を算出する過程と、前記範囲外の
画素に、定数Kから前記偏差に関連して定まる値を減じ
た値を付与する過程とを備え、これらの付与した値によ
る画像を生成することを特徴とする。
【0068】第8の方法は、映像から特定の領域を抽出
する方法において、抽出対象とすべき領域内の複数の画
素を指定する過程と、指定した画素における所定の複数
の特徴量を求める過程と、求めた特徴量の平均値及び分
散を特徴量の各々について求める過程と、抽出対象とす
べき領域の内外の画素につき特徴量を求めて、特徴量が
前記平均値及び分散で定まる範囲にあるか否かを判定す
る過程と、前記範囲内の画素に定数Kを付与する過程
と、前記範囲外の画素の特徴量と前記平均値との偏差を
算出する過程と、前記範囲外の画素に、定数Kから各々
の特徴量の前記偏差に関連して定まる値を減じた値を付
与する過程とを備え、これらの付与した値による画像を
生成することを特徴とする。
【0069】第9の方法は、映像から抽出した複数の領
域のうちのいずれかの領域に含まれる画素を指定する過
程と、指定した画素を開始点として4連結又は8連結の
ラベリングをする過程と、ラベリングされていない領域
を非抽出領域に変更する過程とを備えることを特徴とす
る。
【0070】第10の方法は、複数フレームの映像から特
定の領域を抽出する方法において、一のフレームで抽出
対象とすべき領域内の複数の画素を指定する過程と、指
定した画素を開始点として4連結又は8連結のラベリン
グをする過程と、ラベリングされていない領域を非抽出
領域に変更する過程と、抽出領域の幾何学的特徴量を算
出する過程とを備え、また次フレームでラベリングする
過程と、異なるラベルを付与された領域ごとに幾何学的
特徴量を算出する過程と、前フレームの抽出領域の幾何
学的特徴量に近い幾何学的特徴量を有する領域を抽出領
域として残存させ、他の領域を非抽出領域に変更する過
程とを備えることを特徴とする。
【0071】第11の方法は、複数フレームの映像から特
定の領域を抽出する方法において、一のフレームで抽出
対象とすべき領域内の複数の画素を指定する過程と、指
定した画素を開始点として4連結又は8連結のラベリン
グをする過程と、ラベリングされていない領域を非抽出
領域に変更する過程と、抽出領域の光学的特徴量を算出
する過程とを備え、また次フレームでラベリングする過
程と、異なるラベルを付与された領域ごとに光学的特徴
量を算出する過程と、前フレームの抽出領域の光学的特
徴量に近い光学的特徴量を有する領域を抽出領域として
残存させ、他の領域を非抽出領域に変更する過程とを備
えることを特徴とする。
【0072】第1の装置は、映像から特定の領域を抽出
する装置において、抽出対象とすべき領域内の複数の画
素を指定する手段と、指定した画素における所定の特徴
量を求める手段と、求めた特徴量の最大値及び最小値を
求める手段と、これらの最大値及び最小値を記憶する手
段と、抽出対象とすべき領域の内外の画素につき特徴量
を求めて、その特徴量が前記最大値と最小値との間にあ
る画素を選択する手段とを備え、前記画素によって構成
される領域を抽出領域とすべくなしてあることを特徴と
する。
【0073】第2の装置は、映像から特定の領域を抽出
する装置において、抽出対象とすべき領域内の複数の画
素を指定する手段と、指定した画素における所定の特徴
量を求める手段と、指定した画素の、求めた特徴量につ
き、隣接画素間の差分を計算する手段と、計算した差分
の最大値を求める手段と、該最大値を記憶する手段と、
指定した画素を開始点として、隣接画素間の特徴量の差
分が前記最大値より小さい4近傍又は8近傍の画素を連
結する手段とを備え、連結した画素によって構成される
領域を抽出領域とすべくなしてあることを特徴とする。
【0074】第3の装置は、前記抽出領域の画素及び非
抽出領域の画素に各別の値を付与する手段と、前記抽出
領域の境界の外縁に位置する画素に、前記値の中間の値
を付与する手段とを備え、これらの付与した値による画
像を生成すべくなしてあることを特徴とする。
【0075】第4の装置は、前記抽出領域から遠ざかる
方向に隣接する複数の画素の各々に異なる中間の値を付
与すべくなしてある。
【0076】第5の装置は、映像から特定の領域を抽出
する装置において、抽出対象とすべき領域内の複数の画
素を指定する手段と、指定した画素における所定の特徴
量を求める手段と、求めた特徴量の最大値及び最小値を
求める手段と、これら最大値及び最小値を記憶する手段
と、抽出対象とすべき領域の内外の画素につき特徴量を
求めて、特徴量が前記最大値と最小値との間の範囲にあ
るか否かを判定する手段と、前記範囲内の画素に定数K
を付与する手段と、前記範囲外の画素の特徴量と前記最
大値又は最小値との差分を算出する手段と、前記範囲外
の画素に、定数Kから前記差分に関連して定まる値を減
じた値を付与する手段とを備え、これらの付与した値に
よる画像を生成すべくなしてあることを特徴とする。
【0077】第6の装置は、映像から特定の領域を抽出
する装置において、抽出対象とすべき領域内の複数の画
素を指定する手段と、指定した画素における所定の複数
の特徴量を求める手段と、求めた特徴量の最大値及び最
小値を特徴量の各々について求める手段と、これら最大
値及び最小値を記憶する手段と、抽出対象とすべき領域
の内外の画素につき特徴量を求めて、特徴量が前記最大
値と最小値との間の範囲にあるか否かを判定する手段
と、前記範囲内の画素に定数Kを付与する手段と、前記
範囲外の画素の特徴量と前記最大値又は最小値との差分
を算出する手段と、前記範囲外の画素に、定数Kから各
々の特徴量の前記差分に関連して定まる値を減じた値を
付与する手段とを備え、これらの付与した値による画像
を生成すべくなしてあることを特徴とする。
【0078】第7の装置は、映像から特定の領域を抽出
する装置において、抽出対象とすべき領域内の複数の画
素を指定する手段と、指定した画素における所定の特徴
量を求める手段と、求めた特徴量の平均値及び分散を求
める手段と、該平均値及び分散を記憶する手段と、抽出
対象とすべき領域の内外の画素につき特徴量を求めて、
特徴量が前記平均値及び分散で定まる範囲にあるか否か
を判定する手段と、前記範囲内の画素に定数Kを付与す
る手段と、前記範囲外の画素の特徴量と前記平均値との
偏差を算出する手段と、前記範囲外の画素に、定数Kか
ら前記偏差に関連して定まる値を減じた値を付与する手
段とを備え、これらの付与した値による画像を生成すべ
くなしてあることを特徴とする。
【0079】第8の装置は、映像から特定の領域を抽出
する装置において、抽出対象とすべき領域内の複数の画
素を指定する手段と、指定した画素における所定の複数
の特徴量を求める手段と、求めた特徴量の平均値及び分
散を特徴量の各々について求める手段と、該平均値及び
分散を記憶する手段と、抽出対象とすべき領域の内外の
画素につき特徴量を求めて、特徴量が前記平均値及び分
散で定まる範囲にあるか否かを判定する手段と、前記範
囲内の画素に定数Kを付与する手段と、前記範囲外の画
素の特徴量と前記平均値との偏差を算出する手段と、前
記範囲外の画素に、定数Kから各々の特徴量の前記偏差
に関連して定まる値を減じた値を付与する手段とを備
え、これらの付与した値による画像を生成すべくなして
あることを特徴とする。
【0080】第9の装置は、映像から抽出した複数の領
域のうちのいずれかの領域に含まれる画素を指定する手
段と、指定した画素を開始点として4連結又は8連結の
ラベリングをする手段と、ラベリングされていない領域
を非抽出領域に変更する手段とを備えることを特徴とす
る。
【0081】第10の装置は、複数フレームの映像から特
定の領域を抽出する装置において、一のフレームで抽出
対象とすべき領域内の複数の画素を指定する手段と、指
定した画素を開始点として4連結又は8連結のラベリン
グをする手段と、ラベリングされていない領域を非抽出
領域に変更する手段と、抽出領域の幾何学的特徴量を算
出する手段とを備え、また次フレームでラベリングする
手段と、異なるラベルを付与された領域ごとに幾何学的
特徴量を算出する手段と、前フレームの抽出領域の幾何
学的特徴量に近い幾何学的特徴量を有する領域を抽出領
域として残存させ、他の領域を非抽出領域に変更する手
段とを備えることを特徴とする。
【0082】第11の装置は、複数フレームの映像から特
定の領域を抽出する装置において、一のフレームで抽出
対象とすべき領域内の複数の画素を指定する手段と、指
定した画素を開始点として4連結又は8連結のラベリン
グをする手段と、ラベリングされていない領域を非抽出
領域に変更する手段と、抽出領域の光学的特徴量を算出
する手段とを備え、また次フレームでラベリングする手
段と、異なるラベルを付与された領域ごとに光学的特徴
量を算出する手段と、前フレームの抽出領域の光学的特
徴量に近い光学的特徴量を有する領域を抽出領域として
残存させ、他の領域を非抽出領域に変更する手段とを備
えることを特徴とする。
【0083】第1の方法、装置では抽出したい画像部分
の中の複数画素を指定する (ライトペン、又はマウス操
作のカーソルでなぞる) 。このなぞった画素群中の特徴
量 (R, G, B,色相, 彩度, 明度, 輝度などの一又は
複数) を求め、更にその最大値, 最小値を選んで記憶す
る。
【0084】次いで画像全体の画素につき各特徴量が前
記最大値〜最小値の範囲内にあるか否かを調べる。範囲
内にある画素は抽出を望む画像部分と同様の特徴量を有
しているので、該画像部分は属すると判断し、0より大
きい値を付与し、範囲外のものは非抽出部分であるとし
て0を付与する。これにより非0の部分を抽出すること
で所望の画像部分が抽出できる。
【0085】第2の方法、装置ではなぞった画素の特徴
量と隣接画素の特徴量との差分を求め、その最大値を記
憶しておく。そしてこの最大値以下の差分を有する4近
傍又は8近傍の画素はなぞって抽出を望む領域と同程度
の隣接閾値を有しているとして抽出領域として0より大
きい値を付与し、それ以外の部分は0を付与する。これ
により非0の部分を抽出することができる。
【0086】第3の方法、装置は抽出領域に1、非抽出
領域に0を付与した場合に両者の境界の画素に1と0と
の中間の値を与える。これにより境界がマイルド化し、
抽出画像を合成した場合に背景への溶け込みがよくな
る。
【0087】第4の方法、装置はこの中間の値を複数に
することで境界の一層のマイルド化が行われる。
【0088】第5の方法、装置は境界のマイルド化を適
応制御するものであり、1〜0の中間値の決定を、非抽
出領域の特徴量と、特徴量の最大値 (又は最小値) との
差分に応じて定める。これにより抽出画像の境界は背景
に良く溶け込む。
【0089】第6の方法、装置は特徴量を一種ではな
く、二種以上とし、上述の差分を複数の特徴量について
求め、例えばその加重平均等に依って中間値を決定す
る。複数の特徴量を用いるのでより自然な境界が得られ
る。
【0090】第7, 第8の方法、装置は第5, 第6では
最大値, 最小値を用いているのに対し、分散を用いてい
る点が異なる。
【0091】第9の方法、装置は過剰抽出した部分を非
抽出領域とする。即ちラベリングにより、同様に抽出さ
れた複数の領域に各別の符号を付与される。このうち、
なぞられた画素を含む領域のみを残して他を消すのであ
る。
【0092】第10の方法、装置は動画に対応するもので
ある。第9の方法、装置と同様にラベリングし、非抽出
領域を消去する。次のフレームで同様のラベリングをす
るが、フレーム間の領域の同定を幾何学的特徴量の類似
度に基づいて行う。このため抽出領域のみが残り、他は
消える。これを複数のフレームに亘って行うことで動画
での抽出処理が自動的に行えることになる。
【0093】第11の方法、装置は上記の幾何学的特徴量
に替えて光学的特徴量を用いるものであり、同効を奏す
る。
【0094】
【発明の実施の形態】図23は第3群の発明の第1の領域
抽出装置のブロック図である。3系統の画像入力部31,3
2,33はいずれも同様の構成を有し、NTSC信号をアナログ
のRGB 信号に変換するNTSC-RGB変換器31a,32a,33a 及び
アナログのRGB 信号をディジタルのRGB 信号に変換する
A/D 変換器31b,32b,33b を備える。これら画像入力部3
1,32,33からの入力はデュアルポートRAM からなる画像
メモリ37,38,39,40 へ与えられ、またこれらから読出さ
れた画像データは画像出力部34へ与えられ、ここから出
力される。画像出力部34は画像メモリ37等からのディジ
タルのRGB 信号をアナログのRGB 信号に変換するD/A 変
換器34b 及び、この変換されたアナログのRGB 信号をNT
SC信号に変換するRGB-NTSC変換器34a の出力がモニタ
(図示せず)に表示されることになる。
【0095】35は座標入力部であり、ライトペンとその
座標認識手段、等によって構成されており、モニタに表
示された映像の一部をなぞるのに使用される。この座標
入力部35で入力された座標情報は処理部41へ入力され
る。400 は半導体メモリであり、演算に使用するメモリ
42、後述する特徴量上限レジスタ43、下限レジスタ44を
備える。36はハードディスク、光磁気ディスク等の大容
量記録部であり、複数フレームの画像を記録する。
【0096】而してマイクロプロセッサ等からなる処理
部41は以下の如き領域抽出のための処理を行う。図24
は、この処理の手順を示すフローチャート、図25はその
説明図である。図25(a) に示すように抽出したい領域
(白抜きで示されている) を座標入力部35のペンでなぞ
る。この間ペン軌跡の複数画素につき、特徴量 (一又は
複数種)を計算する。そして特徴量の最大値又は最小値
を夫々特徴量上限レジスタ43、下限レジスタ44に格納す
る。これにはペンが移動していく都度、既格納のレジス
タ内容を更新していくことで行う。なぞりが終わると全
軌跡中での特徴量の最大値, 最小値が得られることにな
る。特徴量としてはR,G,B、色相、彩度、明度、輝
度等が挙げられる。
【0097】而して次には画面全体の画素ドット特徴量
(一又は複数種) を求め、最大値〜最小値の範囲内にあ
る画素には0より大きい値 (例えば255)を、また範囲外
にある画素には0を付与する。これによりキー画像、つ
まり抽出領域を含む画像が得られることになる。図25
(b) はこれを示す。なお、所望どおりの抽出ができなか
った場合は特徴量の選択又は組合わせを種々変更するこ
とで再試行すればよい。なお以上の処理を複数フレーム
について反復することで動画の処理が可能となる。
【0098】図26は第2の領域抽出装置のブロック図で
ある。第1の領域抽出装置と相違するのは半導体メモリ
400 に特徴量上限レジスタ43、下限レジスタ44に替えて
特徴量閾値レジスタ45を備える点である。他の構成は同
様であるので、同符号を付して説明を省略する。
【0099】図27は処理部41による処理のフローチャー
ト、図28はその説明図である。図28(a) のようにペンで
なぞった軌跡の画素の特徴量を求めるのは第1の装置と
同様であるが、第2の装置ではなぞられた画素のうちで
の隣接画素間の特徴量の差分を演算し、その最大値を閾
値レジスタ45に格納する。そしてなぞられた画素の夫々
について隣接画素 (4近傍又は8近傍) が閾値以下であ
るか否かを調べていき、以下である隣接画素を次々と連
結していく (図28(b))。このようにして連結された領域
に0より大きい値を付与する。
【0100】図29は第3〜6の領域抽出装置のブロック
図である。第1の装置と相違するのは処理部41の演算内
容であり、以下に説明する混合比計算41a,総合混合比計
算41b を行う。図30は処理部41の処理手順を示すフロー
チャートである。図31(a) に示すようにペンでなぞった
軌跡の画素につき、第1の装置と同様に特徴量を計算
し、その最大値, 最小値を夫々特徴量上限レジスタ43,
下限レジスタ44に入れる。
【0101】次に画像の全画素について特徴量を計算
し、これが特徴量上, 下限値レジスタ43,44 に各記憶さ
れている最大値, 最小値の範囲内にあるか否かを調べ、
範囲内にある場合は0でない値のKを付与する。範囲外
にある場合は、算出した特徴量と最大値(特徴量が大き
いとき)との差、又は算出した特徴量と最小値(特徴量
が小さいとき)との差の差分を演算し、差分に応じてK
〜0の範囲の値(混合比)を特徴量ごとに求める。そし
て各特徴量ごとの混合比を加重平均した総合混合比を求
める。そして総合混合比に応じた値を対応画素に付与す
る。そうすると図31(b) に示すように境界にグラデーシ
ョンが付与された抽出画像が得られることになる。そし
てこれを複数フレームにつき反復することによって動画
に対応できる。
【0102】図32は第3, 4, 7, 8の領域抽出装置の
ブロック図である。図29と異なるのは、特徴量上限レジ
スタ43, 下限レジスタ44に替えて特徴量平均値レジスタ
46、特徴量分散値レジスタ47を備える点である。図33は
この場合の処理手順を示すフローチャートであり、図34
(a) に示すようにペンでなぞった軌跡の画素の特徴量を
計算し、その平均値及び分散値を算出し、これらを特徴
量平均値レジスタ46, 特徴量分散値レジスタ47に格納し
ておく。
【0103】そしてこの装置では画像中の全画素につい
ての特徴量が所定偏差(例えば平均値±分散値)内にあ
るか否かを調べ、範囲内にある場合にKを付与する。範
囲外の場合は平均値からの偏差に従い、混合比を特徴量
ごとに計算し、この計算値の加重平均を総合混合比とし
て求め、これに従ってKを付与する。
【0104】図34(b) はその結果を示し、境界部にグラ
デーションを有する抽出画像が得られる。図35は第3,
4の領域抽出装置の他の実施の形態のブロック図であ
る。この装置は処理部41の処理が他の装置と異なってい
る。この処理内容を図37, 38につき説明する。この実施
の形態は第1の領域抽出装置等で得た抽出領域と非抽出
領域(値0を付与) との輪郭 (画素と画素との間になる)
の内側の内周輪郭点 (画素) の値Xから定数Kを減じ
た値を、前記輪郭の外側の外周輪郭点(画素)に付与す
る。この処理は遠心方向の1画素についてだけ行っても
よいが図38に示すように複数画素について行うことでよ
りなめらかなエッジが得られる。
【0105】図36はこの処理の手順を示すフローチャー
トであり、画面上の左上側から輪郭を追跡するようにし
て処理を反復する。そしてこの処理を複数フレームにつ
いて行うことで動画への対応が可能である。
【0106】図39は第9の領域抽出装置のブロック図で
ある。この装置は処理部41で後述するラベリング処理
(48)を行うことにより雑音、つまり本来抽出を望まな
いのに抽出領域として現れる部分を削除するためのもの
である。この処理は例えば第1の領域抽出装置等によっ
て得られたキー画像 (図41(a))に対して行うものであ
る。この画像は中央の抽出を望む部分以外に同様の特徴
量を有する雑音の領域 (非0領域) を含んでいる。
【0107】図40はこの処理のフローチャートであり、
該処理はペンでなぞった軌跡の画素を開始点として4連
結又は8連結のラベリングを行う。雑音の非0領域が離
散しているのでラベリングはその領域には到らない。次
いでラベリングされていない領域を消去する。そうする
と図41(b) に示すように所望の抽出領域が得られるので
ある。
【0108】図42は第10の領域抽出装置のブロック図で
ある。この装置は第9の領域抽出装置と同様の処理を1
回行うだけで爾後のフレームは簡単な処理で雑音消去で
きる動画対応のものである。これを可能とするためにな
ぞった領域及びこれと対応づけられる他フレームの領域
の幾何学的特徴量 (例えば面積、中心位置) を計算する
処理(49)及び幾何学的特徴量が近い領域をフレーム内で
対応づける対応付け(50)を処理部41が行う。図43はこの
処理のフローチャート、図44はその説明図である。第9
の領域抽出装置と同処理を先頭フレームに施して図44の
(a) に示すように雑音を消去する。そして残った非0領
域、つまり抽出領域につき、その幾何学的特徴量を計算
する。
【0109】次に第2フレームでは非0領域(雑音領域
も含む)につき幾何学的特徴量を計算する。そして先頭
フレームの非0領域の特徴量に最も近い幾何学的特徴量
を有するものを選択し、他を消去(非抽出領域と)す
る。以下、前後する2フレームにつき同様の処理を反復
することで雑音領域は自動的に消えていく。
【0110】図45は第11の領域抽出装置のブロック図で
ある。この装置は第10の装置が幾何学的特徴量を利用し
てフレーム内の領域の同定を行っていたのに対し、光学
的 (テクスチャ) 特徴量を利用する。このため処理部41
内、光学的特徴量を計算するための画素値構成計算(5
1)を行う。図46は雑音消去のフローチャート、図47は
その説明図である。いずれも幾何学的特徴量が光学的特
徴量に替わっただけであるので説明を省略する。
【0111】
【発明の効果】以上の如き第3群の発明によればブルー
の背景の撮影設備が不要である。また特に画像合成を意
識していない映像からでも抽出ができる。そして操作は
必要部分をなぞるだけでよく、簡便である。
【0112】[第4群の発明] (概要)第4群の発明はCGモデル (映像から抽出した3次
元形状モデルを含む) に対する加工又は表示態様の変更
を容易に行わせる表示方法及び装置を提供するものであ
る。
【0113】
【従来の技術】本発明はディスプレイに2次元表示され
た3次元形状モデルに対して対話的手法により回転、拡
大縮小、平行移動し、その結果を逐次再表示するという
3次元形状文字表示方法に関する。計算機の高速化に伴
い、3次元形状モデルをリアルタイムに回転、拡大縮
小、平行移動して表示することが可能となり、3次元形
状モデルを人間が対話的に操作し、その結果を再表示す
るような機能が要求されている。このため、人間の思考
を妨げずに3次元形状モデルを回転、拡大縮小、平行移
動するための操作方法が必要である。
【0114】3次元空間で3次元形状モデルを変換する
には、回転3自由度、平行移動3自由度の計6自由度の
変換が必要である。3次元形状モデルをディスプレイ上
に2次元表示する場合は上記の自由度のうちディスプレ
イに対して奥行方向の移動を拡大縮小で表現できる。し
たがって、この場合は回転3自由度、拡大縮小1自由
度、平行移動2自由度の計6自由度の変換になる。従来
の3次元モデル操作ではこの操作を6自由度×正負を夫
々キーボードの12個のキーに割り当てていた。また、マ
ウスなどのポインティングデバイスを利用した3次元モ
デル操作では、2自由度しかないポインティングデバイ
スを6自由度の変換に対応させるためにモードの切替え
を行っていた。両者の融合型として、2自由度をポイン
ティングデバイスで操作し残りの4自由度をキーボード
で操作するという方法もあった。
【0115】
【発明が解決しようとする課題】キーボードによる操作
方法では夫々の軸に対して正負方向の2つのキーが割り
当てられているので、軸方向の変換しかできない。例え
ば平面上の平行移動のときに縦横の軸が用意されている
場合、斜めに平行移動するには縦移動をしてから横移動
(或いは横移動してから縦移動)という2ステップの操
作を必要とする。さらに回転の場合は、想定した変換を
軸方向のベクトルに分解することが大変困難であるとい
う問題もある。
【0116】ポインティングデバイスによる操作方法で
は軸に対して斜めの変換を行うことができるが、モード
の切替えが面倒であることと、回転の3自由度をうまく
操作できないという問題点がある。キーボードとポイン
ティングデバイスの併用による操作方法においても、2
つの異なるデバイスでの入力によって操作がし難くなる
という問題点を増すだけで、夫々の欠点を補っていると
は言えない。また表示に関して、実際に回転させてみな
いとどこを中心として回転するのかがよくわからないと
いう問題点がある。本発明は、あるゆる方向への変換を
直接行うことができ、モード切替えといった面倒な操作
を排し、わかりやすい操作画面を実現することにより、
高速で自由自在の操作を行うことができる表示方法及び
装置を提供することを目的とする。
【0117】
【課題を解決するための手段】本発明に係る3次元形状
モデルの表示方法は、2次元平面に3次元形状モデルを
表示する方法において、前記3次元形状モデルの一部又
は全部を内部に含むポリゴンを併せて表示することを特
徴とする。ここにポリゴンは球体を含む。そしてこのポ
リゴンは半透明とし、その色は3次元形状モデルの色及
び背景色との対比で見えやすい色とする。更にポインテ
ィングデバイスによる指定点とポリゴンとの相対位置関
係で移動、拡大縮小、回転等の表示態様の変更を行わせ
る。
【0118】また本発明の3次元形状文字の表示装置
は、2次元平面に3次元形状モデルを表示する装置にお
いて、前記3次元形状モデルの一部又は全部を内部に含
むポリゴンを算出する手段と、ポインティングデバイス
と、ポインティングデバイスで指定された点と前記ポリ
ゴンとの相対的位置関係を判定する手段と、この判定結
果に従い前記3次元形状モデルの表示態様を変更する手
段とを備えることを特徴とする。
【0119】図48はポリゴンの表示例を示している。3
次元形状モデルは踏台状のものであり、これを包絡する
球体 (緯線、経線を合わせて示している) が認識又は操
作を案内するガイドポリゴンとして表示されている。こ
のような表示により拡大、縮小又は回転の中心が一目で
認識できることになる。マウス等のポインティングデバ
イスで指定した点が図49に示すようにポリゴンの中であ
ると回転、外であると平行移動、周縁であると拡大・縮
小が指示されることになる。そして次の操作でその量が
指定されることになる。
【0120】
【発明の実施の形態】以下第4群の発明をその実施の形
態を示す図面に基づいて詳述する。図50は本発明の3次
元形状モデル表示装置のブロック図である。図において
60はディスプレイ装置であり、マウス等のポインティン
グデバイス61を備えている。3次元形状モデルの形状は
形状記憶部63に、位置は位置記憶部70に夫々記憶されて
おり、背景画像は背景画像記憶部62に記憶されている。
【0121】ガイドポリゴン生成部64は色解析部64a,色
選択部64b,形状決定部64c からなり、その後の操作に必
要となるガイドポリゴンの大きさ・色を決定する。色解
析部64a は背景画像記憶部62から背景画像の色情報を、
また形状記憶部63から3次元形状モデルの色情報を夫々
取込んで解析し、色選択部64b は背景及び3次元形状モ
デルの表示を妨げず、しかも視認し易い色を選択する。
形状決定部64c は表示すべきガイドポリゴンの形状, 寸
法を決定する。
【0122】図51は色選択のフローチャート、図52は形
状寸法決定のフローチャートである。まず背景画像記憶
部62及び形状記憶部63から夫々背景画像及び3次元形状
モデルの情報を取込み、背景画像に対してどの色相が何
%使用されているか(S75) 、また3次元形状モデルに対
してどの色相が何%使用されているかを調べる(S71)。
そして3次元形状の使用色相については適宜の重みづけ
をする(S72) 。ここまでが前述した色解析部64a の機能
であり、以下は色選択部64b の機能である。即ち以上の
解析の結果により、予め用意してある候補表示色中から
近郊の色相の量を調べる(S73) 。そして最も近郊の色相
が少ない候補表示色を選択してガイドポリゴンの色とす
る(S74) 。
【0123】次に形状・位置の決定について説明する。
まず形状記憶部63及び位置記憶部70からデータを取込ん
で3次元形状モデルの重心を算出する(S61) 。そしてこ
の重心をガイドポリゴンの中心とする(S62) 。次にこの
中心から3次元形状モデルの各頂点までの距離を求める
(S63) 。そして最長距離をガイドポリゴンの半径とし(S
64) 、このガイドポリゴンの情報をガイドポリゴン記憶
部65に記憶させる。球体でない正多面体をガイドポリゴ
ンとして用いる場合も同様の手法によればよい。
【0124】上述のようにして作成されたガイドポリゴ
ンは表示部66により、ディスプレイ装置60に表示され
る。表示部66はガイドポリゴン記憶部65、背景画像記憶
部62、形状記憶部63及び位置記憶部70から読み出した内
容を重ね合わせる重ね合わせ部66a 及びこれをディスプ
レイ表示装置60に表示するための変換を行うディスプレ
イ表示部66b からなる。
【0125】一方、ポインティングデバイス61からの入
力はインターフェース部67へ取込まれる。入力制御部67
a はポインティングデバイス61の制御を行うものであ
り、マウスのドラッグのように入力が直前の操作と連動
している場合は直前に行った変換の続きと判断する。操
作位置判別部67b は入力された操作開始点がガイドポリ
ゴンの外側か内側か境界上かを判別し、外側で操作した
場合は平行移動を、内側で操作した場合は回転を、境界
線上で操作した場合は拡大縮小を行う。また、直前に行
った変換の続きであれば、前変換と同じ変換処理を選択
する。
【0126】図53はこの操作位置判別部67b の処理手順
を示すフローチャートである。ガイドポリゴン生成部64
で決定した半径をrとし(S81) 、ポインティングデバイ
ス61による指定点、即ち操作開始点とガイドポリゴンの
中心点との距離lを求める(S82) 。そしてr=lの場合
は(S83) 拡大縮小処理(S86) 、r>lの場合は回転処理
(S87) 、r<lの場合は平行移動処理(S85) をする。
【0127】而して操作位置情報又は操作位置判別情報
は変換量決定部68へ入力され、その平行移動量決定部68
a 、拡大縮小量決定部68b 及び回転量決定部68c で夫々
平行移動量、拡大縮小量及び回転量が決定され、これら
の変換量は変換部69へ与えられ、ここで変換量に応じた
変換が行われる。平行移動部69a,拡大縮小部69b 及び回
転部69c は夫々平行移動, 拡大縮小及び回転を行わせ
る。
【0128】次にこれらの変換について説明する。まず
平行移動はポリゴン外の領域 (図49参照) にカーソルを
位置させてクリックする等の方法により平行移動を指定
し、カーソルを所望方向へ移動 (ドラッグ) する。これ
により3次元形状モデル及びポリゴンが連動移動する。
なお移動の単位はピクセルである。この平行移動はそれ
自体公知の各種の技法を用い得る。
【0129】次に拡大縮小について説明する。図54はそ
の原理説明図であり、まずガイドポリゴンの周縁の点P
1 でクリックし、ドラッグしていって次いで拡大又は縮
小したい倍率に応じた位置P2 でクリックする。ガイド
ポリゴンの中心を0とするとバーOP2 /バーOP1 に拡大
又は縮小されることになる。拡大縮小自体の処理につい
てはそれ自体公知の技法を適宜用いればよい。
【0130】次に回転について説明する。図55はその原
理説明図、図56は回転のための処理手順を示すフローチ
ャートである。図55においてDはディスプレイ装置60の
2次元平面、Hは光体的に表したガイドポリゴンの中心
を通るDに平行な平面である。いま点P1 でクリックし
て回転を指示し、ドラッグしていき、αP だけ回転した
2 点でクリックしたとする(S91) 。このP1 , P2
ガイドポリゴンに投影した点R1 , R2 を算出する(S9
2) 。∠P2 O′P1 (O′は平面Dにおけるガイドポ
リゴンの中心)=αP とおく(S93) 。次に∠R1 OR2
を求めてこれをα r とする。次にR1 O,R2 O(Oは
平面H上のポリゴン中心)がなす角度を求め、この∠R
1 OR2 をαr とする(S94) 。次に基準点O上の基準線
LをバーR 1 O及びバーR2 Oに垂直な直線として規定
する(S95) 。そしてこの軸L を中心としてαr だけ回転
する(S96) 。回転量決定以後の処理については公知の図
形回転手法によればよい。このような回転操作の際には
球体をガイドポリゴンとして使用する場合もその経線,
緯線上をなぞるか又はこれを参照することで簡単に回転
操作が行える。以上のようにして変換されたモデルはそ
の位置記憶部70へ入力され、記憶される。
【0131】図57はこの3次元形状モデル表示装置の全
体的フローチャートである。前述のようにまず、ガイド
ポリゴンの決定をし(S101)、次いで背景, 3次元形状モ
デル及びガイドポリゴンの混合表示をし(S102)、次いで
オペレータによる変換指定があると(S103)、操作領域又
は移動、拡大縮小、回転の判別を行い(S104)、変換量を
決定して(S106)、その変換を実行する(S107)。
【0132】
【発明の効果】以上の如き本発明による場合は拡大縮小
又は回転の原点(中心)を直感的に認識することができ
る。また3次元形状モデルの姿勢がガイドポリゴンとの
対比により認識し易い。またガイドポリゴンの色が自動
的に定まるので3次元形状モデルが見難くなる虞れはな
い。また移動、拡大縮小、回転に関してモード切替の煩
雑な操作、特別なデバイスを必要としない。更に回転に
ついてはディスプレイ装置の2次元表示平面での2自由
度の入力だけで3自由度の回転量、方向の入力ができ、
しかもその操作はガイドポリゴンの形状に倣えばよく容
易である。
【0133】[第5群の発明] (概要)第5群の発明は合成画像生成部4に関し、実写映
像とCGとを容易に自動合成できる画像列生成方法及びそ
の装置に関する。
【0134】
【従来の技術】VTR 上記録した実写映像とCGとを合成す
る場合、前者のフレーム数が固定されているのでCGの描
画処理をそれに合わせる必要があり、従って映像の再生
とCGの描画処理との同期を1フレームずつ手作業的にと
っていく必要があった。
【0135】
【発明が解決しようとする課題】このために多数のフレ
ームの画像列を作成するのに膨大な工数を必要としてい
た。本発明はこのような問題点を解決するためになされ
たものであり、合成処理の自動化を可能とした画像列生
成方法及び装置を提供することを目的とする。
【0136】第1発明は、フレーム単位で管理されてい
る映像とコンピュータグラフィックスとを合成して複数
フレームの画像列を生成する方法において、識別番号に
よって特定される複数の映像を含む映像データ、識別番
号によって特定される複数の物体、各物体に貼り付ける
べき映像を特定する映像の識別番号及び該映像中の貼り
付けに係るフレーム番号を含む物体データ、並びに、合
成に係る物体の識別番号及び映像の再生開始時刻を含む
合成データを用い、合成データ中の映像の再生開始時刻
に従い、物体の識別番号で特定される物体の表面に、物
体データ中の映像の識別番号及びフレーム番号で特定さ
れる映像を貼り付けることを特徴とする。
【0137】第2発明は、前記合成データ中の映像の再
生開始時刻及び物体データ中に定められた再生開始フレ
ーム番号に基づき各時刻における貼り付け映像のフレー
ムを決定することを特徴とする。第3発明は、前記映像
データはフレーム間間隔時間を含み、該フレーム間間隔
時間に基づき合成処理の時刻とフレーム番号との関係を
定めることを特徴とする。
【0138】これらの発明によれば、フレーム管理され
ている映像をCGの物体に貼り付けるに際し、物体表示の
時間軸上に所要の映像のフレームを取込んで貼り付ける
ことができる。この場合において、フレームごとの処理
を必要とせず、自動的な時間調整ができる。
【0139】
【発明の実施の形態】以下第5群の発明をその実施の形
態を示す図面に基づき詳述する。図58は本発明の画像列
生成装置のブロック図であり、合成対象の映像のデータ
及びCGの物体データ並びにこれらの合成に関連する合成
データ並びに合成済の画像列を記憶してあるディスク装
置71と、合成データに従って映像データ及びCGの物体デ
ータを用いて画像合成する合成部72、合成部72中の共有
メモリ72f 及びディスク装置71中にある映像データを管
理する映像データ管理部73、並びにリアルタイム表示の
ために、実時間と、合成画像列の各時刻の情報を記述す
るスケジュール表中の時刻との対応をとり、合成結果を
ディスプレイ装置75に表示させる実時間制御部74を備え
る。
【0140】以下まず各情報について説明する。表2は
映像データのフォーマットの1例を示している。このデ
ータは一連の映像を特定し、その仕様等を表す情報を含
むヘッダー部と連続する複数フレームの画像データとか
らなる。画像データは例えばVTR に収録した映像信号を
ディジタルのRGB のデータに変換してなるものである。
ヘッダー部はこの一連の画像を特定する映像ID、横, 縦
の解像度、フレーム数及びフレーム間間隔時間 (msec単
位) からなっている。
【0141】一方、CGの物体データは図59に示すように
なっている。図において左上のNは表のサイズ、即ちID
で特定される物体の数を示している。この物体ごとに形
状情報 (頂点座標表、面表) 表面情報及び映像再生開始
時刻を記憶している。形状情報、表面情報は表のポイン
タとなっている右上に示すような直方体の物体の場合に
つき形状情報を例示している。頂点座標表は8つの頂点
を特定する頂点ID (0〜7) と夫々のx, y, z座標値
とからなる。面表は6つの面を特定する面ID(0〜5)
と夫々の面を特定する頂点IDとからなる。
【0142】
【表2】
【0143】表面情報は直方体のプリミティブに貼り付
ける映像の情報であり、6つの面IDに対応してこれに貼
り付けるべき映像のID、該映像の使用開始フレームの番
号、色値(RGB )/画像ポインタ、各面の拡散係数、反
射係数及び透過係数を含んでいる。映像を貼り付けない
場合、即ち映像IDがMOVIE …でない場合は映像IDをNIL
として、色値/画像ポインタを夫々表示すべき色のRGB
に応じた値にする。この場合は開始フレーム番号は使用
せず0とする。これに対してIDがMOVIE −*の場合は画
像データへのポインタが設定される。映像再生開始時刻
は映像の再生を開始する時刻を設定しており、映像貼付
と無関係な物体については使用しない。
【0144】表3及び図60は合成データを示している。
表3は合成データのうちの映像再生時刻表であり、物体
IDと、映像の再生開始時刻 (msec) と開始フレームの番
号からなっている。例えば0000002 の物体にはこれに貼
り付ける映像を100msec の時刻 (後述のTi と同スケー
ル) から再生し、その開始フレームは当該映像データの
第15フレームからである情報となっている。
【0145】
【表3】
【0146】図60は合成データ中のタイムスケジュール
であり、合成シーンが変化する時刻ごとに物体の視点情
報(x,y,z座標などの視点の位置及び視点の方向)
及び物体情報(物体の個数及び個々の物体の情報) を有
している。物体の情報は表へのポインタとなっており、
この表は物体のID及びx,y,z座標系におけるその中
心位置及びその姿勢に係る回転情報を含む。回転情報は
座標軸中心の回転角度を示す。合成シーンの時刻Ti は
合成映像の最初のフレームの時刻を0とした相対時刻
(msec) である。なお物体のIDの前の0X8,0X4 及び0X0
は夫々光源物体、映像物体及び通常物体を表す。つまり
光源物体はCGの描画処理で光源として取扱う物体、映像
物体は表面に映像を貼り付ける物体であり、通常物体は
その他の物体である。物体IDは光源物体マスク0X800000
00、映像物体マスク0X40000000又は通常物体マスク0X00
000000と物体番号との和となっている。従って0X400000
02は映像を貼り付けるNo2 の物体であること示してい
る。
【0147】合成部72の合成データ入力部72a は図61に
示す処理を行う。まずディスク装置71から物体データを
読込み共有メモリ72f に図59に示した如き物体表を作成
する(S111)。次に合成データの映像再生開始時刻表を読
込む(S112)。次に物体表中の映像物体のフレーム番号、
映像再生開始時刻に映像再生開始時刻表中の値を設定す
る(S113)。次いでi=0、t=1(tは時間の遅れを調
節する変数)に設定し(S114)、合成データのうちの時刻
Ti (i=0)のデータを共有メモリ72f へ読込みスケ
ジュール表を作成する(S115)。これに基づき合成部72は
合成画像を作成する(S116)。そしてスケジュール表を共
有メモリから解放し(S117)、全てのTiについて読込を
終了するまでiをi+tにインクリメントしてS115〜S1
17を反復する(S118)。
【0148】合成部72の表面属性決定部72b は各時刻に
おける各物体の表面属性を決定するものであり、映像物
体の場合には時刻、物体表のポインタを映像データ管理
部73へ渡す。映像データ管理部73によって物体表の画像
ポインタフィールドに各面の画像ポインタデータを設定
する。光源物体、通常物体の場合は物体表に設定された
値を使用する。
【0149】図62はその処理手順を示すフローチャート
であり、物体表での番号を示すIを“0”(先頭アドレ
ス)とし(S121)、物体表のN (表の大きさ又は物体数)
と比較し(S122)、N>Iである場合(NO)はその物体の物
体マスクを調べ(S123)、0X4である場合は映像物体であ
るとして番号Iの映像再生開始時刻=stとし(S124)、
これを実時刻Ti ( 但し合成画像の第1フレームがTi
=0msec) と比較し(S125)、stがTi より小さい間は
時刻Ti のポインタの情報を映像データ管理部73へ渡す
(S126)。
【0150】映像データ管理部73では物体Iの各面の色
値/画像データのフィールドに画像データへのポインタ
を設定する(S127)。そしてIをI+1にインクリメント
して(S128)、S122へ戻る。なおS125でst>Ti となっ
た場合はIをインクリメントする。以上の処理をI=N
まで反復する。
【0151】映像データ管理部73は共有メモリ72f 、及
びディスク上にある映像データを表4に示す如き映像管
理表で管理する。この映像管理表は予め作成しディスク
に格納しておき、システムの起動時に共有メモリ72f 上
に置く。まず、共有メモリ中の画像データを全て解放
し、映像管理表の画像データへのポインタ、及び物体表
の色値/画像ポインタフィールドをNIL にする。
【0152】次に、表面属性決定部72b から受け取った
時刻、物体表のポインタの情報を用いて、連続画像列か
らその時刻におけるフレーム番号を決定する。そのフレ
ーム番号に対応する画像データが、共有メモリ72f にあ
る場合は、その画像データへのポインタを、なければデ
ィスク装置71からデータを読出してその画像データへの
ポインタを物体表の色値/画像ポインタフィールドに格
納する。映像管理表は映像データから得た映像ID、解像
度、フレーム数、フレーム間間隔時間と、これを記録し
てあるディスクの場所と前述のフレーム番号及びポイン
タとからなる。
【0153】
【表4】
【0154】図63は映像データ管理部73の処理手順を示
すフローチャートである。まず共有メモリ72f の全画像
データを解放し、その画像データへのポインタをNIL と
する(S131)。次いで面の番号を表す変数jを“0”とす
る(S132)。そして面の数Nとjとを比較し(S133)、jが
Nより小さい場合は初期値の設定をする(S134)。映像ID
の番号をiとするとFi はiの開始フレーム番号、st
は映像再生開始時刻、Lは全フレーム数、Δft はフレ
ーム間間隔時間であり、これらの設定を行う。
【0155】次にL=1であるか否かを調べ(S135)、L
=1である場合は静止画であるとして時刻Ti のフレー
ム番号Fi =0とする(S140B) 。L=1でない場合は後
述する式(1) によりFi を決定する(S136)。このように
して決定したFi の画像が共有メモリ72f の領域にある
か否かを調べ(S137)、この領域にある場合はj=j+1
とインクリメントして(S140A)、次の面の処理に入るべ
くS133へ戻る。無い場合はiの映像のデータを共有メモ
リ72f の領域へ読込む(S138)。そして映像管理表のiの
該当する部分にフレーム番号Fi とポインタとを設定す
る(S139)。そして物体表のiに該当する物体のjの面の
色値/ポインタフィールドにその画像のポインタを設定
する(S140)。そしてjをインクリメントし、S133へ戻
る。この処理をN=jになるまで反復する。
【0156】図64はフレーム番号計算の説明図である。
上側の軸は合成画像の第1フレームを0とする合成シー
ンの時刻Ti であり、下側の軸は映像フレームの番号を
示している。図59の物体データの物体ID=0X40000002の
例ではst=100msec 、sf=15である。今、i=5の
場合 (T=5) についてそのフレーム番号を求める式を
示す。
【0157】
【数3】
【0158】となる。一般式は下の(1) 式のようにな
る。
【0159】
【数4】
【0160】なおΔft はフレーム間間隔時間であり、
mod Lは全フレーム数Lで割った余りを示す。映像が最
終フレームになった場合は第1フレームに戻る。
【0161】合成部72の座標変換部72c はスケジュール
表中のその時刻に記述されている全ての物体について、
その視点情報, 物体の配置情報を用いて座標変換するも
のである。この座標変換には、通常のCGの座標変換技法
(回転, 移動, 透視変換) を用いる。また、隠面消去処
理部72d は座標変換部72c が座標変換を行った全ての物
体の各面について、視点の位置から順番に奥行方向に並
べる。そして、光源情報と、物体の各面の表面属性 (色
値, 反射係数, 透過係数, 拡散係数) 、及び映像物体の
各面に貼り付けるフレーム画像を用いて、通常のCGの描
画技法 (Zバッファ等)を用いて各面の色・影付け処理
を行い、各時刻の合成画像を生成する。
【0162】次に合成画像出力部72e について説明す
る。図65は合成処理出力部の処理手順を示すフローチャ
ート、図66はその生成データのフォーマット図である。
隠面消去処理部72d が生成した合成画像に図65に示すよ
うにヘッダー情報を付加する(S141)。ヘッダー情報は一
連の画像列データの最初のみに付される横縦の解像度情
報と各フレーム毎に与えられる再生時刻及びフレーム番
号である。そしてリアルタイム表示の要否を調べ(S14
2)、不要な場合はディスク装置71に記録する。リアルタ
イム表示が必要な場合は実時間制御部74へデータを渡す
(S144)。そして表示フラグFを調べ(S145)、F=1 (セ
ット) の場合はディスプレイ装置75に合成画像を表示さ
せ(S146)、処理の流れの調節のために設けた変数tを1
とする(S147)。F=0の場合はt=t+Pとする(S14
8)。ここにPも処理の流れを調節する定数である。
【0163】図67は実時間制御部の処理手順を示すフロ
ーチャートである。この図においてTは前述のように第
0フレームを0とする時刻である。またTr は計算機が
有している現在の実時刻、Trsは第0フレームの画像を
ディスプレイ装置75に出力した実時刻である。そしてE
は処理にかかる見込み時間(定数値)である。まずTr
を読込み(S151)、 Δt=Tr −Trs−E を計算する(S152)。このΔtは実時間をTi と同じフレ
ーム上での時間軸に変更してある値である。次にΔtと
Ti とを比較し(S153)、Δt≦Ti である場合はすでに
ディスプレイ装置75に表示すべきタイミングを逸してし
まったものとしてフラグFを0とする(S156)。そうでな
い場合はΔtとTi との差Δsを計算する(S154)。そし
てソフトウェア割込をΔsmsec後に発生するように設定
し(S155)、この割込を待つ(S156)。そしてフラグF=1
とする。
【0164】表示フラグF=0/1により合成画像出力
部72e のフローチャートではt=(t+P)/1とな
る。t+Pは1より大きいから表示の時間遅れが出てい
る場合は合成画像出力部72e での時間の流れを遅くして
Ti をΔtに対して相対的に小とすることとした。これ
によって表示遅れが解消されることになる。
【0165】
【発明の効果】以上の如き本デバイス発明による場合は
各フレームごとにコマ(フレーム)合わせの作業が不要
となり、合成作業が簡略化できる。
【図面の簡単な説明】
【図1】本発明のシステムの説明図である。
【図2】特定物体領域の抽出部の処理の流れ図である。
【図3】動画オブジェクトの構造の説明図である。
【図4】第1群の発明の実施に使用する装置のブロック
図である。
【図5】処理の流れ図である。
【図6】特定物体の領域指定の説明図である。
【図7】3次元形状情報付加処理のフローチャートであ
る。
【図8】稜線及び端点の奥行の指定の説明図である。
【図9】稜線指定の説明図である。
【図10】3次元形状抽出装置のブロック図である。
【図11】3次元形状抽出方法のフローチャートであ
る。
【図12】基本形状の立体図である。
【図13】基本形状と画像との重畳表示例を示す説明図
である。
【図14】物体領域抽出の説明図である。
【図15】基本形状の位置移動の処理のフローチャート
である。
【図16】基本形状の位置移動の処理の説明図である。
【図17】基本形状の回転の処理のフローチャートであ
る。
【図18】基本形状の回転の処理の説明図である。
【図19】大きさ変更処理のフローチャートである。
【図20】大きさ変更処理の説明図である。
【図21】マッピングの説明図である。
【図22】従来の画像合成方式の説明図である。
【図23】第1領域抽出装置のブロック図である。
【図24】領域抽出のフローチャートである。
【図25】領域抽出の説明図である。
【図26】第2領域抽出装置のブロック図である。
【図27】領域抽出のフローチャートである。
【図28】領域抽出の説明図である。
【図29】第3〜6領域抽出装置のブロック図である。
【図30】領域抽出のフローチャートである。
【図31】領域抽出の説明図である。
【図32】第3,4,7,8の領域抽出装置のブロック
図である。
【図33】領域抽出のフローチャートである。
【図34】領域抽出の説明図である。
【図35】第3,4の領域抽出装置のブロック図であ
る。
【図36】エッジ処理のフローチャートである。
【図37】エッジ処理の説明図である。
【図38】エッジ処理の説明図である。
【図39】第10の領域抽出装置のブロック図である。
【図40】雑音消去のフローチャートである。
【図41】雑音消去の説明図である。
【図42】第10の領域抽出装置のブロック図である。
【図43】雑音消去のフローチャートである。
【図44】雑音消去の説明図である。
【図45】第11の領域抽出装置のブロック図である。
【図46】雑音消去のフローチャートである。
【図47】雑音消去の説明図である。
【図48】ポリゴンの表示例を示す画面図である。
【図49】操作の説明図である。
【図50】3次元形状モデル表示装置のブロック図であ
る。
【図51】ガイドポリゴンの色選択のフローチャートで
ある。
【図52】ガイドポリゴンの形状決定のフローチャート
である。
【図53】操作位置判別の寸法フローチャートである。
【図54】拡大縮小の原理説明図である。
【図55】回転の原理説明図である。
【図56】回転のフローチャートである。
【図57】3次元形状モデルの表示装置の全体的ブロッ
ク図である。
【図58】画像列生成装置のブロック図である。
【図59】物体データの例を示す説明図である。
【図60】合成データの例を示す説明図である。
【図61】合成データ入力部の処理手順を示すフローチ
ャートである。
【図62】表面属性決定部の処理手順を示すフローチャ
ートである。
【図63】映像データ管理部の処理手順を示すフローチ
ャートである。
【図64】フレーム番号計算の説明図である。
【図65】合成処理出力部の処理手順を示すフローチャ
ートである。
【図66】合成処理出力部の生成データのフォーマット
図である。
【図67】実時間制御部の処理手順を示すフローチャー
トである。
【符号の説明】
1 特定物体領域抽出部 2 3次元形状情報付加部 3 映像CGモデル生成部 4 合成画像生成部 5 画像記憶部 6 形状・表面属性情報記憶部 7a,7b CGモデル記憶部 8 合成情報記憶部 10 画像表示装置 12 ポインティング装置 13 CGモデル作成部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 椎谷 秀一 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (56)参考文献 特開 平1−131976(JP,A) 特開 平6−162165(JP,A) 特開 平3−138784(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 5/262 G06T 15/70 G06T 17/40

Claims (3)

    (57)【特許請求の範囲】
  1. 【請求項1】 フレーム単位で管理されている映像とコ
    ンピュータグラフィックスとを合成して複数フレームの
    画像列を生成する方法において、識別番号によって特定
    される複数の映像を含む映像データ、識別番号によって
    特定される複数の物体、各物体に貼り付けるべき映像を
    特定する映像の識別番号及び該映像中の貼り付けに係る
    フレーム番号を含む物体データ、並びに、合成に係る物
    体の識別番号及び映像の再生開始時刻を含む合成データ
    を用い、合成データ中の映像の再生開始時刻に従い、物
    体の識別番号で特定される物体の表面に、物体データ中
    の映像の識別番号及びフレーム番号で特定される映像を
    貼り付けることを特徴とする画像列生成方法。
  2. 【請求項2】 前記合成データ中の映像の再生開始時刻
    及び物体データ中に定められた再生開始フレーム番号
    基づき各時刻における貼り付け映像のフレームを決定す
    る請求項1記載の画像列生成方法。
  3. 【請求項3】 前記映像データはフレーム間間隔時間を
    含み、該フレーム間間隔時間に基づき合成処理の時刻と
    フレーム番号との関係を定める請求項1記載の画像列生
    成方法。
JP31033999A 1994-03-17 1999-10-29 画像列生成方法 Expired - Lifetime JP3364682B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31033999A JP3364682B2 (ja) 1994-03-17 1999-10-29 画像列生成方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP6047491A JP3030485B2 (ja) 1994-03-17 1994-03-17 3次元形状抽出方法及び装置
JP31033999A JP3364682B2 (ja) 1994-03-17 1999-10-29 画像列生成方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP6047491A Division JP3030485B2 (ja) 1994-03-17 1994-03-17 3次元形状抽出方法及び装置

Publications (2)

Publication Number Publication Date
JP2000152079A JP2000152079A (ja) 2000-05-30
JP3364682B2 true JP3364682B2 (ja) 2003-01-08

Family

ID=26387666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31033999A Expired - Lifetime JP3364682B2 (ja) 1994-03-17 1999-10-29 画像列生成方法

Country Status (1)

Country Link
JP (1) JP3364682B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011022726A (ja) 2009-07-14 2011-02-03 Sony Corp 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
JP2000152079A (ja) 2000-05-30

Similar Documents

Publication Publication Date Title
JPH07262410A (ja) 画像合成方法及び装置
Sinha et al. Interactive 3D architectural modeling from unordered photo collections
US9282321B2 (en) 3D model multi-reviewer system
JP3634677B2 (ja) 画像の補間方法、画像処理方法、画像表示方法、画像処理装置、画像表示装置、及びコンピュータプログラム記憶媒体
RU2215326C2 (ru) Иерархическое основанное на изображениях представление неподвижного и анимированного трехмерного объекта, способ и устройство для использования этого представления для визуализации объекта
US7920144B2 (en) Method and system for visualization of dynamic three-dimensional virtual objects
US9014507B2 (en) Automatic tracking matte system
JP5299173B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
US20140125654A1 (en) Modeling and Editing Image Panoramas
JP2000067267A (ja) 三次元シーンにおける形状及び模様の復元方法及び装置
JP3104638B2 (ja) 3次元画像作成装置
JPH10240908A (ja) 映像合成方法
JP2832463B2 (ja) 3次元モデルの再構成方法および表示方法
JP3732158B2 (ja) 3次元形状モデルの表示方法及び装置
JP3364682B2 (ja) 画像列生成方法
Jancene et al. Res: computing the interactions between real and virtual objects in video sequences
Leung et al. Realistic video avatar
JP3309841B2 (ja) 合成動画像生成装置および合成動画像生成方法
JP3345808B2 (ja) 3次元形状モデルの表示方法及び装置
Borshukov New algorithms for modeling and rendering architecture from photographs
JPH11175765A (ja) 3次元モデル作成方法、3次元モデル作成装置及び記憶媒体
JP3575469B2 (ja) 合成動画像生成装置および合成動画像生成方法
JP3683927B2 (ja) コンピュータ・グラフィック制作システム及びその制御方法
US20230196702A1 (en) Object Deformation with Bindings and Deformers Interpolated from Key Poses
JP2000057376A (ja) 新視点画像生成方法

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20021001

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081101

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081101

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091101

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101101

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101101

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111101

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111101

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121101

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121101

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131101

Year of fee payment: 11

EXPY Cancellation because of completion of term