JPH07334703A - 3次元映像処理装置及び方法 - Google Patents
3次元映像処理装置及び方法Info
- Publication number
- JPH07334703A JPH07334703A JP12903494A JP12903494A JPH07334703A JP H07334703 A JPH07334703 A JP H07334703A JP 12903494 A JP12903494 A JP 12903494A JP 12903494 A JP12903494 A JP 12903494A JP H07334703 A JPH07334703 A JP H07334703A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- coordinate system
- dimensional
- image
- perspective transformation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
像から任意の仮想視点からの対象物体の2次元映像を得
る。 【構成】 対象物体1を互いに異なる複数方向から撮影
する複数台の撮影装置2a〜2cの実際の位置と仮想座
標系内での位置との各関係を求め、対象物体1を仮想座
標系内に位置させたと想定して、先に求めた各関係を用
いて、各撮影装置2a〜2cから仮想座標系内の対象物
体を見た場合の各透視変換作用前映像Pivを求める。求
められた各透視変換作用前映像Pivを用いて、任意の仮
想視点から仮想座標系内の対象物体を見た場合の透視変
換作用前映像Pnvを求める。次に、求められた透視変換
作用前映像Pnvを2次元映像Pn に変換したのち2次元
表示装置に表示する。
Description
の映像を得るための3次元映像処理装置及び3次元映像
処理方法に関する。
得るためには、対象物体をコンピュータグラフッイクス
を利用したCAD等を用いて3次元モデル化し、この3
次元モデル(CADモデル)を仮想座標系内に配置させ
る。そして、この仮想座標系内の任意位置に仮想視点を
設け、この仮想視点から前記CADモデルを見た場合の
2次元影像を作成して、表示装置に2次元表示する。
しながら仮想座標系内の仮想視点を任意位置へ移動させ
ることが可能である。よって、観察者は3次元の対象物
体を任意の方向から見ることができる。なお、仮想視点
を目の間隔だけ離れて2か所設けて、それぞれの2次元
画像を異なる画面に表示して、各画面をそれぞれの眼で
見ることによって、対象物体の3次元立体画像を観察で
きる。
Dを用いて3次元モデル化した映像は、実際の対象物体
と比較すると精度が悪く、リアリティの低いものであっ
た。さらに、このように、たとえ精度の低いモデルで
も、複雑な対象物体をCADでモデル化するには膨大な
時間と労力が必要である。
する手法として、実際の対象物体の周囲を光切断手法を
用いて、カメラで順番に撮影していき、距離情報を求め
て、3次元CADモデルを構築する手法がある。しか
し、この手法においても、結局はコンピュータグラフィ
クスによるモデル構築手法であるので、やはり、リアリ
ティが低いものである。
ものであり、3次元の対象物体の互いに異なる複数方向
からみた2次元画像を得るのみで、簡単に任意の仮想視
点から対象物体に対する透視変換作用前映像が得られ、
従来のCADモデルを用いた手法に比較して、観察すべ
き対象物を簡単に変更でき、操作性を大幅に向上でき、
かつ仮想視点を迅速に移動でき、さらに実画像による3
次元映像処理装置及び3次元映像処理方法を提供するこ
とを目的とする。
に本発明の3次元映像処理装置においては、互いに異な
る複数方向から投影した3次元の対象物体の各2次元映
像を得る手段と、対象物体に対する各投影位置及び姿勢
と任意に設定された仮想座標系内における各投影位置及
び姿勢との間の各変換情報を求める仮想地図作成手段
と、任意に設けられる仮想視点の仮想座標系内における
位置及び姿勢を求める仮想視点算出手段と、対象物体を
仮想座標系内に位置させたと想定して、各変換情報を用
いて、仮想座標系内における各投影位置から同じく仮想
座標系内の対象物体を見た場合の各透視変換作用前映像
を求める手段と、この求められた各透視変換作用前映像
を用いて、仮想座標系内の仮想視点から対象物体を見た
場合の透視変換作用前映像を求める手段と、この求めら
れた透視変換作用前映像を2次元映像に透視変換する手
段と、この変換された2次元映像を表示する2次元表示
装置とを備えている。
置においては、3次元の対象物体を互いに異なる方向か
ら撮影してそれぞれ2次元映像を得る複数台の撮影装置
と、この各撮影装置の設置位置及び姿勢と任意に設定さ
れた仮想座標系内における各撮影装置の位置及び姿勢と
の間の各変換情報を求める仮想地図作成手段と、任意に
設けられる仮想視点の仮想座標系内における位置及び姿
勢を求める仮想視点算出手段と、対象物体を仮想座標系
内に位置させたと想定して、各変換情報を用いて、仮想
座標系内における各撮影装置から同じく仮想座標系内の
対象物体を見た場合の各透視変換作用前映像を求める手
段と、この求められた各透視変換作用前映像を用いて、
仮想座標系内の仮想視点から対象物体を見た場合の透視
変換作用前映像を求める手段と、この求められた透視変
換作用前映像を2次元映像に透視変換する手段と、この
変換された2次元映像を表示する2次元表示装置とを備
えたものである。
た3次元映像処理装置における各撮影装置を、それぞれ
所定の焦点距離を有した集光機構が組込まれたカメラで
構成している。これに伴って、透視変換作用前映像を求
める場合に焦点距離が組込まれた透視変換情報を用い
る。
の仮想視点の仮想座標系内の位置及び姿勢は、2次元表
示装置の観察者に取付けられこの観察者の視野方向を計
測する計測装置の出力と、観察者が自己の移動情報を入
力する入力装置の出力とで決定している。
おいては、3次元の対象物体を互いに異なる方向から撮
影してそれぞれ2次元映像を得る複数台の撮影装置と、
この各撮影装置の設置位置及び姿勢と任意に設定された
仮想座標系内における各撮影装置の位置及び姿勢との間
の各変換情報を求める仮想地図作成手段と、観察者に取
付けられ、この観察者の両眼の各視野にそれぞれ入る一
対の2次元表示装置が組込まれたHMD(ヘット・マン
テッド・デイスプレイ)と、観察者に取付けられ、この
観察者の視野方向を計測する計測装置の出力と観察者が
自己の移動情報を入力する入力装置の出力とから仮想座
標系内における観察者の両眼を示す各仮想視点の各位置
及び各姿勢を求める仮想視点算出手段と、対象物体を仮
想座標系内に位置させたと想定して、各変換情報を用い
て、仮想座標系内における各撮影装置から同じく仮想座
標系内の対象物体を見た場合の各透視変換作用前映像を
求める手段と、この求められた各透視変換作用前映像を
用いて、仮想座標系内の一対の仮想視点から対象物体を
見た場合の一対の透視変換作用前映像を求める手段と、
この求められた一対の透視変換作用前映像をそれぞれ2
次元映像に透視変換する手段と、この変換された一対の
2次元映像を一対の2次元表示装置へ表示する表示制御
手段とを備えたものである。
手段で得られる各変換情報を予め不揮発性メモリに書込
まれている。さらに、請求項7の3次元画像処理方法に
おいては、複数台の撮影装置で3次元の対象物体を互い
に異なる方向から撮影してそれぞれ2次元映像を得て、
各撮影装置の設置位置及び姿勢と任意に設定された仮想
座標系内における各撮影装置の位置及び姿勢との間の各
変換情報を求め、任意に設けられる仮想視点の仮想座標
系内における位置及び姿勢を求め、対象物体を仮想座標
系内に位置させたと想定して、各変換情報を用いて、仮
想座標系内における各撮影装置から同じく仮想座標系内
の対象物体を見た場合の各透視変換作用前映像を求め、
この求められた各透視変換作用前映像を用いて、仮想座
標系内の仮想視点から対象物体を見た場合の透視変換作
用前映像を求め、この求められた透視変換作用前映像を
2次元映像に透視変換し、この変換された2次元映像を
2次元表示装置に表示するようにしている。
元映像処理方法においては、一つの対象物体に対して互
いに異なる複数方向から見た複数枚の2次元映像が得ら
れる。
向から見た2枚の2次元映像を得て、対象物体における
任意部位の各2次元映像上における座標の相互関係が得
られれば、これらの2次元映像から任意に設定された仮
想座標系内における座標で示される対象物体の3次元映
像が定まる。
元映像を実際に特定する場合においては、対象物体を構
成する各部位の2次元座標系又は3次元座標系における
それぞれの2次元座標又は3次元座標を特定する必要が
あるが、この明細書においては、説明を簡単にするため
に、これら一群の2次元座標又は3次元座標を便宜的に
一つの2次元映像又は3次元映像と表記する。
像が特定できれば、この仮想座標系内における任意の仮
想視点からこの対象物体の3次元映像を見た場合におけ
る透視変換作用前映像が得られる筈である。しかし、こ
の場合、一旦、対象物体の3次元映像を作成して、その
後に任意の仮想視点からの透視変換作用前映像を得るの
で、演算処理量が増大する。
おいては、予め、仮想座標作成手段によって対象物体に
対して3方向から見た場合の各2次元映像Pi (i=1,
2,3)を、この対象物体を仮想座標系内に設置させた場合
の3次元映像P0 から各2次元映像Pi までの各変
換情報Mi を算出しておく。
知数の状態で、仮想座標系内で3次元映像P0 を前記
3方向から見た場合における各透視変換作用前映像P
ivを、各2次元映像Pi から各変換情報Mi を用い
て複数の方程式の形で求める。前述したように、3次元
映像P0 は2枚の2次元映像Pi で一義的に求まる
ので、複数の方程式から対象物体の3次元映像P0 を
消去することによって、前記各透視変換作用前映像P
ivを複数枚の2次元映像Pi から算出できる。
透視変換作用前映像Pnvが前記各3次透視変換作用前
映像Pivから算出される。そして、実際に得られた仮
想視点の透視変換作用前映像Pnvから同仮想視点の2
次元映像Pn が求められて、2次元表示装置に表示さ
れる。
数方向から見て2次元映像を得る手段として、それぞれ
所定の焦点距離を有した集光機構が組込まれたカメラが
用いられている。したがって、焦点距離λの存在によっ
て発生する遠近効果を考慮するために、各透視変換作用
前映像Pivを求める場合に、焦点距離λが組込まれた
透視情報Si を用いる。
像Pi をそのまま使用しても、仮想視点から見た正確
な2次元画像Pn が得られる。請求項4の発明におい
ては、前記仮想視点の位置を2次元映像Pn の観察者
の視野方向及び観察者が指定する移動情報に連動して自
動的に変更するようにしている。
物体を任意の方向から見ることができる。さらに、請求
項5の3次元映像処理装置においては、観察者が装着す
る一対の2次元表示装置が組込まれたHMDを設け、仮
想視点を観察者の両眼に対応させて2つ設定し、各仮想
視点毎に、透視変換作用前映像Pnv及び2次元映像
Pn を得て、HMDの各2次元表示装置に表示させて
いる。
物体の3次元映像を見ることができる。さらに、請求項
6においては、仮想地図作成手段で得られる各変換情報
を予め不揮発性メモリに書込まれている。すなわち、各
撮影装置の位置が固定されていた場合は、仮想地図作成
手段で作成される変換情報も変化しないのでこれを不揮
発性メモリに記憶しておくことによって、この3次元映
像処理装置における稼働前の初期処理が簡素化される。
る。図1は実施例の3次元映像処理装置の概略構成を示
すブロック図である、対象物体1は互い異なる方向から
3台の撮影装置としてのカメラ2a,2b,2cにて撮
影される。それぞれ有限の焦点距離λi を有する集光レ
ンズが組込まれた各カメラ2a,2b,2cから出力さ
れた対象物体1の各2次元映像Pi(i=1,2,3 )を示
す信号はA/D変換器3でデジタル値に変換されて入力
バッファ4に記憶される。入力バッファ4に記憶され対
象物体1の各2次元映像Pi(i=1,2,3 )は画像間対
応付け部9を介して画像変換部5へ送出される。
図作成用のテストパターンや図5に示す3次元モデルを
撮影した場合に得られる校正用の2次元映像Pi (i=
1,2,3 )は仮想地図作成部6へ送出される。
ラメータの校正用の各2次元映像Pi (i=1,2,3 )を
観察し、操作するためのCRT表示装置7が接続されて
いる。 さらに、画像間対応付け部9には、キーボード
やマウス等て操作者が画像間の対応付け等の各種情報を
入力するためのCRT表示装置8が接続されている。
トパターンを用いて、一つの3次元の仮想座標系内にお
ける各カメラ2a.2b.2cの位置と姿勢の関係の情
報を示す仮想地図10を作成する。そして、仮想座標系
内における任意位置の3次元映像P0 をカメラ座標系
で見た場合の映像Pi (i=1,2,3 )に変換する場合の
各カメラ2a,2b,2c毎の変換情報としての各変換
変換行列Mi (i=1,2,3 )を算出して映像変換部5へ
送出する。
2b,2cの各焦点距離λi (i=1,2,3 )を測定して映
像変換部5へ送出する。一方、この3次元映像処理装置
を用いて対象物体1を観察する視点を移動させるための
例えば観察者11の頭部には複数の2次元表示装置とし
ての一対の小型ディスプレイが組込まれたHMD12を
装着する。さらに、観察者11の頭部にはこの観察者1
1の視野方向を定量的に検出するための計測装置13が
取付けられている。また、観察者11の前方位置には観
察者11自身が移動する方向と移動量を手動で入力する
ためのジョイステックやデータグローブ等からなる入力
装置14が設けられている。
せ、単眼としてCRT表示装置に2次元映像を表示させ
ることも可能である。計測装置13は、観察者11の頭
部を中心とする動きを、頭部の位置と姿勢を6自由度の
情報として検出する。また入力装置14は、観察者11
の進行方向の3自由度の情報と目の基準の高さを1自由
度の情報として検出する。計測装置13及び入力装置1
4で得られた合計10自由度の情報はA/D変換器15
でデジタル値に変換されて仮想視点算出部16へ送出さ
れる。
情報から、仮想地図10内における観察者11の左右の
各眼に対応する一対の仮想視点の各座標及び各姿勢等か
ら、前述した各カメラ2a,2b,2cと同様に、仮想
座標系内における任意の3次元映像P0 を各仮想視点
の視野座標系で見た場合の2次元映像Pn (n =1,2)
に変換する場合の各仮想視点毎の変換変換行列Mn を
算出して、映像変換部5へ送出する。
像算出部17と仮想視点透視変換作用前映像算出部18
と2次元映像算出部19とで構成されている。カメラ毎
透視変換作用前映像算出部17は、入力バッファ4から
画像間対応付け部9を介して入力された対象物体1の各
2次元映像Pi に対して仮想地図作成部6で作成され
た各カメラ2a,2b,2cの各変換行列Mi 及び各
カメラ2a,2b,2cの焦点距離λi (i=1,2,3 )を
用いて透視逆変換に相当する処理を実行する。すなわ
ち、対象物体1が仮想座座標系内に存在したと見なした
場合における各カメラ2a,2b,2cから該当対象物
体1を見た場合の各透視変換作用前映像Piv(i=1,2,
3 )を算出して、次の仮想視点透視変換作用前映像算出
部18へ送出する。
各カメラ2a,2b,2cの各変換行列Mi (i=1,2,
3 )と各仮想視点の各変換行列Mn (n=1,2 )とを用
いて、カメラ毎透視変換作用前映像算出部17から入力
された各カメラ2a,2b,2c位置における対象物体
1の各透視変換作用前映像Piv(i=1,2,3 )から各仮
想視点位置におけるそれぞれの透視変換作用前映像P
nv(n=1,2)を算出する。算出した各透視変換作用前映像
Pnv(n=1,2)を次の2次元映像算出部19へ送出す
る。
視点における透視変換作用前映像Pnv(n=1,2)に対し
て透視変換演算を行ってそれぞれ2次元映像Pn (n=
1,2)を得る。そして、算出した各2次元映像Pn (n=
1,2)を出力バッファ20へ一旦書込む。
元映像Pn (n=1,2)はD/A変換器21でアナログの
映像信号に変換されて、観察者11の頭部に取付けられ
たHMD12内の各小型ディスプレイにそれぞれ個別に
表示される。
型ティスプレイを左右の眼で見ることによって、対象物
体1の仮想視点からの3次元映像を見ることができる。
次に、このように構成された3次元映像処理装置の各部
の詳細動作を図2〜図12を参照しながら説明する。
に、テストパターン測定部6a,仮想座標指定部6b,
焦点距離算出部6c及びカメラ位置,姿勢演算部6dと
で構成されている。そして、仮想地図作成部6は、対象
物体1に対する撮影を開始する前に、仮想座標系(x,
y,z)内における各カメラ2a,2b,2cの相互の
位置関係(xi ,yi ,zi )及び姿勢(αi ,βi )
を決定して例えば図4に示す仮想地図10を作成する機
能を有する。
正処理を実行して仮想地図10を作成する。流れ図が開
始されると、テストパターン測定部6aによって、対象
物体1の代りに、一松模様のテストパターンが描かれた
用紙、又は図8(a)に示す簡単な3次元モデルを各カ
メラ2a,2b,2cで撮影して、入力バッファ4を介
して3つの2次元映像Pi (i=1,2,3 )を得る(ステ
ップS31)。
とテストパターンとの対応付けが必要になる。そのため
に、まず、仮想座標設定部6bが起動して、操作者がC
RT表示装置8に付随する操作部を操作して、図4に示
す(x,y,z)の直交座標系の仮想座標を指定する
(S32)。次に、この仮想座標系上におけるテストパ
ターンと2次元映像P1 ,P2 ,P3 の対応付け演算
処理を行う(S33)。すなわち、3台のカメラによる
3つの2次元映像Pi は異なった方向から同一対象物
体を撮影しているので、それぞれの対応付けが必要とな
る。
λi の算出処理を行う(S34)。この焦点距離λi の
算出処理の具体的手法を図7およぴ図8を用いて説明す
る。図7の流れ図に示すように、先ず、図8(a)に示
す予め一辺の寸法hが既知である立方体形状の3次元サ
ンプル6jを準備して、図8(b)に示すようように、
カメラ2a,2b,2cの前方位置において、カメラ2
a,2b,2cでその2次元映像を撮影する。そして、
レンズ位置から焦点距離λだけ離れた位置に結像する画
像面6k上における寸法rを測定する。
だけカメラ2a,2b,2c側へ移動させる。そして、
この状態で画像面6k上における寸法r´を測定する。
すると、簡単な幾何学的考察によって、カメラ2a,2
b,2cの各焦点距離λが次式で求まる。
λi が算出されると、S35にて、図4に示す仮想座標
系上における各カメラ2a,2b,2cの位置(座標)
xi ,yi ,zi (i=1,2,3 )及び姿勢を示す各回転角
αi 、βi を算出する(S35)。具体的には、非線形
の方程式を作成して逐次演算手法によって各カメラ2
a,2b,2cの位置(座標)xi ,yi ,zi (i=1,
2,3 )と姿勢αi 、βi を算出する。
られた各2次元映像Pi (i=1,2,3 )の撮像面の中心
にx−y座標を定義し、光軸方向に+z軸を定義する
と、図6に示すように仮想地図10の仮想座標系から各
カメラ座標への変換により、各カメラ2a,2b,2c
の姿勢が規定できる。具体的には、カメラ光軸のy軸と
の回転角αi 、x軸との回転角βi で定義される。
各カメラ2a,2b,2cの仮想座標系における位置
(xi ,yi ,zi )及び姿勢αi 、βi からなるパラ
メータが得られた。
に、各カメラ2a〜2c自身の設置,姿勢を含めた仮想
地図10が作成される。この仮想地図10内には、実際
の測定時には、対象物体1と置換わる3次元モデルに対
する各カメラ2a〜2cの位置、方向が3次元の形で明
確に設定されている。図中の太い矢印は各カメラ2a,
2b,2cの光軸方向を示す。
を起動させて、各パラメータxi ,yi ,zi ,αi 、
βi から各カメラ2a,2b,2c毎の変換行列Mi
(i=1,2,3 )を算出する。
回転角をαi とし、x軸との回転角をβi とし、撮像中
心の座標を(xi ,yi ,zi )とすると各カメラ2
a,2b,2cの姿勢は(1) 式に示す行列Mi (i=1,
2,3 )で定義される。
P0 、カメラ座標系内での表現をPi とすると、下
記のような関係が成立する。
を掛算すればカメラ座標系内から見た3次元映像P0
の3次元映像Pi が得られることを示し、行列Mi
は仮想座標系からカメラ座標系への変換行列となる。
行移動を示し(i=1,2,3 )、行列RiyはY軸回りの回
転を示し、行列RixはX軸回りの回転を示す。そし
て、各行列はそれぞれ(3)(4)(5) 式に示すように定義さ
れる。
おける平行移動の変数もこの行列に含めるための同次座
標の成分である。次に、図1における仮想視点算出部1
6で算出する仮想視点における変換行列Mn (n=1,2)
ついて検討する。
仮想視点22の位置,姿勢を示す変換行列Mn は、上
述した各カメラ2a,2b,2cの変換行列Mi の算
出手法と同様な手法にて求められる。
と同様に、視軸のy軸との回転角をαn 、x軸との回転
角をβn 、撮像中心の座標を(xn ,yn ,zn )とす
ると、目の中心座標がTn で、視線方向は[Rny・
Rnx]となる。すなわち、カメラ2a,2b,2cの
場合と同様に下記(6) 式の変換行列Mn で定義され
る。
(4)(5)式に示す各カメラ2a,2b.2cの場合と同様
である。
点22位置は観察者11の動きによって仮想地図10上
を任意に移動するので、この3次元画像処理装置を稼働
する前に、観察者11は計測装置13及び入力装置14
を操作して、仮想視点22の位置,姿勢を、固定されて
いる3つのカメラ2a,2b,2cのうちのいずれか一
つのカメラに一致させて、前記仮想視点22の変換行列
Mn を一致させたカメラの変換行列Mi に初期設定
する。
仮想視点算出部16は、計測装置13及び入力装置14
から入力される移動量(偏差量)Δx,Δy,Δz,Δ
α,Δβを取込んで、前記初期値を変更していくのみ
で、常時正しい変換行列Mnを得ている。観察者11
の動作に応じて時々刻々変化する仮想視点22の各変換
行列Mn (n=1,2)は映像変換部5へ送出される。
a,2b,2cで実際の対象物1を撮影する。各カメラ
2a,2b,2cで撮影された各2次元映像Pi (i=
1,2,3 )は入力バッファ4を介して画像間対応付け部9
へ入力され、この画像間対応付け部9によって互いに対
応付けられた後に、映像変換部5へ入力される。
処理は、例えば、動的計画法などを用いて計算機で自動
的に対応付けることできるが、操作者が手動で行う場合
は、例えば図5に示すように、CRT表示装置8に表示
されたそれぞれの2次元映像P1 ,P2 ,P3 の
絵の中の対応する頂点を、例えばライトペン等で表示画
面より指定させて対応付けすることも可能である。
の動作を順番に説明する。カメラ毎透視変換作用前映像
算出部17は、図9に示すように、透視逆変換相当処理
部17a,拘束式作成部17b,変換未知数算出部17
c及び透視変換作用前映像算出部17dとで構成されて
いる。そして、カメラ毎透視変換作用前映像算出部17
は、前述したように、入力バッファ4から画像間対応付
け部9を介して入力された対象物体1の各2次元映像
Pi に対して仮想地図作成部6で作成された各カメラ
2a,2b,2cの各変換行列Mi 及び各カメラ2
a,2b,2cの焦点距離λi (i=1,2,3 )を用いて透
視逆変換に相当する処理を実行して、各透視変換作用前
映像Piv(i=1,2,3 )を得る。
変換作用前映像Piv(i=1,2,3 )が算出される。流れ
図が開始されると、透視逆変換相当処理部17aが起動
され、仮想地図作成部6から入力した各カメラ2a,2
b,2cの各焦点距離λi (i=1,2,3)を用いて各カメラ
2a,2b,2cの透視変換情報としての各透視変換行
列Si の作成処理を実行する(S41)。
視変換行列Si (i=1,2,3)及び前述した各カメラ2
a,2b,2cの変換行列Mi を用いると、ある任意
の点の仮想座標系内での表現をP0 、カメラ撮影後の
2次元映像Pi (i=1,2,3)は、 Pi =P0 ・Mi ・Si …(7) より求まる。すなわち、この(7) は前述した(2) 式 Pi ´=P0 ・Mi …(2) に実際のカメラ2a,2b,2cを用いる事による遠近
効果を示す以下に示す透視変換行列Si を付加したも
のである。ここで、透視変換行列Si は(8) 式で示さ
れる。
作成処理が終了すると、S43にて、(7) 式の(Pi
Si -1)に相当する透視変換作用前の点Pivを求め
るため、入力バッファ4からの対象物体1の2次元映像
Pi (i=1,2,3)及び仮想地図作成部6からの変換行列
Mi (i=1,2,3)を取込む。(7) 式に(1) 式の変換行列
Mi を代入すると、(9) 式となる。
各点の座標を示す透視変換作用前映像Pivは、平行移
動を示す行列Ti ,各回転を示す行列Riy,R ix
の同次座標表現時における特徴から、透視変換前の平行
移動,回転移動後の座標は、(a,b,c,1)と表現
できるので、Piv=(Pi Si -1)式は(10)式と
なる。
標(xi ,yi )との関係は次のようになる。
各カメラ2a,2b,2cのカメラ座標系の2次元映像
Pi に透視変換行例Si の逆行列Si -1を掛けた
ことに相当する点の映像、すなわち透視変換作用前映像
Pivが(12)式で得られる。
が終了すると、S43へ進み、拘束式作成部17bを起
動して、拘束式を作成する。すなわち、各カメラ2a,
2b,2cの個々の位置は当然既知であるので、カメラ
2a.2b,2c相互間における、i番目のカメラiの
カメラ座標系の座標原点を仮想座標系の原点と見なし
て、他の各カメラjへの座標変換を示す変換行列Uij
より、次の拘束条件が得られる。
表現できる。 Uij=Ui0・U0j=U0i -1・U0j =Mi -1・Mj …(14) なお、変換行列U0kは仮想座標系の原点oからみた、
カメラkへの変換行列である。すなわち、(10)式はカメ
ラ2a,2b,2cが図1に示すように3台存在すると
きは、3個の未知数c1 ,c2 ,c3 に対して、拘束式
が6個存在することになり、一般逆行列演算を行って、
3個の未知数c1 ,c2 ,c3 の解を得ることが可能で
ある。
44へ進み、未知数算出部17cを起動して、各未知数
c1 ,c2 ,c3 を算出する。3個の未知数c1 ,c
2 ,c3 が得られると、S45にて透視変換作用前映像
算出部17dを起動して、(12)式から各透視変換作用前
映像Piv(i=1,2,3)を算出する。
算出部17において、各2次元映像Pi から各カメラ
2a,2b,2c位置から仮想座標系内に位置する対象
物体1の各透視変換作用前映像Piv(i=1,2,3)が算出
され、仮想視点透視変換作用前映像算出部18へ送出さ
れる。
18の処理動作を説明する。仮想視点透視変換作用前映
像算出部18は、図11に示すように、カメラ位置関係
行列成部18aと,行列NMn 関連行列A算出部18b
と、要素演算部18cとで構成されている。仮想視点透
視変換作用前映像算出部18は、前述したように、各カ
メラ2a,2b,2c位置における各透視変換作用前映
像Piv(i=1,2,3)から、各仮想視点22から仮想座標
系内に位置する対象物体1を見た各透視変換作用前映像
Pnv(n=1,2)を算出する。
変換作用前映像Pnv(n=1,2)が算出される。これは、
Ullman et alが提唱したアルゴリズムをZ座標まて拡張
することにより可能である。( Recognition by Linea
r Combinations of Models :IEEE Transactions on Pa
ttern Analysis and Machine Intelligence. Vol,13,N
o.10.October 1991 ) 流れ図が開始されると、S121において、カメラ位置
関係行列成部18aが起動され、カメラ2a,2b,2
cの位置関係を示す位置関係行列Nが作成される。先
ず、各カメラ2a,2b,2cの変換行列Mi は前述
した(1) 式から(15)式に示すように展開することが可能
である。
行列M1 ,M2 ,M3 から適当な列ベクトルを抜
き出して(16)式に示す位置関係行列Nを作成する。具
体的には、カメラ2aの2次元映像から(x,y)を、
カメラ2bの2次元映像からxを、カメラ2cの2次元
映像からyを抽出している。
と各カメラ2a,2b,2c位置の変換行列Mi との
関係を求める。
列Mn の各列ベクトルは、 det(N)≠0(一次独
立)の時、位置関係行列Nの列ベクトルの線形結合で
一意に表現できる。すなわち、係数をaijとする行列
Aを定義すると、変換行列Mn は次に示すように簡
略される。
8)式となる。 A=N-1・Mn …(18) 各カメラ点から見た対象物体1の透視変換作用前映像
Pivは定義により(19)式に示される。
変換作用前映像Pnvに対しても、下記(20)式が成立す
る。
Pnvが求まると、S123にて要素算出部18cを起
動して、仮想視点22の変換行列Mn と位置関係行列
Nを用いて、(20)式の透視変換作用前映像Pnvの各
要素xnv,ynv,znvの算出処理を実行する。
と(20)式から(21)式が得られる。 xnv=P0 ・m1n …(21) この(21)式に(17)式を代入することによって(22)式が得
られる。
m11,m21,m12,m13に等しいので、これを代入して
(23)式を得る。
求まる。
が終了すると、S125にて、透視変換作用前映像P
nv=(xnv,ynv,znv,1)を算出する。
映像算出部18において、各仮想視点22から仮想座標
系内に位置する対象物体1を見た場合における各透視変
換作用前映像Pnv=(xnv,ynv,znv,1)が、各
カメラ2a,2b,2c位置から仮想座標系内に位置す
る対象物体1を見た場合の各透視変換作用前像PiV=
(xiv,yiv,ziv,1)から一義的に算出される。算
出された各透視変換作用前映像Pnvは次の2次元映像
算出部9へ送出される(S124)。
する。2次元映像算出部19は、前述したように、仮想
視点22における対象物体1の透視変換作用前映像P
nvを2次元映像Pn に透視変換する。具体的には図1
3の流れ図に沿って各2次元透映像Pn (n=1,2)が算
出される。
て、仮想視点透視変換作用前映像算出部18から出力さ
れた仮想視点22から見た仮想座標系内の対象物体1の
透視変換作用前映像Pnv=(xnv,ynv,znv,1)
を取込む。そして、S132で透視変換処理を実行す
る。
Pnv=(xnv,ynv,znv,1)に(8) 式で得られる
透視変換行列Sn を掛けることにより、求めたい仮想
視点22位置の2次元座標上に展開された対象物体1の
任意の方向から見た各2次元映像Pn =(xn ,y
n ,)(n=1,2)が得られる。 Pn ´=Pnv・Sn …(28) (28)式を展開すると、(29)式が得られる。
2から見た対象物体1の各2次元映像Pn =(xn ,
yn )(n=1,2)を作成する。作成された各2次元映像
Pnは次の出力バッファ20へ送出される。
カメラ2a,2b,2cにて得られた3つの2次元映像
Pi を仮想座標系内に設定した任意の仮想視点22か
ら対象物体1を見た場合の2つの2次元映像Pn (n=
1,2)に変換できた。
においては、図16に示すように、3台のカメラ2a,
2b,2cで得られた3枚の2次元映像P1 .P
2 .P3 から各カメラ2a,2b,2c位置における
各透視変換作用前映像Pivが得られる。一方、観察者
11に取付けられた測定装置13及び入力装置14から
観察者11の両眼の視野方向およぴ3次元位置を示す一
対の仮想視点22が仮想視点算出部16で検出される。
そして、映像変換部5でもって、各仮想視点22から対
象物体1を見た場合の各2次元映像Pn1,Pn2が得
られて、これらがHMD12の各小型ディスプレイに表
示される。
プレイに表示された対象物体1の3次元画像を見ること
ができる。さらに、観察者11は3次元表示された対象
物体1の見たい方向に通常の感覚で頭部を向け、かつ入
力装置14を操作して自己の位置を移動させることによ
って、対象物体1を任意の方向から観察することができ
る。
置においては、予め各カメラ2a,2b,2cの位置が
固定されている場合においては、仮想地図作成部6で作
成される各カメラ2a,2b,2c毎の変換行列Mi
及び各焦点距離λi を例えばROM等の不揮発性メモリ
に予め書込んでおくことによって、各種初期設定処理が
簡素化できる。
ラ2a,2b,2cから得られた2次元映像Pi を、
CD−ROM31に記憶された変換行列Mi 及び各焦
点距離λi を用いて、例えばジョイステック32で指定
された仮想視点から見た2次元映像Pn を自動的に算
出してCRT表示装置32に表示する。
の変換行列Mi 及び各焦点距離λi を記憶したCD−
ROM31を準備するのみで、各固定カメラ2a,2
b,2cで得られる各2次元画像から任意の方向から見
た実画像をCRT表示装置32の表示画面上に再現でき
る。さらに、CRT表示装置32の代りに、監視者11
にMHD12を装着させることによって、ジョイステッ
ク32を用いた立体感のある映像シュミレーシヨンが可
能である。
おける対象物体1を、図15に示すように、プラントに
おける監視員の定期的な安全巡回の巡回経路1aとし
て、巡回経路1aを見渡す位置に3台のカメラ2a,2
b,2cを設置する。さらに、観察者11を監視員11
aとすると、この3次元映像処理装置はウォーク・スル
ー・シミュレータとなる。
タにおいては、監視員11aは、実際に安全巡回を行わ
なかったとしても、点検の要所要所に各カメラ2a,2
b,2cを設置するのみで、管制室に座ったままで、実
際に高低差のある所や狭い通路などを通っていく必要が
ないので、肉体的疲労及び精神的疲労が大幅に軽減され
る。よって、安全巡回が可能になり、プラントの維持管
理の作業能率を大幅に向上できる。
元映像処理装置の概略構成を示すブロック図である。対
象物体を3台のカメラ2a,2b,2cで撮影して、撮
影された各2次元映像P1 .P2 .P3 をA/D
変換器3a,3b,3cでデジタル値に変換して、NC
U23を介して、LAN24へ出力する。対象物体から
遠方に設置された管理センター24にLAN24を介し
てこの各2次元映像が送信される。
映像P1 .P2 .P3 はNCU26を介して図1
に示す仮想地図作成部6,仮想視点算出部16,及び映
像変換部5へ入力される。そして、この管理センター2
5内において、観察者11の視野方向及び位置から各仮
想視点を得て、この仮想視点から遠方に存在する対象物
体を任意の方向から観察する。
映像を送信することによって、例えば山間部のダム現場
等の監視員が簡単に赴くことができない場合であって
も、都市の管理センター25において詳細に巡回ができ
る。
る3次元映像処理装置の概略構成を示すブロック図であ
る。この実施例装置においては、テレビジョンの放送局
27内において、複数のカメラ2a,2b,2cで撮影
された複数の2次元画像から各カメラ2a,2b,2c
位置における各透視変換作用前映像PiVを算出して、
送信装置28を介して電波送出する。
ト30内に、仮想視点算出部16,映像変換部5の仮想
視点透視変換作用前映像算出部18,2次元映像算出部
19を設け、テレビジョンセット30の外部に入力装置
14を設置することによって、TVの視聴者がTV画面
に表示されている対象物体1の見る方向を任意に設定で
きる。
きる。また、必要あれば、視聴者自信がHMV12を装
着することによって、3次元画像表示されたTV番組を
楽しむことが可能である。
れるものではない。例えば、実施例装置においては、対
象物体1の3方向から見た各2次元映像を有限の焦点距
離λを有するレンズ等の集光機構が組込まれてカメラ2
a,2b,2cで撮影することによって得たが、CAD
等で描いた無限の焦点距離を有する2次元影像を用いる
ことも可能である。この場合においては、この各2次元
映像には遠近効果が含まれないので、前述した透視変換
行列を用いる必要がない。
次元画像から再生することができるので、情報の圧縮装
置として使用することができる。ホログラフィなどの立
体映像再生方法と同様な位置づけとなるが、さらに簡単
化された手軽な方法として使用できる。
像処理装置及び3次元映像処理方法においては、必要な
箇所に複数台の撮影装置を設置するのみで、簡単に任意
仮想視点からの対象物体に対する2次元映像又は透視変
換作用前映像が得られる。したがって、従来の3次元の
CADモデルを用いた手法に比較して、対象物体をコン
ビュータを用いてモデル化する必要がないので、観察す
べき対象物体を簡単に変更できる。
スルー・シミュレータに用いることによって、監視員の
仮想視点を簡単に移動でき、移動に対する応答特性が高
く、さらに実画像のために、リアリティの高い映像が得
られる。
置の概略構成を示すブロック図
ラパラメータ算出機能を示すブロック図
作を示す流れ図
す模式図
す流れ図
するための説明図
算出部の概略構成を示すブロック図
作を示す流れ図
像算出部の概略構成を示すブロック図
作を示す流れ図
示す流れ図
る変換行列及び各焦点距離を予めROMに書込んだ場合
の応用例を示す模式図
位置との関係を示す図
的に得られる各仮想視点における各2次元映像との関係
を示す図
理装置の概略構成を示すブロック図
映像処理装置の概略構成を示すブロック図
ッファ、5…映像変換部、6…仮想地図作成部、9…対
応付け部、10…仮想地図、11…観察者、12…HM
D、13…計測装置、14…入力装置、16…仮想視点
算出部、17…カメラ毎透視変換作用前映像算出部、1
8…仮想視点透視変換作用前映像算出部、19…2次元
映像算出部、20…出力バッファ、22…仮想視点、2
4…LAN、25…管理センター、28…放送局、29
…家庭
Claims (7)
- 【請求項1】 互いに異なる複数方向から投影した3次
元の対象物体の各2次元映像を得る手段と、 前記対象物体に対する各投影位置及び姿勢と任意に設定
された仮想座標系内における前記各投影位置及び姿勢と
の間の各変換情報を求める仮想地図作成手段と、 任意に設けられる仮想視点の前記仮想座標系内における
位置及び姿勢を求める仮想視点算出手段と、 前記対象物体を前記仮想座標系内に位置させたと想定し
て、前記各変換情報を用いて、前記仮想座標系内におけ
る各投影位置から同じく仮想座標系内の前記対象物体を
見た場合の各透視変換作用前映像を求める手段と、 この求められた各透視変換作用前映像を用いて、前記仮
想座標系内の仮想視点から前記対象物体を見た場合の透
視変換作用前映像を求める手段と、 この求められた透視変換作用前映像を2次元映像に透視
変換する手段と、 この変換された2次元映像を表示する2次元表示装置と
を備えた3次元映像処理装置。 - 【請求項2】 3次元の対象物体を互いに異なる方向か
ら撮影してそれぞれ2次元映像を得る複数台の撮影装置
と、 この各撮影装置の設置位置及び姿勢と任意に設定された
仮想座標系内における前記各撮影装置の位置及び姿勢と
の間の各変換情報を求める仮想地図作成手段と、 任意に設けられる仮想視点の前記仮想座標系内における
位置及び姿勢を求める仮想視点算出手段と、 前記対象物体を前記仮想座標系内に位置させたと想定し
て、前記各変換情報を用いて、前記仮想座標系内におけ
る各撮影装置から同じく仮想座標系内の前記対象物体を
見た場合の各透視変換作用前映像を求める手段と、 この求められた各透視変換作用前映像を用いて、前記仮
想座標系内の仮想視点から前記対象物体を見た場合の透
視変換作用前映像を求める手段と、 この求められた透視変換作用前映像を2次元映像に透視
変換する手段と、 この変換された2次元映像を表示する2次元表示装置と
を備えた3次元映像処理装置。 - 【請求項3】 前記各撮影装置はそれぞれ所定の焦点距
離を有した集光機構が組込まれたカメラであり、前記透
視変換作用前映像を求める手段は前記焦点距離が組込ま
れた透視変換情報を用いることを特徴とする請求項2記
載の3次元映像処理装置。 - 【請求項4】 前記任意の仮想視点の前記仮想座標系内
の位置及び姿勢は、前記2次元表示装置の観察者に取付
けられこの観察者の視野方向を計測する計測装置の出力
と、前記観察者が自己の移動情報を入力する入力装置の
出力とで定まることを特徴とする請求項2又は3記載の
3次元映像処理装置。 - 【請求項5】 3次元の対象物体を互いに異なる方向か
ら撮影してそれぞれ2次元映像を得る複数台の撮影装置
と、 この各撮影装置の設置位置及び姿勢と任意に設定された
仮想座標系内における前記各撮影装置の位置及び姿勢と
の間の各変換情報を求める仮想地図作成手段と、 観察者に取付けられ、この観察者の両眼の各視野にそれ
ぞれ入る一対の2次元表示装置が組込まれたHMD(ヘ
ット・マンテッド・デイスプレイ)と、 前記観察者に取付けられ、この観察者の視野方向を計測
する計測装置の出力と前記観察者が自己の移動情報を入
力する入力装置の出力とから前記仮想座標系内における
前記観察者の両眼を示す各仮想視点の各位置及び各姿勢
を求める仮想視点算出手段と、 前記対象物体を前記仮想座標系内に位置させたと想定し
て、前記各変換情報を用いて、前記仮想座標系内におけ
る各撮影装置から同じく仮想座標系内の前記対象物体を
見た場合の各透視変換作用前映像を求める手段と、 この求められた各透視変換作用前映像を用いて、前記仮
想座標系内の一対の仮想視点から前記対象物体を見た場
合の一対の透視変換作用前映像を求める手段と、 この求められた一対の透視変換作用前映像をそれぞれ2
次元映像に透視変換する手段と、 この変換された一対の2次元映像を前記一対の2次元表
示装置へ表示する表示制御手段とを備えた3次元映像処
理装置。 - 【請求項6】 前記仮想地図作成手段で得られる各変換
情報は予め不揮発性メモリに書込まれていることを特徴
とする請求項2又は3記載の3次元映像処理装置。 - 【請求項7】 複数台の撮影装置で3次元の対象物体を
互いに異なる方向から撮影してそれぞれ2次元映像を得
て、 前記各撮影装置の設置位置及び姿勢と任意に設定された
仮想座標系内における前記各撮影装置の位置及び姿勢と
の間の各変換情報を求め、 任意に設けられる仮想視点の前記仮想座標系内における
位置及び姿勢を求め、 前記対象物体を前記仮想座標系内に位置させたと想定し
て、前記各変換情報を用いて、前記仮想座標系内におけ
る各撮影装置から同じく仮想座標系内の前記対象物体を
見た場合の各透視変換作用前映像を求め、 この求められた各透視変換作用前映像を用いて、前記仮
想座標系内の仮想視点から前記対象物体を見た場合の透
視変換作用前映像を求め、 この求められた透視変換作用前映像を2次元映像に透視
変換し、 この変換された2次元映像を2次元表示装置に表示する
3次元映像処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12903494A JP3251774B2 (ja) | 1994-06-10 | 1994-06-10 | 3次元映像処理装置及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12903494A JP3251774B2 (ja) | 1994-06-10 | 1994-06-10 | 3次元映像処理装置及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07334703A true JPH07334703A (ja) | 1995-12-22 |
JP3251774B2 JP3251774B2 (ja) | 2002-01-28 |
Family
ID=14999479
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP12903494A Expired - Lifetime JP3251774B2 (ja) | 1994-06-10 | 1994-06-10 | 3次元映像処理装置及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3251774B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003256874A (ja) * | 2002-03-04 | 2003-09-12 | Matsushita Electric Ind Co Ltd | 画像合成変換装置 |
JP2020178235A (ja) * | 2019-04-18 | 2020-10-29 | 日本放送協会 | 映像効果装置及びプログラム |
WO2024048210A1 (ja) * | 2022-09-02 | 2024-03-07 | 富士フイルム株式会社 | 視点画像生成装置、視点画像生成方法、及びプログラム |
WO2024150615A1 (ja) * | 2023-01-10 | 2024-07-18 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置、画像生成方法および画像生成プログラム |
-
1994
- 1994-06-10 JP JP12903494A patent/JP3251774B2/ja not_active Expired - Lifetime
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003256874A (ja) * | 2002-03-04 | 2003-09-12 | Matsushita Electric Ind Co Ltd | 画像合成変換装置 |
US7538798B2 (en) | 2002-03-04 | 2009-05-26 | Panasonic Corporation | Image combination/conversion apparatus |
JP2020178235A (ja) * | 2019-04-18 | 2020-10-29 | 日本放送協会 | 映像効果装置及びプログラム |
WO2024048210A1 (ja) * | 2022-09-02 | 2024-03-07 | 富士フイルム株式会社 | 視点画像生成装置、視点画像生成方法、及びプログラム |
WO2024150615A1 (ja) * | 2023-01-10 | 2024-07-18 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置、画像生成方法および画像生成プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP3251774B2 (ja) | 2002-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4739002B2 (ja) | 画像処理方法、画像処理装置 | |
US7663649B2 (en) | Information processing device and method for aiding control operations relating to controlling the position and orientation of a virtual object and method for changing the positioning and orientation of a virtual object | |
EP3057066B1 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
JP3805231B2 (ja) | 画像表示装置及びその方法並びに記憶媒体 | |
JP4667111B2 (ja) | 画像処理装置、画像処理方法 | |
JP4933406B2 (ja) | 画像処理装置、画像処理方法 | |
JP4847203B2 (ja) | 情報処理方法、情報処理装置 | |
JP4115117B2 (ja) | 情報処理装置および方法 | |
US20120120113A1 (en) | Method and apparatus for visualizing 2D product images integrated in a real-world environment | |
EP0782100A2 (en) | Three-dimensional shape extraction apparatus and method | |
JP7182976B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN108629830A (zh) | 一种三维环境信息显示方法及设备 | |
JP2011028309A5 (ja) | ||
CN113689577B (zh) | 虚拟三维模型与实体模型匹配的方法、系统、设备及介质 | |
JP2006072903A (ja) | 画像合成方法及び装置 | |
JP2013539147A5 (ja) | ||
JPH11331874A (ja) | 画像処理装置、奥行き画像計測装置、複合現実感提示システム、画像処理方法、奥行き画像計測方法、複合現実感提示方法、およびプログラムの記憶媒体 | |
CN111062869B (zh) | 一种面向曲面幕的多通道校正拼接的方法 | |
JP2010109783A (ja) | 電子カメラ | |
JP4834424B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JPH07311857A (ja) | 画像合成表示装置およびシミュレーションシステム | |
JP2007034628A (ja) | 画像処理方法及び装置 | |
JP3104638B2 (ja) | 3次元画像作成装置 | |
JP3251774B2 (ja) | 3次元映像処理装置及び方法 | |
JP2011008351A (ja) | 画像処理方法及び画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071116 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081116 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091116 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101116 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101116 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111116 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121116 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131116 Year of fee payment: 12 |
|
EXPY | Cancellation because of completion of term |