JP2006190207A - Image generating method, device and program, image processing method, device and program - Google Patents
Image generating method, device and program, image processing method, device and program Download PDFInfo
- Publication number
- JP2006190207A JP2006190207A JP2005003083A JP2005003083A JP2006190207A JP 2006190207 A JP2006190207 A JP 2006190207A JP 2005003083 A JP2005003083 A JP 2005003083A JP 2005003083 A JP2005003083 A JP 2005003083A JP 2006190207 A JP2006190207 A JP 2006190207A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- region
- dimensional
- box
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、例えば2次元のカメラで撮影された動画像において、一部の映像シーンで他の物体により隠蔽された被写体があるとき、被写体の隠蔽領域を推定して提示するための画像生成方法、画像生成装置、および画像生成プログラムならびに画像処理方法、画像処理装置、および画像処理プログラムに関する。 The present invention relates to an image generation method for estimating and presenting a concealment area of a subject when there is a subject concealed by another object in a part of a video scene, for example, in a moving image captured by a two-dimensional camera. The present invention relates to an image generation apparatus, an image generation program, an image processing method, an image processing apparatus, and an image processing program.
撮影された映像シーンにおいて隠蔽された被写体を見たいという要求がある。 There is a demand to view a subject hidden in a captured video scene.
この実現にあたり、従来、例えば下記非特許文献1に記載されているように、あらかじめ隠蔽された領域を含んだ映像を多数撮影して3次元空間に対応するデータを保持しておき、ユーザにより3次元空間中の位置(すなわち視点)を変化させる指示があると、これに応じて視点を変化させた3次元空間の画像を提示するようにしている。
In realizing this, conventionally, as described in Non-Patent
下記非特許文献1に記載された画像提示処理の概略手順は次の通りである。隠蔽された領域をユーザが見るためには、先ず3次元空間における視点変更のユーザ指示を受け付ける。つまり、隠蔽された領域をあらわにするような視点に変更する。受け付けた指示に従い、画像提示処理プログラムは、保持している3次元画像情報に基づいて2次元表示画像を生成する。2次元表示画像の生成は、あらかじめ撮影しておいた多視点の画像から、上記ユーザ指示による視点にもっとも近い画像を探し出し、必要に応じて補間を行うことにより行われる。生成された2次元表示画像を提示することにより、ユーザは3次元画像において隠蔽された領域を見ることができる。
3次元空間において隠蔽された被写体を画像として提示するにあたり、任意の視点に対応した画像情報が既に得られている場合に限っては、上記非特許文献1に記載のような従来技術は有効である。しかしながら、2次元の動画像撮影用カメラによって撮影されたような画像は視点が固定であったり、視点情報が欠落していたりする。つまり、3次元空間上の任意の視点に対応した画像が常に準備される訳ではない。したがって、ユーザによる視点変更の指示に応じて提示すべき画像を再構成することは本来的にできない。
When presenting an object hidden in a three-dimensional space as an image, the conventional technique as described in Non-Patent
そして、上記2次元の動画像撮影用カメラ(例えば防犯カメラなど)によって撮影された画像についても、隠蔽された被写体を画像として提示できる技術を実現することが要請されている。 Further, it is demanded to realize a technique capable of presenting a concealed subject as an image with respect to an image captured by the above-described two-dimensional moving image capturing camera (for example, a security camera).
そこで本発明は、2次元の動画像撮影用カメラによって撮影された画像のように視点が固定であったり、視点情報が欠落しているような場合であっても、隠蔽された被写体を画像として提示できるようにするための画像生成方法、画像生成装置、および画像生成プログラムならびに画像処理方法、画像処理装置、および画像処理プログラムを提供することを目的とする。 Therefore, the present invention uses a hidden subject as an image even when the viewpoint is fixed or the viewpoint information is missing, such as an image captured by a two-dimensional moving image capturing camera. An object is to provide an image generation method, an image generation apparatus, an image generation program, an image processing method, an image processing apparatus, and an image processing program for enabling presentation.
本発明の一観点に係る画像生成方法は、一連の画像フレームを入力するステップと、前記一連の画像フレーム内で物体が占める領域を示す領域情報を入力するステップと、前記一連の画像フレームにおける第1の画像フレーム内の注目点を入力するステップと、前記注目点に対応する物体の隠蔽物体領域を前記領域情報に基づいて推定するステップと、推定された隠蔽物体領域の輝度値を前記一連の画像フレームから求めることにより提示用画像フレームを生成するステップとを有する画像生成方法である。 An image generation method according to an aspect of the present invention includes: a step of inputting a series of image frames; a step of inputting region information indicating an area occupied by an object in the series of image frames; A step of inputting an attention point in one image frame, a step of estimating a concealing object region of an object corresponding to the attention point based on the region information, and a luminance value of the estimated concealing object region Generating a presentation image frame by obtaining from the image frame.
本発明によれば、動画像において隠蔽された被写体像を提示できるようになる。 According to the present invention, a subject image concealed in a moving image can be presented.
(用語の定義)
本発明の実施形態を説明するにあたり、以下の用語を定義する。
(Definition of terms)
In describing embodiments of the present invention, the following terms are defined.
2次元のユークリッド距離空間の部分集合を「画面」と称する。画面を構成する単位領域(画面に含まれる2次元の集合)を「画素」と称する。画素は、例えば画面を左右、上下それぞれ等間隔に区切られた領域とする。画面の区切り方はこれに限定されず、例えばゆがみがあっても良いし、正6角形を用いてハチの巣状に区切られていても良い。画素に関連付けられたベクトルを「輝度値」と称する。輝度値は、例えばデジタルカメラにおける3次元のRGB値やYUV値に相当し、色を表す。各画素に輝度値が関連付けられた画面全体を「画像」又は「静止画像」と称する。時系列順に並べられた複数の画像を「動画像」と称する。また、動画像中の一枚の画像を「画像フレーム」と称する。すなわち、動画像は一連の画像フレームから構成される。 A subset of the two-dimensional Euclidean metric space is referred to as a “screen”. A unit area (two-dimensional set included in the screen) constituting the screen is referred to as a “pixel”. The pixels are, for example, regions in which the screen is divided at equal intervals on the left and right and top and bottom. The method of dividing the screen is not limited to this. For example, the screen may be distorted or may be divided into a honeycomb shape using a regular hexagon. A vector associated with a pixel is referred to as a “luminance value”. The luminance value corresponds to, for example, a three-dimensional RGB value or YUV value in a digital camera, and represents a color. The entire screen in which the luminance value is associated with each pixel is referred to as “image” or “still image”. A plurality of images arranged in time series are referred to as “moving images”. One image in the moving image is referred to as an “image frame”. That is, a moving image is composed of a series of image frames.
入力された情報等に基づく画像処理によって未知の情報を決定することを「推定」と称する。画像内の各画素が被写体であるか背景であるかを区別するデータ(例えば0,1の2値、あるいは0〜1の範囲の小数値)を「マスク画像」と称する。また、画像内の各画素がどの領域に属するかをあらわすデータ(例えば画素ごとにN個の領域に対応する1、2、3、4、・・・、Nという領域番号を付与したデータ)を「ラベル画像」と称する。 Determining unknown information by image processing based on input information or the like is referred to as “estimation”. Data that distinguishes whether each pixel in the image is the subject or the background (for example, binary values of 0 and 1 or decimal values in the range of 0 to 1) is referred to as a “mask image”. In addition, data indicating which region each pixel in the image belongs to (for example, data assigned region numbers of 1, 2, 3, 4,..., N corresponding to N regions for each pixel). This is called “label image”.
図1は本発明の一実施形態に係る画像生成装置のブロック図である。同図に示すように、画像生成装置100は、動画像記憶部101、領域情報記憶部102、隠蔽領域推定部103、画像生成部104を具備する。画像生成装置100には表示装置105およびマウス106が接続されている。動画像記憶部101は動画像入力部107を介して入力された動画像の一連の画像フレームを記憶する。また、領域情報記憶部102は領域情報入力部108を介して入力された物体の領域情報を記憶する。この物体の領域情報は、入力された動画像の一連の画像フレームの各々において物体が占める領域を示す領域情報である。
FIG. 1 is a block diagram of an image generation apparatus according to an embodiment of the present invention. As illustrated in FIG. 1, the
ユーザは、表示装置105を観察しながらマウス106を操作することにより、一連の画像フレームにおける第1の画像フレーム内の注目点を入力することができる。隠蔽領域推定部103は、入力された注目点に対応する物体の隠蔽物体領域を、領域情報記憶部102に記憶された領域情報に基づいて推定する。画像生成装置100は、推定された隠蔽物体領域の輝度値を動画像記憶部101に記憶された動画像データから求めることにより提示用画像フレームを生成する。生成された提示用画像フレームは例えば表示装置105により表示される。
The user can input a point of interest in the first image frame in a series of image frames by operating the
画像生成装置100は、動画像記憶部101に記憶された一連の画像フレームに基づいて、物体の領域情報を推定する領域情報推定部を具備してもよい。物体の領域情報の推定については後に詳述する。
The
尚、本発明は、コンピュータを画像生成装置100として機能させるプログラムとして実施することもできる。この場合、本発明に係るプログラムは、コンピュータ内のプログラム記憶装置に格納される。プログラム記憶装置は、例えば不揮発性半導体記憶装置や磁気ディスク装置等からなる。上記プログラムが図示しないCPUからの制御でランダムアクセスメモリ(RAM)に読み込まれ、同CPUにより実行されることにより、コンピュータを画像生成装置100として機能させることができる。なお、このコンピュータには、各種コンピュータ資源を管理し、ファイルシステムや各種通信機能、ならびにグラフィカルユーザインタフェース(GUI)等を提供するオペレーティングシステムも導入されている。
Note that the present invention can also be implemented as a program that causes a computer to function as the
本発明の実施形態に係る画像生成方法の概要を、図2を参照しながら説明する。 An overview of an image generation method according to an embodiment of the present invention will be described with reference to FIG.
動画像において、隠された領域の画像が他のフレームに含まれていることはしばしばある。この例を図2に示す。図2は、被写体201と、当該視点から見た際の該被写体201に対する障害物202とが同時に撮影された動画像の画像フレームを示したものである。図2の中央のフレームにおいて、被写体201の中央付近は障害物202に阻まれて見ることができない。しかし、中央のフレームで見えない部分は、左のフレームや右のフレームでは見えている。例えば中央のフレームを注目フレームとするとき、本発明の実施形態に係る画像生成方法は、他のフレームで見えている画像から中央のフレームにおいて障害物202等によって見ることができない隠蔽物体領域を推定し、この中央のフレームについて、隠蔽物体領域の輝度値を求めることにより提示用画像フレームを生成するというものである。
In a moving image, an image of a hidden area is often included in another frame. An example of this is shown in FIG. FIG. 2 shows an image frame of a moving image in which the
(物体領域情報が既知の場合の処理手順)
動画像に物体領域情報が付与されており、それが利用可能である場合、該物体領域情報は領域情報入力部108を介して本装置100に入力され、領域情報記憶部102に記憶される。以下、このように物体領域情報が既知である場合の処理手順を図3に示すフローチャートを参照しながら説明する。物体領域情報は、具体的には、画像中の物体の存在する領域をあらわすデータからなる。例えば図2に示した左フレームの被写体201の物体領域情報は、図4の黒領域701のように示すことができる。
(Processing procedure when object area information is known)
When object area information is given to a moving image and it can be used, the object area information is input to the
図3に示すように、はじめに、注目点の入力、例えばユーザによる物体指定の入力を受理する(S101)。上述したように、この注目点の入力はマウス106等を用いて行うことができる。次に、領域情報記憶部102に記憶されている物体領域情報に基づいて、注目点を含む物体(指定物体)について、その隠蔽物体領域を複数のフレームに対して推定し(S102)、注目フレーム以外のフレームの物体領域の画像から注目するフレームにおける隠蔽物体領域の画像を求め、注目フレームの画像を更新する(S103)。最後に、隠蔽物体領域を含む、更新後の注目フレーム画像を表示する(S104)。なお、S104においては、被写体201を含む注目フレームの全体を表示してもよいし、隠蔽物体領域に相当する画像部分の輝度値が更新された被写体201のみからなる画像を抽出して提示してもよい。
As shown in FIG. 3, first, an input of a point of interest, for example, an input of object designation by a user is accepted (S101). As described above, the attention point can be input using the
(プレビュー表示)
物体領域情報を利用して、注目点の指定による画像選択の際にユーザに対してフィードバック(プレビュー)を提示することが好ましい。これを図5のフローチャートに沿って説明する。図6の左側に示すようにユーザがマウスカーソル301を画像中の物体上に移動させた場合を考える(クリックはされていない)。ここで、物体領域情報を参照することにより、マウスカーソル301に対応する物体領域を知ることができる(S601)。マウスカーソル301によってどの領域が選択されようとしているのかを図6の右側に示すように概略形状マーク401として画面に表示する(S602)。これは、MPEG-7のメタデータのように物体領域情報が概略のみを含む場合であっても適用可能である。なお、物体領域情報が付与されていない場合でも、ユーザに画像を提示する前に個々の物体領域を求めておけば同様の処理を実現可能である。
(Preview display)
It is preferable to present feedback (preview) to the user when selecting an image by designating a point of interest using object region information. This will be described with reference to the flowchart of FIG. Consider the case where the user moves the
(変形例) なお、本実施形態ではマウス106を用いる操作例としているが、マウスカーソル301を動かして決定する操作には、キーボードやジョイスティックやリモコン(上下左右への移動、決定にそれぞれキーボードのボタンを使用) 、音声認識(上下左右、決定を声で指示する、オブジェクトが既知の場合はあらかじめオブジェクトの順序を用意しておき、マウスカーソルを上下左右に移動させるかわりに次のオブジェクトへの移動を声で指示するなど)等を使用しても良い。
(Modification) In this embodiment, an operation example using the
(隠された領域の推定方法)
図3のS102(注目点に対応する物体領域の推定)における具体的な処理手順を図7のフローチャートに従って説明する。物体領域情報が与えられると、図8の801に示すようにフレームごとの物体領域は既知となるが、隠された領域は背景と同じように扱われるために未知の領域である。例えば、図8において被写体801の下部が欠落していることはこの時点ではわからない。しかし、図8の被写体801と別のフレームの被写体(図4の被写体701)が同じ被写体であることは既知である。そこで、対象フレームの形状801(S1501)、参照フレームの形状(S1502)が与えられたら、被写体701に例えばアファイン変換(平行移動、回転などの線形変換による変形,図9参照)を施した変形被写体(S1503)すなわち変形領域情報を多数用意し(例えば−16〜+16画素の範囲の平行移動、−15度〜+15度までの回転、0.80〜1.20までのサイズ変更をそれぞれ別途定めた間隔で変化させたパターンを用意する)、それぞれの変形被写体と被写体801とを比較して類似度Hを算出し(S1504)、最も被写体との類似度Hが近いものを探す(S1505)。これにより、図4の被写体701と図8の被写体801とを対応付けるアファイン変換のパラメータが得られる。
(Hidden area estimation method)
A specific processing procedure in S102 (estimation of the object region corresponding to the point of interest) in FIG. 3 will be described with reference to the flowchart in FIG. When the object area information is given, the object area for each frame is known as indicated by
このようにアファイン変換のパラメータは、参照フレームの領域から現在フレームの領域への変形をあらわすパラメータであって、例えば「前のフレームを左に1画素、下に4画素ずらし、10度左回転したものを0.9倍に縮小」といったアファイン変換(他の変換も表現可能)を具体的に特定するパラメータである。本実施形態において上記のように求められたアファイン変換のパラメータによれば、現在フレームで欠落する部分が、参照フレームでどの部分に対応するかがわかる。すなわち、参照フレーム内の輝度値(コピー元)を決めることができる。 As described above, the affine transformation parameter is a parameter representing the transformation from the reference frame region to the current frame region. For example, “the previous frame is shifted by 1 pixel to the left and 4 pixels downward, and rotated 10 degrees to the left. This is a parameter that specifically specifies the affine transformation (reduction of other things by 0.9). According to the affine transformation parameters obtained as described above in the present embodiment, it can be determined which part of the reference frame corresponds to the part missing in the current frame. That is, the luminance value (copy source) in the reference frame can be determined.
領域情報を比較する類似度Hとしては、例えば参考文献1(Haifeng Xu et al., "Automatic Moving Object Extraction for Content-Based Applications", IEEE Transactions on Circuits and Systems for Video Technology, pp.796-812, vol.14, no.6, June 2004.)に記載の拡張ハウスドルフ距離や、変形被写体と被写体801で異なる領域の画素数とすることができる。 For example, Reference 1 (Haifeng Xu et al., “Automatic Moving Object Extraction for Content-Based Applications”, IEEE Transactions on Circuits and Systems for Video Technology, pp. 796-812, vol.14, no.6, June 2004.) or the number of pixels in different regions between the deformed subject and the subject 801.
ここで、拡張ハウスドルフ距離について説明する。はじめに、点と点の距離をユークリッド距離又は市街地距離として定義する。このとき、領域X上の1点xと領域Yの距離は「領域Y上のすべての点yに対し点xとの距離を算出したとき、その最小値」となる。このとき、領域Xから領域Yへの拡張ハウスドルフ距離は、領域X上のN個の点に対して「領域X上の1点xと領域Yの距離」を求めれば、そのK番目(0≦K≦N)の値として求められる。領域Xから領域Yへの拡張ハウスドルフ距離と領域Yから領域Xへの拡張ハウスドルフ距離は同じとは限らず、別の値が得られることもある。特に、一方の領域Xが他方の領域Yに含まれている場合は、領域X(小さいほうの領域)から領域Y(大きいほうの領域)への距離は0となる。この(方向を持つ)拡張ハウスドルフ距離を使い、例えばこの2つの距離の最大値、あるいはいずれか一方の値を用いて類似度とする。 Here, the extended Hausdorff distance will be described. First, the distance between points is defined as the Euclidean distance or the city area distance. At this time, the distance between one point x on the region X and the region Y is “the minimum value when the distances from the point x to all the points y on the region Y are calculated”. At this time, the extended Hausdorff distance from the region X to the region Y is the Kth (0) when the “distance between one point x on the region X and the region Y” is obtained for N points on the region X. ≦ K ≦ N). The extended Hausdorff distance from the region X to the region Y and the extended Hausdorff distance from the region Y to the region X are not necessarily the same, and different values may be obtained. In particular, when one region X is included in the other region Y, the distance from the region X (smaller region) to the region Y (larger region) is zero. Using this extended Hausdorff distance (with direction), for example, the maximum value of these two distances or one of the values is used as the similarity.
図9に示される黒領域は、物体領域に対応するラベルを表している。対象フレーム(図9のX03)に対して最も類似度の近いフレームを参照フレームX01、参照フレームX02から探し、X03の画像と重ねる(OR領域を算出する)と、X04、X05のように、それぞれ被写体の一部が欠落した画像を生成できる。これらを重ね合わせる(OR領域を算出する)と、障害物に隠される前の被写体の形状(X06)がわかる。得られた形状X06には存在するがX03には存在しない部分を、以後の復元の対象とする。この例はすべての参照フレームのOR領域を計算する場合であるが、対象フレームと個々の参照フレームを重ねた形状(X04、X05のような形状)が多数あると、それらすべてのOR領域の計算によりノイズ等を含む可能性が高くなる。この場合、あらかじめしきい値を決めておき、画素ごとに、対象フレームと個々の参照フレームを重ねた形状が何回出現するかをカウントし、その数がしきい値以上である場合にのみ物体領域であると判断することとすれば、ノイズの影響が抑えられるので好ましい。 A black area shown in FIG. 9 represents a label corresponding to the object area. When the frame having the closest similarity to the target frame (X03 in FIG. 9) is searched from the reference frame X01 and the reference frame X02 and overlapped with the image of X03 (OR region is calculated), X04 and X05, respectively, An image in which a part of the subject is missing can be generated. When these are overlapped (OR area is calculated), the shape (X06) of the subject before being hidden by the obstacle can be found. A portion that exists in the obtained shape X06 but does not exist in X03 is set as a target for subsequent restoration. In this example, the OR region of all reference frames is calculated. However, if there are many shapes (shapes such as X04 and X05) that overlap the target frame and individual reference frames, the calculation of all these OR regions is performed. This increases the possibility of including noise and the like. In this case, a threshold value is determined in advance, and for each pixel, the number of times a shape in which the target frame and individual reference frames are overlapped is counted. Only when the number is equal to or greater than the threshold value, the object It is preferable to determine that the region is a region because the influence of noise can be suppressed.
(隠された領域の別の推定方法)
なお、S102(注目点に対応する物体領域の推定)における物体領域の推定において、アファイン変換のパラメータを得るために拡張ハウスドルフ距離による類似度を用いる方法を説明したが、例えば参考文献2(金子敏充,堀修,「小領域のブロックマッチングを複数用いたロバストなオブジェクト追跡法」,電子情報通信学会論文誌D−II,Vol.J85−D−II,No.7,pp.1188−1200,2002年7月)に記載された方法を用いることによっても、アファイン変換のパラメータを推定できる。また、変形の種類はアファイン変換に限定されない。例えば、2次の変換、つまりアファイン変形に加えてxの2乗、yの2乗およびxとyの積を考慮した変換を用いても良い。
(Another method for estimating hidden areas)
In addition, in the estimation of the object area in S102 (estimation of the object area corresponding to the point of interest), the method of using the similarity based on the extended Hausdorff distance to obtain the affine transformation parameters has been described. For example, Reference 2 (Kaneko) Toshimitsu, Osamu Hori, “Robust Object Tracking Method Using Multiple Block Matching of Small Areas”, IEICE Transactions D-II, Vol. J85-D-II, No. 7, pp. 1188-1200, The parameters of the affine transformation can also be estimated by using the method described in July 2002). Further, the type of deformation is not limited to affine transformation. For example, in addition to the second-order transformation, that is, the affine deformation, a transformation considering the square of x, the square of y and the product of x and y may be used.
(欠落領域の画像の輝度値を求める方法)
図3のS103(画像フレームの物体領域を推定・更新)における具体的な処理手順を説明する。欠落領域の画像の輝度値を求めるには、S102のステップにより対応づけられた領域のうち、801に含まれないが変形被写体に含まれる領域の画像のみを元画像に重ね書きすれば良い。
(Method of obtaining the brightness value of the image of the missing area)
A specific processing procedure in S103 (estimation / update of the object region of the image frame) in FIG. 3 will be described. In order to obtain the luminance value of the image of the missing region, only the image of the region not included in 801 but included in the deformed subject among the regions associated in step S102 may be overwritten on the original image.
しかし、そのまま上書きを行うと、被写体801と変形被写体の境界付近に不自然さが残ってしまう。この不自然さは、境界部分を空間方向あるいは時間方向でぼかすことにより軽減できる。「空間方向でぼかす」とは、例えば、被写体801と変形被写体の境界の周囲1画素を対象として、それぞれの画素の輝度値をその画素を含む3×3画素の輝度値の平均値で置き換えることである。これにより境界付近が適度にぼやけることから、重ね書きによる不自然さが軽減される。「時間方向でぼかす」とは、例えば、複数フレームにおいて同様の方法で被写体801の輝度値を推定して複数の変形被写体を得て、被写体801とそれらの変形被写体の(各画素で隠されていない部分について)平均値を算出して輝度値を求めることである。 However, if overwriting is performed as it is, unnaturalness remains in the vicinity of the boundary between the subject 801 and the deformed subject. This unnaturalness can be reduced by blurring the boundary portion in the spatial direction or the time direction. “Blur in the spatial direction” means, for example, replacing the luminance value of each pixel with an average value of luminance values of 3 × 3 pixels including the pixel for one pixel around the boundary between the subject 801 and the deformed subject. It is. As a result, the vicinity of the boundary is moderately blurred, so that unnaturalness due to overwriting is reduced. “Blur in time direction” means, for example, that the luminance value of the subject 801 is estimated in a similar manner in a plurality of frames to obtain a plurality of deformed subjects, and the subject 801 and those deformed subjects (hidden by each pixel). The luminance value is obtained by calculating an average value (for a portion not present).
(物体領域情報が付与されていない場合の方法1:背景静止時)
物体領域情報が既知の場合の処理手順について以上説明したが、次に、物体領域情報が付与されておらず既知でない場合について説明する。物体領域情報が付与されていない場合でも、図3のフローチャートのS102よりも前に物体領域情報の推定を行うステップが追加される。ここで、背景が静止していると仮定するとき(これは例えば監視カメラで撮影した映像では適切な仮定である)、物体情報の推定は例えば次に説明する3段階のステップで行う。
(
The processing procedure in the case where the object area information is known has been described above. Next, the case where the object area information is not given because it is not given will be described. Even when the object area information is not given, a step of estimating the object area information is added before S102 in the flowchart of FIG. Here, when it is assumed that the background is still (this is an appropriate assumption for a video photographed by a surveillance camera, for example), object information is estimated in three steps as described below, for example.
ステップ1:移動物体検出
ステップ2:複数の画像フレームでの同一物体の対応付け
ステップ3:各フレームにおける物体領域情報の算出
上記ステップ1、2には例えば参考文献3(藤吉弘亘,榎本暢芳,長谷川修,金出武雄,「アクティビティモニタリング−屋外監視映像の要約とWWW上表示・検索システム−」第7回画像センシングシンポジウム講演論文集,pp.423−428,June 2001)に記載された方法を利用できる。この参考文献3の方法では、動画像を入力とし、物体を含む矩形領域を得る。背景が静止していると仮定して移動物体を検出し、カルマンフィルタに基づく物体追跡により同一物体を対応付ける。この時点で物体ごとに、動画像(時空間画像)を3次元の画像とみなした場合の、3次元のチューブ状の領域が得られている。ステップ3では参考文献4(竹島秀則,井田孝,堀修,松本信幸,「時空間画像の自己相似性を用いたオブジェクト輪郭の抽出」,電子情報通信学会技術報告(信学技報)OIS2003−37,pp.39−44,Sept.2003.)又は参考文献5(T.Yoshida and T.Shimosato, "Motion Image Segmentation Using 3-d Watershed Algorithm", in Proceedings of IEEE International Conference on Image Processing 2001 vol II, pp.773-776.)に記載された方法により、時空間画像空間上の大まかな領域に基づく正確な領域を算出する。なおステップ3では、フレームごとに上記参考文献1に記載されたWatershedや、参考文献6(Kass, A. Witkin, and D. Terzopoulos, "Snakes: Active contour models", International Journal of Computer Vision, vol. 1, no. 4, pp. 321-331, 1987.)や、参考文献7(Takashi Ida and Yoko Sambonsugi, "Self-Affine Mapping System and Its Application to Object Contour Extraction", IEEE Transactions on Image Processing, Vol.9, No.11, November 2000.)に記載された方法を用いて大まかな形状から真の形状を得ても良い。このようにして物体領域情報が得られたら、図3のフローチャートのS102以降を実施できるようになる。
Step 1: Moving object detection
Step 2: Matching the same object in multiple image frames
Step 3: Calculation of object area information in each frame
(物体領域情報が付与されていない場合の方法2:背景静止の仮定なし)
物体領域情報が付与されていない場合の別の方法として、時空間画像を用いた例を説明する。この方法は次に説明する3ステップで構成され、背景が静止しているという仮定を必要としない。
(Method 2 when object area information is not given: no assumption of background stillness)
An example using a spatio-temporal image will be described as another method when object area information is not given. This method consists of the three steps described below and does not require the assumption that the background is stationary.
ステップ1:時空間画像に対して領域分割を行う。
ステップ2:各物体に対して画像フレームごとに特徴量を算出する(多くの場合、ステップ1では過剰分割されるが、この状態でステップ2を行う)。
ステップ3:ステップ2の結果から同一と考えられる物体を統合する。
上記ステップ1では、参考文献8(M. A. El Saban and B. S. Manjunath, "Video region segmentation by spatio-temporal watersheds", IEEE International Conference on Image Processing (ICIP), Barcelona, Spain, vol. 1, pp. 349-352, Sep. 2003.)や参考文献9(Y. Ueshige, Y. Kuroki, and T. Ohta, "Region Segmentation for Video by Using 3D-IFS Coding", in Proceedings of 22nd Picture Coding Symposium, pp.378-380.)に記載された時空間画像の領域分割を使い、動画像に対する領域分割を行う。ステップ2では、各物体に対して特徴量、例えばRGB色の平均値及び分散を計算する。ステップ3では、(R平均,G平均,B平均,R分散,G分散,B分散)の6つのパラメータに対してそれぞれ差分絶対値を求め、その重みつき総和(重みは別途定める)が別途定めたしきい値以下の場合に同一と判断し統合する。これによって、動画像中で物体ごとに分割された領域が得られる。このようにして物体領域情報が得られたら、先の場合と同様に、図3のフローチャートのS102以降を実施できるようになる。
Step 1: Region division is performed on the spatiotemporal image.
Step 2: A feature amount is calculated for each image frame for each object (in many cases, overdivision is performed in
Step 3: Integrate objects considered identical from the result of Step 2.
In
(マルチラベル縮小写像による3D-IFS領域分割 − 位置づけ)
上記参考文献9に示された時空間の領域分割は、静止画の手法である参考文献10(特開平8-329255号公報(フラクタル領域分割))を時空間に拡張した拡大写像に基づくものであり、ノイズには強いが、拡大写像により得られる領域境界は不安定なものとなる。さらに、時空間画像全体を処理した後にK-Means法や周期点の分類で領域の決定を行うため、逐次処理が困難である。そこで、本発明の実施形態では、静止画を対象とする参考文献11(特開2001-188910号公報(マルチラベルのフィッティング及び領域分割、以下、「2D-IFS領域フィッティング」と称する))に記載の方法を改良した新しい方法(以下、「3D-IFS領域フィッティング」と称する)を利用する。2D-IFS領域フィッティングは縮小写像を使うため領域境界は安定するが、この方法に関する時空間画像への適用を示唆する従来技術は存在しない。そこで本発明の実施形態では、動画像(時空間画像)を対象とするが上記参考文献11と同様に拡大写像を使わない方法をとることで、時空間画像を用いる場合に必要な領域分割を安定に行う。さらに、Watershedとの組み合わせによる高精度化及び時空間画像の逐次処理の方法を与える。
(3D-IFS region segmentation by multi-label reduction mapping-positioning)
The spatio-temporal region segmentation shown in Reference 9 above is based on an enlarged map obtained by expanding Reference Literature 10 (Japanese Patent Laid-Open No. 8-329255 (fractal region segmentation)), which is a still image technique, into spatiotemporal space. Yes, it is strong against noise, but the region boundary obtained by the magnified mapping becomes unstable. Furthermore, since the region is determined by the K-Means method or periodic point classification after processing the entire spatio-temporal image, sequential processing is difficult. Therefore, in the embodiment of the present invention, it is described in Reference Document 11 (Japanese Patent Laid-Open No. 2001-188910 (multi-label fitting and area division, hereinafter referred to as “2D-IFS area fitting”)) for still images. A new method (hereinafter referred to as “3D-IFS region fitting”) obtained by improving the above method is used. Since 2D-IFS region fitting uses reduced mapping, the region boundary is stable, but there is no prior art suggesting application of this method to spatiotemporal images. Therefore, in the embodiment of the present invention, the region segmentation required when using a spatio-temporal image is performed by using a method that targets a moving image (a spatio-temporal image) but does not use an enlarged mapping as in the above-described Reference Document 11. Do it stably. Furthermore, a method of high accuracy and sequential processing of spatiotemporal images is provided by combination with Watershed.
(マルチラベル縮小写像による3D-IFS領域分割方法)
時空間画像は3次元の画素によって構成される3次元画像の一種である。以下、時空間画像の領域分割について、図10のフローチャートに従って説明する(この手法は3次元画像にもそのまま適用できる)。はじめに、時空間画像及び初期ラベルを入力として与える(S1601)。次に、時空間の3次元で、3次元処理ボックスを配置する(S1602)。次に、それぞれの処理ボックスに対して、画像中で処理ボックス内の画像と相似な領域を探す(S1603)。S1603の探索はフラクタル符号化として知られ、例えば、図11の時空間画像において、図12のチャイルドボックス1201の処理ボックスが与えられたら、画像中で1202と相似に近い部分である図12のペアレントボックス1202を探す処理のことである。これにより、それぞれの処理ボックス(チャイルドボックス)とそれに対応する相似な領域(ペアレントボックス)が求められる。ここで、ペアレントボックスの形は、ペアレントボックスからチャイルドボックスへの写像が縮小写像となるように決めておけばよいが、以下では、ペアレントボックスが、チャイルドボックスの各辺を2倍した形状に相当するものであるとして説明する。この場合、得られたペアレントボックスからチャイルドボックスへの写像は、4画素の内容を1画素に写像する(図13参照)。ラベル画像に対してこの写像を適用する場合、写像後のラベル値を4画素の内容の多数決で決めるようにすると(2つのラベルが同数の場合はあらかじめ定めた基準で決める、例えば最大値や最小値を選ぶ)、上記参考文献11と同様に、同一領域には同じラベルが付与されるようになる。なお、S1601の初期ラベルとしては、例えば全画素に独立したラベル値を与えればよい。また、別の領域分割手法の出力を3D-IFS領域フィッティングの入力としても良い。Watershedの出力を3D-IFS領域フィッティングの入力とする例は後述する。S1602の処理ボックスの配置については、フラクタル符号化のように時空間画像の画素全体を覆うように配置すれば良い。また、マスク画像を対象とした上記参考文献7や参考文献12(特開2004-240913号公報(時空間フラクタル輪郭抽出法))に記載の方法を一般のラベル画像に拡張し、ラベル画像をスキャンしながら、注目画素の近傍に異なるラベル値を持ち、かつ、処理ボック
スが配置されていない場所に処理ボックスを配置しても良い。
(3D-IFS region segmentation method by multi-label reduction mapping)
A spatiotemporal image is a kind of three-dimensional image composed of three-dimensional pixels. Hereinafter, the region division of the spatio-temporal image will be described with reference to the flowchart of FIG. 10 (this method can be applied to a three-dimensional image as it is). First, a spatio-temporal image and an initial label are given as inputs (S1601). Next, a three-dimensional processing box is arranged in a three-dimensional space-time (S1602). Next, for each processing box, an area similar to the image in the processing box is searched for in the image (S1603). The search of S1603 is known as fractal coding. For example, if the processing box of the
3D-IFS領域フィッティングの上記参考文献9にはない利点は、逐次処理が可能な点である。図14に時間軸と処理対象とするフレームとの関係を示す。図14で処理中のフレームと記載された部分が、上述した3D-IFS領域フィッティングの画像全体にほぼ対応する。この方法のフローチャートを図15に示す。 An advantage of 3D-IFS region fitting that is not found in the above-mentioned reference 9 is that sequential processing is possible. FIG. 14 shows the relationship between the time axis and the frame to be processed. The portion described as the frame being processed in FIG. 14 substantially corresponds to the entire 3D-IFS region fitting image described above. A flowchart of this method is shown in FIG.
はじめに、先頭フレームを動画像の先頭に設定し(S2301)、終端フレームを例えば先頭フレーム+20フレームというように、別途定めたフレーム数だけずらしたフレームとする(S2302)。次に、図14の1801を対象として3D-IFS領域フィッティングを行う(S2303)。動画像の終端まで処理を行ったか調べ(S2304)、終端でなければ先頭フレームを1フレームずらしたフレームとしてS2301以降のステップを繰り返す。具体的には、例えば先に図14の1801を処理したのであれば、次に1フレームずらした1802を対象として3D-IFS領域フィッティングを行う。以下、1803、1804に示すように1フレームずつずらしながら同様に3D-IFS領域フィッティングを繰り返す。これにより、一度に画像処理を行うフレーム数が一定となるため、時間さえかければ入力フレーム数が多くても、限られたメモリで時間方向のつながりを考慮したラベル画像を得ることができる。 First, the head frame is set to the head of the moving image (S2301), and the end frame is a frame shifted by a separately defined number of frames, for example, head frame + 20 frames (S2302). Next, 3D-IFS region fitting is performed for 1801 in FIG. 14 (S2303). It is checked whether processing has been performed up to the end of the moving image (S2304). If it is not the end, the steps after S2301 are repeated with the first frame shifted by one frame. Specifically, for example, if 1801 in FIG. 14 is processed first, 3D-IFS region fitting is performed on 1802 shifted by one frame. Thereafter, 3D-IFS region fitting is repeated in the same manner while shifting by one frame as indicated by 1803 and 1804. As a result, the number of frames for which image processing is performed at a time becomes constant, so that even if the time is long enough, even if the number of input frames is large, it is possible to obtain a label image in consideration of the connection in the time direction with a limited memory.
ここで、3D-IFS領域フィッティングの効果を高める探索範囲限定法について、概要を説明する(ペアレントボックスとチャイルドボックスの相似比は1/2とする)。3次元のフラクタル符号化では、例えばペアレントボックスの候補として、チャイルドボックスを含むすべてのボックスを候補としている。図16を例に説明する。図16は、チャイルドボックス2401がフレーム9〜14にあるとき、ペアレントボックス2402の候補としてフレーム4〜14、フレーム5〜15、・・・、9〜19が探索の対象となり、その結果ペアレントボックス7〜17が選ばれた状態を示している。これに対し、図17のように常にチャイルドボックスの端フレームとペアレントボックスの端フレームが重なるように探索を行うと(以下、「探索範囲限定法」と称する)、つまりこの例では探索範囲を9〜19のみに限定すると、以下の2つの効果を得ることができる。
(効果A)ラベル数が増えない領域分割を実現できる。
(効果B)常に端フレームに対応したラベルデータが得られる。
ここで用いる領域分割は、隠された部分を他のフレームに対応付けるためのものである。したがって、対応付けにおいて余分な領域が発生しない手法は望ましく、上記効果Aは重要である。はじめに効果Aが得られる理由を説明する。探索範囲限定法により得られたチャイルドボックス・ペアレントボックスでは、S1604の写像を行う際に、フレーム4〜5がフレーム9に、フレーム6〜7がフレーム10に、・・・、フレーム13〜14がフレーム14に、それぞれコピーされる。したがって、フレーム14以外のすべてのフレームは過去フレームからコピーされる。ここで、写像前にはフレーム14のデータが存在しないと考えて、S1604の写像においてフレーム14のラベル値を決める際に、フレーム13・フレーム14の4画素の多数決の代わりにフレーム13の2画素の最大値(または最小値)で決めるようにすると上記効果Aが得られる。あるいはS1604の前にフレーム14にフレーム13の内容をコピーしても同様に上記効果Aが得られる。あるいは、同数の場合の決定方法として最小値(最大値)を用いているのであれば、フレーム14のすべての画素に、フレーム13のすべての画素よりも大きい(または小さい)未使用の異なるラベル値を割り当てても上記効果Aが得られる。
Here, the outline of the search range limiting method for enhancing the effect of 3D-IFS region fitting will be described (the similarity ratio between the parent box and the child box is 1/2). In the three-dimensional fractal coding, for example, all boxes including child boxes are candidates as parent box candidates. An example will be described with reference to FIG. FIG. 16 shows that when the child box 2401 is in the frames 9 to 14, the frames 4 to 14, the
(Effect A) Area division in which the number of labels does not increase can be realized.
(Effect B) Label data corresponding to the end frame is always obtained.
The area division used here is for associating a hidden portion with another frame. Therefore, a method in which no extra area is generated in the association is desirable, and the effect A is important. First, the reason why the effect A is obtained will be described. In the child box / parent box obtained by the search range limiting method, when mapping in S1604, frames 4 to 5 are to frame 9, frames 6 to 7 to frame 10,. Each frame 14 is copied. Therefore, all the frames other than the frame 14 are copied from the past frame. Here, assuming that there is no data of the frame 14 before mapping, when determining the label value of the frame 14 in the mapping of S1604, the two pixels of the frame 13 instead of the majority of the four pixels of the frame 13 and the frame 14 are determined. If the maximum value (or the minimum value) is determined, the effect A can be obtained. Alternatively, even if the contents of the frame 13 are copied to the frame 14 before S1604, the effect A can be obtained in the same manner. Alternatively, if the minimum value (maximum value) is used as the determination method in the case of the same number, all the pixels in the frame 14 have different unused label values that are larger (or smaller) than all the pixels in the frame 13. The above-mentioned effect A can be obtained even if assigned.
次に、上記効果Bが得られる理由を説明する。探索範囲限定法を使えば、探索に必要な画像はチャイルドボックスの端フレームを超えることはない。したがって、端フレームにチャイルドボックスの端フレームが重なるように配置すれば、そのチャイルドボックスに対応したラベルデータが得られる。なお、探索範囲限定法そのものは、3D-IFS領域フィッティングに限定されず、入力がラベル画像ではなくマスク画像の場合(上記参考文献12で述べられているトラッキング手法)にも適用可能である。探索範囲限定法では端フレームのマスク画像は既知のマスク画像からコピーされてくるために、上記参考文献12で必要であった未来のフレームを予測する処理が不要になる。この予測処理は容易ではないことから、探索範囲限定法により予測不要となることは上記参考文献12の方法に対しても有益である。 Next, the reason why the effect B is obtained will be described. If the search range limiting method is used, the image required for the search does not exceed the end frame of the child box. Therefore, if the end frame of the child box overlaps the end frame, label data corresponding to the child box can be obtained. Note that the search range limiting method itself is not limited to 3D-IFS region fitting, and can also be applied to the case where the input is not a label image but a mask image (the tracking method described in Reference Document 12 above). In the search range limiting method, the mask image of the end frame is copied from a known mask image, so that the process of predicting a future frame required in the reference document 12 is not necessary. Since this prediction process is not easy, it is also useful for the method of the above-mentioned reference 12 that prediction is not required by the search range limiting method.
マスク画像とラベル画像の両方(以下、領域情報画像)における探索範囲限定法の流れについて、図10および図18〜図21を参照して説明する。なおこの例では、図10に示されたラベル画像は領域情報画像と読み替えて説明する。S1601により処理すべき画像・領域情報画像が与えられる。図21は時空間中の領域情報画像をあらわしており、2901は既知の被写体領域(ラベル画像での領域1)である。これをx軸に垂直な切断面で切断すると、その領域情報画像の領域境界は例えば図18の2603のようになっている。ここで、2601は輝度値画像内の被写体である。このように、当初は領域情報画像の被写体と輝度値画像の被写体とは位置が大幅にずれている。チャイルドボックスの配置(S1602)により配置されたチャイルドボックスの1つを2602に示す。2602に対して探索範囲限定法で右端フレームが重なるようにペアレントボックスの探索(S1603)を行うと、図19の2701が見つかる。この2602と2701の組を使って領域情報画像の写像(S1603)を適用すると、図20の2801に示すように領域境界がより右端フレーム(2つのボックスが重なっているフレーム)に近いほうへ移動する。ここで、チャイルドボックスとペアレントボックスの相似比が1/2であるため、S1603を適用すると左側の領域がコピーされてくる。写像S1603を1回行うと、チャイルドボックスの左端フレームから(旧領域境界フレーム+右端フレーム/2)フレーム(すなわち新領域境界フレーム)までは、旧領域境界フレーム以前のフレームからのコピーになる。新領域境界フレームから右端フレームまでは旧領域境界フレーム以前のフレームからのコピーにはならないが、先の例と同様、(1)多数決(または上記参考文献12の方法)を行う際に新領域境界フレームから右端フレームまでのデータを除外し、(2)写像S1603の前に旧領域境界フレーム以前のデータを旧領域境界フレーム以降にコピーしておくようにすれば、右端フレームまでのすべてのフレームが旧領域境界フレームからのコピーとなり、探索範囲限定法の効果を生かすことができる。なお、処理を簡単にするために旧領域境界フレーム以降のデータをあらかじめ定めたパターン(例えば、被写体領域と背景領域がフレーム内の1画素ごとに交互にあらわれるパターン)やあらかじめ定めた単一領域で埋めても良い。
The flow of the search range limiting method in both the mask image and the label image (hereinafter referred to as region information image) will be described with reference to FIG. 10 and FIGS. In this example, the label image shown in FIG. 10 is described as a region information image. An image / region information image to be processed is given in S1601. FIG. 21 shows an area information image in space-time, and 2901 is a known subject area (
なお、先の例では探索範囲限定法の探索範囲として、チャイルドボックスの時刻の端フレームとペアレントボックスの時刻の端フレームとが重なっている場合について述べたが、探索範囲限定法の適用範囲はこれに限定されない。一般に、ペアレントボックスの中心フレームとチャイルドボックスの中心フレームの差をあらかじめ定めた値に固定しておけば、所望のフレームのラベル画像(またはマスク画像、以下同じ)をその周囲のフレームのラベル画像から推定することができる。例えば、ペアレントボックスの中心フレームとチャイルドボックスの中心フレームが重なるように(ペアレントボックスの中心フレームが写像S1604によってチャイルドボックスの中心フレームに写像されるように)探索範囲を設定すれば、重なった中心フレームのラベル画像は先の図16の例における端フレームのように、必ず他のフレームからコピーされる。 In the previous example, the case where the end frame of the child box time and the end frame of the parent box time overlap as the search range of the search range limiting method has been described. It is not limited to. Generally, if the difference between the center frame of the parent box and the center frame of the child box is fixed to a predetermined value, the label image of the desired frame (or mask image, the same applies hereinafter) is determined from the label images of the surrounding frames. Can be estimated. For example, if the search range is set so that the center frame of the parent box and the center frame of the child box overlap (the center frame of the parent box is mapped to the center frame of the child box by mapping S1604), the overlapped center frame The label image is always copied from another frame like the end frame in the example of FIG.
(Watershedでセグメンテーションされた画像のフィッティング)
Watershed(ウォーターシェッド)と3D-IFS領域フィッティングとを組み合わせると、より精度の高い領域分割を実現できる。この手法はWatershedと3D-IFS領域フィッティングの組み合わせだけでなく、Watershedと2D-IFS領域フィッティングの組み合わせに対しても同じように適用できる。説明の便宜上、2次元の場合について図示する。図22は入力画像の例である。図23は2D-IFS領域フィッティング、図24はWatershedで領域分割を行った例である(白線は領域境界)。この例におけるそれぞれの領域境界の持つ性質を図25に纏める。Watershedはテクスチャの多い場所、IFS領域フィッティングはテクスチャの少ない場所での過分割(領域境界が生成されてほしくない場所での分割)が認められる。2D-IFSフィッティングや3D-IFSフィッティングは他の領域分割結果を入力として受け取ることができるため、他の領域分割結果と組み合わせることは容易である。特に、WatershedのようにIFS領域フィッティングと異なる性質を持つ領域分割手法と組み合わせると、両方の長所を併せ持つ手法となる可能性がある。Watershedで得られたラベル画像を2D-IFSフィッティングの入力とした場合の結果を図26に示す。個々の手法を単独で適用した場合と比べ、不要な領域境界が削減されている。同様に、Watershedと3D-IFS領域フィッティングとの組み合わせにおいては、Watershedを2次元又は3次元で行い、その結果に対して3D-IFS領域フィッティングを適用することで領域分割を実現する。
(Fitting an image segmented with Watershed)
By combining Watershed and 3D-IFS region fitting, more accurate region division can be realized. This method can be applied not only to the combination of Watershed and 3D-IFS region fitting, but also to the combination of Watershed and 2D-IFS region fitting. For convenience of explanation, a two-dimensional case is illustrated. FIG. 22 is an example of an input image. FIG. 23 shows a 2D-IFS region fitting, and FIG. 24 shows an example of region division by watershed (white lines are region boundaries). The properties of each region boundary in this example are summarized in FIG. Watershed is over-textured, and IFS region fitting is over-partitioned in regions with less texture (regional boundaries are not generated). Since 2D-IFS fitting and 3D-IFS fitting can receive other region segmentation results as an input, it is easy to combine with other region segmentation results. In particular, when combined with a region division method having properties different from IFS region fitting, such as Watershed, there is a possibility that the method has both advantages. FIG. 26 shows the result when the label image obtained by Watershed is used as an input for 2D-IFS fitting. Unnecessary region boundaries are reduced compared to the case where each method is applied alone. Similarly, in the combination of watershed and 3D-IFS region fitting, watershed is performed in two or three dimensions, and region division is realized by applying 3D-IFS region fitting to the result.
ここで用いたWatershedについては、例えば参考文献13(L. Vincent and P. Soille, "Watersheds in Digital Spaces: An Efficient Algorithm Based on Immersion Simulations", IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.13, no.6, June 1991.)に記載されており、具体的には以下のステップからなる。
(ステップ1)各画素のエッジ強度を検出する。
(ステップ2)エッジ強度の極小点にシードを配置する。
(ステップ3)水位(しきい値)を例えばエッジ強度の最小値に初期設定する。
(ステップ4)ラベルを持たず、かつラベルの周囲の点であり、かつエッジ強度が水位以下である場合に、
(ステップ4-a)周囲のラベルが1種類であればそのラベルを設定する。
For example, Reference 13 (L. Vincent and P. Soille, “Watersheds in Digital Spaces: An Efficient Algorithm Based on Immersion Simulations”, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.13, no. .6, June 1991.), and specifically consists of the following steps.
(Step 1) The edge strength of each pixel is detected.
(Step 2) Place seeds at the minimum edge strength.
(Step 3) The water level (threshold value) is initialized to the minimum value of the edge strength, for example.
(Step 4) When there is no label, it is a point around the label, and the edge strength is below the water level,
(Step 4-a) If there are only one kind of surrounding labels, the labels are set.
(ステップ4-b)あるいは、周囲のラベルが2種類以上であれば、その画素を領域境界とする。 (Step 4-b) Or, if there are two or more kinds of surrounding labels, the pixel is set as a region boundary.
(ステップ5)全画素にラベル値が設定されるまで水位を上げながら(ステップ4)を繰り返す。 (Step 5) Repeat (Step 4) while raising the water level until label values are set for all pixels.
図27は、Watershedと2D-IFSフィッティングを使った領域分割の手順を示すフローチャートである。 FIG. 27 is a flowchart showing the procedure of area division using Watershed and 2D-IFS fitting.
はじめに、Watershedのしきい値を設定する(S1701)。次に、先に述べたWatershedの(ステップ4)に従って領域成長する(S1702)。次に、先に述べたWatershedの(ステップ5)に従ってしきい値を上げながらS1702を繰り返す。これによりラベル画像が得られるので、これを2D-IFSフィッティングあるいは3D-IFSフィッティングの入力として、図10のフローチャートにおけるS1602以下と同じ処理を行う。なお、ここでは2次元、3次元についてのみ述べたが、例えば3次元空間画像に時間を加えた4次元画像のように、4次元以上を対象としても良い。また、Watershedは各ラベルが隣接画素のみに広がるため、参考文献14(T. Yoshida and T. Shimosato, "Motion Image Segmentation Using 3-D Watershed Algorithm", in Proceedings of IEEE International Conference on Image Processing 2001, pp.773-776, 2001.)に記載のように逐次計算も可能である(この参考文献14では2値のラベルについて述べているが、多値のラベルについてもそのまま適用可能である)。したがって、Watershedと3D-IFS領域フィッティングを組み合わせた手法についても、Watershedを逐次に行いながら、その出力を逐次的に3D-IFS領域フィッティングの入力として与えれば、逐次処理が可能である。なお、参考文献15(D. Zhong et al. “Video object model and segmentation for content-based video indexing” in Proceedings of IEEE Symposium on Circuits and Systems 1997, pp.1492-1495)のように、Watershedの後に領域統合を行ってもよい。この場合、Watershedの後に2Dや3DのIFSフィッティングを適用し、その後に領域統合をしてもよいし、IFSフィッティングを先に行っても良い。 First, a watershed threshold is set (S1701). Next, the region is grown according to the watershed (step 4) described above (S1702). Next, S1702 is repeated while raising the threshold according to the Watershed (step 5) described above. As a result, a label image is obtained, and this is used as input for 2D-IFS fitting or 3D-IFS fitting, and the same processing as S1602 and subsequent steps in the flowchart of FIG. 10 is performed. Although only 2D and 3D have been described here, 4D or more may be targeted, for example, a 4D image obtained by adding time to a 3D space image. In addition, since each label spreads only to adjacent pixels in Watershed, Reference 14 (T. Yoshida and T. Shimosato, “Motion Image Segmentation Using 3-D Watershed Algorithm”, in Proceedings of IEEE International Conference on Image Processing 2001, pp. (.773-776, 2001.), it is possible to perform sequential calculation as well (this reference 14 describes binary labels, but it can also be applied to multi-value labels as it is). Accordingly, a method combining watershed and 3D-IFS region fitting can be sequentially processed by sequentially providing the output as the input of 3D-IFS region fitting while sequentially performing watershed. As shown in Reference 15 (D. Zhong et al. “Video object model and segmentation for content-based video indexing” in Proceedings of IEEE Symposium on Circuits and Systems 1997, pp.1492-1495) Integration may be performed. In this case, 2D or 3D IFS fitting may be applied after Watershed, and then region integration may be performed, or IFS fitting may be performed first.
以上に述べたように、改良された領域分割を用いると、2次元の動画像撮影用カメラによって撮影された画像に対して、ユーザの指示により画像の隠れた領域を表示する際に、これをより精度よく表示させることができるようになる。具体的には、例えば被写体が車であったときに、クリックによって表示される部分がその欠落部の一部のみとなったり、クリックで指示された領域がすべて表示されているとみなされてしまうために隠れた領域が表示されないといった問題が改善される。 As described above, when the improved region segmentation is used, when the hidden region of the image is displayed by the user's instruction with respect to the image captured by the two-dimensional moving image capturing camera, this is used. It becomes possible to display more accurately. Specifically, for example, when the subject is a car, the part displayed by clicking becomes only a part of the missing part, or it is considered that all the areas instructed by clicking are displayed. Therefore, the problem that the hidden area is not displayed is improved.
以上説明した本発明の実施形態によれば、2次元の動画像撮影用カメラによって撮影された画像に対して、ユーザの指示により画像の隠れた領域を表示させ、本発明の方法を搭載した機器の操作性を向上させることができる。 According to the embodiment of the present invention described above, a device in which a hidden region of an image is displayed according to a user instruction on an image captured by a two-dimensional moving image capturing camera, and the method of the present invention is mounted. The operability can be improved.
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
100…画像生成装置;
101…動画像記憶部;
102…領域情報記憶部;
103…隠蔽領域推定部;
104…画像生成部;
105…表示装置;
106…マウス;
107…動画像入力部;
108…領域情報入力部
100: Image generation device;
101 ... moving image storage unit;
102 ... area information storage unit;
103 ... Hidden region estimation unit;
104: Image generation unit;
105 ... display device;
106 ... mouse;
107: moving image input unit;
108 ... area information input section
Claims (19)
前記一連の画像フレーム内で物体が占める領域を示す領域情報を入力するステップと、
前記一連の画像フレームにおける第1の画像フレーム内の注目点を入力するステップと、
前記注目点に対応する物体の隠蔽物体領域を前記領域情報に基づいて推定するステップと、
推定された隠蔽物体領域の輝度値を前記一連の画像フレームから求めることにより提示用画像フレームを生成するステップとを有する画像生成方法。 Inputting a series of image frames;
Inputting region information indicating a region occupied by an object in the series of image frames;
Inputting a point of interest in a first image frame in the series of image frames;
Estimating a hidden object region of an object corresponding to the attention point based on the region information;
Generating an image frame for presentation by obtaining a luminance value of the estimated hidden object region from the series of image frames.
推定された概略形状を前記第1の画像フレームに重ねて提示するステップとを有する請求項1又は2記載の画像生成方法。 Estimating a schematic shape of the hidden object region;
3. The image generation method according to claim 1, further comprising a step of presenting the estimated schematic shape on the first image frame.
複数の画像フレームについて推定された複数の輝度値から一つの輝度値を決定するステップとを具備する請求項1又は2記載の画像生成方法。 Estimating a luminance value of the hidden object region for a plurality of image frames;
The image generation method according to claim 1, further comprising: determining one luminance value from a plurality of luminance values estimated for a plurality of image frames.
第2の画像フレーム内で物体が占める領域を示す第2領域情報を入力するステップと、
前記第2領域情報に対し変換パラメータを変えながら異なる変換を施すことにより、複数の変形第2領域情報を生成するステップと、
前記第1領域情報と前記複数の変形第2領域情報の各々との類似度を算出するステップと、
算出された類似度に基づいて前記変換パラメータを選択するステップと、
選択された変換パラメータを、フレーム間で同一物体を対応付ける情報として出力する画像処理方法。 Inputting first area information indicating an area occupied by an object in the first image frame;
Inputting second area information indicating an area occupied by the object in the second image frame;
Generating a plurality of modified second region information by performing different conversions while changing the conversion parameters for the second region information;
Calculating a similarity between the first area information and each of the plurality of modified second area information;
Selecting the conversion parameter based on the calculated similarity;
An image processing method for outputting selected conversion parameters as information for associating the same object between frames.
前記第1領域情報上の点から前記変形第2領域情報までの市街地距離若しくはユークリッド距離、又は、前記第2領域情報上の点から前記変形第1領域情報までの市街地距離若しくはユークリッド距離のいずれかを算出する距離算出ステップと、
前記第1領域情報上のN個の点又は前記第2領域情報上のN個の点に対して前記距離算出ステップを実行するステップと、
前記距離算出ステップにより得られたN個の点からの距離のうちK番目(0≦K≦N)の値を前記類似度として出力するステップとを有する請求項5記載の画像処理方法。 The step of calculating the similarity includes
Either the urban area distance or Euclidean distance from the point on the first area information to the modified second area information, or the urban area distance or Euclidean distance from the point on the second area information to the modified first area information A distance calculating step for calculating
Executing the distance calculating step for N points on the first area information or N points on the second area information;
The image processing method according to claim 5, further comprising: outputting a Kth (0 ≦ K ≦ N) value of the distances from the N points obtained by the distance calculating step as the similarity.
前記一連の画像フレームに基づく時空間画像の各3次元画素について領域を区別する情報を与えた3次元ラベル画像を準備するステップと、
前記時空間画像内に3次元処理ボックスを配置するステップと、
前記3次元処理ボックスに対し、該3次元処理ボックスよりも体積が大きく、かつ、画像データが相似な領域に相当するペアレントボックスを求めるステップと、
前記3次元ラベル画像に対し、前記ペアレントボックスから前記3次元処理ボックスへの写像を施すステップとを有する画像処理方法。 An image processing method for estimating region information of an object according to claim 1,
Providing a three-dimensional label image giving information for distinguishing regions for each three-dimensional pixel of the spatiotemporal image based on the series of image frames;
Placing a three-dimensional processing box in the spatiotemporal image;
Obtaining a parent box corresponding to a region having a volume larger than that of the three-dimensional processing box and having similar image data with respect to the three-dimensional processing box;
Mapping the three-dimensional label image from the parent box to the three-dimensional processing box.
前記n次元画像データに対する領域分割によりn次元ラベル画像を生成する領域分割ステップと、
前記n次元画像データ内にn次元処理ボックスを配置するステップと、
前記n次元処理ボックスに対し、該n次元ボックスよりも測度が大きく、かつ、画像データが相似な領域であるペアレントボックスを求めるステップと、
前記n次元ラベル画像に対し、前記ペアレントボックスから前記n次元ボックスへの写像を施すステップとを有する画像処理方法。 inputting n-dimensional image data (n is an integer of 2 or more);
An area dividing step of generating an n-dimensional label image by area division on the n-dimensional image data;
Placing an n-dimensional processing box in the n-dimensional image data;
Obtaining a parent box for the n-dimensional processing box having a measure larger than the n-dimensional box and having similar image data;
Mapping the n-dimensional label image from the parent box to the n-dimensional box.
前記n次元画像データ及びそのエッジ強度を入力するステップと、
前記n次元画像データの一部の画素に対するラベルを入力するステップと、
エッジ強度のしきい値Tの初期値を設定するステップと、
前記ラベルが設定されておらず、かつ、前記エッジ強度がしきい値T以下の各画素に対し、隣接する画素に前記ラベルが設定されていればそのラベルを設定するラベル領域成長ステップと、
前記しきい値Tの値を増やしながら前記ラベル領域成長ステップを別途定めた条件を満たすまで繰り返すステップとを有する請求項9記載の画像処理方法。 The region dividing step includes:
Inputting the n-dimensional image data and its edge strength;
Inputting labels for some pixels of the n-dimensional image data;
Setting an initial value of the threshold T of the edge strength;
A label region growing step for setting the label if the label is set in an adjacent pixel for each pixel in which the label is not set and the edge strength is equal to or less than a threshold T;
The image processing method according to claim 9, further comprising the step of repeating the label region growing step while satisfying a separately defined condition while increasing the threshold value T.
前記先頭フレームから所定数のフレームだけずらしたフレームを終端フレームとしたn次元画像データ及びn次元ラベル画像を入力として、前記注目フレームを切り替える請求項9記載の画像処理方法。 Arbitrary attention frame is the first frame,
The image processing method according to claim 9, wherein the frame of interest is switched with n-dimensional image data and an n-dimensional label image having a frame shifted by a predetermined number of frames from the first frame as inputs.
前記時空間画像データ中の各画素に対し、領域を区別する情報を与えた時空間ラベル画像または被写体領域と背景領域とを区別する情報を与えた時空間マスク画像のいずれかに相当する時空間領域情報画像を準備する第2ステップと、
前記時空間画像データ内に、チャイルドボックスを配置する第3ステップと、
前記チャイルドボックスに対し、該チャイルドボックスよりも体積が大きく、かつチャイルドボックス内の時空間画像データが相似な領域であるペアレントボックスを求める第4ステップと、
前記3次元領域情報画像に対し、前記ペアレントボックスから前記チャイルドボックスへの写像を施す第5ステップと、
前記注目フレームを切り替えながら前記第1ステップ乃至第5ステップを実行するステップを有し、
前記第4ステップでは、前記ペアレントボックスの候補となるフレームを、前記ペアレントボックスの中心フレームと前記チャイルドボックスの中心フレームの差が別途定めた値となるフレームに限定することを特徴とする画像処理方法。 A first step of inputting data in which an arbitrary frame of interest in spatio-temporal image data in which image frames of moving images are arranged in time series is set as a start frame, and a frame shifted by a predetermined number of frames from the start frame is set as a end frame When,
A spatio-temporal space corresponding to either a spatio-temporal label image that gives information for distinguishing a region or a spatio-temporal mask image that gives information for distinguishing between a subject region and a background region for each pixel in the spatio-temporal image data A second step of preparing an area information image;
A third step of arranging a child box in the spatiotemporal image data;
A fourth step for determining a parent box having a volume larger than that of the child box and having a similar space-time image data in the child box;
A fifth step of mapping the three-dimensional region information image from the parent box to the child box;
Performing the first to fifth steps while switching the frame of interest;
In the fourth step, the frame that is a candidate for the parent box is limited to a frame in which a difference between a center frame of the parent box and a center frame of the child box is a separately determined value. .
前記一連の画像フレーム内で物体が占める領域を示す領域情報を入力する手段と、
前記一連の画像フレームにおける第1の画像フレーム内の注目点を入力する手段と、
前記注目点に対応する物体の隠蔽物体領域を前記領域情報に基づいて推定する手段と、
推定された隠蔽物体領域の輝度値を前記一連の画像フレームから求めることにより提示用画像フレームを生成する手段とを具備する画像生成装置。 Means for inputting a series of image frames;
Means for inputting region information indicating a region occupied by an object in the series of image frames;
Means for inputting a point of interest in a first image frame in the series of image frames;
Means for estimating a concealed object region of an object corresponding to the attention point based on the region information;
An image generation apparatus comprising: means for generating a presentation image frame by obtaining an estimated luminance value of the concealed object region from the series of image frames.
第2の画像フレーム内で物体が占める領域を示す第2領域情報を入力する手段と、
前記第2領域情報に対し変換パラメータを変えながら異なる変換を施すことにより、複数の変形第2領域情報を生成する手段と、
前記第1領域情報と前記複数の変形第2領域情報の各々との類似度を算出する手段と、
算出された類似度に基づいて前記変換パラメータを選択する手段と、
選択された変換パラメータを、フレーム間で同一物体を対応付ける情報として出力する手段とを具備する画像処理装置。 Means for inputting first area information indicating an area occupied by the object in the first image frame;
Means for inputting second area information indicating an area occupied by the object in the second image frame;
Means for generating a plurality of modified second area information by performing different conversions while changing the conversion parameters for the second area information;
Means for calculating similarity between the first area information and each of the plurality of modified second area information;
Means for selecting the conversion parameter based on the calculated similarity;
An image processing apparatus comprising: means for outputting the selected conversion parameter as information for associating the same object between frames.
前記n次元画像データに対する領域分割によりn次元ラベル画像を生成する領域分割手段と、
前記n次元画像データ内にn次元処理ボックスを配置する手段と、
前記n次元処理ボックスに対し、該n次元ボックスよりも測度が大きく、かつ、画像データが相似な領域であるペアレントボックスを求める手段と、
前記n次元ラベル画像に対し、前記ペアレントボックスから前記n次元ボックスへの写像を施す手段とを具備する画像処理装置。 means for inputting n-dimensional image data (n is an integer of 2 or more);
Area dividing means for generating an n-dimensional label image by area division on the n-dimensional image data;
Means for arranging an n-dimensional processing box in the n-dimensional image data;
Means for obtaining a parent box whose area is similar to that of the n-dimensional processing box and whose image data is similar to the n-dimensional processing box;
An image processing apparatus comprising: means for mapping the n-dimensional label image from the parent box to the n-dimensional box.
前記一連の画像フレーム内で物体が占める領域を示す領域情報を入力する手順と、
前記一連の画像フレームにおける第1の画像フレーム内の注目点を入力する手順と、
前記注目点に対応する物体の隠蔽物体領域を前記領域情報に基づいて推定する手順と、
推定された隠蔽物体領域の輝度値を前記一連の画像フレームから求めることにより提示用画像フレームを生成する手順とをコンピュータに実行させるための画像生成プログラム。 A procedure for entering a series of image frames;
A procedure for inputting region information indicating a region occupied by an object in the series of image frames;
Entering a point of interest in a first image frame in the series of image frames;
A procedure for estimating a concealed object region of an object corresponding to the attention point based on the region information;
An image generation program for causing a computer to execute a procedure of generating a presentation image frame by obtaining an estimated luminance value of a hidden object region from the series of image frames.
第2の画像フレーム内で物体が占める領域を示す第2領域情報を入力する手順と、
前記第2領域情報に対し変換パラメータを変えながら異なる変換を施すことにより、複数の変形第2領域情報を生成する手順と、
前記第1領域情報と前記複数の変形第2領域情報の各々との類似度を算出する手順と、
算出された類似度に基づいて前記変換パラメータを選択する手順と、
選択された変換パラメータを、フレーム間で同一物体を対応付ける情報として出力する手順とをコンピュータに実行させるための画像処理プログラム。 Inputting first area information indicating an area occupied by the object in the first image frame;
A procedure for inputting second area information indicating an area occupied by the object in the second image frame;
A procedure for generating a plurality of modified second area information by performing different conversions while changing conversion parameters for the second area information;
Calculating a similarity between the first region information and each of the plurality of modified second region information;
Selecting the conversion parameter based on the calculated similarity;
An image processing program for causing a computer to execute a procedure for outputting selected conversion parameters as information for associating the same object between frames.
前記n次元画像データに対する領域分割によりn次元ラベル画像を生成する領域分割手順と、
前記n次元画像データ内にn次元処理ボックスを配置する手順と、
前記n次元処理ボックスに対し、該n次元ボックスよりも測度が大きく、かつ、画像データが相似な領域であるペアレントボックスを求める手順と、
前記n次元ラベル画像に対し、前記ペアレントボックスから前記n次元ボックスへの写像を施す手順とをコンピュータに実行させるための画像処理プログラム。 a procedure for inputting n-dimensional image data (n is an integer of 2 or more);
An area division procedure for generating an n-dimensional label image by area division on the n-dimensional image data;
Placing an n-dimensional processing box in the n-dimensional image data;
A procedure for obtaining a parent box whose area is similar to that of the n-dimensional processing box and whose image data is similar to the n-dimensional processing box;
An image processing program for causing a computer to execute a procedure for mapping the parent box to the n-dimensional box on the n-dimensional label image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005003083A JP2006190207A (en) | 2005-01-07 | 2005-01-07 | Image generating method, device and program, image processing method, device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005003083A JP2006190207A (en) | 2005-01-07 | 2005-01-07 | Image generating method, device and program, image processing method, device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006190207A true JP2006190207A (en) | 2006-07-20 |
Family
ID=36797340
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005003083A Pending JP2006190207A (en) | 2005-01-07 | 2005-01-07 | Image generating method, device and program, image processing method, device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006190207A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008276318A (en) * | 2007-04-25 | 2008-11-13 | Canon Inc | Image processing apparatus and image processing method |
WO2011074671A1 (en) * | 2009-12-18 | 2011-06-23 | 株式会社日立ハイテクノロジーズ | Image processing device, measuring/testing system, and program |
EP2405393A4 (en) * | 2009-03-04 | 2016-10-26 | Nec Corp | Device for creating information for positional estimation of matter, method for creating information for positional estimation of matter, and program |
CN118097141A (en) * | 2024-03-04 | 2024-05-28 | 青岛市妇女儿童医院(青岛市妇幼保健院、青岛市残疾儿童医疗康复中心、青岛市新生儿疾病筛查中心) | Obstetrical image-based image segmentation method and system |
-
2005
- 2005-01-07 JP JP2005003083A patent/JP2006190207A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008276318A (en) * | 2007-04-25 | 2008-11-13 | Canon Inc | Image processing apparatus and image processing method |
EP2405393A4 (en) * | 2009-03-04 | 2016-10-26 | Nec Corp | Device for creating information for positional estimation of matter, method for creating information for positional estimation of matter, and program |
WO2011074671A1 (en) * | 2009-12-18 | 2011-06-23 | 株式会社日立ハイテクノロジーズ | Image processing device, measuring/testing system, and program |
JP2011128070A (en) * | 2009-12-18 | 2011-06-30 | Hitachi High-Technologies Corp | Image processing device, measuring/testing system, and program |
US9013571B2 (en) | 2009-12-18 | 2015-04-21 | Hitachi High-Technologies Corporation | Image processing device, measuring/testing system, and program |
CN118097141A (en) * | 2024-03-04 | 2024-05-28 | 青岛市妇女儿童医院(青岛市妇幼保健院、青岛市残疾儿童医疗康复中心、青岛市新生儿疾病筛查中心) | Obstetrical image-based image segmentation method and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6259828B1 (en) | Sprite-based video coding system with automatic segmentation integrated into coding and sprite building processes | |
US6351572B1 (en) | Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system | |
Gu et al. | Semiautomatic segmentation and tracking of semantic video objects | |
JP4777433B2 (en) | Split video foreground | |
KR102709925B1 (en) | Projection-based mesh compression | |
US8737723B1 (en) | Fast randomized multi-scale energy minimization for inferring depth from stereo image pairs | |
US20090129667A1 (en) | Device and method for estimatiming depth map, and method for generating intermediate image and method for encoding multi-view video using the same | |
JP4074062B2 (en) | Semantic object tracking in vector image sequences | |
JP3679426B2 (en) | A system that encodes image data into multiple layers, each representing a coherent region of motion, and motion parameters associated with the layers. | |
JP3612227B2 (en) | Object extraction device | |
CN110381268B (en) | Method, device, storage medium and electronic equipment for generating video | |
CN102100063B (en) | Video processing method | |
Günsel et al. | Content-based access to video objects: Temporal segmentation, visual summarization, and feature extraction | |
EP2061005A2 (en) | Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same | |
Kopf et al. | Algorithms for video retargeting | |
CN116745813A (en) | Self-supervision type depth estimation framework for indoor environment | |
JP3930504B2 (en) | Object extraction device | |
Tzovaras et al. | 3D object articulation and motion estimation in model-based stereoscopic videoconference image sequence analysis and coding | |
JP2006190207A (en) | Image generating method, device and program, image processing method, device and program | |
Reid et al. | Multiview segmentation and tracking of dynamic occluding layers | |
Liu et al. | Gradient-domain-based enhancement of multi-view depth video | |
Knorr et al. | A modular scheme for 2D/3D conversion of TV broadcast | |
Yang et al. | Depth map reconstruction and rectification through coding parameters for mobile 3D video system | |
KR100541011B1 (en) | Apparatus for Virtual Image Synthesis | |
Zhang et al. | Swin-VEC: Video Swin Transformer-based GAN for video error concealment of VVC |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090217 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090616 |