JP2022099127A - Subject silhouette extract apparatus, method, and program - Google Patents
Subject silhouette extract apparatus, method, and program Download PDFInfo
- Publication number
- JP2022099127A JP2022099127A JP2020212906A JP2020212906A JP2022099127A JP 2022099127 A JP2022099127 A JP 2022099127A JP 2020212906 A JP2020212906 A JP 2020212906A JP 2020212906 A JP2020212906 A JP 2020212906A JP 2022099127 A JP2022099127 A JP 2022099127A
- Authority
- JP
- Japan
- Prior art keywords
- silhouette
- camera
- subject
- error
- camera parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 239000000284 extract Substances 0.000 title claims abstract description 8
- 238000000605 extraction Methods 0.000 claims abstract description 71
- 238000012545 processing Methods 0.000 claims description 13
- 238000011410 subtraction method Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 9
- 230000007850 degeneration Effects 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims 1
- 238000004364 calculation method Methods 0.000 abstract description 37
- 230000000007 visual effect Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 10
- 230000007547 defect Effects 0.000 description 7
- 230000006866 deterioration Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、カメラで撮影した動画像から被写体部分のみを前景としたシルエットを抽出する被写体シルエット抽出装置、方法及びプログラムに関する。 The present invention relates to a subject silhouette extraction device, a method, and a program for extracting a silhouette with only the subject portion as the foreground from a moving image taken by a camera.
自由視点映像技術は、複数カメラの映像を入力してカメラが存在しない視点も含めた任意の視点からの映像視聴を可能とする技術である。自由視点映像を実現する一手法として、非特許文献1が開示する視体積交差法に基づく3Dモデルベースの自由視点映像生成手法が知られている。
Free-viewpoint video technology is a technology that enables video viewing from any viewpoint, including viewpoints where cameras do not exist, by inputting video from multiple cameras. As a method for realizing a free-viewpoint image, a 3D model-based free-viewpoint image generation method based on the visual volume crossing method disclosed in Non-Patent
視体積交差法は、図13に示す様に、異なるカメラ位置で撮影したN枚のシルエット画像を3次元ワールド座標に投影した際の視錐体の共通部分を次式(1)に基づいて視体積(Visual Hull)VH(K)として獲得する技術である。 In the visual volume crossing method, as shown in Fig. 13, the intersection of the visual cones when N silhouette images taken at different camera positions are projected onto the 3D world coordinates is viewed based on the following equation (1). Volume (Visual Hull) This is a technology acquired as VH (K).
ここで、集合Kは各カメラのシルエット画像の集合であり、Vkはk番目のカメラから得られるシルエット画像に基づいて計算される視錐体である。また、通常はN枚全てのカメラの共通部分となる部分がモデル化されるが、N-1枚が共通する場合にモデル化するなど、モデル化が成されるカメラ台数に関しては変更してもよい。 Here, the set K is a set of silhouette images of each camera, and V k is a visual cone calculated based on the silhouette images obtained from the kth camera. In addition, normally, the part that is the common part of all N cameras is modeled, but even if the number of cameras to be modeled is changed, such as modeling when N-1 cameras are common. good.
このとき、例えばマーチングキューブ法などのボクセルモデルをポリゴンモデルに変換する手法を用いてボクセルモデルをポリゴンモデルに変換する機能を具備し、ポリゴンモデルとして3Dモデルを出力する機能を有していてもよい。 At this time, it may have a function of converting a voxel model into a polygon model by using a method of converting a voxel model into a polygon model such as a marching cube method, and may have a function of outputting a 3D model as a polygon model. ..
このような視体積交差法は、非特許文献2が開示するフルモデル方式自由視点(=3Dモデルの形状を忠実に表現する方式の自由視点)を実現する上での基礎技術として利用されている。
Such a visual volume crossing method is used as a basic technique for realizing a full model free viewpoint (= a free viewpoint of a method that faithfully expresses the shape of a 3D model) disclosed in Non-Patent
視体積交差法で利用する積集合を得るためのシルエット抽出手法として、非特許文献3に代表される背景差分法ベースの手法が知られている。背景差分法は、背景モデルと呼ばれる被写体が存在しない状態のモデルと入力画像の差分を基に被写体を抽出する手法である。また、近年は非特許文献4が開示するDeep Learningベースの被写体シルエット抽出手法も登場し、高精度でシルエットを抽出可能な手法が次々と提案されている。
As a silhouette extraction method for obtaining an intersection used in the visual volume crossing method, a method based on the background subtraction method represented by Non-Patent
視体積交差法に利用するシルエット抽出では、非特許文献3,4のシルエット抽出技術により得られるシルエットが完璧(ここでの完璧とは、非特許文献3,4の中で評価に用いられているF-Measureが100%を示すことと定義する)であったとしても、視体積交差法によって生成される3Dモデルに欠損が生じ得る。これは、カメラの内部パラメータや外部パラメータの推定誤差が一つの要因となっている。
In the silhouette extraction used for the visual volume crossing method, the silhouette obtained by the silhouette extraction techniques of Non-Patent
視体積交差法を用いた3Dモデルの生成のためには、事前にカメラの位置や向きを正しく推定し、加えて画像中に含まれるレンズによる歪を除去するなど、カメラパラメータの推定誤差を小さくする必要がある。これらの研究は、非特許文献5などで改善が進められているものの研究途上であり、正確にカメラの位置や向きを自動推定することは困難である。その結果、図6に示すように合成後の3Dモデルに欠損が発生し、視聴時に違和感が発生するという課題があった。
In order to generate a 3D model using the visual volume crossing method, the position and orientation of the camera are estimated correctly in advance, and the distortion caused by the lens contained in the image is removed to reduce the estimation error of the camera parameters. There is a need to. Although these studies have been improved in Non-Patent
本発明の目的は、上記の技術課題を解決し、カメラパラメータの推定誤差を考慮して、動画像から3Dモデル生成に適した被写体シルエットを抽出できる被写体シルエット抽出装置、方法及びプログラムを提供することにある。 An object of the present invention is to provide a subject silhouette extraction device, a method and a program capable of extracting a subject silhouette suitable for 3D model generation from a moving image in consideration of the estimation error of camera parameters by solving the above technical problems. It is in.
上記の目的を達成するために、本発明は、カメラで撮影した動画像から被写体のシルエットを抽出する被写体シルエット抽出装置において、以下の構成を具備した点に特徴がある。 In order to achieve the above object, the present invention is characterized in that the subject silhouette extraction device for extracting the silhouette of the subject from the moving image taken by the camera has the following configuration.
(1) 動画像に基づいてカメラパラメータ誤差を推定する手段と、カメラパラメータ誤差の推定結果に基づいてシルエット抽出パラメータを計算する手段と、シルエット抽出パラメータに基づいて被写体シルエットを計算する手段とを具備した。 (1) Equipped with a means for estimating the camera parameter error based on the moving image, a means for calculating the silhouette extraction parameter based on the estimation result of the camera parameter error, and a means for calculating the subject silhouette based on the silhouette extraction parameter. did.
(2) カメラパラメータ誤差が大きいほど被写体シルエットの輪郭を膨張するようにした。 (2) The contour of the subject silhouette is expanded as the camera parameter error increases.
(3) 被写体シルエットの輪郭に対して縮退および膨張の各処理を当該順序で少なくとも一回繰り返すようにした。 (3) The degeneracy and expansion processes for the contour of the subject silhouette are repeated at least once in this order.
(4) カメラパラメータ誤差が大きいほど各画素が前景領域に識別され易くなるように背景差分閾値を計算するようにした。 (4) The background subtraction threshold is calculated so that the larger the camera parameter error, the easier it is for each pixel to be identified in the foreground region.
(5) カメラパラメータ誤差が大きいほど背景モデルの更新率を低い値に計算するようにした。 (5) The larger the camera parameter error, the lower the update rate of the background model is calculated.
(6) カメラパラメータ誤差が大きいほど、各画素が前景領域に識別され易くなるように背景差分閾値を計算し、背景モデルの更新率を低い値に計算するようにした。 (6) The background difference threshold is calculated so that the larger the camera parameter error is, the easier it is for each pixel to be identified in the foreground region, and the update rate of the background model is calculated to a low value.
(1) カメラパラメータ誤差の推定結果に基づいて計算したシルエット抽出パラメータを用いて被写体シルエットを計算するので、当該被写体シルエットを用いて3Dモデルを生成する際にカメラパラメータ誤差が原因で生じ得る欠けなどの品質劣化を抑制できるようになる。 (1) Since the subject silhouette is calculated using the silhouette extraction parameters calculated based on the estimation result of the camera parameter error, defects that may occur due to the camera parameter error when generating a 3D model using the subject silhouette, etc. It becomes possible to suppress the deterioration of the quality of the camera.
(2) カメラパラメータ誤差が大きいほど被写体シルエットの輪郭が膨張するので、カメラパラメータ誤差が原因で生じ得る欠けなどの品質劣化を抑制できる被写体シルエットを提供できるようになる。 (2) Since the contour of the subject silhouette expands as the camera parameter error increases, it becomes possible to provide a subject silhouette that can suppress quality deterioration such as chipping that may occur due to the camera parameter error.
(3) 被写体シルエットの輪郭に対して縮退および膨張の各処理を当該順序で少なくとも一回繰り返されるので、カメラパラメータ誤差が原因で生じ得る欠けやノイズなどの品質劣化を抑制できる被写体シルエットを提供できるようになる。 (3) Since each process of degeneration and expansion is repeated at least once in the order for the contour of the subject silhouette, it is possible to provide a subject silhouette that can suppress quality deterioration such as chipping and noise that may occur due to camera parameter error. It will be like.
(4) カメラパラメータ誤差が大きいほど各画素が前景領域に識別され易くなるように背景差分閾値が計算されるので被写体シルエットを拡張できる。したがって、カメラパラメータ誤差が原因で生じ得る欠けなどの品質劣化を抑制できる被写体シルエットを提供できるようになる。 (4) The background difference threshold is calculated so that the larger the camera parameter error, the easier it is for each pixel to be identified in the foreground region, so the subject silhouette can be expanded. Therefore, it becomes possible to provide a subject silhouette that can suppress quality deterioration such as chipping that may occur due to a camera parameter error.
(5) カメラパラメータ誤差が大きいほど背景モデルの更新率が低い値に計算されるので、各画素が前景領域に識別され易くなる。したがって、カメラパラメータ誤差が原因で生じ得る欠けなどの品質劣化を抑制できる被写体シルエットを提供できるようになる。 (5) The larger the camera parameter error, the lower the update rate of the background model is calculated, so each pixel can be easily identified in the foreground region. Therefore, it becomes possible to provide a subject silhouette that can suppress quality deterioration such as chipping that may occur due to a camera parameter error.
(6) カメラパラメータ誤差が大きいほど各画素が前景領域に識別され易くなるように背景差分閾値が計算され、背景モデルの更新率が低い値に計算されるので、カメラパラメータ誤差が原因で生じ得る欠けなどの品質劣化を抑制できる。 (6) The background subtraction threshold is calculated so that the larger the camera parameter error is, the easier it is for each pixel to be identified in the foreground region, and the update rate of the background model is calculated to a low value, which may occur due to the camera parameter error. Quality deterioration such as chipping can be suppressed.
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明を適用した被写体シルエット抽出装置1を含む3Dモデル生成システム100の主要部の構成を示した機能ブロック図である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram showing a configuration of a main part of a 3D
被写体シルエット抽出装置1は、動画像取得部10、カメラパラメータ誤差推定部20、シルエット抽出パラメータ計算部30およびシルエット計算部40を主要な構成とする。3Dモデル生成システム100は前記被写体シルエット抽出装置1に加えて、シルエット画像を用いて視体積交差法により3Dモデルを生成する3Dモデル生成部2を含む。
The subject
このような3Dモデル生成システム100またはその被写体シルエット抽出装置1は、CPU,ROM,RAM,バス,インタフェース等を備えた少なくとも一台の汎用のコンピュータやサーバに各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいはアプリケーションの一部をハードウェア化またはソフトウェア化した専用機や単能機としても構成できる。
Such a 3D
動画像取得部10は、少なくとも一台のカメラcamから動画像を取得する。動画像を複数のカメラから取得する場合、各カメラは被写体を異なる視点から撮影するように配置される。動画像はカメラから直接取得しても良いし、あるいは動画像データベース(DB)3などに保蔵されている動画像ファイルを読み出すことで取得しても良い。
The moving
カメラパラメータ誤差推定部20は、動画像から抽出した静止画像、例えばフレーム画像に基づいてカメラごとに各カメラの状態を示すカメラパラメータの誤差(カメラパラメータ誤差)を推定する。
The camera parameter
シルエット抽出パラメータ計算部30は、カメラパラメータ誤差の推定結果に基づいて、動画像からシルエットを抽出する際のパラメータ(シルエット抽出パラメータ)を計算する。シルエット計算部40は、動画像からフレームごとに前記シルエット抽出パラメータを用いたシルエット計算によりシルエット画像を抽出する。
The silhouette extraction
3Dモデル生成部2は、前記図13を参照して説明したように、シルエット画像を用いた視体積交差法により被写体の3Dモデルを生成する。
As described with reference to FIG. 13, the 3D
図2は、前記被写体シルエット抽出装置1の第1実施形態の構成を示した機能ブロック図であり、ここでは本発明の説明に不要な構成は図示を省略している。本実施形態は、動画像から既知の手法で取得した被写体のシルエットを前記シルエット抽出パラメータに基づいて膨張させるようにした点に特徴がある。
FIG. 2 is a functional block diagram showing the configuration of the first embodiment of the subject
カメラパラメータ誤差推定部20は、カメラパラメータ推定部21および再投影誤差推定部22を含む。カメラパラメータは、ワールド座標上の3Dの点(X, Y, Z)をカメラ映像上の2Dの点(u, v)に変換するために用いられ、内部パラメータおよび外部パラメータを含む。ピンホールカメラモデルにおける変換式は次式(2)の行列で表される。
The camera parameter
r11~r33はカメラの向きを示す回転行列、t1~t3はカメラの位置を表す並進行列であり、いずれもカメラの外部パラメータと呼ばれる。fx,fyはズーム具合を示すピクセル単位の焦点距離、cx、cyは画像の主点であり、いずれもカメラの内部パラメータと呼ばれる。内部パラメータは、その他にカメラレンズ特有の放射状歪や接線歪等をモデル化する際の歪み係数を含む場合もある。sは[u,v,1]とするためのスケーリングに用いる変数である。 r11 to r33 are rotation matrices indicating the direction of the camera, and t1 to t3 are parallel traveling matrices indicating the position of the camera, both of which are called external parameters of the camera. fx and fy are the focal lengths in pixel units that indicate the zoom condition, and cx and cy are the principal points of the image, both of which are called internal parameters of the camera. The internal parameters may also include distortion coefficients when modeling radial distortion, tangential distortion, etc. peculiar to the camera lens. s is a variable used for scaling to make it [u, v, 1].
前記カメラパラメータ推定部21は、既知の手法によりカメラパラメータを推定する。本実施形態では、非特許文献6が開示するように、ワールド座標系の既知の3次元ワールド座標と画像上の対応する2次元座標とのペアを多数集め、これらの再投影誤差が小さくなるように最適なパラメータを推定する手法を採用する。
The camera
図3は、非特許文献6によるカメラパラメータの推定方法を模式的に示した図である。撮影対象がスタジアム内のフィールドやコートを含み、同図(a)のように、白線交点の3次元ワールド座標(Xi, Yi, Zi)が規格等から既知であれば、これらの白線交点と同図(b)の2D画像に写り込んだ対応する各白線交点の2D位置(uc, i,vc, i)との画素ペアを多く収集して各パラメータを暫定的に推定する。そして、このパラメータを使って3D座標(Xi, Yi, Zi)を2D画像上に投影した点(u'c, i,v'c, i)と写り込んだ位置(uc, i,vc, i)との距離の差(再投影誤差)Rc, iが小さくなるように各パラメータを最適化することでカメラパラメータが推定される。
FIG. 3 is a diagram schematically showing a method of estimating camera parameters according to
iは画素ペアのインデックスであり、図3の例ではスタジアムの白線交点の3D位置が既知なので、その3D位置に該当する画像[同図(b)]上の対応点をUI上での手動での選択、ないしは非特許文献7が開示する手法に基づいて自動推定することによって、3Dワールド座標上の点(Xi, Yi, Zi)と2D画像上の点(uc, i,vc, i)との対応する画素ペアを獲得する。 i is the index of the pixel pair, and in the example of Fig. 3, the 3D position of the white line intersection of the stadium is known, so the corresponding point on the image [Fig. (B)] corresponding to that 3D position is manually set on the UI. (Xi, Yi, Zi) and points on 2D images (u c, i , v c, i ) by automatic estimation based on the selection of or the method disclosed in Non-Patent Document 7. ) And the corresponding pixel pair.
本実施形態では、カメラパラメータ推定部21が各画素ペアiの再投影誤差Rc, iの平均値が小さくなるカメラパラメータを推定するものの、取得する動画像がレンズによる歪曲収差の影響で歪んでいる場合や、2D画像上の点(uc, i,vc, i)の推定位置に誤りが含まれる場合には再投影誤差Rc, iが0にならない。
In the present embodiment, the camera
図4は、再投影誤差が発生している例を示した図であり、この例では白線交点の検出された位置(uc, 11,vc, 11)が実際の白線交点の位置から大幅にずれていることから、推定されたカメラパラメータを利用して3D座標(X11, Y11, Z11)を2D画像上に投影した点(u'c, 11,v'c, 11)に関しても実際の白線交点の位置から大幅にずれており、最終的に再投影誤差Rc, iも大きくなっている。これは極端な例ではあるが、一般的にも再投影誤差Rc, iを0にすることは困難である。 Figure 4 shows an example in which a reprojection error occurs. In this example, the detected positions of the white line intersections (uc, 11, vc, 11) deviate significantly from the actual white line intersection positions. Therefore, the actual white line intersections at the points (u'c, 11 , v'c, 11 ) where the 3D coordinates (X11, Y11, Z11) are projected onto the 2D image using the estimated camera parameters. It deviates significantly from the position of, and finally the reprojection error Rc, i also becomes large. This is an extreme example, but it is generally difficult to set the reprojection error Rc and i to 0.
再投影誤差Rc, iが大きいと、カメラパラメータの推定結果が誤差を含んでいる可能性が高くなることから、この状況下で自由視点制作を行うと、図5に示したように視体積が小さく計算されることがあり、その結果、図6に一例を示したように3Dモデルに欠損が生じ得る。 If the reprojection error Rc and i are large, there is a high possibility that the estimation result of the camera parameters contains an error. Therefore, when free viewpoint production is performed under this situation, the visual volume becomes large as shown in FIG. It may be calculated small, resulting in defects in the 3D model, as shown in Figure 6.
本実施形態では、前記再投影誤差推定部22が、カメラc上の全ての画素ペアから計算される再投影誤差Rc, iの平均を次式(3)で計算し、これで各カメラcが抱えるカメラパラメータ誤差Ecを代表する。ここで、Iは(Xi, Yi, Zi)と(uc, i,vc, i)との対応する画素ペアの総数である。
In the present embodiment, the reprojection
上式(3)ではカメラパラメータEcがカメラごとに一つの値として求まるが、カメラ上の画素(u, v)ごとに異なるカメラパラメータ誤差Ec, (u, v)を計算するようにしてもよい。画素ごとに異なるカメラパラメータ誤差を計算する手段として、上式(3)において、各画素(u, v)に最も近い画素ペアの再投影誤差Rc, iをEc (u, v)として得る方法が考えられる。あるいは画素(u, v)ごとに周囲の各画素ペアの再投影誤差Rc, iを、距離が近い画素ペアの再投影誤差Rc, iほど強く反映されるように距離の逆数に応じて重み付け和した値としても良い。 In the above equation (3), the camera parameter E c is obtained as one value for each camera, but the camera parameter error E c, (u, v) that differs for each pixel (u, v) on the camera is calculated. May be good. As a means of calculating different camera parameter errors for each pixel, in the above equation (3), the reprojection error R c, i of the pixel pair closest to each pixel (u, v) is obtained as E c (u, v). The method can be considered. Alternatively, for each pixel (u, v), the reprojection error R c, i of each surrounding pixel pair is reflected more strongly as the reprojection error R c, i of the pixel pair with a shorter distance, depending on the reciprocal of the distance. It may be a weighted sum.
これにより、画素(u, v)に応じた再投影誤差を採用できるため、画像の一部分のみに歪曲収差が大きく含まれる場合などに、より正確に誤差を推定できる。また、画素ごとに誤差Ec (u, v)を得ることで、後段のシルエット抽出パラメータ計算部30において画素(u, v)ごとに異なるカメラパラメータを設定できるようになる。
As a result, the reprojection error according to the pixel (u, v) can be adopted, so that the error can be estimated more accurately when only a part of the image contains a large amount of distortion. Further, by obtaining the error E c (u, v) for each pixel, different camera parameters can be set for each pixel (u, v) in the silhouette extraction
なお、カメラパラメータ誤差Ec (u, v)の計算方法は再投影誤差を用いる方法に限定されない。例えば、カメラレンズによって生じる放射状歪がカメラの画角の外側ほど大きくなるという傾向に基づいて、画像中心からの距離が遠くなるほどEc (u, v)が大きくなるように計算するなどの方法を採用してもよい。 The calculation method of the camera parameter error Ec (u, v) is not limited to the method using the reprojection error. For example, based on the tendency that the radial distortion caused by the camera lens increases toward the outside of the angle of view of the camera, a method is adopted such that Ec (u, v) increases as the distance from the center of the image increases. You may.
シルエット抽出パラメータ計算部30は膨張量計算部31を含み、前記カメラパラメータ誤差推定部20によるカメラパラメータ誤差の推定結果に基づいて、動画像から抽出したシルエットを膨張させる際の膨張量を計算する。
The silhouette extraction
本実施例では、非特許文献3や非特許文献4が開示する代表的な手法で動画像から抽出したシルエットの前景領域(シルエットが白の領域)の輪郭を膨張する。これにより、図7に示すように3Dモデル形成時に欠損が少ないモデル形成が可能になる。
In this embodiment, the contour of the foreground region (the region where the silhouette is white) of the silhouette extracted from the moving image is expanded by the typical method disclosed in
なお、シルエットの輪郭を膨張させることにより、当該シルエットを用いて生成される3Dモデルの輪郭も膨張されてしまうという懸念はある。しかしながら、被写体の一部が欠損しているよりは被写体の3Dモデルが膨張されている方が視聴時の違和感が目立ちにくくなる。加えて、被写体の膨張に関しては、本発明の発明者等が発明し、特許文献1に開示したように、違和感を軽減する手法が既に提案されている。
By expanding the contour of the silhouette, there is a concern that the contour of the 3D model generated using the silhouette will also be expanded. However, when the 3D model of the subject is inflated, the discomfort during viewing becomes less noticeable than when a part of the subject is missing. In addition, regarding the expansion of the subject, as invented by the inventor of the present invention and disclosed in
前記膨張量計算部31は、上式(3)で求められるカメラパラメータ誤差Ecに基づいて膨張量dを計算する。本実施形態では、カメラパラメータ誤差Ecが大きいカメラから抽出したシルエットほど膨張量dがより大きな値に設定され、シルエットがより大きく膨張される。これにより、カメラパラメータの影響で被写体3Dモデルに欠損が生じてしまうことを抑止できる。なお、パラメータ誤差をカメラ単位(Ec)ではなくカメラごとに画素単位Ec,i(u, v)で計算できていれば、膨張量dも画素(u, v)ごとに決定してもよい。
The expansion
シルエット計算部40はシルエット抽出部41およびシルエット輪郭膨張処理部42を備える。シルエット抽出部41は、フレーム画像に非特許文献3や非特許文献4が開示する任意の手法を適用して被写体のシルエットを抽出する。シルエット輪郭膨張処理部42は、シルエット抽出部41が抽出したシルエットに対する後処理として、前記膨張量dに応じた輪郭膨張の処理を施す。
The
前記シルエット輪郭膨張処理部42における膨張は、抽出したシルエットの前景領域の各画素を、その周辺(2d+1)×(2d+1)画素まで拡張することで行われる。dはシルエットの輪郭の膨張量を表すパラメータであり、0以上の整数となる必要がある(d=0は膨張処理が実施されないことを意味する)。なお、シルエットの輪郭膨張は周辺(2d+1)×(2d+1)画素に拡張する方法に限定されず、上下左右4画素への膨張を繰り返すなどの他の膨張方法を採用しても良い。
The expansion in the silhouette contour
なお、図8に示した第2実施形態のように、シルエット計算部40がシルエット輪郭縮退処理部43を更に備える場合には、シルエット抽出パラメータ計算部30が縮退量計算部32を更に備えても良い。
When the
シルエット抽出では、小さいサイズの縮退処理を施した後に大きいサイズの膨張処理を施すことでシルエットの前景領域は膨張させつつ縮退処理時に微細なノイズを消去できることが知られている。 In silhouette extraction, it is known that by performing a degeneracy process of a small size and then an expansion process of a large size, the foreground region of the silhouette can be expanded and minute noise can be eliminated during the degeneration process.
縮退処理は、シルエットの前景画素の周辺(2e+1)×(2e+1)画素内に前景ではない画素が1画素でも含まれている場合に、当該画素は前景領域の輪郭付近にあるものとしてシルエットの状態を前景から背景に変更することで行われる。eはシルエットの縮退量であり、0以上の整数である(ただしe=0は縮退処理が実施されないことを意味する)。 In the degeneration process, when even one non-foreground pixel is included in the peripheral (2e + 1) × (2e + 1) pixels of the foreground pixel of the silhouette, the pixel is near the outline of the foreground area. It is done by changing the state of the silhouette from the foreground to the background. e is the degenerate amount of the silhouette, which is an integer greater than or equal to 0 (where e = 0 means that the degenerate process is not performed).
前記縮退量計算部32は、膨張量dの計算結果に所定の係数を乗じるか、あるいは膨張量dを変数とする所定の関数計算によりd>eの縮退量eを計算できる。このとき、縮退量eはノイズ除去の観点ではd>eに設定されることが望ましい。しかしながら、縮退量eが大き過ぎると本来前景となるべき領域がノイズとして背景にされてしまう懸念もある。そこで、本実施形態では固定的に縮退量e=2とし、前記膨張量計算部31が前記カメラパラメータ誤差Ecおよび縮退量e=2を次式(4)に適用して膨張量dを計算する。
The shrinkage
ここで、roundは小数点以下を四捨五入する関数である。Econstは膨張量dを調節するための定数であり手動で設定される。上式(4)によれば、各カメラの画素ごとにカメラパラメータ誤差Ec(u, v)の大きさによって膨張量dが画素ごとに調節される。 Here, round is a function that rounds off to the nearest whole number. Econst is a constant for adjusting the expansion amount d and is set manually. According to the above equation (4), the expansion amount d is adjusted for each pixel by the magnitude of the camera parameter error Ec (u, v) for each pixel of each camera.
なお、本実施形態では縮退量eを定数としたが、膨張量dを定数とし縮退量eを変数としてもよい。この場合、上式(4)ではEconstの設定によっては膨張量dが負の値となる可能性があるが、膨張量dが負の値になる場合にはd=0として処理を行えばよい。 In this embodiment, the degenerate amount e is a constant, but the degenerate amount d may be a constant and the degenerate amount e may be a variable. In this case, in the above equation (4), the expansion amount d may have a negative value depending on the setting of Econst, but if the expansion amount d becomes a negative value, processing may be performed with d = 0. ..
また、本実施形態ではノイズ除去の観点からd>eとなるように膨張量dおよび縮退量eが計算されるものとして説明したが、本発明はこれのみに限定されるものではなく、d<eやd=eであって良い。本実施形態では、縮退処理および膨張処理が当該順序で少なくとも一回繰り返される。 Further, in the present embodiment, the expansion amount d and the degeneration amount e are calculated so that d> e from the viewpoint of noise reduction, but the present invention is not limited to this, and d <. It may be e or d = e. In this embodiment, the degeneration treatment and the expansion treatment are repeated at least once in the order.
図9は、被写体シルエット抽出装置1の第3実施形態の構成を示した機能ブロック図であり、シルエット計算部40は背景モデルを用いた背景差分法によりシルエット計算を行う。シルエット抽出パラメータ計算部30は背景差分法によるシルエット計算で用いるパラメータをパラメータ誤差の推定結果に基づいて計算する。
FIG. 9 is a functional block diagram showing the configuration of the third embodiment of the subject
本実施形態では、シルエット抽出パラメータ計算部30に背景差分閾値計算部33および背景モデル更新率計算部34を設け、シルエット抽出パラメータとして前景/背景の判定に用いる閾値T(u, v)および背景モデルの更新率U(u, v)を採用した点に特徴がある。
In the present embodiment, the background subtraction
背景差分閾値計算部33は、例えば次式(5)に基づいて閾値T(u, v)を計算する。ここで、Tmin,Tmaxは、それぞれ閾値決定を行う際に最小となる閾値と最大となる閾値である。Emaxはカメラパラメータ誤差Ec(u, v)によるパラメータの変化量をコントロールするための定数である。これらの値は対象とするシーンなどを鑑みて手動で決定される。
The background subtraction
背景モデル更新率計算部34は、例えば次式(6)に基づいて更新率U(u, v)を計算する。ここで、Umin,Umaxはそれぞれ更新率を変化させる際の最小更新率と最大更新率であり、これらの値は対象とするシーンなどを鑑みて手動で決定される。
The background model update
本実施形態によれば、上式(5)により、カメラパラメータ誤差Ec(u, v)が大きくなるほど背景差分閾値T(u, v)が小さく設定されるため各画素を前景と判定されやすくできる。その結果、多くの画素が前景と判定されるようになるので第1,第2実施形態の輪郭膨張に近しい効果を奏することができる。 According to the present embodiment, according to the above equation (5), the background difference threshold T (u, v) is set smaller as the camera parameter error Ec (u, v) becomes larger, so that each pixel can be easily determined as the foreground. .. As a result, since many pixels are determined to be the foreground, it is possible to obtain an effect close to the contour expansion of the first and second embodiments.
さらに、上式(6)により、カメラパラメータ誤差Ec(u, v)が大きくなるほど背景モデルの更新率U(u,v)が小さく設定されるため背景モデルを更新されにくくできる。その結果、背景モデルの更新が進んで輪郭が削られていく効果を抑止することができる。 Further, according to the above equation (6), the update rate U (u, v) of the background model is set smaller as the camera parameter error Ec (u, v) becomes larger, so that the background model can be less likely to be updated. As a result, it is possible to suppress the effect that the background model is updated and the contour is cut.
シルエット計算部40において、前景抽出処理部44は動画像から背景モデルを用いた背景差分法により前景を抽出する。背景を単一のガウス分布でモデル化する場合、図10に模式的に示したように、ある画素の背景モデルを構築するためのFフレーム目までのガウス分布の平均がμF (u, v)、標準偏差がσF (u, v)で与えられるとき、背景差分の計算式は次式(7)となる。
In the
本実施形態では、上記の条件式(7)を満たす画素(u, v)は背景と判断される。IF (u, v)は取得した動画像の各画素の輝度値、zは標準偏差の何倍までを背景と判断するかを調節するパラメータであり、閾値T(u, v)は上式(5)で計算される。 In the present embodiment, the pixels (u, v) satisfying the above conditional expression (7) are determined to be the background. IF (u, v) is the brightness value of each pixel of the acquired moving image, z is a parameter that adjusts how many times the standard deviation is judged as the background, and the threshold value T (u, v) is the above equation. Calculated in (5).
なお、背景差分の判定に使う画像の色空間に関してはグレースケールでも良いし、RGBやYUV等の色空間でも実施可能であるが、複数の色チャネルを持つ場合には全てのチャネルを独立に処理し、全ての色で背景になる条件を満たす場合に背景となると判定するものとする。 The color space of the image used for determining background subtraction may be grayscale or may be implemented in a color space such as RGB or YUV, but if there are multiple color channels, all channels are processed independently. However, if all the colors satisfy the conditions for background, it is determined that the background is used.
背景モデルの構築方法は単純ガウス分布を用いた方法に限定されず、非特許文献3が開示する混合ガウス分布を用いて背景モデルを構築する手法や、非特許文献8が開示する各画素位置の過去の画素サンプルを特定数保持し続けることで背景モデルを構築する手法を採用しても良い。
The method for constructing the background model is not limited to the method using the simple Gaussian distribution, and the method for constructing the background model using the mixed Gaussian distribution disclosed in
画素サンプルを特定数保持する手法では、保持しているサンプル内に入力画素との類似画素が何画素あるかに基づいて前景/背景の判定を行うため、この判定基準となる画素数の閾値を上下させることで、本発明の機構を実現可能である。また更新率という観点でも、特定数保持される画素サンプルを一定の確率で現在フレームの画素で置き換える処理が実施されるため、この確率(=更新率)を上下することで実現できる。 In the method of holding a specific number of pixel samples, the foreground / background is determined based on how many pixels are similar to the input pixels in the held sample. By moving it up and down, the mechanism of the present invention can be realized. Also, from the viewpoint of the update rate, since the process of replacing the pixel sample held in a specific number with the pixel of the current frame is performed with a certain probability, it can be realized by increasing or decreasing this probability (= update rate).
背景モデル更新部45は、背景モデルのガウス分布平均μF (u, v)および標準偏差σF (u, v)を次式(8),(9),(10)により各フレームで更新する。
The background
このように、本実施形態ではフレームごとに背景モデルを徐々に更新することで、日照変化等に応じて少しずつ背景の色が変わる場面等に対して、動的に背景を更新し、精度面で優れたシルエット抽出を実現することができる。 In this way, in this embodiment, by gradually updating the background model for each frame, the background is dynamically updated for a scene where the background color changes little by little according to changes in sunshine, etc., and the accuracy is improved. It is possible to realize excellent silhouette extraction.
なお、本実施形態ではカメラパラメータ誤差Ec(u, v)がカメラごとに画素単位で推定されるものとして説明したが、本発明はこれのみに限定されるものではなく、カメラ単位で推定されても良い。この場合、判定閾値および背景モデルの更新率もカメラ単位で計算される。 In the present embodiment, the camera parameter error Ec (u, v) has been described as being estimated in pixel units for each camera, but the present invention is not limited to this, and is estimated in camera units. Is also good. In this case, the determination threshold value and the update rate of the background model are also calculated for each camera.
また、上記の第3実施形態ではカメラパラメータの推定誤差に基づいて計算するシルエット抽出パラメータが背景差分閾値T(u, v)および背景モデル更新率U(u, v)であるものとして説明した。しかしながら本発明はこれのみに限定されるものではなく、図11に示した第4実施形態のように背景差分閾値T(u, v)のみであっても良いし、あるいは図12に示した第5実施形態のように背景モデル更新率U(u, v)のみであっても良い。 Further, in the third embodiment described above, it has been described that the silhouette extraction parameters calculated based on the estimation error of the camera parameters are the background subtraction threshold T (u, v) and the background model update rate U (u, v). However, the present invention is not limited to this, and may be only the background subtraction threshold T (u, v) as in the fourth embodiment shown in FIG. 11, or the first aspect shown in FIG. 5 As in the embodiment, only the background model update rate U (u, v) may be used.
さらに、第1または第2実施形態と第3ないし第5実施形態とを適宜に組み合わせ、カメラパラメータの推定誤差に基づいてシルエットの膨張量dを計算し、さらにシルエットを背景差分法で抽出する際の背景差分閾値T(u, v)や背景モデル更新率U(u, v)を計算するようにしても良い。 Further, when the first or second embodiment and the third to fifth embodiments are appropriately combined, the expansion amount d of the silhouette is calculated based on the estimation error of the camera parameters, and the silhouette is further extracted by the background subtraction method. The background subtraction threshold T (u, v) and the background model update rate U (u, v) may be calculated.
1…被写体シルエット抽出装置,2…3Dモデル生成部,3…動画像DB,10…動画像取得部,20…カメラパラメータ誤差推定部,21…カメラパラメータ推定部,22…再投影誤差推定部,30…シルエット抽出パラメータ計算部,31…膨張量計算部,32…縮退量計算部,33…背景差分閾値計算部,34…背景モデル更新率計算部,40…シルエット計算部,41…シルエット抽出部,42…シルエット輪郭膨張処理部,43…シルエット輪郭縮退処理部,44…前景抽出処理部,45…背景モデル更新部,100…3Dモデル生成システム 1 ... subject silhouette extractor, 2 ... 3D model generator, 3 ... moving image DB, 10 ... moving image acquisition unit, 20 ... camera parameter error estimation unit, 21 ... camera parameter estimation unit, 22 ... reprojection error estimation unit, 30 ... Silhouette extraction parameter calculation unit, 31 ... Expansion amount calculation unit, 32 ... Decrease amount calculation unit, 33 ... Background difference threshold calculation unit, 34 ... Background model update rate calculation unit, 40 ... Silhouette calculation unit, 41 ... Silhouette extraction unit , 42 ... Silhouette contour expansion processing unit, 43 ... Silhouette contour reduction processing unit, 44 ... Foreground extraction processing unit, 45 ... Background model update unit, 100 ... 3D model generation system
Claims (15)
動画像に基づいてカメラパラメータ誤差を推定する手段と、
カメラパラメータ誤差の推定結果に基づいてシルエット抽出パラメータを計算する手段と、
前記シルエット抽出パラメータに基づいて被写体シルエットを計算する手段とを具備したことを特徴とする被写体シルエット抽出装置。 In the subject silhouette extractor that extracts the silhouette of the subject from the moving image taken by the camera,
A means of estimating camera parameter error based on moving images,
A means to calculate silhouette extraction parameters based on the estimation result of camera parameter error,
A subject silhouette extraction device comprising a means for calculating a subject silhouette based on the silhouette extraction parameter.
カメラが撮影した3D空間およびその動画像の対応する画素ペアの座標に基づいてカメラパラメータを推定するする手段と、
前記カメラパラメータの再投影誤差を計算する手段とを具備し、
前記再投影誤差でカメラパラメータ誤差を代表することを特徴とする請求項1に記載の被写体シルエット抽出装置。 The means for estimating the camera parameter error is
A means of estimating camera parameters based on the coordinates of the corresponding pixel pair of the 3D space taken by the camera and its moving image,
A means for calculating the reprojection error of the camera parameter is provided.
The subject silhouette extraction device according to claim 1, wherein the reprojection error represents a camera parameter error.
前記最適化後のカメラパラメータの再投影誤差でカメラパラメータ誤差を代表することを特徴とする請求項2に記載の被写体シルエット抽出装置。 Further provided with means for optimizing the camera parameters to minimize the reprojection error.
The subject silhouette extraction device according to claim 2, wherein the camera parameter error is represented by the reprojection error of the camera parameter after the optimization.
カメラごとに各画素ペアの再投影誤差の平均値でカメラパラメータ誤差を代表することを特徴とする請求項4に記載の被写体シルエット抽出装置。 The means for estimating the camera parameter error is to calculate the reprojection error of each pixel pair for each camera.
The subject silhouette extraction device according to claim 4, wherein the camera parameter error is represented by the average value of the reprojection errors of each pixel pair for each camera.
各カメラの画素ごとに距離の最も近い画素ペアの再投影誤差でカメラパラメータ誤差を代表することを特徴とする請求項6に記載の被写体シルエット抽出装置。 The means for estimating the camera parameter error is to calculate the reprojection error of each pixel pair for each camera.
The subject silhouette extraction device according to claim 6, wherein the camera parameter error is represented by the reprojection error of the pixel pair having the closest distance for each pixel of each camera.
各カメラの画素ごとに各画素ペアの再投影誤差および当該画素ペアまでの距離の関数でカメラパラメータ誤差を代表することを特徴とする請求項6に記載の被写体シルエット抽出装置。 The means for estimating the camera parameter error is to calculate the reprojection error of each pixel pair for each camera.
The subject silhouette extraction device according to claim 6, wherein the camera parameter error is represented by a function of the reprojection error of each pixel pair and the distance to the pixel pair for each pixel of each camera.
前記被写体シルエットを計算する手段が、被写体シルエットの輪郭を前記膨張量に応じて膨張させる輪郭膨張処理手段を具備し、
前記膨張量を計算する手段は、カメラパラメータ誤差が大きいほど膨張量が多くなるように計算することを特徴とする請求項1ないし8のいずれかに記載の被写体シルエット抽出装置。 The means for calculating the silhouette extraction parameter includes means for calculating the expansion amount of the subject silhouette based on the camera parameter error.
The means for calculating the subject silhouette includes contour expansion processing means for expanding the contour of the subject silhouette according to the expansion amount.
The subject silhouette extraction device according to any one of claims 1 to 8, wherein the means for calculating the expansion amount is calculated so that the expansion amount increases as the camera parameter error increases.
被写体シルエットの輪郭に対して縮退および膨張の各処理を当該順序で少なくとも一回繰り返すことを特徴とする請求項9に記載の被写体シルエット抽出装置。 The means for calculating the subject silhouette includes a contour shrinking processing means for shrinking the contour of the subject silhouette by a predetermined amount.
The subject silhouette extraction device according to claim 9, wherein each process of degeneration and expansion is repeated at least once in the order with respect to the contour of the subject silhouette.
前記シルエット抽出パラメータを計算する手段が前景領域と背景領域とを識別するための閾値を計算する手段を具備し、
前記カメラパラメータ誤差が大きいほど各画素が前景領域に識別され易くなる閾値が計算されることを特徴とする請求項1ないし10のいずれかに記載の被写体シルエット抽出装置。 The means for calculating the subject silhouette is to calculate the subject silhouette by the background subtraction method.
The means for calculating the silhouette extraction parameter is provided with a means for calculating a threshold value for discriminating between the foreground area and the background area.
The subject silhouette extraction device according to any one of claims 1 to 10, wherein a threshold value is calculated so that the larger the camera parameter error is, the easier it is for each pixel to be identified in the foreground region.
前記シルエット抽出パラメータを計算する手段が背景モデルの更新率を計算する手段を具備し、
前記カメラパラメータ誤差が大きいほど更新率が低い値に計算されることを特徴とする請求項1ないし10のいずれかに記載の被写体シルエット抽出装置。 The means for calculating the subject silhouette is to calculate the subject silhouette by the background subtraction method.
The means for calculating the silhouette extraction parameter is provided with a means for calculating the update rate of the background model.
The subject silhouette extraction device according to any one of claims 1 to 10, wherein the larger the camera parameter error is, the lower the update rate is calculated.
前記シルエット抽出パラメータを計算する手段が、
前景領域と背景領域とを識別するための閾値を計算する手段と、
背景モデルの更新率を計算する手段とを具備し、
前記カメラパラメータ誤差が大きいほど、各画素が前景領域に識別され易くなる閾値が計算され、更新率が低い値に計算されることを特徴とする請求項1ないし10のいずれかに記載の被写体シルエット抽出装置。 The means for calculating the subject silhouette is to calculate the subject silhouette by the background subtraction method.
The means for calculating the silhouette extraction parameters is
A means of calculating a threshold for distinguishing between the foreground area and the background area,
Equipped with a means to calculate the update rate of the background model,
The subject silhouette according to any one of claims 1 to 10, wherein a threshold value is calculated so that the larger the camera parameter error is, the easier it is for each pixel to be identified in the foreground region, and the update rate is calculated to a lower value. Extractor.
動画像に基づいてカメラパラメータ誤差を推定し、
カメラパラメータ誤差の推定結果に基づいてシルエット抽出パラメータを計算し、
前記シルエット抽出パラメータに基づいて被写体シルエットを計算することを特徴とする被写体シルエット抽出方法。 In the subject silhouette extraction method, in which the computer extracts the silhouette of the subject from the moving image taken by the camera.
Estimate camera parameter error based on moving image
Calculate the silhouette extraction parameters based on the estimation result of the camera parameter error,
A method for extracting a subject silhouette, which comprises calculating a subject silhouette based on the silhouette extraction parameter.
動画像に基づいてカメラパラメータ誤差を推定する手順と、
カメラパラメータ誤差の推定結果に基づいてシルエット抽出パラメータを計算する手順と、
前記シルエット抽出パラメータに基づいて被写体シルエットを計算する手順と、をコンピュータに実行させる被写体シルエット抽出プログラム。 In the subject silhouette extraction program that extracts the silhouette of the subject from the moving image taken by the camera
The procedure for estimating the camera parameter error based on the moving image, and
The procedure to calculate the silhouette extraction parameters based on the estimation result of the camera parameter error, and
A subject silhouette extraction program that causes a computer to execute a procedure for calculating a subject silhouette based on the silhouette extraction parameters.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020212906A JP7491830B2 (en) | 2020-12-22 | Apparatus, method and program for extracting silhouette of subject |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020212906A JP7491830B2 (en) | 2020-12-22 | Apparatus, method and program for extracting silhouette of subject |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022099127A true JP2022099127A (en) | 2022-07-04 |
JP7491830B2 JP7491830B2 (en) | 2024-05-28 |
Family
ID=
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI524734B (en) | Method and device for generating a depth map | |
CN106875437B (en) | RGBD three-dimensional reconstruction-oriented key frame extraction method | |
KR100681320B1 (en) | Method for modelling three dimensional shape of objects using level set solutions on partial difference equation derived from helmholtz reciprocity condition | |
JP2020129276A (en) | Image processing device, image processing method, and program | |
CN109462747B (en) | DIBR system cavity filling method based on generation countermeasure network | |
JP2007000205A (en) | Image processing apparatus, image processing method, and image processing program | |
WO2018053952A1 (en) | Video image depth extraction method based on scene sample library | |
CN114693760A (en) | Image correction method, device and system and electronic equipment | |
CN112085673A (en) | Multi-exposure image fusion method for removing strong ghost | |
CN109829925B (en) | Method for extracting clean foreground in matting task and model training method | |
RU2419880C2 (en) | Method and apparatus for calculating and filtering disparity map based on stereo images | |
JP2010121945A (en) | Three-dimensional shape forming system | |
CN111028170A (en) | Image processing method, image processing apparatus, electronic device, and readable storage medium | |
CN115546505A (en) | Unsupervised monocular image depth estimation method based on deep learning | |
CN113538569A (en) | Weak texture object pose estimation method and system | |
JP6914734B2 (en) | Silhouette extractor, method and program | |
KR101125061B1 (en) | A Method For Transforming 2D Video To 3D Video By Using LDI Method | |
CN110580696A (en) | Multi-exposure image fast fusion method for detail preservation | |
JP2010506482A (en) | Method and filter for parallax recovery of video stream | |
CN113569896A (en) | Computer-implemented method for 3D positioning of objects based on image and depth data | |
KR102327304B1 (en) | A method of improving the quality of 3D images acquired from RGB-depth camera | |
CN111105370A (en) | Image processing method, image processing apparatus, electronic device, and readable storage medium | |
JP7491830B2 (en) | Apparatus, method and program for extracting silhouette of subject | |
CN114677393B (en) | Depth image processing method, depth image processing device, image pickup apparatus, conference system, and medium | |
JP2022099127A (en) | Subject silhouette extract apparatus, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230307 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240222 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240515 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240516 |