JP7159384B2 - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP7159384B2 JP7159384B2 JP2021068487A JP2021068487A JP7159384B2 JP 7159384 B2 JP7159384 B2 JP 7159384B2 JP 2021068487 A JP2021068487 A JP 2021068487A JP 2021068487 A JP2021068487 A JP 2021068487A JP 7159384 B2 JP7159384 B2 JP 7159384B2
- Authority
- JP
- Japan
- Prior art keywords
- interest
- image
- pixel
- viewpoint
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本発明は、撮像画像から前景の被写体による領域を抽出する技術に関する。 The present invention relates to a technique for extracting a foreground subject area from a captured image.
従来、被写体(前景の被写体と背景の被写体とを含む)を撮像することで取得した撮像画像から前景の被写体による領域を抽出する手法として、背景差分法が存在する。背景差分法では、前景の被写体と背景の被写体とが写っている撮像画像の画素値と、背景の被写体のみが写っている背景画像の画素値との画素毎の差分に基づいて、前景の被写体による領域を抽出した前景画像を作成する。このとき、特定の条件の元で予め撮像した背景のみが写っている画像を背景画像として用いた場合、時間の経過に伴う日照の変化などにより背景が変化すると、前景の被写体による領域を抽出する精度が低下してしまうという問題があった。 2. Description of the Related Art Conventionally, there is a background subtraction method as a method for extracting an area of a foreground subject from a captured image obtained by imaging a subject (including a foreground subject and a background subject). In the background subtraction method, the foreground object is calculated based on the pixel-by-pixel difference between the pixel values of the captured image showing the foreground and background objects and the pixel value of the background image showing only the background object. Create a foreground image by extracting the region by . At this time, if an image in which only the background is captured in advance under specific conditions is used as the background image, and the background changes due to changes in sunlight over time, the area of the subject in the foreground is extracted. There is a problem that the accuracy is lowered.
上記の問題を解決するために、特許文献1は、撮像時刻が異なる複数の画像に基づいて作成した背景画像を用いることで、背景の変化によらず前景の被写体による領域を抽出する技術を開示する。 In order to solve the above problem, Patent Literature 1 discloses a technique for extracting a foreground subject area regardless of changes in the background by using a background image created based on a plurality of images captured at different times. do.
また、特許文献2は、同一時刻において異なる視点から撮像した複数の画像に基づいて作成した背景画像を用いて、時間の経過に伴う被写体の変化によらず前景の被写体による領域を抽出する技術を開示する。 Further, Patent Document 2 discloses a technique for extracting an area of a foreground subject regardless of changes in the subject over time using a background image created based on a plurality of images captured from different viewpoints at the same time. Disclose.
しかしながら、特許文献1では、前景の被写体が動かないで停止している場合、この前景の被写体による領域を背景の被写体による領域と誤って判定するため、背景画像を精度良く作成できない。このため、前景の被写体による領域の抽出精度が低下するという課題がある。 However, in Patent Document 1, when the foreground subject is stationary without moving, the area of the foreground subject is erroneously determined to be the area of the background subject, so the background image cannot be created with high accuracy. Therefore, there is a problem that the accuracy of extracting the area of the subject in the foreground is lowered.
また、特許文献2では、単一の視点からでは見えない背景の被写体の情報を、他の視点における情報により補うことで背景画像を作成するが、シーン内に存在する前景の被写体が密集し前景の被写体が重なる領域などにおいて、背景画像を精度良く作成できない。このため、前景の被写体による領域の抽出精度が低下するという課題がある。 In Patent Document 2, a background image is created by supplementing information on a background subject that cannot be seen from a single viewpoint with information from another viewpoint. Background images cannot be created with high accuracy in areas such as areas where multiple subjects overlap. Therefore, there is a problem that the accuracy of extracting the area of the subject in the foreground is lowered.
そこで本発明は、上記の課題を鑑みて、時間の経過に伴う被写体の変化(移動など)の有無や前景の被写体の疎密などの被写体の状態によらず、前景の被写体による領域を高精度に抽出することを目的とする。 Therefore, in view of the above-mentioned problems, the present invention is capable of accurately identifying an area of a foreground subject regardless of whether or not the subject changes (moves, etc.) with the passage of time and the state of the subject such as the density of the foreground subject. The purpose is to extract.
本発明は、着目視点から撮影されて取得された、被写体を含む着目画像を取得する第1取得手段と、前記着目視点とは異なる複数の視点から撮影されて取得された複数の参照画像を取得する第2取得手段と、前記第2取得手段により取得された複数の参照画像を変換して、前記着目視点から見た場合の複数の変換画像を生成する生成手段と、前記第1取得手段により取得された着目画像の着目画素の画素値と、前記生成手段により生成された複数の変換画像それぞれにおける前記着目画素と対応する画素の画素値との差分に関する指標に基づいて、前記着目画像における前記被写体の画像領域を決定する決定手段と、を有し、前記決定手段は、前記指標に基づいて、前記着目画像における補正対象画素を特定し、特定した補正対象画素を補正することにより補正着目画像を生成し、前記第1取得手段により取得された着目画像と、前記補正着目画像とに基づいて、前記着目画像における前記被写体の画像領域を決定することを特徴とする画像処理装置である。 The present invention provides a first acquisition unit that acquires an image of interest including a subject that is captured from a viewpoint of interest and acquires a plurality of reference images that are captured from a plurality of viewpoints different from the viewpoint of interest. a generation means for generating a plurality of transformed images viewed from the viewpoint of interest by transforming the plurality of reference images acquired by the second acquisition means; and the first acquisition means Based on an index relating to a difference between a pixel value of a pixel of interest in the obtained image of interest and a pixel value of a pixel corresponding to the pixel of interest in each of the plurality of converted images generated by the generating means, the determining means for determining an image area of a subject , wherein the determining means specifies pixels to be corrected in the image of interest based on the index, and corrects the specified pixels to be corrected to obtain a corrected image of interest. and determines an image area of the subject in the image of interest based on the image of interest acquired by the first acquisition means and the corrected image of interest .
本発明によれば、時間の経過に伴う被写体の変化(移動など)の有無や前景の被写体の疎密などの被写体の状態によらず、前景の被写体による領域を高精度に抽出することができる。 According to the present invention, it is possible to extract the area of the foreground object with high accuracy regardless of whether or not the object changes (moves, etc.) with the passage of time and the condition of the object such as the density of the foreground object.
以下、本発明の実施形態について、図面を参照して説明する。ただし、以下の実施形態は本発明を限定するものではなく、また、以下の実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成要素については、同じ符号を付して説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the following embodiments do not limit the present invention, and not all combinations of features described in the following embodiments are essential for the solution of the present invention. In addition, the same components will be described with the same reference numerals.
[実施例1]
実施例1では、多視点画像、具体的には複数の異なる視点における前景の被写体の画像を一部含む背景の被写体の画像(以下、不完全な背景画像)に基づき、着目視点における前景の被写体の画像を含まない背景の被写体の画像(以下、完全な背景画像)を作成する。そして、完全な背景画像を用いて、処理対象の画像から前景の被写体による領域を抽出する。
[Example 1]
In the first embodiment, a foreground subject at a viewpoint of interest is detected based on a multi-viewpoint image, specifically, an image of a background subject that partially includes images of the foreground subject at a plurality of different viewpoints (hereinafter referred to as an incomplete background image). Create an image of the background subject that does not include the image of the background (hereinafter referred to as the complete background image). The complete background image is then used to extract the foreground subject area from the image to be processed.
<前景領域を抽出する処理の概要について>
以下、本実施例における前景領域を抽出する処理の概要について、図4を用いて説明する。本実施例では、まず、複数の異なる視点における背景画像データ401を取得する。背景画像データとは、背景の被写体の画像、所謂背景画像である。ここで取得する背景画像データは、前景の被写体の画像(以下、前景画像)を全く含まない完全な背景画像である必要はないが、前景領域を抽出する対象の画像を撮像した時刻に近い時刻に撮像した画像であることが望ましい。取得する複数の背景画像データ401の中には、前景領域を抽出する対象の画像を撮像した視点402と同一の視点における画像が含まれているものとする。以下、前景領域を抽出する対象の画像を対象画像(データ)と呼び、対象画像(データ)を撮像した視点を着目視点と呼ぶ。
<Outline of processing for extracting the foreground area>
An overview of the processing for extracting the foreground region in this embodiment will be described below with reference to FIG. In this embodiment, first,
次に、取得した背景画像データ401を、視点毎に、地上面を基準として着目視点402から見た場合の画像へと変換することで、着目視点における背景画像データ403を作成する。ここで作成される背景画像データ403の数は、背景画像データ401の数と同一である。以下、背景画像データ401を変換することで得られる背景画像データ403を、変換背景画像データ403と呼ぶ。
Next,
ここで、前景の被写体とは、撮像画像に含まれる被写体の中で撮像装置に対して近い位置に存在する被写体を意味する。例えば、対象画像データがスポーツなどの競技シーンを撮像したデータである場合、選手や審判などの人物や、ゴールやボールなどの器具が前景の被写体であり、前景の被写体には、時系列に沿って連続で撮像した複数の画像において概ね動き続けるものが含まれる。一方で、背景の被写体とは、撮像画像に含まれる被写体の中で撮像装置に対して遠い位置に存在するため前景の被写体の背後となる被写体を意味する。例えば、対象画像データがスポーツなどの競技シーンを撮像したデータである場合、芝や土で構成されるグラウンド、体育館の床などが背景の被写体であり、背景の被写体は、時系列に沿って連続で撮像した複数の画像において概ね止まっているものが多い。 Here, the subject in the foreground means a subject existing in a position close to the imaging device among the subjects included in the captured image. For example, if the target image data is data of a competition scene such as a sport, the foreground subjects are people such as athletes and referees, and equipment such as goals and balls. In a plurality of images captured continuously, images that generally continue to move are included. On the other hand, the background subject means a subject behind the foreground subject because it exists at a position far from the imaging device among the subjects included in the captured image. For example, if the target image data is the data of a competition scene such as a sport, the background object may be a ground made of grass or soil, or the floor of a gymnasium, and the background object is continuous along the time series. Many of the images captured in .
このような前景の被写体は地上面からの高さを持つ一方で、背景の被写体は地上面からの高さを持たない。そのため、複数の変換背景画像データ403を用いて、地上面からの高さを持つ被写体つまり前景の被写体の画像(前景画像)を検出し、該検出した前景画像を不完全な背景画像から除去することで、着目視点402における完全な背景画像を作成する。具体的には、着目視点402における画像を含む複数の変換背景画像データ403について、着目画素間の一致の度合いを画素毎に算出し、一致の度合いが低い画素を前景の被写体の画像領域の画素として検出する。上述の通り、変換背景画像データ403は、背景画像データ401を、地上面を基準面として着目視点402から見た場合の画像に変換することで得られる画像である。そのため、地上面に存在し高さを持たない被写体404に対応する、背景画像データ401における領域405~407の画素の座標はそれぞれ、全ての変換背景画像データ403において共通して同じ位置に存在する領域408の画素の座標へと変換される。一方、高さを持つ被写体409に対応する、背景画像データ401における領域410~412の画素の座標はそれぞれ、視点によって位置が異なる領域413~415の画素の座標へと変換される。従って、複数の変換背景画像データ403において、着目画素間の一致の度合いが高い画素を、高さを持たない背景の被写体の画像領域の画素とみなし、一致の度合いが低い画素を、高さを持つ前景の被写体の画像領域の画素とみなす。これにより、完全な背景画像を作成する。最後に、作成した着目視点402における完全な背景画像と対象画像データとを比較することで前景領域を抽出する。
Such foreground objects have height above the ground plane, while background objects do not. Therefore, using a plurality of converted
以上が、本実施例で行われる処理の概要である。なお、用いる対象画像データは上記の例に限られず、監視カメラで撮像したデータなど様々な画像データを用いることができる。また、ここでは、背景画像データ401の中に着目視点における画像が含まれる場合について説明したが、背景画像データの中に着目視点における画像が含まれない場合にも本実施例を適用可能であり、具体的な処理方法は後述する。
The above is the outline of the processing performed in the present embodiment. Note that the target image data to be used is not limited to the above example, and various image data such as data captured by a surveillance camera can be used. Also, here, the case where the
<画像処理装置のハードウェア構成について>
以下、本実施例の画像処理装置のハードウェア構成について述べる。図1は、本実施例の画像処理装置のハードウェア構成の一例を示すブロック図である。本実施例の画像処理装置100は、CPU101、RAM102、ROM103、二次記憶装置104、入力インターフェース105、及び出力インターフェース106を備え、これらの構成要素は、システムバス107によって相互に接続されている。また、画像処理装置100は、入力インターフェース105を介して外部記憶装置108に接続されており、出力インターフェース106を介して外部記憶装置108と表示装置109とに接続されている。
<Hardware Configuration of Image Processing Apparatus>
The hardware configuration of the image processing apparatus of this embodiment will be described below. FIG. 1 is a block diagram showing an example of the hardware configuration of the image processing apparatus of this embodiment. The
CPU101は、RAM102をワークメモリとして、ROM103に格納されたプログラムを実行し、システムバス107を介して画像処理装置100の各構成要素を統括的に制御する。これにより、後述する様々な処理が実行される。
The
二次記憶装置104は、画像処理装置100で取り扱われる種々のデータを記憶する記憶装置であり、本実施例ではHDDが用いられる。CPU101は、システムバス107を介して二次記憶装置104へのデータの書き込みと二次記憶装置104に記憶されたデータの読出しとを行うことができる。なお、二次記憶装置104としてHDDの他に、光ディスクドライブやフラッシュメモリなど、様々な記憶デバイスを用いることが可能である。
The
入力インターフェース105は、例えばUSBやIEEE1394等のシリアルバスインターフェースであり、外部装置から画像処理装置100へのデータや命令等の入力は、入力インターフェース105を介して行われる。画像処理装置100は、入力インターフェース105を介して、外部記憶装置108(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリなどの記憶媒体)からデータを取得する。なお、入力インターフェース105にはマウスやキーボードなどユーザーが入力するための入力デバイス(不図示)も接続可能である。出力インターフェース106は、入力インターフェース105と同様のUSBやIEEE1394等のシリアルバスインターフェースの他に、例えばDVIやHDMI(登録商標)等の映像出力端子も含む。画像処理装置100から外部装置へのデータの出力は、出力インターフェース106を介して行われる。画像処理装置100は、出力インターフェース106を介して表示装置109(液晶ディスプレイなどの各種画像表示デバイス)に処理した画像などを出力することで、画像の表示を行う。なお、画像処理装置100の構成要素は上述のもの以外にも存在するが、本発明の主眼ではないため、説明を省略する。
The
<前景領域を抽出する処理について>
以下、本実施例における画像処理装置100が実行する前景領域を抽出する処理について、図2及び図3を用いて説明する。図2は、画像処理装置100の機能構成を示すブロック図であり、図3は、前景領域を抽出する処理の流れを示すフローチャートである。画像処理装置100のCPU101は、RAM102をワークメモリとして用いてROM103に格納されたプログラムを実行することで、図2に示す各構成要素として機能し、図3に示す一連の処理を実行する。なお、以下に示す処理の全てがCPU101によって実行される必要はなく、処理の一部または全部が、CPU101以外の1つ又は複数の処理回路によって行われるように画像処理装置100を構成しても良い。
<Regarding the process of extracting the foreground area>
Processing for extracting a foreground region performed by the
以下、各構成要素により行われる処理の流れを説明する。ステップS301において、対象画像データ取得部201は、入力インターフェース105を介して外部記憶装置108から、又は、二次記憶装置104から、対象画像データを取得する。上述の通り、対象画像データとは、前景領域を抽出する対象となる画像である。また、対象画像データ取得部201は、対象画像データを撮像したカメラの視点を着目視点と定める。なお、ここでは、対象画像データが1枚の画像である場合について説明しているが、対象画像データが複数枚の画像である場合についても、本実施例を適用することが可能である。さらに、対象画像データ取得部201は、対象画像データを撮像したカメラのパラメータ(以下、カメラパラメータ)を、対象画像データとともに取得する。ここでカメラパラメータとは、3次元空間中の点をカメラで撮像される画像上に射影する計算を可能とするパラメータであって、カメラの位置、姿勢を表す外部パラメータと、焦点距離、光学中心を表す内部パラメータとを含む。メモリ上に予め記憶されている計測値や設計値を、カメラパラメータとして用いて良い。対象画像データ取得部201は、対象画像データを前景抽出部207に、カメラパラメータを画像変換部203に出力する。
The flow of processing performed by each component will be described below. In step S<b>301 , the target image
ステップS302において、背景画像データ取得部202は、入力インターフェース105を介して外部記憶装置108から、又は、二次記憶装置104から、複数の異なる視点における複数の背景画像データを取得する。ここで背景画像データとは、対象画像データを撮像した際の環境と略同一の環境(天候や時間帯など)における背景の被写体の画像である。なお、上述の通り、本ステップで取得する背景画像データは、前景画像を全く含まない背景画像(完全な背景画像)である必要はない。
In step S<b>302 , the background image
本実施例では、シーンを同一の視点から時系列に沿って連続で撮像することで取得した複数の異なる時刻に対応する複数の画像に対して、中間値フィルタを用いたフィルタ処理を行うことで、各視点における背景画像データを作成する。ただし、背景画像データを作成する手法はこの手法に限られない。例えば、平均値フィルタなど他のフィルタを用いて背景画像データを作成しても良いし、複数の画像に対するクラスタリング処理を行うことで、背景画像データを作成しても良い。また、視点毎に、前景の被写体が存在しない状態で事前に撮像することで取得した背景画像データを用いても良い。 In this embodiment, a plurality of images corresponding to a plurality of different times acquired by continuously capturing a scene from the same viewpoint along the time series are filtered using a median filter. , create background image data for each viewpoint. However, the method of creating background image data is not limited to this method. For example, the background image data may be created using another filter such as a mean filter, or the background image data may be created by performing clustering processing on a plurality of images. Alternatively, background image data obtained by capturing an image in advance without a foreground subject may be used for each viewpoint.
また、背景画像データ取得部202は、各背景画像データに対応するカメラパラメータを、背景画像データとともに取得する。さらに、背景画像データ取得部202は、複数の背景画像データのそれぞれを区別するため、各背景画像データを、カメラの視点を区別する番号(以下、カメラの視点番号)と対応付けて記憶する。背景画像データ取得部202は、背景画像データとカメラパラメータとを画像変換部203に出力し、背景画像データのみを補正部206に出力する。
The background image
ステップS303において、画像変換部203は、対象画像データ取得部201と背景画像データ取得部202とから取得したカメラパラメータを用いて、背景画像データ取得部202から取得した背景画像データを、着目視点から見た場合の画像へと変換する。具体的には、背景画像データ毎に、地上面を基準として射影変換することで、着目視点から見た場合の画像を得る。なお、本ステップでの画像変換により得られる背景画像(データ)を変換背景画像(データ)と呼ぶ。このように、画像変換部203は、変換背景画像データ作成手段として機能する。ここで、本ステップにおける画像変換の手法を、図5を用いて説明する。
In step S303, the
図5に示すように、3次元空間中のある点501がカメラ502の画像に投影されている場合、点501とカメラ502とを結ぶ直線と、画像面503とが交差してできる点504が、3次元空間中の点501の画像面503への投影像となる。同様に、カメラ502と異なる位置に存在するカメラ(別視点のカメラ)505では、点501とカメラ505とを結ぶ直線と、画像面506とが交差してできる点507が、点501の画像面506への投影像となる。ここで、点501を含む、画像面503と画像面506とに投影されている全ての3次元空間中の点が、地上面である同一平面上に存在する場合について検討する。この場合、カメラ502とカメラ505とのカメラパラメータによって算出される3×3のホモグラフィ行列H01を用いて、式(1)により、画像面503上の任意の画素の座標(u0、v0)は、画像面506上の座標(u1、v1)へと変換される。
As shown in FIG. 5, when a
ステップS303では、背景画像データ取得部202から取得した背景画像データに対応する視点のカメラを上述のカメラ502とし、対象画像データ取得部201で定めた着目視点のカメラをカメラ505とする射影変換を、背景画像データ毎に実行する。このため、本ステップで取得する変換背景画像データの数は、背景画像データ取得部202が取得した背景画像データの数と同一である。また、変換背景画像データはそれぞれ、背景画像データ取得部202が取得した各背景画像データの視点番号と対応付けて記憶される。画像変換部203は、変換背景画像データを一致度算出部204と補正部206とに出力する。
In step S303, the camera of the viewpoint corresponding to the background image data acquired from the background image
ステップS304において、画像変換部203は、背景画像データ取得部202から取得した背景画像データの中から、対象画像データを撮像したカメラ位置(着目視点)と最も近い視点に対応する画像を、基準の背景画像(以下、基準背景画像)として定める。具体的には、着目視点の座標(Xo,Yo,Zo)と、背景画像データ取得部202から取得した背景画像データに対応する視点の座標(Xi,Yi,Zi)との距離を視点毎に算出する。ここで、iは視点番号を表しており、1≦i<視点数+1となる。そして、算出した距離が最小となる視点(基準視点)を検出し、基準視点に対応する背景画像(データ)を基準背景画像(データ)とする。画像変換部203は、基準背景画像に対応する視点番号を、一致度算出部204と補正部206とに出力する。本実施例では、基準背景画像に対応する視点番号を、基準視点番号と呼ぶ。
In step S304, the
ステップS305において、一致度算出部204は、複数の変換背景画像データにおいて画素が一致するかを判定する対象となる、変換背景画像データにおける着目画素を決定する。本実施例では、まず、変換背景画像データの左上の画素が着目画素として選択され、その後、未処理の画素が着目画素として順次選択される。なお、変換背景画像データの全画素について、複数の変換背景画像データにおいて画素が一致するかの判定が実行されれば、どのような順番で着目画素を決定しても良い。
In step S305, the degree-of-
ステップS306において、一致度算出部204は、画像変換部203から取得した複数の変換背景画像データを用いて、基準視点番号に対応する変換背景画像データと他の変換背景画像データとの間の、着目画素における一致度を算出する。以下、この一致度の算出手法を具体的に説明する。
In step S306, the degree-of-
まず、一致度算出部204は、決定した着目画素の座標(u2、v2)における、変換背景画像データの画素値Bj(u2、v2)を取得する。ここでjは複数の変換背景画像データのそれぞれを区別する添え字を表し、一致度算出部204は、変換背景画像データの数分の画素値を取得する。次に、一致度算出部204は、取得した全画素値の中間値を算出する。この中間値は、一致度を算出する際の基準値Mとして用いられる。なお、基準値はこれに限られず、平均値など、複数の画素値の統計的な性質を反映する任意の値を基準値として用いて良い。
First, the matching
次に、一致度算出部204は、着目画素における一致度を、基準視点番号に対応する変換背景画像データにおける着目画素の画素値B0(u2、v2)と算出した基準値M(u2、v2)とを用いて、式(2)により算出する。
Next, the degree-of-
ここで、kはRGB3チャンネルを識別するための添え字を表す。式(2)により算出する一致度Dは、複数の変換背景画像データにおける画素値のばらつきが少ないほど小さくなる。なお、用いる一致度はこれに限られず、画素間の違いを示す任意の値を用いて良い。例えば、基準視点番号に対応する変換背景画像データにおける着目画素の画素値B0(u2、v2)と、他の変換背景画像データにおける着目画素の画素値それぞれとの差分の総和を一致度として用いても良い。 Here, k represents a subscript for identifying RGB3 channels. The degree of matching D calculated by Equation (2) becomes smaller as the variations in pixel values in the plurality of pieces of converted background image data are smaller. Note that the matching degree to be used is not limited to this, and any value indicating the difference between pixels may be used. For example, the sum of the differences between the pixel value B 0 (u 2 , v 2 ) of the pixel of interest in the converted background image data corresponding to the reference viewpoint number and the pixel value of the pixel of interest in the other converted background image data is defined as the degree of matching. You can use it as
ステップS307において、一致度算出部204は、変換背景画像データの全画素についてステップS305~ステップS306の処理を行ったかを判定する。ステップS307の判定の結果が真の場合、一致度算出部204は、算出した全画素の一致度を補正判定部205に、算出した基準値を補正部206に出力し、ステップS308に進む。一方、ステップS307の判定の結果が偽の場合、ステップS305に戻る。
In step S307, the degree-of-
ステップS308において、補正判定部205は、フラグマップを初期化つまりフラグマップの全画素の画素値を0とする。本ステップで初期化するフラグマップは、ステップS311で基準視点番号に対応する変換背景画像データの画素を補正する際、補正処理の対象となる画素を判定するために用いられる。このフラグマップでは、補正処理の対象の画素に対応する画素値に1が代入され、補正処理の対象ではない画素に対応する画素値に0が代入される。本ステップでの初期化により、基準視点番号に対応する変換背景画像データの全画素について、補正処理の対象ではないとされることとなる。
In step S308, the
ステップS309において、補正判定部205は、一致度算出部204から取得した一致度に基づいてフラグマップを更新する。具体的には、補正判定部205は、基準視点番号に対応する変換背景画像データにおいて前景の被写体の画像領域の画素である可能性が高いとみなされた画素に対応する、フラグマップの画素値を1に変更する。本実施例では、算出した一致度Dが事前に定めた閾値以上であれば、基準視点番号に対応する変換背景画像データの画素と他の変換背景画像データの画素との一致の度合いが低いため、着目画素が前景の被写体の画像領域の画素である可能性が高いと判定する。一方、一致度Dが閾値未満であれば、基準視点番号に対応する変換背景画像データの画素と他の変換背景画像データの画素との一致の度合いが高いため、着目画素が背景の被写体の画像領域の画素である可能性が高いとする。なお、本ステップで用いる閾値は、画素値の最大値などに基づいて決定し、最大値の20%より小さい値、例えば、最大値の1%~5%の範囲内の任意の値を用いて閾値を決定する。すなわち、任意の値をaとすると、式(2)では一致度として差分二乗和を用いることから、閾値はa×a×3となる。なお、仮に一致度として差分の総和を用いる場合、閾値はa×3となる。また、前景の被写体の画像領域の画素であるかの判定は、画素毎に行う。補正判定部205は、更新が完了したフラグマップを補正部206に出力する。
In step S<b>309 , the
ステップS310において、補正部206は、基準視点番号に対応する変換背景画像データにおける着目画素を決定する。本実施例では、まず、基準視点番号に対応する変換背景画像データの左上の画素が着目画素として選択され、その後、未処理の画素が着目画素として順次選択される。なお、基準視点番号に対応する変換背景画像データの全画素についてフラグマップに基づく画素値の更新(ステップS311)が実行されれば、どのような順番で着目画素を決定しても良い。
In step S310, the
ステップS311において、補正部206は、補正判定部205から取得したフラグマップに基づき、基準視点番号に対応する変換背景画像における着目画素の画素を補正する。本実施例では、基準視点番号に対応する変換背景画像における着目画素に対応するフラグマップの画素値が1である場合、該着目画素の画素値を、一致度算出部204で算出した基準値で置き換える。一方、基準視点番号に対応する変換背景画像における着目画素に対応するフラグマップの画素値が0である場合、該着目画素の画素値は変更しない。なお、画素値を補正する手法はこれに限られず、基準視点と隣接する視点に対応する背景画像の画素値で置き換えるなど他の手法を用いても良い。
In step S<b>311 , the
ステップS312において、補正部206は、基準視点番号に対応する変換背景画像データの全画素についてステップS310~ステップS311の処理を行ったかを判定する。ステップS312の判定の結果が真の場合、補正部206は、補正が完了した基準視点番号に対応する変換背景画像データを、前景抽出部207に出力して、ステップS313に進む一方、該判定の結果が偽の場合、ステップS310に戻る。
In step S312, the
ステップS313において、前景抽出部207は、補正部206から取得した補正が完了した基準視点番号に対応する変換背景画像データ(完全な背景画像Ibとする)を用いて、対象画像データ(Iとする)から前景の被写体による領域を抽出する。具体的には、式(3)に示すように、完全な背景画像Ibと対象画像データIとの間で画素毎に差分二乗和を算出し、差分二乗和が閾値以上である画素を前景の被写体の画像領域の画素とみなすことで、前景の被写体による領域を抽出した画像Ifを作成する。画像Ifは2値画像であり、前景の被写体の画像領域の画素に対応する画素値に1が代入され、背景の被写体の画像領域の画素に対応する画素値に0が代入される。
In step S313 , the
ここで、Thは閾値を表し、kはRGB3チャンネルを識別するための添え字を表す。なお、ここで用いる閾値は、画素値の最大値などに基づいて決定し、画素値の最大値の20%より小さい値、例えば、最大値の1%~5%の範囲内の任意の値を用いて閾値を求めて良い。この閾値の求め方は、式(2)の場合と同様である。このように、前景抽出部207は、前景画像データ作成手段として機能する。前景抽出部207は、作成した画像Ifを二次記憶装置104や外部記憶装置108や表示装置109に出力して、一連の処理は完了する。以上が、本実施例における画像処理装置100が実行する、前景領域を抽出する処理である。
Here, Th represents a threshold, and k represents a subscript for identifying RGB3 channels. Note that the threshold value used here is determined based on the maximum value of the pixel value, etc., and a value smaller than 20% of the maximum value of the pixel value, for example, any value within the range of 1% to 5% of the maximum value. may be used to determine the threshold. The method of obtaining this threshold is the same as in the case of equation (2). Thus, the
<本実施例の効果について>
以下、本実施例の効果について図6を用いて説明する。図6において、画像データ601は、従来手法に従って時系列に沿って連続で撮像した複数の画像に基づき作成した、視点602における背景画像データである。背景画像データ601には、前景の被写体603(ゴールキーパー)や前景の被写体(ゴール)604などの前景の被写体が写っている。この理由は、背景画像データを作成するための連続画像を撮像する際に、前景の被写体603、604が、同一位置に存在し動かなかった結果、背景画像データを作成する際に前景の被写体603、604が背景の被写体と誤ってみなされたためである。背景画像データ601を用いて、対象画像データ605から前景領域を抽出した場合、前景画像データ606が取得される。前景画像データ606では、被写体603、604以外の、概ね動いている前景の被写体による領域を抽出できている。しかし、停止している前景の被写体603、604による領域を、抽出できていない。
<Effects of this embodiment>
The effects of this embodiment will be described below with reference to FIG. In FIG. 6,
また、画像データ607は、従来手法に従って対象画像データ605を撮像した時刻と同一時刻に複数の異なる視点から撮像した複数の画像に基づき作成した、視点602における背景画像データである。背景画像データ607には、前景の被写体603(ゴールキーパー)や前景の被写体(ゴール)604などの前景の被写体は写っていないものの、背景の被写体の一部が欠けて写っている。この理由は、背景画像データを作成するために撮像したシーン内で前景の被写体が密集しており、前景の被写体の一部が複数の視点から見えなかったためである。背景画像データ607を用いて、対象画像データ605から前景領域を抽出した場合、前景画像データ608が取得される。前景画像データ608では、地上面からの高さを持つ前景の被写体による領域を概ね抽出できている。しかし、前景の被写体が密集しているために、複数の視点から見えない前景の被写体による領域609を、抽出できていない。
Image data 607 is background image data at a
これに対し、本実施例では、複数の異なる視点における不完全な背景画像(例えば、背景画像データ601など)を用いて、完全な背景画像である背景画像データ610を作成する。背景画像データ610を用いて、対象画像データ605から前景領域を抽出した場合、前景画像データ611が取得される。前景画像データ611では、停止している前景の被写体603、604による領域や、複数の視点から見えない前景の被写体による領域を、高精度に抽出できている。このように、本実施例によれば、時間の経過に伴う被写体の変化(移動など)の有無や前景の被写体の疎密などの被写体の状態によらず、前景の被写体による領域を高精度に抽出することができる。
In contrast, in this embodiment,
[実施例2]
実施例1では、複数の不完全な背景画像に基づき完全な背景画像を作成する際、視点によって異なる変換背景画像の、着目画素における一致の度合いを示す一致度を用いる。一方、本実施例では、複数の不完全な背景画像に基づき完全な背景画像を作成する際、一致度に加えて、視点によって異なる変換背景画像の、着目画素における画素値の変化の滑らかさ度合い、所謂連続性を用いる。なお、実施例1と同様の構成及び同様の処理については、実施例1と同様の符号を付して説明を省略する。
[Example 2]
In the first embodiment, when a complete background image is created based on a plurality of incomplete background images, the degree of matching, which indicates the degree of matching of the pixel of interest of the transformed background image that differs depending on the viewpoint, is used. On the other hand, in this embodiment, when creating a complete background image based on a plurality of incomplete background images, in addition to the degree of matching, the degree of smoothness of change in the pixel value of the pixel of interest in the converted background image, which varies depending on the viewpoint, is calculated. , so-called continuity is used. In addition, the same reference numerals as in the first embodiment are attached to the same configuration and the same processing as in the first embodiment, and the description thereof is omitted.
<前景領域を抽出する処理の概要について>
以下、本実施例における前景領域を抽出する処理の概要について説明する。本実施例では、複数の異なる視点における背景画像データを着目視点から見た場合の画像にそれぞれ変換することで得られる変換背景画像データを用いて、視点間の画素値の連続性を算出する。画素値の連続性とは、着目視点における変換背景画像データと該着目視点に隣接する視点における変換背景画像データとの間における、画素値の変化の滑らかさ度合いである。
<Outline of processing for extracting the foreground area>
An overview of the processing for extracting the foreground region in this embodiment will be described below. In this embodiment, the continuity of pixel values between viewpoints is calculated using transformed background image data obtained by transforming background image data at a plurality of different viewpoints into an image viewed from the viewpoint of interest. The continuity of pixel values is the degree of smoothness of change in pixel values between the converted background image data at a viewpoint of interest and the converted background image data at a viewpoint adjacent to the viewpoint of interest.
具体的には、基準視点番号に対応する変換背景画像データにおける着目画素の画素値と、基準視点に隣接する視点における変換背景画像データにおける着目画素の画素値とを比較し、画素値間の差分の総和を連続性として算出する。続いて、実施例1で説明した一致度と、本実施例で算出した連続性とを用いて、一致の度合いが低く、且つ、画素値の変化が滑らかでない画素を、前景の被写体の画像領域の画素である可能性が高いとみなし補正対象の画素として検出する。そして、検出した補正対象の画素の画素値を更新して変換背景画像データを補正することで、完全な背景画像を作成する。最後に、作成した完全な背景画像と対象画像データとを比較して、前景領域を抽出する。 Specifically, the pixel value of the pixel of interest in the converted background image data corresponding to the reference viewpoint number is compared with the pixel value of the pixel of interest in the converted background image data at a viewpoint adjacent to the reference viewpoint, and the difference between the pixel values is calculated. The sum of is calculated as continuity. Subsequently, using the degree of matching described in the first embodiment and the continuity calculated in the present embodiment, pixels with a low degree of matching and uneven pixel value changes are extracted from the image area of the foreground subject. , and is detected as a pixel to be corrected. Then, by updating the pixel values of the detected correction target pixels and correcting the converted background image data, a complete background image is created. Finally, the created complete background image is compared with the target image data to extract the foreground region.
実施例1では、全視点における背景画像データに基づき算出した画素値の一致度のみを用いて、着目画素が前景の被写体の画像領域の画素であるかを判定した。そのため、視点によって色の見え方が変化することにより画素値が異なる背景の被写体の画像領域の画素も、前景の被写体の画像領域の画素である可能性が高いとみなされ、補正対象の画素として検出される。その結果、補正する必要のない画素も補正されてしまうため、補正後の変換背景画像データに誤差が発生し、前景の被写体の画像を含まない完全な背景画像を精度良く作成することができない。視点によって見え方が変化する背景の被写体として、スポーツなどの競技シーンを撮像した画像に存在する、方向性をもって刈られている芝が挙げられる。方向性をもって刈られている芝は、見る方向により芝の色の見え方が異なり、その結果、同一位置の芝であっても視点によって画素値が変化する。このような芝を背景の被写体とするシーンに実施例1を適用した場合、複数の変換背景画像データにおける画素間の一致の度合いは低くなるため、背景の被写体である芝の画像領域の画素が前景の被写体の画像領域の画素であると誤判定される。かかる誤判定を防ぐために、本実施例では、一致度に加えて連続性を用いて、着目画素が前景の被写体の画像領域の画素であるかを判定する。一般的に、視点によって色の見え方が変化する被写体に関しては、離れた視点間で色の見え方に顕著な違いが現れる場合はあるが、近接する視点間での色の見え方の変化は緩やかである。そのため、本実施例では、色の見え方の違いにより画素値が変化した背景の被写体の画像領域の画素と、地上面からの高さを持つために画素値が変化した前景の被写体の画像領域の画素とを区別する。その結果、変換背景画像を精度良く補正して完全な背景画像を作成することができるため、対象画像データから前景の被写体による領域を高精度に抽出することが可能となる。なお、視点によって色の見え方が変化する被写体は上記の芝生の例に限られず、体育館の床など様々なものが存在する。 In Example 1, it is determined whether the pixel of interest is a pixel in the image area of the subject in the foreground using only the matching degree of the pixel values calculated based on the background image data at all viewpoints. Therefore, it is highly likely that pixels in the image area of the background subject that have different pixel values due to changes in color appearance depending on the viewpoint are also pixels in the image area of the foreground subject. detected. As a result, since pixels that do not need to be corrected are also corrected, errors occur in the converted background image data after correction, and a complete background image that does not include the image of the subject in the foreground cannot be created with high accuracy. As a background subject whose appearance changes depending on the viewpoint, grass that is mowed with directionality, which is present in an image of a competition scene such as a sport, is exemplified. In grass that is mowed with directionality, the appearance of the color of the grass differs depending on the viewing direction, and as a result, even if the grass is at the same position, the pixel value changes depending on the viewpoint. When the first embodiment is applied to such a scene in which grass is the background subject, the degree of matching between pixels in a plurality of pieces of converted background image data is low. It is erroneously determined to be a pixel in the image area of the subject in the foreground. In order to prevent such an erroneous determination, in this embodiment, continuity is used in addition to the degree of matching to determine whether the pixel of interest is a pixel in the image area of the subject in the foreground. In general, for a subject whose color appearance changes depending on the viewpoint, there may be a noticeable difference in color appearance between distant viewpoints, but there is no change in color appearance between close viewpoints. Moderate. Therefore, in this embodiment, pixels in the image area of the background subject whose pixel values change due to the difference in color appearance, and an image area of the foreground subject whose pixel values change due to the height above the ground surface. to distinguish between pixels of As a result, the converted background image can be corrected with high accuracy to create a complete background image, so the foreground object area can be extracted with high accuracy from the target image data. It should be noted that the subject whose color appearance changes depending on the viewpoint is not limited to the above example of the lawn, and there are various other subjects such as the floor of a gymnasium.
<前景領域を抽出する処理について>
以下、本実施例における画像処理装置100が実行する前景領域を抽出する処理について、図7及び図8を用いて説明する。図7は、本実施例における画像処理装置100の機能構成を示すブロック図であり、図8は、本実施例における前景領域を抽出する処理の流れを示すフローチャートである。画像処理装置100のCPU101は、RAM102をワークメモリとして用いてROM103に格納されたプログラムを実行することで、図7に示す各構成要素として機能し、図8に示す一連の処理を実行する。なお、以下に示す処理の全てがCPU101によって実行される必要はなく、処理の一部または全部が、CPU101以外の1つ又は複数の処理回路によって行われるように画像処理装置100を構成しても良い。
<Regarding the process of extracting the foreground area>
Processing for extracting a foreground region performed by the
ステップS801において、連続性算出部701は、連続性を算出する対象となる、変換背景画像データにおける着目画素を決定する。本実施例では、まず、変換背景画像の左上の画素が着目画素として選択され、その後、未処理の画素が着目画素として順次選択される。なお、変換背景画像データの全画素について連続性の算出が実行されれば、どのような順番で着目画素を決定しても良い。
In step S801, the
ステップS802において、連続性算出部701は、画像変換部203から取得した変換背景画像データを用いて、基準視点とその周辺の視点とに対応する変換背景画像における、着目画素の画素値の連続性を算出する。ここで、本ステップにおける連続性の算出手法を、図9を用いて説明する。
In step S802, the
まず、画像変換部203が定めた基準視点番号に対応するカメラ901と隣接する、カメラ902、903を検出し、これらのカメラに対応する視点番号を取得する。以下、取得した視点番号を隣接視点番号と呼ぶ。ここで、基準視点番号に対応するカメラ901と隣接するカメラは、カメラの3次元空間中の座標から算出した、カメラ901までの距離に基づいて決定される。本実施例では、カメラ901の左側に存在するカメラの中でカメラ901までの距離が最も短いカメラ902と、カメラ901の右側に存在するカメラの中でカメラ901までの距離が最も短いカメラ903とが、カメラ901に隣接するカメラとして検出される。
First, the
次に、基準視点番号に対応する変換背景画像904と隣接視点番号に対応する変換背景画像905、906とから、着目画素の座標(u2、v2)の画素907、908、909の画素値を取得し、該取得した画素値を用いて、式(4)により連続性を算出する。
Next, pixel values of
ここで、B901(u2、v2)、B902(u2、v2)、B903(u2、v2)はそれぞれ、カメラ901、902、903に対応する変換背景画像904、905、906における着目画素907、908、909の画素値を表す。またkは、RGB3チャンネルを識別するための添え字を表す。式(4)により算出するCの値は、視点間の画素値の変化が滑らかであるほど小さくなる。なお、用いる連続性は、式(4)により算出されるCに限られず、離散値からの二階微分など、視点間の画素値の連続性を示す任意の値を用いて良い。また、本実施例では、基準視点番号に対応するカメラ901と隣接するカメラ902、903を用いる場合について説明しているが、用いるカメラはこれらに限られず、被写体の見え方によっては他のカメラを用いても良い。例えば、基準視点番号に対応するカメラ901の左側で、カメラ902の代わりに、カメラ902の次にカメラ901までの距離が近いカメラを用いても良い。カメラ901の右側で用いるカメラについても同様である。
where B 901 (u 2 , v 2 ), B 902 (u 2 , v 2 ), B 903 (u 2 , v 2 ) are transformed
ステップS803において、連続性算出部701は、変換背景画像データの全画素についてステップS801~ステップS802の処理を行ったかを判定する。ステップS803の判定の結果が真の場合、連続性算出部701は、算出した全画素の連続性を補正判定部702に出力し、ステップS308に進む一方、該判定の結果が偽の場合、ステップS801に戻る。
In step S803, the
ステップS804において、補正判定部702は、一致度算出部204から取得した一致度と連続性算出部701から取得した連続性とに基づいて、フラグマップを更新する。具体的には、補正判定部702は、基準視点番号に対応する変換背景画像データにおいて、前景の被写体の画像領域の画素である可能性が高いとみなされた画素に対応する、フラグマップの画素値を1に変更する。本実施例では、算出した一致度Dが事前に定めた閾値以上、かつ、算出した連続性Cが事前に定めた閾値以上であれば、基準視点番号に対応する変換背景画像と他の変換背景画像との着目画素における一致の度合い及び変化の滑らかさ度合いが低いとする。つまり、着目画素が前景の被写体の画像領域の画素である可能性が高いと判定する。一方、これらの条件を満たさない場合、着目画素が背景の被写体の画像領域の画素である可能性が高いと判定する。なお、本ステップで用いる閾値は、画素値の最大値などに基づいて決定し、最大値の20%より小さい値、例えば、最大値の1%~5%の範囲内の任意の値を用いて閾値を求めて良い。この閾値の求め方は実施例1と同様である。また、前景の被写体の画像領域の画素であるかの判定は、画素毎に行う。補正判定部702は、更新が完了したフラグマップを補正部206に出力する。以上が、本実施例における画像処理装置100が実行する、前景領域を抽出する処理である。
In step S<b>804 , the
<本実施例の効果について>
以下、本実施例の効果について図10を用いて説明する。画像データ1002は、背景画像データを、視点毎に、地上面を基準として視点1001から見た場合の画像へ変換することで取得する変換背景画像データである。ここで視点1001は、着目視点、且つ、基準視点であるものとする。また、被写体1003は、視点によって色の見え方が変化する背景の被写体(例えば、芝生)であり、被写体1005は、前景の被写体である。
<Effects of this embodiment>
The effects of this embodiment will be described below with reference to FIG. The
図10に示すシーンに実施例1を適用し、多視点の不完全な背景画像に基づき完全な背景画像を作成した場合、背景画像データ1004が取得される。背景画像データ1004では、前景の被写体1005の画像を除去できているものの、背景の被写体1003が正しく写っていない。この理由は、完全な背景画像を作成する際に、着目画素が前景の被写体の画像領域の画素であるかを一致度のみに基づき判定するので、背景の被写体1003の画像領域の画素が、前景の被写体の画像領域の画素と判定されてしまうためである。この結果、背景の被写体1003の画像領域の画素が補正された背景画像データ1004が作成される。背景画像データ1004を用いて、対象画像データから前景領域を抽出しようとしても、前景領域を精度良く抽出することはできない。
When the first embodiment is applied to the scene shown in FIG. 10 and a complete background image is created based on the multi-viewpoint incomplete background image,
これに対し、本実施例では、多視点の不完全な背景画像に基づき完全な背景画像を作成する際に、着目画素が前景の被写体の画像領域の画素であるかを、一致度と連続性とに基づき判定する。この結果、背景の被写体1003の画像領域の画素を、前景の被写体の画像領域の画素と判定せず、背景の被写体1003の画像領域の画素が補正されていない背景画像データ1006が作成される。背景画像データ1006では、前景の被写体1005の画像を除去しつつ、背景の被写体1003が正しく写っている。背景画像データ1006を用いて対象画像データから前景領域を抽出することで、前景領域を高精度に抽出できるようになる。このように、本実施例によれば、背景の被写体が、視点によって色の見え方が変化する被写体である場合であっても、前景の被写体による領域を高精度に抽出することができる。
On the other hand, in this embodiment, when creating a complete background image based on an incomplete multi-viewpoint background image, whether or not the pixel of interest is a pixel in the image area of the subject in the foreground is determined by matching degree and continuity. Based on As a result,
[実施例3]
実施例1及び実施例2では、複数の異なる視点における不完全な背景画像に基づき完全な背景画像を作成し、該作成した完全な背景画像と対象画像データとを比較することで前景の被写体による領域を抽出する。一方、本実施例では、複数の異なる視点における、不完全な前景画像を用いて、影による領域を含まないように前景領域を抽出する。ここで不完全な前景画像とは、前景の被写体による領域と該前景の被写体に付随する影による領域とが前景領域として抽出された画像を意味する。
[Example 3]
In Example 1 and Example 2, a complete background image is created based on incomplete background images at a plurality of different viewpoints, and the created complete background image and target image data are compared to determine the Extract regions. On the other hand, in the present embodiment, incomplete foreground images at a plurality of different viewpoints are used to extract the foreground region so as not to include regions due to shadows. Here, the imperfect foreground image means an image in which a foreground subject area and a shadow area associated with the foreground subject are extracted as the foreground area.
本実施例では、視点毎の不完全な前景画像を、地上面を基準として着目視点から見た場合の画像へと変換することで、複数の変換前景画像データを取得し、該取得した複数の変換前景画像データにおいて画素間の一致度を算出する。実施例1で説明したように前景の被写体は地上面からの高さを持つが、前景の被写体に付随する影は地上面からの高さを持たない。そこで本実施例では、複数の変換前景画像データにおいて画素間の一致の度合いが高い画素を検出し、該検出した画素は高さを持たない影による領域の画素である可能性が高いとして補正する。その結果、影による領域が抽出されることなく高さを持つ前景の被写体による領域のみが前景領域として抽出された前景画像を作成できる。以下、影による領域が抽出されることなく高さを持つ前景の被写体による領域のみが前景領域として抽出された画像を、完全な前景画像と呼ぶ。なお、上述の実施例と同様の構成及び同様の処理については、上述の実施例と同様の符号を付して説明を省略する。 In the present embodiment, a plurality of transformed foreground image data are acquired by transforming an incomplete foreground image for each viewpoint into an image viewed from the viewpoint of interest with reference to the ground surface. A degree of matching between pixels is calculated in the converted foreground image data. As described in the first embodiment, the foreground subject has a height above the ground, but the shadow attached to the foreground subject does not have a height above the ground. Therefore, in this embodiment, pixels with a high degree of matching between pixels are detected in a plurality of pieces of converted foreground image data, and the detected pixels are corrected as highly likely to be pixels in a shadow area having no height. . As a result, it is possible to create a foreground image in which only the area of the subject in the foreground having height is extracted as the foreground area without extracting the shadow area. Hereinafter, an image in which only a foreground object area having a height is extracted as a foreground area without extracting a shadow area is referred to as a complete foreground image. Note that the same reference numerals as in the above-described embodiment are attached to the same configuration and the same processing as those in the above-described embodiment, and the description thereof is omitted.
<前景領域を抽出する処理について>
以下、本実施例における画像処理装置100が実行する前景領域を抽出する処理について、図11及び図12を用いて説明する。図11は、本実施例における画像処理装置100の機能構成を示すブロック図であり、図12は、本実施例における前景領域を抽出する処理の流れを示すフローチャートである。画像処理装置100のCPU101は、RAM102をワークメモリとして用いてROM103に格納されたプログラムを実行することで、図11に示す各構成要素として機能し、図12に示す一連の処理を実行する。なお、以下に示す処理の全てがCPU101によって実行される必要はなく、処理の一部または全部が、CPU101以外の1つ又は複数の処理回路によって行われるように画像処理装置100を構成しても良い。
<Regarding the process of extracting the foreground area>
Processing for extracting a foreground region performed by the
ステップS1201において、カメラパラメータ取得部1101は、入力インターフェース105を介して外部記憶装置108から、又は、二次記憶装置104から、対象画像データを撮像したカメラのカメラパラメータを取得する。また、カメラパラメータ取得部1101は、対象画像データを撮像したカメラの視点を着目視点と定める。本ステップで取得するカメラパラメータとは、実施例1で説明したカメラパラメータと同様である。カメラパラメータ取得部1101は、カメラパラメータを画像変換部1103に出力する。
In step S<b>1201 , the camera
ステップS1202において、前景画像データ取得部1102は、入力インターフェース105を介して外部記憶装置108から、又は、二次記憶装置104から、複数の異なる視点における複数の前景画像データを取得する。本ステップで取得する前景画像データは、前景の被写体による領域を抽出した画像であり、該抽出した領域には、影による領域が含まれるものとする。本実施例では、この前景画像データは、事前に撮像した撮像画像と背景画像とに基づき作成される。以下、前景画像データの作成手法を具体的に説明する。ここで用いる撮像画像は、対象画像データにおける前景の被写体及び背景の被写体を、対象画像データを撮像した際の環境と略同一の環境で撮像した画像である。また、背景画像は、対象画像データにおける背景の被写体を、対象画像データを撮像した際の環境と略同一の環境で撮像した画像である。本実施例では、視点毎に、撮像画像の画素値と背景画像の画素値とを画素毎に比較し、これらの画素値が同一の座標の画素の画素値を0、そうでない画素の画素値を1とすることで、視点毎の2値画像を作成する。この2値画像が前景画像データである。なお、前景画像データを作成する手法はこれに限られず、また、作成する前景画像データも2値画像に限られず多値画像であっても良い。また、前景画像データ取得部1102は、各前景画像データに対応するカメラパラメータを、前景画像データとともに取得する。さらに、前景画像データ取得部1102は、複数の前景画像データのそれぞれを区別するため、各前景画像データを、カメラの視点番号と対応付けて記憶する。前景画像データ取得部1102は、前景画像データとカメラパラメータとを画像変換部1103に出力する。
In step S<b>1202 , the foreground image
ステップS1203において、画像変換部1103は、カメラパラメータ取得部1101と前景画像データ取得部1102とから得たカメラパラメータを用いて、前景画像データ取得部1102から得た前景画像データを着目視点から見た場合の画像へと変換する。本ステップの変換は、実施例1のステップS303と同様の変換であり、視点毎に、前景画像データを、地上面を基準として射影変換することで、着目視点から見た場合の画像を得る。なお、本ステップでの画像変換により得られる前景画像(データ)を変換前景画像(データ)と呼ぶ。このように、画像変換部1103は、変換前景画像データ作成手段として機能する。画像変換部1103は、変換前景画像データを一致度算出部1104に出力する。
In step S1203, the
ステップS1204において、画像変換部1103は、前景画像データ取得部1102から取得した前景画像データの中から、対象画像データを撮像したカメラ位置(着目視点)と最も近い視点に対応する画像を基準の前景画像(以下、基準前景画像)として定める。具体的には、着目視点の座標と前景画像データに対応する視点の座標との距離を、視点毎に算出する。そして、算出した距離が最小となる視点(基準視点)に対応する前景画像(データ)を基準前景画像(データ)とする。画像変換部1103は、基準前景画像に対応する視点番号を、補正部1105に出力する。本実施例では、基準前景画像に対応する視点番号を、基準視点番号と呼ぶ。
In step S1204, the
ステップS1205では、一致度算出部1104は、複数の変換前景画像データにおいて画素が一致するかを判定する対象となる、変換前景画像データにおける着目画素を決定する。本実施例では、まず、変換前景画像データの左上の画素が着目画素として選択され、その後、未処理の画素が着目画素として順次選択される。なお、変換前景画像データの全画素について、複数の変換前景画像データにおいて画素が一致するかの判定が実行されれば、どのような順番で着目画素を決定しても良い。
In step S1205, the degree-of-
ステップS1206において、一致度算出部1104は、画像変換部1103から取得した複数の変換前景画像データを用いて、基準視点番号に対応する変換前景画像データと他の変換前景画像データとの間の、着目画素における一致度を算出する。以下、この一致度の算出手法を具体的に説明する。
In step S1206, the degree-of-
まず、一致度算出部1104は、決定した着目画素の座標(u2、v2)における、変換前景画像データの画素値Fl(u2、v2)を取得する。ここでlは複数の変換前景画像データのそれぞれを区別する添え字を表し、一致度算出部1104は、変換前景画像データの数分の画素値を取得する。次に、一致度算出部1104は、取得した全画素値の平均値を算出する。本実施例では、この平均値を一致度として用いる。また、一致度はこれに限られず、複数の画素値の統計的な性質を反映する値を一致度として用いて良い。
First, the matching
ステップS1207において、一致度算出部1104は、変換前景画像データの全画素についてステップ1205~ステップS1206の処理を行ったかを判定する。ステップS1207の判定の結果が真の場合、一致度算出部1104は、算出した全画素の一致度を補正部1105に出力し、ステップS1208に進む。一方、ステップS1207の判定の結果が偽の場合、ステップS1205に戻る。
In step S1207, the degree-of-
ステップS1208において、補正部1105は、基準視点番号に対応する変換前景画像データにおける着目画素を決定する。本実施例では、まず、基準視点番号に対応する変換前景画像データの左上の画素が着目画素として選択され、未処理の画素が着目画素として順次選択される。なお、基準視点番号に対応する変換前景画像データの全画素について一致度に基づく画素値の更新(ステップS1209)が実行されれば、どのような順番で着目画素を決定しても良い。
In step S1208, the
ステップS1209において、補正部1105は、一致度算出部1104から取得した一致度に基づき、基準視点番号に対応する変換前景画像における影による領域の画素である可能性が高い画素を検出する。そして、補正部1105は、検出した画素の画素値を0に変更することで不完全な前景画像から影による領域を取り除く。本実施例では、算出した一致度が事前に定めた閾値以上であれば、全視点における着目画素間の一致の度合いが高いため、着目画素が高さを持たない影による領域の画素である可能性が高いと判定する。そして、基準視点番号に対応する変換前景画像データにおける着目画素の画素値を0に変更する。一方、算出した一致度が閾値未満であれば、全視点における着目画素間の一致の度合いが低く、着目画素が高さを持つ前景の被写体による領域の画素である可能性が高いと判定する。この場合、基準視点番号に対応する変換前景画像における着目画素の画素値を変更しない。なお、本実施例では、閾値として0.8を用いたが、閾値の値はこれに限らない。
In step S<b>1209 , the
ステップS1210において、補正部1105は、基準視点番号に対応する変換前景画像データの全画素についてステップS1208~ステップS1209の処理を行ったかを判定する。ステップS1210の判定の結果が真の場合、補正部1105は、補正が完了した基準視点番号に対応する変換前景画像データを、二次記憶装置104や外部記憶装置108や表示装置109に出力して、一連の処理は完了する。一方、ステップS1210の判定の結果が偽の場合、ステップS1208に戻る。以上が、本実施例における画像処理装置100が実行する、前景領域を抽出する処理である。
In step S1210, the
<本実施例の効果について>
以下、本実施例の効果について図13を用いて説明する。被写体1301は、被写体自身の影1302が地上面1303に存在する前景の被写体である。画像データ1304は、複数の異なる視点における、被写体1301とこれに付随する影1302とによる領域を前景領域として抽出した前景画像である。本実施例では、画像データ1304を着目視点1305から見た場合の画像に変換することで得られる複数の変換前景画像データにおける着目画素間の一致の度合いに基づき、地上面からの高さを持たない影による領域の画素を検出する。そして、検出した画素を補正することで、前景画像1306を作成する。前景画像1306では、高さを持つ前景の被写体1301に付随する影1302による領域が取り除かれており、前景の被写体1301による領域のみを抽出できている。このように、本実施例によれば、高さを持つ前景の被写体に付随する影が存在する場合であっても、影による領域を抽出することなく、この前景の被写体による領域のみを高精度に抽出することができる。
<Effects of this embodiment>
The effects of this embodiment will be described below with reference to FIG. A subject 1301 is a foreground subject whose
なお、本実施例では、不完全な前景画像として、事前に撮像した撮像画像と背景画像とに基づいて作成した前景画像を用いるが、実施例1や実施例2により作成した前景画像を用いてもよい。その場合、実施例1や実施例2と、実施例3とをそれぞれ単独で実行した場合に比べて、前景の被写体による領域を高精度に抽出することができる。 In this embodiment, as an incomplete foreground image, a foreground image created based on an image captured in advance and a background image is used. good too. In this case, the area of the foreground subject can be extracted with higher accuracy than when the first or second embodiment and the third embodiment are executed independently.
[その他の実施例]
本発明の実施形態は、上述の実施例に限られるものではなく、様々な実施形態をとることが可能である。例えば、上述の実施例では、不完全な背景画像である背景画像データのサイズと対象画像データのサイズとが、同一である場合について説明しているが、これらのサイズは同一でなくても良い。その場合、地上面を上から見た視点を基準視点として、背景画像を基準視点から見た場合の画像へと変換する。そして、該変換した画像を用いて背景画像を補正し、該補正した背景画像を着目視点から見た場合の画像へと変換することで、対象画像データに対応する背景画像データを作成する。
[Other Examples]
Embodiments of the present invention are not limited to the examples described above, but can take various forms. For example, in the above embodiment, the size of the background image data, which is an incomplete background image, and the size of the target image data are the same, but these sizes may not be the same. . In that case, the viewpoint of the ground surface from above is used as a reference viewpoint, and the background image is converted into an image when viewed from the reference viewpoint. Then, the background image is corrected using the converted image, and the corrected background image is converted into an image when viewed from the viewpoint of interest, thereby creating background image data corresponding to the target image data.
また、上述の実施例では、一致度の算出や前景の抽出において、RGB空間における画素値を用いているが、用いる情報はこれに限られない。例えば、HSVやLabなどの異なる色空間の画素値を用いて、一致度の算出や前景の抽出を行うようにしても良い。 In addition, in the above-described embodiment, the pixel values in the RGB space are used in the calculation of the degree of matching and the extraction of the foreground, but the information to be used is not limited to this. For example, pixel values in different color spaces such as HSV and Lab may be used to calculate the degree of matching and extract the foreground.
さらに、上述の実施例では、画像を射影変換する際、地上面の一平面のみを基準としているが、地上面に平行な複数の平面を基準として用いても良い。例えば、地上面からの高さが0から1センチメートルまでを等間隔に刻むことで複数の平面を設定し、該設定した平面のそれぞれを基準とする射影変換により得られた変換画像を全て用いて一致度の算出を行うようにしても良い。このようにすることで、カメラパラメータの誤差に対するロバスト性が向上する。 Furthermore, in the above-described embodiment, only one plane of the ground surface is used as a reference when projectively transforming an image, but a plurality of planes parallel to the ground surface may be used as a reference. For example, a plurality of planes are set by dividing the height from the ground surface from 0 to 1 cm at equal intervals, and all transformed images obtained by projective transformation based on each of the set planes are used. The degree of matching may be calculated using the By doing so, the robustness against camera parameter errors is improved.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
201・・・対象画像データ取得部
202・・・背景画像データ取得部
203・・・画像変換部
204・・・一致度算出部
206・・・補正部
207・・・前景抽出部
201... Target image
Claims (18)
前記着目視点とは異なる複数の視点から撮影されて取得された複数の参照画像を取得する第2取得手段と、
前記第2取得手段により取得された複数の参照画像を変換して、前記着目視点から見た場合の複数の変換画像を生成する生成手段と、
前記第1取得手段により取得された着目画像の着目画素の画素値と、前記生成手段により生成された複数の変換画像それぞれにおける前記着目画素と対応する画素の画素値との差分に関する指標に基づいて、前記着目画像における前記被写体の画像領域を決定する決定手段と、を有し、
前記決定手段は、前記指標に基づいて、前記着目画像における補正対象画素を特定し、特定した補正対象画素を補正することにより補正着目画像を生成し、前記第1取得手段により取得された着目画像と、前記補正着目画像とに基づいて、前記着目画像における前記被写体の画像領域を決定する
ことを特徴とする画像処理装置。 a first acquisition means for acquiring an image of interest including a subject, which is captured and acquired from a viewpoint of interest;
a second obtaining means for obtaining a plurality of reference images captured from a plurality of viewpoints different from the viewpoint of interest;
generating means for transforming the plurality of reference images acquired by the second acquisition means to generate a plurality of transformed images viewed from the viewpoint of interest;
Based on an index relating to the difference between the pixel value of the pixel of interest in the image of interest acquired by the first acquisition means and the pixel value of the pixel corresponding to the pixel of interest in each of the plurality of converted images generated by the generation means and determining means for determining an image area of the subject in the image of interest,
The determination means identifies pixels to be corrected in the image of interest based on the index, corrects the identified pixels to be corrected, thereby generating a corrected image of interest, and the image of interest acquired by the first acquisition means. and determining an image area of the subject in the image of interest based on the corrected image of interest.
An image processing apparatus characterized by:
前記着目視点とは異なる複数の視点から撮影されて取得された複数の参照画像を取得する第2取得手段と、
前記第2取得手段により取得された複数の参照画像を変換して、前記着目視点から見た場合の複数の変換画像を生成する生成手段と、
前記第1取得手段により取得された着目画像の着目画素の画素値と、前記生成手段により生成された複数の変換画像それぞれにおける前記着目画素と対応する画素の画素値の統計値との差分に関する指標に基づいて、前記着目画像における前記被写体の画像領域を決定する決定手段と、
を有する画像処理装置。 a first acquisition means for acquiring an image of interest including a subject, which is captured and acquired from a viewpoint of interest;
a second obtaining means for obtaining a plurality of reference images captured from a plurality of viewpoints different from the viewpoint of interest;
generating means for transforming the plurality of reference images acquired by the second acquisition means to generate a plurality of transformed images viewed from the viewpoint of interest;
An index relating to a difference between a pixel value of a pixel of interest in the image of interest acquired by the first acquisition means and a statistical value of pixel values of pixels corresponding to the pixel of interest in each of the plurality of converted images generated by the generation means. determining means for determining the image area of the subject in the image of interest based on;
An image processing device having
前記指標に基づいて、前記着目画像における補正対象画素を特定し、
特定した補正対象画素を補正することにより補正着目画像を生成し、
前記第1取得手段により取得された着目画像と、前記補正着目画像とに基づいて、前記着目画像における前記被写体の画像領域を決定することを特徴とする請求項7乃至10の何れか1項に記載の画像処理装置。 The determining means is
identifying a pixel to be corrected in the image of interest based on the index;
generating a corrected image of interest by correcting the identified correction target pixels;
11. The image area of the object in the image of interest is determined based on the image of interest acquired by the first acquisition unit and the corrected image of interest . The described image processing device.
前記着目視点とは異なる複数の視点から撮影されて取得された複数の参照画像を取得する第2取得工程と、
前記第2取得工程により取得された複数の参照画像を変換して、前記着目視点から見た場合の複数の変換画像を生成する生成工程と、
前記第1取得工程により取得された着目画像の着目画素の画素値と、前記生成工程により生成された複数の変換画像それぞれにおける前記着目画素と対応する画素の画素値との差分に関する指標に基づいて、前記着目画像における前記被写体の画像領域を決定する決定工程と、を有し、
前記決定工程では、前記指標に基づいて、前記着目画像における補正対象画素を特定し、特定した補正対象画素を補正することにより補正着目画像を生成し、前記第1取得工程により取得された着目画像と、前記補正着目画像とに基づいて、前記着目画像における前記被写体の画像領域を決定する
を有する画像処理方法。 a first acquisition step of acquiring an image of interest including the subject, which is captured and acquired from the viewpoint of interest;
a second obtaining step of obtaining a plurality of reference images captured and obtained from a plurality of viewpoints different from the viewpoint of interest;
a generation step of transforming the plurality of reference images acquired in the second acquisition step to generate a plurality of transformed images viewed from the viewpoint of interest;
Based on an index relating to the difference between the pixel value of the pixel of interest in the image of interest acquired by the first acquisition step and the pixel value of the pixel corresponding to the pixel of interest in each of the plurality of converted images generated by the generation step and a determining step of determining an image area of the subject in the image of interest,
In the determining step, based on the index, pixels to be corrected in the image of interest are identified, the identified pixels to be corrected are corrected to generate a corrected image of interest, and the image of interest obtained by the first obtaining step is generated. and determining an image area of the subject in the image of interest based on the corrected image of interest.
An image processing method comprising:
前記着目視点とは異なる複数の視点から撮影されて取得された複数の参照画像を取得する第2取得工程と、
前記第2取得工程により取得された複数の参照画像を変換して、前記着目視点から見た場合の複数の変換画像を生成する生成工程と、
前記第1取得工程により取得された着目画像の着目画素の画素値と、前記生成工程により生成された複数の変換画像それぞれにおける前記着目画素と対応する画素の画素値の統計値との差分に関する指標に基づいて、前記着目画像における前記被写体の画像領域を決定する決定工程と、
を有する画像処理方法。 a first acquisition step of acquiring an image of interest including the subject, which is captured and acquired from the viewpoint of interest;
a second obtaining step of obtaining a plurality of reference images captured and obtained from a plurality of viewpoints different from the viewpoint of interest;
a generation step of transforming the plurality of reference images acquired in the second acquisition step to generate a plurality of transformed images viewed from the viewpoint of interest;
An index relating to the difference between the pixel value of the pixel of interest in the image of interest acquired by the first acquisition step and the statistical value of the pixel values of the pixels corresponding to the pixel of interest in each of the plurality of converted images generated by the generation step a determination step of determining the image area of the subject in the image of interest based on;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021068487A JP7159384B2 (en) | 2016-09-28 | 2021-04-14 | Image processing device, image processing method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016190052A JP6873644B2 (en) | 2016-09-28 | 2016-09-28 | Image processing equipment, image processing methods, and programs |
JP2021068487A JP7159384B2 (en) | 2016-09-28 | 2021-04-14 | Image processing device, image processing method, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016190052A Division JP6873644B2 (en) | 2016-09-26 | 2016-09-28 | Image processing equipment, image processing methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021108193A JP2021108193A (en) | 2021-07-29 |
JP7159384B2 true JP7159384B2 (en) | 2022-10-24 |
Family
ID=61836749
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016190052A Active JP6873644B2 (en) | 2016-09-26 | 2016-09-28 | Image processing equipment, image processing methods, and programs |
JP2021068487A Active JP7159384B2 (en) | 2016-09-28 | 2021-04-14 | Image processing device, image processing method, and program |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016190052A Active JP6873644B2 (en) | 2016-09-26 | 2016-09-28 | Image processing equipment, image processing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6873644B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7247461B2 (en) * | 2018-03-22 | 2023-03-29 | 株式会社三洋物産 | game machine |
JP7247465B2 (en) * | 2018-03-22 | 2023-03-29 | 株式会社三洋物産 | game machine |
JP7247464B2 (en) * | 2018-03-22 | 2023-03-29 | 株式会社三洋物産 | game machine |
JP7247463B2 (en) * | 2018-03-22 | 2023-03-29 | 株式会社三洋物産 | game machine |
CN110148089B (en) * | 2018-06-19 | 2024-04-23 | 腾讯科技(深圳)有限公司 | Image processing method, device and equipment and computer storage medium |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11328365A (en) * | 1998-05-14 | 1999-11-30 | Toshiba Corp | Device and method for monitoring image |
-
2016
- 2016-09-28 JP JP2016190052A patent/JP6873644B2/en active Active
-
2021
- 2021-04-14 JP JP2021068487A patent/JP7159384B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018055367A (en) | 2018-04-05 |
JP6873644B2 (en) | 2021-05-19 |
JP2021108193A (en) | 2021-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11657514B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP7159384B2 (en) | Image processing device, image processing method, and program | |
US10701332B2 (en) | Image processing apparatus, image processing method, image processing system, and storage medium | |
CN111066065B (en) | System and method for hybrid depth regularization | |
JP6904346B2 (en) | Image processing equipment, image processing systems, and image processing methods, and programs | |
US11087169B2 (en) | Image processing apparatus that identifies object and method therefor | |
US8928736B2 (en) | Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program | |
JP6371553B2 (en) | Video display device and video display system | |
KR101121034B1 (en) | System and method for obtaining camera parameters from multiple images and computer program products thereof | |
US9374571B2 (en) | Image processing device, imaging device, and image processing method | |
JP5923713B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
US20160379078A1 (en) | Apparatus for and method of processing image based on object region | |
CN114119751A (en) | Method and system for large scale determination of RGBD camera poses | |
JP2019117547A (en) | Image processing apparatus, image processing method and program | |
US9947106B2 (en) | Method and electronic device for object tracking in a light-field capture | |
US9773188B2 (en) | Information processing apparatus, imaging apparatus, information processing system, information processing method, and program for removing unwanting objects from images | |
JP6818485B2 (en) | Image processing equipment, image processing methods, and programs | |
JP6606340B2 (en) | Image detection apparatus, image detection method, and program | |
KR101718309B1 (en) | The method of auto stitching and panoramic image genertation using color histogram | |
Fehrman et al. | Handling occlusion with an inexpensive array of cameras | |
JP6622886B2 (en) | Information processing apparatus, information processing method, and program | |
Dal’Col | 3D-Based Color Correction for Multi-Image Texture Mapping Applications | |
JP6525693B2 (en) | Image processing apparatus and image processing method | |
Hofmann | Automatic Semantic Mapping of Mobile Eye-Tracking Data through Keypoint Matching and Tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210513 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210513 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220509 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220725 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221012 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7159384 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |