JP2020173629A - 画像処理装置、仮想視点映像を生成するシステム、画像処理装置の制御方法及びプログラム - Google Patents

画像処理装置、仮想視点映像を生成するシステム、画像処理装置の制御方法及びプログラム Download PDF

Info

Publication number
JP2020173629A
JP2020173629A JP2019075362A JP2019075362A JP2020173629A JP 2020173629 A JP2020173629 A JP 2020173629A JP 2019075362 A JP2019075362 A JP 2019075362A JP 2019075362 A JP2019075362 A JP 2019075362A JP 2020173629 A JP2020173629 A JP 2020173629A
Authority
JP
Japan
Prior art keywords
dimensional shape
image
shape data
silhouette
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019075362A
Other languages
English (en)
Other versions
JP7479793B2 (ja
Inventor
剛史 古川
Takashi Furukawa
剛史 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019075362A priority Critical patent/JP7479793B2/ja
Priority to US16/842,047 priority patent/US11195322B2/en
Priority to EP20168931.2A priority patent/EP3723365A1/en
Publication of JP2020173629A publication Critical patent/JP2020173629A/ja
Application granted granted Critical
Publication of JP7479793B2 publication Critical patent/JP7479793B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】仮想視点映像において存在すべきオブジェクトが消失することを低減する。【解決手段】画像処理装置が、複数の視点での撮影に基づく画像から、動体のオブジェクトの3次元形状データを生成し、仮想視点映像を生成する装置にそれを出力する。そして、撮影の一部の期間において、前記動体として振る舞うオブジェクトの3次元形状データを生成できない場合、過去に生成された当該オブジェクトの3次元形状データを、仮想視点映像を生成する装置に出力する。【選択図】図1

Description

本発明は、画像処理技術に関する。
昨今、オブジェクト(被写体)をさまざまな視点や角度から捉えた映像として視聴できる仮想視点映像という技術が注目されている。この仮想視点映像によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来るため、通常の映像と比較してユーザに高臨場感を与えることが出来る。このような仮想視点映像は、オブジェクトを取り囲むように設置した複数のカメラを用い、同一のタイミングで多方向から撮影した映像から生成される。
特許文献1に開示されるように、通常、仮想視点映像の生成の際には、まず、撮影シーンに存在するオブジェクトの3次元形状を表す3次元形状データが生成される。具体的には、まず、複数のカメラで撮影された映像の各フレーム(静止画像)を対象に、前景となるオブジェクトとそれ以外の背景に分離する前景背景分離処理を行って、オブジェクトのシルエットを抽出したシルエット画像を生成する。そして、得られたシルエット画像から、オブジェクトの3次元形状を表す3次元形状データを生成する。そして、ユーザが指示した仮想視点の情報と、3次元形状データに基づき、仮想視点からの見えを表した映像が得られる。
ここで、シルエット画像の生成においては、背景差分法やフレーム間差分法等が用いられる。そして、背景差分法では、新たに撮影した映像に基づき背景を更新することで、照明条件等の変化による背景変化にも対応できるようにする技術が知られている。
特開2018−67106号公報
上述のような背景の更新を行う背景差分法を用いてシルエット画像を生成する場合、一定時間動きのないオブジェクトは背景として識別され、以降は背景の一部として扱われることになり、シルエット画像が生成されなくなってしまう。こうしてシルエット画像が得られなくなると、動きの止まったオブジェクトの3次元形状データを生成できなくなる。そして、その3次元形状データに基づいて仮想視点映像が生成されず、結果的に、それまで仮想視点映像の中に存在していたオブジェクトが突然消失してしまうことになる。
そこで、本発明では、仮想視点映像において存在すべきオブジェクトが突然消失することを低減することを目的とする。
本開示に係る画像処理装置は、仮想視点映像を生成する装置に、オブジェクトの形状を表す3次元形状データを出力する画像処理装置であって、複数の視点での撮影に基づく画像から、動体のオブジェクトの3次元形状データを生成する第1の生成手段と、前記生成手段により生成された3次元形状データを、前記仮想視点映像を生成する装置に出力する出力手段と、を有し、前記生成手段は、前記撮影の一部の期間で動体として振る舞うオブジェクトの3次元形状データを生成し、前記生成手段において前記撮影の一部の期間で動体として振る舞うオブジェクトの3次元形状データを生成できないことに基づいて、前記出力手段は、過去に生成された当該オブジェクトの3次元形状データを、前記仮想視点映像を生成する装置に出力する、ことを特徴とする。
本発明によれば、仮想視点映像において存在すべきオブジェクトが突然消失することを低減することができる。
実施形態1に係る、仮想視点映像システムの構成の一例を示す図 画像処理装置のハードウェア構成の一例を示す図 やり投げの様子を俯瞰で見た模式図 シルエット画像が生成される様子を説明する図 (a)〜(d)は、静止しているオブジェクトの3次元モデルが生成できなくなってしまう理由を説明する図 実施形態1に係る、画像処理装置における処理の流れを示すフローチャート (a)及び(b)は、やりの三次元形状を示す図 (a)及び(b)は、ボクセル群の3次元座標の算出を説明する図 三次元形状データを保存する際の管理テーブルの一例を示す図 オブジェクトの動きが再開した場合を説明する図 実施形態2に係る、仮想視点映像システムの構成の一例を示す図 実施形態2に係る、画像処理装置における処理の流れを示すフローチャート オブジェクト追跡処理の様子を説明する図
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。
[実施形態1]
図1は、本実施形態における、仮想視点映像システムの構成の一例を示す図である。なお、仮想視点映像とは、エンドユーザ及び/又は選任のオペレータ等が自由に仮想視点(現実には存在しない仮想カメラ)の位置及び姿勢を操作することによって生成される映像であり、自由視点映像や任意視点映像などとも呼ばれる。図1に示す仮想視点映像システムは、画像処理装置100、カメラ群110、仮想視点映像生成装置120を有する。
画像処理装置100は、カメラ群110から映像データを受信する。この映像データは、複数の異なる視点で撮影された映像(以下、「複数視点映像」と呼ぶ)データである。そして、受信した複数視点映像データから、オブジェクトの3次元形状を表すデータ(3次元形状データ、以下、「3次元モデル」とも表記)や、オブジェクトの色や質感を表す情報(以下、「テクスチャ情報」と呼ぶ)を生成する。生成された3次元モデルとテクスチャ情報は、仮想視点映像生成装置120に送られる。送信されるテクスチャ情報は、オブジェクトの表面の色情報と輝度情報と彩度情報のうち少なくとも1つの情報を有している。テクスチャ情報としては、撮像画像や前景画像の形式で送信されてもよいし、3次元モデルに対応して、3次元モデルを構成する要素ごとにテクスチャ情報を対応付けたテクスチャ画像の形式で送信されてもよい。
カメラ群110は、複数のデジタルビデオカメラ(以下、単に「カメラ」と表記)で構成される。各カメラは、シリアルデジタルインタフェース(SDI)に代表される映像信号インタフェースを備えており、映像信号インタフェースを介して、各カメラで撮影した映像データを画像処理装置100に出力する。
仮想視点映像生成装置120は、画像処理装置100から受け取った3次元モデル及びテクスチャ情報を用いてレンダリング処理を行って、ユーザが指定した仮想視点からの見えを表す仮想視点映像を生成する。本実施形態の3次元モデルは、仮想視点映像空間としての3次元空間上に、オブジェクトの3次元形状を表す要素群としてのボクセル群が配置された状態で、仮想視点映像生成装置120に入力されるものとする。そして、レンダリング処理では、別途入力された仮想視点情報に従って、3次元モデルが表すオブジェクトの3次元形状の表面にテクスチャを貼り付ける処理を行うことで、仮想視点映像を得るものとする。生成された仮想視点映像データは、液晶ディスプレイ等に代表される不図示の表示装置に出力・表示され、ユーザの視聴に供される。
なお、仮想視点情報には、少なくとも仮想視点の位置及び方向に関する情報が含まれる。また、仮想視点の指定には、少なくとも仮想視点の位置及び方向に関する指定が含まれる。また、仮想視点の指定は、ユーザによる指定でなくてもよい。例えば、装置が、自動で指定するような構成であってもよい。
(画像処理装置のハードウェア構成)
図2は、画像処理装置100のハードウェア構成の一例を示す図である。画像処理装置100は、CPU201、メインメモリ202、HDD203、入力部204、表示部205、外部I/F206を備え、各部がバス207を介して接続されている。まず、CPU201は、画像処理装置100を統括的に制御する演算処理装置であり、HDD203等に格納された各種プログラムを実行して、後述する様々な画像処理を行う。メインメモリ202は、各種処理で用いるデータやパラメータなどを一時的に格納するほか、CPU201に作業領域を提供する。HDD203は、各種プログラムや入力された映像データなどを記憶する不揮発性の大容量記憶装置であり、例えばSSD等でもよい。入力部204は、キーボードやマウス、電子ペン、タッチパネル等の装置であり、様々なユーザ指示を受け付ける。表示部205は、液晶パネルなどで構成され、UI(ユーザインタフェース)画面の表示などを行う。外部I/F部206は、カメラ群110を構成する各カメラ及び仮想視点映像装置130とネットワーク(ここではLAN208)を介して、複数視点映像データや3次元モデルといった各種データの送受信を行う通信インタフェースである。バス207は上述の各部を接続し、データ転送を行う。
なお、仮想視点映像装置120も、画像処理装置100と同様の構成を備え、CPUやメインメモリを用いて上述のレンダリング処理などを行う。
(画像処理装置のソフトウェア構成)
次に、前述の図1を参照して、画像処理装置100のソフトウェア構成について説明する。図1において、画像処理装置100を示す枠内には、4つの機能部、すなわち、シルエット画像生成部101、3次元形状導出部102、座標演算部103及び3次元形状データ記憶部104が示されている。以下、各部について説明する。
シルエット画像生成部101は、カメラ群110から入力された複数視点映像データを対象として、前景となるオブジェクトのシルエット画像を生成する。シルエット画像とは、オブジェクトの輪郭内側を塗り潰し、各画素2値で表すことで当該オブジェクトの2次元形状を表した単色の画像である。本実施形態のシルエット画像生成部101は、背景差分法を用いて、すなわち、時系列に入力される各フレーム(静止画像)と予め用意した背景画像との差分を求めて2値化することでシルエット画像を得る。なお、2値化に限らず、前景領域が他の領域と区別される画像であれば、どのようなものでもよい。また、シルエット画像生成部101は、照明条件の変化があった場合など、背景との差分が同じ内容で一定時間継続する場合に、背景画像を更新する。これにより、照明条件の変化等の影響を受けずに、シルエット画像を生成することができる。さらに、シルエット画像生成部101は、生成した各シルエット画像が表す2次元形状の色や質感を表現する画像データを、テクスチャ情報として生成する。生成されたシルエット画像データとテクスチャ情報は、3次元形状導出部102に入力される。
3次元形状導出部102は、シルエット画像生成部101で生成されたシルエット画像からオブジェクトの3次元形状を導出して3次元形状データを生成し、仮想視点映像装置120に出力する。3次元形状が導出される対象となるオブジェクトは、前景であり、少なくとも複数のフレームを通して、動体として振る舞うオブジェクトである。そして、3次元形状導出部102は、複数視点画像の撮影の一部の期間で動体として振る舞うオブジェクトの3次元形状データを生成できない場合、過去に生成された当該オブジェクトの3次元形状データを、仮想視点映像を生成する装置に出力する。本実施形態においては、3次元形状のデータ形式として、本実施形態ではボクセル形式を例に説明を行うが、オブジェクトの3次元形状を特定可能な形式であればどのようなデータ形式でもよく、点群形式やメッシュ形式など他のデータ形式でもよい。3次元形状の導出には、一般的に使用されている視体積交差法を用いる。視体積交差法は、複数のカメラで撮像された視点の異なる映像から得られた複数のシルエット画像を、3次元空間に逆投影し、それぞれの視体積の交差部分を求めることにより、オブジェクトの3次元形状を得る手法である。なお、ここでは、説明を簡単にするためにカメラ台数を4台としたが、カメラ台数を増やしシルエット画像を増やすことによって、より高精度の3次元形状を導出することができる。また、3次元形状を導出する手法は視体積交差法に限定されず、ステレオマッチング法などの他の手法を用いてもよい。なお、本実施形態における、オブジェクトの3次元形状の導出処理の詳細については後述する。
座標演算部103は、3次元形状導出部102によって導出されたオブジェクトの3次元形状を表すボクセル群を3次元空間座標にマッピングをして、ボクセル群の存在する3次元座標を算出する。本実施形態では、ボクセル群の外接する直方体(以後、「3Dバウンディングボックス」と呼ぶ)の8つの頂点座標を、ボクセル群の3次元座標として求める。
3次元形状データ記憶部104は、3次元形状導出部102の指示に従い、3次元形状データをHDD203に格納したり、HDD203から特定の3次元形状データを読み出す処理を行う。
(課題)
本実施形態においては、フレーム間で動きのあった動体のオブジェクトがその動きを止めて静止した場合であっても、その3次元形状データを途切れることなく、仮想視点映像生成装置120に供給できるようにする。それを実現するための具体的な処理内容の説明に入る前に、問題の所在について確認しておく。
ここでは、陸上競技の一種であるやり投げ競技を撮影シーンとした場合を例として、図3〜図5を参照しつつ説明する。図3は、フィールド300上で選手302がやり303を投てきした様子を俯瞰で見た模式図であり、フィールド300の周囲には、仮想視点映像の元となる複数視点映像を得るための4台のカメラ301a〜301dが配置されている。4台のカメラ301a〜301dそれぞれが異なる方向から同期して撮影を行うことで複数視点映像が得られる。なお、各カメラ301a〜301dが60fpsで撮影を行う場合、1秒分の複数視点映像には、60×4=240枚のフレーム(静止画像)が含まれることになる。図3ではカメラ台数は4台であるが、実際に陸上競技が行われるスタジアムのような実環境ではより多くのカメラが配置される。また、図4には、カメラ301cが撮像した動画像のあるフレームから、やり303のシルエット画像が生成される様子が示されている。いま、入力画像401には、選手302が放ったやり303が写っている。シルエット画像生成部101は、入力画像401と予め用意した背景画像402との差分から、シルエット画像403を得る。ここで、前述のとおり、背景差分法においては、照明条件の変化などに対応するため、一定時間背景との差分が継続すると、背景画像の更新を行う。この背景画像の更新によって、動きを止めて静止したオブジェクトについての3次元モデルが生成できなくなってしまう。その理由を、図5(a)〜(d)を参照して詳しく説明する。なお、以下の説明において、「フレームデータ」を、同一時刻に撮影された、視点の異なる複数の静止画のまとまりを指すものとして用いるものとする。
図5(a)〜(d)には、入力された複数視点映像の対象フレームデータにおける、やり303の状態が各図の上段に示され、それぞれの状態におけるシルエット画像が各図の下段に示されている。まず、時刻0:00:10:00のフレームデータに対応する図5(a)の上段においては、選手302が放ったやり303は飛んでいる状態である。次に、その1秒後の時刻0:00:11:00のフレームデータに対応する図5(b)では、やり303はフィールド300に刺さった状態である。そして、時刻0:00:16:00のフレームデータに対応する図5(c)及び、時刻0:00:21:00のフレームデータに対応する図5(d)では、やり303はフィールド300に刺さったままその動きを止めて静止している状態である。
そして、各図の下段のシルエット画像についてみると、まず時刻0:00:10:00では、やり303は飛んでいる状態であるので背景画像402に対して差分がある。そのため、やり303のシルエットの導出が可能で、各カメラ301a〜301dの撮影画像に対応したシルエット画像501〜504を得ることができる。次に、時刻0:00:11:00及び時刻0:00:16:00では、やり303はフィールド300に刺さり動きが止まった状態である。ここで、シルエット画像の生成処理において、入力フレームデータにおいて10秒間動きが無い領域を新たな背景とする、背景更新処理を行うこととする。この場合、やり303は時刻0:00:11:00の時点でフィールド300に刺さって静止したので、0:00:21:00までは背景画像402は更新されない。したがって、各カメラ301a〜301dの撮影画像に対応した、刺さって静止した状態のやり303のシルエット画像511〜514が時刻0:00:11:00について、同様のシルエット画像521〜525が時刻0:00:16:00について生成される。そして、時刻0:00:21:00では、やり303が静止した時刻0:00:11:00から10秒が経過している。この場合、背景画像が、やり303がフィールド300に刺さった状態の画像へと更新されているので、各カメラ301a〜301dの撮影画像との差分がなくなり、やり303のシルエットが抽出できなくなってしまう。そして、時刻0:00:21:00については、やり303のシルエットが存在しないシルエット画像531〜534が生成されてしまうことになる。その結果、時刻0:00:10:00ではシルエット画像501〜504に基づき、飛んでいる状態のやり303の形状を表す3次元モデルが生成される。そして、時刻0:00:11:00及び時刻0:00:16:00では、シルエット画像521〜524に基づき、フィールド300に刺さった状態のやり303の形状を表す3次元モデルがそれぞれ生成される。しかしながら、時刻0:00:21:00では、シルエット画像531〜534にはやり303のシルエットが存在しないことから、やり303の形状を表す3次元モデルが生成されない。その結果、仮想視点映像からやり303が突然消失するという問題が生じることになる。これが本発明の課題である。
なお、上記課題は、背景差分法に限ったものではない。一定時間動きのないオブジェクトが前景ではなく背景として扱われてしまい、所望のシルエット画像が得られないという問題は、例えばフレーム間差分法においても起こり得るものである。また、本実施形態では、撮影の一部の期間で動体として振る舞うオブジェクトの例として、やり投げにおける「やり」を例に説明を行うが、陸上競技で用いられる様々な器具に適用可能である。例えば、やり投げ以外の投てき競技に用いられる器具、例えば砲丸やハンマーにも同様に適用可能である。さらには、走り高跳びや棒高跳びといった跳躍競技で用いるバー(横木)など、静止していた状態から動き出す器具などにも適用可能である。
続いて、本実施形態に係る、画像処理装置100における処理について、前述の図5(a)〜(d)に示す各時刻のフレームデータを処理する場合を例に、図6のフローチャートを参照しつつ説明する。この場合において、図5(b)〜(d)のフレーム間、すなわち、時刻0:00:11:00から時刻0:00:21:00の10秒間、オブジェクトであるやり303は、フィールド300に刺さった状態のまま動かずにいるものとする。図6のフローチャートに示す各処理は、HDD203に格納された制御プログラムがメインメモリ202に読み出され、CPU201がこれを実行することによって実現される。なお、以下の説明において「S」はステップを意味する。
<時刻0:00:10:00>
まず、S601では、シルエット画像生成部101が、処理対象のフレームデータからシルエット画像を生成する。ここでは、飛んでいる状態のやり303のシルエットを含むシルエット画像501〜504が生成されることになる。生成されたシルエット画像501〜504のデータは、3次元形状導出部102に入力される。
続くS602では、3次元形状導出部102が、入力されたシルエット画像に基づき、オブジェクトの3次元形状を導出する。図7(a)は、ここで導出される、やり303の3次元形状データを示している。仮想視点映像空間となる3次元空間700内に、飛んでいる状態のやり303の形状を表すボクセル群701が存在する3次元形状データが得られることになる。こうして得られた3次元形状データは、座標演算部103に入力される。
続くS603では、座標演算部103が、入力された3次元形状データに含まれるすべてのボクセル群のうち、注目するボクセル群の3次元座標を算出する。ここでは、やり303の形状を表すボクセル群701を注目ボクセル群として、その3次元座標が算出されることになる。図8(a)は、図7(a)に示すボクセル群701について算出された3次元座標を示している。この3次元座標は、3次元空間700において、(x,y,z)=(0,0,0)を原点としたときのボクセル群701の位置を、x座標、y座標、z座標で特定した情報である。ここでは、ボクセル群701に外接する3Dバウンディングボックスの8つの頂点A〜Hの座標が求められることになる。3Dバウンディングボックスの各頂点A〜Hの座標は、以下のようにして求められる。
まず、複数のボクセルで構成されているボクセル群701の各軸の最小座標値と最大座標値(x_max)を求める。いま、ボクセル群701のx軸の最小座標値(x_min)=80、最大座標値(x_max)=85とする。同様に、y軸の最小座標値(y_min)=120、最大座標値(y_max)=160、z軸の最小座標値(z_min)=100、最大座標値(z_max)=140とする。そして、これら各軸の最大座標値と最小座標値とを組み合わせることで、各頂点の座標とする。例えば、頂点Aは、各軸の最小座標値を組み合わせた座標、すなわち、(x_min,y_min,z_min)=(80,120,100)となる。同様に、他の頂点B〜Hについても求めることができ、まとめると以下のようになる。
頂点A:(x_min,y_min,z_min)=(80,120,100)
頂点B:(x_max,y_min,z_min)=(85,120,100)
頂点C:(x_max,y_max,z_min)=(85,160,100)
頂点D:(x_min,y_max,z_min)=(80,160,100)
頂点E:(x_min,y_min,z_max)=(80,120,140)
頂点F:(x_max,y_min,z_max)=(85,120,140)
頂点G:(x_max,y_max,z_max)=(85,160,140)
頂点H:(x_min,y_max,z_max)=(80,160,140)
このようにして得られた注目ボクセル群の3次元座標の情報は、3次元形状導出部102に入力される。
次に、S604では、3次元形状導出部102が、S603で算出された注目ボクセル群の3次元座標が、一定時間同一座標のまま変化がないかを判定する。一定時間は任意の時間でよいが、本実施形態では5秒間とする。この判定処理の意味は、注目ボクセル群に対応するオブジェクトが、所定フレーム数の間、同じ位置に留まって動きがないかどうかを確認することにある。この判定は、S603で算出された3Dバウンディングボックスの3次元座標が、現フレームよりも前の所定フレーム数を通じて、同一座標と評価される範囲内に収まっているかどうかをチェックすることによって行う。いま、時刻0:00:10:00の時点では、それ以前のフレームデータが存在せず、比較対象となる3Dバウンディングボックスがそもそも無い。したがって、S603で算出されたボクセル群701の3次元座標が、一定時間同一座標のままということはない。この場合、S605をスキップして、S606に進む。
次に、S606では、すべてのボクセル群が処理されたかどうかが判定される。すべてのボクセル群の処理が完了していれば、S607に進む。一方、未処理のボクセル群が存在する場合は、S603に戻って、次のボクセル群を対象として同様の処理を繰り返す。本実施形態においては、説明の簡単化のため、存在するボクセル群が1つの場合を例としているので、未処理のボクセル群はないと判定され、S607に進むことになる。
S607では、保存されているボクセル群のデータがあるかどうかが判定される。いま、S605はスキップされており、それ以前に保存されたボクセル群のデータもないので、さらにS608をスキップしてS609に進む。
S609では、3次元形状導出部102が、オブジェクトの形状を表すボクセル群が仮想視点映像空間となる3次元空間内に配置された3次元形状データを、仮想視点映像装置120に出力する。時刻0:00:10:00では、S602で導出された、飛んでいる状態のやり303の形状を表すボクセル群701が3次元空間700内に存在する3次元形状データが出力されることになる。
そして、S610では、すべてのフレームデータについて処理が完了したかどうかが判定される。未処理のフレームがあればS601に戻って、次のフレームデータを対象とした処理が続行される。ここでは、時刻0:00:11:00のフレームデータを処理するべく、S601に戻る。
<時刻0:00:11:00>
S601では、シルエット画像生成部101が、入力された対象フレームデータからシルエット画像を生成する。ここでは、フィールド300に刺さった状態のやり303のシルエットを含むシルエット画像511〜514が生成されることになる。生成されたシルエット画像511〜514のデータは、3次元形状導出部102に入力される。
S602では、3次元形状導出部102が、入力されたシルエット画像に基づき、オブジェクトの3次元形状を導出する。図7(b)は、ここで導出される、やり303についての3次元形状データを示している。仮想視点映像空間となる3次元空間700内に、フィールド300に刺さった状態のやり303の形状を表すボクセル群702が存在する3次元形状データが得られることになる。こうして得られた3次元形状データは、座標演算部103に入力される。
S603では、座標演算部103が、入力された3次元形状データに含まれるボクセル群のうち注目するボクセル群の3次元座標を算出する。ここでは、フィールド300に刺さった状態のやり303の形状を表すボクセル群702を注目ボクセル群として、その3次元座標が算出されることになる。図8(b)は、図7(b)に示すボクセル群702について算出された3次元座標を示している。この3次元座標は、3次元空間700において、(x,y,z)=(0,0,0)を原点としたときのボクセル群702の位置を、x座標、y座標、z座標で特定した情報である。図8(a)と同様、ボクセル群702に外接する3Dバウンディングボックスの8つの頂点A´〜H´の座標が求められることになる。いま、3Dバウンディングボックスの各頂点A´〜H´の座標は、以下のようになる。
頂点A´:(x_min,y_min,z_min)=(80,20,0)
頂点B´:(x_max,y_min,z_min)=(85,20,0)
頂点C´:(x_max,y_max,z_min)=(85,60,0)
頂点D´:(x_min,y_max,z_min)=(80,60,0)
頂点E´:(x_min,y_min,z_max)=(80,20,40)
頂点F´:(x_max,y_min,z_max)=(85,20,40)
頂点G´:(x_max,y_max,z_max)=(85,60,40)
頂点H´:(x_min,y_max,z_max)=(80,60,40)
S604では、3次元形状導出部102が、S603で算出された注目ボクセル群の3次元座標が、一定時間同一座標のまま変化がないかを判定する。ここでは、フィールド300に刺さった状態のやり303の3次元形状を表すボクセル群702に外接する3Dバウンディングボックスの座標が、一定時間同一座標のまま変化がないか判定することになる。具体的には、まず、現時点(時刻0:00:11:00の時点)における3Dバウンディングボックスの座標と、その1秒前の時点(時刻0:00:10:00の時点)における3Dバウンディングボックスの座標とを比較する。そして、双方の座標が一致するかどうかを判定する。例えば、実際のやり303の長さが260cmであって、それに対応するボクセル長が56ボクセルであったとする。この場合、1ボクセル長=260cm /56ボクセル=5.2 cm/ボクセルとなり、x,y,zの座標が1座標動くことで5.2cm動いたことになる。いま、やり303の動く範囲が5.2cm以下であれば、やり303は静止していると判断するものとする。この場合、座標の変化がなければ、同一座標と判断することになる。仮に、動く範囲が10.4cm以下であれば静止していると判断する場合は、座標の変化が1以内のときに同一座標と判断することになる。このように座標間の差が、許容される動きに対応する範囲内に収まっていれば、同一座標のまま変化がないとして扱う。前述のとおり、1秒前の頂点Aの座標は(85,120,100)であるのに対し、現時点の頂点A´の座標は(80,20,0)であり、双方の座標は一致していない。同様に、1秒前の頂点B〜Hの各座標と、現時点の頂点B´〜H´の各座標はいずれも大きく異なっている。したがって、ボクセル群702の座標は、一定時間同一座標のまま変化がない、とは判断されない。この場合、S605をスキップして、S606に進む。
S606では、すべてのボクセル群が処理されたかどうかが判定される。いま、存在するボクセル群は1つなので、未処理のボクセル群はないと判定され、S607に進むことになる。
S607では、保存されているボクセル群のデータがあるかどうかが判定される。いま、S605はスキップされており、それ以前に保存されたボクセル群のデータもないので、さらにS608をスキップしてS609に進む。
S609では、3次元形状導出部102が、オブジェクトの形状を表すボクセル群が仮想視点映像空間となる3次元空間内に配置された3次元形状データを、仮想視点映像装置120に出力する。時刻0:00:11:00では、S602で導出された、フィールド300に刺さった状態のやり303の形状を表すボクセル群702が3次元空間700内に存在する3次元形状データが出力されることになる。
そして、S610では、すべてのフレームデータについて処理が完了したかどうかが判定される。未処理のフレームがあればS601に戻って、次のフレームデータを対象とした処理が続行される。ここでは、時刻0:00:16:00のフレームデータを処理するべく、S601に戻る。
<時刻0:00:16:00>
S601では、シルエット画像生成部101が、入力された対象フレームデータからシルエット画像を生成する。ここでは、フィールド300に刺さったままの状態のやり303のシルエットを含むシルエット画像521〜524が生成されることになる。生成されたシルエット画像521〜524のデータは、3次元形状導出部102に入力される。
S602では、3次元形状導出部102が、入力されたシルエット画像に基づき、オブジェクトの3次元形状を導出する。いま、やり303はフィールド300に刺さった状態であり、前述の図7(b)に示した3次元形状データが得られることになる。得られた3次元形状データは、座標演算部103に入力される。
S603では、座標演算部103が、入力された3次元形状データに含まれるボクセル群のうち注目するボクセル群の3次元座標を算出する。ここでは、時刻0:00:11:00のときと同様、やり303の形状を表すボクセル群702に外接する3Dバウンディングボックスの8つの頂点A´〜H´の座標が求められることになる。
S604では、3次元形状導出部102が、S603で算出された注目ボクセル群の3次元座標が一定時間同一座標のまま変化がないかを判定する。ここでは、フィールド300に刺さった状態のやり303の3次元形状を表すボクセル群702に外接する3Dバウンディングボックスの座標が、一定時間同一座標のまま変化がないか判定することになる。いま、3Dバウンディングボックスの座標は、5秒前の時刻0:00:11:00のときと同じである。したがって、ボクセル群702の座標は、一定時間同一座標のまま変化がないと判定されることになる。この場合、S605に進む。
S605では、3次元形状データ記憶部104が、一定時間同一座標にある注目ボクセル群のデータをHDD203に保存する。ここでは、5秒間同一の座標のまま変化のない3Dバウンディングボックス内のボクセル群702のデータが保存されることになる。図9に、3次元形状データ記憶部104における保存データの管理テーブルの一例を示す。本実施形態では、保存対象のボクセル群のデータ毎にIDを付与し、3次元空間上の3Dバウンディングボックスの座標と当該3Dバウンディングボックス内のボクセル群のデータを保持する。いま、図9の管理テーブルにおける時刻0:00:16:00の行に示すように、3Dバウンディングボックスの頂点A´〜頂点H´の座標情報と当該3Dバウンディングボックス内のボクセル群702のデータが、ID「001」と紐付けて保存される。図9のテーブルにおいて、時刻0:00:10:00及び時刻0:00:11:00の行がブランクなのは、前述のとおり、ボクセル群のデータが保存されていないためである。
S606では、すべてのボクセル群が処理されたかどうかが判定される。いま、存在するボクセル群は1つなので、未処理のボクセル群はないと判定され、S607に進むことになる。
S607では、保存されているボクセル群のデータがあるかどうかが判定される。いま、S605でボクセル群702のデータが保存されているので、S608に進む。
S608では、3次元形状導出部102が、S605で保存されたボクセル群のデータを、仮想視点映像空間となる3次元空間上に配置して、仮想視点映像装置120に出力するための3次元形状データを生成する。いま、ボクセル群702のデータが保存されており、3次元形状導出部102は、それと紐付けて保存されている3Dバウンディングボックスの座標情報に基づき、ボクセル群702のデータが3次元空間700上に配置されることになる。
S609では、3次元形状導出部102が、オブジェクトの形状を表すボクセル群が仮想視点映像空間となる3次元空間内に配置された3次元形状データを、仮想視点映像装置120に出力する。時刻0:00:16:00では、S608で生成された3次元形状データが出力されることになる。なお、S602でも、シルエット画像から生成したボクセル群702を含む3次元形状データが得られている。しかし、本実施形態ではこれを使用せずに、3次元形状データ記憶部104が管理する保存済みのデータを読み出して3次元空間上に配置した3次元形状データを出力することとしている。ただし、S602で得られた3次元形状データを出力するように構成してもよい。この場合は、3次元形状データ記憶部104が管理するボクセル群の保存データの読み出しと3次元空間への配置を停止すればよい。この保存データの読み出し停止については後述する。
そして、S610では、すべてのフレームデータについて処理が完了したかどうかが判定される。未処理のフレームがあればS601に戻って、次のフレームデータを対象とした処理が続行される。ここでは、時刻0:00:21:00のフレームデータを処理するべく、S601に戻る。
<時刻0:00:21:00>
S601では、シルエット画像生成部101が、入力された対象フレームデータからシルエット画像を生成する。前述のとおり、本実施形態のシルエット画像の生成処理においては、入力フレームデータにおいて10秒間動きが無い場合、背景画像の更新処理がなされる。すなわち、時刻0:00:21:00の時点では、フィールド300にやり303が刺さった状態の画像が、新たな背景画像となっている。そのため、ここでは、やり303のシルエットを含まないシルエット画像531〜534が生成されることになる。こうして、やり303のシルエットのないシルエット画像531〜534のデータが、3次元形状導出部102に入力される。
S602では、3次元形状導出部102が、入力されたシルエット画像に基づき、オブジェクトの3次元形状を導出する。いま、入力されたシルエット画像には、やり303のシルエットは存在しない。よって、3次元空間700上にやり303の形状を表すボクセル群が存在しない(すなわち、中身のない)3次元形状データが生成されることになる。
S603では、座標演算部103が、入力された3次元形状データに含まれるボクセル群のうち注目するボクセル群の3次元座標を算出する。いま、入力された3次元形状データにはオブジェクト形状を表すボクセル群が存在しない。そのため、座標演算部103では座標演算がなされずにエラー信号が3次元形状導出部102に出力される。
S604は、S603で算出された注目ボクセル群の3次元座標が一定時間同一座標のまま変化がないかを判定する処理であるが、いま、比較対象の座標がそもそも存在しない。この場合、一定時間同一座標のまま変化がないとはならないので、S605をスキップして、S606に進む。
S606では、すべてのボクセル群が処理されたかどうかが判定される。いま、他のボクセル群は存在しないので、未処理のボクセル群はないと判定され、S607に進むことになる。
S607では、保存されているボクセル群のデータがあるか判定される。時刻0:00:21:00の時点では、時刻0:00:16:00のフレームデータの処理にて保存されたボクセル群のデータが存在している。よって、S608に進むことになる。
S608では、3次元形状導出部102が、保存されているボクセル群のデータを、仮想視点映像空間となる3次元空間上に配置して、仮想視点映像装置120に出力するための3次元形状データを生成する。つまり、時刻0:00:16:00のときと同様、ボクセル群702のデータが3次元空間700上に配置された3次元形状データが生成されることになる。
S609では、3次元形状導出部102が、オブジェクトの形状を表すボクセル群が仮想視点映像空間となる3次元空間内に配置された3次元形状データを、仮想視点映像装置120に出力する。つまり、S608で生成された3次元形状データが出力されることになる。
S610では、未処理のフレームデータがあるかどうか判定される。未処理のフレームデータが入力されていればS610に戻って処理を続行する。一方、入力されるフレームデータがなく、すべての処理が完了していれば、本処理を終える。
以上が、本実施形態に係る、画像処理装置100における処理の内容である。
(保存データの読み出し停止)
続いて、保存されたボクセル群のデータの読み出しを停止する場合について説明する。例えば、所定のUI画面(不図示)を表示部205に表示し、特定のデータIDもしくは3Dバウンディングボックスの座標情報を指定することによって、保存されたボクセル群データの読み出しを停止させることができる。前述の例では、例えばID「001」を指定することで、やり303のボクセル群のデータ読み出しを停止できる。この場合、やり303のボクセル群が存在しない3次元形状データが出力されて、仮想視点映像上からやり303が消失することになる。さらには、上記UI画面にて3次元座標の入力を可能とし、ユーザが指定した3次元座標で特定される空間内に包含/接触する3Dバウンディングボックスがある場合、当該3Dバウンディングボックスに対応するボクセル群のデータの読み出しを停止してもよい。
本実施形態で述べた、やり投げを撮影シーンとする場合において、競技の進行に合わせて次に投げる選手が変わる際に、上述した読み出しの停止を、UI画面を介してユーザが指示することで、前の選手が投げたやりを仮想視点映像上から削除することができる。
さらには、上記のようなUI画面を介したユーザ指示に代えて、例えば、シルエット画像から導出した3次元形状に基づき、保存データの読み出し停止を行うようにしてもよい。例えば、保存されている3Dバウンディングボックスの座標A´〜H´で表される空間内に、シルエット画像から導出したやり303の形状を表すボクセル群1000が出現した場合は、保存しているボクセル群のデータ読み出しを停止してもよい。この場合、後続のフレームデータにおいて、それまで静止していたやり303が再び動いたとき、そのシルエットを含むシルエット画像が生成されるので、当該シルエット画像に基づき3次元形状データが生成されることになる。つまり、フィールド300に刺さっていたやり303が倒れるなどして再び動き始めた場合には、図10に示すように、やり303の形状を表すボクセル群1000が存在する3次元形状データを確実に生成することができる。
以上のとおり、本実施形態によれば、動いていたオブジェクトが静止してそのシルエットを含むシルエット画像が生成できなくなっても、当該オブジェクトの形状を表すボクセル群を含んだ3次元形状データを、仮想視点映像生成装置120に供給することができる。その結果、仮想視点映像生成装置120では、静止したオブジェクトが存在する仮想視点映像を生成することができる。
なお、本実施形態では、動いていたオブジェクトが静止した場合に、画像処理装置100の側で、当該オブジェクトの3次元形状データを保持しておき、必要に応じて仮想視点映像生成装置120に出力していた。しかし、これに限定されない。例えば、オブジェクトの動静に関する情報を仮想視点映像生成装置120に入力し、オブジェクトが静止した時点で当該オブジェクトの3次元形状データを保持するようにし、当該保持した3次元形状データを用いて仮想視点映像を生成するようにしてもよい。なお、静止したオブジェクトに対応する3次元形状データは、仮想視点映像装置120に保存されていてもよいし、画像処理装置100に保存されていてもよい。あるいは、その3次元形状データは、データベースなどの外部の装置に保存されていてもよい。また、画像処理装置100と仮想視点映像生成装置120の機能を併せ持った1つの装置が、複数視点映像データから仮想視点映像を生成する場合にも適用可能である。
また、生成した3次元形状データを常に、画像処理装置100又は外部の装置(データベース)で保存し、オブジェクトの動静に関する情報を取得して、オブジェクトが静止したことに基づいて、静止したオブジェクトに対応する3次元形状データを、仮想視点映像生成装置120に送信するようにしてもよい。
[実施形態2]
実施形態1では、一定時間動きのない静止したオブジェクトの3次元モデルを保持しておくことで、当該オブジェクトのシルエット画像が生成されなくなっても、その3次元モデルの供給を継続できるようにしていた。次に、一定時間動きのない静止したオブジェクトのシルエット画像を保持しておき、静止後もそのオブジェクトの3次元形状の導出を可能にする態様を、実施形態2として説明する。なお、画像処理装置のハードウェア構成など実施形態1と共通の内容については説明を省略ないしは簡略化し、以下では差異点を中心に説明を行うものとする。
図11は、本実施形態における、仮想視点映像システムの構成の一例を示す図である。その基本的な構成は実施形態1と同じである。図11において、本実施形態の画像処理装置100’を示す枠内には、4つの機能部、すなわち、シルエット画像生成部1101、オブジェクト追跡部1102、シルエット画像記憶部1103、3次元形状導出部1104が示されている。以下、各部について説明する。
シルエット画像生成部1101は、カメラ群110から入力された複数視点映像データに基づき、前景となるオブジェクトのシルエット画像とそのテクスチャ情報を生成する。また、照明条件の変化があった場合など、背景との差分が同じ内容で一定時間継続する場合に背景画像を更新する。これらの点は、実施形態1のシルエット画像生成部101と同じである。本実施形態では、さらに、動いていたオブジェクトが一定時間同一座標で静止した場合に、予め保存しておいたシルエット画像を取得して3次元形状導出部1104に供給する。
オブジェクト追跡部1102は、入力されるシルエット画像に対し、テンプレートマッチングに代表されるオブジェクト追跡処理を行って、シルエットに対応するオブジェクトが、移動していたオブジェクト(以下、「移動オブジェクト」と呼ぶ)であるか判定する。具体的には、まず、シルエット画像生成部1101が生成したシルエット画像に対しオブジェクトのシルエット検出を行い、検出したシルエットを表す領域(シルエット領域)が外接する長方形(以下、「2Dバウンディングボックス」と呼ぶ)を設定する。次に、設定した2Dバウンディングボックスの4つの頂点座標をシルエット領域の2次元座標として求め、その位置がフレーム間で変化している場合に移動オブジェクトであると判定する。
シルエット画像記憶部1103は、シルエット画像生成部1101の指示に従い、シルエット画像のデータをHDD203に保存したり、保存しておいたシルエット画像のデータをHDD203から読み出す処理を行う。
3次元形状導出部1104は、シルエット画像生成部1101から受け取ったシルエット画像からオブジェクトの3次元形状を導出して3次元形状データを生成し、仮想視点映像装置120に出力する。
続いて、本実施形態に係る、画像処理装置100’における処理について、前述の図5(a)〜(d)に示す各時刻のフレームデータを処理する場合を例に、図12のフローチャートを参照しつつ説明する。図12のフローチャートに示す各処理は、HDD203に格納された制御プログラムがメインメモリ202に読み出され、CPU201がこれを実行することによって実現される。なお、以下の説明において「S」はステップを意味する。
<時刻0:00:10:00>
まず、S1201では、シルエット画像生成部1101が、処理対象のフレームデータからシルエット画像を生成する。時刻0:00:10:00では、やり303は飛んでいる状態で背景画像に対して差分がある状態である。そのため、飛んでいる状態のやり303のシルエットを含むシルエット画像501〜504が生成されることになる。生成されたシルエット画像501〜504のデータは、オブジェクト追跡部1102に入力される。
次に、S1202では、オブジェクト追跡部1102が、S1201で生成されたシルエット画像に対して、オブジェクト追跡処理を実行する。オブジェクト追跡処理の結果(シルエット領域の有無、シルエット領域の座標情報、シルエット領域に対応するオブジェクトが移動オブジェクトであるか否か)は、シルエット画像生成部1101に入力される。図13(a)は、シルエット画像503に対するオブジェクト追跡処理の様子を説明する図である。図13(a)において、白画素で表される領域がやり303の2次元形状を表すシルエット領域であり、それに外接する矩形の枠1301が、設定された2Dバウンディングボックスを示している。いま、2Dバウンディングボックス1301の左上の頂点Aの座標が(200,100)であり、右下の頂点Bの座標が(400,80)である。いま、時刻0:00:10:00の時点では、それ以前のフレームデータが存在せず、比較対象となる2Dバウンディングボックスがそもそも無い。これは、他のシルエット画像501、502、504についても同様である。したがって、シルエット画像501〜504におけるシルエット領域に対応するオブジェクトは、過去フレームが存在しない現段階では移動オブジェクトではないと判定されることになる。
続くS1203〜1205では、シルエット画像生成部1101が、オブジェクト追跡処理の結果に基づき、処理の切り替えを行う。まず、S1203では、オブジェクトのシルエット領域が存在したかどうかにより次の処理が決定される。シルエット画像内にシルエット領域が存在していればS1204に進み、存在していなければS1207に進む。次に、S1204では、シルエット領域に対応するオブジェクトが移動オブジェクトかどうかにより次の処理が決定される。移動オブジェクトであればS1205に進み、移動オブジェクトでなければS1207に進む。そして、S1205では、移動オブジェクトの座標(すなわち、2Dバウンディングボックスの座標)が、一定時間同一座標のまま変化がないかどうかにより次の処理が決定される。一定時間同一座標のまま変化がない場合はS1206に進み、そうでなければS1207に進む。いま、飛んでいる状態のやり303の2次元形状を表すシルエット領域が存在しているのでS1204に進み(S1203でYes)、移動オブジェクトではないと判定されているのでS1207に進むことになる(S1204でNo)。
S1207では、シルエット画像生成部1101が、保存されているシルエット画像があるかどうかを判定する。シルエット画像が保存されていればS1208に進み、保存されていなければS1209に進む。いま、保存されているシルエット画像は存在しないので、S1209に進むことになる。
S1208において、シルエット画像生成部1101は、保存されているシルエット画像のデータを、シルエット画像記憶部1103を介してHDD203から読み出して取得して、3次元形状導出部1104に出力する。一方、S1209において、シルエット画像生成部1101は、S1201で生成したシルエット画像のデータを、3次元形状導出部1104に出力する。ここでは、S1201で生成したシルエット画像のデータが出力されることになる。
S1210では、未処理のフレームデータがあるかどうか判定される。未処理のフレームデータが入力されていればS1201に戻って処理を続行する。一方、入力されるフレームデータがなく、すべての処理が完了していれば、本処理を終える。ここでは、次の時刻0:00:11:00のフレームデータを処理するべくS1201に戻ることになる。
<時刻0:00:11:00>
S1201では、シルエット画像生成部101が、入力された対象フレームデータからシルエット画像を生成する。時刻0:00:11:00では、やり303はフィールド300に刺さって静止している状態であるが、この段階では背景画像の更新はなされておらず、背景画像に対して差分がある状態である。よって、フィールド300に刺さった状態のやり303のシルエットを含むシルエット画像511〜514が生成されることになる。生成されたシルエット画像511〜514のデータは、オブジェクト追跡部1102に入力される。
S1202では、オブジェクト追跡部1102が、S1201で生成されたシルエット画像に対して、オブジェクト追跡処理を実行する。ここでも、前述の時刻0:00:10:00のときと同様、シルエット画像511〜514それぞれを対象として、フィールド300に刺さった状態のやり303の2次元形状を表すシルエット領域に外接する2Dバウンディングボックスが設定され、その頂点座標が求められる。図13(b)は、シルエット画像513に対するオブジェクト追跡処理の様子を説明する図である。図13(b)において、白画素で表される領域がやり303の2次元形状を表すシルエット領域であり、それに外接する矩形の枠1302が、設定された2Dバウンディングボックスを示している。いま、2Dバウンディングボックス1302の左上の頂点Aの座標が(100,200)であり、右下の頂点Bの座標が(250,400)である。ここでは説明を省いているが、オブジェクト追跡部1102は、時刻0:00:10:00〜時刻0:00:11:00の間の各フレームデータに対する処理で得られたシルエット画像に対しても、同様のオブジェクト追跡処理を行っている。そこでは、各フレームデータについて生成されたシルエット画像のシルエット領域を囲む2Dバウンディングボックスの座標について、毎フレーム比較が行われる。すなわち、オブジェクト追跡部1102は、パターンマッチングによって同一オブジェクトに係るものであると認識された2Dバウンディングボックス同士を比較することで、オブジェクトが動いているか静止しているかの判定を行っている。時刻0:00:10:00〜時刻0:00:11:00の間においては、上述の図13(a)及び(b)から理解できるように、2Dバウンディングボックスの位置座標は時々刻々と変化するので、フレーム間で動きのある移動オブジェクトであると判定されることになる。こうして、得られたオブジェクト追跡処理の結果がシルエット画像生成部1101に入力される。
続くS1203〜1205では、前述のとおり、シルエット画像生成部1101が、オブジェクト追跡処理の結果に基づき、処理の切り替えを行う。いま、フィールド300に刺さっている状態のやり303の2次元形状を表すシルエット領域が存在しているのでS1204に進み(S1203でYes)、移動オブジェクトであると判定されているのでS1205に進むことになる(S1204でYes)。
S1205では、シルエット画像生成部1101が、オブジェクト追跡処理の結果に基づき、移動オブジェクトのシルエット領域を囲む2Dバウンディングボックスの座標が、一定時間変化がないかを判定する。この判定処理の意味は、移動オブジェクトが、所定フレーム数の間、同じ位置に留まって動きがないかどうかを確認することにある。一定時間は任意の時間でよいが、ここでは実施形態1のS604と同様に5秒間とする。いま、2Dバウンディングボックス1302の座標は、その1秒前の時刻0:00:10:00のときの2Dバウンディングボックス1301の座標とは異なるので、一定時間変化がない、とはならない(S1205でNo)。そのため、S1207に進むことになる。
S1207では、シルエット画像生成部1101が、保存されているシルエット画像があるかどうかを判定する。いま、保存されているシルエット画像は存在しないので、S1209に進むことになる。そして、S1209において、シルエット画像生成部1101は、S1201で生成したシルエット画像のデータを、3次元形状導出部1104に出力する。そして、S1210の判定処理において、次の時刻0:00:16:00のフレームデータを処理するべくS1201に戻ることになる。
<時刻0:00:16:00>
S1201では、シルエット画像生成部101が、入力された対象フレームデータからシルエット画像を生成する。時刻0:00:16:00では、やり303はフィールド300に刺さって静止したままの状態であるが、この段階では背景画像の更新は未だなされておらず、背景画像に対して差分がある状態である。よって、フィールド300に刺さった状態のやり303のシルエットを含むシルエット画像521〜524が生成されることになる。生成されたシルエット画像521〜524のデータは、オブジェクト追跡部1102に入力される。
S1202では、オブジェクト追跡部1102が、S1201で生成されたシルエット画像に対して、オブジェクト追跡処理を実行する。ここでも、前述の時刻0:00:11:00のときと同様、シルエット画像521〜524それぞれを対象として、フィールド300に刺さった状態のやり303の2次元形状を表すシルエット領域に外接する2Dバウンディングボックスが設定され、その頂点座標が求められる(前述の図13(b)を参照)。また、この段階では5秒間静止状態が継続しているが、追跡によって過去フレームでは移動していたことが把握できるので、移動オブジェクトであると判定される。こうして、得られたオブジェクト追跡処理の結果がシルエット画像生成部1101に入力される。
続くS1203〜1205では、前述のとおり、シルエット画像生成部1101が、オブジェクト追跡処理の結果に基づき、処理の切り替えを行う。いま、フィールド300に刺さっている状態のやり303の2次元形状を表すシルエット領域が存在しているのでS1204に進み(S1203でYes)、移動オブジェクトであると判定されているのでS1205に進むことになる(S1204でYes)。
S1205では、シルエット画像生成部1101が、オブジェクト追跡処理の結果に基づき、移動オブジェクトのシルエット領域を囲む2Dバウンディングボックスの座標が一定時間同一座標のまま変化がないかを判定する。いま、2Dバウンディングボックスの座標は、その5秒前の時刻0:00:11:00のときの2Dバウンディングボックスの座標と一致し、一定時間変化がない、と判定されることになる(S1205でYes)。そのため、S1206に進むことになる。
S1206では、シルエット画像記憶部1103が、2Dバウンディングボックスが一定時間同一座標にあり変化がないと判定された、S1201で生成されたシルエット画像のデータをHDD203に保存する。
S1207では、シルエット画像生成部1101が、保存されているシルエット画像があるかどうかを判定する。いま、保存されているシルエット画像は存在するので、S1208に進むことになる。そして、S1208において、シルエット画像生成部1101は、S1206で保存されたシルエット画像のデータを、シルエット画像記憶部1103を介して取得し、3次元形状導出部1104に出力する。そして、S1210の判定処理において、次の時刻0:00:21:00のフレームデータを処理するべくS1201に戻ることになる。
<時刻0:00:21:00>
S1201では、シルエット画像生成部101が、入力された対象フレームデータからシルエット画像を生成する。時刻0:00:21:00では、やり303はフィールド300に刺さって静止したまま10秒経過した状態であり、この段階では背景画像の更新がなされている。つまり、背景画像に対して差分がない状態である。よって、フィールド300に刺さった状態のやり303のシルエットを含まないシルエット画像531〜534が生成されることになる。生成されたシルエット画像531〜534のデータは、オブジェクト追跡部1102に入力される。
S1202では、オブジェクト追跡部1102が、S1201で生成されたシルエット画像に対して、オブジェクト追跡処理を実行する。いま、シルエット画像531〜534にはシルエット領域が存在しないので、2Dバウンディングボックスの設定ができず、その頂点座標の算出もなされない。そして、このオブジェクト追跡処理の結果がシルエット画像生成部1101に入力される。
続くS1203〜1205では、前述のとおり、シルエット画像生成部1101が、オブジェクト追跡処理の結果に基づき、処理の切り替えを行う。ここでは、やり303の2次元形状を表すシルエット領域が存在しないので(S1203でNo)、S1207に進むことになる。
S1207では、シルエット画像生成部1101が、保存されているシルエット画像があるかどうかを判定する。ここでは、時刻0:00:16:00のフレームデータに対する処理で保存されたシルエット画像が存在するので、S1208に進むことになる。そして、S1208において、シルエット画像生成部1101は、保存されたシルエット画像のデータを、シルエット画像記憶部1103を介して取得し、3次元形状導出部1104に出力する。そして、S1210の判定処理においては、未処理のフレームデータはないので処理を終えることになる。
このように、生成したシルエット画像内のシルエット領域を追跡し、その位置が一定時間変化しない(同一座標にある)場合にはその時点のシルエット画像を保持しておく。そして、動きを止めて静止したオブジェクトが再び動き出すまでは保持しておいたシルエット画像を読み出して出力する。これにより、背景画像が更新されても、当該オブジェクトのシルエット画像を供給し続けることが可能となる。なお、本実施形態は、移動オブジェクトの数が少ない撮影シーンにおいてより適応的である。移動オブジェクトの数が多くなると、それだけオブジェクト同士の重なりも生じやすくなってオクルージョン領域が発生しやすくなり、得られる3次元モデルの形状精度が悪化するためである。
以上のとおり、本実施形態によれば、移動オブジェクトが一定時間静止した場合において、背景画像の更新によって当該オブジェクトのシルエットを含むシルエット画像が生成できなくても、静止した状態のシルエット画像を供給し続けることができる。そして、3次元形状導出部1104は、供給されたシルエット画像のデータを用いて、静止した状態の移動オブジェクトの形状を表すボクセル群を含んだ3次元形状データを生成し、仮想視点映像生成装置120に供給することができる。その結果、実施形態1と同様、仮想視点映像生成装置120では、静止したオブジェクトが存在する仮想視点映像を生成することができる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 画像処理装置
101 シルエット画像生成部
102 3次元形状導出部
104 3次元形状データ記憶部

Claims (19)

  1. 仮想視点映像を生成する装置に、オブジェクトの形状を表す3次元形状データを出力する画像処理装置であって、
    複数の視点での撮影に基づく画像から、動体のオブジェクトの3次元形状データを生成する第1の生成手段と、
    前記第1の生成手段により生成された3次元形状データを、前記仮想視点映像を生成する装置に出力する出力手段と、
    を有し、
    前記第1の生成手段は、前記撮影の一部の期間で動体として振る舞うオブジェクトの3次元形状データを生成し、
    前記第1の生成手段において前記撮影の一部の期間で動体として振る舞うオブジェクトの3次元形状データを生成できないことに基づいて、前記出力手段は、過去に生成された当該オブジェクトの3次元形状データを、前記仮想視点映像を生成する装置に出力する、
    ことを特徴とする画像処理装置。
  2. 前記画像のフレームから、前記複数の視点に対応するシルエット画像を生成する第2の生成手段をさらに有し、
    前記第1の生成手段は、前記第2の生成手段から出力された前記複数の視点に対応するシルエット画像から、前記動体のオブジェクトの3次元形状を導出して、前記3次元形状データを生成する、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記撮影の一部の期間で動体として振る舞うオブジェクトの、前記第1の生成手段で生成された3次元形状データを保存する保存手段をさらに有する、ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記第1の生成手段によって導出された3次元形状を表す要素群の3次元空間上の座標を求める演算手段をさらに有し、
    前記保存手段は、前記演算手段で求めた座標が一定時間同一座標にある場合、当該求めた座標に対応する3次元形状データを保存する、
    ことを特徴とする請求項3に記載の画像処理装置。
  5. 前記第1の生成手段は、前記保存手段によって3次元形状データが保存されている場合に、導出した3次元形状から生成した3次元形状データに代えて、当該保存されている3次元形状データを前記装置に出力する、ことを特徴とする請求項3又は4に記載の画像処理装置。
  6. 前記第1の生成手段は、前記シルエット画像から前記動体のオブジェクトの3次元形状を導出できない場合に、前記保存手段によって保存されている3次元形状データを前記装置に出力する、ことを特徴とする請求項3又は4に記載の画像処理装置。
  7. 前記第2の生成手段は、フレーム間差分法、又は、前記画像を構成するフレームと背景との差分が同じ内容で一定時間継続する場合に背景を更新する背景差分法を用いて、前記シルエット画像を生成することを特徴とする請求項2に記載の画像処理装置。
  8. 前記過去に生成された3次元形状データの出力を停止させるユーザ指示を入力するためのユーザインタフェースを備えたことを特徴とする請求項3乃至7のいずれか1項に記載の画像処理装置。
  9. 前記撮影の一部の期間で動体として振る舞うオブジェクトは、陸上競技で使用される器具であることを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 前記撮影の一部の期間で動体として振る舞うオブジェクトの、前記第2の生成手段で生成されたシルエット画像を保存する保存手段をさらに有し、
    前記第2の生成手段は、所定の場合に、前記保存されたシルエット画像を前記第1の生成手段に出力し、
    前記第1の生成手段は、前記保存されたシルエット画像を用いて、前記動体のオブジェクトの3次元形状を導出して、前記3次元形状データを生成する、
    ことを特徴とする請求項2に記載の画像処理装置。
  11. 前記保存手段は、前記第2の生成手段で生成されたシルエット画像におけるシルエット領域の位置が一定時間変化しない場合、当該シルエット画像を保存することを特徴とする請求項10に記載の画像処理装置。
  12. 前記第2の生成手段は、生成したシルエット画像に、前記撮影の一部の期間で動体として振る舞うオブジェクトのシルエット領域が含まれていない場合、前記保存されたシルエット画像を前記第1の生成手段に出力する、ことを特徴とする請求項10又は11に記載の画像処理装置。
  13. 仮想視点映像を生成するシステムであって、
    複数の視点での撮影に基づく画像から、動体のオブジェクトの3次元形状データを生成する第1の生成手段と、
    前記第1の生成手段により生成された3次元形状データに基づいて、前記仮想視点映像を生成する第2の生成手段と、
    を有し、
    前記第1の生成手段は、前記撮影の一部の期間で動体として振る舞うオブジェクトの3次元形状データを生成し、
    前記第2の生成手段は、前記第1の生成手段により前記撮影の一部の期間で動体として振る舞うオブジェクトの3次元形状データを生成できないことに基づいて、過去に生成された当該オブジェクトの3次元形状データに基づいて、前記仮想視点映像を生成する、
    ことを特徴とするシステム。
  14. 仮想視点映像を生成する画像処理装置であって、
    複数の視点での撮影に基づく画像に基づいて生成された、動体のオブジェクトの3次元形状データを取得する取得手段と、
    前記取得手段により取得された3次元形状データに基づいて、前記仮想視点映像を生成する生成手段と、
    を有し、
    前記取得手段は、前記撮影の一部の期間で動体として振る舞うオブジェクトが静止したことに基づいて、過去に生成された前記撮影の一部の期間で動体として振る舞うオブジェクトの3次元形状データを取得する
    ことを特徴とする画像処理装置。
  15. 前記撮影の一部の期間で動体として振る舞うオブジェクトが静止した場合に、当該オブジェクトの3次元形状データを保存する保存手段と、
    前記保存されている3次元形状データを用いて、仮想視点映像を生成する生成手段と、
    を備えたことを特徴とする請求項14に記載の画像処理装置。
  16. 前記オブジェクトの3次元形状を表す要素群の3次元空間上の座標を求める演算手段をさらに備え、
    前記保存手段は、前記演算手段で求めた座標が一定時間同一座標にある場合、当該求めた座標に対応する3次元形状データを保存する、
    ことを特徴とする請求項15に記載の画像処理装置。
  17. 仮想視点映像を生成する装置に、オブジェクトの形状を表す3次元形状データを出力する 画像処理装置の制御方法であって、
    複数の視点での撮影に基づく画像から、動体のオブジェクトの3次元形状データを生成する生成ステップと、
    前記生成ステップにて生成された3次元形状データを、前記仮想視点映像を生成する装置に出力する出力ステップと、
    を含み、
    前記生成ステップでは、前記撮影の一部の期間で動体として振る舞うオブジェクトの3次元形状データを生成し、
    前記出力ステップでは、前記生成ステップにて前記撮影の一部の期間で動体として振る舞うオブジェクトの3次元形状データを生成できないことに基づいて、過去に生成された当該オブジェクトの3次元形状データを、前記仮想視点映像を生成する装置に出力する、
    ことを特徴とする制御方法。
  18. 複数の視点で撮影された動画像のフレーム間で移動していたオブジェクトが静止した場合に、当該オブジェクトの3次元形状データを保存する保存ステップと、
    前記保存されている3次元形状データを用いて、仮想視点映像を生成する生成ステップと、
    を含むことを特徴とする映像生成方法。
  19. コンピュータを、請求項1乃至12、請求項14乃至16のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2019075362A 2019-04-11 2019-04-11 画像処理装置、仮想視点映像を生成するシステム、画像処理装置の制御方法及びプログラム Active JP7479793B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019075362A JP7479793B2 (ja) 2019-04-11 2019-04-11 画像処理装置、仮想視点映像を生成するシステム、画像処理装置の制御方法及びプログラム
US16/842,047 US11195322B2 (en) 2019-04-11 2020-04-07 Image processing apparatus, system that generates virtual viewpoint video image, control method of image processing apparatus and storage medium
EP20168931.2A EP3723365A1 (en) 2019-04-11 2020-04-09 Image processing apparatus, system that generates virtual viewpoint video image, control method of image processing apparatus and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019075362A JP7479793B2 (ja) 2019-04-11 2019-04-11 画像処理装置、仮想視点映像を生成するシステム、画像処理装置の制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020173629A true JP2020173629A (ja) 2020-10-22
JP7479793B2 JP7479793B2 (ja) 2024-05-09

Family

ID=70285441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019075362A Active JP7479793B2 (ja) 2019-04-11 2019-04-11 画像処理装置、仮想視点映像を生成するシステム、画像処理装置の制御方法及びプログラム

Country Status (3)

Country Link
US (1) US11195322B2 (ja)
EP (1) EP3723365A1 (ja)
JP (1) JP7479793B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7324251B2 (ja) 2021-07-09 2023-08-09 キヤノン株式会社 情報処理装置および情報処理方法、映像表示システム、プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230237730A1 (en) * 2022-01-21 2023-07-27 Meta Platforms Technologies, Llc Memory structures to support changing view direction

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130321593A1 (en) * 2012-05-31 2013-12-05 Microsoft Corporation View frustum culling for free viewpoint video (fvv)
JP2015191538A (ja) * 2014-03-28 2015-11-02 Kddi株式会社 自由視点映像生成方法、装置およびプログラム
JP2018152738A (ja) * 2017-03-13 2018-09-27 株式会社小松製作所 表示システム、表示方法、及び遠隔操作システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018067106A (ja) 2016-10-18 2018-04-26 富士通株式会社 画像処理装置、画像処理プログラム、及び画像処理方法
JP6948175B2 (ja) 2017-07-06 2021-10-13 キヤノン株式会社 画像処理装置およびその制御方法
JP6433559B1 (ja) 2017-09-19 2018-12-05 キヤノン株式会社 提供装置および提供方法、プログラム
JP7080613B2 (ja) 2017-09-27 2022-06-06 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JPWO2019142660A1 (ja) * 2018-01-19 2021-03-04 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130321593A1 (en) * 2012-05-31 2013-12-05 Microsoft Corporation View frustum culling for free viewpoint video (fvv)
JP2015191538A (ja) * 2014-03-28 2015-11-02 Kddi株式会社 自由視点映像生成方法、装置およびプログラム
JP2018152738A (ja) * 2017-03-13 2018-09-27 株式会社小松製作所 表示システム、表示方法、及び遠隔操作システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7324251B2 (ja) 2021-07-09 2023-08-09 キヤノン株式会社 情報処理装置および情報処理方法、映像表示システム、プログラム

Also Published As

Publication number Publication date
US11195322B2 (en) 2021-12-07
EP3723365A1 (en) 2020-10-14
JP7479793B2 (ja) 2024-05-09
US20200327724A1 (en) 2020-10-15

Similar Documents

Publication Publication Date Title
KR101251701B1 (ko) 게임용 스테레오 비디오에 대하여 장치가 프로세스를실행할 수 있게 하는 정보를 저장하는 하나 이상의 컴퓨터판독가능 매체
KR102280587B1 (ko) 가상 시점 화상을 생성하는 시스템, 방법, 및 비일시적 컴퓨터 판독가능 기억 매체
JP5777786B1 (ja) 情報処理装置、情報処理方法、プログラム
US7782320B2 (en) Information processing method and information processing apparatus
US11200690B2 (en) Image processing apparatus, three-dimensional shape data generation method, and non-transitory computer readable storage medium
US11665332B2 (en) Information processing apparatus, control method thereof and storage medium
JP7479793B2 (ja) 画像処理装置、仮想視点映像を生成するシステム、画像処理装置の制御方法及びプログラム
JP2021056900A (ja) 画像処理装置、画像処理方法、及びプログラム
US20230394701A1 (en) Information processing apparatus, information processing method, and storage medium
US20220277520A1 (en) Information processing apparatus, information processing method, and storage medium
JP2022029239A (ja) 画像処理装置、画像処理方法、およびプログラム
JP6436872B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2015121892A (ja) 画像処理装置、画像処理方法
US11682175B2 (en) Previsualization devices and systems for the film industry
US20230177851A1 (en) Image processing apparatus, image processing method, and storage medium
JP6759375B2 (ja) 仮想視点画像を生成するシステム、方法及びプログラム
US20230334767A1 (en) Image processing apparatus, image processing method, and storage medium
JP2002222430A (ja) 3次元ポリゴンメッシュを生成する方法、装置、プログラム及びプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2023018253A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2022073647A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2023175503A (ja) 画像処理装置及びその画像処理方法
JP2022039374A (ja) 画像処理装置、画像処理システム、画像処理方法、およびプログラム
CN114641980A (zh) 使用任意捕获的输入对捕获图像的遮挡视图的重构

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240424