JP7366611B2 - 画像処理装置、画像処理方法、及び、プログラム - Google Patents

画像処理装置、画像処理方法、及び、プログラム Download PDF

Info

Publication number
JP7366611B2
JP7366611B2 JP2019126338A JP2019126338A JP7366611B2 JP 7366611 B2 JP7366611 B2 JP 7366611B2 JP 2019126338 A JP2019126338 A JP 2019126338A JP 2019126338 A JP2019126338 A JP 2019126338A JP 7366611 B2 JP7366611 B2 JP 7366611B2
Authority
JP
Japan
Prior art keywords
image
virtual viewpoint
time
image processing
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019126338A
Other languages
English (en)
Other versions
JP2021013095A (ja
Inventor
友里 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019126338A priority Critical patent/JP7366611B2/ja
Priority to US16/918,954 priority patent/US11250633B2/en
Publication of JP2021013095A publication Critical patent/JP2021013095A/ja
Application granted granted Critical
Publication of JP7366611B2 publication Critical patent/JP7366611B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30224Ball; Puck

Description

本発明は、仮想視点画像を生成する技術に関するものである。
複数の撮像装置を異なる位置に設置し、同期した状態で被写体を撮像することにより得られる複数の撮像画像を用いて、仮想視点画像を生成する技術がある。この技術によれば、撮像装置の設置位置から見た画像だけでなく、撮像領域内における任意の視点(仮想視点)から見た画像を生成することができる。
仮想視点画像は、複数の撮像装置により撮像された複数の撮像画像を用いて、三次元モデル等の形状データ生成及びレンダリング等の画像処理を行うことにより生成される。特許文献1には、撮像領域を取り囲むように複数の撮像装置を配置し、当該撮像領域を撮像した撮像画像を用いて、任意の視点に対応する仮想視点画像を生成及び表示する技術が開示されている。特許文献1に記載の画像データ再生装置によれば、ユーザによる視点を指定するための操作を受け付け、ユーザが指定した視点から見た仮想視点画像を生成することができる。これにより、ユーザは例えばスポーツ競技やコンサートについて、所望の視点から見た仮想視点画像を見ながらスポーツ競技観戦やコンサートの観賞をすることができる。また、生成された仮想視点画像は、ユーザ端末に配信され視聴される。
特開2014-215828号公報
仮想視点画像は、ユーザが所望の視点から見た画像を取得できることから、スポーツ競技のプレー及びフォーム等についての分析等に使用されることが想定される。このとき、例えばある特定の選手について、現在表示されている仮想視点画像に映る選手と、1秒前の時刻に対応する仮想視点画像に映る選手とを比較し、フォームがどのように変化したかを分析する場合を考える。この場合に特許文献1に記載の画像データ再生装置を用いると、現在表示されている仮想視点画像の他に、1秒前の時刻に対応する仮想視点画像を生成し、二つの仮想視点画像を見比べるという方法をとることができる。しかしながら、上述の方法では、時刻を変更しながら異なる時刻に対応する複数の仮想視点画像を生成し、目視等により比較する必要があるため、比較の作業に時間がかかる虞がある。
本発明は上記の課題に鑑みてなされたものである。その目的は、連続して撮像された特定の被写体について、異なる時点のそれぞれに対応する当該特定の被写体どうしを所望の視点から比較可能な仮想視点画像を表示させることである。
本発明に係る画像処理装置は、複数の撮像装置により撮像された複数の撮像画像に基づいて仮想視点画像を生成する画像処理装置であって、背景データと、前記背景データとは異なる、特定の被写体が連続して撮像される期間における当該特定の被写体を表す形状データを取得する取得手段と、前記仮想視点画像に係る仮想視点の、位置及び向きの少なくともいずれかを示す情報を含む仮想視点情報を決定する決定手段と、前記決定手段により決定された仮想視点情報に対応した、前記連続して撮像される期間における異なる時点のそれぞれに対応する複数の形状データに基づく画像を同時に表示させるための仮想視点画像を、前記背景データと前記複数の形状データとを用いて生成する生成手段とを有することを特徴とする。
本発明によれば、連続して撮像された特定の被写体について、異なる時点のそれぞれに対応する当該特定の被写体を所望の視点から比較可能な仮想視点画像を表示させることができるようになる。
画像処理装置100のハードウェア構成を説明するための図である。 画像処理システム200の機能構成を説明するための図である。 軌跡画像を生成するための処理を説明するための図である。 軌跡画像を生成するための処理を説明するための図である。 軌跡線分及び仮想カメラの配置の一例を説明するための図である。 画像処理装置100が行う軌跡画像生成処理を説明するためのフローチャートである。 その他の実施形態を説明するための図である。 撮像装置1の配置の一例を示す図である。
以下、本発明の実施形態について、図面を参照しながら説明する。なお、以下の実施形態に記載される構成要素は、本発明の実施の一例としての形態を示すものであり、本発明の範囲をそれらのみに限定するものではない。
本実施形態においては、複数の撮像装置により撮像される特定の被写体に関して、当該被写体の経時的な変化を容易に認識可能な仮想視点画像を生成する画像処理装置100について説明する。ここで、仮想視点画像とは、複数の撮像装置による撮像に基づく複数の画像と、指定された任意の視点(仮想視点)とに基づいて、指定された仮想視点からの見えを表す画像である。複数の撮像装置は、例えば図8に示す撮像装置1のように、撮像領域を囲むように配置されうるが、配置及び台数はこの例に限定されない。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。本実施形態における仮想視点画像は静止画像であるが、仮想視点画像を複数組み合わせることにより仮想視点動画を生成することも可能である。また、本実施形態においては、仮想視点画像を生成するためのデータを、素材データと呼ぶ。素材データは、撮像装置によって撮像された撮像画像、及び該撮像画像に基づいて生成されるデータである。素材データは、後述する補助記憶装置104又は外部補助記憶装置107等に蓄積され、仮想視点画像の生成時に使用される。素材データの種別及び生成方法の詳細については後述する。
本実施形態における画像処理装置100を使用することにより、図3(b)に示すような、異なる時刻に撮像された特定の被写体が一の静止画像に含まれる仮想視点画像を生成することができる。以降の説明においては、図3(b)のように特定の被写体が時間の変化に伴いどのように変遷したかを確認可能な画像を、軌跡画像とも呼ぶこととする。
本実施形態における画像処理装置100のハードウェア構成について、図1を用いて説明する。画像処理装置100は、CPU101、ROM102、RAM103、補助記憶装置104、通信I/F105、及びバス106を有する。
CPU101は、ROM102やRAM103に格納されているコンピュータプログラムやデータを用いて画像処理装置100の全体を制御することで、図1に示す画像処理装置100の各機能を実現する。なお、画像処理装置100がCPU101とは異なる1又は複数の専用のハードウェアを有し、CPU101による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM102は、変更を必要としないプログラムなどを格納する。RAM103は、補助記憶装置104から供給されるプログラムやデータ、及び通信I/F105を介して外部から供給されるデータなどを一時記憶する。補助記憶装置104は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。
通信I/F105は、画像処理装置100の外部の装置との通信に用いられる。例えば、画像処理装置100が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F105に接続される。画像処理装置100が外部の装置と無線通信する機能を有する場合には、通信I/F105はアンテナを備える。本実施形態における画像処理装置100は、例えば外部に接続される外部補助記憶装置107、及び後述のユーザ端末300等と通信を行う。バス106は、画像処理装置100の各部をつないで情報を伝達する。
次に、本実施形態における画像処理装置100の機能構成について、図2を用いて説明する。図2は、画像処理装置100を有する画像処理システム200の機能構成を説明するための図である。なお、図2におけるユーザ端末300a-300zは、図1におけるユーザ端末300に対応する。以降の説明においては、特別な説明がない限り、ユーザ端末300a-300zの26セットのユーザ端末を区別せず、単にユーザ端末300と記載する。各ユーザ端末300内の装置についても同様に、特別な説明がない場合は区別せず、それぞれ端末通信部301、表示部302、操作部303、ユーザ情報発信部304と記載する。
素材データ保持部201及び被写体情報保持部202は、外部補助記憶装置107に含まれる保持部である。素材データ保持部201は、仮想視点画像を生成するために使用される素材データを保持し、後述する画像生成部206からの要求に応じて素材データを送信する。被写体情報保持部202は、複数の撮像装置により撮像される被写体に係る情報(以下、被写体情報と呼ぶ)を保持し、画像処理装置100における各処理部に被写体情報を送信する。被写体として想定されるオブジェクトとしては、例えばボールや選手のように撮像領域内において動きのあるオブジェクトと、例えば球技で使用されるゴール等の構造物のように撮像領域内において静止しているオブジェクトとがある。本実施形態においては、動きのあるオブジェクトを前景オブジェクト、静止しているオブジェクトを背景オブジェクトと呼ぶ。前景オブジェクトとしては、上記の例の他に、フィールド内の審判、コンサートやエンタテイメントにおける歌手、演奏者、パフォーマー、司会者などが想定される。また背景オブジェクトとしては、上記の例の他に、コンサート等のステージ、及び競技などのイベントを行うスタジアム等が想定される。ただし、被写体としては前景オブジェクト及び背景オブジェクトの他に、別の物体等が含まれていても構わない。また、撮像領域全体も被写体であると解されてもよい。なお、以降の説明において、前景オブジェクトと背景オブジェクトとをまとめてオブジェクトと記載する場合がある。被写体情報保持部202は、前景オブジェクト及び背景オブジェクト等の各被写体に対応する被写体情報を保持する。被写体情報は、例えば、それぞれの被写体に対応する時刻情報、姿勢認識情報、識別情報及び代表点情報等を含む。また、被写体情報には、撮像領域全体の範囲に関する情報であって、仮想視点を指定可能な範囲を示す情報も含まれる。以下、被写体情報に含まれる各情報について説明する。
時刻情報は、複数の撮像装置により被写体が撮像された時刻に係る情報である。時刻情報は、例えば複数の撮像装置を同期して撮像を行う際に使用されるタイムコードに関する情報、及び撮像画像に付される撮像時刻に関する情報又は撮像画像フレーム番号等に基づいて取得することができる。姿勢認識情報は、例えば選手等の被写体について、機械学習等により姿勢認識を行った結果、又は姿勢認識を行うために必要な情報が含まれる。識別情報は、複数の被写体を識別可能にするための情報である。例えば被写体がサッカー選手である場合、選手の名前、背番号、及び所属等を表す情報が含まれうる。代表点情報は、一つの被写体(オブジェクト)を1点で表す際の座標に関する情報、又は該座標を算出するために必要な情報が含まれる。代表点としては、例えばオブジェクトの重心位置、及びオブジェクトが地面と接する点等、任意の位置が定義されてよい。以上が、被写体情報に含まれる情報についての説明である。なお、被写体情報に含まれる情報は、必ずしも上記の例に限定されない。上記以外の情報が含まれていてもよいし、必要に応じて上記の情報の中から任意の情報のみが含まれていてもよい。例えばゴール等の背景オブジェクトのように姿勢認識や識別の必要のないオブジェクトに対応する被写体情報は、姿勢認識情報及び識別情報が含まれていなくてもよい。なお、本実施形態における素材データ保持部201及び被写体情報保持部202は、外部補助記憶装置107に含まれるものとしたが、これに限定されない。素材データ保持部201及び被写体情報保持部202の少なくともいずれかが画像処理装置100に含まれる構成であってもよい。
ここで、軌跡画像以外の仮想視点画像を生成するための処理部について先に説明する。この場合、主に使用される処理部は仮想視点決定部205、画像生成部206、及び画像処理装置100の外部に接続されたユーザ端末300である。仮想視点決定部205は、ユーザによる入力操作等に基づいて、仮想視点情報を決定する。仮想視点情報は、仮想視点の位置及び向きの少なくともいずれかを示す情報を含む情報である。なお、仮想視点情報に含まれる情報は上記の例に限定されない。例えば、仮想視点の視野の大きさ(画角)を示す情報が仮想視点情報に含まれてもよい。画像生成部206は、仮想視点決定部205から送信される仮想視点情報に基づいて、仮想視点画像を生成する。以下、仮想視点決定部205及び画像生成部206が軌跡画像以外の仮想視点画像を生成する際の処理の流れについて説明する。仮想視点決定部205は、ユーザによる後述するユーザ端末300に対する入力操作に基づいて、仮想視点の位置及び向きの少なくともいずれかを決定する。仮想視点決定部205は、ユーザによる入力操作に基づいて決定した仮想視点情報を、画像生成部206に送信する。画像生成部206は、仮想視点決定部205から送信された仮想視点情報に応じて、当該仮想視点情報に対応する仮想視点から見た仮想視点画像を生成するために必要な素材データを、素材データ保持部201から取得する。画像生成部206は、取得した素材データを用いて仮想視点画像を生成し、生成した仮想視点画像を装置通信部208を介してユーザ端末300に表示させる。
次に、軌跡画像を生成するための処理部について説明する。軌跡画像を生成する場合は、上記に加え、軌跡生成管理部203及び軌跡算出部204が使用される。軌跡生成管理部203は、装置通信部208を介してユーザに入力操作を要求し、該入力操作に基づいて得られた情報を管理する。要求する入力操作は、軌跡画像を生成する対象のオブジェクトを選択するための操作、及び、被写体が撮像された撮像時間に対して軌跡画像を生成する撮像時間の範囲を指定するための操作である。また、軌跡生成管理部203は、ユーザの入力操作によって得られた情報を、軌跡算出部204に送信する。軌跡算出部204は、軌跡生成管理部203から送信された情報に基づいて、軌跡画像を生成する対象のオブジェクトに関する代表点情報を被写体情報保持部202から取得する。また、軌跡算出部204は、被写体情報保持部202から取得した代表点情報に基づいて得られる代表点の座標を用いて、軌跡画像を生成する対象のオブジェクトの代表点の軌跡を算出する。軌跡算出部204は、算出した代表点の軌跡を示す情報を、仮想視点決定部205に送信する。仮想視点決定部205は、軌跡算出部204から送信される情報に基づいて、軌跡画像を生成するために使用される仮想視点情報を決定し、画像生成部206に送信する。画像生成部206は、仮想視点決定部205から送信された仮想視点情報及びユーザによる入力操作に基づいて、軌跡画像を生成する。以上が、軌跡画像を生成するための処理部についての説明である。軌跡画像生成の処理の詳細については、後述する。
表示情報生成部207は、ユーザ端末に表示させる情報を生成する。表示情報生成部207は、例えば、画像生成部206において生成される軌跡画像を含む仮想視点画像に、グラフィックデータ及びテキストデータ等を組み合わせた表示用の情報を生成する。装置通信部208は、画像処理装置100とユーザ端末300との間で通信I/F105を介してやり取りされる、画像、音声及びテキストデータ等のデータの送受信を行う。その際、装置通信部208はユーザ情報管理部209からの指示に従い、所定のユーザとの間で前記送受信を実行する。ユーザ情報管理部209は、各ユーザに関するユーザ情報を管理する。ユーザ情報には、ユーザを特定するためのユーザID、ユーザの個人情報を示すユーザ属性、ユーザの現在地等を示すユーザ位置、及びユーザが本画像処理ステム100の使用のために支払っている使用料等の情報が含まれる。なお、ユーザ情報に含まれる情報は上記の例に限定されない。また、ユーザ情報管理部209は、画像処理装置100とユーザ端末300との間で各種情報を送受信する際、画像処理装置100及びユーザ端末300が行う処理とユーザ情報との対応付けを行う。これにより、画像処理装置100は、複数のユーザに対しそれぞれ異なる処理の実行、及び情報の通信を実現する。
ユーザ端末300は、端末通信部301、表示部302、操作部303及びユーザ情報発信部304を有する。端末通信部301は、画像処理装置100における装置通信部208との間で、データの送受信を行う。表示部402は、例えば液晶ディスプレイ、あるいはLED等で構成され、仮想視点画像及びユーザが画像処理装置100を操作するためのGUI(グラフィカルユーザインターフェース)等を表示する。操作部303は、例えばキーボード、マウス、ジョイスティック、およびタッチパネル等で構成され、ユーザによる入力操作を受け付け、該入力操作に基づく情報を端末通信部301を介して画像処理装置100に送信する。また、ユーザは、操作部303を操作することにより、仮想視点情報を決定するための入力操作を行うことができる。仮想視点情報を決定するための入力操作は、例えば、ジョイスティックを操作して仮想視点の位置及び向きを指定する操作等である。仮想視点決定部205は、ユーザの入力操作により得られる入力情報に基づいて、仮想視点情報を決定する。ただし、上記の方法に限定されない。例えば、仮想視点決定部205は、ユーザによる特定のシーン(例えばサッカーのゴールシーン等)を指定するためのテキスト入力あるいはボタンの押下等に基づいて仮想視点情報を決定する構成であってもよい。このように、仮想視点情報を決定するためのユーザ操作として種々の方法が用いられうる。ユーザ情報発信部304は、端末通信部301から装置通信部208に向けて送信される情報に対し、ユーザIDを始めとするユーザ情報を添付する。
<素材データの種別及び生成方法>
本実施形態における素材データは、撮像装置によって撮像された撮像画像、及び該撮像画像に基づいて生成されるデータである。撮像画像に基づいて生成されるデータは、例えば、撮像画像から抽出した前景画像と背景画像のデータ、オブジェクトの形状を表す形状データ及び形状データに色付けするためのテクスチャデータ等である。ここで、前景画像とは、撮像装置により撮像されて取得された撮像画像から、前景オブジェクトに対応する領域(前景領域)を抽出した画像である。また、背景画像とは、撮像画像において少なくとも前景領域とは異なる領域(背景領域)の画像である。具体的には、背景画像は、撮像画像から前景領域を取り除いた状態の画像である。背景領域は、撮像画像における背景オブジェクトに対応する領域と解されてもよい。また、形状データは、例えば三次元空間上におけるオブジェクトの三次元形状を示す三次元モデルデータ等である。なお、本実施形態における形状データは三次元モデルデータを想定しているが、形状データは三次元モデルデータに限定されない。例えば、イメージベースドレンダリングに基づく形状データであってもよい。
以下、不図示の素材データ生成部が、素材データを生成する方法の一例について説明する。なお、素材データ生成部は、画像処理装置100の内部に含まれる構成であってもよいし、別の装置として画像処理装置100の外部に接続される構成であってもよい。
素材データ生成部が、前景画像及び背景画像を生成する生成方法の一例について説明する。素材データ生成部は、複数の撮像装置により連続する時間において撮像された複数の撮像画像同士を比較することにより、画素値に変化のない領域を検出する。素材データ生成部は、当該検出した領域を背景領域であると判定し、当該領域に基づいて背景画像を生成する。また、素材データ生成部は、生成した背景画像と撮像画像とを比較し、画像値の差が所定の閾値以上である領域を前景領域であると判定し、当該領域に基づいて前景画像を生成する。
また、素材データ生成部が、前景領域に対応するオブジェクトの三次元モデルを生成する生成方法の一例について説明する。素材データ生成部は、上述の処理において判定した前景領域及び背景領域に基づいて、それぞれの領域を2値で表したオブジェクトのシルエット画像を生成する。このとき、素材データ生成部は、複数の方向から撮像された撮像画像を用いることにより、複数の方向から見たオブジェクトのシルエット画像を生成する。素材データ生成部は、複数のシルエット画像を用いて、公知技術である視体積交差法を用いることにより三次元モデルを生成する。
以上が、本実施形態における素材データの種別及び生成方法についての説明である。上記の素材データは被写体情報に含まれるものと同様の時刻情報が関連付けられている。したがって、画像生成部206は任意の時刻に対応する素材データを取得することが可能である。なお、素材データは仮想視点画像を生成するためのデータであれば、その種類は限定されない。例えば、撮像画像を取得する撮像装置の撮像条件を表すカメラパラメータが素材データに含まれていてもよい。また、素材データは仮想視点画像の生成手法により異なっていてもよい。例えば、三次元モデルを生成することにより仮想視点画像を生成する場合と、三次元モデルを用いないイメージベースドレンダリングの手法を用いて仮想視点画像を生成する場合とで、素材データが異なっていてもよい。
<軌跡画像生成処理>
以下、軌跡画像を生成するための処理について説明する。図3(a)に示す画像は、ユーザによる入力操作に基づいて生成された仮想視点画像を複数組み合わせて生成された全長5秒の仮想視点動画中の、時刻Taにおける仮想視点画像Aである。P及びQはそれぞれ仮想視点画像A内に映る人物、Rは仮想視点画像A内に映るボールである。当該仮想視点動画は、ユーザ端末300における表示部302に表示された状態である。ここでは、図3(a)に示す仮想視点画像に基づき、図3(b)に示す人物P及びボールQの軌跡画像を生成する例について説明する。
初めに、軌跡画像を生成する対象の前景オブジェクトを選択するための処理について説明する。ユーザが仮想視点動画を視聴中に、Ta=3秒9のキックシーンのところで、当該キックに至る人物P及びボールRに係る軌跡画像を生成したいと考えた場合を想定する。この場合、ユーザは仮想視点動画の再生を一時停止する。図3(c)は一時停止した画面を示す図である。図3(c)の右上には種々のメニューを表示するためのメニューアイコン310が表示されている。ユーザは当該メニューアイコン310を指定してメニューを表示させ、メニューの一項目である軌跡画像生成モードを指定する操作を行うことにより、画像処理装置100に軌跡画像生成処理を開始させる。
軌跡画像生成処理が開始されると、軌跡生成管理部203は、ユーザに軌跡画像を生成する対象の前景オブジェクトの選択を要求する。図3(d)は、軌跡画像を生成する対象の前景オブジェクト(以降、対象前景オブジェクトと呼ぶ)を選択するための表示画面の一例を示す図である。ユーザは、図3(d)に示す画面を見ながら、軌跡画像を生成する対象とする一以上の前景オブジェクトを選択する。軌跡生成管理部203は、ユーザによる前景オブジェクトを指定するための入力操作に基づいて、軌跡画像を生成する対象とする被写体特定を行う。図3(d)が示す例においては、ユーザが対象前景オブジェクトとして選択した人物P及びボールRが不透明表示され、対象外とした前景オブジェクトである人物Qが半透明表示されている。なお、対象前景オブジェクトが選択される前は全ての前景オブジェクトが半透明表示されており、前景オブジェクトに対しクリック又はタッチ等の動作をするごとに、不透明表示の選択状態及び半透明表示の非選択状態が切り替わる。選択状態及び非選択状態の表現方法としては、不透明/半透明といった透明度の違い以外にも、カラー/モノクロ等の色彩差が利用されてもよい。また、選択状態の前景オブジェクトを光らせる、又は点滅させる等の強調表示を行うことにより区別してもよい。また、非選択状態の前景オブジェクトを輪郭線だけで表示することにより区別してもよい。その他、選択状態の前景オブジェクト近傍に矢印若しくは押しピン等のグラフィックス及び「選択済」等のテキストを合成したり、上記の表現方法を複数組み合わせたりすることにより区別してもよい。このように、選択状態及び非選択状態の表現には種々の方法が考えられる。ユーザが図3(d)の左上のチェックマークを指定する操作を行うことにより、対象前景オブジェクトの選択処理が終了される。なお、以降の処理においては、選択されなかった前景オブジェクトは表示されないものとする。また、以降の処理においては、背景オブジェクト(例えばフィールド内の地面等)は、軌跡画像を生成する時間範囲における始点時刻に対応するオブジェクトが表示されるものとする。なお、上記においてはユーザによる入力操作に基づいて対象前景オブジェクトが選択される例について説明したが、これに限定されない。例えば、軌跡生成管理部203は、前景オブジェクトが一つしかない場合は自動で該前景オブジェクトを選択する構成であってもよい。また、軌跡生成管理部203は、前景オブジェクトが人物とボールである場合に人物を自動で選択する構成であってもよい。また、例えばサッカーの試合の軌跡画像を生成する場合に、ユーザ情報管理部209に予めユーザが応援するチームに関する情報を保持しておき、選手が複数いる場合に、ユーザ情報に基づいて応援するチームの選手が選択されるようにしてもよい。
次に、軌跡画像を生成する時間範囲を特定するための処理について説明する。対象前景オブジェクトの選択処理が終了すると、軌跡生成管理部203は、軌跡画像を生成する時間範囲の始点時刻及び終点時刻の指定をユーザに要求する。軌跡生成管理部203は、以下のユーザ操作に基づき、軌跡画像を生成するための時間特定を行う。図4(a)は、始点時刻を指定するための表示画面の一例を示す図である。図4(a)に示す表示画面において、下部に表示されている時間バー401上には、一時停止がされた時刻Ta=3秒9と、始点時刻を示すアイコンである始点時刻402が表示されている。画面内の仮想視点画像は、始点時刻402に対応する仮想視点画像である。初期始点時刻は、軌跡生成管理部203が自動で設定した時刻になっている。初期始点時刻としては、Taと同刻又はTaからある固定時間長前の時刻等が指定される。上記の例の他に、画像認識等によりTaにおける仮想視点画像のシーン判定を行い、当該シーンの中核となる一連動作(本実施例ではキックシーン)が始まる時刻近傍が指定される構成であってもよい。ユーザはアイコン408を選択することにより、始点時刻402を任意の時刻に進めることができる。また、ユーザはアイコン409を選択することにより、始点時刻402を任意の時刻に巻き戻すことができる。アイコン408又はアイコン409を一回選択すると、当該選択されたアイコンが指す時間方向に動画のスロー再生が開始する。その後、画面中央の一時停止アイコン410を選択して動画を一時停止させ、一時停止状態でチェックマーク411を選択すると、現在の一時停止時刻に始点時刻402が決定される。アイコン408又はアイコン409の選択時に、同じアイコンを連続して選択するたびに再生速度は速くなり、一度一時停止したのちに再度動画の再生を開始すると、初期再生速度に戻る。再生速度は速度表示403に表示される。また始点時刻402の調整は、時間バー401上の始点時刻402を示すアイコンに対しドラッグ若しくはスワイプ等の動作を行う、又は始点時刻402を示すアイコンの下の時刻テキスト表示部に直接時刻をテキスト入力することでも可能である。始点時刻402が決定されると、続いて図4(b)に示す終点時刻を指定するための表示画面が表示される。図4(b)に示す表示画面における終点時刻404に対し、上記と同様の操作により、終点時刻が決定される。なお、図4(b)内の時間バー401においては、Ta=3秒9と終点時刻が近接するため、“3‘9”の時刻テキスト表示は省略されている。以上の処理により、軌跡画像を生成する時間範囲として、始点時刻402から終点時刻404までの時間範囲が特定される。
軌跡画像を生成する時間範囲が決定されると、軌跡生成管理部203は、対象前景オブジェクトである人物P及びボールRの軌跡の算出を、軌跡算出部204に指示する。軌跡算出部204は、以下の処理により、対象前景オブジェクトに係る軌跡取得を行う。軌跡算出部204は、始点時刻から終点時刻までの時間範囲を任意の時間間隔に分割する。分割の方法は、例えば、軌跡画像を生成する時間範囲が全長3秒間である場合に1秒間隔ごとに3等分するといったように、任意の数に等分割されてもよい。また、始点時刻から順次固定時間長ずつ分割し、最後の端数時間のみ非等分であってもよい。また、姿勢認識情報等に基づいて対象前景オブジェクトの動きを認識し、動きが激しい時間は細かく、緩やかな時間は粗く分割するなどとしても良い。本実施形態においては4等分割とする。上記のように、軌跡生成管理部203は、軌跡画像を生成する時間範囲を所定の時間長に分割し、該分割に基づいて複数の異なる時刻(分割時刻)を特定する。なお、上記の分割方法の中から任意の分割方法をユーザが選択できる構成であってもよい。軌跡算出部204は、被写体情報保持部202から対象前景オブジェクトに係る被写体情報を取得し、始点時刻、各分割時刻、及び終点時刻のそれぞれにおける対象前景オブジェクトの代表点座標を算出する。各時刻における代表点座標は、被写体情報に含まれる時刻情報及び代表点情報に基づいて算出される。さらに、軌跡算出部204は、算出したそれぞれの時刻における代表点座標に基づき、時系列的に隣り合う代表点間をつなぐ軌跡線分を算出する。図5は、軌跡線分を上から見たときの概略図である。対象前景オブジェクトである人物P、及びボールRの始点時刻における代表点の位置をそれぞれPs、Rs、また終点時刻における代表点の位置をそれぞれPe、Reと表す。また、人物P、及びボールRの始点時刻と終点時刻との間における各分割時刻における代表点の位置を、それぞれ黒丸と白丸で表す。また、Caは図3(a)の仮想視点画像に係る仮想視点の位置、向き及び画角を示す図である。図5においては、仮想視点を、便宜的に仮想視点の位置に配置されるカメラ(仮想カメラ)であるものとして説明する。すなわち、仮想視点の位置は仮想カメラの位置、仮想視点の向きは仮想カメラの向き、仮想視点の画角は仮想カメラの画角に相当する。また、仮想視点画像は、仮想カメラにより撮像される画像に相当する。軌跡算出部204は、算出した軌跡線分を示す情報を、仮想視点決定部205に送信する。
仮想視点決定部205は、軌跡線分を示す情報を取得すると、軌跡画像を生成するためのユーザ操作(以降、プロット操作と呼ぶ)を受け付ける際にユーザに提供する仮想視点画像を生成するための仮想視点情報を決定する。ここで、プロット操作とは、対象前景オブジェクトが連続して撮像された期間における異なる時点を指定するための操作である。プロット操作についての詳細は後述するが、プロット操作が行われる際、ユーザは表示部302に表示される仮想視点動画内の対象前景オブジェクトを見ながら、被写体プロットを指定するための入力操作を行う。被写体プロットは、上述の軌跡線分における各代表点に対応する被写体の形状データである。軌跡線分の算出時点で表示部302に表示されている仮想視点動画は、仮想カメラCaにより撮像される仮想視点動画である。しかしながら、仮想カメラCaにより撮像される仮想視点動画においては、画面奥から手前に向かって対象前景オブジェクトが動くため、被写体プロット同士が重なって見え、奥側の被写体プロットの視認性が悪い。プロット操作時の仮想カメラは、例えば図5におけるCbのように、(すなわちPs~Pe及びRs~Reの全てが画角に収まり)、かつ対象前景オブジェクトの軌跡線分に対して略直交する配置であることが好ましい。以下、プロット操作のための仮想カメラの配置を決定する方法について、図5を用いて説明する。
複数の対象前景オブジェクトの全軌跡線分に可能な限り直交する仮想カメラの向きは次の条件を満たす。
Σθ=MIN ・・・(1)
上記θは、軌跡線分を上から見たときの、仮想カメラの向き及び軌跡線分と直交する直線とのなす劣角である。図5には、仮想カメラCbの向きベクトルbと、人物Pに係る各軌跡線分と直交する直線とがなす劣角度の一部であるθ1及びθ2が示されている。実際には人物P及びボールRに係る軌跡線分は全部で8個あるが、図解の都合上2線分についての角度のみ示している。上記の角度の総和が最小である時、仮想カメラの向きが全ての軌跡線分に対して最も直交に近いと言える。なお、本実施形態においてはベクトルbは水平であるとする。しかしこれに限定されず、ベクトルbの垂直方向の角度は、被写体を観戦または観賞する時の人の姿勢に基づいて決定されてもよい。また仮想カメラの高さは、Ps~Pe及びRs~Reにおける被写体プロットに対応する形状データの高さ方向の座標の平均値とする。これにより、被写体プロットが表示部302の画面中央域に表示されるようになる。以上の方法により、仮想視点決定部205は、プロット操作に適した仮想カメラCbに係る仮想視点情報を決定する。なお、図5における、仮想カメラCbと対向する位置に配置された仮想カメラCcについても、上記の条件は変わらない。しかし後述するプロット操作時に、被写体プロットの並ぶ方向と時間バーの方向とが等しい方が、人の自然な時間認識に即しているため、Ps及びRsが左側になるような仮想視点画像が得られる仮想カメラCbの方が好ましい。仮想視点決定部205は、決定された仮想カメラCbに係る仮想視点情報に基づき、仮想カメラをCaからCbに移動する移動経路を算出する。仮想カメラの移動は一瞬で切り替わるようにしても良いし、連続的に変化するようにしても良い。連続的に変化するように移動する場合、移動中の仮想カメラの向きが対象前景オブジェクトの方向を見るようにしてもよい。画像生成部206は、仮想視点決定部205が算出した仮想カメラの移動経路に従って仮想視点画像を生成し、表示部302に表示させる。最終的に、表示部302には仮想カメラCbにより撮像された仮想視点画像が表示される。なお、前述においてはPs~Pe及びRs~Reの全てを画角に収めるとしたが、対象前景オブジェクトが途中で大きく折れ曲がって動く場合、当該移動の前後で分けて仮想視点情報を算出し、移動の前後で随時仮想カメラを移動させるようにしてもよい。また、軌跡線分が長い場合、軌跡線分を仮想カメラの画角に収めようとすると対象前景オブジェクトとの距離が離れてしまうことも想定される。この場合も、軌跡線分を任意の分割時刻で分割し、分割したそれぞれの線分が画角に収まるような仮想視点情報を算出するようにしてもよい。これにより、それぞれの線分を画角に収める仮想カメラが対象前景オブジェクトから離れすぎることを抑制することができる。また対象前景オブジェクトが多数である場合、あるいは複数の対象前景オブジェクトのそれぞれが全く異なる方向に動く場合は、メインとなる対象前景オブジェクトの軌跡を優先してプロット操作用の仮想視点情報を算出するとしても良い。メインとなる対象前景オブジェクトは、ユーザによる操作に基づいて決定されてもよいし、仮想視点動画に対する画像解析を行うことにより自動で決定されてもよい。例えば、対象前景オブジェクトが人物とボールとであった場合、人物をメインとなる対象前景オブジェクトとして自動で決定するような構成であってもよい。
次に、プロット操作について説明する。図4(c)は、ユーザが被写体プロットを指定する際に表示部302に表示される表示画面の一例である。仮想カメラがCbに移動すると同時に、表示部302には始点時刻及び終点時刻のそれぞれに対応する対象前景オブジェクトの形状データである人物Ps及び人物Pe、並びにボールRs及びボールReが表示される。また、上記の形状データと共に、軌跡算出部204において算出された各分割時刻に対応する対象前景オブジェクトの形状データが表示される。これらの形状データを被写体プロットと呼ぶ。なお、仮想カメラがCbに移動すると同時に表示部302に表示される形状データを、被写体初期プロットとする。画面下部の時間バー401上には、それぞれの被写体プロットに対応する時刻(プロット時刻)405~407が表示される。プロット操作の開始時は、被写体初期プロットに対応するプロット時刻が示される。このとき時間バー401が示す時間範囲は、図4(a)までのような仮想視点動画の時間の全長から、軌跡画像生成の対象時間範囲に変更される。ユーザは、時間バー401上の各プロット時刻405~407に対して、ドラッグ、スワイプ等の操作を行う、又はプロット時刻405~407の下の時刻テキスト表示部に直接時刻をテキスト入力することにより、任意の変更を行うことが可能である。また、メニューアイコン310から、プロット時刻の削除及び追加を行うことが可能である。したがって、プロット操作の開始時に被写体初期プロットを表示しない構成であってもよい。上記のプロット操作において、画像生成部206は、プロット時刻の変更、削除及び追加に応じて、該プロット時刻に対応する形状データを含む素材データを素材データ保持部201から取得し、取得した形状データを用いて仮想視点画像を生成する。図4(d)に示すように、全てのプロット時刻の指定を終えた場合、ユーザはチェックマーク411を指定する操作を行うことにより、プロット操作を終了させる。プロット操作を終了するユーザ操作を受け付けると、画像生成部206は、決定した各プロット時刻に対応する複数の形状データを取得し、当該複数の形状データを含む仮想視点画像(軌跡画像)を生成する。したがって、画像生成部206は、図3(b)に示す最終的な軌跡画像を生成する。ユーザは、生成された軌跡画像について、仮想視点の位置及び向きを変更するための操作を行うことにより、任意の視点から被写体プロットを見ることができる。これにより、異なる時点のそれぞれにおける被写体について所望の視点から観察することが可能になる。なお、ユーザによる要求が無い限り、画像処理装置100はプロット操作中における各被写体プロットの画質(解像度及び色調等)を低く設定し、処理速度を早くするようにしてもよい。また、上記の説明においては、画像生成部206はプロット時刻が変更、削除又は追加されるごとに該プロット時刻に対応する形状データを取得するものとしたが、これに限定されない。画像生成部206は、ユーザによるプロット操作を終了するための操作を受け付けた時に、その時点でのプロット時刻に対応する形状データを取得する構成であってもよい。また、上記のプロット操作におけるユーザの操作が必ずしも行われなくてもよい。例えば、仮想カメラがCbに移動すると同時に生成される被写体初期プロットに基づいて、軌跡画像が生成される構成であってもよい。
以上が、軌跡画像生成処理についての説明である。図6に示すフローチャートを用いて、画像処理装置100が行う軌跡画像生成処理の全体の流れについて述べる。図6に示す処理は、CPU101がROM102又は補助記憶装置103に記憶されたプログラムを読み出して実行することにより実行される。画像処理装置100がユーザによる軌跡画像生成処理を開始するための入力操作を受け付けると、処理が開始される。以降の説明においては、処理ステップを単にSと表記する。
S601において、軌跡生成管理部203は、ユーザによる対象前景オブジェクトを選択するための入力操作を受け付け、該入力操作に基づいて、対象前景オブジェクトを決定する。S602において、軌跡生成管理部203は、ユーザ操作に基づき、軌跡画像を生成する時間範囲における始点時刻を決定する。S603において、軌跡生成管理部203は、ユーザ操作に基づき、上述の時間範囲における終点時刻を決定する。S604において、軌跡算出部204は、S602及びS603において決定された始点時刻及び終点時刻の間の時間範囲における対象前景オブジェクトの軌跡線分を算出する。このとき、軌跡算出部204は、上記の時間範囲を分割し、各分割時刻に対応する対象前景オブジェクトの代表点の座標を算出することにより軌跡線分を算出する。S605において、仮想視点決定部205は、S604において算出された軌跡線分に基づいて、プロット操作用の仮想視点情報を決定する。S605において、画像生成部206は、S604において決定された仮想視点情報に基づいて、仮想視点を移動する。また、画像生成部206は、移動させた仮想視点に基づいて生成された、プロット操作用の表示画面を表示させる。S607において、画像生成部206は、ユーザによるプロット操作を受け付け、該プロット操作に基づいてプロット時刻を決定する。S608において、画像生成部206は、S607において決定された各プロット時刻に対応する複数の形状データを取得し、該取得した複数の形状データを含む仮想視点画像(軌跡画像)を生成する。生成された軌跡画像が表示部302に表示されると、処理が終了する。
ここで、プロット操作時に表示部302に表示される表示画面の別の例を、図7(a)を用いて説明する。図7(a)に示す例においては、プロット操作の開始時には、始点時刻と終点時刻の被写体プロットのみ表示される。ユーザは始点時刻及び終点時刻の指定操作と同様に、動画のスロー再生を視聴し、任意の時刻に一時停止状態にする。ユーザが一時停止状態でチェックマーク横の押しピンマークを指定する操作を行うことにより、各プロット時刻を指定することが可能になる。図7(a)における時間バー401上の縦線は、再生位置である。ユーザは、プロット時刻の指定完了時にチェックマークを選択することにより、プロット操作を終了させる。以上説明した図7(a)に示す表示画面は、ユーザの要望に合わせて、作業開始時あるいは作業中に図4(c)に示す表示画面から切り替えられるようにしてもよい。
また、上述の実施形態においては、対象前景オブジェクトが選択された以降の処理においては、選択されなかった前景オブジェクトは表示されないものとしたが、これに限定されない。例えば、背景オブジェクトと同様に、始点時刻に対応する非選択前景オブジェクトを表示させるようにしてもよい。あるいは、対象前景オブジェクトが選択された以降の処理においても、上記の実施形態における非選択状態の表現方法(半透明表示、モノクロ表示及び輪郭線)により表示されるようにしてもよい。また、対象前景オブジェクトが選択された以降の処理において、フィールドの地面等の背景オブジェクトについては、始点時刻における背景オブジェクトを表示するものとしたが、これに限定されず、背景オブジェクトが表示されない構成であってもよい。また、始点時刻以外の時刻における背景オブジェクトを表示させるようにしてもよい。例えば、軌跡画像を生成する時間範囲の終点時刻又は時間範囲における中間時刻等、時間範囲内の所定の時刻に対応する背景オブジェクトを表示させるようにしてもよい。また、当該所定の時刻をユーザが指定できるような構成であってもよい。また、音声認識又は画像認識等の少なくともいずれかにより特定される、競技が最も盛り上がった時刻又は対象前景オブジェクトの決定的シーン(上記の実施形態における、オブジェクトPがボールRを蹴る瞬間等)の時刻が当該所定の時刻として指定されてもよい。例えば、サッカーにおける観客の歓声、野球におけるチーム別の応援、及びスタジアムの場内放送等の音声を認識することにより、競技の盛り上がった時刻又は重要なイベントが発生したシーンに対応する時刻等が特定されてもよい。また例えば、複数の撮像装置により撮像された複数の撮像画像又は画像処理装置100により生成された仮想視点画像に対して画像認識を行うことにより、上記の時刻が特定されてもよい。なお、上記の非選択前景オブジェクトについても同様に、当該所定の時刻に対応する非選択前景オブジェクトが表示されるようにしてもよい。また、対象前景オブジェクト以外のオブジェクトの代わりに、上下前後等の空間認識のみ出来るような、無地や格子模様の平面を表示させてもよい。図7(b)は、フィールドの地面の代わりに格子模様の平面を表示させた場合の一例である。図7(b)に示す表示方法によれば、対象前景オブジェクト以外のオブジェクトを描画する必要がないため、オブジェクトの描画に係る処理負荷が軽減される効果が得られる。また、図7(b)のように三次元空間に対象前景オブジェクトのみを描画することにより、対象前景オブジェクトのみを見ながら分析等を行うことができるという効果がある。さらに、上記の表示方法の中から任意の方法を組み合わせて使用したり、ユーザが任意の方法を選択したりすることができる構成であってもよい。
また、上述の実施形態においては、軌跡線分を示す情報に基づいて、仮想視点決定部205が軌跡画像生成のための仮想視点情報を決定する例について説明したが、これに限定されない。仮想視点決定部205は、ユーザ操作に基づいて軌跡画像生成のための仮想視点情報を決定することも可能である。例えば、図6のS603の後に、ユーザは操作部303を操作し、仮想視点の位置及び向きを決定するための入力を行う。ユーザにより入力された情報は、端末通信部301及び装置通信部208を介して仮想視点決定部205に送信される。仮想視点決定部205は、ユーザ操作により入力された情報に基づいて、軌跡画像生成のための仮想視点情報を決定する。この工程により、ユーザは所望の仮想視点に基づく軌跡画像を生成することができる。また、上述の実施形態においては、プロット操作の開始時にのみ仮想視点が切り替わる例について説明したが、これに限定されない。すなわち、対象前景オブジェクトの選択からプロット操作に至るまで、ユーザは任意のタイミングで、仮想視点の位置及び向きを変更する操作を行うことが可能である。
また対象前景オブジェクト並びに始点時刻及び終点時刻は、上述の操作方法に沿って一度決定した後も、任意のタイミングで変更可能である。例えば、メニューアイコン310を指定することにより表示されるメニューに、対象前景オブジェクトの指定並びに始点時刻及び終点時刻の指定に関する項目を用意し、任意の項目を選択することにより処理工程を戻すことができるようにしてもよい。また上述の実施形態においては、複数の対象前景オブジェクトに対して共通のプロット時刻で被写体プロットを生成するとしたが、個々の対象前景オブジェクトごとに異なるプロット時刻の指定を行えるようにしてもよい。また、上述の実施形態においては、軌跡生成管理部203は、ユーザ操作に基づいて始点時刻及び終点時刻を決定することにより、軌跡画像を生成する時間範囲を特定するとしたが、これに限定されない。例えば、軌跡生成管理部203は所定の時間の長さに対応する軌跡画像を生成するように設定され、ユーザ操作に基づいて始点時刻が決定されると、決定された始点時刻から所定の時間の長さ分進めた時刻までの時間範囲を自動で特定する構成であってもよい。同様に、軌跡生成管理部203は、ユーザ操作に基づいて終点時刻が決定されると、決定された終点時刻から所定の時間の長さ分巻き戻った時刻までの時間範囲を自動で特定する構成であってもよい。また、軌跡生成管理部203は、上述したような音声認識及び画像認識等の少なくともいずれかの認識結果に基づいて、所定のイベントが発生したシーンに対応する時間範囲を特定する構成であってもよい。この場合、例えば、サッカーのゴールシーン及びペナルティキック等のシーンに対応する時間範囲や、陸上競技の高跳びのジャンプ地点から着地までの時間範囲等が特定されてもよい。また、軌跡生成管理部203は、ユーザ操作によるテキスト入力(例えば、「ゴールシーン」)に基づいて、対応するイベントのシーンの時間範囲を特定する構成であってもよい。さらに、軌跡生成管理部203は、表示部302に時間範囲を特定するためのアイコン(例えば、「ゴールシーン」と記載されたボタン)を表示させ、該アイコンを指定するためのユーザ操作を検出すると、対応する時間範囲を特定する構成であってもよい。
また、上述の実施形態においては、生成される軌跡画像は静止画像であるが、当該軌跡画像に対し仮想視点動画を重畳表示することも可能である。このとき重畳する仮想視点動画は、軌跡画像を生成する際に使用された仮想視点情報に基づいて生成される仮想視点動画である。例えば、図3(b)に示す軌跡画像に対し、当該軌跡画像に係る仮想視点と同じ視点から見た仮想視点動画であって、当該軌跡画像を生成する時間範囲に相当する仮想視点動画を重畳する。これにより、軌跡画像を表示させた状態で、同時に対象前景オブジェクトが被写体プロットに沿って動く様子を認識可能な動画を生成することができる。この場合、被写体プロットの一部若しくは全て、又は仮想視点動画のいずれかを半透明表示又は低彩度表示にする等、表現に差を付けても良い。又は、重畳する仮想視点動画の時間経過に合わせて対応する時刻の被写体プロットを順に表示させることにより、動画における対象前景オブジェクトの残像を表すような仮想視点動画を生成する構成であってもよい。また、本実施形態における軌跡画像は静止画像であるが、軌跡画像は動画であっても構わない。この場合、画像処理装置100は、被写体プロットに対応する時刻が異なる軌跡画像を複数枚組み合わせることにより、対象前景オブジェクトが動く動画を生成する構成であってもよい。また、被写体プロットを表示する場合に、複数の被写体プロットのうち、ユーザの指定した時刻若しくは対象前景オブジェクトに対応するもののみ、又は時間推移に合わせて順次、ハイライト表示するような仮想視点画像が生成されるような構成であってもよい。ハイライト表示は、上述の前景オブジェクトの選択/非選択の表現方法と同様に、種々の方法によって表現されるようにしてもよい。ハイライト表示は、複数の被写体プロット同士が重なっている場合、異なる対象前景オブジェクトの被写体プロット同士の時間関係を把握したい場合、及び複数の対象前景オブジェクトの中から特定のオブジェクトのみ強調して表示させたい場合等に有効である。被写体プロット同士が重なっている場合、ハイライト表示により所定の時刻における被写体プロットを強調して表示することにより、被写体モデルを観察しやすくなる効果がある。異なる対象前景オブジェクトの被写体プロット同士の時間関係を把握したい場合、同時刻に対応する複数の対象前景オブジェクト(例えば人物PとボールR)を強調して表示することにより、同時刻に対応する対象前景オブジェクトが認識しやすくなる効果がある。また、対象前景オブジェクトが複数ある場合、特定の対象前景オブジェクトのみを強調して表示することにより、複数の対象前景オブジェクトを認識しつつ、特定の対象前景オブジェクトを観察しやすくなるという効果がある。なお、複数の対象前景オブジェクト同士の時間関係を把握するための手法として、各被写体プロット近傍にプロット時刻のテキスト表示を合成する方法も考えられる。また上記のハイライト表示に合わせて対象前景オブジェクト以外のオブジェクトを表示する場合、ハイライトされた被写体プロットのプロット時刻と同刻のオブジェクトを表示するようにしてもよい。
また、上述の実施形態においては、素材データと被写体情報とが別のデータとしてそれぞれ素材データ保持部201及び被写体情報保持部202に保持される形態について説明したが、これに限定されない。素材データと被写体情報とが素材データと被写体情報とが同じデータファイルであってもよい。この場合、例えば、素材データファイルのメタデータ領域に被写体情報及び時刻情報を格納することにより、一つのファイルにまとめて管理することが可能になる。また、メタデータ領域に格納された時刻情報を参照することで、任意の時刻に対応する素材データ及び被写体情報の両方を取得することが容易になる。また、メタデータ領域に格納された被写体情報を、素材データの検索時に使用することも可能である。例えば、特定の選手に係る形状データを取得したい場合に、該選手の識別情報(例えば、選手の名前等)を用いて検索することにより、当該選手の形状データを容易に取得することができる。
以上述べた種々の実施形態のうち、任意の形態を組み合わせて実施することが可能である。
以上説明したように、本実施形態における画像生成部206は、特定の時間範囲における異なる時刻に撮像された特定の被写体(対象前景オブジェクト)を表す複数の形状データを、素材データ保持部201から取得する。また、仮想視点決定部205は、仮想視点の位置及び向きの少なくともいずれかを示す情報を含む仮想視点情報を決定する。また、画像生成部206は、決定された仮想視点情報に基づいて、取得された複数の形状データを含む仮想視点画像(軌跡画像)を生成する。また、画像生成部206により生成される仮想視点画像は、特定の時間範囲における特定の被写体の経時変化の軌跡を表す静止画像である。上記の構成により、画像処理装置100は、連続して撮像された特定の被写体について、異なる時点のそれぞれに対応する当該特定の被写体を所望の視点から比較可能な仮想視点画像を生成することができる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 画像処理装置
205 仮想視点決定部
206 画像生成部

Claims (19)

  1. 複数の撮像装置により撮像された複数の撮像画像に基づいて仮想視点画像を生成する画像処理装置であって、
    背景データと、前記背景データとは異なる、特定の被写体が連続して撮像される期間における当該特定の被写体を表す形状データを取得する取得手段と、
    前記仮想視点画像に係る仮想視点の、位置及び向きの少なくともいずれかを示す情報を含む仮想視点情報を決定する決定手段と、
    前記決定手段により決定された仮想視点情報に対応した、前記連続して撮像される期間における異なる時点のそれぞれに対応する複数の形状データに基づく画像を同時に表示させるための仮想視点画像を、前記背景データと前記複数の形状データとを用いて生成する生成手段と
    を有することを特徴とする画像処理装置。
  2. 前記形状データは、前記被写体の三次元形状を表す三次元モデルデータであることを特徴とする請求項1に記載の画像処理装置。
  3. 前記異なる時点を含む時間範囲を特定するための時間特定手段を有し、
    前記生成手段は、前記時間特定手段により特定された時間範囲における異なる時点のそれぞれに対応する複数の形状データに基づく画像を同時に表示させるための仮想視点画像を生成する
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記時間特定手段は、ユーザ操作に基づいて前記時間範囲を特定することを特徴とする請求項3に記載の画像処理装置。
  5. 前記時間特定手段は、始点時刻及び終点時刻の少なくともいずれかを指定するためのユーザ操作に基づいて前記時間範囲を特定することを特徴とする請求項4に記載の画像処理装置。
  6. 前記時間特定手段は、音声認識及び画像認識の少なくともいずれかの認識結果に基づいて前記時間範囲を特定することを特徴とする請求項3に記載の画像処理装置。
  7. 前記時間範囲は、前記複数の撮像装置により撮像される撮像領域において所定のイベントが発生したシーンに対応する時間範囲であることを特徴とする請求項3乃至6のいずれか1項に記載の画像処理装置。
  8. 前記特定の被写体として、前記特定の時間範囲に撮像された複数の被写体の中から一以上の被写体を特定する被写体特定手段を有し、
    前記取得手段は、前記被写体特定手段により特定された一以上の被写体を表す形状データを取得することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記被写体特定手段は、ユーザ操作に基づいて、前記一以上の被写体を特定することを特徴とする請求項8に記載の画像処理装置。
  10. 前記異なる時点は、ユーザ操作に基づいて指定されることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 前記異なる時点は、前記連続して撮像される期間を複数の所定の時間長に分割することにより特定されることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  12. 前記異なる時点のそれぞれにおける前記特定の被写体の座標に基づいて、前記連続して撮像される期間における被写体の軌跡を示す情報を取得する軌跡取得手段を有し、
    前記決定手段は、前記軌跡取得手段により取得された前記特定の被写体の軌跡を示す情報に基づいて仮想視点情報を決定することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記決定手段は、前記軌跡取得手段により取得された前記特定の被写体の軌跡を示す情報に基づいて、前記特定の被写体の軌跡が画角に収まる仮想視点に対応する仮想視点情報を決定することを特徴とする請求項12に記載の画像処理装置。
  14. 前記決定手段は、前記異なる時刻のそれぞれにおける前記特定の被写体の座標を結ぶ線分と仮想視点の向きを示す向きベクトルとのなす角に基づいて、仮想視点情報を決定することを特徴とする請求項12又は13に記載の画像処理装置。
  15. 前記生成手段は、前記決定手段により決定された仮想視点情報と、前記連続して撮像される期間に撮像された撮像画像とに基づいて動画を生成し、前記仮想視点画像と前記動画とを重畳させた動画を生成することを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。
  16. 前記生成手段は、前記取得手段により取得された複数の形状データのうち一以上の形状データを強調した仮想視点画像を生成することを特徴とする請求項1乃至15のいずれか1項に記載の画像処理装置。
  17. 複数の撮像装置により撮像された複数の撮像画像に基づいて仮想視点画像を生成する画像処理方法であって、
    背景データと、前記背景データとは異なる、特定の被写体が連続して撮像される期間における当該特定の被写体を表す形状データとを取得する取得工程と、
    前記仮想視点画像に係る仮想視点の、位置及び向きの少なくともいずれかを示す情報を含む仮想視点情報を決定する決定工程と、
    前記決定工程において決定された仮想視点情報に対応した、前記連続して撮像される期間における異なる時点のそれぞれに対応する複数の形状データに基づく画像を同時に表示させるための仮想視点画像を、前記背景データと前記複数の形状データとを用いて生成する生成工程と
    を有することを特徴とする画像処理方法。
  18. コンピュータを、請求項1乃至16のいずれか1項に記載の画像処理装置が有する各手段として機能させるためのコンピュータプログラム。
  19. 請求項17に記載の方法の各工程をコンピュータに実行させるためのコンピュータプログラム。
JP2019126338A 2019-07-05 2019-07-05 画像処理装置、画像処理方法、及び、プログラム Active JP7366611B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019126338A JP7366611B2 (ja) 2019-07-05 2019-07-05 画像処理装置、画像処理方法、及び、プログラム
US16/918,954 US11250633B2 (en) 2019-07-05 2020-07-01 Image processing apparatus, display method, and non-transitory computer-readable storage medium, for displaying a virtual viewpoint image including an object at different points in time

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019126338A JP7366611B2 (ja) 2019-07-05 2019-07-05 画像処理装置、画像処理方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2021013095A JP2021013095A (ja) 2021-02-04
JP7366611B2 true JP7366611B2 (ja) 2023-10-23

Family

ID=74065783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019126338A Active JP7366611B2 (ja) 2019-07-05 2019-07-05 画像処理装置、画像処理方法、及び、プログラム

Country Status (2)

Country Link
US (1) US11250633B2 (ja)
JP (1) JP7366611B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
JP2020013470A (ja) * 2018-07-20 2020-01-23 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
CN112292852A (zh) * 2018-09-28 2021-01-29 英特尔公司 相机路径的自动生成
CN114041139A (zh) * 2019-07-31 2022-02-11 英特尔公司 比赛状态检测和轨迹融合
CN113377977A (zh) * 2021-06-17 2021-09-10 深圳市睿联技术股份有限公司 一种视频信息生成方法、装置、系统和存储介质
CN115509900B (zh) * 2022-09-15 2024-02-02 上海宜软检测技术有限公司 一种功能测试用例生成方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7162744B2 (ja) 2019-08-16 2022-10-28 Hoya株式会社 内視鏡用プロセッサ、内視鏡システム、情報処理装置、プログラム及び情報処理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3526896B2 (ja) * 1993-12-09 2004-05-17 株式会社応用計測研究所 動画像処理装置
JP4068485B2 (ja) * 2002-09-30 2008-03-26 株式会社東芝 画像合成方法、画像合成装置、画像合成プログラム
JP4591576B2 (ja) * 2008-08-18 2010-12-01 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP2014215828A (ja) 2013-04-25 2014-11-17 シャープ株式会社 画像データ再生装置、および視点情報生成装置
US10762653B2 (en) * 2016-12-27 2020-09-01 Canon Kabushiki Kaisha Generation apparatus of virtual viewpoint image, generation method, and storage medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7162744B2 (ja) 2019-08-16 2022-10-28 Hoya株式会社 内視鏡用プロセッサ、内視鏡システム、情報処理装置、プログラム及び情報処理方法

Also Published As

Publication number Publication date
US20210005023A1 (en) 2021-01-07
JP2021013095A (ja) 2021-02-04
US11250633B2 (en) 2022-02-15

Similar Documents

Publication Publication Date Title
JP7366611B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP7140487B2 (ja) 情報処理装置、表示制御方法、及び、プログラム
US8885979B2 (en) Apparatus and associated methodology for analyzing subject motion in images
JP2018180655A (ja) 画像処理装置、画像生成方法及びプログラム
JP7301507B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20210150223A1 (en) Information processing apparatus, information processing method, and storage medium
JP2018036955A (ja) 画像処理装置、画像処理方法及びプログラム
CN111935489B (zh) 网络直播方法、信息显示方法、装置、直播服务器及终端设备
US20210349620A1 (en) Image display apparatus, control method and non-transitory computer-readable storage medium
JP7446754B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6812181B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP5312505B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP2006203443A (ja) 画像合成装置及び画像合成プログラム
JP2019197340A (ja) 情報処理装置、情報処理方法、及び、プログラム
US20230353717A1 (en) Image processing system, image processing method, and storage medium
EP3621300B1 (en) Display control device and display control method
US11758112B2 (en) Information processing apparatus, control method, and storage medium
JP2020135290A (ja) 画像生成装置、画像生成方法、画像生成システム、及びプログラム
JP2020102687A (ja) 情報処理装置、画像処理装置、画像処理方法、及びプログラム
JP2019130118A (ja) ゲームプログラム、方法、および情報処理装置
US11526250B2 (en) Information processing apparatus, method for controlling the same, and storage medium
JP6453500B1 (ja) ゲームプログラム、方法、および情報処理装置
JP2021144522A (ja) 画像処理装置、画像処理方法、プログラム、及び画像処理システム
JP2022043539A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US11943560B2 (en) Information processing apparatus, image generation apparatus, information processing method, image generation method, and storage medium for generating virtual viewpoint images with additional information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231011

R151 Written notification of patent or utility model registration

Ref document number: 7366611

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151