JP2022105590A - 情報処理装置、情報処理方法、及び、プログラム - Google Patents

情報処理装置、情報処理方法、及び、プログラム Download PDF

Info

Publication number
JP2022105590A
JP2022105590A JP2022079106A JP2022079106A JP2022105590A JP 2022105590 A JP2022105590 A JP 2022105590A JP 2022079106 A JP2022079106 A JP 2022079106A JP 2022079106 A JP2022079106 A JP 2022079106A JP 2022105590 A JP2022105590 A JP 2022105590A
Authority
JP
Japan
Prior art keywords
information
virtual
viewpoint
information processing
specified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022079106A
Other languages
English (en)
Other versions
JP7422468B2 (ja
Inventor
友里 吉村
Yuri Yoshimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022079106A priority Critical patent/JP7422468B2/ja
Publication of JP2022105590A publication Critical patent/JP2022105590A/ja
Application granted granted Critical
Publication of JP7422468B2 publication Critical patent/JP7422468B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors

Abstract

【課題】 仮想視点画像に係る仮想カメラを指定するユーザの注目対象を容易に特定できるようにする。【解決手段】 情報処理装置3は、複数の撮影装置により取得される複数の撮影画像に基づいて生成される仮想視点画像に対応する仮想カメラに関する仮想カメラ情報を取得する。また情報処理装置3は、当該複数の撮影画像の少なくとも何れかに含まれるオブジェクトであって、仮想カメラ情報によって特定される仮想カメラの視界内の範囲に含まれるオブジェクトを判定する。そして情報処理装置3は、複数の仮想カメラ情報によって特定される複数の仮想カメラについての当該判定の結果に応じた情報を提示する。【選択図】 図2

Description

本発明は、複数の撮影装置により取得される複数の撮影画像に基づいて生成される仮想視点画像に関するものである。
複数の撮影装置(カメラ)を異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数の画像を用いて、撮影装置の設置位置から撮影した画像だけでなく、視点を任意に変更可能な仮想視点画像を生成する技術がある。仮想視点画像は、サーバなどの画像処理部が複数の撮影装置により撮影された画像を集約し、三次元モデルを生成し、レンダリングなどの処理を施すことで生成され、閲覧のためにユーザ端末に伝送される。
例えば、スポーツ競技を撮影した画像から、ユーザにより設定された視点に応じた仮想視点画像を生成することにより、ユーザは、自身の好みの視点で試合を観戦することができる。特許文献1には、ユーザが指定した仮想視点を他のユーザと共有することで、他のユーザと一体感を感じながら仮想視点画像を視聴できるようになることが開示されている。また、数多くのユーザにより指定されている仮想視点を特定する情報を表示させることが開示されている。
特開2014-215828号公報
例えば、スポーツ競技を撮影した画像から生成される仮想視点画像に関して、ユーザによる注目度の高い注目対象のシーンやオブジェクト(選手など)を特定できれば、多くのユーザが満足するハイライト画像の作成などの様々な用途に利用できる。しかしながら、特許文献1に記載の技術によって、ある時点において多くのユーザにより指定されている仮想視点を特定する情報が得られても、その情報から注目対象のシーンやオブジェクトを特定することは容易ではない。なお、仮想視点画像に係る視聴対象はスポーツ競技に限らず、コンサートなどの他のイベントを視聴対象とする場合にも同様の課題が生じ得る。
本発明は上記の課題に鑑みてなされたものであり、仮想視点画像に係る仮想視点を指定するユーザの注目対象を容易に特定可能とすることを目的とする。
上記の課題を解決するため、本発明に係る情報処理装置は、例えば以下の構成を有する。すなわち、複数の撮影装置により取得される複数の撮影画像に基づいて生成される仮想視点画像に対応する、指定された仮想視点に関する視点情報を取得する取得手段と、前記複数の撮影画像の少なくとも何れかに含まれるオブジェクトであって、前記取得手段により取得される視点情報によって特定される仮想視点の視界内の範囲に含まれるオブジェクトを判定する判定手段と、前記取得手段により取得される視点情報によって特定される複数の仮想視点についての前記判定手段による判定結果に応じた情報を提示する提示手段とを有する。
本発明によれば、仮想視点画像に係る仮想視点を指定するユーザの注目対象を容易に特定できるようになる。
実施形態における画像処理システム100の構成例を示す図である。 実施形態における複数の仮想カメラが設定された例を示す斜視図である。 実施形態における複数の仮想カメラが設定された例を示す俯瞰図である。 実施形態における情報処理装置3による仮想カメラ情報の解析および提示情報の生成に係る処理について説明するためのフローチャートである。 実施形態における仮想カメラ情報の解析結果の提示例を示す図である。 実施形態における複数の仮想カメラが設定された例を示す斜視図である。 実施形態における複数の仮想カメラが設定された例を示す俯瞰図である。 実施形態における情報処理装置3による仮想カメラ情報の解析および提示情報の生成に係る処理について説明するためのフローチャートである。 実施形態における仮想カメラ情報の解析結果の例を示すである。 実施形態における仮想カメラ情報の解析結果の提示例を示す図である。 実施形態における情報処理装置3によるハイライト画像の生成に係る処理について説明するためのフローチャートである。 実施形態における情報処理装置3のハードウェア構成例を示す図である。
以下、図面を参照してこの発明の実施形態を詳細に説明する。ただし、本発明はこの実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形及び変更が可能である。
[画像処理システムの構成]
図1は、本実施形態に係る画像処理システム100の全体構成図である。画像処理システム100は、複数の撮影装置による撮影に基づく画像と、指定された仮想視点とに基づいて、指定された仮想視点からの視界を表す仮想視点画像を生成するシステムである。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では仮想視点の指定がユーザ操作により行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて画像処理システム100により自動で行われてもよい。また、本実施形態では仮想視点画像が動画である場合を中心に説明するが、画像処理システム100により処理される仮想視点画像は静止画であってもよい。
画像処理システム100は、複数視点画像保持部1(以降、画像保持部1)、被写体情報保持部2(以降、情報保持部2)、情報処理装置3及びユーザ端末4a-4zにより構成される。図1では一例としてユーザ端末4a-4zの26セットのユーザ端末が情報処理装置3に接続されるものとしているが、情報処理装置3に接続されるユーザ端末の数はこれに限定されない。以降、特別な説明がない場合は、ユーザ端末4a-4zの26セットのユーザ端末を区別せず、ユーザ端末4と記載する。各ユーザ端末4内の機能部についても同様に、特別な説明がない場合は区別せず、端末通信部401、画像表示部402、仮想カメラパス指示部403(以降、パス指示部403)、ユーザ情報発信部404と記載する。
画像保持部1は、撮影対象領域を複数の撮影装置により複数の異なる方向から撮影することで得られる画像(複数視点画像)を保持する。撮影対象領域には、例えば歌手、奏者、役者や舞台装置、スポーツであれば選手やボールなどの所定のオブジェクト(前景オブジェクト)が含まれ、複数の撮影装置は撮影対象領域を取り囲むように設置されて同期撮影する。すなわち、複数の撮影装置により取得される複数の撮影画像の少なくとも何れかには、撮影対象領域内の所定のオブジェクトが含まれる。なお、画像保持部1が保持する画像は、複数の撮影画像そのものであってよいし、複数の撮影画像に画像処理を行って得られる画像であってもよい。
情報保持部2は、撮影対象に関する情報を保持する。具体的には、コンサートホールのステージや競技場のフィールド、観客席など、仮想視点画像内における背景となる物体(背景オブジェクト)の3次元モデル情報(以降、背景モデル)が保持される。また、前景オブジェクトの個体識別や姿勢認識に必要な特徴情報を含む、自然状態での前景オブジェクト3次元モデル情報や、仮想視点を設定可能な範囲を示す3次元空間情報などが保持される。前述の自然状態とは、例えば前景オブジェクトが人であれば、四肢を伸ばした立ち姿勢など、その前景オブジェクトの表面が最も一瞥しやすい状態を指す。このほか情報保持部2は、撮影対象のシーンに関する情報、例えば、開演や舞台転回、ソロパートやアクションなどの予定されたイベントや、キックオフやハーフタイムなどのタイムスケジュール情報を保持する。なお、情報保持部2は上記の情報のすべてを保持していなくてもよく、上記の情報の少なくとも何れかを保持していればよい。
情報処理装置3は、仮想視点画像生成部301(以降、画像生成部301)、仮想カメラパス算出部302(以降、パス算出部302)、及び仮想カメラ情報解析部303(以降、解析部303)を有している。さらに、情報処理装置3は、提示情報生成部304(以降、情報生成部304)、情報表示部305、ユーザ情報管理部306(以降、情報管理部306)および装置通信部307を有している。
画像生成部301は、画像保持部1から取得した複数視点画像をもとに、前景オブジェクトの3次元モデル情報(以降、前景モデル)を生成する。そして画像生成部301は、生成した前景モデルと、情報保持部2から取得した背景モデルに対し、パス算出部302から取得した仮想カメラパスに応じたテクスチャ画像をマッピングし、レンダリングを行うことにより、仮想視点画像を生成する。生成される仮想視点画像は、仮想カメラパスに対応する仮想視点画像であり、装置通信部307を介してユーザ端末4へ送信される。この生成の過程で画像生成部301は、情報保持部2が保持する前景オブジェクトの特徴情報を参照して、各前景オブジェクトを識別し、各前景モデルに前景オブジェクトの個体識別ID(以降、前景オブジェクトID)を関連付ける。あるいは画像処理システム100のユーザが、生成された前景モデルを目視により識別し、手動で前景オブジェクトIDを関連付けてもよい。また、画像生成部301は、前景オブジェクトの特徴情報をもとに、仮想視点画像に含まれる前景要素に関する被写要素情報を生成する。ここで前景要素とは、ある前景オブジェクトに含まれる要素(部位)であり、例えば前景オブジェクトが人物であれば、その人物の部位である顔前面、顔背面、胴体前面、背中、右腕、等々のそれぞれが前景要素となる。そして被写要素情報は、作成される仮想視点画像に含まれる(仮想カメラに被写される)前景要素についての、識別ID(以降、前景要素ID)と位置および向きを表す情報とを有する。この前景オブジェクトIDおよび被写要素情報を、画像生成部301は後述の解析部303に受け渡す。
パス算出部302は、ユーザ端末4のパス指示部403に対するユーザ操作に応じた指示情報や、後述の解析部303から取得した情報に基づき、時間的に連続する仮想カメラ情報(視点情報)を取得する。そしてパス算出部302は、生成すべき仮想視点画像に対応する仮想カメラの移動経路である仮想カメラパスを設定する。仮想カメラ情報には、仮想カメラ(仮想視点)の位置及び向きが含まれる。さらに仮想カメラ情報は、仮想カメラの画角や焦点位置に関する情報などを含んでいてもよい。そして、各仮想カメラ情報には、撮影シーン中のどの瞬間に対応する情報であるか特定できるよう、複数視点画像に付されたフレーム番号ないしタイムコードと関連づけられた時間情報が付されている。パス算出部302は、仮想カメラ情報の算出の際に、情報保持部2から得た3次元空間情報を参照し、仮想視点を設定可能な範囲内に仮想カメラパスを設定する。
解析部303は、画像生成部301から受け取った前景オブジェクトIDおよび被写要素情報と、パス算出部302から受け取った仮想カメラ情報をもとに、仮想カメラパスを指定するユーザの注目対象について解析を行う。注目対象には、例えば、複数のユーザが注目したと推定される前景オブジェクトや、あるいは複数のユーザの仮想カメラの視線が集中したシーンなどが含まれる。
情報生成部304は、解析部303による解析結果に基づく情報を生成する。情報生成部304により生成される情報の例としては、解析結果をユーザが直観的に把握出来るように可視化した、グラフィックデータやテキストデータなどがある。あるいは、情報生成部304により生成される情報は、例えば多くのユーザの仮想カメラの視線が集中したシーンをピックアップした画像など、多くのユーザが満足するような編集を加えたハイライト画像であってもよい。解析部303における解析、および情報生成部304で行われる情報生成については、後に詳しく説明する。
情報表示部305は、画像処理システム100の制御に関する種々の情報や、ユーザ端末4から受信した情報、情報生成部304により生成された提示情報などを表示する。なお、情報生成部304により生成された提示情報は、情報処理装置3の内部の記憶部や外部の装置に出力されてもよく、後に提示情報を加工した情報がユーザに提示されてもよい。また、情報処理装置3は、情報生成部304により生成した情報の少なくとも一部を、情報表示部305を介した画像の表示ではなく、スピーカ(不図示)を介した音の再生によりユーザに提示してもよい。
情報管理部306は、ユーザ端末4を操作する各ユーザに関するユーザIDなどのユーザ情報を、ユーザ端末4のユーザ情報発信部404から端末通信部401及び装置通信部307を介して受け取り、保持する。また情報管理部306は、情報処理装置3とユーザ端末4との間で送受信される画像やカメラパス情報等の各種情報に対して、情報処理装置3内で行われる種々の処理の間も当該情報とユーザIDとの関連付けが保持されるよう管理する。これにより複数のユーザ端末4に対しそれぞれ異なる処理の実行、および情報の通信を実現することができる。
装置通信部307は、情報処理装置3とユーザ端末4の間で非図示のネットワーク等を介してやり取りされる、画像、音声、テキストデータや、仮想視点画像を生成する際にユーザ端末4から送られる仮想カメラパス指示等の指示情報の送受信を行う。装置通信部307はそれらの情報の送受信に係る通信相手を、情報管理部306からの指示に従って決定する。
ユーザ端末4は、端末通信部401、画像表示部402、パス指示部403およびユーザ情報発信部404を有する。端末通信部401は、情報処理装置3の装置通信部307との間で、前述のとおり種々の情報の送受信を行う。画像表示部402は、情報処理装置3から取得した仮想視点画像や提示情報を表示する。
パス指示部403は、ユーザから仮想カメラパスを指定する操作を受け付け、操作に応じた指示情報を、端末通信部401及び装置通信部307を介して情報処理装置3のパス算出部302に渡す。ここでユーザは、必ずしも仮想カメラ情報のすべてを、視聴したい仮想視点画像の全期間に対して厳密に指示しなくてもよい。たとえば、特定の歌手や選手に注目した仮想視点画像を視聴したい、ボールの周囲の一定範囲の画像視聴したい、より注目すべきイベントが発生している箇所の画像を視聴したい、など種々の観点に基づく指示を入力することも可能である。これらの指示が入力された場合、パス指示部403は指示情報を送信し、情報処理装置3のパス算出部302は指示に応じた仮想カメラ情報を生成する。また、パス指示部403は自動的に仮想カメラパスを指定して、指定に応じた指示情報を送信してもよい。ユーザ情報発信部404は、端末通信部401から装置通信部307に向けて送信される情報に対し、ユーザIDなどのユーザ情報を付与する。
なお、画像処理システム100の構成は図1に示したものに限定されない。例えば、画像保持部1や情報保持部2が情報処理装置3の内部に含まれていてもよい。また、画像生成部301や情報表示部305が情報処理装置3とは別の装置の内部に含まれていてもよい。
次に、情報処理装置3のハードウェア構成について、図12を用いて説明する。情報処理装置3は、CPU1101、ROM1102、RAM1103、補助記憶装置1104、表示部1105、操作部1106、通信I/F1107、及びバス1108を有する。
CPU1101は、ROM1102やRAM1103に格納されているコンピュータプログラムやデータを用いて情報処理装置3の全体を制御する。なお、情報処理装置3がCPU1101とは異なる1又は複数の専用のハードウェアを有し、CPU1101による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM1102は、変更を必要としないプログラムやパラメータを格納する。RAM1103は、補助記憶装置1104から供給されるプログラムやデータ、及び通信I/F1107を介して外部から供給されるデータなどを一時記憶する。補助記憶装置1104は、例えばハードディスクドライブ等で構成され、画像データや音声データ、仮想カメラパス情報などの種々のデータを記憶する。
表示部1105は、例えば液晶ディスプレイやLED等で構成され、ユーザが情報処理装置3を操作するためのGUI(Graphical User Interface)などを表示する。操作部1106は、例えばキーボードやマウス、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU1101に入力する。通信I/F1107は、ユーザ端末4などの外部の装置との通信に用いられる。例えば、情報処理装置3が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F1107に接続される。なお、情報処理装置3が外部の装置と無線通信する機能を有する場合、通信I/F1107はアンテナを備える。バス1108は、情報処理装置3の各部を繋いで情報を伝達する。
本実施形態では表示部1105と操作部1106が情報処理装置3の内部に存在するものとするが、情報処理装置3は表示部1105と操作部1106との少なくとも一方を備えていなくてもよい。また、表示部1105と操作部1106との少なくとも一方が情報処理装置3の外部に別の装置として存在していて、CPU1101が、表示部1105を制御する表示制御部、及び操作部1106を制御する操作制御部として動作してもよい。
[注目オブジェクトの解析]
以下では、情報処理装置3が、解析部303において仮想カメラ情報を解析し、情報生成部304において解析結果にもとづく提示情報を生成する処理について、具体例を用いて説明する。
図2は、撮影中のある時点Tに、4人のユーザ(ユーザIDをu、u=1~4とする)がそれぞれユーザ端末4によって個別に指定した仮想カメラC1~C4(Cu、u=1~4)の視界を図示したものであり、図3はその上面の概略図である。エリアAは、撮影対象領域のうち仮想カメラ情報の解析の対象となる解析対象領域であり、たとえば撮影対象のステージからパフォーマンスが行われる範囲の高さを持つ3次元空間である。解析対象領域は、情報処理装置3に対するユーザ操作に基づいて設定されてもよいし、解析部303が仮想カメラ情報に基づいて設定してもよい。エリアBは仮想カメラを設定可能な範囲である。またP~Xは、例えば歌手やダンサーなどの前景オブジェクトである。ここでは、各々の前景オブジェクトIDを図3における符号と同じくP~Xとする。
図2、図3の例に図示されるような仮想カメラ情報に対する解析及び提示情報生成に係る処理フローについて、図4を用いて説明する。図4に示す処理は、仮想カメラ情報の解析又は提示情報の生成を行うため指示が情報処理装置3に入力されたタイミングで開始される。この指示は、情報処理装置3に対するユーザ操作によって行われてもよいし、ユーザ端末4から指示が入力されてもよい。ただし図4に示す処理の開始タイミングはこれに限定されない。図4に示す処理は、CPU1101がROM1102に格納されたプログラムをRAM1103に展開して実行することで実現される。なお、図4に示す処理の少なくとも一部を、CPU1101とは異なる1又は複数の専用のハードウェアにより実現してもよい。後に説明する図8のフローチャートに示す処理についても同様である。
まずS1000では、図4の処理に用いる各種のパラメータを初期化する。具体的には、解析の対象となる仮想カメラの数(umax)と、解析の対象となる撮影期間(Tmax)を設定し、解析対象の仮想カメラの一つを選択(u=1)し、対象の撮影期間の開始時点を指定(T=0)する。解析対象の仮想カメラや解析対象の期間は、ユーザによる操作に基づいて決定されてもよいし、自動で決定されてもよい。例えば仮想カメラについては、解析時に情報処理装置3に接続されているユーザ端末4により指定された仮想カメラのすべてを解析対象としてもよいし、過去に情報処理装置3に接続されていたユーザ端末4により指定された仮想カメラを解析対象としてもよい。また、情報処理装置3は、情報管理部306により管理されている情報に基づいて、特定の属性のユーザに対応する仮想カメラを解析対象としてもよい。
S1001では、解析部303は、選択された仮想カメラCuの指定された時点における視界に含まれる前景オブジェクトの前景オブジェクトIDおよび被写要素情報を、画像生成部301から取得する。S1002では、解析部303は、当該被写要素情報に対応する前景要素(仮想カメラCuの視界に含まれる前景要素)に付与されている被写カウント数N(S1000における初期値はゼロ)に1を加える。なお、仮想カメラの視界にどの前景オブジェクトが含まれるかの判定には、画像生成部301がその仮想カメラに応じた仮想視点画像を生成する際に判定した結果を用いればよい。ただし仮想カメラの視界に含まれる前景オブジェクトの判定方法はこれに限らず、例えば解析部303が、複数視点画像に基づいて取得される1以上の前景オブジェクトの位置情報と、パス算出部302により取得される仮想カメラ情報とに基づいて判定してよい。また例えば、解析部303が、画像生成部301により生成された当該仮想カメラに対応する仮想視点画像を解析することで、その仮想視点画像に含まれるオブジェクト、即ち当該仮想カメラの視界に含まれるオブジェクトを判定してもよい。
S1003では、解析部303が、解析の対象となるすべての仮想カメラについてS1001とS1002の処理を行ったか(u=umaxであるか)を判定する。そして、未処理の仮想カメラがある場合にはS1004で別の仮想カメラを選択し(u=u+1)、S1001に戻る。このようにして、S1001及びS1002における上記の被写カウントが、解析対象のすべての仮想カメラについて実行される。
S1005では、解析部303は、解析の対象となる撮影期間全体についてS1001からS1004の処理を行ったか(T=Tmaxであるか)を判定し、未処理の時点がある場合にはS1006で次の時点を指定し(T=T+ΔT)、S1001に戻る。このようにして、S1001からS1004における上記の被写カウントが、解析対象の撮影期間全体について実行される。
S1001からS1006による処理の結果、各前景要素について、当該前景要素を視界に含む仮想カメラの数およびその時間に比例した被写カウント数Nが得られる。そして、得られた被写カウント数Nに対し、S1007では比重Dが掛けられる。この比重Dは各前景要素の重要度を示すものであって、あらかじめ任意に定められる。例えば前景オブジェクトが人である場合に、顔に近い前景要素(身体部位)ほど、比重Dを大きく定めることが考えられる。S1008では、解析部303は、各前景オブジェクトについて、その前景オブジェクトに含まれる複数の前景要素の重み付きカウント数N×Dを合算する。この合算結果ΣNDが、当該前景オブジェクトの注目度を表す被写ポイントMとなる。
続いてS1009では、情報生成部304において、被写カウント数に対応した各前景要素の表示方法を決定する。具体的には、カラーヒートマップの要領で、最も被写カウント数が大きい前景要素を赤、最も被写カウント数が小さい前景要素を青とし、その中間は赤側から橙、黄、緑、等の順に、あらかじめ定めた段階分けルールに従って、表示色を決定する。ただし、前景要素の表示方法はこれに限らず、被写カウント数が一定以上異なる前景要素が識別可能な表示方法であればよい。例えば、被写カウント数N=0の前景要素は無色としてもよいし、被写カウント数の大小を、単一色相の濃淡や、テクスチャの違いで表現してもよい。また全前景要素の表示色を決定した結果に対して、色の境界が滑らかになるように、前景要素の境界線をなくすような境界処理を行ってもよい。また前景要素の近傍に被写カウント数をそのまま数値として表示するようにしてもよい。さらにそれら複数の表現方法を組み合わせてもよい。
情報生成部304は、続くS1010では、被写ランキング情報を生成する。まず情報生成部304は、情報保持部2から得た前景オブジェクトの自然状態モデルに、S1009で決定したの各表示色を適用する。この着色の際には、前景オブジェクトの本来の色柄や詳細形状の視認性が保たれるように、半透明状に重層して着色しても良い。そして情報生成部304は、この着色済み前景オブジェクトモデルを、前述の被写ポイントMに従ったランキング順に、ランキングを示すテキストやグラフィックとともに表示するための画像を生成する。生成された画像は情報表示部305より表示される。ここで、表示される画像の一例を図5に示す。
図5では図の都合上、色の濃淡で被写カウント数の大小を表現し、表示の境界を滑らかに補正しているが、前述のように様々なバリエーションが適用可能である。また、前景オブジェクトモデルは3次元モデルであるので、オブジェクトの向きを自由に変更可能にしてもよい。また、図5では前景オブジェクトの自然状態モデルが表示されているが、任意の瞬間の前景オブジェクトモデル、例えばその前景オブジェクトの被写カウント数が最も大きく変動した瞬間の前景オブジェクトモデルが図5のような方法で表示されてもよい。そのような表示によれば、表示を見たユーザは、どの前景オブジェクトが注目されたかだけでなく、どのシーンにおいてその前景オブジェクトが注目されたかが容易に把握できる。また、情報生成部304により生成されユーザに提示される情報は、仮想カメラの視界に含まれるオブジェクトを複数の仮想カメラそれぞれについて判定した判定結果に応じた情報であればよく、図5のようなランキング表示に限定されない。例えば、撮影期間内の特定シーンの仮想視点画像における各前景オブジェクトを被写カウント数に応じて色づけしたような画像が表示されてもよいし、仮想視点画像上に被写カウント数に応じた数値が表示されてもよい。上述した種々の提示情報の例は、同一のオブジェクトを視界に含む仮想カメラの数に応じた情報であり、これにより各オブジェクトの注目度を容易に把握することができるようになる。ただしこれに限らず、単に、所定のオブジェクトが複数の仮想カメラのうち何れかの仮想カメラの視界に含まれたか否かを示す情報が提示されてもよい。
以上が、仮想カメラ情報の解析および情報の提示に係るフローである。すなわち、どの前景オブジェクトのどの要素により多くの仮想カメラが向けられたかという、ユーザの注目対象を解析し、解析結果を可視化するフローである。
なお、上記の説明では、各前景要素がある瞬間、ある仮想カメラの視界に含まれていれば、一律に被写カウント数を1ずつ加えていくとしたが、カウントの仕方はこれに限定されない。解析部303は、仮想カメラ情報によって特定される仮想カメラの位置及び方向に応じた視界内の範囲に含まれるオブジェクトを判定してカウントを行えばよい。この仮想カメラの視界内の範囲は、仮想カメラの視界に対応する範囲(その仮想カメラに対応する仮想視点画像の範囲)に限定されない。例えば、仮想カメラの視界のうち中心に近い所定範囲など、仮想カメラの視界に対応する範囲の一部分に含まれるオブジェクトの被写カウントを加算し、その所定範囲より外側に含まれるオブジェクトの被写カウントは加算しなくてもよい。また、前景要素の位置や向きに合わせて、被写カウント数に加える値を1以外としてもよい。例えば、仮想カメラの向きが前景要素の正面に近いほど、すなわち仮想カメラの向きベクトルと前景要素の向きベクトルが正対に近いほど、大きな値を当該前景要素の被写カウント数に加えるとしてもよい。また、前景要素の位置が仮想カメラに近いほど大きな値を加えるとしてもよい。他にも、前景要素の位置が仮想カメラ視界の中央に近いほど、あるいは前景要素の位置が仮想カメラの焦点が合っている位置に近いほど、大きな値を加えるとしてもよい。また、ユーザが具体的な仮想カメラ情報を指示するのではなく、特定の前景オブジェクトに注目した仮想視点画像を視聴したいという旨の指示を出す場合には、当該前景オブジェクトの被写カウント数Nには特に大きな値を加えてもよい。これにより、特定の前景オブジェクトを視聴したいという明確なユーザの意図を、解析結果に反映することができる。以上、いくつかの被写カウント数Nの加算ルールを挙げたが、これらに限定されるものではなく、また、複数の加算ルールを組み合わせてもよい。
また、上記の説明では、前景オブジェクトの部位ごと(前景要素ごと)に被写カウント数を計算し、部位ごとの注目度がわかるように情報を表示するものとしたが、これに限定されない。例えば、前景オブジェクトの全体が、当該前景オブジェクトの被写ポイントMに応じて一様に色づけされてもよい。また、色付けは行わず、単に各前景オブジェクトの被写ポイントやそれに応じた情報をテキストで表示させてもよい。なお、前景要素ごとの色づけなどを行わない場合には、図4に示した処理における被写カウント数の計算も前景オブジェクトごとに計算してもよい。例えば、撮影対象領域に人物が含まれる場合に、その人物の各部位が仮想カメラの視界に含まれるか否かを判定してカウントを行う代わりに、その人物が仮想カメラの視界に含まれるか否かをカウントしてもよい。このようにオブジェクトごとにカウントを行えば、前景要素ごとにカウントする場合よりも処理量を低減することができる。また、情報処理装置3は、上述した様々な表示方法を、情報処理装置3に入力されるユーザによる指示や当該ユーザの属性に応じて切り替えてもよい。
[注目シーンの解析]
上記の説明では、多くのユーザにより注目されたオブジェクトを解析により特定して、注目オブジェクトを識別可能とする情報を提示する例について説明した。これに対して、以下では、多くの仮想カメラの視線がある範囲に集中した時間、即ち多くのユーザにより注目されたシーンを解析により特定して、注目シーンを識別可能とする情報を提示する例について説明する。以下の説明において、前述の注目オブジェクトの解析に係る処理フローと同様の処理や対象については同符号を用いており、説明を省略する。
図6は、撮影中のある時点Tに、4人のユーザ(ユーザIDをu、u=1~4とする)がそれぞれユーザ端末4によって個別に指定した仮想カメラC1~C4(Cu、u=1~4)の視界を図示したもの、図7はその上面概略図である。図2及び図3との違いとして、図6及び図7において解析対象領域であるエリアAは、3次元座標系XYZの3方向それぞれについて所定の数にブロック分割されている。以下で分割ブロックという場合には、このエリアAが分割されたブロックを指す。分割ブロックのサイズや数は、情報処理装置3に予め設定されているものとするが、ユーザ操作に応じて設定されてもよい。
図6、図7の例に図示されるような仮想カメラ情報に対する解析及び提示情報生成に係る処理フローについて、図8を用いて説明する。図8に示す処理の開始タイミングは図4と同様である。なお、以下では図4との差異を中心に説明する。
まずS2000では、図8の処理に用いる各種のパラメータを初期化する。S2001では、解析部303は、仮想カメラCuの視界に含まれる前景オブジェクトの前景要素に関する被写要素情報を、画像生成部301から取得する。S2002では、解析部303は、当該被写要素情報に対応する前景要素(仮想カメラCuの視界に含まれる前景要素)の少なくとも一部を含む分割ブロックが存在するかを判定する。該当する分割ブロックが存在する場合には、S2003において解析部303は、当該分割ブロックに付与されている時間Tにおける被写カウント数N’(T)(S2000における初期値はゼロ)に1を加える。S2002において該当する分割ブロックが存在しない場合には、S2003の処理を行わずにS2004に進む。
S2004からS2005のフローを経て、上記の被写カウントが、解析の対象となるすべての仮想カメラについて実行される。その結果、各分割ブロックについて、当該分割ブロックを視界に含む仮想カメラの数に応じた被写カウント数N‘(T)が得られる。ここで、ある時点Tにおける各分割ブロックにおける被写カウント数N’(T)の例を図9に示す。図9は、簡単のために図7同様の上面概略図でカウント数を示しているが、実際には図6に示すような3次元空間上の各分割ブロックに対して被写カウントが実行される。そして、S2006及びS2007を経て、このような分割ブロックに対する被写カウントが、解析対象となる撮影期間(T=0~Tmax)に含まれる各時点Tについて実行される。
続くS2008では、情報生成部304が、解析部303により算出された各時点Tにおける各ブロックの被写カウント数N’(T)から、各時点Tにおける被写カウント数の最大値である最大カウント数N’ max(T)を特定する。つまり最大カウント数N’max(T)は、時点Tにおいて最も多くの仮想カメラの視点が集まった分割ブロックにおける被写カウント数である。そして情報生成部304は、最大カウント数を、横軸を時間Tとしたグラフ上にプロットした情報を生成する。このとき情報生成部304は、時間軸上に、撮影中に起きたシュートやゴールなどのイベントや、情報保持部2から取得したキックオフやハーフタイムなどのタイムスケジュールを付加させてもよい。生成された画像は情報表示部305より表示される。表示される画像の例を図10(a)に示す。
図10(a)では、算出された最大カウント数と、カウント数の閾値を示す線と、イベントの発生時点に関する情報が表示されている。なお、各イベントの発生時点に関する情報は、撮影後に手動で入力されても良いし、撮影により取得された画像から自動でシーン判定して作成されても良い。また、カウント数の閾値も、ユーザ操作により手動で設定されてもよいし、自動で設定されてもよい。例えば、対象の撮影期間全体における最大カウント数の平均値に基づいて閾値が設定されてもよい。また、情報生成部304により生成される情報は、各時点の最大カウント数を平滑線でつないだ図10(a)の例に限られず、複数の仮想カメラの視界内の範囲に含まれる注目領域が存在する時点又は期間に関する情報であればよい。例えば点グラフや棒グラフの形式でもよいし、各時点の注目度を示す数値をテキストで表示する形式でも良い。また例えば、一定幅の時間軸バーをカラーヒートマップの要領で着色することによって注目度の大小を表現しても良いし、着色と前述の他の表現を組み合わせても良い。
また、情報生成部304により生成される情報は、すべての時点についての最大カウント数を示していなくてもよい。例えば、情報生成部304により生成される情報は、最大カウント数が閾値を超えている時点や期間、もしくは最大カウント数が閾値を下回っている時点や期間など、撮影期間内の1以上の時点又は期間を示す情報を含んでいればよい。また例えば、情報生成部304により生成される情報は、最大カウント数が最も大きくなった時点や、最大カウント数が最も小さくなった時点を示す情報であってもよい。また、撮影期間内の特定シーンの仮想視点画像内に、当該シーンが注目度の高いシーンであるか否か(最大カウント数が閾値を超えているか否か)を示す情報や、最大カウント数に応じた数値が表示されてもよい。
以上が、仮想カメラ情報の解析および情報の定時に係るフローである。すなわち、どの前景オブジェクトのどの要素により多くの仮想カメラが向けられたかという、ユーザの注目対象を解析し、解析結果を可視化するフローである。
なお、注目オブジェクトの解析についての説明で上述したのと同様に、解析部303は、仮想カメラの視界全体に限らず仮想カメラの位置及び方向に応じた範囲に含まれるオブジェクトを判定してカウントを行えばよい。また、各カウントにおいて加算される値は一律でなくてもよい。また、図8を用いた上記の説明では、仮想カメラの視界に含まれる前景要素を特定し、特定された前景要素に基づいて分割ブロックの被写カウントを行ったが、前景要素ごとのカウントではなく前景オブジェクトごとのカウントを行ってもよい。すなわち、仮想カメラの視界に含まれる前景オブジェクトを特定し、当該前景オブジェクトの少なくとも一部を含む分割ブロックの被写カウント数を加算していってもよい。
また、解析部303は、前景オブジェクトの位置によらず、単に、各仮想カメラの視界に含まれる分割ブロックの被写カウント数を加算していってもよい。すなわち、解析部303は、複数の撮影装置の撮影範囲の少なくとも何れかに含まれる領域のうち、仮想カメラの視界に含まれる領域を、複数の仮想カメラそれぞれについて判定してカウントを行ってもよい。そして情報生成部304は、解析部303による判定結果に基づいて、撮影期間内の1以上の時点であって視界が重複する仮想カメラの数に基づいて決まる1以上の時点を示す情報を生成してもよい。この方法によれば、例えば、同一の領域が閾値以上の数の仮想カメラの視界に含まれる時点を示す情報、すなわち多くの仮想カメラの視線が同じ注目領域に集中した時点を示す情報を生成できる。そしてこの方法では、前景オブジェクトの位置の判定を行わなくてもよいため、少ない処理量で情報の生成をすることができる。なお、上記の閾値は、ユーザ操作などに基づいて情報処理装置3に予め設定された値であってもよいし、解析部303による判定結果に基づいて決まる値、例えば撮影期間における視界が重複するカメラの数の平均値に応じた値などであってもよい。判定結果に基づいて自動で閾値を決定すれば、被写判定の対象とする仮想カメラの数が変化した場合に閾値を手動で設定し直す手間を削減することができる。
一方、図8を用いて説明したように、所定のオブジェクトに対応する分割ブロックの被写カウントを行う方法によれば、情報生成部304は、複数の撮影装置の視線が同じオブジェクトに集中した時点を示す情報を生成できる。そのため、前景オブジェクトが存在せず特に注目されていない領域が、偶然多くの仮想カメラの視界に入ったような時点を、注目シーンとして特定してしまうことが少なくなり、より実際の注目度に合致した情報を提示することができる。
[ハイライト画像生成]
以上の説明では、仮想カメラを指定する複数のユーザにより注目された対象のオブジェクトやシーンを特定して、当該注目対象を識別可能とする情報を提示する例について説明した。ただし、注目対象を特定した結果の利用方法は、上述した情報の定時に限られない。以下では、注目対象を特定した結果を用いてハイライト画像を生成する例について説明する。
情報処理装置3によるハイライト画像の生成に係る処理フローについて、図11を用いて説明する。図11に示す処理は、図8に示す処理の終了後、ハイライト画像を生成するための指示が情報処理装置3に入力された時点で開始される。この指示は、情報処理装置3に対するユーザ操作によって行われてもよいし、ユーザ端末4から指示が入力されてもよい。ただし図11に示す処理の開始タイミングはこれに限定されない。
S3000では、解析部303が、図8の処理において生成される情報、例えば算出された最大カウント数に基づいて、撮影が行われた期間のうちハイライト画像の生成対象となる期間を決定する。具体的には、解析部303は、最大カウント数が閾値N’thを超えている期間を特定し、当該期間をハイライト画像の生成対象期間とする。このとき、所定の時間幅以上継続してN’th<N’ max(T)となる期間のみを生成対象としてもよいし、継続時間が短くてもN’ max(T)が非常に大きい時点がある場合には、その時点の前後の所定時間を含む期間を生成対象としてもよい。その他、ハイライト画像の各シーンの始まりや終わりが自然になるように、適宜N’th<N’ max(T)となるような時点Tも生成対象に含めてもよい。図10(b)に、図10(a)に示すような最大カウント数が得られた場合の、ハイライト画像の生成対象となる期間の例を示す。図10(b)における斜線部が、生成対象として特定された期間を示している。
S3001において、画像生成部301は、撮影期間内の部分期間であるハイライト画像の生成対象期間に対応する仮想視点画像を生成する。具体的には、解析部303が、S3000で決定された生成対象期間内の各時点における、被写カウント数が大きかった分割ブロックの位置(閾値以上の数の仮想カメラの視界に含まれる位置)を示す情報を生成し、パス算出部302に受け渡す。そしてパス算出部302は、当該ブロックの位置を視界に含むような新たな仮想カメラパスを算出し、画像生成部301は、当該仮想カメラパスに応じた仮想視点画像を生成する。なお、S3001において生成されるハイライト画像用の仮想視点画像に対応する仮想カメラパスの設定方法は、これに限定されない。例えば、パス算出部302は、前述した注目オブジェクトの解析結果を用いて、生成対象期間において最も被写カウント数Nが大きかった前景要素、または被写ポイントMが大きかった前景オブジェクトを正面から撮影するような仮想カメラパスを設定してもよい。またパス算出部302は、過去にユーザ端末4により指定された仮想カメラパスから、生成対象期間に対応する部分を抽出して、ハイライト画像生成用の仮想カメラパスとして用いてもよい。この場合にパス算出部302は、過去に指定された仮想カメラパスのうち、ハイライト画像の生成対象期間において注目オブジェクトを視界に含む仮想カメラパスを選択して用いてもよい。また、ハイライト画像生成用の仮想カメラパスとして、予め設定された仮想カメラパスが用いられてもよい。
S3002では、情報生成部304が、S3000で画像生成部301により生成された仮想視点画像を受信し、当該仮想視点画像に関する付帯情報を生成する。付帯情報は、例えば、ハイライト画像の生成対象期間に対応するイベントを示す情報や、仮想視点画像に含まれる前景オブジェクトの名称、タイムスケジュール、及びシーンやオブジェクトの注目度などである。ただし付加される情報はこれに限定されない。そして情報生成部304は、仮想視点画像にそれらの付帯情報を組み合わせたハイライト画像を生成する。仮想視点画像にどのような付帯情報を組み合わせるかは、情報処理装置3により自動で決定されてもよいし、情報処理装置3に対するユーザ操作に応じて決定されてもよい。また、情報生成部304は、生成されたハイライト画像を、ユーザ操作に応じて編集してもよい。そして、生成及び編集されたハイライト画像は、情報表示部305により表示される。また、生成及び編集されたハイライト画像はユーザ端末4へ送信されてもよい。
以上が、ハイライト画像の生成に係るフローである。以上のようにして、多くのユーザに注目されたシーンを含むハイライト画像を、ユーザが大きな手間をかけることなく容易に生成することができる。なお、上記の説明では、注目対象となるシーンやオブジェクトの特定と、ハイライト画像の生成との両方を、情報処理装置3が行うものとした。ただしこれに限らず、情報処理装置3は注目シーンや注目オブジェクトに関する情報を外部の装置へ出力し、当該情報を取得した別の装置がハイライト画像を生成してもよい。また、上記の説明では、情報処理装置3が、図8に示す処理によって注目シーンを判定した結果に基づいて、その注目シーンを含むハイライト画像の生成を行うものとした。ただしこれに限らず、情報処理装置3は、図4に示す処理によって注目オブジェクトを判定した結果に基づいて、その注目オブジェクトを含むハイライト画像の生成を行ってもよい。
なお、本実施形態では、前景要素や分割ブロックごとに、仮想カメラの指定に応じたユーザの注目度を解析する場合を中心に説明したが、解析部303は、それらの解析を組み合わせてもよい。たとえば、各前景オブジェクトの被写ポイントMを微小時間ごとに算出し、その経時的変化を図10(a)に示す情報と重ね合わせて提示すれば、注目シーンと注目オブジェクトとの相関関係が容易に把握できる情報を提示することが出来る。
また、情報生成部304は、提示情報の生成の際に、情報管理部306から得られるユーザ情報をもとにユーザをカテゴライズし、そのユーザカテゴリに基づいて提示情報を生成してもよい。ユーザカテゴリの例としては、年代、性別、出身地、現住エリアに始まり、特定スポーツの経験値や応援チーム、仮想カメラ操作経験値など、様々なカテゴリ分けが考えられる。ユーザカテゴリに基づく提示情報として、例えばユーザカテゴリ別の注目度を表示する場合には、カテゴリごとの表示を切り替えられるようにしてもよい。また、全カテゴリの注目度を同時に表示しつつ、色分けやテクスチャの違いによってカテゴリごとの注目度が識別できるようにしてもよい。あるいは、ユーザカテゴリ名称そのものを注目度と共にテキストで表示してもよい。
また、本実施形態では、情報処理装置3が、複数のユーザに対応する複数の仮想カメラパスを用いて注目対象を判定するものとした。すなわち、注目対象を判定するために用いられる仮想カメラ情報によって特定される複数の仮想視点には、複数のユーザに対応する複数の仮想視点が含まれ、且つ、複数の異なる時点に対応する複数の仮想視点が含まれるものとした。ただしこれに限らず、情報処理装置3は、単一のユーザに対応する仮想カメラパスに基づいて、そのユーザが長い時間注目していたオブジェクトや領域を判定してもよい。また、情報処理装置3は、ある単一時点における複数のユーザに対応する複数の仮想視点に基づいて、その時点において多くのユーザが注目していたオブジェクトや領域を判定してもよい。
以上説明したように、本実施形態における情報処理装置3は、複数の撮影装置により取得される複数の撮影画像に基づいて生成される仮想視点画像に対応する仮想カメラに関する仮想カメラ情報を取得する。また情報処理装置3は、当該複数の撮影画像の少なくとも何れかに含まれるオブジェクトであって、仮想カメラ情報によって特定される仮想カメラの視界内の範囲に含まれるオブジェクトを判定する。そして情報処理装置3は、複数の仮想カメラ情報によって特定される複数の仮想カメラについての当該判定の結果に応じた情報を提示する。上記のような構成によれば、仮想視点画像に係る仮想カメラを指定するユーザの注目対象を容易に特定できるようになる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。
100 画像処理システム
1 複数視点画像保持部
2 被写体情報保持部
3 情報処理装置
4 ユーザ端末
上記の課題を解決するため、本発明に係る情報処理装置は、例えば以下の構成を有する。すなわち、複数の撮影装置により取得される複数の撮影画像に基づいて生成される仮想視点画像に対応する、指定された仮想視点に関する視点情報を取得する取得手段と、前記複数の撮影画像の少なくとも何れかに含まれるオブジェクトであって、前記取得手段により取得される視点情報によって特定される仮想視点の視界内の範囲に含まれるオブジェクトを判定する判定手段と、前記取得手段により取得される視点情報によって特定される複数の仮想視点についての前記判定手段によって判定された前記オブジェクトに関するオブジェクト情報を生成する生成手段と、前記オブジェクト情報と前記オブジェクトとを関連付けて表示する表示手段とを有する。
情報生成部304は、続くS1010では、被写ランキング情報を生成する。まず情報生成部304は、情報保持部2から得た前景オブジェクトの自然状態モデルに、S1009で決定した各表示色を適用する。この着色の際には、前景オブジェクトの本来の色柄や詳細形状の視認性が保たれるように、半透明状に重層して着色しても良い。そして情報生成部304は、この着色済み前景オブジェクトモデルを、前述の被写ポイントMに従ったランキング順に、ランキングを示すテキストやグラフィックとともに表示するための画像を生成する。生成された画像は情報表示部305より表示される。ここで、表示される画像の一例を図5に示す。

Claims (20)

  1. 複数の撮影装置により取得される複数の撮影画像に基づいて生成される仮想視点画像に対応する、指定された仮想視点に関する視点情報を取得する取得手段と、
    前記複数の撮影画像の少なくとも何れかに含まれるオブジェクトであって、前記取得手段により取得される視点情報によって特定される仮想視点の視界内の範囲に含まれるオブジェクトを判定する判定手段と、
    前記取得手段により取得される視点情報によって特定される複数の仮想視点についての前記判定手段による判定結果に応じた情報を提示する提示手段とを有することを特徴とする情報処理装置。
  2. 前記提示手段により提示される前記情報は、同一のオブジェクトを視界内の範囲に含む仮想視点の数に応じた情報であることを特徴とする請求項1に記載の情報処理装置。
  3. 前記判定手段は、前記複数の撮影画像の少なくとも何れかに含まれる1以上の所定のオブジェクトの位置情報と、前記取得手段により取得される視点情報とに基づいて、前記仮想視点の視界内の範囲に含まれるオブジェクトを判定することを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記判定手段は、前記取得手段により取得される視点情報によって特定される仮想視点に対応する仮想視点画像に基づいて、前記仮想視点の視界内の範囲に含まれるオブジェクトを判定することを特徴とする請求項1又は2に記載の情報処理装置。
  5. 前記判定手段による判定の対象となるオブジェクトは、人物又は人物の部位であることを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
  6. 前記提示手段は、画像の表示又は音の再生により前記判定結果に応じた情報を提示することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
  7. 複数の撮影装置により取得される複数の撮影画像に基づいて生成される仮想視点画像に対応する、指定された仮想視点に関する視点情報を取得する取得手段と、
    前記複数の撮影装置の撮影範囲の少なくとも何れかに含まれる領域であって、前記取得手段により取得される視点情報によって特定される仮想視点の視界内の範囲に含まれる領域を判定する判定手段と、
    前記取得手段により取得される視点情報によって特定される複数の仮想視点についての前記判定手段による判定結果に基づいて、前記複数の撮影画像の撮影期間内の1以上の時点又は期間であって複数の仮想視点の視界内の範囲に含まれる注目領域が存在する時点又は期間に関する情報を生成する情報生成手段とを有することを特徴とする情報処理装置。
  8. 前記情報生成手段により生成される前記情報は、前記複数の撮影装置の撮影範囲の少なくとも何れかに含まれる同一の注目領域が閾値以上の数の仮想視点の視界内の範囲に含まれる時点又は期間を特定する情報であることを特徴とする請求項7に記載の情報処理装置。
  9. 前記閾値は、予め定められた値、又は前記判定手段による判定結果に基づいて決まる値であることを特徴とする請求項8に記載の情報処理装置。
  10. 前記情報生成手段により生成される情報に基づいて、前記撮影期間内の部分期間であって当該情報により特定される部分期間に対応する仮想視点画像を生成する画像生成手段を有することを特徴とする請求項7乃至9の何れか1項に記載の情報処理装置。
  11. 前記情報生成手段により生成される情報に基づいて、前記撮影期間内の部分期間であって当該情報により特定される部分期間に対応する仮想視点画像であり、且つ、前記閾値以上の数の仮想視点の視界内の範囲に含まれる領域の画像を含む仮想視点画像を生成する画像生成手段を有することを特徴とする請求項8又は9に記載の情報処理装置。
  12. 前記情報生成手段により生成される情報に基づいて、当該情報により特定される時点又は期間と当該時点又は期間に対応するイベントとを示す情報を提示する提示手段を有することを特徴とする請求項7乃至11の何れか1項に記載の情報処理装置。
  13. 前記判定手段は、前記複数の撮影装置の撮影範囲の少なくとも何れかに含まれる所定のオブジェクトに対応する領域であって、前記取得手段により取得される視点情報によって特定される仮想視点の視界内の範囲に含まれる領域を判定することを特徴とする請求項7乃至12の何れか1項に記載の情報処理装置。
  14. 前記仮想視点の視界内の範囲は、当該仮想視点の視界に対応する範囲の一部分であることを特徴とする請求項1乃至13の何れか1項に記載の情報処理装置。
  15. 前記取得手段により取得される視点情報によって特定される複数の仮想視点は、複数のユーザに対応する複数の仮想視点を含むことを特徴とする請求項1乃至14の何れか1項に記載の情報処理装置。
  16. 前記取得手段により取得される視点情報によって特定される複数の仮想視点は、複数の異なる時点に対応する複数の仮想視点を含むことを特徴とする請求項1乃至15の何れか1項に記載の情報処理装置。
  17. 複数の撮影装置により取得される複数の撮影画像に基づいて生成される仮想視点画像に対応する、指定された仮想視点に関する視点情報を取得する取得工程と、
    前記複数の撮影画像の少なくとも何れかに含まれるオブジェクトであって、前記取得工程において取得される視点情報によって特定される仮想視点の視界内の範囲に含まれるオブジェクトを判定する判定工程と、
    前記取得工程において取得される視点情報によって特定される複数の仮想視点についての前記判定工程における判定結果に応じた情報を提示する提示工程とを有することを特徴とする情報処理方法。
  18. 複数の撮影装置により取得される複数の撮影画像に基づいて生成される仮想視点画像に対応する、指定された仮想視点に関する視点情報を取得する取得工程と、
    前記複数の撮影装置の撮影範囲の少なくとも何れかに含まれる領域であって、前記取得工程において取得される視点情報によって特定される仮想視点の視界内の範囲に含まれる領域を判定する判定工程と、
    前記取得工程において取得される視点情報によって特定される複数の仮想視点についての前記判定工程における判定結果に基づいて、前記複数の撮影画像の撮影期間内の1以上の時点又は期間であって複数の仮想視点の視界内の範囲に含まれる注目領域が存在する時点又は期間に関する情報を生成する情報生成工程とを有することを特徴とする情報処理方法。
  19. 前記情報生成工程において生成される情報に基づいて、前記撮影期間内の部分期間であって当該情報により特定される部分期間に対応する仮想視点画像であり、且つ、閾値以上の数の仮想視点の視界内の範囲に含まれる領域の画像を含む仮想視点画像を生成する画像生成工程を有することを特徴とする請求項18に記載の情報処理方法。
  20. コンピュータを、請求項1乃至16の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2022079106A 2018-05-09 2022-05-12 情報処理装置、情報処理方法、及び、プログラム Active JP7422468B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022079106A JP7422468B2 (ja) 2018-05-09 2022-05-12 情報処理装置、情報処理方法、及び、プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018090314A JP2019197340A (ja) 2018-05-09 2018-05-09 情報処理装置、情報処理方法、及び、プログラム
JP2022079106A JP7422468B2 (ja) 2018-05-09 2022-05-12 情報処理装置、情報処理方法、及び、プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018090314A Division JP2019197340A (ja) 2018-05-09 2018-05-09 情報処理装置、情報処理方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2022105590A true JP2022105590A (ja) 2022-07-14
JP7422468B2 JP7422468B2 (ja) 2024-01-26

Family

ID=68463422

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018090314A Pending JP2019197340A (ja) 2018-05-09 2018-05-09 情報処理装置、情報処理方法、及び、プログラム
JP2022079106A Active JP7422468B2 (ja) 2018-05-09 2022-05-12 情報処理装置、情報処理方法、及び、プログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018090314A Pending JP2019197340A (ja) 2018-05-09 2018-05-09 情報処理装置、情報処理方法、及び、プログラム

Country Status (3)

Country Link
US (2) US20190349560A1 (ja)
JP (2) JP2019197340A (ja)
KR (1) KR20190128992A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
JP7159057B2 (ja) * 2017-02-10 2022-10-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
WO2021149526A1 (ja) * 2020-01-23 2021-07-29 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5645450B2 (ja) * 2010-04-16 2014-12-24 キヤノン株式会社 画像処理装置および方法
JP6021541B2 (ja) 2012-09-13 2016-11-09 キヤノン株式会社 画像処理装置及び方法
JP5861684B2 (ja) 2013-09-27 2016-02-16 ブラザー工業株式会社 情報処理装置、及びプログラム
EP3306571A4 (en) * 2015-06-02 2019-01-16 Dentsu Inc. THREE-DIMENSIONAL ADVERTISING SYSTEM, USER DEVICE AND DEFINITION OF THREE-DIMENSIONAL ADVERTISING SURFACES
JP6615723B2 (ja) * 2016-09-07 2019-12-04 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および対象物認識方法
WO2018079260A1 (ja) * 2016-10-25 2018-05-03 ソニー株式会社 画像処理装置および画像処理方法
JP6922369B2 (ja) * 2017-04-14 2021-08-18 富士通株式会社 視点選択支援プログラム、視点選択支援方法及び視点選択支援装置
JP6481734B2 (ja) * 2017-10-18 2019-03-13 カシオ計算機株式会社 撮影システム、撮影方法及びプログラム
US20190259198A1 (en) * 2018-02-21 2019-08-22 Tsunami VR, Inc. Systems and methods for generating visual representations of a virtual object for display by user devices

Also Published As

Publication number Publication date
JP2019197340A (ja) 2019-11-14
US20220264067A1 (en) 2022-08-18
KR20190128992A (ko) 2019-11-19
JP7422468B2 (ja) 2024-01-26
US20190349560A1 (en) 2019-11-14

Similar Documents

Publication Publication Date Title
JP7362806B2 (ja) 情報処理装置、情報処理装置の制御方法、情報処理システム及びプログラム
JP7140487B2 (ja) 情報処理装置、表示制御方法、及び、プログラム
JP7422468B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP7034666B2 (ja) 仮想視点画像の生成装置、生成方法及びプログラム
CN108304063B (zh) 信息处理装置、信息处理方法和计算机可读介质
CN110944119B (zh) 图像处理系统、图像处理方法和存储介质
KR101831516B1 (ko) 멀티 스티커를 이용한 영상 생성 방법 및 장치
JP7446754B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
JP7423251B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2022176720A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7439146B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP2022110751A (ja) 情報処理装置、情報処理方法及びプログラム
JP6672417B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
RU2725682C1 (ru) Устройство обработки информации, способ обработки информации и носитель данных
JP2020119262A (ja) 画像処理装置、画像処理方法及びプログラム
JP7044149B2 (ja) 情報処理装置、情報処理方法、およびプログラム
EP4296961A1 (en) Image processing device, image processing method, and program
JP2023026244A (ja) 画像生成装置および画像生成方法、プログラム
JP2023003765A (ja) 画像生成装置およびその制御方法、画像生成システム、ならびにプログラム
JP2022103836A (ja) 情報処理装置、情報処理方法及びプログラム
JP2023184358A (ja) 画像処理システム、画像処理システムの制御方法、及びプログラム
JP2023167486A (ja) 画像処理装置、画像処理方法およびプログラム
JP2023111640A (ja) 情報処理装置、情報処理方法、データ構造及びプログラム
JP2019118042A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220512

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240110

R151 Written notification of patent or utility model registration

Ref document number: 7422468

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151