JP2024046244A - 画像処理システム、画像処理方法及びコンピュータプログラム - Google Patents

画像処理システム、画像処理方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2024046244A
JP2024046244A JP2022151518A JP2022151518A JP2024046244A JP 2024046244 A JP2024046244 A JP 2024046244A JP 2022151518 A JP2022151518 A JP 2022151518A JP 2022151518 A JP2022151518 A JP 2022151518A JP 2024046244 A JP2024046244 A JP 2024046244A
Authority
JP
Japan
Prior art keywords
dimensional object
virtual viewpoint
image
dimensional
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022151518A
Other languages
English (en)
Inventor
智昭 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022151518A priority Critical patent/JP2024046244A/ja
Priority to EP23194437.2A priority patent/EP4342554A1/en
Priority to US18/462,159 priority patent/US20240104832A1/en
Publication of JP2024046244A publication Critical patent/JP2024046244A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Image Generation (AREA)

Abstract

【課題】 仮想視点画像を含む複数のデジタルコンテンツの中から所望のデジタルコンテンツを容易に特定する機能を提供する。【解決手段】 管理装置200は、1つの被写体と対応付けられた仮想視点画像を含むデジタルコンテンツを複数取得し、ユーザによって選択された第1デジタルコンテンツと、第1デジタルコンテンツの仮想視点画像と対応付けられた被写体を撮像範囲に含む仮想視点画像、を含む第2デジタルコンテンツとを特定し、第1デジタルコンテンツと第2デジタルコンテンツとを含む表示画面を生成する。【選択図】 図2

Description

本開示は、デジタルコンテンツを表示する画像処理システム、画像処理方法及びコンピュータプログラムに関する。
スポーツ等を撮影した映像を加工して作成したデジタルコンテンツが取引されている。例えば、バスケットボール選手のダンクシュートなどのシーンを数十秒ほど切り抜いた映像をデジタルコンテンツとして取引される。取引画面の表示形態としては、デジタルコンテンツを立体形状で表示し、立体形状の表示面ごとに映像や付加情報などを表示する一例がある。ユーザは取引画面上の立体形状を選択することで、映像を確認した上でデジタルコンテンツを購入できる。
一方、複数の撮像装置の撮像により得られた複数の画像を用いて、指定された仮想視点からの仮想視点画像を生成する技術が注目されている。上述したデジタルコンテンツの一つとして、仮想視点画像を含めたデジタルコンテンツが生成されることが考えられる。特許文献1には、複数の撮像装置を異なる位置に設置して被写体を撮像し、撮像により得られた撮像画像から推定される被写体の3次元形状を用いて、仮想視点画像を生成する方法について記載されている。
特開2015-45920号公報
しかしながら、仮想視点映像は、様々な視点で撮影することができるので、ある選手の同一シーンであっても複数のデジタルコンテンツが生成できる。また、同シーンにおける別の選手を撮影したデジタルコンテンツも生成できる。このように試合中、様々なシーンで複数のデジタルコンテンツが生成され、最終的なデジタルコンテンツの総数は膨大に膨れ上がると予想される。したがって、取引画面で複数あるデジタルコンテンツの中から所望のデジタルコンテンツを特定することが困難になると考えられる。
本開示は、仮想視点画像を含む複数のデジタルコンテンツの中から所望のデジタルコンテンツを容易に特定する機能を提供することが目的としている。
本開示の一態様に係る画像処理システムは、
複数の撮像装置により撮像された複数の撮像画像に基づいて生成される仮想視点画像であって、1つの被写体と対応付けられた仮想視点画像を含む3次元オブジェクトを複数取得する取得手段と、
複数の前記3次元オブジェクトのうち、ユーザ操作に基づいて第1の3次元オブジェクトを特定する第1特定手段と、
複数の前記3次元オブジェクトのうち、仮想視点画像に対応する仮想カメラの撮像範囲に前記第1の3次元オブジェクトの仮想視点画像と対応付けられた被写体を含む仮想視点画像、を含む第2の3次元オブジェクトを特定する第2特定手段と、
前記第1の3次元オブジェクトと前記第2の3次元オブジェクトとを含む表示画像を生成する生成手段と、
を有することを特徴とする。
本開示によれば、複数のデジタルコンテンツの中から所望のデジタルコンテンツを容易に特定することができる。
デジタルコンテンツの例を示す図である。 画像処理システムの装置構成例を示す図である。 管理装置200のハードウェア構成例を示す図である。 管理装置200の動作フローを示すフローチャートである。 実施形態1に係る取引画面の一例を示す図である。 実施形態1に係る関連コンテンツの選出方法を示すフローチャートである。 実施形態2に係る関連コンテンツの選出方法を示すフローチャートである。 実施形態2に係る主被写体の映り込み判定を示す模式図である。 実施形態3に係る取引画面の一例を示す図である。 実施形態3に係る取引画面の切り替わり後の一例を示す図である。 実施形態3に係る関連コンテンツの選出方法を示すフローチャートである。
以下、図面を参照して本開示の実施形態を説明する。ただし、本開示は以下の実施形態に限定されるものではない。なお、各図において、同一の部材または要素については同一の参照番号を付し、重複する説明は省略または簡略化する。
(実施形態1)
実施形態1の画像処理システムは、仮想視点画像を表示する表示面を有するデジタルコンテンツを複数取得する。そして、ユーザによって選択されたデジタルコンテンツと、選択したデジタルコンテンツに関連するデジタルコンテンツとを取引画面に表示する。
仮想視点画像は、自由視点画像とも呼ばれ、ユーザが自由に(任意に)指定した視点に対応する画像をモニタできるものであるが、例えば、限定された複数の視点候補からユーザが選択した視点に対応する画像をモニタするものが仮想視点画像に含まれる。又、仮想視点の指定は、ユーザ操作により行われても良いし、画像解析の結果等に基づいてAIで、自動で行われても良い。又、仮想視点画像は動画であっても静止画であっても良い。仮想視点画像の生成に用いられる仮想視点情報は、仮想視点の位置及び向き(姿勢)更には画角(焦点距離)等を含む情報である。具体的には、仮想視点情報は、仮想視点の3次元位置を表すパラメータと、パン、チルト、及びロール方向における仮想視点からの向き(視線方向)を表すパラメータ、焦点距離情報等を含む。但し、仮想視点情報の内容は上記に限定されない。例えば、視点情報としてのパラメータセットには、仮想視点の視野の大きさ(画角)を表すパラメータが含まれてもよい。また、視点情報は複数のパラメータセットを有していてもよい。例えば、視点情報が、仮想視点画像の動画を構成する複数のフレームにそれぞれ対応する複数のパラメータセットを有し、連続する複数の時点それぞれにおける仮想視点の位置及び向きを示す情報であってもよい。
又、仮想視点情報は複数フレーム毎のパラメータを有していても良い。つまり、仮想視点情報が、仮想視点画像の動画を構成する複数のフレームに夫々対応するパラメータを有し、連続する複数の時点夫々における仮想視点の位置及び向きを示す情報であっても良い。
仮想視点画像は、例えば、以下のような方法で生成される。先ず、カメラにより異なる方向から撮像することで複数カメラの画像が取得される。次に、複数カメラ画像から、人物やボールなどの被写体に対応する前景領域を抽出した前景画像と、前景領域以外の背景領域を抽出した背景画像が取得される。前景画像、背景画像は、テクスチャ情報(色情報など)を有している。
そして、被写体の3次元形状を表す前景モデルと前景モデルに色付けするためのテクスチャデータとが前景画像に基づいて生成される。又、競技場などの背景の3次元形状を表す背景モデルに色づけするためのテクスチャデータが背景画像に基づいて生成される。そして、前景モデルと背景モデルに対してテクスチャデータをマッピングし、仮想視点情報が示す仮想視点に応じてレンダリングを行うことにより、仮想視点画像が生成される。但し、仮想視点画像の生成方法はこれに限定されず、前景や背景モデルを用いずに撮像画像の射影変換により仮想視点画像を生成する方法など、種々の方法を用いることができる。
前景画像とは、カメラにより撮像されて取得された撮像画像から、被写体の領域(前景領域)を抽出した画像である。前景領域として抽出される被写体とは、時系列で同じ方向から撮像を行った場合において動きのある(その絶対位置や形が変化し得る)動的被写体(動体)などを指す。被写体は、例えば、競技において、それが行われるフィールド内にいる選手や審判などの人物、球技であれば人物に加え、ボールなども含む。又、コンサートやエンターテインメントにおいては、歌手、演奏者、パフォーマー、司会者などが前景の被写体である。
背景画像とは、少なくとも前景となる被写体とは異なる領域(背景領域)の画像である。具体的には、背景画像は、撮像画像から前景となる被写体を取り除いた状態の画像である。又、背景は、時系列で同じ方向から撮像を行った場合において静止、又は静止に近い状態が継続している撮像対象物を指す。このような撮像対象物は、例えば、コンサート等のステージ、競技などのイベントを行うスタジアム、球技で使用するゴールなどの構造物、フィールド、などである。但し、背景は少なくとも前景となる被写体とは異なる領域である。尚、撮像対象としては、被写体と背景の他に、別の物体等が含まれていても良い。
仮想カメラとは、撮像領域の周囲に実際に設置された複数の撮像装置とは異なる仮想的なカメラであって、仮想視点画像の生成に係る仮想視点を便宜的に説明するための概念である。すなわち、仮想視点画像は、撮像領域に関連付けられる仮想空間内に設定された仮想視点から撮像した画像であるとみなすことができる。そして、仮想的な当該撮像における視点の位置及び向きは仮想カメラの位置及び向きとして表すことができる。言い換えれば、仮想視点画像は、空間内に設定された仮想視点の位置にカメラが存在するものと仮定した場合に、そのカメラにより得られる撮像画像を模擬した画像であると言える。また本実施形態では、経時的な仮想視点の変遷の内容を、仮想カメラパスと表記する。ただし、本実施形態の構成を実現するために仮想カメラの概念を用いることは必須ではない。すなわち、少なくとも空間内における特定の位置を表す情報と向きを表す情報とが設定され、設定された情報に応じて仮想視点画像が生成されればよい。
図1は、デジタルコンテンツの例を示す図である。本実施形態におけるデジタルコンテンツとは、ある特定の被写体に着目したデジタルコンテンツであって、該特定の被写体を映す仮想視点画像を含む3次元オブジェクトである。あるいは、特定の被写体を映す仮想視点画像と対応付けられた3次元オブジェクトである。図1におけるデジタルコンテンツ100は、立方体であり、向かって左側の面101に仮想視点画像を表示する画像表示領域102を有する。尚、画像表示領域102を配置する面は、面101に限定せず他の面であってもよい。又、デジタルコンテンツの形状は立方体に限定せず、他の形状であってもよい。例えば、2つの異なる仮想視点画像と対応付けられた球体の3次元オブジェクトや、仮想視点画像と対応付けられた被写体を示す3次元形状モデル等である。被写体を示す3次元形状モデルとは、予め作成された簡易的な3次元形状モデルでもよいし、仮想視点画像の生成に用いる被写体の3次元形状モデルでもよい。また、ある特定の被写体に着目しており、該特定の被写体を含む仮想視点画像と対応付けられていればよく、さらに他の被写体を含む仮想視点画像と対応付けられていてもよい。
又、デジタルコンテンツには、NFTが付与されてもよい。NFTは、デジタルコンテンツの資産価値を向上させるために、例えば配布するコンテンツの数量を制限してシリアル番号で管理するなどして稀少性を持たせることができる。尚、NFTはノンファンジブルトークン(Non-fungible Token)の略であり、ブロックチェーン上に発行・流通するためのトークンである。NFTのフォーマットの一例としては、ERC―721やERC―1155と呼ばれるトークン規格がある。トークンは通常、ユーザが管理するウォレットに関連付けて保管される。本実施形態では、デジタルコンテンツにNFTが付与されているものとして説明する。NFTが付与されたデジタルコンテンツは、NFTとデジタルコンテンツの識別子、デジタルコンテンツの所有者を示すユーザIDが対応付けてブロックチェーンに記録される。又、デジタルコンテンツは、ブロックチェーンの外にメタデータを保有する。メタデータには、コンテンツのタイトル、説明、コンテンツのURLなどが記憶される。本実施形態のメタデータには、仮想視点情報、撮影時刻情報、被写体の位置情報、及び被写体の識別情報が更に含まれるがこれに限定されない。仮想視点情報、撮影時刻情報、被写体の位置情報、及び被写体の識別情報は、ユーザが直接アクセスできないデータとしてデジタルコンテンツと共に外部サーバに記録されてもよい。なお、デジタルコンテンツの再生時間は、各コンテンツで統一されているものとする。
撮影時刻情報は、仮想視点画像の開始時刻と終了時刻が記される。カメラで撮像された画像にはフレーム毎に撮影時の時刻が付与されているので、その時刻を取得し撮影時刻情報に記す。仮想視点画像の生成を開始する際に使用する撮影画像から開始時刻と、生成を終了する際に使用する撮影画像から終了時刻と、を取得し撮影時刻情報に記す。なお、開始時刻と終了時刻には、画像を撮影した年次や日時を示す情報が含まれる。
被写体の位置情報は、仮想視点画像の作成者により指定された被写体(以後、主被写体と呼ぶ)の位置を示す情報が記される。なお、作成者による指定によらず、仮想視点画像の中心に最も長く映る被写体を主被写体としてもよい。被写体の位置情報は、例えば、被写体に取り付けられたGPS情報から収集したデータである。被写体の位置情報は、3つの座標軸(X軸、Y軸、Z軸)が原点で直交するように交わる座標系の3次元直交座標で示される。このときの原点は、例えば、バスケットボールコートのセンターサークルの中心などであり、撮影空間内の任意の位置であってもよい。被写体の位置情報には、撮影時刻情報の開始時刻から終了時刻の期間における被写体の位置情報が記される。
被写体の識別情報は、アルファベットや数字で構成され、それぞれの被写体を区別できるように割り振られた識別記号である。被写体の識別情報には、被写体の位置情報の主被写体に割り振られた識別記号が記される。
尚、本実施形態ではデジタルコンテンツのメタデータを用いて説明しているが、これに限定せず他のメタデータであってもよい。
図2は、本実施形態の画像処理システムの装置構成例を示す図である。尚、図2に示される機能ブロックの一部は、画像処理システムに含まれるコンピュータに、記憶媒体としてのメモリに記憶されたコンピュータプログラムを実行させることによって実現されている。しかし、それらの一部又は全部をハードウェアで実現するようにしても構わない。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いることができる。
画像処理システムは、管理装置200とユーザデバイス210で構成される。管理装置200は、コンテンツ取得部201、記憶部202、表示画像生成部203を有する。ユーザデバイス210は、送受信部211、制御部212、操作部213、表示部214を有する。
コンテンツ取得部201は、図示しない外部サーバからデジタルコンテンツを取得する。コンテンツ取得部201は、表示画面生成部203から指示を受け付けた際、例えば、ある試合に係るすべてのデジタルコンテンツを取得する。デジタルコンテンツを取得する単位は、表示画面生成部203からの指示によって様々である。デジタルコンテンツには仮想視点画像などが含まれる。又、デジタルコンテンツにはNFTが付与される。コンテンツ取得部201は、NFTに記載のURLに基づいてメタデータを取得する。コンテンツ取得部201は、NFTが付与されたデジタルコンテンツとメタデータを記憶部202へ送信する。又、コンテンツ取得部201は、メタデータを表示画面生成部203へ送信する。
記憶部202は、例えば、磁気ディスク、光ディスク、半導体メモリなどの大容量の記憶装置である。記憶部202は、コンテンツ取得部201から取得したデジタルコンテンツを記憶する。デジタルコンテンツには、仮想視点画像や音声データなどが含まれる。又、デジタルコンテンツに付与されるNFTおよびメタデータも記憶される。尚、記憶部202は、管理装置200に対して物理的に外部に設けてもよい。又、記憶部202に記憶される仮想視点画像は、例えば、MXF(Material eXchange Format)形式などで記憶されてもよい。又、仮想視点画像は、例えば、MPEG2形式で圧縮されてもよい。但し、画像フォーマットやデータ圧縮方式はこれらに限定されず、任意の画像フォーマットおよびデータ圧縮方式が用いられてもよい。又、圧縮符号化しなくてもよい。
表示画面生成部203は、ユーザデバイス210から受信したユーザ要求に応じて、デジタルコンテンツを取得する指示をコンテンツ取得部201へ送信する。例えば、ある試合で生成されたすべてのデジタルコンテンツを取得する指示を出すことができる。又は、あるデジタルコンテンツのみを取得する指示を出すこともできる。表示画面生成部203は、複数あるデジタルコンテンツの中からユーザが一つ選んだデジタルコンテンツ(以後、選択コンテンツと呼ぶ)と、選択コンテンツと関連のあるデジタルコンテンツ(以後、関連コンテンツと呼ぶ)を表示する取引画像を生成する。その際、デジタルコンテンツの表示面には、記憶部202から取得した仮想視点画像を割り当てる。表示画面生成部203は、生成した取引画像をユーザデバイス210へ送信する。表示画面生成部203は、コンテンツ取得部201で取得したすべてのデジタルコンテンツのメタデータを受信し管理する。表示画面生成部203は、選択コンテンツのメタデータと、選択コンテンツ以外のデジタルコンテンツのメタデータとを照合する。その結果、一致または部分的に一致するメタデータを保有するデジタルコンテンツを抽出し関連コンテンツとする。
送受信部211は、制御部212にて生成されるユーザ要求を管理装置200に送信する。また、管理装置200の表示画像生成部203で生成された取引画面を受信する。
制御部212は、操作部213から受信する操作情報に基づいてユーザ情報を作成し、ユーザ情報を送受信部211に送信する制御を行う。また、送受信部211から受信する取引画像を表示部214に表示するための制御を行う。なお、取引画像を表示部214に表示する際に、ユーザがデジタルコンテンツを選択するためのGUI(Graphical User Interface)を生成し、表示する。
操作部213は、例えばジョイスティックやタッチパネル、マウスやキーボードで構成され、ユーザがデジタルコンテンツを選択や決定などを行うために使われる。なお、本実施形態では、ユーザデバイス210はタブレット端末とし、操作部213はタッチパネルとして以下説明する。
表示部214は、例えば液晶ディスプレイやLED等で構成され、制御部212の制御に応じて、送受信部211が受信した取引画像を表示する。又、ユーザがデジタルコンテンツを選択するためのGUIなどを表示する。
図3は、実施形態1に係る管理装置200のハードウェア構成を示す図であり、図3を用いて管理装置200のハードウェア構成について説明する。なお、ユーザデバイス210のハードウェア構成も同様であるため、ユーザデバイス210のハードウェア構成の説明は省略する。
管理装置200は、CPU301、ROM302、RAM303、補助記憶装置304、表示部305、操作部306、通信I/F307、及びバス308等を有する。
CPU301は、ROM302やRAM303や補助記憶装置304等に記憶されているコンピュータプログラム等を用いて管理装置200の全体を制御することで、図2に示す管理装置200の各機能ブロックを実現する。
RAM303は、補助記憶装置304から供給されるコンピュータプログラムやデータ、及び通信I/F307を介して外部から供給されるデータなどを一時記憶する。補助記憶装置304は、例えばハードディスクドライブ等で構成され、画像データ、音声データやデジタルンテンツなどの種々のデータを記憶する。
表示部305は、前述のように、仮想視点画像を含むデジタルコンテンツや、GUI等を表示する。操作部306は、前述のように、ユーザによる操作入力を受けて各種の指示をCPU301に入力する。CPU301は、表示部305を制御する表示制御部、及び操作部306を制御する操作制御部として動作する。
通信I/F307は、管理装置200の外部の装置(例えば、外部サーバ等)との通信に用いられる。例えば、管理装置200が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F307に接続される。管理装置200が外部の装置と無線通信する機能を有する場合には、通信I/F307はアンテナを備える。バス308は、管理装置200の各部をつないで情報を伝達する。
図4は、実施形態1の管理装置200の動作フローを示すフローチャートである。尚、管理装置200のコンピュータとしてのCPU301が例えばROM302や補助記憶装置304等のメモリに記憶されたコンピュータプログラムを実行することによって図4で示すフローチャートの各ステップが動作する。
ステップS41では、表示画面生成部203がデジタルコンテンツを取得する指示をコンテンツ取得部201へ送信する。デジタルコンテンツを取得する単位は、ユーザデバイス210の送受信部211から受け付けたユーザ要求によって決まる。例えば、取引画面を起動すると本日開催されたすべての試合結果がリスト化されて表示されているとする。ユーザは、この中から購入したい試合を選択すると、表示画面生成部203は、選択された試合に係るすべてのデジタルコンテンツを取得する指示をコンテンツ取得部201へ送信する。なお、取得単位はこれに限定せず、チーム単位や選手単位であってもよい。
ステップS42では、ステップS43で処理するデジタルコンテンツをすべて処理したか否かを判断する。すべてのデジタルコンテンツが処理されるまでステップS43の処理を繰り返す。すべての処理が完了した後、ステップS44へ進む。
ステップS43では、コンテンツ取得部201が表示画面生成部203の指示に基づいて外部サーバからデジタルコンテンツを取得する。デジタルコンテンツには、仮想視点画像などが含まれる。取得されたデジタルコンテンツは、記憶部202へ順次送信される。又、コンテンツ取得部201は、デジタルコンテンツごとに識別番号を割り当て、デジタルコンテンツを管理する際に使用する。例えば、コンテンツ取得部201がデジタルコンテンツを記憶部202へ書き込んだ際、書き込み先と識別番号を関連付けて管理してもよい。そうすることで、表示画面生成部203が記憶部202からデジタルコンテンツを読み出す際に、識別番号を用いて読み出しできる。識別番号の使用方法はこれに限定せず、他の用途で使用することもできる。
ステップS44では、コンテンツ取得部201がコンテンツ取得完了通知を表示画面生成部203へ送信する。その際、コンテンツ取得完了通知に付帯するかたちでメタデータも表示画面生成部203へ送信する。尚、送信されるメタデータは、識別番号とメタデータとを関連付けたリスト形式のデータ(以後、メタデータ管理リストと呼ぶ)である。
ステップS45では、コンテンツ取得部201からコンテンツ取得完了通知を受信したことをトリガーとして、表示画面生成部203が取引画像を生成する。
ステップS46では、S45にて生成した取引画面をユーザデバイス210の送受信部211へ送信する。
ステップS47では、ユーザ指示の有無を判断する。表示画面生成部203は、ユーザデバイス210の送受信部211より選択したデジタルコンテンツを切り替える指示を受けた場合はステップS45へ戻る。取引画面の決定ボタンを押した場合はこの動作フローを終了し、購入画面などに切り替える。ユーザ指示がない場合はこのステップで待機する。
図5は、表示画面生成部203が生成する取引画面500の一例である。
コンテンツリスト501は、図5の破線で示す部分であり、デジタルコンテンツを縦一列に表示する領域である。表示画面生成部203は、記憶部202から読み出したデジタルコンテンツをコンテンツリスト501に表示する。コンテンツリスト501に表示されるデジタルコンテンツは、ユーザ操作によって上下にスクロールできる。コンテンツリスト501に表示しきれないデジタルコンテンツは、スクロールによって探し出すことができる。尚、コンテンツリスト501は縦一列に限定せず、横一列など他のレイアウトであってもよい。
コンテンツ選択矢印502は、コンテンツリスト501に表示されるデジタルコンテンツの中で選択中のデジタルコンテンツを示す。コンテンツ選択矢印502が指すデジタルコンテンツは、拡大表示されて選択コンテンツ503が示す位置にレイアウトされる。
選択コンテンツ503は、コンテンツリスト501のスクロールに応じて表示されるデジタルコンテンツが切り替わる。なお、ユーザがコンテンツリスト501に表示されるデジタルコンテンツの中から所望のデジタルコンテンツをタッチ操作等により選択することで、表示するデジタルコンテンツを切り替えても構わない。その場合、コンテンツ選択矢印502は、コンテンツリスト501上の選択コンテンツに対応する位置に表示される。
関連コンテンツ511―516は、選択コンテンツ503との関係性が高いデジタルコンテンツである。表示画面生成部203は、コンテンツ取得部201から取得したメタデータ管理リストを用いて関連コンテンツを選出する。関連コンテンツの選出方法については後述する。また、表示画面生成部203は、後述の選出方法によって生成された選出リストに基づいて関連コンテンツを配置してもよい。例えば、選出リストに記される関連コンテンツに優先度が付帯している場合、その優先度に応じて関連コンテンツを配置する。その場合、選択コンテンツに近い方から優先度の高い関連コンテンツを配置してもよい。尚、配置方法についてはこれに限定せず別の方法であってもよい。
決定ボタン521は、デジタルコンテンツの購入を決定するボタンである。ユーザは、取引画面500に表示されているデジタルコンテンツの中から購入したいデジタルコンテンツを選択し、決定ボタン521を押すことでデジタルコンテンツを購入できる。デジタルコンテンツを複数指定した状態で決定ボタン521を押すと、複数のデジタルコンテンツを同時購入できるようにしてもよい。
取引画面500に表示される選択コンテンツおよび関連コンテンツは、画像表示領域102を有する。表示画面生成部203は、選択コンテンツまたは関連コンテンツに紐づく仮想視点画像を記憶部202から取得し、画像表示領域102に仮想視点画像を割り当てて表示する。
図6は、実施形態1に係る関連コンテンツの選出方法を示すフローチャートである。このフローチャートは、図4で示すフローチャートのステップS45のタイミングで動作する。
ステップS61では、メタデータ管理リストから選択コンテンツのメタデータを取得する。
ステップS62では、選択コンテンツのメタデータに含まれる撮影時刻情報に基づいて撮影時間を算出する。撮影時刻情報には仮想視点画像の開始時刻と終了時刻が含まれている。この開始時刻から終了時刻までのフレーム数を撮影時間として算出する。本実施形態では、仮想視点画像は60フレームで生成されているものとする。例えば、選択コンテンツの開始時刻が2021年1月1日18時30分30秒04フレーム、終了時刻が2021年1月1日18時30分45秒04フレームであれば、撮影時間は900フレームである。
ステップS63では、メタデータ管理リストに記される選択コンテンツ以外のデジタルコンテンツをすべて処理したか否かを判断する。すべてのデジタルコンテンツが処理されるまでステップS64からステップS66までの処理を繰り返す。例えば、メタデータ管理リストの先頭から末尾まで順々に処理する。すべての処理が完了した後、このフローチャートを終了する。
ステップS64では、ステップS63で処理対象となったデジタルコンテンツのメタデータをメタデータ管理リストから取得する。
ステップS65では、ステップS64で取得したメタデータに含まれる撮影時刻情報を基に、選択コンテンツと処理対象コンテンツの重複時間を算出する。具体的には、選択コンテンツの開始時刻および終了時刻と処理対象コンテンツの開始時刻および終了時刻から、重複開始時刻と重複終了時刻を抽出する。その後、重複開始時刻と重複終了時刻の差分を求めることにより重複時間を算出する。例えば、選択コンテンツの開始時刻が2021年1月1日18時30分30秒01フレーム、終了時刻が2021年1月1日18時30分45秒01フレームであるとする。処理対象コンテンツの開始時刻が2021年1月1日18時30分33秒01フレームであり、終了時刻が2021年1月1日18時30分50秒01フレームであるとする。この場合、重複開始時刻は2021年1月1日18時30分33秒01フレーム、重複終了時刻は、2021年1月1日18時30分45秒01フレームとなり、重複時間は720フレームとなる。
ステップS66では、選択コンテンツと処理対象コンテンツとの関係性を示す指標(以後、関係率と呼ぶ)を算出する。関係率は、ステップS62の撮影時間とステップS65の撮影時間との重複時間を算出し、重複時間をステップS62の撮影時間で割ることで算出できる。
ステップS67では、処理対象コンテンツが関連コンテンツであるか否かを判断する。表示画面生成部203は、ステップS66で算出した関係率が所定値以上の場合、関連コンテンツと判断する。例えば、関係率が80%以上の場合、関連コンテンツと判断する。つまり、選択コンテンツの撮影時間と重複した撮影時間の割合が高いデジタルコンテンツを関連コンテンツとして判断することになる。関連コンテンツと判断されなかった場合、ステップS63に戻る。なお、所定値は、スポーツ競技などのイベントに応じて変更されるものであってもよい。
ステップS68では、処理対象コンテンツを関連コンテンツとして決定する。そして、決定した関連コンテンツの識別番号を選出リストに記憶する。
なお、メタデータに含まれる撮影時刻情報に基づいて関連コンテンツを選出したが、これに限定せず、メタデータに含まれる被写体の識別情報を用いて選出してもよい。この場合、選択コンテンツの被写体の識別情報と同じ被写体の識別情報を持つデジタルコンテンツを関連コンテンツとして選出できる。
なお、本実施形態では、関連コンテンツを表示する数は既定していないが、関連コンテンツを表示する数を予め設けてもよい。その場合、関係率が最も高いものから順に関連コンテンツとして表示し、規定数に達したら表示しないようにする。
実施形態1によれば、撮影時刻情報に基づいて選択コンテンツとの関係率が高いデジタルコンテンツを関連コンテンツとして決定する。これにより、撮影時間帯がほぼ等価な選択コンテンツと関連コンテンツを取引画面に表示できる。したがって、選択コンテンツだけでなく、関連コンテンツからもユーザが所望するデジタルコンテンツを探し出し購入できるようになる。
また、撮影時刻が重複しているデジタルコンテンツを関連コンテンツとして決定するため、同じシーンを映すデジタルコンテンツを関連コンテンツとして決定する。そのため、ユーザが選択した選択コンテンツと異なる視点からみた仮想視点画像を含むデジタルコンテンツを関連コンテンツとして表示できる。
(実施形態2)
実施形態1では、撮影時刻情報に基づいて選択コンテンツとの関係率が高いデジタルコンテンツを関連コンテンツとして決定した。しかしながら、ユーザが選択した特定の被写体が映る関連コンテンツを特定したい場合、適切な関連コンテンツを特定することができない可能性がある。そこで、実施形態2では、撮影時刻情報に基づいた関係率に加え、ユーザが選択したデジタルコンテンツの主被写体の映り込み時間に基づいて関連コンテンツを決定する。以下、図7および図8を用いて説明する。
図7は、実施形態2に係る関連コンテンツの選出方法を示すフローチャートである。このフローチャートは、図4で示すフローチャートのステップS45のタイミングで動作する。尚、図7において図6と同じ符号のステップは同じ処理であるため説明を省略する。
ステップS71では、処理対象コンテンツの仮想視点に選択コンテンツの主被写体が映り込む時間を算出する。表示画面生成部203は、ステップS61で取得した選択コンテンツのメタデータに含まれる被写体の位置情報と仮想視点情報を取得する。被写体の位置情報には、仮想視点の主被写体の位置情報が時系列で記されている。仮想視点情報には、仮想視点の位置及び姿勢が時系列で記されている。表示画面生成部203は、被写体の位置情報と仮想視点情報に基づいて、処理対象コンテンツの仮想視点に選択コンテンツの主被写体が映り込む時間を算出する。
図8は、主被写体の映り込み判定を示す模式図である。
仮想視点801は、処理対処コンテンツの仮想視点である。仮想視点801の撮影範囲802は、処理対象コンテンツの仮想視点情報に記される仮想視点の位置及び姿勢に基づいて特定できる。また、主被写体803は、選択コンテンツの主被写体である。選択コンテンツのメタデータに含まれる被写体の位置情報に基づいて決まる。
表示画面生成部203は、撮影範囲802に主被写体803が含まれるか否かで主被写体の映り込み判定を行う。図8の場合は、撮影範囲802に主被写体803が含まれるので映り込み有りと判定される。また、主被写体の映り込み判定は、S66で算出した重複時間に含まれるすべてのフレームで実施する。そして、映り込み有りと判定になったフレームの累積数を、主被写体の映り込み時間として決定する。
なお、ステップS71では、処理対象コンテンツの仮想視点に選択コンテンツの主被写体が映り込む時間を表示画面生成部203で算出したが、これに限定しない。例えば、被写体ごとに映り込み時間を算出した結果がメタデータに含まれていて、選択コンテンツの主被写体の映り込み時間を表示画面生成部203がメタデータから取得するものであってもよい。この場合、対象コンテンツの仮想視点に映るすべての被写体の映り込み時間がメタデータに含まれているものとする。映り込み時間の算出方法については、先述した図8を用いた処理方法と同様である。
ステップS72では、処理対象コンテンツを関連コンテンツとして決定する。そして、ステップS71で算出した主被写体の映り込み時間を関連コンテンツの識別番号に関連付けて、選出リストに記憶する。
ステップS73では、ステップS68で決定された関連コンテンツの総数が所定値以下であるか否かを判断する。所定値は、取引画面に表示できる関連コンテンツの数で決まる。関連コンテンツの総数が所定値より多い場合、ステップS74へ進む。総数が所定値以下の場合、このフローチャートを終了する。
ステップS74では、取引画面に表示できる関連コンテンツ数が上限値に収まるように、関連コンテンツの絞り込みを行う。表示画面生成部203は、ステップS72で生成した選出リストを解析し、関連コンテンツごとに優先順位を付加する。優先順位は、選出リストに記される関連コンテンツごとの主被写体の映り込み時間を比較し、決定する。例えば、主被写体の映り込み時間が長い関連コンテンツから上位になるように優先順位を付加する。
実施形態2によれば、選択コンテンツの主被写体が映り込んでいる関連コンテンツを取引画面に表示する。これにより、実施形態1と比べてより関係性の高い関連コンテンツを表示できるようになる。
(実施形態3)
実施形態1では、コンテンツリスト501からユーザが選択した選択コンテンツと関連コンテンツを表示した。しかしながら、ユーザは関連コンテンツが選択コンテンツとどのように関連しているのか容易に把握できない可能性がある。そこで実施形態3では、選択コンテンツと関連コンテンツを被写体の位置情報に基づいて仮想空間に配置した取引画像を生成する。なお、取引画像に限定せずに、ユーザの所有するデジタルコンテンツを表示する表示画面に用いてもよい。
次に実施形態3について図9から図11を用いて説明する。
図9は、S45で表示画面生成部203が生成する取引画面900の一例である。取引画面900は、バスケットコート901を斜め上方向からの視点で表示した表示画面である。バスケットコート901の上には、選手ごとのデジタルコンテンツ910―919が配置されている。デジタルコンテンツの画像表示領域102には仮想視点画像が表示される。また、図示していないが、デジタルコンテンツのいずれかの面には選手名が表示されるものとする。尚、表示画面はこれに限定せず、バスケットコート901の真上からの俯瞰視点などであってもよい。また、ユーザ操作によってバスケットコート901の視点を自由に変更できるものであってもよい。バスケットコート901は、デジタルコンテンツを配置する仮想空間を示す。仮想空間は、デジタルコンテンツに応じて変更され、サッカーの仮想視点画像を含むデジタルコンテンツの場合は、サッカーコートを仮想空間とする。テニスの仮想視点画像を含むデジタルコンテンツの場合は、テニスコートを仮想空間とする。また、本実施形態では、バスケットコート901は3次元モデルとするが、これに限定されず画像でも構わない。取引画面は再生用GUI920を更に表示する。
バスケットコート901上のデジタルコンテンツの中から所望の選手のデジタルコンテンツを選択すると、図10に示す取引画面900に切り替わる。例えば、図9の取引画面900でデジタルコンテンツ910を選択すると、時系列リスト1001が取引画面900に重畳して表示される。時系列リスト1001は、デジタルコンテンツ910の主被写体と同じ主被写体をターゲットとした他のデジタルコンテンツ1011-1016を時系列順に左側から並べたリストである。つまり、時系列リスト1001は、ユーザが選択したデジタルコンテンツの被写体に着目し、同じ試合において生成されたその被写体のデジタルコンテンツを一覧表示する。また、時系列リスト1001に表示するデジタルコンテンツはユーザが選択したデジタルコンテンツの主被写体であればよく、異なるシーンに対応するデジタルコンテンツを表示しても構わない。
表示画面生成部203は、メタデータ管理リストに記されるメタデータの被写体の識別情報に基づいて、同じ主被写体をターゲットとするデジタルコンテンツを選別する。そして、選別したデジタルコンテンツを、メタデータの撮影時刻情報に基づいて時系列順に並び替えて時系列リスト1001に表示する。
ユーザは、時系列リスト1001に表示されるデジタルコンテンツの中から所望のデジタルコンテンツを選択できる。例えば、時系列リスト1001には、ある選手が試合終了までに放ったすべてシュートのデジタルコンテンツが表示されているものとする。試合開始後15分に決まったダンクシュートのデジタルコンテンツがユーザの所望するものであるならば、ユーザはそのデジタルコンテンツを選択することができる。
時系列リスト1001に表示されるデジタルコンテンツを選択すると、図9の取引画面900に戻る。図9の取引画面900に戻る際、バスケットコート901上のデジタルコンテンツは更新される。例えば、デジタルコンテンツ910を選択して時系列リスト1001を表示した場合、デジタルコンテンツ910は時系列リスト1001で選択したデジタルコンテンツに置き換わる。また、デジタルコンテンツ910以外のデジタルコンテンツ911―919は、デジタルコンテンツ910の関連コンテンツとして処理される。デジタルコンテンツ911-919は、後述する関連コンテンツの選出方法に基づいて最適なデジタルコンテンツに置き換わる。
また、デジタルコンテンツの更新と同時に、更新後のデジタルコンテンツのメタデータに含まれる被写体の位置情報に基づいて、デジタルコンテンツを配置する。具体的には、被写体の3次元空間上の位置に対応する仮想空間上の位置に、デジタルコンテンツを配置する。その後、選択コンテンツの撮影時間を再生するように、デジタルコンテンツが移動する。具体的には、デジタルコンテンツ910の被写体の位置情報に基づいて、バスケットコート901上をデジタルコンテンツが移動する。その際、デジタルコンテンツ910の撮影時刻に同期するようにデジタルコンテンツ911-919が移動する。この時、関連コンテンツの撮影時刻が選択コンテンツの撮影時刻と重複していない時刻において、撮影時刻が重複している撮影時刻の中から最も近い撮影時刻における被写体の位置情報に基づいて、デジタルコンテンツを配置する。つまり、選択コンテンツの撮影時刻と重複していない時刻では関連コンテンツは移動せず、重複する時刻になると関連コンテンツが移動することになる。デジタルコンテンツ910の終了時刻まで再生したら、開始時刻から自動的に繰り返してもよい。
再生用GUI920は、選択コンテンツの撮影時間の再生および一時停止、撮影時間のシークバーを含む。ユーザは、選択コンテンツの撮影時間を再生することにより、選択コンテンツの被写体と関連コンテンツの被写体がどのように動く映像であるのか大まかに把握することができる。そのため、被写体間の位置関係や動きをより正確に把握できる。
また、デジタルコンテンツの画像表示領域102には、再生時刻に同期するように仮想視点画像が表示される。
尚、デジタルコンテンツ911-919のいずれかで、関連コンテンツが見つからなかった場合、該当するデジタルコンテンツの透明度を上げて薄く表示してもよい。
図11は、実施形態3に係る関連コンテンツの選出方法を示すフローチャートである。このフローチャートは、図4で示すフローチャートのステップS45のタイミングで動作する。尚、図11において図6および図7と同じ符号のステップは同じ処理であるため説明を省略する。
ステップS1100では、被写体(選手)ごとに割り当てる関連コンテンツを決定する。まず、ステップS72で生成された選出リストに記載の識別番号を用いて、関連コンテンツのメタデータをメタデータ管理リストから取得する。そして、メタデータに含まれる被写体の識別情報に基づいて、選出リストに記載の関連コンテンツを被写体の識別情報ごとのグループに分類する。その後、グループごとに関連コンテンツに紐づけられた主被写体の映り込み時間を比較する。比較した結果、主被写体の映り込み時間が最も長い関連コンテンツを、被写体に割り当てる関連コンテンツとして決定する。したがって、このステップの処理により、デジタルコンテンツ911-919に割り当てる関連コンテンツが決定する。
実施形態3によれば、デジタルコンテンツは対応する被写体の位置情報に基づいて移動する。これによりバスケットコート上における被写体の位置と、被写体のプレーを同時に把握できるようになる。また、被写体どうしの位置関係も把握できるようになる。
なお、本実施形態では、各コンテンツに対応する被写体の位置情報に基づいて、選択コンテンツと関連コンテンツを3次元空間上に配置したが、選択コンテンツと同じシーンに対応する関連コンテンツの数が少ない可能性が考えられる。そのような場合、関連コンテンツを表示せず、選択コンテンツの仮想視点画像の撮像範囲に含まれる被写体の位置情報を取得することにより、選択コンテンツに含まれる被写体どうしの位置関係を表示してもよい。具体的には、選択コンテンツの主被写体の位置とその他被写体の位置に簡易的な3次元形状モデルを配置する。このようにすることで、選択コンテンツの主被写体とその他被写体との位置関係が把握でき、ユーザが選択した選択コンテンツが所望のデジタルコンテンツか否かを判断するための情報をより詳細に提供できる。
なお、本実施形態におけるデジタルコンテンツが被写体を示す簡易的な3次元形状モデルである場合、被写体ごとに3次元形状モデルの色を変更してもよい。例えば、バスケットボールのデジタルコンテンツにおいて、被写体が所属するチームのチームカラーなどである。その場合、メタデータに被写体のチーム名を記録しておく。また、本実施形態におけるデジタルコンテンツが仮想視点画像の生成に用いる被写体の3次元形状モデルである場合、メタデータに撮影時刻に応じた被写体の形状情報を更に記録されているものとする。その場合、各デジタルコンテンツに対応する被写体の3次元形状モデルがバスケットコート状で動作を行うため、より具体的に被写体のプレーを把握できるようになる。
(その他の実施形態)
上述の実施形態では、バスケットボールの試合を撮影する場合を例示したが、撮影対象は必ずしもこれに限定されない。例えば、サッカー、ラグビー、テニス、アイススケート等の他のスポーツの試合や、ライブ、コンサート等の演奏の撮影にも、本実施形態を適用することができる。
上述の実施形態では、図5、図9、図10で示す画面を取引画面として説明したが、これに限定されない。例えば、ユーザが所有するデジタルコンテンツを表示するための表示画面としてもよい。
以上、本開示を複数の実施形態に基づいて詳述してきたが、本開示は上記実施形態に限定されるものではなく、本開示の主旨に基づき種々の変形が可能であり、それらを本開示の範囲から除外するものでない。
尚、本実施形態における制御の一部または全部を上述した実施形態の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して画像処理システム等に供給するようにしてもよい。そしてその画像処理システム等におけるコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、および該プログラムを記憶した記憶媒体は本開示を構成することとなる。
尚、本実施形態の開示は、以下の構成、方法およびプログラムを含む。
(装置1)
複数の撮像装置により撮像された複数の撮像画像に基づいて生成される仮想視点画像であって、1つの被写体と対応付けられた仮想視点画像を含む3次元オブジェクトを複数取得する取得手段と、
複数の前記3次元オブジェクトのうち、ユーザ操作に基づいて第1の3次元オブジェクトを特定する第1特定手段と、
複数の前記3次元オブジェクトのうち、仮想視点画像に対応する仮想カメラの撮像範囲に前記第1の3次元オブジェクトの仮想視点画像と対応付けられた被写体を含む仮想視点画像、を含む第2の3次元オブジェクトを特定する第2特定手段と、
前記第1の3次元オブジェクトと前記第2の3次元オブジェクトとを含む表示画像を生成する生成手段と、
を有することを特徴とする装置。
(装置2)
前記第1の3次元オブジェクトおよび前記第2の3次元オブジェクトは、仮想視点画像を表示する表示面を有する立体形状の3次元オブジェクトであることを特徴とする装置1に記載の装置。
(装置3)
前記第1の3次元オブジェクトは、前記第1の仮想視点画像に対応付けられた被写体を示す3次元形状モデルであり、
前記第2の3次元オブジェクトは、前記第2の仮想視点画像に対応付けられた被写体を示す3次元形状モデルであることを特徴とする装置1に記載の装置。
(装置4)
前記第1の3次元オブジェクトおよび前記第2の3次元オブジェクトは、メタデータが付与されていることを特徴とする装置1乃至3の何れか1項に記載の装置。
(装置5)
前記メタデータは、撮影時刻情報と、被写体の位置情報と、被写体の識別情報と、の少なくとも何れかが含まれることを特徴とする装置4に記載の装置。
(装置6)
前記第1の3次元オブジェクトおよび前記第2の3次元オブジェクトは、同じシーンを示す仮想視点画像を含むことを特徴とする装置1乃至5の何れか1項に記載の装置。
(装置7)
前記第2特定手段は、複数の前記3次元オブジェクトのうち、前記第1の3次元オブジェクトの仮想視点画像と対応付けられた被写体が仮想カメラの撮像範囲に含まれる時間に基づいて、前記第2の3次元オブジェクトを特定することを特徴とする装置1乃至6の何れか1項に記載の装置。
(装置8)
前記第2特定手段は、複数の前記3次元オブジェクトのうち、前記第1の3次元オブジェクトの撮影時刻情報に基づいて、撮影時刻が重複する割合が所定値より高い前記撮影時刻情報を有する前記第2の3次元オブジェクトを特定することを特徴とする装置5に記載の装置。
(装置9)
前記表示画像は、仮想空間を示す背景を含むことを特徴とする装置1乃至8の何れか1項に記載の装置。
(装置10)
前記背景は、バスケットコート、サッカーコート、テニスコートの少なくとも何れかであることを特徴とする装置9に記載の装置。
(装置11)
前記表示画像は、前記第1の3次元オブジェクトおよび前記第2の3次元オブジェクトの前記被写体の位置情報に基づいて、前記第1の3次元オブジェクトおよび前記第2の3次元オブジェクトを仮想空間に配置した画像であることを特徴とする装置5に記載の装置。
(装置12)
前記表示画像は、前記第1の3次元オブジェクトの仮想視点画像に対応付けられた被写体の3次元空間上の位置に対応する仮想空間上の位置に、前記第1の3次元オブジェクトを配置し、前記第2の3次元オブジェクトの仮想視点画像に対応付けられた被写体の3次元空間上の位置に対応する仮想空間上の位置に、前記第2の3次元オブジェクトを配置し、前記第1の3次元オブジェクトと前記第2の3次元オブジェクトを撮像範囲に含むような仮想カメラに対応する仮想視点画像であることを特徴とする装置11に記載の装置。
(装置13)
前記表示画面は、前記第1の3次元オブジェクトの前記撮影時刻情報に基づいて、前記第1の3次元オブジェクトの位置および前記第2の3次元オブジェクトの位置を変更することを特徴とする装置12に記載の装置。
(装置14)
前記表示画像は、仮想視点画像であって、
前記生成手段は、ユーザにより指定された仮想カメラの位置および向きに対応する仮想視点画像を生成することを特徴とする装置11に記載の装置。
(装置15)
複数の撮像装置により撮像された複数の撮像画像に基づいて生成される仮想視点画像であって、1つの被写体と対応付けられた仮想視点画像を含む3次元オブジェクトを取得する取得手段と、
複数の前記3次元オブジェクトのうち、ユーザ操作に基づいて第1の3次元オブジェクトを特定する第1特定工程と、
複数の前記3次元オブジェクトのうち、前記第1の3次元オブジェクトの仮想視点画像と同じシーンを示す仮想視点画像を含む第2の3次元オブジェクトを特定する第2特定工程と、
前記第1のオブジェクトの仮想視点画像に対応付けられた被写体の位置情報に基づいて仮想空間に配置された前記第1のオブジェクトと、前記第2のオブジェクトの仮想視点画像に対応付けられた被写体の位置情報に基づいて前記仮想空間に配置された前記第2のオブジェクトと、を含む仮想視点画像を生成する生成手段と
を有することを特徴とする装置。
(方法)
複数の撮像装置により撮像された複数の撮像画像に基づいて生成される仮想視点画像であって、1つの被写体と対応付けられた仮想視点画像を含む3次元オブジェクトを取得する取得工程と、
複数の前記3次元オブジェクトのうち、ユーザ操作に基づいて第1の3次元オブジェクトを特定する第1特定工程と、
複数の前記3次元オブジェクトのうち、仮想視点画像に対応する仮想カメラの撮像範囲に前記第1の3次元オブジェクトの仮想視点画像と対応付けられた被写体を含む仮想視点画像、を含む第2の3次元オブジェクトを特定する第2特定工程と、
前記第1の3次元オブジェクトと前記第2の3次元オブジェクトとを含む表示画像を生成する生成工程と、
を有することを特徴とする方法。
(プログラム)
装置1乃至14の何れか1項に記載の装置の各手段をコンピュータにより制御するためのコンピュータプログラム。
201 コンテンツ取得部
203 表示画像生成部
213 操作部
214 表示部

Claims (17)

  1. 複数の撮像装置により撮像された複数の撮像画像に基づいて生成される仮想視点画像であって、1つの被写体と対応付けられた仮想視点画像を含む3次元オブジェクトを複数取得する取得手段と、
    複数の前記3次元オブジェクトのうち、ユーザ操作に基づいて第1の3次元オブジェクトを特定する第1特定手段と、
    複数の前記3次元オブジェクトのうち、仮想視点画像に対応する仮想カメラの撮像範囲に前記第1の3次元オブジェクトの仮想視点画像と対応付けられた被写体を含む仮想視点画像、を含む第2の3次元オブジェクトを特定する第2特定手段と、
    前記第1の3次元オブジェクトと前記第2の3次元オブジェクトとを含む表示画像を生成する生成手段と、
    を有することを特徴とする画像処理装置。
  2. 前記第1の3次元オブジェクトおよび前記第2の3次元オブジェクトは、仮想視点画像を表示する表示面を有する立体形状の3次元オブジェクトであることを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1の3次元オブジェクトは、前記第1の仮想視点画像に対応付けられた被写体を示す3次元形状モデルであり、
    前記第2の3次元オブジェクトは、前記第2の仮想視点画像に対応付けられた被写体を示す3次元形状モデルであることを特徴とする請求項1に記載の画像処理装置。
  4. 前記第1の3次元オブジェクトおよび前記第2の3次元オブジェクトは、メタデータが付与されていることを特徴とする請求項1に記載の画像処理装置。
  5. 前記メタデータは、撮影時刻情報と、被写体の位置情報と、被写体の識別情報と、の少なくとも何れかが含まれることを特徴とする請求項4に記載の画像処理装置。
  6. 前記第1の3次元オブジェクトおよび前記第2の3次元オブジェクトは、同じシーンを示す仮想視点画像を含むことを特徴とする請求項1に記載の画像処理装置。
  7. 前記第2特定手段は、複数の前記3次元オブジェクトのうち、前記第1の3次元オブジェクトの仮想視点画像と対応付けられた被写体が仮想カメラの撮像範囲に含まれる時間に基づいて、前記第2の3次元オブジェクトを特定することを特徴とする請求項1に記載の画像処理装置。
  8. 前記第2特定手段は、複数の前記3次元オブジェクトのうち、前記第1の3次元オブジェクトの撮影時刻情報に基づいて、撮影時刻が重複する割合が所定値より高い前記撮影時刻情報を有する前記第2の3次元オブジェクトを特定することを特徴とする請求項5に記載の画像処理装置。
  9. 前記表示画像は、仮想空間を示す背景を含むことを特徴とする請求項1に記載の画像処理装置。
  10. 前記背景は、バスケットコート、サッカーコート、テニスコートの少なくとも何れかであることを特徴とする請求項9に記載の画像処理装置。
  11. 前記表示画像は、前記第1の3次元オブジェクトおよび前記第2の3次元オブジェクトの前記被写体の位置情報に基づいて、前記第1の3次元オブジェクトおよび前記第2の3次元オブジェクトを仮想空間に配置した画像であることを特徴とする請求項5に記載の画像処理装置。
  12. 前記表示画像は、前記第1の3次元オブジェクトの仮想視点画像に対応付けられた被写体の3次元空間上の位置に対応する仮想空間上の位置に、前記第1の3次元オブジェクトを配置し、前記第2の3次元オブジェクトの仮想視点画像に対応付けられた被写体の3次元空間上の位置に対応する仮想空間上の位置に、前記第2の3次元オブジェクトを配置し、前記第1の3次元オブジェクトと前記第2の3次元オブジェクトを撮像範囲に含むような仮想カメラに対応する仮想視点画像であることを特徴とする請求項11に記載の画像処理装置。
  13. 前記表示画面は、前記第1の3次元オブジェクトの前記撮影時刻情報に基づいて、前記第1の3次元オブジェクトの位置および前記第2の3次元オブジェクトの位置を変更することを特徴とする請求項12に記載の画像処理装置。
  14. 前記表示画像は、仮想視点画像であって、
    前記生成手段は、ユーザにより指定された仮想カメラの位置および向きに対応する仮想視点画像を生成することを特徴とする請求項11に記載の画像処理装置。
  15. 複数の撮像装置により撮像された複数の撮像画像に基づいて生成される仮想視点画像であって、1つの被写体と対応付けられた仮想視点画像を含む3次元オブジェクトを取得する取得手段と、
    複数の前記3次元オブジェクトのうち、ユーザ操作に基づいて第1の3次元オブジェクトを特定する第1特定工程と、
    複数の前記3次元オブジェクトのうち、前記第1の3次元オブジェクトの仮想視点画像と同じシーンを示す仮想視点画像を含む第2の3次元オブジェクトを特定する第2特定工程と、
    前記第1のオブジェクトの仮想視点画像に対応付けられた被写体の位置情報に基づいて仮想空間に配置された前記第1のオブジェクトと、前記第2のオブジェクトの仮想視点画像に対応付けられた被写体の位置情報に基づいて前記仮想空間に配置された前記第2のオブジェクトと、を含む仮想視点画像を生成する生成手段と
    を有することを特徴とする画像処理装置。
  16. 複数の撮像装置により撮像された複数の撮像画像に基づいて生成される仮想視点画像であって、1つの被写体と対応付けられた仮想視点画像を含む3次元オブジェクトを取得する取得工程と、
    複数の前記3次元オブジェクトのうち、ユーザ操作に基づいて第1の3次元オブジェクトを特定する第1特定工程と、
    複数の前記3次元オブジェクトのうち、仮想視点画像に対応する仮想カメラの撮像範囲に前記第1の3次元オブジェクトの仮想視点画像と対応付けられた被写体を含む仮想視点画像、を含む第2の3次元オブジェクトを特定する第2特定工程と、
    前記第1の3次元オブジェクトと前記第2の3次元オブジェクトとを含む表示画像を生成する生成工程と、
    を有することを特徴とする画像処理方法。
  17. 請求項1乃至14の何れか1項に記載の画像処理装置の各手段をコンピュータにより制御するためのコンピュータプログラム。
JP2022151518A 2022-09-22 2022-09-22 画像処理システム、画像処理方法及びコンピュータプログラム Pending JP2024046244A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022151518A JP2024046244A (ja) 2022-09-22 2022-09-22 画像処理システム、画像処理方法及びコンピュータプログラム
EP23194437.2A EP4342554A1 (en) 2022-09-22 2023-08-31 Image processing system, image processing method, and computer program
US18/462,159 US20240104832A1 (en) 2022-09-22 2023-09-06 Image processing system, image processing method, and storage media

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022151518A JP2024046244A (ja) 2022-09-22 2022-09-22 画像処理システム、画像処理方法及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2024046244A true JP2024046244A (ja) 2024-04-03

Family

ID=87889203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022151518A Pending JP2024046244A (ja) 2022-09-22 2022-09-22 画像処理システム、画像処理方法及びコンピュータプログラム

Country Status (3)

Country Link
US (1) US20240104832A1 (ja)
EP (1) EP4342554A1 (ja)
JP (1) JP2024046244A (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5945255B2 (ja) 2013-08-27 2016-07-05 日本電信電話株式会社 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム
JP2022028091A (ja) * 2018-12-19 2022-02-15 ソニーグループ株式会社 画像処理装置、画像処理方法、及び、プログラム
US20220084282A1 (en) * 2019-03-05 2022-03-17 Sony Group Corporation Image processing device, image generation method, and image processing method

Also Published As

Publication number Publication date
US20240104832A1 (en) 2024-03-28
EP4342554A1 (en) 2024-03-27

Similar Documents

Publication Publication Date Title
JP7132730B2 (ja) 情報処理装置および情報処理方法
JP6017223B2 (ja) ゲームシステム、ゲーム装置、及びプログラム
CN109889914A (zh) 视频画面推送方法、装置、计算机设备及存储介质
CN108886583A (zh) 用于通过数据网络向多个用户提供虚拟的摇摄-倾斜-缩放,ptz,视频功能的系统和方法
CN111770327B (zh) 信息处理装置、信息处理方法以及介质
JP2002518722A (ja) スポーツ競技の仮想観覧形成方法及び仮想観覧形成装置
JP6815156B2 (ja) 画像表示システムおよび画像表示プログラム
JP6032704B2 (ja) ゲームシステム、特典提供システム、及びプログラム
JP7202935B2 (ja) 注目度算出装置、注目度算出方法、および注目度算出プログラム
KR20140114548A (ko) 당구장 영상관리 시스템
US20230353717A1 (en) Image processing system, image processing method, and storage medium
JP6032705B2 (ja) ゲームシステム、表示制御システム、及びプログラム
JP6566799B2 (ja) 提供装置、提供方法、及びプログラム
WO2020017354A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2020137994A1 (ja) 映像配信装置、映像配信システム、映像配信方法及び映像配信プログラム
JP2024046244A (ja) 画像処理システム、画像処理方法及びコンピュータプログラム
KR101943554B1 (ko) 스포츠 경기 정보 제공 방법 및 시스템
KR20160114481A (ko) 객체 상태 저장 방식 게임 동영상 녹화 및 재생 방법
JP6994013B2 (ja) 映像配信システム、映像データ配信装置、映像データ配信装置制御プログラム及び映像データ配信方法
JP2020067716A (ja) 情報処理装置、制御方法、及びプログラム
WO2018155703A1 (ja) 映像配信システム、端末装置及び映像データ配信装置
WO2022070598A1 (ja) データ処理装置、データ処理方法、及びプログラム
WO2023127430A1 (ja) 情報処理装置、画像処理方法、プログラム
JP5954756B2 (ja) 動画再生システム
JP7204843B2 (ja) 送信装置および送信方法、プログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213