JP2020086700A - 画像処理装置、画像処理方法、プログラム、及び、表示装置 - Google Patents

画像処理装置、画像処理方法、プログラム、及び、表示装置 Download PDF

Info

Publication number
JP2020086700A
JP2020086700A JP2018217179A JP2018217179A JP2020086700A JP 2020086700 A JP2020086700 A JP 2020086700A JP 2018217179 A JP2018217179 A JP 2018217179A JP 2018217179 A JP2018217179 A JP 2018217179A JP 2020086700 A JP2020086700 A JP 2020086700A
Authority
JP
Japan
Prior art keywords
image
model
effect
unit
effect processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018217179A
Other languages
English (en)
Inventor
尚子 菅野
Naoko Sugano
尚子 菅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2018217179A priority Critical patent/JP2020086700A/ja
Priority to CN201980075004.7A priority patent/CN113170233A/zh
Priority to US17/289,129 priority patent/US11468653B2/en
Priority to KR1020217014000A priority patent/KR20210090180A/ko
Priority to PCT/JP2019/043359 priority patent/WO2020105422A1/en
Priority to EP19808916.1A priority patent/EP3884681A1/en
Publication of JP2020086700A publication Critical patent/JP2020086700A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/62Semi-transparency
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

【課題】見やすい画像を提供する。【解決手段】画像処理システムは、複数の視点から撮影された複数の視点画像から生成される複数の3Dモデルのうちの1つ以上の3Dモデルにエフェクト処理を行い、所定の視点からエフェクト処理後の複数の3Dモデルを見た2D画像を生成する。本技術は、例えば、自由視点画像を表示する場合等に適用することができる。【選択図】図1

Description

本技術は、画像処理装置、画像処理方法、プログラム、及び、表示装置に関し、特に、例えば、見やすい画像を提供することができるようにする画像処理装置、画像処理方法、プログラム、及び、表示装置に関する。
複数の時刻に撮影された被写体(像)が映るストロボ画像を生成する方法が提案されている(例えば、特許文献1を参照)。ストロボ画像には、複数の時刻の被写体が映るので、被写体の動きや軌跡を、容易に把握することができる。
特開2007-259477号公報
例えば、特に、長時間のフレーム(系列)に映る被写体を対象に、ストロボ画像を生成する場合、ストロボ画像が見にくい画像になることがある。
本技術は、このような状況に鑑みてなされたものであり、見やすい画像、例えば、見やすいストロボ画像等を提供することができるようにするものである。
本技術の画像処理装置、又は、プログラムは、複数の視点から撮影された複数の視点画像から生成される複数の3Dモデルのうちの1つ以上の3Dモデルにエフェクト処理を行うエフェクト処理部と、所定の視点から前記エフェクト処理後の前記複数の3Dモデルを見た2D画像を生成する生成部とを備える画像処理装置、又は、そのような画像処理装置としてコンピュータを機能させるためのプログラムである。
本技術の画像処理方法は、複数の視点から撮影された複数の視点画像から生成される複数の3Dモデルのうちの1つ以上の3Dモデルにエフェクト処理を行うことと、所定の視点から前記エフェクト処理後の前記複数の3Dモデルを見た2D画像を生成することとを含む画像処理方法である。
本技術の画像処理装置、画像処理方法、及び、プログラムにおいては、複数の視点から撮影された複数の視点画像から生成される複数の3Dモデルのうちの1つ以上の3Dモデルにエフェクト処理が行われ、所定の視点から前記エフェクト処理後の前記複数の3Dモデルを見た2D画像が生成される。
本技術の表示装置は、複数の視点から撮影された複数の視点画像から生成される複数の3Dモデルのうちの1つ以上の3Dモデルにエフェクト処理を行い、所定の視点から前記エフェクト処理後の前記複数の3Dモデルを見た2D画像を生成することにより得られる前記2D画像を受信する受信部と、前記2D画像を表示する表示部とを備える表示装置である。
本技術の表示装置においては、複数の視点から撮影された複数の視点画像から生成される複数の3Dモデルのうちの1つ以上の3Dモデルにエフェクト処理を行い、所定の視点から前記エフェクト処理後の前記複数の3Dモデルを見た2D画像を生成することにより得られる前記2D画像が受信されて表示される。
なお、画像処理装置や表示装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
また、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
本技術を適用した画像処理システムの一実施の形態の構成例を示すブロック図である。 画像処理システムが行う、自由視点画像を表示する自由視点画像表示処理の例を説明するフローチャートである。 不自然な自由視点画像の例を示す図である。 自然な自由視点画像の例を示す図である。 ストロボ区間のフレームを、所定のフレーム数ごとに、生成フレームに選択して生成されるストロボ画像の例を示す図である。 撮影部11で得られる複数の視点の視点画像の例を模式的に示す図である。 ストロボ画像生成部13での被写体の動きの判定の第1の判定方法を説明する図である。 ストロボ画像生成部13での被写体の動きの判定の第1の判定方法を説明する図である。 ストロボ画像生成部13での被写体の動きの判定の第2の判定方法を説明する図である。 ストロボ画像生成部13での被写体の動きの判定の第3の判定方法を説明する図である。 ストロボ画像生成部13での生成フレームの選択の例を説明する図である。 複数の生成フレームに映る被写体の3Dモデルを、本来の位置からずらして配置することにより生成されたストロボ画像の例を示す図である。 ストロボ画像において、エフェクト処理部14でのエフェクト処理の対象となる3Dモデルを説明する図である。 エフェクト処理の具体例を説明する図である。 エフェクトモード1のエフェクト処理の例を示す図である。 2つの被写体の3Dモデルが映るストロボ画像の例を示す図である。 エフェクトモード1のエフェクト処理の他の例を示す図である。 エフェクトモード2のエフェクト処理の例を示す図である。 エフェクトモード3のエフェクト処理の例を示す図である。 エフェクトモード4のエフェクト処理の例を示す図である。 エフェクトモード5のエフェクト処理の例を示す図である。 エフェクトモード6のエフェクト処理の例を示す図である。 エフェクトモード7ないし9のエフェクト処理の例を示す図である。 エフェクトモード10のエフェクト処理の例を示す図である。 画像処理システムを適用した伝送システムの構成例を示すブロック図である。 送信装置101の処理の例を説明するフローチャートである。 受信装置102の処理の例を説明するフローチャートである。 画像処理システムを適用した伝送システムの他の構成例を示すブロック図である。 送信装置101の処理の第1の例を説明するフローチャートである。 受信装置102の処理の第1の例を説明するフローチャートである。 送信装置101の処理の第2の例を説明するフローチャートである。 受信装置102の処理の第2の例を説明するフローチャートである。 本技術を適用した画像処理システムの他の一実施の形態の構成例を示すブロック図である。 自由視点画像を表示する自由視点画像表示処理の例を説明するフローチャートである。 画像処理システムを適用した伝送システムの構成例を示すブロック図である。 3Dモデルのサイズを変更するエフェクト処理を説明する図である。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
<本技術を適用した画像処理システム>
図1は、本技術を適用した画像処理システムの一実施の形態の構成例を示すブロック図である。
図1の画像処理システムでは、実写の画像から、仮想的な視点(仮想視点)から3次元空間の被写体を見たときの見え方が再現された自由視点画像を生成することができる自由視点データが生成される。そして、その自由視点データから、仮想視点から被写体を見たときの自由視点画像が生成されて表示される。
図1の画像処理システムは、撮影部11、自由視点データ生成部12、ストロボ画像生成部13、エフェクト処理部14、自由視点画像生成部15、及び、表示部16を有する。
撮影部11は、少なくとも複数のカメラで構成され、複数の視点から、被写体を撮影する。例えば、撮影部11を構成する複数のカメラは、被写体を囲むように配置され、各カメラは、そのカメラが配置された位置としての視点から、被写体を撮影する。各カメラにより、そのカメラの位置から撮影された2D(Dimensional)画像、すなわち、複数の視点から撮影された2D画像である複数の視点の視点画像(動画)は、フレーム単位で、撮影部11から自由視点データ生成部12に供給される。
ここで、撮影部11には、複数のカメラの他、複数の測距装置を設けることができる。測距装置は、カメラと同一の位置(視点)に配置することもできるし、カメラと異なる位置に配置することもできる。測距装置は、その測距装置が配置された位置(視点)から、被写体までの距離を測定し、その距離に関する情報であるデプスを画素値とする2D画像であるデプス画像を生成する。デプス画像は、撮影部11から自由視点データ生成部12に供給される。
なお、撮影部11に、測距装置が設けられていない場合には、複数の視点の視点画像のうちの2視点の視点画像を用いて、三角測量の原理により、被写体までの距離を測定し、デプス画像を生成することができる。
自由視点データ生成部12は、撮影部11からの複数の視点の視点画像とデプス画像とから、3D画像の自由視点データを、フレーム単位で生成する。
ここで、自由視点データとは、自由視点画像を生成することができる3D画像のデータである。自由視点データとしては、例えば、撮影部11からの複数の視点の視点画像とデプス画像とのセットを、そのまま採用することができる。また、自由視点データとしては、その他、例えば、3Dモデル(や背景画像等を含む3Dデータ)や、複数の視点の2D画像とデプス画像とのセットを採用することができる。
自由視点データとして、撮影部11からの複数の視点の視点画像とデプス画像とのセットを採用する場合、自由視点データ生成部12は、撮影部11からの複数の視点の視点画像とデプス画像とのセットを、自由視点データとして、ストロボ画像生成部13に供給する。
自由視点データとして、3Dモデルを採用する場合、自由視点データ生成部12は、撮影部11からの複数の視点の視点画像と、その複数の視点のデプス画像とを用いて、Visual Hull等によりモデリングを行って、視点画像に映る被写体の3Dモデルを生成し、その3Dモデル(を含む3Dデータ)を、自由視点データとして、ストロボ画像生成部13に供給する。なお、撮影部11からのデプス画像の視点が、撮影部11からの視点画像の視点と異なる場合、自由視点データ生成部12は、撮影部11からの複数の視点のデプス画像を用いて、撮影部11からの視点画像の視点のデプス画像を生成する。
自由視点データとして、複数の視点の2D画像とデプス画像とのセットを採用する場合、自由視点データ生成部12は、上述したように、視点画像に映る被写体の3Dモデルを生成し、その3Dモデルを、複数の視点(撮影部11を構成するカメラと同一の視点でも良いし、異なる視点でも良い)から見た2D画像とデプス画像とのセットを生成する。そして、自由視点データ生成部12は、3Dモデルから生成した複数の視点の2D画像とデプス画像とのセットを、自由視点データとして、ストロボ画像生成部13に供給する。
以下では、説明を簡単にするため、特に断らない限り、自由視点データとして、3Dモデル(を含む3Dデータ)を採用することとする。
なお、自由視点データとしては、3Dモデルよりも、その3Dモデルから生成された複数の視点の2D画像とデプス画像とのセットを採用することにより、自由視点データのデータ量を少なくすることができる。3Dモデルから複数の視点の2D画像とデプス画像とのセットを生成して伝送する技術については、本出願人が先に提案した国際公開2017/082076号に記載されている。3Dモデルから複数の視点の2D画像とデプス画像とのセットを生成する場合、その複数の視点の2D画像とデプス画像とのセットは、例えば、MVCD(Multiview and depth video coding)や、AVC(Advanced Video Coding)、HEVC(High Efficiency Video Coding)等の2D画像を対象とする符号化方式により符号化することができる。
ここで、3Dモデル(の表現形式)には、大きく分けて、View Independentと呼ばれるモデル(以下、VIモデルともいう)と、View Dependentと呼ばれるモデル(以下、VDモデルともいう)とがある。
VDモデルは、3次元の形状の情報である3D形状モデルと、テクスチャとなる画像の情報とが別になっている3Dモデルである。VDモデルでは、3D形状モデルに、テクスチャとなる画像がマッピング(テクスチャマッピング)されることにより、色が付される。VDモデルによれば、(仮想)視点によって異なるVDモデルとしての被写体の表面の反射の具合等を表現することができる。
VIモデルは、3D形状モデルの構成要素としてのポリゴンや点が、色の情報を有している3Dモデルである。VIモデルとしては、例えば、色付きのポイントクラウドや、3D形状モデルと、3D形状モデルの色の情報としてのUVマップとのセットがある。VIモデルによれば、どの(仮想)視点から見ても、ポリゴンや点が有する色が観測される。
ストロボ画像生成部13は、自由視点データ生成部12からの3D画像の自由視点データとしての3Dモデルを用い、複数の時刻(フレーム)の同一の被写体の3Dモデルが映る(配置された)3D画像のストロボ画像の自由視点データを生成し、エフェクト処理部14に供給する。
ここで、ストロボ画像とは、複数の時刻に撮影された1つ以上の同一の被写体(像)が映る画像である。2D画像に映る被写体が映るストロボ画像を、2Dストロボ画像ともいい、被写体の3Dモデルが映る3D画像のストロボ画像を、3Dストロボ画像ともいう。ストロボ画像生成部13は、3Dストロボ画像を生成する。ここでは、3D画像とは、3次元の広がりを持つ画像、すなわち、横及び縦の他、奥行にも広がりを持った画像を意味する。
なお、自由視点データが、複数の視点の視点画像及びデプス画像、又は、複数の視点の2D画像及びデプス画像である場合、ストロボ画像の生成では、その生成に用いる複数のフレームそれぞれごとにモデリングを行って、複数のフレームに映る被写体の3Dモデルを個別に生成することができる。そして、複数のフレームそれぞれの3Dモデルを背景画像(としての3次元空間)に合成することにより、ストロボ画像を生成することができる。又は、複数のフレームに映る被写体のシルエット画像を合成し、その合成により得られる合成シルエット画像を用いてモデリングを行って、複数のフレームそれぞれに映る被写体の3Dモデルを合成した、いわば合成3Dモデルを生成することができる。そして、その合成3Dモデルを背景画像に合成することにより、ストロボ画像を生成することができる。
エフェクト処理部14は、ストロボ画像生成部13から自由視点データが供給されるストロボ画像に映る3Dモデルにエフェクト処理を行い、そのエフェクト処理後のストロボ画像の自由視点データを、自由視点画像生成部15に供給する。
ここで、画像処理システムでは、ユーザの操作に応じて、仮想視点が設定され、エフェクト処理部14及び自由視点画像生成部15、その他の必要なブロックに供給される。エフェクト処理部14は、ストロボ画像に映る複数の時刻(フレーム)の3Dモデルのうちの、所定の時刻の3Dモデル、例えば、最新の仮想視点が設定された時刻の3Dモデルを基準3Dモデルとして、基準3Dモデルより過去及び未来のうちの一方又は両方の3Dモデルにエフェクト処理を行うことができる。基準3Dモデルとしては、最新の仮想視点が設定された時刻の3Dモデルの他、ユーザが指定した3Dモデル等を採用することができる。
なお、エフェクト処理部14は、例えば、ユーザの操作等に応じて、エフェクト処理を行わずに、ストロボ画像生成部121からの自由視点データを、自由視点画像生成部15に供給することができる。また、ストロボ画像生成部13は、例えば、ユーザの操作等に応じて、ストロボ画像を生成せずに、自由視点データ生成部12からの自由視点データを、エフェクト処理部14に供給することができる。ストロボ画像生成部13において、ストロボ画像が生成されない場合、エフェクト処理部14は、エフェクト処理を行わずに、ストロボ画像生成部121からの自由視点データを、自由視点画像生成部15に供給する。
自由視点画像生成部15は、エフェクト処理部14からの自由視点データを用いて、例えば、3Dモデルにエフェクト処理が行われたストロボ画像に映る3次元空間を仮想視点から見た2D画像(ここでは、左目用の2D画像及び右目用の2D画像のセットを含む)等の、撮影部11で撮影された3次元空間を仮想視点から見た2D画像(のデータ)を、自由視点画像(のデータ)として生成し、表示部16に供給する。
表示部16は、例えば、2Dのヘッドマウントディスプレイや、2Dのモニタ、3Dのヘッドマウントディスプレイ、3Dのモニタ等で構成され、自由視点画像生成部15からの自由視点画像を表示する。3Dのヘッドマウントディスプレイやモニタは、例えば、左目用の2D画像及び右目用の2D画像を表示することにより立体視を実現する表示装置である。
なお、画像処理システムは、例えば、クライアントとクラウドサーバ等とで構成されるサーバクライアントシステムで構成することができる。この場合、クラウドサーバには、自由視点データ生成部12ないし自由視点画像生成部15のうちの一部又は全部を設けることができる。クライアントには、自由視点データ生成部12ないし自由視点画像生成部15のうちの残りと、表示部16とを設けることができる。撮影部11は、任意の場所に配置し、撮影部11が出力する視点画像等は、自由視点データ生成部12に伝送することができる。
以上のように構成される画像処理システムによれば、例えば、サッカーや、ラグビー、野球、レスリング、ボクシング、柔道、ゴルフ、テニス、体操等の各種のスポーツを、視点画像として撮影し、特定の選手等の所定の被写体の3Dモデルが映るストロボ画像を生成することができる。この場合、特定の選手の3Dモデルが映るストロボ画像は、その特定の選手の運動の解析等のスポーツ解析に用いることができる。
図2は、図1の画像処理システムが行う、自由視点画像を表示する自由視点画像表示処理の例を説明するフローチャートである。
自由視点画像表示処理では、ステップS11において、撮影部11は、複数の視点から、被写体を撮影し、複数の視点の視点画像及びデプス画像をフレーム単位で得る。撮影部11は、複数の視点の視点画像及びデプス画像を、自由視点データ生成部12に供給し、処理は、ステップS11からステップS12に進む。
ステップS12では、自由視点データ生成部12は、撮影部11からの複数の視点の視点画像及びデプス画像等を用いて、視点画像に映る被写体のモデリングを行い、自由視点データとしての、例えば、被写体の3Dモデル等を、フレーム単位で生成する。自由視点データ生成部12は、自由視点データとしての被写体の3Dモデル(及び背景画像を含む3Dデータ)を、ストロボ画像生成部13に供給して、処理は、ステップS13に進む。
ステップS13では、ストロボ画像生成部13は、自由視点データ生成部12からの自由視点データとしての3Dモデルとなった被写体の動きを判定し、処理は、ステップS14に進む。
ステップS14では、ストロボ画像生成部13は、ストロボ画像を生成するかどうかを判定する。
ここで、ステップS14での、ストロボ画像を生成するかどうかの判定は、例えば、ステップS13で判定された被写体の動きに応じて行われる。被写体に動きがない場合、動きがない複数の時刻の被写体の3Dモデルが映るストロボ画像は、ほぼ同じ位置に、複数の時刻の被写体の3Dモデルが映り、見にくいストロボ画像となることがある。そこで、ステップS14では、被写体の動きがない場合には、ストロボ画像を生成しないと判定し、被写体の動きがある場合には、ストロボ画像を生成すると判定することができる。
なお、ステップS14での、ストロボ画像を生成するかどうかの判定は、その他、例えば、ユーザの操作に応じて行うことができる。
ステップS14において、ストロボ画像を生成しないと判定された場合、ストロボ画像生成部13及びエフェクト処理部14は、処理を行わずに、自由視点データを、自由視点画像生成部15に供給する。そして、処理は、ステップS14から、ステップS15ないしS18をスキップして、ステップS19に進む。
この場合、ステップS19では、自由視点画像生成部15は、エフェクト処理部14からの自由視点データを用いて、仮想視点から自由視点データとしての3Dモデルを見た2D画像を、自由視点画像として生成する。そして、自由視点画像生成部15は、自由視点画像を、表示部16に供給して、処理は、ステップS19からステップS20に進む。
ステップS20では、表示部16は、自由視点画像生成部15からの自由視点画像が表示される。この場合、表示部16では、仮想視点から見た被写体の3Dモデルが映る画像が表示される。
一方、ステップS14において、ストロボ画像を生成すると判定された場合、処理は、ステップS15に進む。
ステップS15では、ストロボ画像生成部13は、自由視点データ生成部12から供給される3Dモデルのフレームの中で、ストロボ画像の生成に用いるフレーム(以下、生成フレームともいう)を選択し、処理は、ステップS16に進む。
ここで、ストロボ画像の生成にあたっては、ユーザの操作等に応じて、3Dモデルとなる被写体が映る視点画像のフレームの系列について、ストロボ画像に映り得る被写体の先頭のフレーム(時刻)と終わりのフレームとが設定される。ストロボ画像に映り得る被写体の先頭のフレームから終わりのフレームまでの区間を、ストロボ区間ということとすると、ストロボ区間の全フレームを生成フレームとして、ストロボ画像の生成に用いると、ストロボ画像には、ストロボ区間のフレーム数と同一の数の、同一の被写体の3Dモデルが重なって映り、見にくい画像となることがある。
そこで、ストロボ画像生成部13は、ストロボ区間のフレームから、幾つかのフレームを生成フレームとして選択し、その生成フレーム(に映る被写体の3Dモデル)を用いて、ストロボ画像(の自由視点データ)を生成する。
ストロボ画像生成部13は、例えば、ストロボ区間のフレームから、3Dモデルの干渉度が閾値以下となるフレームを、生成フレームとして選択することができる。すなわち、ストロボ画像生成部13は、ストロボ区間のフレームに被写体が映る3次元空間での、その被写体の3Dモデルの重なり具合を表す干渉度を算出する。干渉度は、例えば、3次元空間において、任意の2フレームの3Dモデルが完全に重なる場合を100%とするとともに、まったく重ならない場合を0%として算出される。そして、ストロボ画像生成部13は、干渉度が0ないし10%等の所定の閾値以下のフレームを、生成フレームとして選択する。以上のように、ストロボ区間のフレームから、3Dモデルの干渉度が閾値以下となるフレームを、生成フレームとして選択し、その生成フレームの3Dモデルが映るストロボ画像を生成することにより、ストロボ画像において、3Dモデルが重なって映り、見にくい画像となることを抑制することができる。
なお、生成フレームの選択では、その他、例えば、単純に、ストロボ区間のフレームを、所定のフレーム数ごとに選択することができる。
ステップS16では、ストロボ画像生成部13は、ストロボ区間のフレームから選択された複数の生成フレームの3Dモデルが、その3Dモデルの被写体が映る3次元空間としての背景画像に映るストロボ画像を生成する。そして、ストロボ画像生成部13は、ストロボ画像を、エフェクト処理部14に供給し、処理は、ステップS16からステップS17に進む。ここで、複数の生成フレームに、1つの被写体だけが映る場合には、ストロボ画像生成部13は、その1つの被写体の3Dモデルが映るストロボ画像を生成する。また、複数の生成フレームに、複数の被写体が映る場合には、ストロボ画像生成部13は、その複数の被写体それぞれの3Dモデルが映るストロボ画像を生成することができる。但し、複数の生成フレームに、複数の被写体が映る場合には、ストロボ画像生成部13は、複数の生成フレームに映る複数の被写体のうちの、例えば、ユーザによって指定された1つ又は2つ以上の被写体の3Dモデルが映るストロボ画像を生成することができる。
ステップS17では、エフェクト処理部14は、ストロボ画像生成部13からのストロボ画像の3Dモデル(ストロボ画像に映る3Dモデル)に、エフェクト処理を行うかどうかを判定する。ステップS17での、ストロボ画像を生成するかどうかの判定は、例えば、ユーザの操作に応じて行うことができる。
ステップS17において、エフェクト処理を行わないと判定された場合、エフェクト処理部14は、エフェクト処理を行わずに、ストロボ画像生成部13からのストロボ画像を、自由視点画像生成部15に供給する。そして、処理は、ステップS17から、ステップS18をスキップして、ステップS19に進む。
この場合、ステップS19では、自由視点画像生成部15は、エフェクト処理部14からのストロボ画像を仮想視点から見た2D画像を、自由視点画像として生成する。そして、自由視点画像生成部15は、自由視点画像を、表示部16に供給して、処理は、ステップS19からステップS20に進む。
ステップS20では、表示部16は、自由視点画像生成部15からの自由視点画像が表示される。この場合、表示部16では、仮想視点から見た複数の生成フレームの被写体の3Dモデルが映る2D画像(3Dストロボ画像を仮想視点から見た2D画像)が表示される。
一方、ステップS17において、エフェクト処理を行うと判定された場合、処理は、ステップS18に進む。
ステップS18では、エフェクト処理部14は、ストロボ画像生成部13からのストロボ画像に映る複数の時刻(生成フレーム)の3Dモデルのうちの、最新の仮想視点が設定された時刻の基準3Dモデルより過去及び未来のうちの一方又は両方の3Dモデルにエフェクト処理を行う。そして、エフェクト処理部14は、エフェクト処理後の(3Dモデルが映る)ストロボ画像を、自由視点画像生成部15に供給して、処理は、ステップS18からステップS19に進む。
この場合、ステップS19では、自由視点画像生成部15は、エフェクト処理部14からのエフェクト処理後のストロボ画像を仮想視点から見た2D画像を、自由視点画像として生成する。そして、自由視点画像生成部15は、自由視点画像を、表示部16に供給して、処理は、ステップS19からステップS20に進む。
ステップS20では、表示部16は、自由視点画像生成部15からの自由視点画像が表示される。この場合、表示部16では、仮想視点から見た複数の生成フレームの被写体の3Dモデルが映り、かつ、その3Dモデルの幾つかにエフェクトがかかった2D画像(エフェクト処理が行われた3Dストロボ画像を仮想視点から見た2D画像)が表示される。
以上のように、3Dモデルにエフェクト処理を行うことにより、見やすい画像を提供することができる。特に、例えば、ストロボ画像に映る、複数の時刻の同一の被写体の3Dモデルの一部、又は、全部のそれぞれにエフェクト処理を行うことにより、見やすいストロボ画像を提供することができる。なお、ここでは、説明を分かりやすくするために、(3D)ストロボ画像を生成し、その後、ストロボ画像に映る3Dモデルにエフェクト処理を行うこととしたが、ストロボ画像の生成と、そのストロボ画像に映る3Dモデルに対するエフェクト処理とは、並列的に、又は、適宜順番を前後して行うことができる。例えば、画像処理システムでは、3Dモデルに対するエフェクト処理を行った後に、そのエフェクト処理後の3Dモデルが映るストロボ画像を生成することができる。
<ストロボ画像の生成>
図3は、不自然な自由視点画像の例を示す図である。
図3は、手前側から奥側に被写体としてのボールが転がっている様子を撮影した視点画像のフレームのうちの5フレームを生成フレームとして用いて生成された(3D)ストロボ画像から生成された自由視点画像の例を示している。
図3では、5フレームの生成フレームに映るボールの3Dモデルが、時間的に後の3Dモデルを優先するように配置(描画)されている。そのため、時間的に後の(ボールの)3Dモデルが、奥側に位置するのにもかかわらず、時間的に前の手前側の3Dモデルを隠すように配置されている。その結果、図3の自由視点画像は、不自然な画像になっている。
図4は、自然な自由視点画像の例を示す図である。
図4は、手前側から奥側に被写体としてのボールが転がっている様子を撮影した視点画像のフレームのうちの5フレームを生成フレームとして用いて生成された(3D)ストロボ画像から生成された自由視点画像の例を示している。
図4では、5フレームの生成フレームに映るボールの3Dモデルが、手前側の3Dモデルを優先するように配置されている。そのため、手前側の3Dモデルが奥側の3Dモデルを隠すように、すなわち、手前側の3Dモデルが優先的に映るように配置されている。その結果、自由視点画像は、自然な画像になっている。
ストロボ画像生成部13は、3Dモデルをデプス(奥行)を用いて、以上のような、自由視点画像において手前側の3Dモデルが優先的に映るストロボ画像を生成する。
図5は、ストロボ区間のフレームを、所定のフレーム数ごとに、生成フレームに選択して生成されるストロボ画像の例を示す図である。
図5は、手前側から奥側に被写体としてのボールが転がっている様子を撮影した視点画像のフレームのうちの8フレームを生成フレームとして用いて生成されたストロボ画像の例を示している。
ストロボ区間のフレームを、所定のフレーム数ごとに、生成フレームに選択し、その生成フレームを用いてストロボ画像を生成する場合、被写体の移動速度が変化すると、ストロボ画像に映る被写体の3Dモデルの間隔が変化する。例えば、図5に示すように、被写体の移動速度が、ある一定速度から低下すると、3Dモデルの間隔が狭くなり、3Dモデルどうしの重なり具合が大きくなって、見にくいストロボ画像になることがある。
図2で説明したように、ストロボ区間のフレームのうちの、3Dモデルの干渉度が閾値以下となるフレームを、生成フレームとして選択することにより、被写体の移動速度の変化によって被写体の3Dモデルの間隔が狭くなり、ストロボ画像が見にくくなることを抑制することができる。
なお、ストロボ区間のフレームのうちの、3Dモデルの干渉度が閾値以下となるフレームを、生成フレームとして選択するか、又は、所定のフレーム数ごとのフレームを、生成フレームとして選択するかは、例えば、ユーザの操作に応じて設定することができる。
<視点画像>
図6は、撮影部11で得られる複数の視点の視点画像の例を模式的に示す図である。
図6では、撮影部11は、6台のカメラで構成され、その6台のカメラが、被写体としての人物を取り囲むように配置されている。カメラは、被写体の周囲や天井に配置することができる。6台のカメラそれぞれは、被写体を同期して撮影し、その撮影の結果得られる2D画像を、カメラの位置を視点vp#iとする視点画像として出力する。視点vp#iは、撮影部11を構成する6台のカメラのうちのi番目のカメラの位置である。
図6では、6台のカメラから出力される6視点vp1ないしvp6の視点画像の8フレーム(時刻)が示されている。
自由視点データ生成部12では、例えば、以上のような6視点vp1ないしvp6の視点画像(のフレーム)の他、例えば、その6視点vp1ないしvp6のデプス画像、及び、撮影部11を構成する6台のカメラのカメラパラメータを用いて、視点画像に映る被写体の3Dモデルが生成される。
すなわち、自由視点データ生成部12は、例えば、視点vp#iの視点画像の前景背景差分を用いて、視点vp#iの視点画像に映る被写体のシルエット画像を求める。そして、自由視点データ生成部12は、視点vp#iのシルエット画像、視点vp#iの視点画像及びデプス画像、並びに、カメラパラメータを用い、Visual Hull等により、視点画像に映る被写体のモデリングを行い、その被写体の3Dモデルを生成する。
ここで、撮影部11を構成する6台のカメラのカメラパラメータは、カメラの焦点距離や、カメラどうしの位置関係、カメラの姿勢、カメラが有するレンズの歪み等の情報を含む。
また、シルエット画像を求めるための前景背景差分は、視点vp#iの視点画像の背景と、視点vp#iの視点画像との差分をとることにより求めることができる。視点vp#iの視点画像の背景は、被写体が存在しない状態で3次元空間を撮影することや、被写体の位置が異なる視点vp#iの視点画像の複数フレームを用いることにより生成することができる。
<被写体の動きの判定>
図7及び図8は、ストロボ画像生成部13での被写体の動きの判定の第1の判定方法を説明する図である。
図7は、第1の判定方法において、被写体の動きがあると判定される場合を示している。図8は、第1の判定方法において、被写体の動きがないと判定される場合を示している。
図7及び図8では、被写体としてのスケータが、スケートリンク内を滑っている。
撮影部11が、複数のカメラの他、測距装置としての、例えば、TOF(Time Of Fright)センサやLiDAR(Light Detection and Ranging)センサ等のアクティブセンサを有する場合には、そのアクティブセンサで測定(測距)された被写体までの距離d#jに応じて、被写体の動きを判定することができる。距離d#jは、複数のアクティブセンサのうちのj番目のアクティブセンサで測定された被写体までの距離を表す。
図7及び図8では、4台のアクティブセンサがスケートリンクの周囲に設けられている。被写体の動きの判定では、ストロボ画像生成部13は、4台のアクティブセンサが時刻(フレーム)tに測定した距離d1, d2, d3, d4と、時刻tとは異なる、例えば、時刻tの後の時刻t'に測定した距離d1, d2, d3, d4とを比較する。
そして、図7に示すように、距離d1ないしd4のうちの1つ以上の距離が、時刻tと時刻t'とで、所定の閾値以上異なる(変化している)場合、ストロボ画像生成部13は、被写体の動きがあると判定する。
一方、図8に示すように、距離d1ないしd4のいずれもが、時刻tと時刻t'とで、所定の閾値以上異ならない場合、ストロボ画像生成部13は、被写体の動きがないと判定する。
ここで、図7及び図8では、4台のアクティブセンサが設けられているが、アクティブセンサは、4台以外の複数台であっても良いし、1台であっても良い。
図9は、ストロボ画像生成部13での被写体の動きの判定の第2の判定方法を説明する図である。
第2の判定方法は、撮影部11が、アクティブセンサを有しない場合の被写体の動きを判定する方法の1つである。
第2の判定方法では、ストロボ画像生成部13は、撮影部11を構成するいずれかのカメラで撮影された視点画像の、例えば、ストロボ区間等の所定の区間のフレームを、数フレームだけ残すように間引く。さらに、ストロボ画像生成部13は、フレームの間引きを行った結果残った数フレームを、被写体の動きの判定に用いる判定フレームとして、判定フレームのシルエット画像を生成する。図9では、5フレームを判定フレームとして、シルエット画像が生成されている。
ストロボ画像生成部13は、複数の判定フレームのうちの任意の2フレームの判定フレームのシルエット画像の重なりを検出する。そして、例えば、2フレームの判定フレームの任意の1以上の組み合わせにおいて、シルエット画像に重なりがない場合、ストロボ画像生成部13は、被写体の動きがあると判定する。
一方、例えば、2フレームの判定フレームのすべての組み合わせにおいて、シルエット画像に重なりがある場合、ストロボ画像生成部13は、被写体の動きがないと判定する。
図9のAは、複数の判定フレームのうちの任意の2フレームのすべての組み合わせにおいて、シルエット画像に重なりがない場合を示している。図9のBは、複数の判定フレームのうちの任意の2フレームのすべての組み合わせにおいて、シルエット画像に重なりがある場合を示している。
図9のAに示すように、シルエット画像に重なりがない場合、被写体の動きがあると判定され、図9のBに示すように、シルエット画像に重なりがある場合、被写体の動きがないと判定される。
図10は、ストロボ画像生成部13での被写体の動きの判定の第3の判定方法を説明する図である。
第3の判定方法は、撮影部11が、アクティブセンサを有しない場合の被写体の動きを判定する方法の他の1つである。
撮影部11(のカメラ)において、視点画像が、透視投影で撮影されるとすると、視点画像において、奥側の被写体は小さいサイズで映り、手前側の被写体は大きいサイズで映る。したがって、例えば、被写体が手前側から奥側に移動している場合、その被写体のシルエット画像のサイズは、図10に示すように、被写体が奥側に移動するほど小さくなる。
第3の判定方法では、ストロボ画像生成部13は、複数の判定フレームに映る被写体のシルエット画像のサイズを検出する。そして、例えば、2フレームの判定フレームの任意の1以上の組み合わせにおいて、シルエット画像のサイズの変化が閾値以上である場合、ストロボ画像生成部13は、被写体の動きがあると判定する。
一方、例えば、2フレームの判定フレームのすべての組み合わせにおいて、シルエット画像のサイズの変化が閾値以上でない場合、ストロボ画像生成部13は、被写体の動きがないと判定する。
なお、第1ないし第3の判定方法によれば、被写体の3Dモデルを生成する前に、被写体の動きを判定することができる。被写体の動きの判定は、その他、例えば、デプス画像を生成した後や、ポイントクラウドやポリゴン等の3Dモデルを生成した後に、そのデプス画像や、3Dモデルの3次元空間内の位置に関する位置情報を用いて行うことができる。
また、被写体が人である場合には、視点画像から、顔検出等に用いられる人の顔の特徴点を検出し、ストロボ区間等の所定の区間のフレームに亘る特徴点の位置に応じて、被写体の動きを判定することができる。
さらに、被写体の動きベクトルを検出し、その動きベクトルに応じて、被写体の動きを判定することができる。
また、撮影部11で撮影される複数の視点の視点画像のうちの一部の視点の視点画像、例えば、30台のカメラで撮影された30視点の視点画像のうちの、4台のカメラで撮影された4視点の視点画像を用い、視点画像に映る被写体について、いわば簡易的な3Dモデルを生成し、その3Dモデル(の位置)を用いて、被写体の動きを判定することができる。
さらに、画像処理システムにおいて、視点画像に映る1又は複数の被写体を囲むバンディングボックスが設定される場合には、ストロボ区間等の所定の区間のフレームに亘るバンディングボックスの位置に応じて、被写体の動きを判定することができる。
<生成フレームの選択>
図11は、ストロボ画像生成部13での生成フレームの選択の例を説明する図である。
図2で説明したように、ストロボ画像(から生成される自由視点画像)が、3Dモデルが重なって見にくい画像となることを抑制するため、ストロボ画像生成部13は、ストロボ区間のフレームから、3Dモデルの干渉度が閾値以下となるフレームを、生成フレームとして選択し、その生成フレームの3Dモデルが映るストロボ画像を生成することができる。
図11のAは、閾値として0%が設定された場合の、スケータがスケートリンク内を滑っている様子のストロボ画像を示している。図11のAでは、閾値が0%であるため、ストロボ画像において、各時刻(生成フレーム)の被写体の3Dモデルは、重なりを有しない。
図11のBは、閾値として0%より大の小さい値(例えば、10%等)が設定された場合の、スケータがスケートリンク内を滑っている様子のストロボ画像を示している。図11のBでは、閾値が0%より大の値であるため、ストロボ画像において、各時刻の被写体の3Dモデルのうちの一部の3Dモデルは、隣の3Dモデルと多少の重なりを有している。
ここで、図1の画像処理システムは、自由視点データを送信側から受信側に伝送し、受信側において、ストロボ画像を生成して表示する伝送システムに適用することができる。この場合、送信側から受信側に、ストロボ画像での3Dモデルどうしの重なりである干渉を表す干渉フラグを送信することができる。そして、受信側では、干渉フラグに応じて、干渉(重なり)を有する3Dモデルが映るストロボ画像、又は、干渉を有しない3Dモデルが映るストロボ画像を生成することができる。干渉フラグとしては、例えば、干渉の有無を表す1ビットのフラグや、干渉度の閾値を採用することができる。
なお、画像処理システムでは、被写体の動きがない(と判定された)場合でも、ユーザの操作に応じて、ストロボ画像を生成することができる。被写体の動きがない場合、ストロボ区間のフレームに映る被写体の3Dモデルの干渉度は、どのフレームであっても大きくなって閾値以下にならないことがある。そこで、被写体の動きがない場合に、ストロボ画像を生成するときには、ストロボ区間のフレームから、所定のフレーム数ごとの(複数の)フレームを、生成フレームとして選択することができる。
但し、この場合、複数の生成フレームに映る被写体の3Dモデルをそのまま配置したストロボ画像は、3Dモデルが大きく重なって見にくい画像となる。
そこで、被写体の動きがない場合に、ストロボ画像を生成するときには、ストロボ画像生成部13において、複数の生成フレームに映る被写体(複数の時刻の被写体)の3Dモデルを、本来の位置(被写体の3次元空間内の位置)に配置するのではなく、干渉度が閾値以下となるように、本来の位置からずらして配置することができる。
図12は、複数の生成フレームに映る被写体の3Dモデルを、本来の位置からずらして配置することにより生成されたストロボ画像の例を示す図である。
図12では、被写体としてのスケータが、スケートリンクの中央でスピンを行っている様子を示しており、被写体としてのスケータは、ほとんど移動していない。
この場合、ストロボ画像生成部13は、3Dモデルの干渉度が閾値以下となるように、複数の生成フレームに映る被写体の3Dモデル(複数の時刻の3Dモデル)を、本来の位置からずらして配置し、ストロボ画像を生成することができる。
図12では、複数の生成フレームに映る被写体の3Dモデルが(生成フレームの)時刻順に円形状に配置されたストロボ画像や、直線状に配置されたストロボ画像が生成されている。
以上のように、ストロボ画像の生成において、3Dモデルの干渉度が閾値以下となるように、複数の生成フレームに映る被写体の3Dモデルを、本来の位置からずらして配置することにより、3Dモデルどうしが大きく重なり合って、ストロボ画像が見にくい画像になることを抑制することができる。
<エフェクト処理の対象となる3Dモデル>
図13は、ストロボ画像において、エフェクト処理部14でのエフェクト処理の対象となる3Dモデルを説明する図である。
エフェクト処理部14は、ストロボ画像において、ストロボ区間のフレームから選択された複数の時刻としての複数の生成フレームの3Dモデルのうちの、最新の仮想視点が設定された時刻の基準3Dモデルより過去及び未来のうちの一方又は両方の3Dモデルにエフェクト処理を行うことができる。
エフェクト処理を行う対象の3Dモデルである対象モデルは、基準3Dモデルに対する時間方向(過去方向及び未来方向)を表すエフェクト方向と、基準3Dモデルからの離れ具合を表すエフェクト距離とで特定される。
エフェクト方向としては、過去方向past、未来方向future、又は、過去方向past及び未来方向futureの両方を設定することができる。
エフェクト方向として、過去方向pastが設定された場合、基準3Dモデルから、過去方向の3Dモデルに、エフェクト処理が行われる。エフェクト方向として、未来方向futureが設定された場合、基準3Dモデルから、未来方向の3Dモデルに、エフェクト処理が行われる。エフェクト方向として、過去方向past及び未来方向futureが設定された場合、基準3Dモデルから、過去方向の3Dモデルと未来方向の3Dモデルとに、エフェクト処理が行われる。
エフェクト距離は、基準3Dモデルからの3Dモデルのモデル数number、距離distance、又は、時間timeで指定することができる。
モデル数numberによれば、ストロボ画像に映る3Dモデル、すなわち、ストロボ画像の生成に用いられる生成フレームに映る3Dモデルのうちの、基準3Dモデルから、モデル数number以上離れた3Dモデルを、対象モデルとして指定することができる。
距離distanceによれば、ストロボ画像に映る3Dモデルのうちの、基準3Dモデルから、距離distance以上離れた3Dモデルを、対象モデルとして指定することができる。
時間timeによれば、ストロボ画像に映る3Dモデルのうちの、基準3Dモデルから、時間time以上離れた3Dモデルを、対象モデルとして指定することができる。
エフェクト処理部14は、ストロボ画像において、基準3Dモデルから、モデル数number、距離distance、又は、時間time以上だけ、過去方向、未来方向、又は、過去と未来との両方向に離れた3Dモデルを対象モデルとして、エフェクト処理を行う。
以下では、説明を簡単にするため、特に断らない限り、エフェクト処理は、基準3Dモデルから過去方向の3Dモデルに行うこととする。
ここで、ストロボ区間が長く、多数のフレームが生成フレームとして選択される場合、ストロボ画像は、多数の3Dモデルを用いて生成される。
多数の3Dモデルを用いて生成されるストロボ画像は、見にくい画像になることがある。
例えば、多数の3Dモデルを用いて生成されるストロボ画像では、そのストロボ画像に映る所定の被写体の3Dモデルのうちの、基準3Dモデルから一定時間以上前の時刻の3Dモデルが、時間的に後行する(未来の)3Dモデルや、他の被写体の3Dモデルの(視聴の)妨げになることがある。
また、多数の3Dモデルを用いて生成されるストロボ画像では、被写体が同じような軌跡を描くように移動する場合、例えば、被写体が、鉄棒で、いわゆる大車輪(後方車輪又は前方車輪)を行っている場合、時間的に先行する(過去の)3Dモデルと、時間的に後行する3Dモデルとが、同じような軌跡を描くため、時間経過が分かりにくくなることがある。
さらに、多数の3Dモデルを用いて生成されるストロボ画像では、3Dモデルのデータ量が大になり、ストロボ画像(から生成される自由視点画像)を表示するのに要する処理量が大になる。
エフェクト処理部14は、ストロボ画像に映る3Dモデルにエフェクト処理を行うことで、見やすいストロボ画像を提供し、また、ストロボ画像のデータ量や、ストロボ画像の表示に要する処理量を削減する。
<エフェクト処理の具体例>
図14は、エフェクト処理の具体例を説明する図である。
図14では、エフェクト処理として、エフェクトモード0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10で表されるエフェクト処理がある。エフェクトモード1ないし10については、図13で説明したエフェクト方向及びエフェクト距離を設定することができる。
なお、エフェクト方向が設定されていない場合、エフェクト方向としては、デフォルトで、例えば、過去方向pastが設定されることとして、エフェクト処理が行われる。
エフェクト距離は、図13で説明したように、基準3Dモデルからの3Dモデルのモデル数number、距離distance、又は、時間timeで指定される。例えば、エフェクト方向が過去方向pastに設定され、エフェクト距離が、モデル数number=1に設定されている場合、基準3Dモデルから、モデル数number=1以上だけ、過去方向に離れた3Dモデルを対象モデルとして、エフェクトモードが表すエフェクト処理が行われる。
エフェクトモード0は、エフェクト処理を行わないこと表す。
エフェクトモード1は、3Dモデルを透明にするエフェクト処理を表す。エフェクトモード1のエフェクト処理では、対象モデルを、すべて同一の透明度の透明にすることもできるし、徐々に透明にすること、すなわち、基準3Dモデルから時間的又は距離的に離れた3Dモデル(対象モデル)ほど、透明度の高い透明にすることもできる。3Dモデルを、どのように透明にするかは、例えば、エフェクトモード1に付随するパラメータを定義し、そのパラメータによって指定することができる。なお、透明度を100%とする場合には、対象モデルは完全に透明になり、この場合、エフェクトモード1のエフェクト処理の結果は、実質的に、後述するエフェクトモード4と同様になる。
エフェクトモード2は、3Dモデルを、徐々に消滅させるエフェクト処理を表す。
エフェクトモード3は、3Dモデルのテクスチャ数(テクスチャとして使用する2D画像の数)を減らすエフェクト処理を表す。エフェクトモード3のエフェクト処理では、対象モデルのテクスチャ数を、すべて同一の数に減らすこともできるし、徐々に減らすこと、すなわち、基準3Dモデルから時間的又は距離的に離れた3Dモデルほど、テクスチャ数を減らすこともできる。3Dモデルのテクスチャ数をどのように減らすかは、例えば、エフェクトモード3に付随するパラメータを定義し、そのパラメータによって指定することができる。
なお、エフェクトモード3のエフェクト処理については、テクスチャマッピングが行われる3Dモデル、すなわち、VDモデルが対象となり、テクスチャマッピングが行われないVIモデルは対象とならない。
エフェクトモード4は、3Dモデルを消去するエフェクト処理を表す。
エフェクトモード5は、3Dモデルの輝度及び彩度の少なくとも一方を小さくするエフェクト処理を表す。エフェクトモード5のエフェクト処理では、対象モデルの輝度及び彩度を、すべて同一の割合だけ小さくすることもできるし、徐々に小さくすること、すなわち、基準3Dモデルから時間的又は距離的に離れた3Dモデルほど、輝度及び彩度を小さくする割合をより大きくすることもできる。3Dモデルの輝度及び彩度をどのように小さくするかや、輝度及び彩度のいずれを小さくするかは、例えば、エフェクトモード5に付随するパラメータを定義し、そのパラメータによって指定することができる。
エフェクトモード6は、ストロボ画像に映る3Dモデルの数を制限するエフェクト処理を表す。エフェクトモード6のエフェクト処理では、ストロボ画像に映る3Dモデルが、生成フレームの3Dモデルのうちの、対象モデル以外の3Dモデルだけに制限される。
エフェクトモード7は、3Dモデルをローポリゴンにするエフェクト処理、すなわち、3Dモデルのメッシュ数(ポリゴン数)を減らすエフェクト処理を表す。エフェクトモード7のエフェクト処理では、対象モデルのメッシュ数を、すべて同一の数に減らすこともできるし、徐々に減らすこと、すなわち、基準3Dモデルから時間的又は距離的に離れた3Dモデルほど、メッシュ数を減らすこともできる。3Dモデルのメッシュ数をどのように減らすかは、例えば、エフェクトモード7に付随するパラメータを定義し、そのパラメータによって指定することができる。
なお、エフェクトモード7のエフェクト処理については、ポリゴンで構成される3Dモデルが対象となり、ポリゴンで構成されない3Dモデル、すなわち、例えば、ワイヤーフレームは対象とならない。
エフェクトモード8及び9は、3Dモデルの表現形式を変更するエフェクト処理を表す。
すなわち、エフェクトモード8は、ポリゴンで構成される3Dモデルを、ワイヤフレームに変更するエフェクト処理を表す。
エフェクトモード9は、3Dモデルの表現形式をView DependentからView Independentに変更するエフェクト処理、すなわち、VDモデルをVIモデル(例えば、ポイントクラウド)に変更するエフェクト処理を表す。
エフェクトモード10は、3Dモデルを消去し、3Dモデルがあった形跡を残すエフェクト処理を表す。
エフェクトモード1ないし10については、エフェクト方向及びエフェクト距離を設定することができるが、必要に応じて、デフォルトのエフェクト方向及びエフェクト距離を定義しておくことができる。
例えば、エフェクトモード1ないし10のデフォルトのエフェクト方向としては、過去方向pastを定義しておくことができる。
また、例えば、エフェクトモード1のデフォルトのエフェクト距離としては、モデル数number=1を定義しておくことができる。
この場合、エフェクトモード1のエフェクト方向及びエフェクト距離が設定されていなければ、基準3Dモデルから過去方向に1モデル以上離れた3Dモデル、すなわち、基準3Dモデルの過去方向の次の3Dモデル以前の3Dモデルを対象モデルとして、エフェクトモード1のエフェクト処理が行われる。
さらに、例えば、エフェクトモード4のデフォルトのエフェクト距離としては、距離distance=5[m]を定義しておくことができる。
この場合、エフェクトモード4のエフェクト方向及びエフェクト距離が設定されていなければ、基準3Dモデルから過去方向に5m以上離れた3Dモデルを対象モデルとして、エフェクトモード4のエフェクト処理が行われる。
また、例えば、エフェクトモード5のデフォルトのエフェクト距離としては、時間time=10[sec]を定義しておくことができる。
この場合、エフェクトモード5のエフェクト方向及びエフェクト距離が設定されていなければ、基準3Dモデルから過去方向に10秒以上離れた3Dモデルを対象モデルとして、エフェクトモード5のエフェクト処理が行われる。
さらに、例えば、エフェクトモード7のデフォルトのエフェクト距離としては、モデル数number=3を定義しておくことができる。
この場合、エフェクトモード7のエフェクト方向及びエフェクト距離が設定されていなければ、基準3Dモデルから過去方向に3モデル以上離れた3Dモデル、すなわち、基準3Dモデルの過去方向の3番目の3Dモデル以前の3Dモデルを対象モデルとして、エフェクトモード7のエフェクト処理が行われる。
なお、エフェクト処理部14が行うエフェクト処理については、複数のエフェクトモードを設定することができる。例えば、エフェクト処理について、エフェクトモード1及び3が設定された場合、3Dモデルを透明にし、かつ、テクスチャ数を減らすエフェクト処理が行われる。
ここで、図1の画像処理システムは、自由視点データを送信側から受信側に伝送し、受信側において、ストロボ画像を生成して表示する伝送システムに適用することができる。この場合、送信側から受信側に、エフェクトモードと、必要なエフェクト方向及びエフェクト距離とを、エフェクト処理に関するエフェクトフラグ(エフェクト情報)として送信することができる。そして、受信側では、エフェクトフラグとしてのエフェクトモード、エフェクト方向、及び、エフェクト距離に従って、エフェクト処理を行うことができる。
図15は、エフェクトモード1のエフェクト処理の例を示す図である。
図15は、直線状に移動する被写体の3Dモデルが映るストロボ画像の例を示している。図15では、ストロボ画像には、5フレームの生成フレームの3Dモデルが映り、最新の時刻の3Dモデル(時刻が最も後の生成フレームの3Dモデル)が基準3Dモデルになっている。そして、ストロボ画像に映る3Dモデルに、エフェクトモード1のエフェクト処理が行われ、基準3Dモデルより過去の3Dモデルが、徐々に透明になっている。
したがって、エフェクトモード1のエフェクト処理が行われたストロボ画像によれば、ユーザは、時間経過を直感的に認識することができる。さらに、ストロボ画像のデータ量を削減することができる。また、時間的に先行する(過去の)3Dモデルが、時間的に後行する(未来の)3Dモデルの妨げ(邪魔)になることを抑制し、見やすいストロボ画像を提供することができる。
図16は、2つの被写体の3Dモデルが映るストロボ画像の例を示す図である。
図16では、2つの被写体A及びBの複数の時刻(生成フレーム)の3Dモデルが、ストロボ画像に映っている。そして、被写体Aの3Dモデルについては、図15の場合と同様に、エフェクトモード1のエフェクト処理が行われ、基準3Dモデルより過去の3Dモデルが、徐々に透明になっている。
図16において、被写体Bは、被写体Aの移動の軌跡に交差するように移動している。そのため、被写体Bの3Dモデルは、被写体Aの基準3Dモデルより過去の3Dモデルと重なることがある。
しかしながら、被写体Aの基準3Dモデルより過去の3Dモデルは、徐々に透明になっているため、被写体Bの3Dモデルが、被写体Aの基準3Dモデルより過去の3Dモデルと重なっても、その過去の3Dモデルが、被写体Bの3Dモデルの妨げになることを抑制することができる。
なお、図16では、被写体Aの3Dモデルのみに、エフェクト処理が行われ、被写体Bの3Dモデルには、エフェクト処理が行われていないが、エフェクト処理は、被写体Aの3Dモデル及び被写体Bの3Dモデルの両方に行うことが可能である。
図17は、エフェクトモード1のエフェクト処理の他の例を示す図である。
図17は、円形状に移動する被写体の3Dモデルが映るストロボ画像の例を示している。図17では、ストロボ画像に映る3Dモデルに、エフェクトモード1のエフェクト処理が行われ、基準3Dモデルより過去の3Dモデルが、徐々に透明になっている。
ここで、被写体が、円形状に、同じような軌跡を周回する場合、その被写体の3Dモデルが映るストロボ画像においては、例えば、1周目の3Dモデルと、2周目の3Dモデルとが映ることがある。エフェクト処理を行わない場合、ストロボ画像に映る1周目の3Dモデルと、2周目の3Dモデルとは、区別することが困難であり、ストロボ画像は、見にくい画像となる。
エフェクトモード1のエフェクト処理を行う場合には、例えば、最新の時刻の3Dモデルが基準3Dモデルであれば、ストロボ画像に映る3Dモデルは、基準3Dモデルから離れるほど透明になる。したがって、ユーザが1周目の3Dモデルと2周目の3Dモデルとを、容易に区別することができるような、見やすいストロボ画像を提供することができる。
また、エフェクトモード1のエフェクト処理によれば、同じような軌跡を周回する被写体の3Dモデルが映るストロボ画像において、最新の周回の3Dモデルが、過去の周回の3Dモデルに入り込む(ジャックインする)ように、被写体(の3Dモデル)が表現される。したがって、ユーザが、最新の周回時の被写体と過去の周回時の被写体とを、容易に比較することができるFVV(Free View video)を提供することができる。
なお、被写体が、同じような軌跡を周回する場合としては、例えば、被写体としての陸上選手がトラックを周回する場合や、被写体としての自動車やバイクがサーキットを周回する場合、被写体としての体操選手が鉄棒を中心に回転する場合等がある。
ここで、仮想視点は、任意の位置に設定することができるので、被写体を俯瞰するような位置の他、被写体の位置に設定することができる。仮想視点を、被写体を俯瞰するような位置に設定した場合、ユーザは、いわば第三者の立場で、被写体(の3Dモデル)を視聴することができる。仮想視点を、被写体の位置(一人称視点)に設定した場合、ユーザは、被写体の立場で、エフェクト処理により透明になった過去の被写体(の3Dモデル)を、その被写体を追いかけるような形で視聴することができる。
図18は、エフェクトモード2のエフェクト処理の例を示す図である。
図18は、直線状に移動する被写体の3Dモデルが映るストロボ画像の例を示している。図18では、ストロボ画像には、5フレームの生成フレームの3Dモデルが映り、最新の時刻の3Dモデルが基準3Dモデルになっている。そして、ストロボ画像に映る3Dモデルに、エフェクトモード2のエフェクト処理が行われ、基準3Dモデルより過去の3Dモデルが、徐々に(ふわっと)消滅している。
したがって、エフェクトモード2のエフェクト処理が行われたストロボ画像によれば、ユーザは、時間経過を直感的に認識することができる。さらに、ストロボ画像のデータ量を削減することができる。また、時間的に先行する3Dモデルが、時間的に後行する3Dモデルの妨げになることを抑制し、見やすいストロボ画像を提供することができる。
なお、3Dモデルがポリゴンで構成される場合、3Dモデルを徐々に消滅させるエフェクトモード2のエフェクト処理は、例えば、基準3Dモデルから離れた3Dモデルほど、ポリゴン数を少なくすることにより行うことができる。また、3Dモデルを徐々に消滅させるエフェクトモード2のエフェクト処理は、例えば、基準3Dモデルから離れた3Dモデルほど、ポリゴン数を少なくし、元のポリゴン数から所定の割合のポリゴン数になった3Dモデルについては、ポイントクラウドに変更し、基準3Dモデルから離れた3Dモデルほど、ポイント数(ポイントクラウドのポイントの数)を少なくすることにより行うことができる。さらに、3Dモデルを徐々に消滅させるエフェクトモード2のエフェクト処理は、例えば、3Dモデルを、ポイントクラウドに変更し、基準3Dモデルから離れた3Dモデルほど、ポイント数を少なくすることにより行うことができる。
3Dモデルがポイントクラウドで構成される場合、3Dモデルを徐々に消滅させるエフェクトモード2のエフェクト処理は、基準3Dモデルから離れた3Dモデルほど、ポイント数を少なくすることにより行うことができる。
以上のようなエフェクトモード2のエフェクト処理によれば、基準3Dモデルから離れた3Dモデルは、霧のように、疎らな粒子(パーティクル)の集まりとして表現される。
図19は、エフェクトモード3のエフェクト処理の例を示す図である。
図19は、直線状に移動する被写体の3Dモデルが映るストロボ画像の例を示している。図19では、ストロボ画像には、5フレームの生成フレームの3Dモデルが映り、最新の時刻の3Dモデルが基準3Dモデルになっている。そして、ストロボ画像に映る3Dモデルに、エフェクトモード3のエフェクト処理が行われ、基準3Dモデルより過去の3Dモデルのテクスチャ数が徐々に減っている。
したがって、エフェクトモード3のエフェクト処理が行われたストロボ画像によれば、3Dモデルのテクスチャの質は低下するが、ストロボ画像のデータ量、及び、ストロボ画像を表示するのに要する処理量を削減することができる。
なお、エフェクトモード3のエフェクト処理において、基準3Dモデルから離れた3Dモデルほど、テクスチャ数を減らす場合、テクスチャ数を減らす割合としては、例えば、100%を、ストロボ画像に映る3Dモデルの数で除算した値を採用することができる。この場合、5フレームの生成フレームの3Dモデルが映るストロボ画像については、テクスチャ数を減らす割合は、20%=100/5になる。したがって、ストロボ画像に映る基準3Dモデルが、例えば、10視点の視点画像でテクスチャマッピングされる場合、基準3Dモデルの過去方向の1番目の3Dモデルは、基準3Dモデルのテクスチャマッピングについての10視点から20%だけ減った8視点の視点画像でテクスチャマッピングされる。基準3Dモデルの過去方向の2番目の3Dモデルは、過去方向の1番目の3Dモデルのテクスチャマッピングについての8視点から20%だけ減った6視点の視点画像でテクスチャマッピングされる。以下、同様に、基準3Dモデルの過去方向の3番目の3Dモデルは、過去方向の2番目の3Dモデルのテクスチャマッピングについての6視点から20%だけ減った4視点の視点画像でテクスチャマッピングされ、基準3Dモデルの過去方向の4番目の3Dモデルは、過去方向の3番目の3Dモデルのテクスチャマッピングについての4視点から20%だけ減った2視点の視点画像でテクスチャマッピングされる。
図20は、エフェクトモード4のエフェクト処理の例を示す図である。
図20は、直線状に移動する被写体の3Dモデルが映るストロボ画像の例を示している。図20では、ストロボ画像には、5フレームの生成フレームの3Dモデルが映り、最新の時刻の3Dモデルが基準3Dモデルになっている。そして、ストロボ画像に映る3Dモデルに、エフェクトモード4のエフェクト処理が行われ、基準3Dモデルより過去の3Dモデルのうちの、例えば、基準3Dモデルから4番目の3Dモデルを対象モデルとして、対象モデルが表示されてから一定時間経過後に消去されている。
したがって、エフェクトモード4のエフェクト処理が行われたストロボ画像によれば、ストロボ画像のデータ量、及び、ストロボ画像を表示するのに要する処理量を削減することができる。
なお、エフェクトモード4のエフェクト処理において、対象モデルを表示してから消去するまでの一定時間は、例えば、エフェクトモード4に付随するパラメータを定義し、そのパラメータによって指定することができる。
また、エフェクトモード4のエフェクト処理では、対象モデルを、一定時間経過後に消去する他、ストロボ画像に映る3Dモデルが一定数になった場合に、対象モデルを消去することができる。対象モデルを消去するときの3Dモデルの一定数は、例えば、上述の一定時間と同様に、エフェクトモード4に付随するパラメータによって指定することができる。
図21は、エフェクトモード5のエフェクト処理の例を示す図である。
図21は、直線状に移動する被写体の3Dモデルが映るストロボ画像の例を示している。図21では、ストロボ画像には、5フレームの生成フレームの3Dモデルが映り、最新の時刻の3Dモデルが基準3Dモデルになっている。そして、ストロボ画像に映る3Dモデルに、エフェクトモード5のエフェクト処理が行われ、基準3Dモデルより過去の3Dモデルの輝度や彩度が徐々に小さくなっている。
したがって、エフェクトモード5のエフェクト処理が行われたストロボ画像によれば、ストロボ画像のデータ量、及び、ストロボ画像を表示するのに要する処理量を削減することができる。
なお、エフェクトモード5のエフェクト処理において、基準3Dモデルから離れた3Dモデルほど、輝度や彩度を小さくする場合、輝度や彩度を小さくする割合としては、例えば、エフェクトモード3の場合と同様の割合を採用することができる。すなわち、輝度や彩度を小さくする割合としては、100%を、ストロボ画像に映る3Dモデルの数で除算した値を採用することができる。この場合、5フレームの生成フレームの3Dモデルが映るストロボ画像については、輝度や彩度を小さくする割合は、20%=100/5になり、基準3Dモデルより過去の3Dモデルの輝度や彩度は、基準3Dモデルから1モデル離れるごとに、20%ずつ小さくされる。
また、3Dモデルの輝度や彩度は、基準3Dモデルから1モデル離れるごとに小さくする他、基準3Dモデルから一定時間だけ離れるごとに小さくすることができる。
図22は、エフェクトモード6のエフェクト処理の例を示す図である。
図22は、直線状に移動する被写体の3Dモデルが映るストロボ画像の例を示している。図22では、ストロボ画像には、5フレームの生成フレームの3Dモデルが映り、最新の時刻の3Dモデルの1モデル前の3Dモデルが基準3Dモデルになっている。そして、ストロボ画像に映る3Dモデルに、エフェクトモード6のエフェクト処理が行われ、ストロボ画像に映る3Dモデルが、基準3Dモデルを含む3モデル、すなわち、基準3Dモデルと、基準3Dモデルの過去方向に隣接する2個の3Dモデルとに制限されている。
したがって、エフェクトモード6のエフェクト処理が行われたストロボ画像によれば、ストロボ画像のデータ量を削減することができる。また、例えば、時間的に先行する3Dモデルが、時間的に後行する3Dモデルの妨げになることを抑制し、見やすいストロボ画像を提供することができる。
図23は、エフェクトモード7ないし9のエフェクト処理の例を示す図である。
図23は、直線状に移動する被写体の3Dモデルが映るストロボ画像の例を示している。図23では、ストロボ画像には、5フレームの生成フレームの3Dモデルが映り、最新の時刻の3Dモデルが基準3Dモデルになっている。そして、ストロボ画像に映る3Dモデルに、エフェクトモード7ないし9のいずれかのエフェクト処理が行われている。
すなわち、図23のAは、ストロボ画像に映る3Dモデルに、エフェクトモード7のエフェクト処理が行われ、ポリゴンで構成される3Dモデルのメッシュ数(ポリゴン数)が減っている様子を示している。
図23のBは、ストロボ画像に映る3Dモデルに、エフェクトモード8のエフェクト処理が行われ、ポリゴンで構成される3Dモデルがワイヤーフレームに変更されている様子を示している。
なお、エフェクトモード9のエフェクト処理では、ストロボ画像に映るVDモデルである3Dモデルが、ポイントクラウド等のVIモデルに変更されるが、その図示は省略する。
エフェクトモード7ないし9のエフェクト処理が行われたストロボ画像によれば、ストロボ画像のデータ量を削減することができる。また、例えば、時間的に先行する3Dモデルが、時間的に後行する3Dモデルの妨げになることを抑制し、見やすいストロボ画像を提供することができる。
なお、データ量をより削減することが要求される場合には、例えば、エフェクトモード9のエフェクト処理では、3Dモデルを、ポイントクラウドに変更した後、形状の質は低下するが、ポイントクラウドのポイント数を削減することや、ポイントが有する色の情報を削除することができる。ポイントクラウド以外のVIモデルについても、同様である。
図24は、エフェクトモード10のエフェクト処理の例を示す図である。
図24は、直線状に移動する被写体の3Dモデルが映るストロボ画像の例を示している。図24では、ストロボ画像には、5フレームの生成フレームの3Dモデルが映り、最新の時刻の3Dモデルが基準3Dモデルになっている。そして、ストロボ画像に映る3Dモデルに、エフェクトモード10のエフェクト処理が行われ、基準3Dモデルより過去の3Dモデルのうちの、基準3Dモデルから3番目と4番目との3Dモデルが消去され、3Dモデルがあった形跡としての影が残されている。
したがって、エフェクトモード10のエフェクト処理が行われたストロボ画像によれば、ユーザは、時間経過を直感的に認識することができる。さらに、ストロボ画像のデータ量を削減することができる。また、時間的に先行する(過去の)3Dモデルが、時間的に後行する(未来の)3Dモデルの妨げ(邪魔)になることを抑制し、見やすいストロボ画像を提供することができる。
なお、3Dモデルの形跡としては、影の他、例えば、3Dモデルがあった位置を表す点や、3Dモデルの動きの軌跡を表す線等を採用することができる。
また、エフェクトモード10のエフェクト処理において、3Dモデルの形跡は、3次元空間における3Dモデルの位置を記憶しておき、その位置に応じて、影等を描画することにより残すことができる。
<伝送システム>
図25は、図1の画像処理システムを適用した伝送システムの構成例を示すブロック図である。
図25において、伝送システムは、送信装置101と受信装置102とを有する。伝送システムでは、自由視点データが、送信装置101から受信装置102に送信(伝送)される。そして、受信装置102において、送信装置101からの自由視点データを用いて、ストロボ画像が生成されて表示される。
送信装置101は、撮影部111、自由視点データ生成部112、画像処理部113、符号化部114、及び、送信部115を有する。
撮影部111は、図1の撮影部11と同様に構成され、複数の視点から被写体を撮影し、複数の視点の視点画像を、自由視点データ生成部112に供給する。
自由視点データ生成部112は、図1の自由視点データ生成部12と同様に、例えば、撮影部111からの複数の視点の視点画像を用いて、自由視点データを生成し、画像処理部113に供給する。
画像処理部113は、ストロボ画像生成部121及びエフェクト処理部122を有し、自由視点データ生成部112からの自由視点データを用い、必要に応じて、撮影部111で撮影された視点画像の複数の時刻(フレーム)に映る被写体の3Dモデルが映るストロボ画像(3Dストロボ画像)を生成し、そのストロボ画像にエフェクト処理を行う。
ストロボ画像生成部121は、図1のストロボ画像生成部13と同様に、自由視点データ生成部12からの自由視点データを用い、複数の時刻の3Dモデルが映るストロボ画像を生成し、そのストロボ画像の自由視点データを、エフェクト処理部122に供給する。
エフェクト処理部122は、図1のエフェクト処理部14と同様に、ストロボ画像生成部121から自由視点データが供給されるストロボ画像に映る3Dモデルにエフェクト処理を行い、そのエフェクト処理後のストロボ画像の自由視点データを、符号化部114に供給する。
なお、画像処理部113では、例えば、ユーザの操作等に応じて、エフェクト処理部122でのエフェクト処理を行わずに、ストロボ画像生成部121からの自由視点データを、符号化部114に供給することができる。さらに、画像処理部113では、例えば、ユーザの操作等に応じて、ストロボ画像生成部121でのストロボ画像の生成、及び、エフェクト処理部122でのエフェクト処理を行わずに、自由視点データ生成部112からの自由視点データを、符号化部114に供給することができる。また、画像処理部113では、ストロボ画像の生成と、エフェクト処理とを並列的に行うこと、すなわち、自由視点データから、3Dモデルにエフェクト処理を行ったエフェクト処理後の(3D)ストロボ画像を生成することができる。
符号化部114は、画像処理部113(のエフェクト処理部122)から供給される自由視点データを所定の符号化方式で符号化し、符号化により得られる符号化データを、送信部115に供給する。
送信部115は、有線通信又は無線通信により、符号化部114からの符号化データを送信する。
受信装置102は、受信部131、復号部132、自由視点画像生成部133、及び、表示部134を有する。
受信部131は、送信装置101(の送信部115)から送信されてくる符号化データを受信し、復号部132に供給する。
復号部132は、受信部131からの符号化データを、符号化部114の符号化方式に従って、自由視点データに復号し、自由視点画像生成部133に供給する。
自由視点画像生成部133は、図1の自由視点画像生成部15と同様に、復号部132からの自由視点データを用いて、例えば、3Dモデルにエフェクト処理が行われたストロボ画像に映る3次元空間を受信装置102のユーザの操作等に応じて設定された仮想視点から見た2D画像等の、撮影部111で撮影された3次元空間を仮想視点から見た2D画像を、自由視点画像として生成し、表示部134に供給する。
表示部134は、図1の表示部16と同様に、2Dのヘッドマウントディスプレイや、2Dのモニタ、3Dのヘッドマウントディスプレイ、3Dのモニタ等で構成され、自由視点画像生成部133からの自由視点画像を表示する。
図26は、図25の送信装置101の処理の例を説明するフローチャートである。
ステップS111において、送信装置101の撮影部111は、複数の視点から被写体を撮影し、その撮影により得られる複数の視点の視点画像を、自由視点データ生成部112に供給して、処理は、ステップS112に進む。
ステップS112では、自由視点データ生成部112は、例えば、撮影部111からの複数の視点の視点画像を用いて、自由視点データを生成する。
例えば、自由視点データ生成部112は、撮影部111からの複数の視点の視点画像を用いて、Visual Hull等により、視点画像に映る被写体の3Dモデルを生成することにより、その3Dモデル(や背景画像等を含む3Dデータ)を、自由視点データとして生成することができる。3Dモデルは、例えば、3D形状モデルと、テクスチャとなる複数の視点の視点画像とを有するVDモデルであっても良いし、例えば、色付きのポイントクラウドや、3D形状モデルと、3D形状モデルの色の情報としてのUVマップとのセット等のVIモデルであっても良い。
また、例えば、自由視点データ生成部112は、複数の視点の視点画像を用いて生成した、視点画像に映る被写体の3Dモデルを、複数の視点(視点画像の視点と一致する視点でも良いし、異なる視点でも良い)から見た2D画像及びデプス画像に変換することにより、その複数の視点の2D画像及びデプス画像を、自由視点データとして生成することができる。なお、3Dモデルを、複数の視点の2D画像及びデプス画像に変換する処理は、自由視点データ生成部112で行う他、例えば、符号化部114で、自由視点データを符号化する前に行うことができる。
自由視点データ生成部112は、自由視点データを、画像処理部113のストロボ画像生成部121に供給し、処理は、ステップS112からステップS113に進む。
ステップS113では、ストロボ画像生成部121は、ストロボ画像を生成するかどうかを判定する。
ここで、ステップS113での、ストロボ画像を生成するかどうかの判定は、例えば、図2のステップS14と同様に、被写体の動きに応じて行うことができる。また、ステップS113での、ストロボ画像を生成するかどうかの判定は、例えば、送信装置101のユーザの操作に応じて行うことができる。
ステップS113において、ストロボ画像を生成しないと判定された場合、ストロボ画像生成部121及びエフェクト処理部122は、処理を行わずに、自由視点データを、符号化部114に供給する。そして、処理は、ステップS113から、ステップS114ないしS117をスキップして、ステップS118に進む。
また、ステップS113において、ストロボ画像を生成すると判定された場合、処理は、ステップS114に進む。
ステップS114では、ストロボ画像生成部121は、自由視点データ生成部112からの自由視点データを用いて、ストロボ画像を生成する。
すなわち、ストロボ画像生成部121は、自由視点データ生成部112からの自由視点データのフレームの中から、複数の生成フレームを選択する。さらに、ストロボ画像生成部121は、複数の生成フレームに映る被写体の3Dモデル(複数の時刻の3Dモデル)が映るストロボ画像を生成する。
ストロボ画像生成部121は、ストロボ画像の自由視点データを、エフェクト処理部122に供給し、処理は、ステップS114からステップS115に進む。
ステップS115では、エフェクト処理部122は、ストロボ画像生成部121から自由視点データが供給されるストロボ画像の3Dモデルに、エフェクト処理を行うかどうかを判定する。ステップS115での、ストロボ画像を生成するかどうかの判定は、例えば、送信装置101のユーザの操作等に応じて行うことができる。
ステップS115において、エフェクト処理を行わないと判定された場合、エフェクト処理部122は、エフェクト処理を行わずに、ストロボ画像生成部121からのストロボ画像の自由視点データを、符号化部114に供給する。そして、処理は、ステップS115から、ステップS116及びS117をスキップして、ステップS118に進む。
また、ステップS115において、エフェクト処理を行うと判定された場合、処理は、ステップS116に進む。
ステップS116では、エフェクト処理部122は、例えば、送信装置101のユーザの操作等に応じてエフェクトフラグ(図14)、すなわち、エフェクトモード、エフェクト方向、及び、エフェクト距離を設定し、処理は、ステップS117に進む。
ステップS117では、エフェクト処理部122は、エフェクトフラグに従い、ストロボ画像生成部121から自由視点データが供給されたストロボ画像に映る複数の時刻(生成フレーム)の3Dモデルにエフェクト処理を行う。
例えば、エフェクトモードがエフェクトモード1に、エフェクト方向がpastに、エフェクト距離が時間time=10に、それぞれ設定されている場合、エフェクト処理部122は、ストロボ画像において、基準3Dモデルから過去方向に10秒以上離れた3Dモデルを透明にするエフェクト処理を行う。
そして、エフェクト処理部122は、エフェクト処理後のストロボ画像の自由視点データを、符号化部114に供給して、処理は、ステップS117からステップS118に進む。
ステップS118では、符号化部114は、エフェクト処理部122からの自由視点データを符号化し、その符号化により得られる符号化データを、送信部115に供給して、処理は、ステップS119に進む。
ステップS119では、送信部115は、符号化部114からの符号化データを送信し、処理は終了する。
以上のように、送信装置101では、送信装置101のユーザの操作等に応じて設定されたエフェクトフラグに従って、エフェクト処理が行われる。したがって、送信装置101のユーザは、エフェクトフラグの設定によって、ストロボ画像に映る被写体の3Dモデルに、所望のエフェクトをかけることができる。
図27は、図25の受信装置102の処理の例を説明するフローチャートである。
ステップS131において、受信装置102の受信部131は、送信装置101の送信部115から送信されてくる符号化データを受信し、復号部132に供給して、処理は、ステップS132に進む。
ステップS132では、復号部132は、受信部131からの符号化データを復号し、その復号により得られる自由視点データを、自由視点画像生成部133に供給して、処理は、ステップS133に進む。ここで、復号部132は、復号により得られる自由視点データが、複数の視点の2D画像及びデプス画像である場合、その複数の視点の2D画像及びデプス画像を、3Dモデルに変換し、その3Dモデル(を含む3Dデータ)を、自由視点データとして、自由視点画像生成部133に供給することができる。
ステップS133では、自由視点画像生成部133は、復号部132からの自由視点データを用いて、送信装置101の撮影部111で撮影された3次元空間を受信装置102のユーザの操作等に応じて設定された仮想視点から見た2D画像を、自由視点画像として生成する。すなわち、自由視点画像生成部133は、例えば、3Dモデルにエフェクト処理が行われたストロボ画像に映る3次元空間を仮想視点から見た2D画像を、自由視点画像として生成する。そして、自由視点画像生成部133は、自由視点画像(のデータ)を、表示部134に供給し、処理は、ステップS133からステップS134に進む。
ステップS134では、表示部134は、自由視点画像生成部133からの自由視点画像を表示し、処理は終了する。
以上のように、受信装置102では、送信装置101からの符号化データを復号することにより得られる自由視点データを用いて生成された自由視点画像が表示される。したがって、送信装置101において、ストロボ画像が生成され、そのストロボ画像に映る被写体にエフェクト処理が行われている場合には、受信装置102のユーザは、エフェクトがかけられた3Dモデルが映るストロボ画像(から生成された自由視点画像)を視聴することができる。
図28は、図1の画像処理システムを適用した伝送システムの他の構成例を示すブロック図である。
なお、図中、図25の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
図28において、伝送システムは、送信装置101と受信装置102とを有する。送信装置101は、撮影部111、自由視点データ生成部112、符号化部114、及び、送信部115を有する。受信装置102は、受信部131、復号部132、自由視点画像生成部133、表示部134、及び、画像処理部141を有する。
したがって、図28の伝送システムは、送信装置101と受信装置102とを有する点、送信装置101が、撮影部111、自由視点データ生成部112、符号化部114、及び、送信部115を有する点、並びに、受信装置102が、受信部131、復号部132、自由視点画像生成部133、及び、表示部134を有する点で、図25の場合と共通する。
但し、図28の伝送システムは、送信装置101が画像処理部113を有していない点、及び、受信装置102が画像処理部141を新たに有する点で、図25の場合と相違する。
画像処理部141は、ストロボ画像生成部151及びエフェクト処理部152を有する。画像処理部141には、復号部132から自由視点データが供給される。画像処理部141は、復号部132からの自由視点データを用い、必要に応じて、撮影部111で撮影された視点画像の複数の時刻(フレーム)に映る被写体の3Dモデルが映るストロボ画像を生成し、そのストロボ画像にエフェクト処理を行う。
すなわち、ストロボ画像生成部151は、図25のストロボ画像生成部121と同様に、復号部132からの自由視点データを用い、複数の時刻の3Dモデルが映るストロボ画像を生成し、そのストロボ画像の自由視点データを、エフェクト処理部152に供給する。
エフェクト処理部152は、図25のエフェクト処理部122と同様に、ストロボ画像生成部151から自由視点データが供給されるストロボ画像に映る3Dモデルにエフェクト処理を行い、そのエフェクト処理後のストロボ画像の自由視点データを、自由視点画像生成部133に供給する。
なお、画像処理部141では、例えば、ユーザの操作等に応じて、エフェクト処理部152でのエフェクト処理を行わずに、ストロボ画像生成部151からの自由視点データを、自由視点画像生成部133に供給することができる。さらに、画像処理部141では、例えば、ユーザの操作等に応じて、ストロボ画像生成部151でのストロボ画像の生成、及び、エフェクト処理部152でのエフェクト処理を行わずに、復号部132からの自由視点データを、自由視点画像生成部133に供給することができる。また、画像処理部141では、ストロボ画像の生成と、エフェクト処理とを並列的に行うこと、すなわち、自由視点データから、3Dモデルにエフェクト処理を行ったエフェクト処理後の(3D)ストロボ画像を生成することができる。
図29は、図28の送信装置101の処理の第1の例を説明するフローチャートである。
ステップS151及びS152において、図26のステップS111及びS112とそれぞれ同様の処理が行われる。これにより、自由視点データ生成部112で生成された自由視点データが、符号化部114に供給され、処理は、ステップS152からステップS153に進む。
ステップS153では、符号化部114は、例えば、送信装置101のユーザの操作等に応じてエフェクトフラグ(図14)、すなわち、エフェクトモード、エフェクト方向、及び、エフェクト距離を設定し、処理は、ステップS154に進む。
ステップS154では、符号化部114は、自由視点データ生成部112からの自由視点データを符号化し、エフェクトフラグを含む符号化データを生成する。そして、符号化部114は、符号化データを、送信部115に供給して、処理は、ステップS154からステップS155に進む。
ステップS155では、送信部115は、符号化部114からの符号化データを送信し、処理は終了する。
以上のように、送信装置101では、送信装置101のユーザの操作等に応じて設定されたエフェクトフラグを含む符号化データを生成して送信することができる。
図30は、図28の受信装置102の処理の第1の例を説明するフローチャートである。
ステップS161において、受信装置102の受信部131は、送信装置101の送信部115から送信されてくる符号化データを受信し、復号部132に供給して、処理は、ステップS132に進む。
ステップS162では、復号部132は、受信部131からの符号化データを復号し、その復号により得られる自由視点データ及びエフェクトフラグを、画像処理部141に供給して、処理は、ステップS163に進む。
ステップS163では、画像処理部141のストロボ画像生成部151は、ストロボ画像を生成するかどうかを判定する。
ここで、ステップS163での、ストロボ画像を生成するかどうかの判定は、例えば、受信装置102のユーザの操作に応じて行うことができる。
ステップS163において、ストロボ画像を生成しないと判定された場合、ストロボ画像生成部151及びエフェクト処理部152は、処理を行わずに、自由視点データを、自由視点画像生成部133に供給する。そして、処理は、ステップS163から、ステップS164ないしS166をスキップして、ステップS167に進む。
また、ステップS163において、ストロボ画像を生成すると判定された場合、処理は、ステップS164に進む。
ステップS164では、ストロボ画像生成部151は、復号部132から画像処理部141に供給される自由視点データを用いて、ストロボ画像を生成する。
すなわち、ストロボ画像生成部151は、復号部132からの自由視点データのフレームの中から、複数の生成フレームを選択する。さらに、ストロボ画像生成部151は、複数の生成フレームに映る被写体の3Dモデル(複数の時刻の3Dモデル)が映るストロボ画像を生成する。
ストロボ画像生成部151は、ストロボ画像の自由視点データを、エフェクト処理部152に供給し、処理は、ステップS164からステップS165に進む。
ステップS165では、エフェクト処理部152は、ストロボ画像生成部151から自由視点データが供給されるストロボ画像の3Dモデルに、エフェクト処理を行うかどうかを判定する。ステップS165での、ストロボ画像を生成するかどうかの判定は、例えば、受信装置102のユーザの操作等に応じて行うことができる。
ステップS165において、エフェクト処理を行わないと判定された場合、エフェクト処理部152は、エフェクト処理を行わずに、ストロボ画像生成部151からのストロボ画像の自由視点データを、自由視点画像生成部133に供給する。そして、処理は、ステップS165から、ステップS166をスキップして、ステップS167に進む。
また、ステップS165において、エフェクト処理を行うと判定された場合、処理は、ステップS166に進む。
ステップS166では、エフェクト処理部152は、復号部132から画像処理部141に供給されるエフェクトフラグに従い、ストロボ画像生成部151から自由視点データが供給されたストロボ画像に映る複数の時刻(生成フレーム)の3Dモデルにエフェクト処理を行う。
例えば、エフェクトモードがエフェクトモード1に、エフェクト方向がpastに、エフェクト距離が時間time=10に、それぞれ設定されている場合、エフェクト処理部152は、ストロボ画像において、基準3Dモデルから過去方向に10秒以上離れた3Dモデルを透明にするエフェクト処理を行う。
そして、エフェクト処理部152は、エフェクト処理後のストロボ画像の自由視点データを、自由視点画像生成部133に供給して、処理は、ステップS166からステップS167に進む。
ステップS167では、自由視点画像生成部133は、画像処理部141(のエフェクト処理部152)からの自由視点データを用いて、送信装置101の撮影部111で撮影された3次元空間を受信装置102のユーザの操作等に応じて設定された仮想視点から見た2D画像を、自由視点画像として生成する。すなわち、自由視点画像生成部133は、例えば、3Dモデルにエフェクト処理が行われたストロボ画像に映る3次元空間を仮想視点から見た2D画像を、自由視点画像として生成する。そして、自由視点画像生成部133は、自由視点画像(のデータ)を、表示部134に供給し、処理は、ステップS167からステップS168に進む。
ステップS168では、表示部134は、自由視点画像生成部133からの自由視点画像を表示し、処理は終了する。
以上の処理により、受信装置102では、送信装置101のユーザの操作に応じて設定されたエフェクトフラグに従ってエフェクト処理が行われた3Dモデルが映るストロボ画像を表示することができる。
図31は、図28の送信装置101の処理の第2の例を説明するフローチャートである。
ステップS181及びS182において、図29のステップS151及びS152とそれぞれ同様の処理が行われる。これにより、自由視点データ生成部112で生成された自由視点データが、符号化部114に供給され、処理は、ステップS182からステップS183に進む。
ステップS183では、符号化部114は、自由視点データ生成部112からの自由視点データを符号化し、符号化データを生成する。そして、符号化部114は、符号化データを、送信部115に供給して、処理は、ステップS183からステップS184に進む。
ステップS184では、送信部115は、符号化部114からの符号化データを送信し、処理は終了する。
以上のように、図31では、図29の場合と異なり、送信装置101において、エフェクトフラグを含まない符号化データが生成されて送信される。
図32は、図28の受信装置102の処理の第2の例を説明するフローチャートである。
ステップS191において、受信装置102の受信部131は、送信装置101の送信部115から送信されてくる符号化データを受信し、復号部132に供給して、処理は、ステップS132に進む。
ステップS192では、復号部132は、受信部131からの符号化データを復号し、その復号により得られる自由視点データを、画像処理部141に供給して、処理は、ステップS193に進む。
ステップS193ないしS195では、図30のステップS163ないしS165とそれぞれ同様の処理が行われる。
そして、ステップS195において、エフェクト処理を行わないと判定された場合、エフェクト処理部152は、エフェクト処理を行わずに、ストロボ画像生成部151からのストロボ画像の自由視点データを、自由視点画像生成部133に供給する。そして、処理は、ステップS195から、ステップS196及びS197をスキップして、ステップS198に進む。
また、ステップS195において、エフェクト処理を行うと判定された場合、処理は、ステップS196に進む。
ステップS196では、エフェクト処理部152は、例えば、受信装置102のユーザの操作等に応じてエフェクトフラグ(図14)、すなわち、エフェクトモード、エフェクト方向、及び、エフェクト距離を設定し、処理は、ステップS197に進む。
ここで、受信装置102のユーザが、エフェクトフラグとしてのエフェクトモード、エフェクト方向、及び、エフェクト距離それぞれを個別に設定するように操作を行うことは、ユーザに煩わしさを感じさせることがある。そこで、エフェクト処理部152では、エフェクトフラグとしてのエフェクトモード、エフェクト方向、及び、エフェクト距離について、複数の組み合わせをエフェクト用のフィルタとして用意しておき、ステップS196では、受信装置102のユーザに、複数のエフェクト用のフィルタから、所望のフィルタを選択してもらい、その所望のフィルタを、エフェクトフラグとしてのエフェクトモード、エフェクト方向、及び、エフェクト距離として設定することができる。
ステップS197では、エフェクト処理部152は、受信装置102のユーザの操作に応じて設定されたエフェクトフラグに従い、ストロボ画像生成部151から自由視点データが供給されたストロボ画像に映る複数の時刻(生成フレーム)の3Dモデルにエフェクト処理を行う。
そして、エフェクト処理部152は、エフェクト処理後のストロボ画像の自由視点データを、自由視点画像生成部133に供給して、処理は、ステップS197からステップS198に進む。
ステップS198及びS199では、図30のステップS167及びS168とそれぞれ同様の処理が行われ、処理は終了する。
以上の処理により、受信装置102では、受信装置102のユーザの操作に応じて設定されたエフェクトフラグに従ってエフェクト処理が行われた3Dモデルが映るストロボ画像を表示することができる。
<本技術を適用した画像処理システム>
図33は、本技術を適用した画像処理システムの他の一実施の形態の構成例を示すブロック図である。
なお、図中、図1の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
図33において、画像処理システムは、撮影部11、自由視点データ生成部12、エフェクト処理部14、自由視点画像生成部15、及び、表示部16を有する。
したがって、図33の画像処理システムは、撮影部11、自由視点データ生成部12、エフェクト処理部14、自由視点画像生成部15、及び、表示部16を有する点で、図1の場合と共通する。但し、図33の画像処理システムは、ストロボ画像生成部33を有していない点で、図1の場合と相違する。
以上のように、図33の画像処理システムは、ストロボ画像生成部33を有しないので、エフェクト処理部14には、自由視点データ生成部12から3D画像の自由視点データが供給される。
そして、エフェクト処理部14は、自由視点データ生成部12から自由視点データが供給される3D画像に映る被写体の3Dモデルにエフェクト処理を行う。
例えば、エフェクト処理部14は、自由視点データ生成部12から自由視点データが供給される3D画像に複数の被写体が映る場合、その複数の被写体のうちの1以上の被写体の3Dモデルそれぞれにエフェクト処理を行うことができる。
したがって、エフェクト処理部14では、例えば、自由視点データ生成部12からエフェクト処理部14に自由視点データが供給される3D画像が、サッカーの試合のコンテンツの画像である場合に、その3D画像に映る複数の被写体としての、例えば、複数のサッカー選手や、ボールとそのボールの近くにいる1人以上のサッカー選手等の3Dモデルにエフェクト処理を行うことができる。
以上のように、エフェクト処理部14では、ストロボ画像以外の任意の3D画像に映る複数の被写体の3Dモデルのうちの1つ又は2つ以上の3Dモデル(3D画像に映る複数の被写体の3Dモデルの全部を含む)を対象に、エフェクト処理を行うことができる。
図34は、図33の画像処理システムが行う、自由視点画像を表示する自由視点画像表示処理の例を説明するフローチャートである。
自由視点画像表示処理では、ステップS211及びS212において、図2のステップS11及びS12とそれぞれ同様の処理が行われ、これにより、自由視点データ生成部12では、3D画像のフレーム単位の自由視点データとしての、例えば、被写体の3Dモデル(及び背景画像を含む3Dデータ)が生成される。3D画像の(フレーム単位の)自由視点データは、自由視点データ生成部12からエフェクト処理部14に供給され、処理は、ステップS212からステップS213に進む。
ステップS213では、エフェクト処理部14は、自由視点データ生成部12から自由視点データが供給された3D画像に映る3Dモデルに、エフェクト処理を行うかどうかを判定する。ステップS217での、ストロボ画像を生成するかどうかの判定は、例えば、ユーザの操作に応じて行うことができる。
ステップS213において、エフェクト処理を行わないと判定された場合、エフェクト処理部14は、エフェクト処理を行わずに、自由視点データ生成部12からの3D画像の自由視点データを、自由視点画像生成部15に供給する。そして、処理は、ステップS213から、ステップS214をスキップして、ステップS215に進む。
この場合、ステップS215では、自由視点画像生成部15は、エフェクト処理部14からの3D画像(の自由視点データ)を仮想視点から見た2D画像を、自由視点画像として生成する。そして、自由視点画像生成部15は、自由視点画像を、表示部16に供給して、処理は、ステップS215からステップS216に進む。
ステップS216では、表示部16は、自由視点画像生成部15からの自由視点画像が表示される。この場合、表示部16では、仮想視点から見た被写体の3Dモデルが映る2D画像(3D画像を仮想視点から見た2D画像)が表示される。
一方、ステップS213において、エフェクト処理を行うと判定された場合、処理は、ステップS214に進む。
ステップS214では、エフェクト処理部14は、自由視点データ生成部12から自由視点データが供給された3D画像に映る被写体の3Dモデルにエフェクト処理を行う。
ここで、エフェクト処理部14は、3D画像に、1つの被写体が映る場合、その1つの被写体の3Dモデルにエフェクト処理を行う。また、エフェクト処理部14は、3D画像に、複数の被写体が映る場合、その複数の被写体の3Dモデルから、1以上の被写体の3Dモデルを選択し、その1以上の被写体の3Dモデルそれぞれにエフェクト処理を行うことができる。エフェクト処理を行う3Dモデルは、例えば、ユーザの操作等に応じて選択することができる。
エフェクト処理部14は、エフェクト処理後の3Dモデルが映る3D画像を、自由視点画像生成部15に供給して、処理は、ステップS214からステップS215に進む。
この場合、ステップS215では、自由視点画像生成部15は、エフェクト処理部14からのエフェクト処理後の3Dモデルが映る3D画像を仮想視点から見た2D画像を、自由視点画像として生成する。そして、自由視点画像生成部15は、自由視点画像を、表示部16に供給して、処理は、ステップS215からステップS216に進む。
ステップS216では、表示部16は、自由視点画像生成部15からの自由視点画像が表示される。この場合、表示部16では、仮想視点から見た1以上の被写体の3Dモデルにエフェクトがかかった2D画像(エフェクト処理が行われた2D画像)が表示される。
以上のように、ストロボ画像以外の3D画像に映る複数の被写体の3Dモデルのうちの1以上の3Dモデルにエフェクト処理を行うことによっても、見やすい画像を提供することができる。例えば、上述したように、3D画像が、サッカーの試合のコンテンツの画像である場合に、その3D画像に映る複数の被写体としての、例えば、ゴールに絡んだ複数のサッカー選手や、ボールとそのボールの近くにいる1人以上のサッカー選手、ボールとパスを出したサッカー選手とパスを受けたサッカー選手等の3Dモデルにエフェクトがかかった画像を提供することができる。
<伝送システム>
図35は、図33の画像処理システムを適用した伝送システムの構成例を示すブロック図である。
なお、図中、図25の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
図35において、伝送システムは、送信装置101と受信装置102とを有する。送信装置101は、撮影部111、自由視点データ生成部112、画像処理部113、符号化部114、送信部115、及び、自由視点画像生成部211を有する。画像処理部113は、エフェクト処理部122を有する。受信装置102は、受信部131、復号部132、及び、表示部134を有する。
したがって、図35の伝送システムは、送信装置101と受信装置102とを有する点、送信装置101が、撮影部111、自由視点データ生成部112、画像処理部113、符号化部114、及び、送信部115を有する点、並びに、受信装置102が、受信部131、復号部132、及び、表示部134を有する点で、図25の場合と共通する。
但し、図28の伝送システムは、送信装置101の画像処理部113が、ストロボ画像生成部121を有していない点、送信装置101が、自由視点画像生成部211を新たに有する点、及び、受信装置102が、自由視点画像生成部133を有しない点で、図25の場合と相違する。
送信装置101では、撮影部111、自由視点データ生成部112、画像処理部113のエフェクト処理部122、及び、自由視点画像生成部211が、図33の撮影部11、自由視点データ生成部12、エフェクト処理部14、及び、自由視点画像生成部15とそれぞれ同様の処理を行う。
これにより、自習視点画像生成部211から符号化部114には、仮想視点から見た被写体の3Dモデルにエフェクトがかかった2D画像又はエフェクトがかかっていない2D画像が、自由視点画像として供給される。
符号化部114は、画像処理部113のエフェクト処理部122から供給される自由視点画像を所定の符号化方式で符号化し、符号化により得られる符号化データを、送信部115に供給する。送信部115は、有線通信又は無線通信により、符号化部114からの符号化データを送信する。
受信装置102(表示装置)では、受信部131が送信装置101(の送信部115)から送信されてくる符号化データを受信し、復号部132に供給する。
復号部132は、受信部131からの符号化データを自由視点画像に復号し、表示部134に供給する。表示部134は、復号部132からの自由視点画像を表示する。
受信装置102のユーザは、例えば、受信装置102を操作すること等により、仮想視点を指定することができる。受信装置102は、ユーザが指定した仮想視点を送信装置101に送信することができる。送信装置101では、自由視点画像生成部211が、受信装置102からの仮想視点に応じて、その仮想視点から見た2D画像としての自由視点画像を生成することができる。
<エフェクト処理のバリエーション>
エフェクト処理部14(並びにエフェクト処理部122及び152)が行うエフェクト処理としては、図14に示したエフェクトモード1ないし10のエフェクト処理以外の様々なエフェクト処理を採用することができる。
例えば、3Dモデルのサイズを変更する処理や、3Dモデルのテクスチャ(テクスチャマテリアル)を変更する処理、3Dモデルのテクスチャを削除する処理等を、エフェクト処理部14が行うエフェクト処理として採用することができる。さらに、例えば、3Dモデルの形状(3D形状モデル)をぼかす処理や、3Dモデルの色を変更する処理等を、エフェクト処理部14が行うエフェクト処理として採用することができる。これらのエフェクト処理についても、図14に示したエフェクトモード1ないし10のエフェクト処理と同様に、エフェクト方向及びエフェクト距離並びに必要なパラメータを設定することができる。
図36は、3Dモデルのサイズを変更するエフェクト処理を説明する図である。
3Dモデルのサイズを変更するエフェクト処理では、例えば、3Dモデルの重心等の所定の点を基準として、その3Dモデルのサイズを縮小又は拡大することができる。
ここで、サイズの変更前の3Dモデルが面に接する場合に、3Dモデルの重心を基準として、その3Dモデルのサイズを縮小又は拡大するだけでは、サイズの変更後の3Dモデルが、面から離れて空中に浮いたような状態になることや、面の中にめり込んだ状態になる。
すなわち、図36は、例えば、サッカーのグランドを転がるサッカーボールの3Dモデルが映る(3D)ストロボ画像を示している。
エフェクト処理において、サッカーボールの3Dモデルの重心を基準として、3Dモデルのサイズを縮小するエフェクト処理を行った場合、図36に示すように、サッカーボールの3Dモデルが、グランドから宙に浮かんだ状態となり、エフェクト処理後のストロボ画像が不自然な画像となる。
なお、エフェクト処理において、サッカーボールの3Dモデルの重心を基準として、3Dモデルのサイズを拡大するエフェクト処理を行った場合には、サッカーボールの3Dモデルが、グランドにめり込んだ状態となり、やはり、エフェクト処理後のストロボ画像が不自然な画像となる。
そこで、エフェクト処理部14は、3Dモデルのサイズを変更するエフェクト処理を行う場合において、サイズの変更前の3Dモデルが面に接するときには、図36に示すように、サイズの変更後の3Dモデルが面に接するように、サイズの変更後の3Dモデルを移動することができる。
これにより、エフェクト処理後のストロボ画像が不自然な画像となることを防止することができる。
(サイズの変更前の)3Dモデルが面に接する場合としては、上述のように、サッカーボールの3Dモデルがグランド等の地面に接する場合の他、3Dモデルが、床面やテーブルの天板に接する場合、壁や天井に接する場合等がある。
サイズの変更後の3Dモデルの移動は、サイズの変更前の3Dモデルが接する面に対して垂直方向に行われる。また、3Dモデルのサイズがs倍にされた場合、サイズの変更後の3Dモデルの重心と面との距離が、サイズの変更前のs倍になるように、サイズの変更後の3Dモデルが移動される。
<本技術を適用したコンピュータの説明>
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
図37は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示すブロック図である。
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク905やROM903に予め記録しておくことができる。
あるいはまた、プログラムは、ドライブ909によって駆動されるリムーバブル記録媒体911に格納(記録)しておくことができる。このようなリムーバブル記録媒体911は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブル記録媒体911としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブル記録媒体911からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク905にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
コンピュータは、CPU(Central Processing Unit)902を内蔵しており、CPU902には、バス901を介して、入出力インタフェース910が接続されている。
CPU902は、入出力インタフェース910を介して、ユーザによって、入力部907が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)903に格納されているプログラムを実行する。あるいは、CPU902は、ハードディスク905に格納されたプログラムを、RAM(Random Access Memory)904にロードして実行する。
これにより、CPU902は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU902は、その処理結果を、必要に応じて、例えば、入出力インタフェース910を介して、出力部906から出力、あるいは、通信部908から送信、さらには、ハードディスク905に記録等させる。
なお、入力部907は、キーボードや、マウス、マイク等で構成される。また、出力部906は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
なお、本技術は、以下の構成をとることができる。
<1>
複数の視点から撮影された複数の視点画像から生成される複数の3Dモデルのうちの1つ以上の3Dモデルにエフェクト処理を行うエフェクト処理部と、
所定の視点から前記エフェクト処理後の前記複数の3Dモデルを見た2D画像を生成する生成部と
を備える画像処理装置。
<2>
前記エフェクト処理部は、前記複数の3Dモデルのうちの所定の3Dモデルを透明にする前記エフェクト処理を行う
<1>に記載の画像処理装置。
<3>
前記エフェクト処理部は、前記複数の視点画像から生成される複数の時刻の所定の被写体の3Dモデルに前記エフェクト処理を行う
<1>又は<2>に記載の画像処理装置。
<4>
前記エフェクト処理部は、前記複数の時刻の所定の被写体の3Dモデルのうちの1つの基準モデルからの3Dモデルの数、距離、又は、時間で指定される前記所定の被写体の3Dモデルに前記エフェクト処理を行う
<3>に記載の画像処理装置。
<5>
前記エフェクト処理部は、複数のエフェクト処理から、前記3Dモデルに行う前記エフェクト処理を設定する
<1>ないし<4>のいずれかに記載の画像処理装置。
<6>
前記2D画像を表示する表示部をさらに備える
<1>ないし<5>のいずれかに記載の画像処理装置。
<7>
前記3Dモデルは、View Independentである
<1>ないし<6>のいずれかに記載の画像処理装置。
<8>
前記エフェクト処理部は、
前記3Dモデルのサイズを変更する前記エフェクト処理を行い、
前記サイズの変更前の前記3Dモデルが面に接する場合、前記サイズの変更後の前記3Dモデルが前記面に接するように、前記3Dモデルを移動する
<1>に記載の画像処理装置。
<9>
複数の視点から撮影された複数の視点画像から生成される複数の3Dモデルのうちの1つ以上の3Dモデルにエフェクト処理を行うことと、
所定の視点から前記エフェクト処理後の前記複数の3Dモデルを見た2D画像を生成することと
を含む画像処理方法。
<10>
複数の視点から撮影された複数の視点画像から生成される複数の3Dモデルのそれぞれにエフェクト処理を行うエフェクト処理部と、
所定の視点から前記エフェクト処理後の前記複数の3Dモデルを見た2D画像を生成する生成部と
して、コンピュータを機能させるためのプログラム。
<11>
複数の視点から撮影された複数の視点画像から生成される複数の3Dモデルのうちの1つ以上の3Dモデルにエフェクト処理を行い、
所定の視点から前記エフェクト処理後の前記複数の3Dモデルを見た2D画像を生成する
ことにより得られる前記2D画像を受信する受信部と、
前記2D画像を表示する表示部と
を備える表示装置。
<A1>
被写体が映る複数の視点の視点画像から生成される複数の時刻の被写体の3Dモデルが映るストロボ画像を生成するストロボ画像生成部と、
前記ストロボ画像に映る前記3Dモデルにエフェクト処理を行うエフェクト処理部と
を備える画像処理装置。
<A2>
前記ストロボ画像生成部は、手前側の3Dモデルが優先的に映るように、前記ストロボ画像を生成する
<A1>に記載の画像処理装置。
<A3>
前記エフェクト処理部は、前記3Dモデルを透明にする前記エフェクト処理を行う
<A1>又は<A2>に記載の画像処理装置。
<A4>
前記エフェクト処理部は、前記3Dモデルを徐々に消滅させる前記エフェクト処理を行う
<A1>又は<A2>に記載の画像処理装置。
<A5>
前記エフェクト処理部は、前記3Dモデルのテクスチャ数を減らす前記エフェクト処理を行う
<A1>又は<A2>に記載の画像処理装置。
<A6>
前記エフェクト処理部は、前記3Dモデルを消去する前記エフェクト処理を行う
<A1>又は<A2>に記載の画像処理装置。
<A7>
前記エフェクト処理部は、前記3Dモデルの輝度又は彩度を小さくする前記エフェクト処理を行う
<A1>又は<A2>に記載の画像処理装置。
<A8>
前記エフェクト処理部は、前記ストロボ画像に映る3Dモデルの数を制限する前記エフェクト処理を行う
<A1>又は<A2>に記載の画像処理装置。
<A9>
前記エフェクト処理部は、前記3Dモデルのメッシュ数を減らす前記エフェクト処理を行う
<A1>又は<A2>に記載の画像処理装置。
<A10>
前記エフェクト処理部は、前記3Dモデルの表現形式を変更する前記エフェクト処理を行う
<A1>又は<A2>に記載の画像処理装置。
<A11>
前記エフェクト処理部は、ポリゴンで構成される前記3Dモデルを、ワイヤフレームに変更する前記エフェクト処理を行う
<A10>に記載の画像処理装置。
<A12>
前記エフェクト処理部は、前記3Dモデルの表現形式をView DependentからView Independentに変更する前記エフェクト処理を行う
<A10>に記載の画像処理装置。
<A13>
前記エフェクト処理部は、前記3Dモデルを消去し、前記3Dモデルがあった形跡を残す前記エフェクト処理を行う
<A1>又は<A2>に記載の画像処理装置。
<A14>
前記エフェクト処理部は、前記ストロボ画像に映る前記3Dモデルのうちの、最新の仮想視点が設定された時刻の基準3Dモデルより過去又は未来の前記3Dモデルに前記エフェクト処理を行う
<A1>ないし<A13>のいずれかに記載の画像処理装置。
<A15>
前記エフェクト処理部は、前記ストロボ画像に映る前記3Dモデルのうちの、最新の仮想視点が設定された時刻の基準3Dモデルから所定のモデル数以上離れた前記3Dモデルに前記エフェクト処理を行う
<A1>ないし<A14>のいずれかに記載の画像処理装置。
<A16>
前記エフェクト処理部は、前記ストロボ画像に映る前記3Dモデルのうちの、最新の仮想視点が設定された時刻の基準3Dモデルから所定の距離以上離れた前記3Dモデルに前記エフェクト処理を行う
<A1>ないし<A14>のいずれかに記載の画像処理装置。
<A17>
前記エフェクト処理部は、前記ストロボ画像に映る前記3Dモデルのうちの、最新の仮想視点が設定された時刻の基準3Dモデルから所定の時間以上離れた時刻の前記3Dモデルに前記エフェクト処理を行う
<A1>ないし<A14>のいずれかに記載の画像処理装置。
<A18>
被写体が映る複数の視点の視点画像から生成される複数の時刻の被写体の3Dモデルが映るストロボ画像を生成することと、
前記ストロボ画像に映る前記3Dモデルにエフェクト処理を行うことと
を含む画像処理方法。
<A19>
被写体が映る複数の視点の視点画像から生成される複数の時刻の被写体の3Dモデルが映るストロボ画像を生成するストロボ画像生成部と、
前記ストロボ画像に映る前記3Dモデルにエフェクト処理を行うエフェクト処理部と
して、コンピュータを機能させるためのプログラム。
<A20>
被写体が映る複数の視点の視点画像から生成される複数の時刻の被写体の3Dモデルが映るストロボ画像の前記3Dモデルに行うエフェクト処理に関するエフェクトフラグを送信する送信部
を有する送信装置と、
前記エフェクトフラグを受信する受信部と、
前記ストロボ画像を生成するストロボ画像生成部と、
前記エフェクトフラグに従って、前記ストロボ画像に映る前記3Dモデルに前記エフェクト処理を行うエフェクト処理部と
を有する受信装置と
を備える伝送システム。
<B1>
被写体が映る複数の視点の視点画像から生成される複数の時刻の被写体の3Dモデルが映るストロボ画像に映る前記3Dモデルにエフェクト処理を行ったエフェクト処理後のストロボ画像を生成する
画像処理装置。
11 撮影部, 12 自由視点データ生成部, 13 ストロボ画像生成部, 14 エフェクト処理部, 15 自由視点画像生成部, 16 表示部, 101 送信装置, 102 受信装置, 111 撮影部, 112 自由視点データ生成部, 113 画像処理部, 114 符号化部, 115 送信部, 131 受信部, 132 復号部, 133 自由視点画像生成部, 134 表示部, 141 画像処理部, 151 ストロボ画像生成部, 152 エフェクト処理部, 901 バス, 902 CPU, 903 ROM, 904 RAM, 905 ハードディスク, 906 出力部, 907 入力部, 908 通信部, 909 ドライブ, 910 入出力インタフェース, 911 リムーバブル記録媒体

Claims (11)

  1. 複数の視点から撮影された複数の視点画像から生成される複数の3Dモデルのうちの1つ以上の3Dモデルにエフェクト処理を行うエフェクト処理部と、
    所定の視点から前記エフェクト処理後の前記複数の3Dモデルを見た2D画像を生成する生成部と
    を備える画像処理装置。
  2. 前記エフェクト処理部は、前記複数の3Dモデルのうちの所定の3Dモデルを透明にする前記エフェクト処理を行う
    請求項1に記載の画像処理装置。
  3. 前記エフェクト処理部は、前記複数の視点画像から生成される複数の時刻の所定の被写体の3Dモデルに前記エフェクト処理を行う
    請求項1に記載の画像処理装置。
  4. 前記エフェクト処理部は、前記複数の時刻の所定の被写体の3Dモデルのうちの1つの基準モデルからの3Dモデルの数、距離、又は、時間で指定される前記所定の被写体の3Dモデルに前記エフェクト処理を行う
    請求項3に記載の画像処理装置。
  5. 前記エフェクト処理部は、複数のエフェクト処理から、前記3Dモデルに行う前記エフェクト処理を設定する
    請求項1に記載の画像処理装置。
  6. 前記2D画像を表示する表示部をさらに備える
    請求項1に記載の画像処理装置。
  7. 前記3Dモデルは、View Independentである
    請求項1に記載の画像処理装置。
  8. 前記エフェクト処理部は、
    前記3Dモデルのサイズを変更する前記エフェクト処理を行い、
    前記サイズの変更前の前記3Dモデルが面に接する場合、前記サイズの変更後の前記3Dモデルが前記面に接するように、前記3Dモデルを移動する
    請求項1に記載の画像処理装置。
  9. 複数の視点から撮影された複数の視点画像から生成される複数の3Dモデルのうちの1つ以上の3Dモデルにエフェクト処理を行うことと、
    所定の視点から前記エフェクト処理後の前記複数の3Dモデルを見た2D画像を生成することと
    を含む画像処理方法。
  10. 複数の視点から撮影された複数の視点画像から生成される複数の3Dモデルのうちの1つ以上の3Dモデルにエフェクト処理を行うエフェクト処理部と、
    所定の視点から前記エフェクト処理後の前記複数の3Dモデルを見た2D画像を生成する生成部と
    して、コンピュータを機能させるためのプログラム。
  11. 複数の視点から撮影された複数の視点画像から生成される複数の3Dモデルのうちの1つ以上の3Dモデルにエフェクト処理を行い、
    所定の視点から前記エフェクト処理後の前記複数の3Dモデルを見た2D画像を生成する
    ことにより得られる前記2D画像を受信する受信部と、
    前記2D画像を表示する表示部と
    を備える表示装置。
JP2018217179A 2018-11-20 2018-11-20 画像処理装置、画像処理方法、プログラム、及び、表示装置 Pending JP2020086700A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2018217179A JP2020086700A (ja) 2018-11-20 2018-11-20 画像処理装置、画像処理方法、プログラム、及び、表示装置
CN201980075004.7A CN113170233A (zh) 2018-11-20 2019-11-06 图像处理装置、图像处理方法、程序以及显示装置
US17/289,129 US11468653B2 (en) 2018-11-20 2019-11-06 Image processing device, image processing method, program, and display device
KR1020217014000A KR20210090180A (ko) 2018-11-20 2019-11-06 화상 처리 디바이스, 화상 처리 방법, 프로그램, 및 표시 디바이스
PCT/JP2019/043359 WO2020105422A1 (en) 2018-11-20 2019-11-06 Image processing device, image processing method, program, and display device
EP19808916.1A EP3884681A1 (en) 2018-11-20 2019-11-06 Image processing device, image processing method, program, and display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018217179A JP2020086700A (ja) 2018-11-20 2018-11-20 画像処理装置、画像処理方法、プログラム、及び、表示装置

Publications (1)

Publication Number Publication Date
JP2020086700A true JP2020086700A (ja) 2020-06-04

Family

ID=68654834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018217179A Pending JP2020086700A (ja) 2018-11-20 2018-11-20 画像処理装置、画像処理方法、プログラム、及び、表示装置

Country Status (6)

Country Link
US (1) US11468653B2 (ja)
EP (1) EP3884681A1 (ja)
JP (1) JP2020086700A (ja)
KR (1) KR20210090180A (ja)
CN (1) CN113170233A (ja)
WO (1) WO2020105422A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019031259A1 (ja) * 2017-08-08 2019-02-14 ソニー株式会社 画像処理装置および方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004186994A (ja) * 2002-12-03 2004-07-02 Toshiba Corp オブジェクト画像合成方法、オブジェクト画像合成装置、オブジェクト画像合成プログラム
JP2008217593A (ja) * 2007-03-06 2008-09-18 Nippon Hoso Kyokai <Nhk> 被写体領域抽出装置及び被写体領域抽出プログラム
JP2008278386A (ja) * 2007-05-02 2008-11-13 Casio Comput Co Ltd 画像処理装置、撮影装置、画像処理方法及びプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6665342B1 (en) * 1999-07-02 2003-12-16 International Business Machines Corporation System and method for producing a still image representation of a motion video
US7522186B2 (en) * 2000-03-07 2009-04-21 L-3 Communications Corporation Method and apparatus for providing immersive surveillance
WO2001078050A2 (en) * 2000-04-07 2001-10-18 Inmotion Technologies Ltd. Automated stroboscoping of video sequences
EP1371019A2 (en) * 2001-01-26 2003-12-17 Zaxel Systems, Inc. Real-time virtual viewpoint in simulated reality environment
JP2007259477A (ja) 2002-09-30 2007-10-04 Toshiba Corp 画像合成方法、画像合成装置、画像合成プログラム
GB2400513B (en) 2003-03-14 2005-10-05 British Broadcasting Corp Video processing
GB2415344B (en) * 2004-06-14 2010-10-06 Canon Europa Nv Texture data compression and rendering in 3D computer graphics
US8441476B2 (en) * 2007-11-16 2013-05-14 Sportvision, Inc. Image repair interface for providing virtual viewpoints
US20130124148A1 (en) 2009-08-21 2013-05-16 Hailin Jin System and Method for Generating Editable Constraints for Image-based Models
JP2011082918A (ja) * 2009-10-09 2011-04-21 Sony Corp 画像処理装置および方法、並びにプログラム
US20120002112A1 (en) * 2010-07-02 2012-01-05 Sony Corporation Tail the motion method of generating simulated strobe motion videos and pictures using image cloning
US9210468B2 (en) * 2011-03-22 2015-12-08 Sony Corporation System and method for effectively implementing a stroboscopic visual effect
GB2502063A (en) * 2012-05-14 2013-11-20 Sony Corp Video cueing system and method for sporting event
BR112018009070A8 (pt) * 2015-11-11 2019-02-26 Sony Corp aparelhos de codificação e de decodificação, e, métodos para codificação por um aparelho de codificação e para decodificação por um aparelho de decodificação.
GB2558283B (en) * 2016-12-23 2020-11-04 Sony Interactive Entertainment Inc Image processing
US11665308B2 (en) * 2017-01-31 2023-05-30 Tetavi, Ltd. System and method for rendering free viewpoint video for sport applications
DK180470B1 (en) * 2017-08-31 2021-05-06 Apple Inc Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments
US10944954B2 (en) * 2018-02-12 2021-03-09 Wayfair Llc Systems and methods for scanning three-dimensional objects and materials

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004186994A (ja) * 2002-12-03 2004-07-02 Toshiba Corp オブジェクト画像合成方法、オブジェクト画像合成装置、オブジェクト画像合成プログラム
JP2008217593A (ja) * 2007-03-06 2008-09-18 Nippon Hoso Kyokai <Nhk> 被写体領域抽出装置及び被写体領域抽出プログラム
JP2008278386A (ja) * 2007-05-02 2008-11-13 Casio Comput Co Ltd 画像処理装置、撮影装置、画像処理方法及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"高度コンテンツ制作・機動的報道システムの実現", 研究年報 2006, JPN6022044928, 17 July 2013 (2013-07-17), pages 15ページ, ISSN: 0005112829 *
中野雄介外: "3次元モデルの圧縮品質とプリント品質の関係性評価", 2014年映像情報メディア学会冬季大会講演予稿集4−3, JPN6023029725, 26 November 2014 (2014-11-26), ISSN: 0005112831 *

Also Published As

Publication number Publication date
KR20210090180A (ko) 2021-07-19
CN113170233A (zh) 2021-07-23
EP3884681A1 (en) 2021-09-29
US20210383617A1 (en) 2021-12-09
US11468653B2 (en) 2022-10-11
WO2020105422A1 (en) 2020-05-28

Similar Documents

Publication Publication Date Title
US11217006B2 (en) Methods and systems for performing 3D simulation based on a 2D video image
US10810791B2 (en) Methods and systems for distinguishing objects in a natural setting to create an individually-manipulable volumetric model of an object
US11663778B2 (en) Method and system for generating an image of a subject from a viewpoint of a virtual camera for a head-mountable display
US8624962B2 (en) Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
US11508123B2 (en) Image processing device, encoding device, decoding device, image processing method, program, encoding method, and decoding method for processing multiple video camera image streams to generate stroboscopic images
JP7386888B2 (ja) 画面上の話者のフューショット合成
EP2378488A2 (en) Various methods and apparatuses for achieving augmented reality
US20130321396A1 (en) Multi-input free viewpoint video processing pipeline
US10546181B2 (en) Method and device for generating data for two-dimensional or three-dimensional depiction of at least part of an object and for generating the two-dimensional or three-dimensional depiction of the at least one part of the object
US11204495B2 (en) Device and method for generating a model of an object with superposition image data in a virtual environment
EP3396635A2 (en) A method and technical equipment for encoding media content
JP2019046077A (ja) オブジェクト情報の複数面への投影によって視点映像を合成する映像合成装置、プログラム及び方法
US20220114784A1 (en) Device and method for generating a model of an object with superposition image data in a virtual environment
US20220036644A1 (en) Image processing apparatus, image processing method, and program
WO2020166376A1 (ja) 画像処理装置、画像処理方法、及び、プログラム
EP3665656B1 (en) Three-dimensional video processing
RU2606875C2 (ru) Способ и система отображения масштабных сцен в режиме реального времени
JP6775669B2 (ja) 情報処理装置
JP2020086700A (ja) 画像処理装置、画像処理方法、プログラム、及び、表示装置
Rajan et al. A realistic video avatar system for networked virtual environments
JP7044846B2 (ja) 情報処理装置
EP3996075A1 (en) Image rendering system and method
WO2022224964A1 (ja) 情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230403

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230725