JP7109907B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP7109907B2
JP7109907B2 JP2017223080A JP2017223080A JP7109907B2 JP 7109907 B2 JP7109907 B2 JP 7109907B2 JP 2017223080 A JP2017223080 A JP 2017223080A JP 2017223080 A JP2017223080 A JP 2017223080A JP 7109907 B2 JP7109907 B2 JP 7109907B2
Authority
JP
Japan
Prior art keywords
virtual viewpoint
interest
image processing
image
shadow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017223080A
Other languages
English (en)
Other versions
JP2019095936A (ja
Inventor
州吾 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017223080A priority Critical patent/JP7109907B2/ja
Priority to US16/193,620 priority patent/US10986324B2/en
Priority to EP18206803.1A priority patent/EP3487176B1/en
Priority to KR1020180143082A priority patent/KR102342668B1/ko
Priority to CN201811382847.5A priority patent/CN109816766B/zh
Publication of JP2019095936A publication Critical patent/JP2019095936A/ja
Application granted granted Critical
Publication of JP7109907B2 publication Critical patent/JP7109907B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/62Semi-transparency
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Description

本発明は、複数の視点位置から撮像した複数視点画像に基づき、仮想視点からの画像を生成する技術に関するものである。
複数台の実カメラで撮影した画像を用いて、3次元空間内に仮想的に配置した実際には存在しないカメラ(仮想カメラ)からの画像を再現する技術として、仮想視点画像技術がある(特許文献1)。
仮想視点画像の生成において、設定された仮想視点の位置や視線方向によっては、ユーザが満足する高画質の仮想視点画像が得られないことがある。これは、仮想視点画像を生成するアルゴリズムや基になる複数視点画像の特性に起因する場合が多い。この点、予め仮想視点を設定できない領域や視線を向けられない方向をユーザに明示して、仮想視点の設定範囲に制限を加える技術が知られている(特許文献2)。
特開2010-20487号公報 特開2007-195091号公報
上記特許文献2のように仮想視点の設定範囲を制限すると、得られる仮想視点画像の表現力が不足する場合がある。仮想視点画像の生成においては、表現力を高めるために、画質を犠牲にしてでも特定の位置に仮想視点を設定し、ユーザが望む視線方向で特定のオブジェクトを注視したいというケースも存在する。例えば、サッカーの得点シーンについての仮想視点画像を生成する際には、シュートをした選手Aが例え他の選手Bや選手Cによって遮られてしまうようなアングルでも、当該アングルからの選手Aを中心とした仮想視点画像が欲しいという場合がある。そこで本発明は、注目オブジェクトが他のオブジェクトによって遮られてしまうような場合において、当該注目オブジェクトの視認性低下が抑制された仮想視点画像を生成することを目的とする。
本発明に係る画像処理装置は、複数のカメラが撮影対象領域を異なる方向から撮影することで得られる複数画像に基づいて仮想視点画像を生成する画像処理装置であって、前記撮影対象領域内の複数のオブジェクトのうちの注目オブジェクトを特定する特定手段と、仮想視点からの視野に含まれる前記注目オブジェクトが、仮想視点からの視野に含まれる他のオブジェクトにより遮蔽される場合、前記遮蔽による前記注目オブジェクトの視認性低下が抑制されるよう前記他のオブジェクトの表示態様を変更して、前記仮想視点に対応する仮想視点画像を生成する生成手段と、を備え、前記生成手段は、前記他のオブジェクトの影について表示する指定がない場合は、前記他のオブジェクトの影については前記変更に応じた表示態様で前記仮想視点画像を生成し、前記他のオブジェクトの影について表示する指定がある場合は、前記他のオブジェクトの影について前記注目オブジェクトの表示態様に応じた表示態様で前記仮想視点画像を生成する、ことを特徴とする。


本発明によれば、注目オブジェクトが他のオブジェクトによって遮られてしまうような場合において、当該注目オブジェクトの視認性低下が抑制された仮想視点画像を生成できる。
画像処理システムの撮像環境と構成を示す図 画像処理装置のハードウェア構成の一例を示す図 本実施形態に係る画像処理装置の機能ブロック図 仮想視点画像生成処理の全体の流れを示すフローチャート (a)はオブジェクト形状テーブルの一例、(b)は分類処理を行った後のオブジェクト形状テーブルの一例、(c)は注目フラグが追加設定されたオブジェクト形状テーブルの一例 注目オブジェクト設定画面の一例を示す図 (a)及び(b)ともに仮想視点画像の一例を示す図 レンダリング処理の詳細を示すフローチャート レンダリング部の内部構成を示すブロック図 遮蔽オブジェクト表示設定画面の一例を示す図 遮蔽オブジェクトの表示態様別の描画例を示す図 遮蔽オブジェクトの存在する範囲を示すUI画面の一例を示す図
以下、添付の図面を参照して、本発明を実施する形態について説明する。なお、以下の実施例において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
図1は、本実施形態における画像処理システムの撮像環境と構成を示す図である。図1に示す画像処理システムは、サッカー用のフィールド105を囲むように配置された10台のカメラ101により、フィールド105上にいる選手102及び103やボール104が撮影される。各カメラ101で撮影された画像データは、互いに視差のある複数視点画像データとして画像処理装置200に送られ、所定の画像処理が施されて仮想視点画像が生成される。本実施形態では、スポーツシーンを例にとって説明するが、以下で説明する手法は、被写体となる物体(オブジェクト)の周りを囲むように複数のカメラを配置して得られた複数視点画像から仮想視点画像を生成する場面において幅広く適用可能である。なお、図1ではカメラの数を10台としているが、この数に特に制限はない。ただし、四方の各辺に少なくとも複数台あることが望ましい。
画像処理装置200は、パーソナルコンピュータ等に代表される一般的な情報処理装置と同様の構成を備える。図2は、画像処理装置200のハードウェア構成の一例を示す図である。画像処理装置200は、CPU201、RAM202、ROM203、HDD204、入力I/F205、出力I/F206を有する。そして、画像処理装置200を構成する各部は、システムバス207によって相互に接続されている。また、画像処理装置200は、入力I/F205を介して、カメラ101、操作部210、外部メモリ211に接続されている。また、出力I/F206を介して、外部メモリ211及び表示装置212に接続されている。CPU201は、RAM202をワークメモリとして、ROM203に格納されたプログラムを実行し、システムバス207を介して画像処理装置200の各部を統括的に制御する。これにより、後述する様々な処理が実現される。HDD204は、画像処理装置200で取り扱う種々のデータを記憶する大容量記憶装置であり、例えばSSDなどでもよい。HDD204には、各カメラ101の設置位置や向き(視線方向)、並びに各カメラ101が備えるレンズの焦点距離等の情報(以下、これらの情報をまとめて「カメラパラメータ」と呼ぶ。)が保持されているものとする。また、HDD204には、上述の複数視点画像やオブジェクトのいない状態の画像(背景画像)のデータ保存にも利用される。CPU201は、システムバス207を介してHDD204へのデータの書き込み及びHDD204に記憶されたデータの読出しを行うことができる。入力I/F205は、例えばUSBやIEEE1394等のシリアルバスI/Fであり、外部装置から画像処理装置200へのデータや命令等の入力は、この入力I/F205を介して行われる。画像処理装置200は、この入力I/F205を介して、外部メモリ208(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリなどの記憶媒体)からデータを取得する。また、画像処理装置200は、この入力I/F205を介して、操作部210を用いて入力されたユーザによる命令を取得する。操作部210はマウスやキーボードなどの入力装置であり、ユーザの指示を処理装置200に入力するために用いられる。出力I/F206は、入力I/F205と同様にUSBやIEEE1394等のシリアルバスI/Fを備える。その他に、例えばDVIやHDMI等の映像出力端子を用いることも可能である。画像処理装置200から外部装置へのデータ等の出力は、この出力I/F206を介して行われる。画像処理装置200は、この出力I/F206を介して、液晶ディスプレイなどの表示装置209にGUI(グラフィカル・ユーザ・インタフェース)の画面表示や生成した仮想視点画像データの表示などを行う。なお、画像処理装置200の構成要素は上記以外にも存在するが、本発明の主眼ではないため、説明を省略する。
続いて、画像処理装置200で行う一連の画像処理について説明する。図3は、本実施形態に係る画像処理装置200の機能ブロック図である。本実施形態における画像処理装置200は、画像データ取得部301、カメラパラメータ取得部302、形状データ生成部303、オブジェクト分類部304、注目オブジェクト設定部305、仮想カメラ設定部306、レンダリング部307で構成される。これら各部は、画像処理装置200のCPU201が所定のアプリケーションプログラムを実行することにより実現される。ただし、図3に示す構成の一部をハードウェアで実現しても構わない。各部の詳細については後述するが、本実施形態の特徴を分かりやすく説明すると、以下の通りである。
位置及び視線方向が既知の複数のカメラ101で撮影された複数視点画像から、例えば特許文献1にて開示された方法を用いることで、撮影シーン内の人物やボールといったオブジェクトの3次元形状を表す形状情報を得る。3次元空間でのオブジェクトの形状が定義できるわけであるから、カメラ101毎の撮像画像に対応するデプス画像を演算によって求めることができる。なお、デプス画像とは、カメラの視点とオブジェクトの表面上の点との間の距離を表す画素の集合である。また、同じ理由で、カメラ101が存在しない任意の視点(仮想視点)からの視線方向のデプス画像も生成できる。そのデプス画像における画素の色は、現実の撮像画像における対応する位置の画素値から求めることができる。通常、デプス画像上の任意の位置Pの色を決定する場合には、位置Pをデプス画像として持つ仮想視点に近い視点から撮影された複数の撮像画像内の画素値を用いて算出する。具体的には、出力される仮想視点画像における注目画素の画素値Q(x,y)は、以下の式(1)によって求めることができる。
Figure 0007109907000001
上記式(1)において、θ1は1つ目の入力視点と仮想視点との間のなす角度、θ2は2つ目の入力視点と仮想視点との間のなす角度を表す。また、P1(x1,y1)は1つ目の入力視点の対応画素(x1,y1)の画素値を表し、P2(x2,y2)は2つ目の入力視点の対応画素(x2,y2)の画素値を表す。また、W1(x1,y1)は1つ目の入力視点の重み画素マップにおける対応画素(x1,y1)の重みを表し、W2(x2,y2)は2つ目の入力視点の重み画素マップにおける対応画素(x2,y21)の重みを表す。また、重みWは以下の式(2)で表される。
Figure 0007109907000002
上述した演算処理を繰り返すことで、仮想視点画像を構成する各画素の色を表す画素値を得ることができる。なお、ここでは、仮想視点に近い2つの視点からの撮像画像を用いる場合を例に説明したが、3つ以上の視点の撮影画像を用いてもよい。
なお、本実施形態では、仮想視点の位置やその視線方向に特に制限はないものとする。しかしながら、例えば、注目オブジェクト(例えば選手A)を含む仮想視点画像を生成する場面で、仮想視点と選手Aとの間に他のオブジェクト(例えば選手B)が位置してしまって、肝心の選手Aが選手Bで遮られてしまう、ということが起こり得る。これまではこのような場合、選手Bが邪魔にならない位置にまでユーザが仮想視点を変更せざるを得なかった。つまり、ユーザは、当初に望んだアングルからの仮想視点画像を諦めなければならなかった。本実施形態では、ユーザが望むアングルのままで、注目オブジェクトの全体が視認可能な(他のオブジェクトで邪魔されることのない)仮想視点画像を生成することが可能となる。以下、適宜フローチャートを参照するなどして、本実施形態に係る仮想視点画像の生成方法を説明する。
図4は、本実施形態に係る、仮想視点画像生成処理の全体の流れを示すフローチャートである。この生成処理は、例えば、ユーザが不図示のGUIを介して特定オブジェクト優先モードを選択した場合に、対応するプログラムに従って実行される。ただし、デフォルトで特定オブジェクト優先モードが選択されていても良い。以下、図4のフローに沿って説明する。
ステップ401では、画像データ取得部301が、カメラ101で撮影された任意の撮影シーンの複数視点画像データ及び同一の撮影シーンにおける背景画像データを取得する。図1に示す画像処理システムの場合、フィールド105上でのサッカーのシーンを10個の異なる視点から捉えた撮像画像データと、各撮像画像に対応する背景画像データが、各カメラ101から受信して(或いはHDD204から読み込んで)取得されることになる。ここで、背景画像は、選手やボールといった主要なオブジェクトが映っていない画像である。例えば、撮影シーンがサッカーの場合の背景画像は、試合の前後やハーフタイム中など主要オブジェクトである選手等が存在していないタイミングで撮影したものを使用すればよい。ただし、例えば屋外では日照変動の影響を受けるなどにより、事前・事後に撮影した画像では背景画像として不適切な場合があるので留意が必要である。取得した複数視点画像と背景画像のデータは、形状データ生成部304とレンダリング部307に送られる。
ステップ402では、カメラパラメータ取得部302が、前述のカメラパラメータを取得する。図1に示す画像処理システムの場合、予めキャリブレーション等を行って得ておいた、カメラ101それぞれについての設置位置、視線方向、及び、レンズの焦点距離などの情報がHDD204から読み込まれることになる。なお、複数視点画像の撮影中、各カメラ101で得られた撮像画像から自然特徴量を算出する等して、動的にキャリブレーションを行ってカメラパラメータを取得してもよい。取得したカメラパラメータは、形状データ生成部304とレンダリング部307に送られる。
ステップ403では、形状データ生成部303が、入力された複数視点画像データ、背景画像データ、及び、カメラパラメータを用いて、撮影シーンに存在するオブジェクトの3次元の形状データを生成する。図5(a)は、オブジェクト単位の3次元形状データの一覧を示すテーブル(オブジェクト形状テーブル)の一例である。テーブル内の各行が1つの独立したオブジェクトに対応しており、各オブジェクトの形状はボクセルの集合によって特定される。テーブルの各行に格納されている情報(x,y,z)は、個々のボクセルの中心位置の3次元位置情報を示している。なお、この段階での形状データは、各オブジェクトがそれぞれ何を表しているのかまでは識別できていない状態であり、各オブジェクトに付随する影も独立したオブジェクトとしてその中に含まれている。各オブジェクトの形状データ(それをまとめたオブジェクト形状テーブル)は、オブジェクト分類部304に送られる。
ステップ404では、オブジェクト分類部304が、オブジェクト形状テーブルに含まれる各形状データがそれぞれ何のオブジェクトを表しているのかを識別可能な状態に分類する。例えば、本実施形態のように人物、影、ボールの3種類のオブジェクトに分類する場合は、人物やボールの3次元モデル情報(大きさや形状などの情報)を予めHDD204に保持しておき、各形状データとマッチング処理することで分類可能である。さらに、高さ成分がグラウンド面と等しい部分は、影オブジェクトとして分類することができる。分類後のオブジェクト形状テーブルには、各オブジェクトがどの種類のオブジェクトなのかを表す情報と各オブジェクトを識別可能なIDが付与される。また、影に分類されたオブジェクトに対しては、当該影を作り出している物体のIDが属性情報として付与される。図5(b)は、分類処理を行った後のオブジェクト形状テーブルを示しており、各オブジェクトに対し上述の「ID」、「種類」、及び、「属性情報」の各フィールドが追加されている。
ステップ405では、注目オブジェクト設定部305が、撮影シーン内のどのオブジェクトを注目オブジェクトとして扱うのかを、ユーザ操作に基づき設定する。ユーザは、例えば図6に示すようなUI画面(注目オブジェクト設定画面)を介して、注視したいオブジェクトを指定する。注目オブジェクト設定画面には、形状データを用いて生成したある適当な仮想視点からの画像601が表示されており、マウスやタッチ操作等によって当該画像601上で注視したいオブジェクトを1つ以上選択する。このとき、選択中のオブジェクトをハイライト表示したり、或いは選択可能なオブジェクト以外の背景領域をグレー表示するなどしてもよい。1つ以上のオブジェクトが選択された状態でOKボタン602が押下されると、当該オブジェクトが注目オブジェクトとして設定される。こうして設定された注目オブジェクトには、他のオブジェクトから識別するための情報として例えば2値のフラグ(注目フラグ)が付与される。図5(c)は、図5(b)に示した分類後のオブジェクト形状テーブルに対し「注目フラグ」のフィールドが追加設定された様子を示している。図5(c)の注目フラグは、「1」が注目オブジェクトを示し、「0」が非注目オブジェクトを示している。なお、注目オブジェクトをユーザが指定するためのUI画面は、図6に示した例に限定されない。例えば、注目オブジェクトの候補が多い場合は、異なる仮想視点から生成した複数の仮想視点画像、或いは俯瞰で見た仮想視点画像を表示させてもよい。こうすることで、複数の人物オブジェクトが密集しているようなシーンでも、ユーザは所望の人物オブジェクトを容易に指定することができる。また、注視したくないオブジェクトを指定させることで、残ったオブジェクトを注目オブジェクトとして設定するようにしてもよい。また、各オブジェクトのサムネイル画像を付加した分類後のオブジェクト形状テーブルを表示する等して、IDで注目オブジェクトを指定できるようにしてもよい。また、複数のオブジェクトのうち、一部のオブジェクトがデフォルトで注目オブジェクトとして設定されていても良い。例えば、ボールがデフォルトで注目オブジェクトとして設定されていても良い。また例えば、ボールとその付近に位置する選手がデフォルトで注目オブジェクトとして設定されていても良い。
ステップ406では、仮想カメラ設定部306が、生成したい仮想視点画像における仮想カメラに関する情報、具体的には、仮想視点位置や視線方向の情報を、不図示のUI画面を介したユーザ操作に基づき設定する。仮想カメラ情報は、予め用意しておいたものをHDD204から読み込んで設定しても構わない。
ステップ407では、レンダリング部307が、図5(c)の状態のオブジェクト形状テーブル及びステップ406で設定した仮想カメラ情報に基づいてレンダリング処理を行い、仮想視点画像を生成する。レンダリング処理の詳細については後述する。図7の(a)及び(b)は、二人の選手701及び702とボール703が存在するシーンの、本実施形態で生成される仮想視点画像の一例を示す図である。図7(a)は従来手法による仮想視点画像であり、その動き等をよく見たい選手Aとボールが選手Bによって遮られてしまっている。図7(b)は、選手Aとボールを注目オブジェクトして指定した場合の、本実施形態に係る仮想視点画像である。ここでは、邪魔になっている選手Bが透過率100%で透化処理されており、注視したい選手Aとボールがよく見える状態になっている。こうして出来上がった仮想視点画像は、例えば表示装置212に表示されたり、HDD204や外部メモリ211に格納されるなど、様々な形で出力される。
以上が、本実施形態に係る、仮想視点画像生成処理の概要である。
<レンダリング処理>
図8は、レンダリング部307が実行する、特定オブジェクト優先モード時のレンダリング処理の詳細を示すフローチャートである。また、図9は、レンダリング部307の内部構成を示すブロック図である。レンダリング部307は、判定処理部910、描画処理部920及び合成処理部930で構成される。さらに、判定処理部910は、影判定部911、注目オブジェクト判定部912、遮蔽判定部913からなり、描画処理部920は、注目オブジェクト描画部921、遮蔽オブジェクト描画部922、影オブジェクト描画部923からなる。以下、図8のフロー及び図9のブロック図を参照しつつ、レンダリング処理の詳細について説明する。
まず、ステップ801で、判定処理部910が、上述のオブジェクト形状テーブルの中からオブジェクト(以下、着目オブジェクト)を1つ決定する。典型的には、IDの値が最も小さいオブジェクトが着目オブジェクトとして決定される。続くステップ802では、影判定部911が、オブジェクト形状テーブルの「種類」のフィールドを参照して、着目オブジェクトが影オブジェクトであるか否かを判定する。影オブジェクトであればステップ807へ進む。一方、影オブジェクト以外のオブジェクトであればステップ803へ進む。
ステップ803では、注目オブジェクト判定部912が、オブジェクト形状テーブルの「注目フラグ」のフィールドを参照して、着目オブジェクトが注目オブジェクトであるかどうかを判定する。注目オブジェクトであればステップ805へ進む。注目オブジェクトでなければステップ804へ進む。
ステップ804では、遮蔽判定部313が、着目オブジェクトが注目オブジェクトを遮蔽するか否かを判定する。遮蔽判定部313は、3次元空間における仮想カメラの位置と着目オブジェクトの位置と、注目オブジェクトの位置とに基づいて遮蔽するか否かを判定する。例えば、遮蔽判定部313は、ステップ406で設定された仮想カメラ情報に含まれる仮想視点位置から注目オブジェクトに向けて光線を仮想的に照射し、当該光線が注目オブジェクトに到達する前に着目オブジェクトに衝突するか否かで判定することができる。また、例えば、以下の式(3)を用いた遮蔽判定も可能である。
Figure 0007109907000003
上記式(3)は、仮想視点から見たときに着目オブジェクトが注目オブジェクトの手前にあって、双方のオブジェクトの角度が近接しているかどうかを判定するものである。上記式(3)において、Lは仮想視点位置と注目オブジェクトとの距離、L’は仮想視点位置と着目オブジェクトとの距離を示す。また、θは仮想視点位置を基準として注目オブジェクトと着目オブジェクトとのなす角度、θ_Thはθに関し予め設定された閾値を示す。θ_Thは、注目オブジェクトの実際の大きさと仮想視点位置までの距離Lとから求めることができる。例えば、横幅約1mの注目オブジェクトが仮想視点位置から20m先に存在する場合、θが3度を下回るとその手前に存在する着目オブジェクトによって遮蔽されることになる。つまり、この場合、θ_Thを3度とした上記式(3)を満足するとき、着目オブジェクトが仮想視点から見て注目オブジェクトを遮るように位置していると判断することができる。判定の結果、着目オブジェクトが注目オブジェクトを遮蔽しない場合はステップ805へ進む。一方、注目オブジェクトを遮蔽する場合はステップ806へ進む。
ステップ805では、注目オブジェクト描画部921が、着目オブジェクトを通常の手法で、すなわち、撮影画像における視認性を維持した状態で描画する処理を行う。本ステップは、着目オブジェクトが、注目オブジェクトである場合又は注目オブジェクトを遮蔽しないその他のオブジェクトである場合の描画処理である。つまり、本ステップの描画対象となるオブジェクトは、仮想視点画像においてユーザが良好に認識できるよう、撮像画像と遜色のない程度の可視化状態で描画する必要がある。よって、設定された仮想視点から着目オブジェクトを見たときのデプス画像を生成し、当該デプス画像における画素の色を、所定の複数視点画像における対応する位置の画素値から求める処理(通常の描画処理)を行う。
ステップ806では、遮蔽オブジェクト描画部922が、着目オブジェクトを透過等させて描画する処理を行う。なお、遮蔽オブジェクトを完全に透過させる場合は、当該オブジェクトは描画されないと言うこともできる。本ステップは、着目オブジェクトが、ユーザが指定した注目オブジェクトを遮蔽してしまう場合の描画処理である。つまり、本ステップの描画対象となるオブジェクト(遮蔽オブジェクト)は、完全な可視化状態で描画すると注目オブジェクトを遮ってその視認性を阻害するので、注目オブジェクトの視認性を抑制しないよう描画するのが望ましい。注目オブジェクトの視認性の低下を抑制するための手法としては、遮蔽オブジェクトを透過または半透過にする他、例えば、遮蔽オブジェクトの輪郭のみを所定の色または破線などで表示する態様や、遮蔽オブジェクトの影のみを表示する態様などがある。図10は、遮蔽オブジェクトの表示態様を指定するUI画面(遮蔽オブジェクト表示設定画面)の一例を示す図である。ユーザは、マウスなどの操作により、遮蔽オブジェクトの描画方法を選択肢の中から指定することができる。図11は、表示態様のバリエーションを示す図であり、(a)は遮蔽オブジェクトを半透過で描画した場合、同(b)は輪郭のみ描画した場合、同(c)は影のみを描画した場合をそれぞれ示している。この場合において、例えば透過率100%の完全透過で描画する場合(図7(b)を参照)は、遮蔽オブジェクトの形状データを除外して描画すればよい。このとき、画素値の算出に使用する複数視点画像には遮蔽オブジェクトも映っているため、遮蔽オブジェクトに対応する部分の画素値を使用しないようにマスク処理をしても良い。マスク処理に使用するマスク画像は、例えば、画素値算出に用いる複数視点画像に遮蔽オブジェクトを逆射影して求めればよい。これにより、遮蔽オブジェクトの形状部分のみを白(その部分の画素値を使わない)、その他の部分を黒(その部分の画素値を使う)で表現した2値のマスク画像が得られる。或いは、N値(N=分類の種類数+1)のマスク画像を生成し、オブジェクトの種類に対応させた値毎にその部分の画素値を使う(透過させない)、使わない(透過させる)を決めてもよい。例えば、撮影シーン内に存在する動きのあるオブジェクトが、人物A、人物B、ボールの場合であれば種類数は3なので4値化画像を生成する。そして、注視したい注目オブジェクトが人物Aとボールであった場合、その部分に対応する画素値は使い、他の部分(人物Bや背景)に対応する画素値は使わないようにマスク処理するといった具合である。また、半透明で描画する場合は、遮蔽オブジェクトだけを予め描画し、任意の透明度でブレンディングすればよい。この際の透過率は、前述の図10のUI画面で示すように、例えば0~100%の範囲でユーザが手動設定してもよいし、注目オブジェクトとの位置関係に応じて自動で決定するようにしてもよい。自動で決定する場合の透明度αは、例えば先に示したL、L’、θを用いて、L<L’の場合に0(不透明)とし、θが小さい(遮蔽割合が高い)ほど大きく、Lが小さい(仮想視点が注目オブジェクトに近い)ほど大きくなるように決定する。或いは、より単純化して、例えば以下の式(4)を用いて決定してもよい。
Figure 0007109907000004
上記式(4)において、kは係数、Cは分母が非ゼロになるための定数である。なお、遮蔽オブジェクトの描画手法は前述の内容に限定されるものではなく、要は注目オブジェクトの視認性低下を抑制するような態様で描画できればよい。
ステップ807では、影オブジェクト描画部923が、着目オブジェクトを前述の属性情報に従って描画する処理を行う。本ステップは、着目オブジェクトが、人物やボールなどの影を表わすオブジェクトである場合の描画処理である。この影オブジェクトは、通常、単独のオブジェクトとして存在することはない。そのため、原則的には、従属先となる人物やボールのオブジェクトの描画状態に準じて描画するのが望ましい。すなわち、従属する人物オブジェクトが明瞭な可視化状態で描画(通常描画)されているときは影オブジェクトも明瞭な可視化状態で描画し、また、人物オブジェクトが例えば透過状態で描画されているときは、影オブジェクトも透過状態(影を消した状態)で描画するのが望ましい。影オブジェクトの従属先となるオブジェクトは、オブジェクト形状テーブルの「属性情報」のフィールドを参照することで特定可能である。なお、影オブジェクトを透過させて描画する場合、その形状データを削除しただけでは、自然な描画結果とならないことがある。これは、画素値の算出に使用する複数視点画像にはすべて影が映っており、その対応する画素位置には透過状態に適した画素値が存在しないためである。そこで、影を自然な形で消すために、例えば背景画像における対応する画素位置の画素値を用いて描画するなどする。ただし、遮蔽オブジェクトに従属する影オブジェクトである場合は、前述の図10のUI画面で設定された内容が優先する。すなわち、遮蔽オブジェクトの表示態様を指定するUI画面において、影だけを表示させることが指定された場合は、従属先の遮蔽オブジェクトがたとえ透過状態で描画される設定であったとしても、ステップ805と同様に通常の描画処理を行う。
ステップ808では、描画処理部920が、オブジェクト形状テーブル内のすべてのオブジェクトについて描画が完了したか否かを判定する。未処理のオブジェクトが残っていれば、ステップ801に戻って次の着目オブジェクトを決定して処理を続行する。一方、すべてのオブジェクトの処理が完了していた場合は、ステップ809へ進む。
ステップ809では、合成処理部930が、ステップ805~ステップ807で生成されたすべてのオブジェクトの描画結果を合成して、ステップ406で設定された仮想視点からみた場合の仮想視点画像を生成する。
以上が、レンダリング部307が実行するレンダリング処理の内容である。なお、本実施形態では、図8のフローで示す各ステップを1つのレンダリング部が実行するものとして説明を行ったが、これに限定されない。例えば、同一構成のレンダリング部を複数設け、遮蔽オブジェクトの描画担当とそれ以外のオブジェクトの描画担当に分けて並列で処理して、それぞれで得られた描画結果を合成するようにしてもよい。あるいは、判定処理部910、描画処理部920、合成処理部930のそれぞれに対応する独立した画像処理部を設け、機能毎に役割分担する構成でもよい。
なお、上述の実施形態では、注目フラグの有無によって、レンダリング時に透過等させて描画するかどうかを択一的に決定していた。本実施形態はこれに限定されない。例えば、オブジェクト毎に注目度(優先順位)を指定できるようにして、設定された注目度に応じて邪魔なオブジェクトとして扱うかどうか(レンダリング時に透過等させて描画を行うかどうか)を決定するようにしてもよい。例えば、注目度が自分よりも上位の人物オブジェクトを遮蔽する場合は透過処理するが、注目度が自分よりも下位の人物オブジェクトを遮蔽しても透過処理しない、といった具合である。このように注目度が設定された場合は、各オブジェクトに対して注目フラグに代えて(或いは加えて)優先順位を表すレベル情報を付与し、レンダリング時には当該レベル情報を参照して描画内容を制御すればよい。
また、上述の実施形態では、注目オブジェクトをユーザが複数のオブジェクトの中から個別に指定する場合の例を中心に説明したが、これに限らない。例えば、ユーザは、ある条件を設定し、その条件を満たすオブジェクトが自動で注目オブジェクトとして設定されるようにしても良い。より具体的には、ユーザは、「ボール及びその周辺に位置する選手」という条件を設定しても良いし、「PK(ペナルティキック)におけるキッカーとゴールキーパー」という条件を設定しても良い。また、特定のチームの選手のみを通常通りに描画し、他方のチームの選手はすべて薄く描画されるようにしても良い。このように、注目オブジェクトの設定方法に自由度を持たせれば、ユーザによっての利便性をより向上できる。
また、上述の説明では、仮想視点画像という呼び方をしたが、本実施形態のシステムは静止画にも動画にも適用できる。つまり、複数視点画像は、1又は複数の静止画でも良いし、動画でも良い。また、仮想視点画像は、1又は複数の静止画として生成されても良いし、動画として生成されても良い。
仮想視点画像を動画として生成する場合、動画を構成する各フレームにおける仮想カメラ情報や注目オブジェクトは、ユーザが1フレームずつ設定してもよいが、時間軸に沿って連続的に設定できるようにしてもよい。例えば、仮想視点はその軌跡を設定できるようにしても良いし、注目オブジェクトは先頭フレームでユーザが設定したものをトラッキング技術等によって後続フレームに対して自動で設定できるようにしても良い。これにより、入出力の対象データが動画像の場合における、時系列に変化し得る仮想カメラ情報や注目オブジェクトの設定を効率的に行うことができる。
また、背景画像は、例えば動画として保存された複数視点画像のうち所定数のフレーム(例えば連続する10秒分のフレーム)を用いて動きのあるオブジェクトを消すことで得てもよい。例えば、各フレームにおける各画素値の中央値を採用した画像を生成することで、背景画像を得ることができる。
また、動画としての複数視点画像から動画としての仮想視点画像を生成する場合、オブジェクトの位置や動き、仮想視点位置やその移動軌跡(仮想カメラパス)によって、一時的に、すなわちフレーム単位で、注目オブジェクトが非注目オブジェクトによって遮蔽されてしまうことが起こり得る。その際、どの時点(どのフレーム)で注目オブジェクトの遮蔽が発生したかをユーザへ通知するようにしてもよい。図12は、設定された仮想カメラパスのうち遮蔽オブジェクトによって注目オブジェクトが遮られてしまう範囲を視覚的に示したUI画面の一例を示す図である。図12のUI画面は、フィールドを俯瞰でみた場合の仮想視点画像上に、ユーザが設定した仮想カメラパスが実線1201で示されている。そして、着目オブジェクトが他のオブジェクトによって遮蔽されてしまう区間が太線1202で強調表示されている。遮蔽の有無は、すべての着目オブジェクトに対する前述の遮蔽判定(図8のフローのステップ804)の結果に基づいて決定することができる。また、仮想カメラパスと注目オブジェクトの双方が確定した時点で遮蔽の範囲は判明するので、判明したタイミング、例えば注目オブジェクトが先に設定されていた場合は、仮想カメラパスの設定時に通知するようにすればよい。このような通知を行うことで、ユーザは、着目オブジェクトを遮蔽しているオブジェクトの表示方法を変更するなどして、より満足度の高い仮想視点映像を得ることが可能になる。
以上説明したように本実施形態によれば、設定された仮想視点からでは注目オブジェクトが他のオブジェクトによって遮られてしまう場合でも、仮想視点画像における当該注目オブジェクトの視認性低下を抑制できる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 カメラ
200 画像処理装置
307 レンダリング部

Claims (13)

  1. 複数のカメラが撮影対象領域を異なる方向から撮影することで得られる複数の画像に基づいて仮想視点画像を生成する画像処理装置であって、
    前記撮影対象領域内の複数のオブジェクトのうちの注目オブジェクトを特定する特定手段と、
    仮想視点からの視野に含まれる前記注目オブジェクトが、仮想視点からの視野に含まれる他のオブジェクトにより遮蔽される場合、前記遮蔽による前記注目オブジェクトの視認性低下が抑制されるよう前記他のオブジェクトの表示態様を変更して、前記仮想視点に対応する仮想視点画像を生成する生成手段と、
    を備え、
    前記生成手段は、
    前記他のオブジェクトの影について表示する指定がない場合は、前記他のオブジェクトの影については前記変更に応じた表示態様で前記仮想視点画像を生成し、
    前記他のオブジェクトの影について表示する指定がある場合は、前記他のオブジェクトの影について前記注目オブジェクトの表示態様に応じた表示態様で前記仮想視点画像を生成する、
    ことを特徴とする画像処理装置。
  2. オブジェクト毎に優先順位を設定する設定手段をさらに備え、
    前記生成手段は、
    描画対象のオブジェクトが、当該描画対象のオブジェクトよりも優先順位が上位のオブジェクトを遮る場合は、当該描画対象のオブジェクトを前記他のオブジェクトとして扱い、
    描画対象のオブジェクトが、当該描画対象のオブジェクトよりも優先順位が下位のオブジェクトを遮る場合は、当該描画対象のオブジェクトを前記注目オブジェクトとして扱う、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記他のオブジェクトの影について表示するかの指定をユーザが行うための入力手段をさらに備えたことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記変更後の表示態様は、所定の透過率による透化表示であることを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。
  5. 前記所定の透過率をユーザが指定するための入力手段をさらに備えたことを特徴とする請求項4に記載の画像処理装置。
  6. 前記所定の透過率は、前記注目オブジェクトと前記他のオブジェクトとの位置関係に応じて決定されることを特徴とする請求項4に記載の画像処理装置。
  7. 前記所定の透過率は、前記他のオブジェクトが前記注目オブジェクトを遮っている割合が高いほど大きく、且つ、前記仮想視点が前記注目オブジェクトに近いほど大きくなるように決定されることを特徴とする請求項6に記載の画像処理装置。
  8. 前記生成手段は、前記他のオブジェクトの表示態様を変更して、前記他のオブジェクトを表示しない前記仮想視点画像を生成することを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。
  9. 前記複数のカメラのパラメータと前記複数の画像とに基づいて、オブジェクトの3次元形状を生成するモデル生成手段と、
    前記モデル生成手段で生成された3次元形状に対応するオブジェクトのそれぞれを識別可能に分類する分類手段と、
    を備え、
    前記生成手段は、前記注目オブジェクトの少なくとも一部を遮る他のオブジェクトが存在するかどうかを、分類後のオブジェクトそれぞれについて判定し、前記注目オブジェクト及び前記他のオブジェクトとして判定されたオブジェクトのそれぞれを、対応する3次元形状を用いて描画する、
    ことを特徴とする請求項1乃至8のいずれか一項に記載の画像処理装置。
  10. 前記注目オブジェクトを遮る他のオブジェクトが存在するかをユーザに通知する通知手段を備えたことを特徴とする請求項1乃至9のいずれか一項に記載の画像処理装置。
  11. 前記注目オブジェクトは、前記複数の画像に含まれ得るオブジェクトの中から、ユーザが指定した1つ以上のオブジェクトであることを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 複数のカメラが撮影対象領域を異なる方向から撮影することで得られる複数の画像に基づいて仮想視点画像を生成するための画像処理方法であって、
    前記撮影対象領域内の複数のオブジェクトのうちの注目オブジェクトを特定するステップと、
    仮想視点からの視野に含まれる前記注目オブジェクトが、仮想視点からの視野に含まれる他のオブジェクトにより遮蔽される場合、前記遮蔽による前記注目オブジェクトの視認性低下が抑制されるよう前記他のオブジェクトの表示態様を変更して、前記仮想視点に対応する仮想視点画像を生成するステップと、
    を含み、
    前記生成するステップでは、
    前記他のオブジェクトの影については表示する指定がない場合は、前記他のオブジェクトの影については前記変更に応じた表示態様で前記仮想視点画像を生成し、
    前記他のオブジェクトの影について表示する指定がある場合は、前記他のオブジェクトの影について前記注目オブジェクトの表示態様に応じた表示態様で前記仮想視点画像を生成する、
    ことを特徴とする画像処理方法。
  13. コンピュータを、請求項1乃至11のいずれか1項に記載の画像処理装置の各手段として機能させるプログラム。
JP2017223080A 2017-11-20 2017-11-20 画像処理装置、画像処理方法およびプログラム Active JP7109907B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017223080A JP7109907B2 (ja) 2017-11-20 2017-11-20 画像処理装置、画像処理方法およびプログラム
US16/193,620 US10986324B2 (en) 2017-11-20 2018-11-16 Image processing apparatus, image processing method and storage medium for virtual viewpoint image creation
EP18206803.1A EP3487176B1 (en) 2017-11-20 2018-11-16 Image processing apparatus, image processing method and program
KR1020180143082A KR102342668B1 (ko) 2017-11-20 2018-11-20 화상 처리장치, 화상 처리방법 및 기억매체
CN201811382847.5A CN109816766B (zh) 2017-11-20 2018-11-20 图像处理装置、图像处理方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017223080A JP7109907B2 (ja) 2017-11-20 2017-11-20 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2019095936A JP2019095936A (ja) 2019-06-20
JP7109907B2 true JP7109907B2 (ja) 2022-08-01

Family

ID=64362356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017223080A Active JP7109907B2 (ja) 2017-11-20 2017-11-20 画像処理装置、画像処理方法およびプログラム

Country Status (5)

Country Link
US (1) US10986324B2 (ja)
EP (1) EP3487176B1 (ja)
JP (1) JP7109907B2 (ja)
KR (1) KR102342668B1 (ja)
CN (1) CN109816766B (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019031259A1 (ja) * 2017-08-08 2019-02-14 ソニー株式会社 画像処理装置および方法
JP7091133B2 (ja) * 2018-05-09 2022-06-27 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP7281923B2 (ja) * 2019-03-01 2023-05-26 キヤノン株式会社 制御装置、画像処理システム、制御方法及びプログラム
JP7446754B2 (ja) 2019-09-30 2024-03-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7389140B2 (ja) * 2019-12-26 2023-11-29 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
JPWO2021149526A1 (ja) * 2020-01-23 2021-07-29
WO2021152955A1 (ja) * 2020-01-30 2021-08-05 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
JP7427468B2 (ja) 2020-02-18 2024-02-05 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
CN111340878B (zh) * 2020-05-15 2021-03-05 支付宝(杭州)信息技术有限公司 图像处理方法以及装置
US20220189103A1 (en) * 2020-12-15 2022-06-16 Canon Kabushiki Kaisha Generation apparatus, generation method, and storage medium
WO2022137907A1 (ja) * 2020-12-25 2022-06-30 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
WO2022215347A1 (ja) * 2021-04-08 2022-10-13 株式会社Nttドコモ コンテンツ表示制御システム
CN117354568A (zh) * 2022-06-27 2024-01-05 华为技术有限公司 一种显示方法、设备及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001276420A (ja) 2000-03-30 2001-10-09 Namco Ltd ゲーム装置および情報記憶媒体
JP2003044868A (ja) 2001-07-30 2003-02-14 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2005322108A (ja) 2004-05-11 2005-11-17 Konami Co Ltd 表示装置、表示方法、ならびに、プログラム
US20090128549A1 (en) 2007-11-16 2009-05-21 Sportvision, Inc. Fading techniques for virtual viewpoint animations
JP2017139725A (ja) 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 映像表示方法及び映像表示装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ITRM20050192A1 (it) 2005-04-20 2006-10-21 Consiglio Nazionale Ricerche Sistema per la rilevazione e la classificazione di eventi durante azioni in movimento.
EP1911263A4 (en) * 2005-07-22 2011-03-30 Kangaroo Media Inc SYSTEM AND METHODS FOR ENHANCING THE LIVES OF SPECTATORS PARTICIPATING IN A LIVE SPORTS EVENT
CN101268437B (zh) * 2005-11-02 2010-05-19 松下电器产业株式会社 显示目标透射装置及显示目标透射方法
JP4671873B2 (ja) 2006-01-23 2011-04-20 シャープ株式会社 合成映像生成システム
JP5013773B2 (ja) * 2006-08-18 2012-08-29 パナソニック株式会社 車載画像処理装置及びその視点変換情報生成方法
JP4895738B2 (ja) 2006-09-15 2012-03-14 株式会社カプコン 三次元映像表示装置、その表示装置を実現するためのプログラム
US8253736B2 (en) * 2007-01-29 2012-08-28 Microsoft Corporation Reducing occlusions in oblique views
JP5011224B2 (ja) 2008-07-09 2012-08-29 日本放送協会 任意視点映像生成装置及び任意視点映像生成プログラム
EP2360930A4 (en) * 2008-12-18 2015-03-25 Lg Electronics Inc METHOD FOR THREE-DIMENSIONAL IMAGE SIGNAL PROCESSING AND IMAGE DISPLAY SCREEN FOR PROCESS IMPLEMENTATION
JP5456020B2 (ja) * 2009-10-30 2014-03-26 キヤノン株式会社 情報処理装置および方法
WO2013086249A2 (en) * 2011-12-09 2013-06-13 Magna Electronics, Inc. Vehicle vision system with customized display
WO2013191689A1 (en) * 2012-06-20 2013-12-27 Image Masters, Inc. Presenting realistic designs of spaces and objects
US20130342572A1 (en) * 2012-06-26 2013-12-26 Adam G. Poulos Control of displayed content in virtual environments
WO2014076744A1 (ja) * 2012-11-19 2014-05-22 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
JP6473577B2 (ja) 2014-05-21 2019-02-20 任天堂株式会社 情報処理システム、情報処理方法、及び情報処理プログラム
JP2016039618A (ja) 2014-08-11 2016-03-22 ソニー株式会社 情報処理装置および情報処理方法
JP6450305B2 (ja) * 2015-12-01 2019-01-09 日本電信電話株式会社 情報取得装置、情報取得方法及び情報取得プログラム
WO2017134706A1 (ja) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 映像表示方法及び映像表示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001276420A (ja) 2000-03-30 2001-10-09 Namco Ltd ゲーム装置および情報記憶媒体
JP2003044868A (ja) 2001-07-30 2003-02-14 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2005322108A (ja) 2004-05-11 2005-11-17 Konami Co Ltd 表示装置、表示方法、ならびに、プログラム
US20090128549A1 (en) 2007-11-16 2009-05-21 Sportvision, Inc. Fading techniques for virtual viewpoint animations
JP2017139725A (ja) 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 映像表示方法及び映像表示装置

Also Published As

Publication number Publication date
KR20190058337A (ko) 2019-05-29
EP3487176A1 (en) 2019-05-22
CN109816766A (zh) 2019-05-28
EP3487176B1 (en) 2024-01-10
JP2019095936A (ja) 2019-06-20
CN109816766B (zh) 2023-11-10
KR102342668B1 (ko) 2021-12-23
US10986324B2 (en) 2021-04-20
US20190158802A1 (en) 2019-05-23

Similar Documents

Publication Publication Date Title
JP7109907B2 (ja) 画像処理装置、画像処理方法およびプログラム
US11284057B2 (en) Image processing apparatus, image processing method and storage medium
JP6371553B2 (ja) 映像表示装置および映像表示システム
US20220060670A1 (en) Providing apparatus, providing method and computer readable storage medium for performing processing relating to a virtual viewpoint image
JP7277085B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6407225B2 (ja) 画像処理装置及び画像処理方法及び画像処理システム及びプログラム
US20140037213A1 (en) Image processing
US11270499B2 (en) Multi line trace gaze to object mapping for determining gaze focus targets
US11328437B2 (en) Method for emulating defocus of sharp rendered images
KR20110088995A (ko) 3차원 모델 안에서 감시 카메라 영상을 시각화하기 위한 방법 및 시스템, 및 기록 매체
Nonaka et al. Fast plane-based free-viewpoint synthesis for real-time live streaming
JP2010226390A (ja) 撮像装置および撮像方法
CN111164542A (zh) 修改计算设备上的图像的方法
JP5986039B2 (ja) 映像表示方法及び映像表示プログラム
JPWO2012169174A1 (ja) 画像処理装置および画像処理方法
US11353953B2 (en) Method of modifying an image on a computational device
JP2019144958A (ja) 画像処理装置、画像処理方法およびプログラム
JP6473872B2 (ja) 映像構築装置、擬似視覚体験システム、および映像構築プログラム
US11688128B2 (en) Multi line trace gaze to object mapping for determining gaze focus targets
CN116366825A (zh) 图像处理装置、图像处理方法、以及存储介质
JP2022095102A (ja) 指標算出装置、指標算出方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220720

R151 Written notification of patent or utility model registration

Ref document number: 7109907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151