JP2018055279A - 画像処理装置、画像処理方法、及び、プログラム - Google Patents

画像処理装置、画像処理方法、及び、プログラム Download PDF

Info

Publication number
JP2018055279A
JP2018055279A JP2016188762A JP2016188762A JP2018055279A JP 2018055279 A JP2018055279 A JP 2018055279A JP 2016188762 A JP2016188762 A JP 2016188762A JP 2016188762 A JP2016188762 A JP 2016188762A JP 2018055279 A JP2018055279 A JP 2018055279A
Authority
JP
Japan
Prior art keywords
image
virtual viewpoint
specific object
viewpoint image
different
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016188762A
Other languages
English (en)
Other versions
JP6812181B2 (ja
Inventor
祥吾 水野
Shogo Mizuno
祥吾 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016188762A priority Critical patent/JP6812181B2/ja
Priority to US15/711,913 priority patent/US20180089842A1/en
Publication of JP2018055279A publication Critical patent/JP2018055279A/ja
Application granted granted Critical
Publication of JP6812181B2 publication Critical patent/JP6812181B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 仮想視点の設定に係る操作性を向上させる。【解決手段】 画像生成装置200は、仮想視点の指定を受け付け(S301)、当該受け付けられた仮想視点に応じた仮想視点画像に対する特定オブジェクトの検出処理結果を取得する(S303)。そして、画像生成装置200は、指定された仮想視点とは異なる別視点に応じた別視点画像から検出された特定オブジェクトの情報を、当該指定された仮想視点に応じた仮想視点画像と共に表示させる付加処理を、特定オブジェクトの検出処理結果に応じて実行する(S310)。【選択図】 図2

Description

本発明は、複数のカメラによる撮影画像を処理する画像処理方法に関するものである。
近年、複数のカメラを異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数視点画像を用いて、カメラ設置位置の画像だけでなく任意の視点からなる仮想視点画像を生成する技術が注目されている。
複数視点画像に基づく仮想視点画像の生成は、複数のカメラが撮影した画像をサーバなどの画像処理装置に集約し、この画像処理装置にて、仮想視点に基づくレンダリングなどの処理を施すことで実現できる。
仮想視点画像を用いたサービスによれば、例えば、サッカーやバスケットボールの試合について高臨場感のコンテンツを提供することができるようになる。
特許文献1には、複数のカメラを、被写体を取り囲むように配置して被写体を撮影した画像を用いて、任意の仮想視点画像を生成する技術が開示されている。
特開2008−15756号公報
しかしながら、仮想視点の設定に係る操作性が低下する恐れが考えられる。
例えば、ユーザが仮想視点画像を見ながら仮想視点の移動操作を行っている場合において、被写体の移動や、仮想視点の移動により、表示するべき被写体が、仮想視点画像外に出てしまう可能性がある。このような場合、ユーザは、どの方向へ仮想視点を動かせば良いのかわからなくなってしまう恐れがある。
より具体的には、サッカー場を取り囲むように配置されたカメラによる撮影画像を基に、仮想視点画像を生成する場合、試合中の選手の移動と、仮想視点の移動によっては、選手が全く映っていない仮想視点に移動してしまうことがある。この場合において、選手など被写体が全く映っていない仮想視点画像を見ても、どの方向に被写体が存在するかが不明であるため、選手を仮想視点内に収めるために、様々な方向へ仮想視点を移動して被写体を探すことになれば、操作が煩雑となる。また、様々な方向へ仮想視点を移動させると、映像コンテンツとしての品質も損なわれる。
本発明は、上記の問題点を鑑みてなされたものであり、その目的は、仮想視点の設定に係る操作性を向上させることである。
上記問題点を解決するために、本発明の画像処理装置は、例えば、以下の構成を持つ。すなわち、被写体を複数の異なる方向から撮影するための複数のカメラによる撮影画像に基づいて生成される仮想視点画像に係る仮想視点の指定を受け付ける受付手段と、前記受付手段により受け付けられた仮想視点に応じた仮想視点画像に対する特定オブジェクトの検出処理結果を取得する取得手段と、前記受付手段により受け付けられた仮想視点とは異なる別視点に応じた別視点画像から検出された特定オブジェクトの情報を、前記受付手段により受け付けられた仮想視点に応じた仮想視点画像と共に表示させるための付加処理を、前記取得手段により取得された前記仮想視点画像に対する特定オブジェクトの検出処理結果に応じて実行する付加手段とを有することを特徴とする画像処理装置。
本発明によれば、仮想視点の設定に係る操作性を向上させることができる。
実施形態に係る画像処理システムの構成を説明するための図 実施形態に係る画像生成装置の機能ブロック図 実施形態に係る画像生成装置の動作を説明するためのフローチャート 実施形態に係る複数の仮想視点の位置関係を説明するための概念図 実施形態に係る端末装置の画面例 実施形態に係る画像生成装置の機能ブロック図 実施形態に係る画像生成装置の動作を説明するためのフローチャート 実施形態に係る複数の仮想視点の位置関係を説明するための概念図 実施形態に係る端末装置の画面例 実施形態に係る撮影装置の配置例 実施形態に係る装置のハードウェア構成例
以下、図面を参照して、本発明の実施の形態の一例を説明する。
<第1実施形態>
本実施形態では、ユーザ操作により指定された仮想視点とは異なる視点(別視点)に応じた画像(別視点画像)から検出された被写体の情報を、仮想視点に応じた仮想視点画像に合成して表示させる例を中心に説明する。特に、本実施形態では、ユーザ操作に基づく仮想視点画像から特定オブジェクトが検出されなかった場合に、別視点画像に対する特定オブジェクトの検出処理を行う例を中心に説明する。
図1は、第1実施形態に係る画像処理システムの接続図である。撮影装置100は、被写体を複数の異なる方向から撮影するための複数のカメラであり、サッカー場などの競技場を特定の被写体を取り囲むように配置して撮影する。ただし、本実施形態の画像処理システムの適用対象は、競技場に限らない。例えば、コンサートホール、ライブ会場、各種展示場、その他エンターテイメント施設などにも適用可能である。
図10は、撮影装置100の配置例である。撮影装置100は、競技場の一部又は全部が撮影範囲となるように配置される。
撮影装置100は、例えばデジタルカメラであり、外部同期装置(不図示)からの同期信号に基づき、同じタイミングで撮影を行う。撮影装置100により撮影された画像は、LAN(Local Area Network)ケーブルなどの通信ケーブルを介して、画像生成装置200に伝送される。なお、通信ケーブルは、LANケーブルを例に説明するが、DisplayPortやHDMI(登録商標)(High Definition Multimedia Interface)などの映像伝送ケーブルであってもよいものとする。本実施形態で扱う画像は、撮影装置100の静止画撮影機能により撮影された画像であっても、動作撮影機能により撮影された画像であっても良い。以下では特に区別せず、単に画像、又は撮影画像と表現する。
画像生成装置200は、撮影装置100により撮影された撮影画像を蓄積する。そして、画像生成装置200は、端末装置300からの仮想視点情報に応じた仮想視点画像を、蓄積画像を用いて生成する。ここで、仮想視点情報とは、競技場の中央など所定位置に対する相対的な位置である3次元位置情報と、その位置からどの方向を見ているかを示す方向情報が少なくとも含まれる。
画像生成装置200は、例えば、サーバ装置であり、データベース機能や、画像処理機能を備えている画像処理装置の一形態である。データベースには、競技の開始前など予め被写体が存在しない状態の競技場の撮影画像が背景画像として保持される。また、データベースには、競技中の選手などの被写体(特定オブジェクト)の画像が前景画像として保持される。前景画像は、撮影装置100による撮影画像から被写体を検出し、当該被写体の領域を分離することで生成できる。
前景画像のより具体的な分離方法として、例えば撮影画像と背景画像との差分を抽出するなどのオブジェクト抽出の画像処理を用いることができる。また、その他の分離方法として、例えば、撮影画像の動き情報を用いた分離方法を用いることも可能である。
なお、前景画像(特定オブジェクトの画像)は、競技中の選手の画像のみならず、例えば、他の特定人物(控え選手、監督、及び/又は審判など)の画像でも良いし、ボールやゴールなど、画像パターンが予め定められているオブジェクトの画像でも良い。また、前景画像は、予め定められた空間領域(例えば競技フィールドやステージ)から検出される人物の画像であっても良い。
ユーザ操作により指定された仮想視点に応じた仮想視点画像は、データベースにて管理される背景画像と前景画像とから生成されるものとする。仮想視点画像の生成方式として、例えばモデルベースレンダリング(Model−Based Rendering:MBR)が用いられる。MBRとは、被写体を複数の方向から撮影した複数の撮影画像に基づいて生成される三次元モデルを用いて仮想視点画像を生成する方式である。具体的には、視体積交差法、Multi−View−Stereo(MVS)などの三次元形状復元手法により得られた対象シーンの三次元形状(モデル)を利用し、仮想視点からのシーンの見えを画像として生成する技術である。なお、仮想視点画像の生成方法は、MBR以外のレンダリング手法を用いてもよい。生成された仮想視点画像は、LANケーブルなどを介して、端末装置300に伝送される。
端末装置300は、仮想視点の指定に関するユーザ操作を受付ける。そして、受付けた操作情報を仮想視点情報に変換して、画像生成装置200へLANケーブルを介して伝送する。また、端末装置300は、画像生成装置200から受信した仮想視点画像を表示画面に表示させる。従って、端末装置300のユーザは、自身が指定した仮想視点に応じた仮想視点画像を見ながら、仮想視点の移動操作を行うことができる。なお、端末装置300にて指定された仮想視点に応じた仮想視点画像が、複数の端末装置300に対して配信されるような構成としても良い。
端末装置300は、例えば、PC(Personal Computer)やタブレットやスマートフォンである。ユーザは、端末装置300が有するマウス、キーボード、6軸コントローラ、タッチパネルなどを用いて仮想視点を指定することができる。
次に、画像生成装置200の機能について説明する。図2は、第1実施形態に係る画像生成装置200の機能ブロック図である。
ユーザ入力部201は、端末装置300からLANケーブルを介して入力された伝送信号を仮想視点情報に変換して、仮想視点情報を第一仮想視点画像管理部202へ出力する。
第一仮想視点画像管理部202は、ユーザ入力部201が受け付けた仮想視点情報を第一仮想視点情報として保持すると共に、第一仮想視点情報を仮想視点画像生成部203へ出力する。また、第一仮想視点画像管理部202は、仮想視点画像生成部203から入力された仮想視点画像を第一仮想視点画像として保持する。また、別の視点に応じた仮想視点画像を生成する第二仮想視点画像管理部208へ第一仮想視点情報を出力する。また、第一仮想視点画像に選手など被写体にあたる前景画像が含まれるか否かを判定するために、第一仮想視点画像管理部202は、第一仮想視点画像を前景画像検出部207へ出力し、検出処理結果を入力する。また、第一仮想視点画像管理部202は、第一仮想視点画像を画像出力部212へ出力する。
画像入力部206は、撮影装置100からLANケーブルを介して入力された伝送信号を撮影画像データに変換して、前景背景分離部205へ出力する。
前景背景分離部205は、画像入力部206から入力された撮影画像のうち、競技の開始前など予め被写体が存在しない状態の競技会場の場面を撮影した画像を背景画像として、分離画像保存部204へ出力する。また、競技中に撮影された画像から選手など被写体を検出し、前景画像として分離画像保存部204へ出力する。
分離画像保存部204は、データベースであり、前景背景分離部205から入力された前景画像及び背景画像をそれぞれ保存する。背景画像は、選手などの被写体(特定オブジェクト)が存在しない状態で撮影装置100により撮影された画像である。また前景画像は、撮影装置100による撮影画像と、背景画像との差分データに基づいて生成される特定オブジェクトの画像である。また、分離画像保存部204は、仮想視点画像生成部203からの取得指示に応答して、当該取得指示にて指定された背景画像と前景画像を仮想視点画像生成部203へ出力する。
仮想視点画像生成部203は、第一仮想視点画像管理部202から入力された第一仮想視点情報に対応した前景画像と背景画像を分離画像保存部204から取得する。そして、取得した前景画像と背景画像を画像処理により合成することで仮想視点画像を生成し、第一仮想視点画像管理部202に出力する。また、仮想視点画像生成部203は、第二仮想視点画像管理部208から入力された第二仮想視点情報(別視点)に対応した前景画像と背景画像を分離画像保存部204から取得する。そして、取得した前景画像と背景画像を画像処理により合成することで第二仮想視点画像(別視点画像)を生成し、第二仮想視点画像管理部208に出力する。
前景画像検出部207は、第一仮想視点画像管理部202及び第二仮想視点画像管理部208から入力された仮想視点画像の中に前景画像が存在するか否かを判定する。前景画像検出部207は、被写体が存在しない状態で予め撮影された画像(背景画像)と、判定対象となる撮影画像とを比較し、所定値以上の差分がある場合には被写体が存在すると判定する。前景画像検出部207は、第一仮想視点画像管理部202から入力された仮想視点画像に前景画像が存在するか否かに関する判定結果を、第一仮想視点画像管理部202へ出力する。また、前景画像検出部207は、第二仮想視点画像管理部208から入力された仮想視点画像(別視点画像)から前景画像が検出されたか否かに関する検出処理結果を、第二仮想視点画像管理部208へ出力する。
第二仮想視点画像管理部208は、第一仮想視点画像管理部202から入力された第一仮想視点情報を変換して第二仮想視点情報を生成する。例えば、第一仮想視点情報の後方に位置するような視点情報を第二仮想視点情報として生成する。すなわち、第二仮想視点画像管理部208により設定される第二仮想視点情報(別視点)は、ユーザ入力部201にて受け付けられた仮想視点と所定の位置関係にある仮想視点である。なお、第二仮想視点情報に対応する視点は、仮想視点に限らず、例えば、複数の撮影装置100のうちある特定のカメラの視点であっても良い。
また、第二仮想視点画像管理部208は、第二仮想視点情報を仮想視点画像生成部203へ出力するとともに、仮想視点画像生成部203から入力された仮想視点画像を第二仮想視点画像(別視点画像)として保持する。なお、第二仮想視点画像管理部208は、前景画像のみを別途管理することとする。また、第二仮想視点画像に選手などの被写体が含まれるか否かを判定するために、第二仮想視点画像を前景画像検出部207へ出力し、前景画像検出部207から前景画像の有無に関する検出処理結果を入力する。また、前景画像の位置を変更するために、第二仮想視点画像の前景画像を前景画像配置部209へ出力する。また、第二仮想視点画像の前景画像に特殊な表示効果を加えるために、前景画像表示変換部210へ第二仮想視点画像の前景画像を出力する。
前景画像配置部209は、第二仮想視点画像の前景画像の表示位置を決定する。本実施形態の前景画像配置部209は、第一仮想視点画像の端から所定範囲に第二仮想視点画像の前景画像を表示させる。また、前景画像配置部209は、第一仮想視点に対する第二仮想視点の相対位置から、第一仮想視点からみてどの方向に第二仮想視点画像の前景画像に位置するかを判定し、当該判定の結果に応じた位置を前景画像の表示位置として決定する。このように本実施形態の前景画像配置部209は、第一仮想視点情報と第二仮想視点情報の差分(比較結果)を用いて、第一仮想視点画像上のどの部分に第二仮想視点画像の前景画像を表示させるかを決定する。
前景画像表示変換部210は、第二仮想視点画像管理部208から入力された前景画像に対して表示効果を加える画像処理を行い、当該画像処理済みの前景画像を第二仮想視点画像管理部208へ出力する。なお、表示効果とは例えば、前景画像の点滅表示や、半透過表示などである。
前景画像合成部211は、第一仮想視点画像管理部202から入力された第一仮想視点画像と、第二仮想視点画像管理部208から入力された前景画像とを重ね合わせた合成画像を生成し、画像出力部212へ出力する。前景画像合成部211は、前景画像配置部209により決定された第一仮想視点画像内の所定位置に、第二仮想視点画像の前景画像を合成する。なお、本実施形態では、前景画像合成部211が行う合成処理として、第一仮想視点画像内の所定領域の画像データを第二仮想視点画像の前景画像の画像データで上書きする処理である場合の例を中心に説明するが、これに限らない。例えば、画像生成装置200から端末装置300へは、第一仮想視点画像と、第二仮想視点画像の前景画像と、当該前景画像の表示位置を示す位置情報が送信され、端末装置300にて合成処理が行われるようにしても良い。また、本実施形態では、第一仮想視点画像内に第二仮想視点画像の前景画像を表示させる例を中心に説明するが、これに限らない。例えば、第一仮想視点画像の表示領域とは異なる領域に第二仮想視点画像を表示させるようにしても良い。このような場合、前景画像合成部211は、第一仮想視点画像と共に表示すべき第二仮想視点画像の前景画像の表示位置を示す位置情報を出力する処理を実行する。
すなわち前景画像合成部211は、ユーザ入力部201が受け付けた仮想視点とは異なる別視点に応じた別視点画像(第二仮想視点画像)から検出された特定オブジェクト(例えば選手)の情報を、第一仮想視点画像と共に表示させるための付加処理を実行する。なお、特定オブジェクトの情報とは、第二仮想視点画像(別視点画像)から切り出された特定オブジェクトの画像でも良いし、特定オブジェクトを示す図形やアイコンであっても良いし、特定オブジェクトの数を示す数字であっても良い。また、特定オブジェクトが選手である場合、特定オブジェクトの情報として、選手の背番号などを用いるようにしても良い。
画像出力部212は、第一仮想視点画像管理部202から入力された第一仮想視点画像及び前景画像合成部211から入力された合成画像を端末装置300へ伝送可能な伝送信号に変換して、端末装置300へ出力する機能を有する。画像出力部212により出力された第一仮想視点画像は、端末装置300のディスプレイ上にて表示される。また、画像出力部212により合成画像が出力された場合は、合成画像が端末装置300のディスプレイ上にて表示される。また、端末装置300は複数存在しても良いし、仮想視点を指定する端末装置300と、仮想視点画像を表示させる端末装置300が別であっても良い。
次に、図11を用いて、本実施形態における撮影装置100、画像生成装置200、及び、端末装置300のハードウェア構成について説明する。
図11に示すように、撮影装置100、画像生成装置200、及び、端末装置300は、それぞれ、CPU1101、ROM1102、RAM1103、画像表示素子1104、入出力部1105、通信IF1106を有する。本実施形態の撮影装置100、画像生成装置200、及び、端末装置300は、それぞれ、CPU1101が、本実施形態の処理を実行するために必要なプログラムを読み出して実行することにより、本実施形態で説明する各処理を実現する。
撮影装置100のCPU1101により実現される処理には、撮影処理と、撮影画像を画像生成装置200へ出力する出力処理が含まれる。また、画像生成装置200のCPU1101により実現される処理は、図2を用いて説明した通りである。また、画像生成装置200のCPU1101により実行される処理の詳細は、図3及び図7で示すフローチャートを用いて後述する。さらに、端末装置300のCPU1101により実現される処理には、ユーザによる仮想視点の設定操作を受け付ける処理と、当該設定された仮想視点に応じた仮想視点画像を表示させる表示制御処理が含まれる。
なお、図11に示す各ブロックは、1つに限らない。例えば、画像生成装置200がCPU1101を2つ以上有するようにしても良い。また、撮影装置100、画像生成装置200、及び、端末装置300のそれぞれが、図11で示したハードウェア構成をすべて有していなければならないわけではない。例えば、画像生成装置200が、画像表示素子1104を有していなくても良い。また例えば、端末装置300が画像表示素子1104を有さず、端末装置300と画像表示素子1104とがケーブルを介して接続されるような構成であっても良い。また、撮影装置100は、図11で示したハードウェア構成に加えて、撮影レンズや撮影素子などにより構成される撮影ユニットを有する。
また、撮影装置100、画像生成装置200、及び、端末装置300の処理のうちの一部が、専用のハードウェアにより実現されるようにしても良い。一部の処理が専用のハードウェアにより実現される場合であっても、CPU1101(プロセッサ)の制御に従って実行されることに変わりはない。
次に、画像生成装置200の動作について説明する。図3は、第1実施形態に係る画像生成装置200の動作を説明するためのフローチャートである。図3では、ユーザにより指定された仮想視点に応じた仮想視点画像から被写体(特定オブジェクト)が検出されなかったときに別視点画像から検出された被写体を仮想視点画像に合成して表示させる場合の例を説明する。図3の処理は、画像生成装置200のCPU1101が、所定のプログラムを読み出して実行することにより実現される。なお、図3の処理の一部(例えば、第一及び第二仮想視点画像の生成処理)が、CPU1101からの制御に従って専用のハードウェアにより実現されるようにしても良い。
ユーザ入力部201は、端末装置300からの伝送信号を解析可能なデータに変換し、第一仮想視点情報が入力されたか否かを判定する(S301)。第一仮想視点情報とは、端末装置300のユーザ操作により指定された仮想視点の情報であり、仮想視点の位置情報と、視点方向に関する情報が含まれる。すなわち、ユーザ入力部201は、仮想視点画像に係る仮想視点の指定を受け付ける。第一仮想視点情報が入力されていないと判定された場合(S301のNo)は、入力を待つ。第一仮想視点情報が入力されたと判定された場合(S301のYes)、第一仮想視点画像管理部202は、第一仮想視点情報を仮想視点画像生成部203へ出力し、仮想視点画像生成部203が第一仮想視点画像を生成する(S302)。第一仮想視点画像は、第一仮想視点画像管理部202を介して、前景画像検出部207へ出力される。
前景画像検出部207は、仮想視点画像生成部203により生成された第一仮想視点画像に対して前景画像(特定オブジェクト)の検出処理を実行する(S303)。そして、前景画像検出部207は、第一仮想視点画像に前景画像が含まれると判定した場合(S303のYes)、画像出力部212を介して、端末装置300へ第一仮想視点画像を出力する(S311)。第一仮想視点画像は、端末装置300のユーザ操作により指定された仮想視点に応じた仮想視点画像である。
なお、本実施形態では、前景画像検出部207が第一仮想視点画像に対して前景画像(特定オブジェクト)の検出処理を実行することで、第一仮想視点画像に前景画像が含まれるか否かを判定するが、この例に限らない。例えば、画像生成装置200とは別の装置にて前景画像の検出処理が実行されるようにしても良い。この場合、画像生成装置200は、当該別の装置から前景画像の検出処理結果を取得する。
第一仮想視点画像に前景画像が含まれないと判定された場合(S303のNo)、第二仮想視点画像管理部208は、第一仮想視点と所定の位置関係にある第二仮想視点を生成する(S304)。例えば、第一仮想視点の後方に10m離れた位置の視点を第二仮想視点報とする。
図4は、第一仮想視点と第二仮想視点と、各視点に応じた仮想視点画像の範囲を示した概念図である。第一仮想視点400が実線のカメラに対応し、第一仮想視点400に応じた第一仮想視点画像が範囲401に対応する。また、第二仮想視点402が点線のカメラに対応し、第二仮想視点402に応じた第二仮想視点画像が範囲403に対応する。図4は、第一仮想視点画像には1人の被写体も映っていないが、第二仮想視点画像には、4人の被写体が映っていることを示している。
第二仮想視点画像管理部208は、S304にて生成した第二仮想視点情報を仮想視点画像生成部203へ出力し、仮想視点画像生成部203は、第二仮想視点情報に応じた第二仮想視点画像を生成する(S305)。
前景画像検出部207は、仮想視点画像生成部203により生成された第二仮想視点画像を第二仮想視点画像管理部208から受け取り、第二仮想視点画像に前景画像(特定オブジェクト)が含まれるか否かを判定する(S306)。
前景画像検出部207は、第二仮想視点画像(別視点画像)に前景画像が含まれないと判定した場合(S306のNo)、さらに別の第二仮想視点情報を生成する(S304)。そして、2回目のS304にて生成された別の第二仮想視点情報に応じた第二仮想視点画像が生成され(S305)、当該第二仮想視点画像から被写体(特定オブジェクト)が検出されるか否かが判定される(S306)。なお、S304〜S306の処理は、第二仮想視点画像から前景画像が含まれると判定されるまで繰り返してもよい。また、S304〜S306の処理を所定回数繰り返しても被写体が検出されなかった場合は、前景画像の合成処理(付加処理)をしないことを決定し、次のステップへ進むようにしても良い。また、S304〜S306の処理を所定回数繰り返しても被写体が検出されなかったために、前景画像の合成をしないことを決定した場合、当該検出結果を示す通知を端末装置300のディスプレイに表示させるようにしても良い。
第二仮想視点画像に前景画像が含まれると判定された場合(S306のYes)、第二仮想視点画像管理部208は、第二仮想視点画像から前景画像を切り出す(S307)。
そして、前景画像配置部209は、第一仮想視点と第二仮想視点の位置関係、及び、第二仮想視点画像から検出された被写体の位置に基づいて、第二仮想視点画像の前景画像の合成位置を決定する(S308)。
そして、前景画像表示変換部210は、第一仮想視点画像に合成される前景画像の表示変換処理を行う(S309)。表示変換処理とは、例えば、前景画像の点滅表示や、半透過表示などである。このような表示変換処理を行うことにより、第二仮想視点画像の前景画像が、第一仮想視点画像内に存在する被写体とは異なることをユーザが識別できるようになる。
前景画像合成部211は、第一仮想視点画像管理部202から入力された第一仮想視点画像と、第二仮想視点画像管理部208から入力された前景画像とを合成することで合成画像を生成する(S310)。すなわち、前景画像合成部211は、ユーザ操作に応じた仮想視点とは異なる別視点に応じた別視点画像から検出された特定オブジェクトの情報を、仮想視点画像と共に表示させるための付加処理を実行する。なお、当該付加処理は、第一仮想視点画像に第二仮想視点画像の前景画像を合成する処理であっても良いし、第一仮想視点画像の表示領域とは別の領域に第二仮想視点画像の前景画像を表示させるための指示を生成する処理であっても良い。そして、画像出力部212は、前景画像合成部211により生成された合成画像を端末装置300へ出力する(S311)。
図5は、端末装置300の画面例である。図5は、第一仮想視点画像に被写体が映っていない場合において、第二仮想視点画像から検出された被写体が半透明化された上で第一仮想視点画像に合成された合成画像を示している。図5では、点線で示す被写体が半透明状態であるとする。
この合成された被写体は、半透明であるため第一仮想視点画像に映っていない被写体であることが識別可能である。また、この合成された被写体自体の体の向きや形はそのままの状態で表示されるため、ユーザは簡易的、かつ直感的に被写体の状況が認識可能となり、煩雑なユーザ操作をすることなく、所望の被写体の方向へ仮想視点を移動させることができる。
以上、第1実施形態によれば、ユーザ操作により指定された仮想視点に応じた仮想視点画像から被写体が検出されない場合に、当該仮想視点とは別の視点に応じた別仮想視点画像から検出された被写体の情報を仮想視点画像に合成表示する。このような構成によれば、視点移動操作により被写体を探すよりも、手間を低減できるので、仮想視点の設定に係る操作性を改善できる。
<第2実施形態>
第1実施形態との差異を中心に第2実施形態を説明する。第2実施形態は、複数の第二仮想視点に応じた複数の第二仮想視点画像から、被写体(特定オブジェクト)を検出し、複数の被写体が検出された場合は、その中から選択された被写体の情報を、第一仮想視点画像に合成して合成画像を生成する例を中心に説明する。
図6は、第2実施形態に係る画像生成装置200の機能ブロック図である。図6を参照しながら、図2との差分を中心に詳細に説明する。
第N仮想視点画像管理部601は、第一仮想視点画像管理部202から入力された第一仮想視点情報を変換して、N個(Nは2以上の整数)の視点情報を生成する。例えば、第N仮想視点画像管理部601は、第一仮想視点の後方に位置するような視点情報や、第一仮想視点の左右方向に位置するような視点情報を生成する。また、視点位置の変更だけでなく、視点方向の変更も可能とする。また、第N仮想視点画像管理部601は、複数の仮想視点情報を仮想視点画像生成部203へ出力するとともに、仮想視点画像生成部203から入力された複数の仮想視点画像を第N仮想視点画像として保持する。なお、これ以外の機能は、第二仮想視点画像管理部208と同様とする。
前景画像選択部602は、第N仮想視点画像管理部601から入力された前景画像のうち、いずれの前景画像を第一仮想視点画像に合成するか決定する。例えば、サッカーの試合が撮影されている場合、2チームのうちユーザが応援するチームの選手に対応する前景画像、または注目選手に対応する前景画像、ボールに近い選手に対応する前景画像などを予め設定しておくようにすることができる。この場合、前景画像選択部602は、上記設定に基づいて、複数の前景画像から第一仮想視点画像に合成する前景画像を決定できる。
次に、画像生成装置200の動作について説明する。図7は、第2実施形態に係る画像生成装置200の動作を示すフローチャートである。図7では、第一仮想視点画像から被写体が検出されなかった場合に、複数の別視点に応じた複数の別仮想視点画像から検出された複数の被写体のうち、選択された被写体のみを第一仮想視点画像に合成する場合の例を中心に説明する。本実施形態では、図7を参照して、図3との差分を中心に説明する。
第N仮想視点画像管理部601は、第一仮想視点情報を変更したN個の仮想視点情報を生成する(S701)。例えば、第一仮想視点の後方に10m離れた位置の視点(第1別視点)を第二仮想視点情報とする。また、第一仮想視点の左方に10m離れた位置の視点(第2別視点)を第三仮想視点情報とする。
また、前景画像選択部602は、N個の仮想視点画像の前景画像から第一仮想視点画像に合成すべき前景画像を選択(決定)する(S703)。ここでは、サッカー試合をしている2チームのうち、応援するチームの選手のみを第一仮想視点画像に合成すべき前景画像として選択するものとする。
図8は、第一仮想視点と複数の別仮想視点と、各視点から見える範囲を示した概念図である。第一仮想視点800が実線のカメラに対応し、第一仮想視点800に応じた第一仮想視点画像が範囲801に対応する。また、N個の別仮想視点802及び804が点線で示す2台のカメラに対応し、第二仮想視点802に応じた第二仮想視点画像(第1別視点画像)が範囲803に対応し、第三仮想視点804に応じた第三仮想視点画像(第2別視点画像)が範囲805に対応する。図8は、第一仮想視点画像801には1人の被写体も映っていないが、第二仮想視点画像803には4人の被写体が映っており、第三仮想視点画像805には2人の被写体が映っている状態を示している。また、図8において、斜線で示された人物が第1チームの選手であり、黒塗りで示された人物が第2チームの選手である。
図9は、端末装置300の画面例である。端末装置300は、第一仮想視点画像に被写体が映っていない場合に、N個の別視点の仮想視点画像から検出された複数の被写体のうち、斜線の人物に対応する前景画像のみが第一仮想視点画像に合成された合成画像を表示している。このように、複数の被写体(特定オブジェクト)が存在する場合に、第一仮想視点画像に合成すべき被写体をユーザ設定等に基づいて絞り込む。このような構成によれば、ユーザはより簡易的、かつ直感的に表示すべき被写体の状況を認識可能となり、煩雑なユーザ操作を低減させ、応援する(注目すべき)選手の方向へ仮想視点を移動させることができる。
以上、第2実施形態によれば、ユーザ操作により指定された仮想視点に応じた仮想視点画像から被写体が検出されない場合に、当該仮想視点とは別の複数の視点に応じた別仮想視点画像から検出された被写体の情報を仮想視点画像に合成表示する。このような構成によれば、視点移動操作により被写体を探すよりも、手間を低減できるので、仮想視点の設定に係る操作性を改善できる。
<その他の実施形態>
上述の実施形態では、ユーザが合成画像を見ながら仮想視点の移動操作を行う場合の例を中心に説明したが、この例に限らない。例えば、ユーザは、合成画像上に表示される被写体から、追尾対象とする被写体を指定することによって、当該被写体が第一仮想視点画像内に収まるように仮想視点を制御するようにしても良い。
また、上述の実施形態では、第一仮想視点画像に第二仮想視点画像の前景画像を合成する例を中心に説明しているが、前景画像の代わりに特定オブジェクトを示す簡易的な図形、アイコン、数字などを合成するようにしても良い。
また、上述の実施形態では、第一仮想視点画像に第二仮想視点画像の前景画像を合成する例を中心に説明したが、合成するのではなく、第一仮想視点画像の表示領域とは別の領域に前景画像が表示されるようにしても良い。
また、上述の実施形態では、第一仮想視点と所定の位置関係にある視点を第二仮想視点とする場合の例を中心に説明したが、これに限らない。例えば、特定の選手や、ボールなどを常に追尾するような第二仮想視点が設定されるようにしても良い。
また、上述の実施形態では、第一仮想視点画像から1つの被写体(特定オブジェクト)も検出されなかった場合に、別視点の第二仮想視点画像の生成と、第二仮想視点画像からの被写体の検出処理を行う場合の例を中心に説明したが、この例に限らない。例えば、第一仮想視点画像からあらかじめ定められた所定数未満の被写体しか検出されなかった場合に、第二仮想視点画像の生成などの処理(図3のS304〜S310)が実行されるようにしても良い。また、例えば、特定のチームの選手が第一仮想視点画像から検出されなかった場合に、第二仮想視点画像の生成などの処理(図3のS304〜S310)が実行されるようにしても良い。また、例えば、第一仮想視点画像から被写体が検出されたか否かに関わらず、常にS304〜S310の処理が実行されるようにしても良い。
また、上述の実施形態では、画像生成装置200の構成及び機能を、主に図2、3、6、及び7を用いて詳細に説明したが、これらの構成及び機能のうち一部が、撮影装置100や端末装置300により実行されるようにしても良い。例えば、端末装置300がユーザから仮想視点の指定を受け付け、当該仮想視点に応じた仮想視点画像から被写体(特定オブジェクト)が検出されたか否かを示す検出処理結果を取得するようにしても良い。この場合、端末装置300は、当該検出処理結果に応じて、第二仮想視点画像の前景画像を第一仮想視点画像に合成して表示させることも可能である。このように、本実施形態の各装置は、種々の変形例を採用しうることに留意されたい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 撮影装置
200 画像生成装置
201 ユーザ入力部
202 第一仮想視点画像管理部
203 仮想視点画像生成部
204 分離画像保存部
205 前景背景分離部
206 画像入力部
207 前景画像検出部
208 第二仮想視点画像管理部
209 前景画像配置部
210 前景画像表示変換部
211 前景画像合成部
212 画像出力部
300 端末装置

Claims (15)

  1. 被写体を複数の異なる方向から撮影するための複数のカメラによる撮影画像に基づいて生成される仮想視点画像に係る仮想視点の指定を受け付ける受付手段と、
    前記受付手段により受け付けられた仮想視点に応じた仮想視点画像に対する特定オブジェクトの検出処理結果を取得する取得手段と、
    前記受付手段により受け付けられた仮想視点とは異なる別視点に応じた別視点画像から検出された特定オブジェクトの情報を、前記受付手段により受け付けられた仮想視点に応じた仮想視点画像と共に表示させるための付加処理を、前記取得手段により取得された前記仮想視点画像に対する特定オブジェクトの検出処理結果に応じて実行する付加手段とを有することを特徴とする画像処理装置。
  2. 前記別視点は、前記受付手段により受け付けられた仮想視点と所定の位置関係にある仮想視点であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記付加手段は、前記仮想視点画像から検出された前記特定オブジェクトの数が所定数未満であることを示す検出処理結果が前記取得手段により取得された場合、前記付加処理を実行することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記特定オブジェクトの情報が前記付加処理によって付加される前記仮想視点画像上の位置を、前記受付手段により受け付けられた仮想視点と前記別視点との位置関係、及び、前記別視点画像における前記特定オブジェクトの位置に基づいて決定する決定手段を有することを特徴とする請求項1乃至3のうち、何れか1項に記載の画像処理装置。
  5. 前記付加手段は、前記特定オブジェクトの情報が前記仮想視点画像の表示領域とは異なる表示領域に表示されるように付加処理を実行することを特徴とする請求項1乃至3のうち、何れか1項に記載の画像処理装置。
  6. 前記仮想視点画像から特定オブジェクトを検出する検出手段を有し、
    前記取得手段は、前記検出手段による検出処理結果を取得することを特徴とする請求項1乃至5のうち、何れか1項に記載の画像処理装置。
  7. 前記付加手段は、前記別視点画像から特定オブジェクトが検出されない場合、前記別視点と異なる第2別視点に応じた第2別視点画像から検出された特定オブジェクトの情報を、前記仮想視点画像に付加する付加処理を実行することを特徴とする請求項1乃至6のうち、何れか1項に記載の画像処理装置。
  8. 前記付加手段は、前記別視点画像及び前記第2別視点画像から前記特定オブジェクトが検出されない場合、前記特定オブジェクトの情報を仮想視点画像に付加しないことを決定することを特徴とする請求項7に記載の画像処理装置。
  9. 前記別視点画像及び前記第2別視点画像から前記特定オブジェクトが検出されない場合、当該検出結果の通知をディスプレイに表示させる表示制御手段を有することを特徴とする請求項7又は8に記載の画像処理装置。
  10. 前記受付手段により受け付けられた仮想視点とは異なる複数の別視点に応じた複数の別視点画像から特定オブジェクトが検出された場合、いずれの別視点画像から検出された特定オブジェクトの情報を表示させるかを選択する選択手段を有し、
    前記付加手段は、前記選択手段により選択された特定オブジェクトの情報が前記仮想視点画像と共に表示されるように付加処理を実行することを特徴とする請求項1乃至9のうち、何れか1項に記載の画像処理装置。
  11. 前記特定オブジェクトは、予め定められた画像パターンに対応する人物、予め定められた空間領域から検出される人物、及びボールのうち、少なくとも何れかが含まれることを特徴とする請求項1乃至10のうち、何れか1項に記載の画像処理装置。
  12. 前記付加手段により付加処理がなされた仮想視点画像を表示する表示手段を有することを特徴とする請求項1乃至6のうち、何れか1項に記載の画像処理装置。
  13. 前記付加手段により付加される特定オブジェクトの情報には、前記別視点画像から切り出された特定オブジェクトの画像、前記特定オブジェクトを示す図形、前記特定オブジェクトを示すアイコン、及び、前記特定オブジェクトの数を示す数字のうち、少なくとも何れかであることを特徴とする請求項1乃至12のうち、何れか1項に記載の画像処理装置。
  14. 画像処理方法であって、
    被写体を複数の異なる方向から撮影するための複数のカメラによる撮影画像に基づいて生成される仮想視点画像に係る仮想視点の指定を受け、
    前記仮想視点に応じた仮想視点画像に対する特定オブジェクトの検出処理結果を取得し、
    前記仮想視点とは異なる別視点に応じた別視点画像から検出された特定オブジェクトの情報を、前記仮想視点に応じた仮想視点画像と共に表示させるための付加処理を、前記仮想視点画像に対する特定オブジェクトの検出処理結果に応じて実行することを特徴とする画像処理方法。
  15. コンピュータを請求項1乃至13のうち、何れか1項に記載の画像処理装置の各手段として動作させるためのプログラム。
JP2016188762A 2016-09-27 2016-09-27 画像処理装置、画像処理方法、及び、プログラム Active JP6812181B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016188762A JP6812181B2 (ja) 2016-09-27 2016-09-27 画像処理装置、画像処理方法、及び、プログラム
US15/711,913 US20180089842A1 (en) 2016-09-27 2017-09-21 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016188762A JP6812181B2 (ja) 2016-09-27 2016-09-27 画像処理装置、画像処理方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2018055279A true JP2018055279A (ja) 2018-04-05
JP6812181B2 JP6812181B2 (ja) 2021-01-13

Family

ID=61686436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016188762A Active JP6812181B2 (ja) 2016-09-27 2016-09-27 画像処理装置、画像処理方法、及び、プログラム

Country Status (2)

Country Link
US (1) US20180089842A1 (ja)
JP (1) JP6812181B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021220892A1 (ja) * 2020-04-27 2021-11-04 富士フイルム株式会社 画像処理装置、画像処理方法、及びプログラム
JP7423974B2 (ja) 2019-10-21 2024-01-30 株式会社Jvcケンウッド 情報処理システム、情報処理方法及びプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7030452B2 (ja) * 2017-08-30 2022-03-07 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、情報処理システム及びプログラム
JP2020191598A (ja) * 2019-05-23 2020-11-26 キヤノン株式会社 画像処理システム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242606A (ja) * 2004-02-26 2005-09-08 Olympus Corp 画像生成装置、画像生成プログラム、及び画像生成方法
JP2008186324A (ja) * 2007-01-31 2008-08-14 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
JP2012253428A (ja) * 2011-05-31 2012-12-20 Fujitsu Ten Ltd 情報処理システム、サーバ装置、および、車載装置
JP2014215828A (ja) * 2013-04-25 2014-11-17 シャープ株式会社 画像データ再生装置、および視点情報生成装置
JP2015187797A (ja) * 2014-03-27 2015-10-29 シャープ株式会社 画像データ生成装置および画像データ再生装置
JP2016033763A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6990681B2 (en) * 2001-08-09 2006-01-24 Sony Corporation Enhancing broadcast of an event with synthetic scene using a depth map
US8233708B2 (en) * 2005-08-17 2012-07-31 Panasonic Corporation Video scene classification device and video scene classification method
US8466913B2 (en) * 2007-11-16 2013-06-18 Sportvision, Inc. User interface for accessing virtual viewpoint animations
US9782660B2 (en) * 2007-11-30 2017-10-10 Nike, Inc. Athletic training system and method
GB0907870D0 (en) * 2009-05-07 2009-06-24 Univ Catholique Louvain Systems and methods for the autonomous production of videos from multi-sensored data
US8873852B2 (en) * 2011-09-29 2014-10-28 Mediatek Singapore Pte. Ltd Method and apparatus for foreground object detection
WO2016014233A1 (en) * 2014-07-25 2016-01-28 mindHIVE Inc. Real-time immersive mediated reality experiences
WO2017134706A1 (ja) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 映像表示方法及び映像表示装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242606A (ja) * 2004-02-26 2005-09-08 Olympus Corp 画像生成装置、画像生成プログラム、及び画像生成方法
JP2008186324A (ja) * 2007-01-31 2008-08-14 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
JP2012253428A (ja) * 2011-05-31 2012-12-20 Fujitsu Ten Ltd 情報処理システム、サーバ装置、および、車載装置
JP2014215828A (ja) * 2013-04-25 2014-11-17 シャープ株式会社 画像データ再生装置、および視点情報生成装置
JP2015187797A (ja) * 2014-03-27 2015-10-29 シャープ株式会社 画像データ生成装置および画像データ再生装置
JP2016033763A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7423974B2 (ja) 2019-10-21 2024-01-30 株式会社Jvcケンウッド 情報処理システム、情報処理方法及びプログラム
WO2021220892A1 (ja) * 2020-04-27 2021-11-04 富士フイルム株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
JP6812181B2 (ja) 2021-01-13
US20180089842A1 (en) 2018-03-29

Similar Documents

Publication Publication Date Title
JP6659187B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6918455B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20210227201A1 (en) Display control apparatus, display control method, and storage medium
JP6812181B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP7366611B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
KR102382247B1 (ko) 화상 처리 장치, 화상 처리 방법 및 컴퓨터 프로그램
JP2007133660A (ja) 多視点映像合成装置及び多視点映像合成システム
JP7476375B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR20160003614A (ko) 3차원 리얼타임 가상입체 스튜디오 장치에서의 가상입체 스튜디오 영상 생성 방법
EP3621300A1 (en) Display control device and display control method
EP4054186A1 (en) Information processing apparatus, information processing method, and program
JP7446754B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2008217593A (ja) 被写体領域抽出装置及び被写体領域抽出プログラム
JP2023057124A (ja) 画像処理装置及び方法、プログラム
JP2020135290A (ja) 画像生成装置、画像生成方法、画像生成システム、及びプログラム
JP2021144522A (ja) 画像処理装置、画像処理方法、プログラム、及び画像処理システム
JP7296735B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR20170002921A (ko) 디지털 조립 설명서를 생성하는 장치 및 방법
EP4187904A1 (en) Information processing apparatus, information processing system, and program
JP2021076923A (ja) 画像処理装置、画像処理方法、及びプログラム
US10880533B2 (en) Image generation apparatus, image generation method, and storage medium, for generating a virtual viewpoint image
US20240046552A1 (en) Generation apparatus, generation method, and non-transitory computer-readable storage medium
JP2022103836A (ja) 情報処理装置、情報処理方法及びプログラム
JP2024014517A (ja) 情報処理システム、情報処理方法及びコンピュータプログラム
JP6057386B2 (ja) 画像生成システム、及び合成画像出力方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201216

R151 Written notification of patent or utility model registration

Ref document number: 6812181

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151