JP2018046448A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2018046448A
JP2018046448A JP2016180527A JP2016180527A JP2018046448A JP 2018046448 A JP2018046448 A JP 2018046448A JP 2016180527 A JP2016180527 A JP 2016180527A JP 2016180527 A JP2016180527 A JP 2016180527A JP 2018046448 A JP2018046448 A JP 2018046448A
Authority
JP
Japan
Prior art keywords
path
image processing
processing apparatus
camera
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016180527A
Other languages
English (en)
Other versions
JP6742869B2 (ja
JP2018046448A5 (ja
Inventor
花本 貴志
Takashi Hanamoto
貴志 花本
知頼 岩尾
Tomoyori IWAO
知頼 岩尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016180527A priority Critical patent/JP6742869B2/ja
Priority to KR1020197007474A priority patent/KR102187974B1/ko
Priority to PCT/JP2017/028876 priority patent/WO2018051688A1/ja
Priority to CN201780057088.2A priority patent/CN109716751B/zh
Publication of JP2018046448A publication Critical patent/JP2018046448A/ja
Priority to US16/354,980 priority patent/US20190213791A1/en
Publication of JP2018046448A5 publication Critical patent/JP2018046448A5/ja
Application granted granted Critical
Publication of JP6742869B2 publication Critical patent/JP6742869B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】仮想カメラの高度や移動速度を任意に設定でき、かつ容易な操作で短時間に自由視点映像を得る。
【解決手段】複数のカメラを用いて撮影した多視点映像から、仮想カメラから見た自由視点映像を生成する画像処理装置100は、仮想カメラの移動の軌跡を示すカメラパス及び仮想カメラが注視する先である注視点の移動の軌跡を示す注視点パスを、ユーザが指定するためのユーザインタフェース104と、ユーザインタフェースを介して指定されたカメラパス及び注視点パスに基づいて、自由視点映像を生成する生成手段とを備える。ユーザインタフェースは、多視点映像の撮影シーンを俯瞰的に捉えた2次元画像を用いたUI画面に、多視点映像のうち自由視点映像の生成対象となるタイムフレームにおける被写体の時系列の変化を表示部105に表示し、ユーザが、2次元画像に対する入力操作によって軌跡を描くことで、カメラパス及び注視点パスが指定される。
【選択図】図1

Description

本発明は、自由視点映像生成時における仮想カメラの経路を設定する技術に関する。
複数台の実カメラで撮影した映像を用いて、3次元空間内に仮想的に配置した実際には存在しないカメラ(仮想カメラ)からの映像を再現する技術として、自由視点映像技術がある。自由視点映像を得るためには、仮想カメラの経路等を設定する必要があり、それには仮想カメラの位置(x,y,z)、回転方向(φ)、画角(θ)、注視点(xo,yo,zo)といったパラメータを時間軸(t)に沿って適切に制御する必要がある。これら多くのパラメータを適切に設定・制御するには熟練が必要で、訓練を積んだ専門家でなければ操作が困難である。この点、例えば特許文献1には、対象となる3次元空間を上から見たときの平面図(例として美術館内の間取り図)を基に仮想カメラのパラメータを設定し、指定した位置における自由視点映像を確認する手法が開示されている。
特開2013−90257号公報
上記特許文献1の手法では、平面図上での仮想カメラのパラメータ設定、当該設定に従った自由視点映像の全シーケンス確認、パラメータの修正(再設定)という一連の操作を何度も繰り返す必要があり、作業時間が長大化するという問題がある。また、この手法では、そもそも仮想カメラの高度や移動速度については設定ができず、これらのパラメータを変更した自由視点映像を得ることができない。
そこで、本発明では、仮想カメラの高度や移動速度についても任意に設定でき、かつ容易な操作で短時間に自由視点映像を得ることを目的とする。
本発明に係る画像処理装置は、複数のカメラを用いて撮影した多視点映像から、仮想カメラから見た映像である自由視点映像を生成する画像処理装置であって、前記仮想カメラの移動の軌跡を示すカメラパス及び前記仮想カメラが注視する先である注視点の移動の軌跡を示す注視点パスを、ユーザが指定するためのユーザインタフェースと、前記ユーザインタフェースを介して指定された前記カメラパス及び注視点パスに基づいて、前記自由視点映像を生成する生成手段と、を備え、前記ユーザインタフェースは、前記多視点映像の撮影シーンを俯瞰的に捉えた2次元画像を用いたUI画面に、前記多視点映像のうち前記自由視点映像の生成対象となるタイムフレームにおける被写体の時系列の変化を表示し、前記ユーザが、当該2次元画像に対する入力操作によって前記軌跡を描くことで、前記カメラパス及び注視点パスが指定されるように構成されることを特徴とする。
本発明によれば、仮想カメラの高度や移動速度についても任意に設定でき、かつ容易な操作で短時間に自由視点映像を得ることができる。
自由視点映像システムの構成の一例を示す図である。 カメラ群を構成する各カメラの配置例を示した図である。 実施例1に係る、自由視点映像生成時に用いるGUI画面の一例を示す図である。 実施例1に係る、自由視点映像を生成する処理の大まかな流れを示したフローチャートである。 実施例1に係る、仮想カメラ設定処理の詳細を示すフローチャートである。 (a)は被写体の位置及び3D形状が投影された静的2Dマップの一例、(b)は注視点パスとカメラパスが指定された結果の一例、(c)はサムネイル配置処理の結果の一例を示す図である。 サムネイル配置処理の詳細を示すフローチャートである。 サムネイル配置処理の過程を説明する図である。 カメラパス調整処理の詳細を示すフローチャートである。 カメラパス調整処理の過程を説明する図である。 (a)はグラデーションアイコンが付加された状態を示す図、(b)は各サムネイル画像、仮想カメラの移動速度、及び自由視点映像の再生時間の関係を説明する図である。 注視点パス調整処理の詳細を示すフローチャートである。 注視点パス調整処理の過程を説明する図である。 実施例2に係る、自由視点映像生成時のGUI画面の一例を示した図である。 実施例2に係る、自由視点映像を生成する処理の大まかな流れを示したフローチャートである。 実施例2に係る、仮想カメラ設定処理の詳細を示すフローチャートである。 (a)は動的2Dマップの開始フレームの一例、(b)〜(d)は動的2Dマップ上に注視点パスが指定される様子を時系列で示す図である。 注視点パスの指定を終えた後の動的2Dマップ上に、カメラパスを指定する様子を時系列で示す図である。 カメラパスを指定する際のモードによる違いを説明する図である。 被写体情報を空間的に絞り込んだ一例を示す図である。 注視点パス指定受付処理の詳細を示すフローチャートである。 カメラパス指定受付処理の詳細を示すフローチャートである。 パス調整処理の詳細を示すフローチャートである。
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。
図1は、本実施例における、自由視点映像システムの構成の一例を示す図である。図1に示す自由視点映像システムは、画像処理装置100と複数の撮像装置(カメラ群)109とで構成される。そして、画像処理装置100は、CPU101、メインメモリ102、記憶部103、入力部104、表示部105、外部I/F106を備え、各部がバス107を介して接続されている。まず、CPU101は、画像処理装置100を統括的に制御する演算処理装置であり、記憶部103等に格納された各種プログラムを実行して様々な処理を行う。メインメモリ102は、各種処理で用いるデータやパラメータなどを一時的に格納するほか、CPU101に作業領域を提供する。記憶部103は、各種プログラムやGUI(グラフィカル・ユーザ・インターフェイス)表示に必要な各種データを記憶する大容量記憶装置で、例えばハードディスクやシリコンディスク等の不揮発性メモリが用いられる。入力部104は、キーボードやマウス、電子ペン、タッチパネル等の装置であり、ユーザからの操作入力を受け付ける。表示部105は、液晶パネルなどで構成され、自由視点映像生成時の仮想カメラの経路設定のためのGUI表示などを行う。外部I/F部106は、カメラ群109を構成する各カメラとLAN108を介して接続され、映像データや制御信号データの送受信を行う。バス107は上述の各部を接続し、データ転送を行う。
カメラ群109は、LAN108経由で画像処理装置100と接続されており、画像処理装置100からの制御信号をもとに、撮影の開始や停止、カメラ設定(シャッタースピード、絞りなど)の変更、撮影した映像データの転送を行う。
なお、システム構成については、上記以外にも、様々な構成要素が存在するが、本発明の主眼ではないので、その説明は省略する。
図2は、カメラ群109を構成する各カメラの配置例を示した図である。ここでは、ラグビーを行う競技場に10台のカメラを設置したケースで説明する。競技を行うフィールド201上に被写体202としての選手とボールが存在し、10台のカメラ203がフィールド201を取り囲むように配置されている。カメラ群109を構成する個々のカメラ203は、フィールド201全体、或いはフィールド201の注目領域が画角内に収まるように、適切なカメラの向き、焦点距離、露出制御パラメータ等を設定している。
図3は、本実施例に係る、自由視点映像生成時に用いるGUI画面の一例を示した図である。図3(a)は当該GUI画面の基本画面であり、俯瞰画像表示領域300、操作ボタン領域310、仮想カメラ設定領域320から構成される。
俯瞰画像表示領域300は、仮想カメラの経路や仮想カメラが注視する先である注視点の経路を指定する操作・確認に利用される。操作ボタン領域310には、多視点映像データの読み込み、自由視点映像の生成対象となる多視点映像データの範囲(タイムフレーム)の設定、仮想カメラの設定を行うためのボタン311〜313が存在する。また、操作ボタン領域310には、生成した自由視点映像を確認するための確認ボタン314が存在し、これが押下されることにより、図3(b)に示す自由視点映像プレビューウィンドウ330に遷移する。これにより、仮想カメラから見た映像である自由視点映像を確認することが可能になる。
仮想カメラ設定領域320は、仮想カメラ設定ボタン313の押下に応じて表示される。そして、その領域320内には、注視点の経路や仮想カメラの経路を指定するためのボタン、指定された経路に従って自由視点映像の生成開始を指示するためのOKボタン321〜323が存在する。また、仮想カメラ設定領域320には、仮想カメラ(Camera)及び注視点(Point of Interest)の高度や移動速度を表示する表示欄324及び325が存在し、その表示対象を切り替えるためのドロップダウンリスト326が存在する。
図4は、自由視点映像を生成する処理の大まかな流れを示したフローチャートである。この一連の処理は、CPU101が、所定のプログラムを記憶部103から読み込んでメインメモリ102に展開し、これをCPU101が実行することで実現される。
ステップ401では、多視点(ここでは、10台のカメラそれぞれに対応する10視点)から撮影された映像データが取得される。具体的には、ユーザが前述の多視点映像データ読み込みボタン311を押下することで、記憶部103から予め撮影された多視点映像データが読み込まれる。予め撮影した多視点映像データがない場合には、多視点映像データ読み込みボタン311の押下に応答して撮影を行なうことで多視点映像データを直接取得してもよい。すなわち、画像処理装置100からカメラ群109に対して、撮影時の露光条件等の撮影パラメータと撮影開始の信号をカメラ群109に送信し、各カメラで撮影された映像データをLAN108経由で直接取得してもよい。
ステップ402では、取得した多視点映像データの撮影シーン(ここではラグビー場のフィールド)を俯瞰的に捉えた静止画の2次元画像(以下、「静的2Dマップ」と呼ぶ。)が生成される。この静的2Dマップは、取得した多視点映像データにおける任意のフレームを用いて生成される。例えば、多視点映像データのうち任意の視点(カメラ)で撮影された1の映像データの特定フレームを射影変換することでえることができる。或いは多視点映像データのうち任意の2以上の視点に対応する映像データの特定フレームをそれぞれ射影変換して得られた画像を合成することで得ることができる。さらには、撮影シーンが事前に判明している場合には、予め作成しておいた静的2Dマップを読み込むことで取得してもよい。
ステップ403では、取得した多視点映像データのうち、自由視点映像生成の対象範囲となるタイムフレームが設定される。具体的には、ユーザは別モニタ等に表示される映像を確認しながら、前述のタイムフレーム設定ボタン312を押下して、自由視点映像を生成したい時間の範囲(開始時刻及び終了時刻)を設定する。例えば、取得された全映像データが120分あり、その開始から63分が経過した時点からの10秒間を設定する場合には、開始時刻1:03:00、終了時刻1:03:10といった具合に、対象のタイムフレームが設定される。取得した多視点映像データが60fpsで撮影されており、上記のように10秒分の映像データが対象範囲として設定された場合には、60(fps)×10(sec)×10(台)=6000フレームの静止画像データを基に、自由視点映像が生成されることになる。
ステップ404では、設定された対象範囲に含まれる全フレームにおいて、被写体202の位置とその3次元形状(以下、3D形状)が推定される。推定の手法としては、被写体の輪郭情報を用いるVisual-hull手法や、三角測量を用いたMulti-view stereo手法などの既存の手法を用いる。推定した被写体の位置と3D形状の情報は、被写体情報として記憶部103に保存される。なお、撮影シーンに複数の被写体が存在する場合には、各被写体についてその位置と3D形状の推定がなされる。
ステップ405では、仮想カメラの設定処理が行われる。具体的には、ユーザが前述の仮想カメラ設定ボタン313を押下することで、仮想カメラ設定領域320が表示され、ユーザは当該領域320内にあるボタン等を操作して、仮想カメラの経路や注視点の経路を設定する。この仮想カメラ設定処理の詳細に関しては、後述する。
ステップ406では、ユーザによる前述のOKボタン323の押下に応答して、ステップ405でなされた仮想カメラに関する設定内容に基づき、自由視点映像が生成される。自由視点映像は、被写体の3D形状に対して、仮想カメラから見た映像をコンピュータグラフィックスの技術を用いることで生成することができる。
ステップ407では、仮想カメラの設定内容を変更して新たな自由視点映像を生成するかどうかが判定される。この処理は、自由視点映像プレビューウィンドウ330に表示された自由視点映像を見て、その画質等を確認したユーザからの指示に基づいてなされる。ユーザが自由視点映像を生成し直したいと考えた場合は、仮想カメラ設定ボタン313を再び押下し、改めて仮想カメラに関する設定を行なう(ステップ405に戻る。)。仮想カメラ設定領域320において設定内容を変更して、再び「OK」ボタンが押下されると、変更後の内容で自由視点映像が生成される。一方、生成された自由視点映像に問題がなければ本処理を終える。以上が、本実施例に係る、自由視点映像が生成されるまでの大まかな流れである。
続いて、前述のステップ405における仮想カメラ設定処理について詳しく説明する。図5は、本実施例に係る、仮想カメラ設定処理の詳細を示すフローチャートである。本フローは、前述の仮想カメラ設定ボタン313が押下されることで実行される。
ステップ501では、設定されたタイムフレームにおける被写体情報と静的2Dマップが記憶部103から読み込まれる。読み込んだ被写体情報と静的2Dマップはメインメモリ102に格納される。
ステップ502では、読み込んだ被写体情報と静的2Dマップとに基づいて、図3に示すGUI画面の俯瞰画像表示領域300上に、被写体の位置及び3D形状が投影された静的2Dマップが表示される。図6(a)は、図2に示すフィールド201の静的2Dマップの上に、ボールを保持した選手の被写体202を投影した結果を示している。被写体202の位置と形状は、時間軸に沿って遷移するため、ユーザによって設定されたタイムフレーム内における被写体が全て投影される。この場合において、全フレーム分の全被写体を投影すると、投影結果が重なり、視認性・閲覧性が低下する。そこで、全フレームを一定の間隔(例えば5sec)でサンプリングし、所定のフレーム(図6(a)の例ではt0、t1、t2、t3)における被写体のみが投影される。また、図6(a)の例では、時間の経過と共に被写体が透過される(透過率が上がる)ように表示している。これによりユーザは、設定したタイムフレーム内での時間経過を一目で把握することができる。なお、本実施例では、被写体の透過率を異ならせているが、時間の経過が分かるような表示であればよく、例えば輝度を段階的に下げるなど他の態様であってもよい。こうして得られた投影結果は、俯瞰画像表示領域300に表示される。
ステップ503では、自由視点映像データにおける自由視点を特定する情報、すなわち、仮想カメラの向く方向である注視点が移動する経路(以下、注視点パス)と、仮想カメラが移動する経路(以下、カメラパス)がユーザによって指定される。ユーザは、仮想カメラ設定領域320内の注視点パス指定ボタン321又はカメラパス指定ボタン322を押下した後、俯瞰画像表示領域300内の静的2Dマップ上に、指、マウス、電子ペン等で軌跡を描く。これにより、注視点パス及びカメラパスがそれぞれ指定される。図6(b)は、注視点パスとカメラパスが指定された結果を示している。図6(b)において、破線の矢印601が注視点パス、実線の矢印602がカメラパスである。つまり、生成される自由視点映像は、仮想カメラの注視点が破線矢印601の示す曲線上を移動しつつ、仮想カメラ自体は実線矢印602の示す曲線上を移動した場合の仮想的な映像となる。この場合において、注視点及び仮想カメラの、フィールド201からの高度はそれぞれデフォルト値が設定される。例えば、撮影シーンが図2に示すようなラグビーの試合であれば、デフォルト値には、被写体である選手全体が仮想カメラの画角内に収まるよう、注視点の高度が1.5m、仮想カメラの高度が10mといった具合に設定される。また、注視点及び仮想カメラの移動速度は、指定された経路の移動距離を、図4のフローのステップ402で設定されたタイムフレームで割った値が設定される。
ステップ504では、設定されたカメラパスに沿って、時間軸方向に一定の間隔で仮想カメラから見た場合の静止画像(サムネイル画像)が生成される。本ステップにおける「一定の間隔」は、上述のステップ502における「一定の間隔」と同じであってもよいし、異なる間隔であってもよい。また、サムネイル画像は、自由視点映像の出来上がりを予測し、注視点パスやカメラパスの修正等の参考にするもので、その目的が達成可能な程度の解像度(相対的に低い解像度)が設定される。これにより処理負荷が軽くなり、高速な処理が可能になる。
ステップ505では、生成したサムネイル画像を、被写体202が投影された静的2Dマップに描かれたカメラパスに沿って配置する処理(サムネイル配置処理)がなされる。サムネイル配置処理の詳細に関しては後述する。図6(c)は、サムネイル配置処理の結果の一例を示す図であり、指定されたカメラパス602に沿って5つのサムネイル画像603が配置されている。このようにして俯瞰画像表示領域300には、静的2Dマップ上に描かれたカメラパスに沿って一定間隔で複数のサムネイル画像が並んだ状態が表示されることになる。そして、サムネイル画像をカメラパス(=時間軸)に沿って閲覧することで、ユーザはどのような自由視点映像が生成されるかを瞬時に理解することができる。その結果、前述の図4のフローにおけるステップ404〜ステップ406の繰り返し回数の大幅な削減に繋がる。
以降のステップ506〜508は、カメラパス又は注視点パスの調整を行う場合の処理である。ユーザがサムネイル画像から推測される自由視点映像に満足できず、調整を行いたいと考えた場合には、俯瞰画像表示領域300上に表示された複数のサムネイル画像のいずれか又は注視点パス上のいずれかの位置を選択する。本実施例の場合、例えば指等で任意のサムネイル画像603のいずれか又は注視点パスを表す破線矢印601の任意の箇所をタッチすることでこの選択がなされる。
ステップ506では、ユーザが何らかの選択を行ったかどうかが判定される。ユーザによってサムネイル画像が選択された場合にはステップ507へ進み、注視点パス上の任意の箇所が選択された場合にはステップ508に進む。一方、いずれの選択もされずにOKボタン323が押下された場合には、本処理を抜け、自由視点映像の生成処理(図4のフローのステップ405)に移行することになる。
ステップ507では、選択されたサムネイル画像に対するユーザ指示に従って、仮想カメラの経路、高度、移動速度を調整する処理(カメラパス調整処理)が実行される。カメラパス調整処理の詳細に関しては後述する。
ステップ508では、注視点パス上の選択箇所を示すマーク(本実施例では×印)に対するユーザ指示に従って、注視点の経路、高度、移動速度を調整する処理(注視点パス調整処理)が実行される。注視点パス調整処理の詳細に関しては後述する。以上が、仮想カメラ設定処理の内容である。
図7は、サムネイル配置処理(ステップ505)の詳細を示すフローチャートである。まず、ステップ701では、時間軸方向に一定間隔でサンプリングして生成したサムネイル画像が、ステップ503で設定されたカメラパスに沿って配置される。そして、ステップ702では、サムネイル画像同士の間隔が適正化される。具体的には、一定間隔で配置された結果に対して、サムネイル画像同士が密集し重なりが生じている箇所については、重ならないように間引く処理がなされる。さらに、カメラパスの始点や終点、並びにカメラパスの変化が大きい変曲点について、新たにサムネイル画像を生成し追加する処理がなされる。そして、ステップ703では、間隔が適正化された各サムネイル画像と、投影されている被写体(投影被写体)とが重ならないように、サムネイル画像の位置をずらす補正処理がなされる。これにより、各投影被写体の視認性が確保され、ユーザはその後の編集作業を円滑に進めることができる。
図8は、サムネイル配置処理の過程を説明する図である。図8(a)はステップ701の結果であり、生成されたサムネイル画像801のすべてがカメラパスに沿って一定間隔で配置された結果、ほとんどのサムネイル画像が他のサムネイル画像と重なった状態になっている。図8(b)はステップ702の結果であり、カメラパスの終点に新たなサムネイル画像802が追加された上で、サムネイル画像同士の重なりが解消されている。ただし、t1〜t3にかけて投影被写体やカメラパスと一部のサムネイル画像とが重なった状態となっている。図8(c)はステップ703の結果であり、投影被写体やカメラパスと重なっていたサムネイル画像が移動し、すべての投影被写体とサムネイル画像の視認性が確保された状態となっている。以上が、サムネイル配置処理の内容である。
続いて、カメラパス調整処理について説明する。図9は、カメラパス調整処理の詳細を示すフローチャートである。前述の通り、本処理は、ユーザが仮想カメラの位置や高度を変更したい箇所のサムネイル画像を選択することで開始する。図10は、カメラパス調整処理の過程を説明する図である。図10(a)に示すように、ユーザが選択したサムネイル画像1001は、例えば太枠で強調表示される。また、このときドロップダウンリスト326で「Camera」を選択しておくことで、選択に係るサムネイル画像に対応する位置の、注目フレームにおける仮想カメラの高度と移動速度が、表示欄324及び325にそれぞれ表示される。もちろん、注目フレームだけではなく、自由視点映像を生成するタイムフレーム全体について、仮想カメラの高度と移動速度を表やグラフ等で表示してもよい。また、設定できる仮想カメラのパラメータは高度や移動速度に限定されない。例えば、カメラの画角などを表示してもよい。この状態から、カメラパス調整処理が開始する。
ステップ901では、強調表示されたユーザ選択に係るサムネイル画像(以下、「選択サムネイル」と呼ぶ。)に対する、ユーザ指示がなされたかどうかが判定される。本実施例では、ユーザ自身の指を使ったタッチ操作が検知されると、ユーザ指示があったと判断され、ステップ902に進む。
ステップ902では、ユーザ指示の内容に応じた処理の切り分けがなされる。ユーザ指示が、選択サムネイルに対する1本指でのドラッグ操作であればステップ903に、2本指でのピンチ操作であればステップ904に、2本指でのスワイプ操作であればステップ905にそれぞれ進む。
ステップ903では、1本指のドラッグ操作による選択サムネイルの移動に応じて、仮想カメラの経路を変更する。図10(b)は、選択サムネイル1001がドラッグ操作によって1001’の位置に移動された結果に応じて仮想カメラの経路が変更される様子を示す図である。図10(a)において実線矢印1010のような軌跡を示していたカメラパスが、図10(b)では実線矢印1020のような異なる軌跡のカメラパスへと変更されているのが分かる。なお、選択中のサムネイル画像と隣接するサムネイル画像との間のカメラパスは、スプライン曲線等で補間される。
ステップ904では、2本指のピンチ操作(2本指で間隔を広くする、または狭める)による選択サムネイルのサイズ変化に応じて、仮想カメラの高度を変更する。図10(c)には、ピンチ操作によってサイズが拡大された選択サムネイル1002が示されている。ピンチ操作により、選択サムネイルのサイズが拡大または縮小するので、例えばサイズが大きくなるのに伴って高度が低く、サイズが小さくなるのに伴って高度が高くなるようにする。もちろん、サムネイル画像サイズの大小と仮想カメラの高度との関係は逆でもよく、例えばサイズが大きくなるのに伴って高度が高くなるようにしてもよい。すなわち、選択サムネイルのサイズと、その位置における仮想カメラの高度が連動するようになっていればよい。このとき、サイズ変化に応じた仮想カメラの高度を示す数値が、ドロップダウンリスト326で「Camera」を選択しておくことで、表示欄324に表示される。なお、選択中のサムネイル画像と隣接するサムネイル画像との間のカメラパスは、スプライン補間等で修整される。
ステップ905では、2本指のスワイプ操作による選択サムネイルへの所定のアイコンの付加に応じて、仮想カメラの移動速度を変更する。図11(a)は、開始時刻から数えて4つ目の選択サムネイルへの2本指のスワイプ操作によって、濃度が段階的に変化するグラデーションアイコン1100が付加された状態を示す図である。このとき、グラデーションアイコン1100の形状と移動速度との間に相関を持たせるようにする。例えば、グラデーションアイコン1100の長さが長い程、移動速度が速く、グラデーションアイコンの長さが短い程、移動速度が遅い、といった具合である。このように、選択サムネイルへの付加アイコンの形状が、その位置における仮想カメラの移動速度を表すようにする。また、付加アイコンの形状変化に応じた仮想カメラの移動速度を示す数値が、ドロップダウンリスト326で「Camera」を選択しておくことで、表示欄325に表示される。図11(b)は、各サムネイル画像、仮想カメラの移動速度、及び自由視点映像の再生時間との関係を説明する図であり、上段は移動速度の変更前、下段は移動速度の変更後の状態を表している。そして、丸印は図11(a)における5つのサムネイル画像を表し、上段における各サムネイル画像は、設定されたタイムフレームの再生時間を均等に分割した時刻にそれぞれ対応している。ここでは、開始時刻から4つ目のサムネイル画像が選択されて移動速度が調整された例を示している。いま、選択サムネイルに対してスワイプ操作を行って仮想カメラの移動速度を上げたとする。この場合、図11(b)の下段の太線矢印1101に示すように、選択中の4つ目のサムネイル画像とその未来に当たる左隣のサムネイル画像との間の再生時間が短縮される。この結果、両サムネイル画像間に相当するフレームにおける被写体の動きも再生時間に合わせて速くなる。また、最終的に出来上がる自由視点映像全体の再生時間もその分だけ短縮される。これとは逆に、選択サムネイルの移動速度を下げた場合は、再生時間がその分だけ延びることになる。さらにこの時、両サムネイル画像間に相当する仮想カメラの移動速度と注視点の移動速度が異なるため、対応する注視点の移動速度を自動的に修整することで、自由視点映像全体の再生時間を一致させてもよい。或いは、後述のステップ1205において注視点の移動速度を変更した後に、仮想カメラの移動速度か注視点の移動速度のどちらかを修整してもよい。
ステップ906では、上記のような変更後の内容で、各サムネイル画像が更新される。以上が、カメラパス調整処理の内容である。なお、本実施例では、ユーザ指示を、ユーザ自身の指を使ったタッチ操作の種類によって処理を切り分けているが、電子ペンやマウスによる場合には、例えば「Ctrl」キーや「Shift」キーを押しながらの操作であるかどうかによって処理を切り分ければよい。
次に、注視点パス調整処理について説明する。図12は、注視点パス調整処理の詳細を示すフローチャートである。前述の通り、本処理は、ユーザがその位置や高度を変更したい注視点パス上の任意の箇所を選択することで開始する。図13は、注視点パス調整処理の過程を説明する図である。図13(a)に示すように、ユーザ選択に係る注視点パス上の任意の箇所(選択箇所)は、例えば太線の×印1301で強調表示される。また、このときドロップダウンリスト326で「Point of Interest」を選択しておくことで、選択箇所に対応する位置の注視点の高度と移動速度が、表示欄324及び325にそれぞれ表示される。この状態から、注視点パス調整処理が開始する。
ステップ1201では、注視点パス上の選択箇所を示す×印1301に対して、ユーザ指示がなされたかどうかが判定される。本実施例では、ユーザ自身の指を使ったタッチ操作が検知されると、ユーザ指示があったと判断され、ステップ1202に進む。
ステップ1202では、ユーザ指示の内容に応じた処理の切り分けがなされる。ユーザ指示が、選択箇所を示す×印1301に対する1本指でのドラッグ操作であればステップ1203に、2本指でのピンチ操作であればステップ1204に、2本指でのスワイプ操作であればステップ1205にそれぞれ進む。
ステップ1203では、1本指のドラッグ操作による×印1301の移動に応じて、注視点の経路を変更する。図13(b)は、×印1301がドラッグ操作によって1301’の位置に移動された結果に応じて、注視点の経路が変更される様子を示す図である。図13(a)において破線矢印1300のような軌跡を示していた注視点パスが、図13(b)では破線矢印1300’のような異なる軌跡の注視点パスへと変更されているのが分かる。なお、選択中のサムネイル画像と隣接するサムネイル画像との間の注視点パスは、スプライン曲線等で補間される。
ステップ1204では、2本指のピンチ操作による×印1301のサイズ変化に応じて、注視点の高度を変更する。図13(c)には、ピンチ操作によってサイズが拡大された×印1301”が示されている。ピンチ操作により、選択サムネイルのサイズが拡大または縮小するので、例えばサイズが大きくなるのに伴って高度が低く、サイズが小さくなるのに伴って高度が高くなるようにする。もちろん、×印のサイズの大小と注視点の高度との関係は逆でもよく、例えばサイズが大きくなるのに伴って高度が高くなるようにしてもよい。すなわち、選択箇所を示す×印のサイズと、その位置における注視点の高度が連動するようになっていればよい。このとき、サイズ変化に応じた注視点の高度を示す数値が、ドロップダウンリスト326で「Point of Interest」を選択しておくことで、表示欄324に表示される。このとき、高度変化が急激にならないよう、選択箇所を挟む所定範囲内の注視点パスの高度も、スプライン補間等で修整される。
ステップ1205では、2本指のスワイプ操作による×印1301への所定アイコンの付加に応じて、注視点の移動速度を変更する。図13(d)は、×印1301への2本指のスワイプ操作によって、濃度が段階的に変化するグラデーションアイコン1310が付加された状態を示す図である。このとき、グラデーションアイコン1310の形状と移動速度との間に相関を持たせるようにする。例えば、グラデーションアイコン1310の長さが長い程、移動速度が速く、グラデーションアイコンの長さが短い程、移動速度が遅い、といった具合である。このように、選択箇所を示すマーク(ここでは×印)への付加アイコンの形状が、その位置における注視点の移動速度を表すようにする。また、付加アイコンの形状変化に応じた注視点の移動速度を示す数値が、ドロップダウンリスト326で「Point of Interest」を選択しておくことで、表示欄325に表示される。
ステップ1206では、上記のような変更後の内容で、注視点パスが更新される。以上が、注視点パス調整処理の内容である。
以上のとおり本実施例によれば、視覚的に分かりやすく、簡単かつ短時間での仮想カメラパス設定が可能となる。また、従来困難であった、2次元画像上での仮想カメラの高度や移動速度の設定も可能となる。
実施例1のGUI画面は、静止画による2次元画像上に仮想カメラの経路等を指定する態様であった。次に、動画による2次元画像上で仮想カメラの経路等を指定する態様について、実施例2として説明する。なお、画像処理装置100の基本構成など実施例1と共通する部分は説明を省略し、以下では差異点である、動画の2次元画像を用いた仮想カメラの設定処理を中心に説明するものとする。
図14は、本実施例に係る、自由視点映像生成時に用いるGUI画面の一例を示した図である。図14は本実施例に係るGUI画面の基本画面であり、俯瞰画像表示領域1400、操作ボタン領域1410、仮想カメラ設定領域1420から構成される。なお、本実施例では、注視点パスやカメラパスの指定といった入力操作が電子ペンによって行なわれるものとして、説明を行うものとする。
俯瞰画像表示領域1400は、仮想カメラの経路や注視点の経路を指定する操作・確認に利用され、撮影シーンを俯瞰的に捉えた動画の2次元画像(以下、「動的2Dマップ」と呼ぶ。)が表示される。そして、俯瞰画像表示領域1400内には、対象タイムフレームに対応する動的2Dマップの再生・停止、進行状況を表示するプログレスバー1401や、動的2Dマップの再生速度を調整するための調整バー1402が存在する。さらに、仮想カメラの経路や注視点の経路を指定する際のモードを表示するモード表示欄1403も存在する。ここで、モードには、“Time-sync”と“Pen-sync”の2種類がある。“Time-sync”は、動的2Dマップの再生が進むに従って、仮想カメラや注視点の経路を入力するモードである。“Pen-sync”は、電子ペン等で入力された経路の長さに比例して動的2Dマップの再生が進むモードである。
操作ボタン領域1410には、多視点映像データの読み込み、自由視点映像生成の対象タイムフレームの設定、仮想カメラの設定を行うためのボタン1411〜1413が存在する。また、操作ボタン領域1410には、生成した自由視点映像を確認するための確認ボタン1414が存在し、これが押下されることにより、自由視点映像プレビューウィンドウ(実施例1の図3(b)を参照)に遷移する。これにより、仮想カメラから見た映像である自由視点映像を確認することが可能になる。
仮想カメラ設定領域1420は、仮想カメラ設定ボタン1413の押下に応じて表示される。そして、その領域1420内には、注視点や仮想カメラの経路を指定するためのボタン、経路を指定する際のモード指定を行うためのボタン、指定された経路に従って自由視点映像の生成開始を指示するためのOKボタン1421〜1424が存在する。また、仮想カメラ設定領域1420には、仮想カメラ(Camera)及び注視点(Point of Interest)の高度と移動速度を表示するグラフ1425と、その表示対象を切り替えるためのドロップダウンリスト1426が存在する。グラフ1425は、縦軸が高度、横軸がフレーム数を表し、各点は設定タイムフレームを所定数で分割したときの各時点(ここではt0〜t5)を示している。この場合において、t0は開始フレームに対応し、t5は最終フレームに対応している。仮に、開始時刻1:03:00、終了時刻1:03:25のように25秒分の対象タイムフレームが設定されたとする。多視点映像データが60fpsであれば、60(fps)×25(sec)=1500フレームが、このときの動的2Dマップの全フレーム数となる。ユーザは、グラフ1425上の各点を電子ペンで選択して上下方向に移動させることで、対象タイムフレームにおける任意の時点の仮想カメラや注視点の高度を変更することができる。
図15は、本実施例に係る、自由視点映像を生成する処理の大まかな流れを示したフローチャートである。以下、実施例1の図4のフローとの違いを中心に説明を行う。
ステップ1501で多視点映像データが取得されると、続くステップ1502では、取得した多視点映像データのうち、自由視点映像生成の対象タイムフレーム(開始時刻及び終了時刻)が設定される。動的2Dマップは、対象タイムフレームに対応する撮影シーンを俯瞰的に見た場合の2次元動画であるため、対象タイムフレームの設定を待って生成されることになる。
ステップ1503では、設定されたタイムフレームに対応する動的2Dマップが生成し、記憶部103に保存する。具体的な動的2Dマップ作成方法としては、多視点映像データのうち任意の1の視点に対応する映像データの設定されたタイムフレームにおける映像を射影変換する。或いは多視点映像データのうち任意の2以上の視点に対応する映像データの設定されたタイムフレームにおける映像をそれぞれ射影変換し、得られた複数の映像データを合成することでも得ることができる。この場合、後者の方が被写体形状のつぶれ等が抑制され高画質となるが、その分だけ処理負荷が重くなる。前者であれば画質が劣るものの処理負荷が軽いためより高速な処理が可能となる。
ステップ1504〜ステップ1506は、実施例1の図4のフローにおけるステップ405〜ステップ407にそれぞれ対応する。ただし、後述の通り、ステップ1504における仮想カメラ設定処理の中身は、使用する2Dマップが静止画ではなく動画であることから、以下に述べるとおり異なる箇所が多く存在する。
以上が、本実施例における自由視点映像が生成されるまでの大まかな流れである。
続いて、上述の動的2Dマップを使用した仮想カメラ設定処理について説明する。図16は、本実施例に係る、仮想カメラ設定処理の詳細を示すフローチャートである。本フローは、前述の仮想カメラ設定ボタン1413が押下されることで実行される。
ステップ1601では、設定されたタイムフレームの動的2Dマップが記憶部103から読み込まれる。読み込んだ動的2Dマップはメインメモリ102に格納される。
ステップ1602では、読み込んだ動的2Dマップの開始フレーム(t0時点のフレーム)が、図14に示すGUI画面の俯瞰画像表示領域1400上に表示される。図17(a)は、動的2Dマップの開始フレームの一例である。本実施例では、ユーザによって設定されたタイムフレームを一定の間隔(例えば5sec)でサンプリングした箇所(t0〜t5)のうち、現在再生中の時点から所定の時点までのフレームを重ねて表示する。図17(a)の例では、開始フレームから15sec分に相当するt0〜t3までのフレームが重ねて表示されている。この際、現在から遠いフレームにおける被写体ほど透過する(透過率が上がる)ように表示する点は、実施例1と同じである。これによりユーザは、設定したタイムフレーム内での時間経過を一目で把握することができ、さらに表示範囲を時間的に限定することで閲覧性が向上する。
ステップ1603では、注視点パスやカメラパスを指定する際のモードのユーザ選択を受け付け、“Time-sync”又は“Pen-sync”のいずれかが設定される。設定された内容は、俯瞰画像表示領域1400内のMode表示欄1403に表示される。なお、ユーザ選択がなければ、デフォルト設定の内容(例えば“Time-sync”)で次の処理に移行するようにしてもよい。
ステップ1604では、注視点パスの指定を受け付ける処理(注視点パス指定受付処理)がなされる。ユーザは電子ペンを用いて、仮想カメラ設定領域1420内の注視点パス指定ボタン1421を押下した後、俯瞰画像表示領域1400内の動的2Dマップ上に軌跡を描く。これにより注視点パスが指定される。図17(b)〜(d)は、図17(a)に示す動的2Dマップ上に注視点パスが指定される様子を時系列で示す図であり、破線の矢印1701が指定された注視点パスである。図17(b)は現在がt0の時点、同(c)は現在がt1の時点、同(d)は現在がt2の時点における動的2Dマップの状態をそれぞれ表している。例えば図17(c)では、現在がt1の時点であるので、過去になったt0時点の被写体(フレーム)が表示されなくなる代わりに、t4時点の被写体(フレーム)が表示されている。このように表示する被写体の範囲を時間的に限定することで閲覧性を向上させることができる。なお、設定されたタイムフレームが短時間である場合等の一定の条件下で、時間的な限定を行うことなく、設定されたタイムフレーム間の全フレームを表示するようにしてもよい。この場合、過去分のフレームについても被写体を透過させる等の処理を行って、時間の経過をユーザが把握できるようにしてもよい。注視点パス指定受付処理は、ステップ1603で指定されたモードによってその内容が異なる。モードに応じた注視点パス指定受付処理の詳細については後述する。
ステップ1605では、カメラパスの指定を受け付ける処理(カメラパス指定受付処理)がなされる。上述の注視点パスと同様、ユーザは電子ペンを用いて、仮想カメラ設定領域1420内のカメラパス指定ボタン1422を押下した後、俯瞰画像表示領域1400内の動的2Dマップ上に軌跡を描く。これによりカメラパスが指定される。図18(a)〜(c)は、注視点パスの指定を終えた後の動的2Dマップ上(図17(d)を参照)に、カメラパスを指定する様子を時系列で示す図である。図18(a)〜(c)において、×印1800は指定された注視点パス1701上の注視点の現在位置を示し、実線の矢印1801は指定されたカメラパスを示している。図18(a)は現在がt0の時点、同(b)は現在がt1の時点、同(c)は現在がt2の時点における動的2Dマップの状態をそれぞれ表している。例えば図18(b)では、現在がt1の時点であるので、t0時点の被写体(フレーム)が表示されなくなる代わりに、t4時点の被写体(フレーム)が表示されている。カメラパス指定受付処理の内容も、ステップ1603で指定されたモードによってその内容が異なる。モードに応じたカメラパス指定受付処理の詳細については後述する。
ステップ1606では、ユーザが調整のための何らかの選択を行ったかどうかが判定される。ユーザによって、動的2Dマップ上の注視点パス又はカメラパス、或いはグラフ1425上の点が選択された場合には、ステップ1607へ進む。一方、いずれの選択もされずにOKボタン1424が押下された場合には、本処理を抜け、自由視点映像の生成処理(図15のフローのステップ1505)に移行することになる。
ステップ1607では、選択された注視点パス又はカメラパスに対する入力操作に従って、仮想カメラの経路、高度、移動速度を調整する処理(パス調整処理)が実行される。パス調整処理の詳細に関しては後述する。
続いて、注視点パス指定受付処理(ステップ1604)及び、カメラパス指定受付処理(ステップ1605)について説明する。各処理の詳細に入る前に、カメラパスを指定する際のモードによる違いを、図19を参照して説明する。図19において、(a)は“Time-sync”モード、同(b)は“Pen-sync”モードの場合をそれぞれ示している。図19(a)及び(b)において、実線の矢印1901及び1902が指定された経路をそれぞれ示している。図19(a)に示す“Time-sync”では、動的2Dマップが5秒進行する間にユーザが電子ペンを操作した軌跡がパス1901となる。これに対し、図19(b)に示す“Pen-sync”では、ユーザが電子ペンを操作して描いた軌跡(=パス1902)の長さが5秒分であることを意味する。なお、図19では、説明の便宜上、異なる時間軸の被写体を省略しているが、前述の通り、実際のGUI画面では例えば透過率を変えるなどして異なる時間軸の被写体も表示される。また、カメラパスの指定を受け付ける際、例えば図20に示すように、現在位置の注視点を中心とした所定範囲内(その注視点の周辺のみ)を表示するようにして、表示する被写体を空間的に絞り込んでもよい。図20において、(a)は空間的な絞込みを行う前の俯瞰図(動的2Dマップにおける1フレーム)の一例であり、同(b)は空間的な絞込みを行なった俯瞰図の一例である。このように、注視点から離れた場所にいる被写体を不可視の状態にすることで閲覧性を向上させることができる。
図21は、注視点パス指定受付処理の詳細を示すフローチャートであり、(a)が“Time-sync”の場合、(b)が“Pen-sync”の場合である。前述の通り、本処理はユーザが注視点パス指定ボタン1421を押下することで開始する。
まず、“Time-sync”の場合について、図21(a)のフローに沿って説明する。ステップ2101では、動的2Dマップ上でユーザが行った電子ペンによる入力操作を受け付ける。ステップ2102では、電子ペンの入力操作を受け付けた時点からの経過時間が、画像処理装置内100が備えるタイマ(不図示)に基づき算出される。ステップ2103では、ユーザによる電子ペンの入力操作の軌跡を表示しながら(前述の図17の例では破線矢印)、算出された経過時間に相当するフレーム数分、動的2Dマップが進められる。この時、調整バー1402を調整することで、算出された経過時間に対して、どの程度動的2Dマップを進めるか調整できる。例えば、調整バー1402によって、再生速度を半分にすると、算出された電子ペン入力の経過時間5秒に対して、動画を2.5秒進めるようなスロー再生ができる。こうして動的2Dマップ上に表示された電子ペンでの入力操作の軌跡が注視点パスとなる。ステップ2104では、設定されたタイムフレーム全体について注視点パスの指定がなされたかどうかが判定される。未処理のフレームがあれば、ステップ2102に戻って処理を繰り返す。一方、対象タイムフレーム全体について注視点パスの指定が完了していれば、本処理を抜ける。以上が、“Time-sync”の場合の注視点パス指定受付処理の内容である。
続いて、“Pen-sync”の場合について、図21(b)のフローに沿って説明する。ステップ2111では、動的2Dマップ上でユーザが行った電子ペンによる入力操作を受け付ける。ステップ2112では、電子ペンの入力操作を受け付けた時点からの、電子ペンの軌跡の長さの累積値(累積軌跡長)が算出される。ステップ2113では、電子ペンの入力操作の軌跡を表示しながら、算出された累積軌跡長に相当するフレーム数分、動的2Dマップが進められる。例えば、累積軌跡長を動的2Dマップ上の画素数で換算する場合、累積軌跡長1画素につき1フレーム分動画が進む例が考えられる。またこの時、調整バー1402を調整することで、再生速度を半分にすると、累積軌跡長2画素につき、動画を1フレーム進めるようなスロー再生ができる。ステップ2114では、設定されたタイムフレーム全体について注視点パスの指定がなされたかどうかが判定される。未処理のフレームがあれば、ステップ2112に戻って処理を繰り返す。一方、対象タイムフレーム全体について注視点パスの指定が完了していれば、本処理を抜ける。以上が、“Pen-sync”の場合の注視点パス指定受付処理の内容である。
図22は、カメラパス指定受付処理の詳細を示すフローチャートであり、(a)が“Time-sync”の場合、(b)が“Pen-sync”の場合である。前述の通り、本処理はユーザがカメラパス指定ボタン1422を押下することで開始する。
まず、“Time-sync”の場合について、図22(a)のフローに沿って説明する。ステップ2201では、動的2Dマップ上に前述のステップ1604で指定された注視点パスと当該注視点パスにおける開始点(初期注視点)が表示される。図18の例では、注視点パスが破線矢印1701、初期注視点が×印1800である。ステップ2202では、動的2Dマップ上でユーザが行った電子ペンによる入力操作を受け付ける。ステップ2203では、前述のステップ2102と同様、電子ペンの入力操作を受け付けた時点からの経過時間が算出される。ステップ2204では、受け付けた電子ペンの入力操作の軌跡を、注視点パスとの混同が生じないように表示しながら(例えば線の種類や色を変える等)、算出された経過時間に相当するフレーム数分、動的2Dマップが進められる。この際、注視点の現在位置も時間の経過に合わせて移動する。このようにして、電子ペンでの入力操作の軌跡がカメラパスとして表示される。前述の図18の例では、カメラパスを実線矢印1801で示すことで、破線矢印1701で示す注視点パスと区別している。ステップ2205では、設定されたタイムフレーム全体についてカメラパスの指定がなされたかどうかが判定される。未処理のフレームがあれば、ステップ2203に戻って処理を繰り返す。一方、対象タイムフレーム全体についてカメラパスの指定が完了していれば、本処理を抜ける。以上が、“Time-sync”の場合のカメラパス指定受付処理の内容である。
続いて、“Pen-sync”の場合について、図22(b)のフローに沿って説明する。ステップ2211では、動的2Dマップ上に前述のステップ1604で指定された注視点パスと当該注視点パスの初期注視点が表示される。ステップ2212では、動的2Dマップ上でユーザが行った電子ペンによる入力操作を受け付ける。ステップ2213では、電子ペンの入力操作を受け付けた時点からの、電子ペンの軌跡の長さの累積値(累積軌跡長)が算出される。ステップ2214では、電子ペンの入力操作の軌跡を、注視点パスとの混同が生じないように表示(例えば線の種類や色を変える等)しながら、算出された累積軌跡長に相当するフレーム数分、動的2Dマップが進められる。この際、注視点の現在位置も動的2Dマップの進みに合わせて移動する。このようにして電子ペンでの入力操作の軌跡がカメラパスとして表示される。ステップ2215では、電子ペンによる入力操作が停止しているかどうかが判定される。例えば、電子ペンの位置座標を現フレームと直近フレームとで比較し、変化がなければ電子ペンの入力操作が停止していると判定する。判定の結果、電子ペンの入力操作が停止している場合はステップ2216に進み、停止していない場合はステップ2217に進む。ステップ2216では、電子ペンの入力操作の停止状態が、例えば5secなど一定時間以上継続しているかどうかが判定される。判定の結果、停止状態が一定時間以上継続している場合はステップ2217に進み、停止状態が一定時間以上継続していない場合はステップ2213に戻って処理を続行する。ステップ2217では、電子ペンの入力操作がなされた時点までの自由視点映像の生成が、図15のフローのステップ1505を待たずに実行される。この際には、入力操作が済んだ分までのカメラパスに従って自由視点映像の生成が行われる。リソースの空き時間を有効活用するためである。ステップ2218では、設定されたタイムフレーム全体についてカメラパスの指定がなされたかどうかが判定される。未処理のフレームがあれば、ステップ2213に戻って処理を繰り返す。一方、対象タイムフレーム全体についてカメラパスの指定が完了していれば、本処理を抜ける。以上が、“Pen-sync”の場合のカメラパス指定受付処理の内容である。
続いて、本実施例に係るパス調整処理について説明する。図23は、本実施例のパス調整処理の詳細を示すフローチャートである。前述の通り本処理は、ユーザが、動的2Dマップ上の注視点パス又はカメラパス、或いはグラフ1425上の点を選択することで開始する。グラフ1425上の点を選択した際のドロップダウンリスト1426が「Camera」であればカメラパスについて、「Point of Interest」であれば注視点パスについての調整処理となる。
ステップ2301では、ユーザ選択に係るカメラパス又は注視点パス或いはグラフ1425上の点に対する、ユーザ指示がなされたかどうかが判定される。本実施例では、電子ペンによる入力操作が検知されると、ユーザ指示があったと判断され、ステップ2302に進む。
ステップ2302では、ユーザ指示の内容に応じた処理の切り分けがなされる。ユーザ指示が、注視点パスに対するドラッグ操作であればステップ2303に、カメラパスに対するドラッグ操作であればステップ2304に、グラフ1425上の点に対するドラッグ操作であればステップ2305にそれぞれ進む。
ステップ2303では、ドラッグ操作による注視点パスの移動に応じて、注視点の経路を変更する。ここで、パス指定のモードが“Time-sync”であったとする。この場合において、ユーザが注視点パス上の任意の中間点を選択していた場合には、その開始点と終了点を維持したまま、移動先に沿って経路が変更される。この際、変更後の注視点パスが滑らかになるようにスプライン補間等の処理がなされる。一方、ユーザが注視点パスの開始点又は終了点を選択していた場合には、移動先に応じて、注視点パスの長さが伸縮される。このとき、注視点パスの長さが伸びるケースでは注視点の移動速度が速くなることを意味し、逆に長さが短くなるケースでは注視点の移動速度が遅くなることを意味する。パス指定のモードが“Pen-sync”の場合も基本的には同じであるが、注視点パスの長さを変更するような調整はできない。“Pen-sync”においてはパスの長さ=再生時間だからである。“Pen-sync”の場合における注視点の移動速度の調整は、動的2Dマップの再生速度を調整するための調整バー1402によって行うことになる。
ステップ2404では、ドラッグ操作によるカメラパスの移動に応じて、仮想カメラの経路を変更する。その内容は、前述の注視点パスの経路変更と同じであるので説明を省略する。ステップ2405では、ドラッグ操作によるグラフ上の点の移動に応じて、「Camera」を選択中であれば仮想カメラの高度が、「Point of Interest」を選択中であれば注視点の高度が、その移動先の点の位置に応じて変更される。以上が、本実施例に係るパス調整処理の内容である。
本実施例によれば、実施例1の効果に加え、以下のような利点がある。まず、仮想カメラ設定のための事前処理(被写体の位置と3次元形状の推定)が不要で処理負荷が軽く、カメラパスや注視点パスの設定をより早く開始することができる。また、サムネイル画像を用いないため、仮想カメラ等の経路を指定する際の画面がシンプルで被写体を見やすい。さらに、動画の進行に沿って仮想カメラ等の経路を指定するため、被写体の動きの把握が容易で予測しやすい。これらの効果によって、より使いやすいユーザインタフェースとなる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (27)

  1. 複数のカメラを用いて撮影した多視点映像から、仮想カメラから見た映像である自由視点映像を生成する画像処理装置において、
    前記仮想カメラの移動の軌跡を示すカメラパス及び前記仮想カメラが注視する先である注視点の移動の軌跡を示す注視点パスを、ユーザが指定するためのユーザインタフェースと、
    前記ユーザインタフェースを介して指定された前記カメラパス及び注視点パスに基づいて、前記自由視点映像を生成する生成手段と、
    を備え、
    前記ユーザインタフェースは、前記多視点映像の撮影シーンを俯瞰的に捉えた2次元画像を用いたUI画面に、前記多視点映像のうち前記自由視点映像の生成対象となるタイムフレームにおける被写体の時系列の変化を表示し、前記ユーザが、当該2次元画像に対する入力操作によって前記軌跡を描くことで、前記カメラパス及び注視点パスが指定されるように構成される
    ことを特徴とする画像処理装置。
  2. 前記2次元画像を前記多視点映像から生成する生成手段をさらに備えたことを特徴とする請求項1に記載の画像処理装置。
  3. 前記2次元画像は静止画であり、
    前記ユーザインタフェースは、前記タイムフレームを一定の間隔でサンプリングした所定のフレームにおける各被写体を時間軸方向に異なる態様で前記静止画に重ねて表示することで、前記被写体の時系列の変化を表示するように構成される、
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記異なる態様は、透過率を異ならせることであることを特徴とする請求項3に記載の画像処理装置。
  5. 前記ユーザインタフェースは、ユーザが指定した前記カメラパスに沿って、時間軸方向に一定の間隔で前記仮想カメラから見た場合のサムネイル画像を配置し、当該サムネイル画像に対するユーザの入力操作を介して、前記仮想カメラの経路、高度、移動速度が調整されるように構成されることを特徴とする請求項3又は4に記載の画像処理装置。
  6. 前記サムネイル画像は、前記カメラパスの変化が大きい変曲点に配置されることを特徴とする請求項5に記載の画像処理装置。
  7. 前記サムネイル画像は、サムネイル画像同士が重ならないように配置されることを特徴とする請求項5に記載の画像処理装置。
  8. 前記サムネイル画像は、前記被写体と重ならないように配置されることを特徴とする請求項5に記載の画像処理装置。
  9. 前記サムネイル画像の位置が変更されることにより、指定された前記カメラパスの経路が変化することを特徴とする請求項5乃至8のいずれか1項に記載の画像処理装置。
  10. 前記サムネイル画像のサイズが変更されることにより、指定された前記カメラパスの当該サムネイル画像に対応する位置における前記仮想カメラの高度が変化することを特徴とする請求項5乃至8のいずれか1項に記載の画像処理装置。
  11. 前記サムネイル画像に所定のアイコンを付加する操作をユーザが行うことによって、指定された前記カメラパスの当該サムネイル画像に対応する位置における前記仮想カメラの移動速度が変化することを特徴とする請求項5乃至8のいずれか1項に記載の画像処理装置。
  12. 前記所定のアイコンは、そのサイズによって移動速度の違いを表すことを特徴とする請求項11に記載の画像処理装置。
  13. 前記2次元画像は動画であり、
    前記生成手段は、前記多視点映像のうち前記タイムフレームに相当する映像を用いて前記動画を生成し、
    前記ユーザインタフェースは、前記動画を再生することで、前記被写体の時系列の変化を表示するように構成される、
    ことを特徴とする請求項2に記載の画像処理装置。
  14. 前記生成手段は、前記多視点映像のうち任意の1の視点に対応する映像の前記タイムフレームにおける映像を射影変換すること、又は前記多視点映像のうち任意の2以上の視点に対応する映像の前記タイムフレームにおける映像をそれぞれ射影変換して得られた複数の映像を合成することで、前記動画を生成することを特徴とする請求項13に記載の画像処理装置。
  15. 前記ユーザインタフェースは、前記タイムフレームを一定の間隔でサンプリングした箇所のうち、現在再生中の時点から所定の時点までのフレームを重ねて表示することで、前記被写体の時系列の変化を表示するように構成される、ことを特徴とする請求項13又は14に記載の画像処理装置。
  16. 前記現在再生中の時点から所定の時点までのフレームにおける各被写体を時間軸方向に異なる態様で表示することで、前記被写体の時系列の変化を表示する、ことを特徴とする請求項15に記載の画像処理装置。
  17. 前記異なる態様は、透過率を異ならせることであることを特徴とする請求項16に記載の画像処理装置。
  18. 前記ユーザインタフェースは、前記カメラパス及び注視点パスを指定する際のモードとして、前記動画の再生が進むのに従って前記注視点や仮想カメラの経路をユーザが入力する第1のモードと、ユーザが入力した前記注視点や仮想カメラの経路の長さに比例して前記動画の再生が進む第2のモードと、を有するように構成されることを特徴とする請求項13に記載の画像処理装置。
  19. 前記ユーザインタフェースは、前記第1のモードの場合、ユーザの入力操作を受け付けた時点からの経過時間に相当するフレーム数分だけ前記動画を進めながら、当該入力操作の軌跡を表示することで、前記注視点パス又はカメラパスの指定を受け付けるように構成されることを特徴とする請求項18に記載の画像処理装置。
  20. 前記ユーザインタフェースは、前記注視点パスの指定を前記カメラパスの指定よりも前に受け付け、前記カメラパスの指定を受け付ける際に、既に指定された前記注視点パスを表示するように構成されることを特徴とする請求項19に記載の画像処理装置。
  21. 前記ユーザインタフェースは、前記第2のモードの場合、ユーザの入力操作を受け付けた時点からの、当該入力操作の累積軌跡長に相当するフレーム数分だけ前記動画を進めながら、当該入力操作の軌跡を表示することで、前記注視点パス又はカメラパスの指定を受け付けるように構成されることを特徴とする請求項18に記載の画像処理装置。
  22. 前記生成手段は、前記カメラパスの指定の受け付け中に、前記入力操作の停止状態が一定時間以上継続している場合、当該カメラパスの指定の受け付け完了を待たずに、当該入力操作がなされた時点までの自由視点映像を生成することを特徴とする請求項21に記載の画像処理装置。
  23. 前記ユーザインタフェースは、ユーザが指定した前記注視点パス及びカメラパスに対するユーザの入力操作を介して、前記注視点パス及びカメラパスの経路が調整されるように構成されることを特徴とする請求項13乃至22のいずれか1項に記載の画像処理装置。
  24. 前記ユーザインタフェースは、前記第1のモードの場合、前記注視点パス及び前記カメラパスの長さが変更されることにより、前記注視点及び仮想カメラの移動速度が変化することを特徴とする請求項13乃至22のいずれか1項に記載の画像処理装置。
  25. 前記ユーザインタフェースは、ユーザが指定した前記注視点パス及びカメラパスの高度を示す情報を表示し、当該情報に対するユーザの入力操作を介して、前記注視点パス及びカメラパスの高度が調整されるように構成されることを特徴とする請求項13乃至22のいずれか1項に記載の画像処理装置。
  26. 前記入力操作は、ユーザ自身の指、電子ペン、マウスのいずれかによって行われることを特徴とする請求項1乃至24のいずれか1項に記載の画像処理装置。
  27. コンピュータを、請求項1乃至26のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2016180527A 2016-09-15 2016-09-15 画像処理装置および画像処理方法 Active JP6742869B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016180527A JP6742869B2 (ja) 2016-09-15 2016-09-15 画像処理装置および画像処理方法
KR1020197007474A KR102187974B1 (ko) 2016-09-15 2017-08-09 가상 시점 화상의 생성에 관한 정보 처리 장치, 방법 및 프로그램
PCT/JP2017/028876 WO2018051688A1 (ja) 2016-09-15 2017-08-09 仮想視点画像の生成に関する情報処理装置、方法及びプログラム
CN201780057088.2A CN109716751B (zh) 2016-09-15 2017-08-09 信息处理设备、方法和计算机可读存储介质
US16/354,980 US20190213791A1 (en) 2016-09-15 2019-03-15 Information processing apparatus relating to generation of virtual viewpoint image, method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016180527A JP6742869B2 (ja) 2016-09-15 2016-09-15 画像処理装置および画像処理方法

Publications (3)

Publication Number Publication Date
JP2018046448A true JP2018046448A (ja) 2018-03-22
JP2018046448A5 JP2018046448A5 (ja) 2019-08-29
JP6742869B2 JP6742869B2 (ja) 2020-08-19

Family

ID=61618798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016180527A Active JP6742869B2 (ja) 2016-09-15 2016-09-15 画像処理装置および画像処理方法

Country Status (5)

Country Link
US (1) US20190213791A1 (ja)
JP (1) JP6742869B2 (ja)
KR (1) KR102187974B1 (ja)
CN (1) CN109716751B (ja)
WO (1) WO2018051688A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020010301A (ja) * 2018-07-12 2020-01-16 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
WO2020017354A1 (ja) * 2018-07-20 2020-01-23 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
WO2020084951A1 (ja) * 2018-10-26 2020-04-30 キヤノン株式会社 画像処理装置および画像処理方法
WO2020129696A1 (ja) * 2018-12-21 2020-06-25 ソニー株式会社 情報処理装置、情報処理方法、プログラム、および、情報処理システム
WO2020145138A1 (ja) * 2019-01-09 2020-07-16 日本電信電話株式会社 映像編集装置、その方法、およびプログラム
JP2020119095A (ja) * 2019-01-21 2020-08-06 キヤノン株式会社 制御装置、制御方法、及びプログラム
WO2020166376A1 (ja) * 2019-02-15 2020-08-20 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
JP2020144456A (ja) * 2019-03-04 2020-09-10 キヤノン株式会社 情報処理装置、情報処理方法ならびにプログラム。
JP2021056767A (ja) * 2019-09-30 2021-04-08 キヤノン株式会社 画像生成システム、画像処理装置、情報処理装置、画像生成方法、及びプログラム
JPWO2021220894A1 (ja) * 2020-04-30 2021-11-04
JPWO2022024594A1 (ja) * 2020-07-31 2022-02-03
WO2022209362A1 (ja) 2021-03-31 2022-10-06 富士フイルム株式会社 画像処理装置、画像処理方法、及びプログラム
JP7480377B2 (ja) 2018-07-20 2024-05-09 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US11995784B2 (en) 2019-04-18 2024-05-28 Sony Group Corporation Image processing device and image processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113747138A (zh) * 2021-07-30 2021-12-03 杭州群核信息技术有限公司 虚拟场景的视频生成方法和装置、存储介质及电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006009257A1 (ja) * 2004-07-23 2006-01-26 Matsushita Electric Industrial Co., Ltd. 画像処理装置および画像処理方法
JP2009077394A (ja) * 2007-09-05 2009-04-09 Sony United Kingdom Ltd 通信システム及び通信方法
JP2010093713A (ja) * 2008-10-10 2010-04-22 Sony Corp 表示制御装置、表示制御方法及びプログラム
JP2012034365A (ja) * 2010-07-29 2012-02-16 Liberovision Ag コンピュータ実行画像処理方法および仮想再生ユニット
JP2014215828A (ja) * 2013-04-25 2014-11-17 シャープ株式会社 画像データ再生装置、および視点情報生成装置
JP2016010145A (ja) * 2014-06-23 2016-01-18 パナソニックIpマネジメント株式会社 映像配信方法、映像受信方法、サーバ、端末装置及び映像配信システム
JP2016046746A (ja) * 2014-08-26 2016-04-04 日本放送協会 多視点映像表現装置及びそのプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8330831B2 (en) * 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
JP3700857B2 (ja) * 2004-03-03 2005-09-28 コナミ株式会社 ゲームプログラム及びゲーム装置
JP5222597B2 (ja) * 2008-03-19 2013-06-26 三洋電機株式会社 画像処理装置及び方法、運転支援システム、車両
EP2403234A1 (en) * 2010-06-29 2012-01-04 Koninklijke Philips Electronics N.V. Method and system for constructing a compound image from data obtained by an array of image capturing devices
US8964052B1 (en) * 2010-07-19 2015-02-24 Lucasfilm Entertainment Company, Ltd. Controlling a virtual camera
JP2013038602A (ja) * 2011-08-08 2013-02-21 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP5870618B2 (ja) 2011-10-21 2016-03-01 大日本印刷株式会社 自由視点映像表示装置
JP5953916B2 (ja) * 2012-05-02 2016-07-20 ソニー株式会社 画像処理装置および方法、並びにプログラム
GB2512628A (en) * 2013-04-04 2014-10-08 Sony Corp Method and apparatus
CN105556956B (zh) * 2013-09-19 2019-01-22 富士通天株式会社 图像生成装置、图像显示系统、图像生成方法以及图像显示方法
US10321117B2 (en) * 2014-04-11 2019-06-11 Lucasfilm Entertainment Company Ltd. Motion-controlled body capture and reconstruction
KR20170011190A (ko) * 2015-07-21 2017-02-02 엘지전자 주식회사 이동 단말기 및 그것의 제어방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006009257A1 (ja) * 2004-07-23 2006-01-26 Matsushita Electric Industrial Co., Ltd. 画像処理装置および画像処理方法
JP2009077394A (ja) * 2007-09-05 2009-04-09 Sony United Kingdom Ltd 通信システム及び通信方法
JP2010093713A (ja) * 2008-10-10 2010-04-22 Sony Corp 表示制御装置、表示制御方法及びプログラム
JP2012034365A (ja) * 2010-07-29 2012-02-16 Liberovision Ag コンピュータ実行画像処理方法および仮想再生ユニット
JP2014215828A (ja) * 2013-04-25 2014-11-17 シャープ株式会社 画像データ再生装置、および視点情報生成装置
JP2016010145A (ja) * 2014-06-23 2016-01-18 パナソニックIpマネジメント株式会社 映像配信方法、映像受信方法、サーバ、端末装置及び映像配信システム
JP2016046746A (ja) * 2014-08-26 2016-04-04 日本放送協会 多視点映像表現装置及びそのプログラム

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020012748A1 (ja) * 2018-07-12 2020-01-16 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US11368666B2 (en) 2018-07-12 2022-06-21 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP7170441B2 (ja) 2018-07-12 2022-11-14 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
KR102500615B1 (ko) * 2018-07-12 2023-02-16 캐논 가부시끼가이샤 정보 처리장치, 정보 처리방법 및 프로그램
JP2020010301A (ja) * 2018-07-12 2020-01-16 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
KR20210016613A (ko) * 2018-07-12 2021-02-16 캐논 가부시끼가이샤 정보 처리장치, 정보 처리방법 및 프로그램
US11622099B2 (en) 2018-07-20 2023-04-04 Canon Kabushiki Kaisha Information-processing apparatus, method of processing information, and program
WO2020017354A1 (ja) * 2018-07-20 2020-01-23 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP7480377B2 (ja) 2018-07-20 2024-05-09 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
WO2020084951A1 (ja) * 2018-10-26 2020-04-30 キヤノン株式会社 画像処理装置および画像処理方法
US11627251B2 (en) 2018-10-26 2023-04-11 Canon Kabushiki Kaisha Image processing apparatus and control method thereof, computer-readable storage medium
WO2020129696A1 (ja) * 2018-12-21 2020-06-25 ソニー株式会社 情報処理装置、情報処理方法、プログラム、および、情報処理システム
JPWO2020129696A1 (ja) * 2018-12-21 2021-11-04 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、および、情報処理システム
JP2020113842A (ja) * 2019-01-09 2020-07-27 日本電信電話株式会社 映像編集装置、その方法、およびプログラム
WO2020145138A1 (ja) * 2019-01-09 2020-07-16 日本電信電話株式会社 映像編集装置、その方法、およびプログラム
JP7052737B2 (ja) 2019-01-09 2022-04-12 日本電信電話株式会社 映像編集装置、その方法、およびプログラム
JP2020119095A (ja) * 2019-01-21 2020-08-06 キヤノン株式会社 制御装置、制御方法、及びプログラム
JP7267753B2 (ja) 2019-01-21 2023-05-02 キヤノン株式会社 制御装置、制御方法、及びプログラム
WO2020166376A1 (ja) * 2019-02-15 2020-08-20 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
JP7277184B2 (ja) 2019-03-04 2023-05-18 キヤノン株式会社 情報処理装置、情報処理方法ならびにプログラム。
JP2020144456A (ja) * 2019-03-04 2020-09-10 キヤノン株式会社 情報処理装置、情報処理方法ならびにプログラム。
US11995784B2 (en) 2019-04-18 2024-05-28 Sony Group Corporation Image processing device and image processing method
JP7458731B2 (ja) 2019-09-30 2024-04-01 キヤノン株式会社 画像生成システム、画像処理装置、情報処理装置、画像生成方法、及びプログラム
JP2021056767A (ja) * 2019-09-30 2021-04-08 キヤノン株式会社 画像生成システム、画像処理装置、情報処理装置、画像生成方法、及びプログラム
WO2021220894A1 (ja) * 2020-04-30 2021-11-04 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
JPWO2021220894A1 (ja) * 2020-04-30 2021-11-04
JP7367198B2 (ja) 2020-04-30 2023-10-23 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
WO2022024594A1 (ja) * 2020-07-31 2022-02-03 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
JPWO2022024594A1 (ja) * 2020-07-31 2022-02-03
WO2022209362A1 (ja) 2021-03-31 2022-10-06 富士フイルム株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
JP6742869B2 (ja) 2020-08-19
CN109716751B (zh) 2021-02-26
US20190213791A1 (en) 2019-07-11
CN109716751A (zh) 2019-05-03
KR20190039774A (ko) 2019-04-15
WO2018051688A1 (ja) 2018-03-22
KR102187974B1 (ko) 2020-12-07

Similar Documents

Publication Publication Date Title
WO2018051688A1 (ja) 仮想視点画像の生成に関する情報処理装置、方法及びプログラム
JP6525617B2 (ja) 画像処理装置およびその制御方法
KR101655078B1 (ko) 움직이는 사진 생성 방법 및 장치
JP2018106496A (ja) 画像処理装置、画像処理方法、及びプログラム
JP7458889B2 (ja) 画像表示装置、制御方法、およびプログラム
JP2009139756A (ja) 表示装置、表示方法、及びプログラム
US10832460B2 (en) Method and apparatus for generating image by using multi-sticker
KR102484197B1 (ko) 정보 처리장치, 정보 처리방법 및 기억매체
JP2018036956A (ja) 表示制御装置、表示制御方法及びプログラム
CN110720214B (zh) 显示控制设备、显示控制方法和存储介质
JP2019152980A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2016039613A (ja) 画像処理装置及びその制御方法、プログラム、記憶媒体
US20220108541A1 (en) Information processing device, information processing method, and program
KR20160053428A (ko) 유저 인터페이스를 통한 카메라 장치의 동작 방법
JP6201501B2 (ja) 動画編集装置、動画編集方法およびプログラム
JP5967126B2 (ja) 端末装置及びプログラム
JP6685364B2 (ja) 表示制御装置、表示制御方法
JP2009258862A (ja) 映像表示装置及び映像表示方法
JP2023125345A (ja) 電子機器、その制御方法およびプログラム
JP2024079736A (ja) 画像表示装置、制御方法、およびプログラム
KR20230029233A (ko) 아바타 촬영 모드 전환을 위한 인터페이스 제공 방법, 장치, 및 컴퓨터 프로그램
JP2018129797A (ja) 表示制御装置、その制御方法、および制御プログラム
KR20170082116A (ko) 움직이는 사진 생성 방법 및 장치
JP2015106874A (ja) 画像再生装置、その制御方法、および制御プログラム
JP2013027012A (ja) 撮影装置、撮影装置の制御方法、および、プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190711

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200729

R151 Written notification of patent or utility model registration

Ref document number: 6742869

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151