WO2018117099A1 - 画像処理装置及びプログラム - Google Patents

画像処理装置及びプログラム Download PDF

Info

Publication number
WO2018117099A1
WO2018117099A1 PCT/JP2017/045524 JP2017045524W WO2018117099A1 WO 2018117099 A1 WO2018117099 A1 WO 2018117099A1 JP 2017045524 W JP2017045524 W JP 2017045524W WO 2018117099 A1 WO2018117099 A1 WO 2018117099A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
camera
moving image
frame
points
Prior art date
Application number
PCT/JP2017/045524
Other languages
English (en)
French (fr)
Inventor
清晴 相澤
将範 小川
Original Assignee
国立大学法人 東京大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人 東京大学 filed Critical 国立大学法人 東京大学
Priority to JP2018558000A priority Critical patent/JP7164873B2/ja
Priority to US16/471,683 priority patent/US20190387166A1/en
Priority to CN201780077904.6A priority patent/CN110366848A/zh
Priority to EP17883475.0A priority patent/EP3562141A4/en
Publication of WO2018117099A1 publication Critical patent/WO2018117099A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Definitions

  • the present invention for solving the problems of the above-described conventional example is an image processing apparatus that accepts and processes moving image data shot while moving a camera, and includes a movement trajectory estimation unit that estimates the movement trajectory of the camera, Selection means for selecting a plurality of points satisfying a predetermined condition among the points on the estimated camera movement locus, and image data captured at the selected plurality of points from the received moving image data Extraction means for extracting the image data, generation means for generating moving image data reconstructed based on the extracted image data, and output means for outputting the generated reconstructed moving image data; It is a thing.
  • the preferred camera position is calculated by a method such as applying Gaussian smoothing to the actual camera position.
  • Cm calculated by equation (2) represents the amount of camera movement in a direction orthogonal to the ideal direction, and is a cost for expressing camera position blur.
  • ⁇ ⁇ This frame selection is required to reduce position blur, but does not take into account the camera rotation during shooting. Therefore, in the present embodiment, a known rotation removal process for the celestial sphere moving image is performed as post-processing.
  • This rotation removal processing is disclosed, for example, in Pathak, Sarthak, et.al., A decoupled virtual camera using spherical optical flow, Image Processing (IPCP), 2016 IEEE International Conference on pp.4488-4492 (September 2016).
  • IPCP Image Processing
  • the post-processing is changed from cropping to rotation removal so that it can be applied to a celestial sphere moving image.
  • the image processing apparatus 1 extracts a frame specified by the frame number obtained by the above-described processing from the frames included in the moving image data to be processed (S5). Then, the image processing apparatus 1 three-dimensionally uses information representing the posture of the camera (a vector representing the direction from the camera position to the center of the angle of view) for each image data of the extracted frame. Rotation correction is applied (S6), and the movement direction (here, the transition direction between the selected frames) is matched with the center direction of the angle of view.
  • the image processing apparatus 1 arranges the corrected image data in ascending order of frame numbers, and generates and outputs reconstructed moving image data (S7).
  • FIG. 5 shows the evaluation value S (Sregular) when frames are selected at regular intervals at a plurality of speed magnifications, and the evaluation value S (in the frame sequence selected by the image processing apparatus 1 of the present embodiment). (Optimal) and its ratio (R).

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

カメラを移動しつつ撮影した動画像データを受け入れ、カメラの移動軌跡を推定し、当該推定されたカメラ移動軌跡上の点のうち、所定の条件を満足する複数の点を選択して、受け入れた動画像データから、当該選択された複数の点にて撮像された画像データを抽出する。そして抽出した画像データに基づいて再構成した動画像データを生成して出力する画像処理装置である。

Description

画像処理装置及びプログラム
 本発明は、画像処理装置及びプログラムに関する。
 近年、「天球動画」が、注目を集めている。空間全体を動画で保存可能としたことで、従来の動画に比べ、より大きな没入感や臨場感を得ることができる。天球動画の録画・再生を容易に行うためのデバイスや、天球動画に関わるサービスの登場、仮想現実に関する市場の拡大から、天球動画はますます重要となってきている。
 一方、天球動画の動画では、通常の動画に比べ、ハイパーラプス化と安定化が求められる場面が多くなる。ハイパーラプス化とは、撮影された動画を時間的にサンプリングし、より短い時間の動画にすることをいう。動画自体が長く、本来の長さでの閲覧が困難である場合や、動画をネットワーク上のサービスにアップロードする場合等において、所定の時間内に動画の長さを収める必要がある場合に、ハイパーラプス化の要求が発生する。
 また、安定化とは、撮影によるブレ等の補正を行うことを意味する。この要求は従来からある課題であるが、天球動画では、上述の通り没入感が高いため、そこで大きいブレが生じていると、視聴者が酔ったように感じることがあるため、安定化は従来の動画よりも強く求められる。
Joshi, Neel et.al., Real-time hyperlapse creation via optimal frame selection, ACM Transactions on Graphics 34(4), pp.63, August 2015
 従来の動画(天球動画でない動画)について、これらハイパーラプス化と、安定化の2つの問題に対応した従来技術として、非特許文献1に開示のものがある。この非特許文献1に開示された方法では、安定化を行うにあたり、フレーム間のホモグラフィー変換等に基づいてフレーム間のコストを求め、不適切と評価されたフレームを除くこととしている。さらに選択されたフレームについて、共通部分をクロップする処理を実行する。
 しかしながら、上記従来の技術を天球動画等の広角動画像(ここで広角とは例えば対角線画角が標準レンズの46度を超える画像等、平均的な人間の目の視野範囲より広い範囲を撮像した画像をいう)に適用することはできない。まず、フレーム間のホモグラフィー変換が平面画像間の変換であるためであり、また、フレーム選択後に一部をクロップしたのでは、天球動画等の広角動画とならない。
 このように従来の技術では、天球動画等の広角動画についてのハイパーラプス化の要求と、安定化の要求とに応えることができないという問題点があった。
 本発明は上記実情に鑑みて為されたもので、天球動画等の広角動画についてのハイパーラプス化の要求と、安定化の要求とに応えることのできる画像処理装置及びプログラムを提供することを、その目的の一つとする。
 上記従来例の問題点を解決する本発明は、カメラを移動しつつ撮影した動画像データを受け入れて処理する画像処理装置であって、前記カメラの移動軌跡を推定する移動軌跡推定手段と、当該推定されたカメラ移動軌跡上の点のうち、所定の条件を満足する複数の点を選択する選択手段と、前記受け入れた動画像データから、前記選択された複数の点にて撮像された画像データを抽出する抽出手段と、前記抽出した画像データに基づいて再構成した動画像データを生成する生成手段と、当該生成した、再構成された動画像データを出力する出力手段と、を含むこととしたものである。
 天球動画等の広角動画についてのハイパーラプス化の要求と、安定化の要求とに応えることができる。
本発明の実施の形態に係る画像処理装置の構成例を表すブロック図である。 本発明の実施の形態に係る画像処理装置の例を表す機能ブロック図である。 本発明の実施の形態に係る画像処理装置が処理の対象とする動画像データの撮影経路の概要例を表す説明図である。 本発明の実施の形態に係る画像処理装置の動作例を表すフローチャート図である。 本発明の実施の形態に係る画像処理装置の評価値の例を表す説明図である。
[実施形態の概要]
 本発明の実施の形態について図面を参照しながら説明する。まず、本実施の形態の概要について述べる。通常の画像とは異なり、天球画像(360度画像)では、カメラの回転による撮影範囲が変化しない。このためカメラのブレを位置ブレと回転ブレとに分けると、回転ブレについては、その回転量が与えられれば完全な復元が可能である。通常の動画(天球動画でない動画、以下、非天球動画と呼ぶ)では、どちらのブレも復元不能であるので、そのブレの大きさをコストとして求めていた。しかしながら、天球動画では位置ブレのみをカメラモーションのコストとすべきと考えられる。
 天球動画と、希望するサンプリングレートとが与えられたとき、そのサンプリングレートをある程度遵守しつつ、安定化された天球動画を出力する方法は次のようになる。
 天球動画に含まれる複数のフレーム(天球画像)のうち、i番目のフレームからj番目のフレームへの遷移コストをv,i番目のフレームの前に選択されたフレームがh番目であるとしたとき、そのコストは、次の式で表すことができる。
Figure JPOXMLDOC01-appb-M000001
 ここでCmは、カメラのモーションによるコスト、CSは、与えられた速度倍率の違反に対するコスト、Caは、速度の変化に対するコストである。λS,λaはそれぞれコストの重みを与える係数である。CS,Caは動画の形態による影響がないため、従来の方法と同様の定義を用いる。一方、Cmは、従来はフレーム間のホモグラフィー変換を元に中心の移動量を計算し、その大きさをコストとしているが、本実施の形態では、3次元カメラ位置を用いたモーションコストを用いる。具体的に、このモーションコストを、
Figure JPOXMLDOC01-appb-M000002
のように規定する。ここでベクトルXkは、k番目のフレームを撮影したときのカメラの三次元位置座標、ベクトルX′kは、望ましいカメラの位置(好適なカメラ位置)の三次元位置座標を表す。||x||2は、xのユークリッドノルムを表す。
 好適なカメラ位置については、実際のカメラ位置にガウシアンスムージングを適用する等の方法で計算される。(2)式で求められるCmは、理想の方向と直交する方向へのカメラの移動量を表しており、カメラの位置ブレを表現するコストとなっている。
 次に、定義されたフレーム間コストを基に、動的計画法等、所定の方法を用いて合計コストが最小となるようなフレームパス(撮影時のカメラの移動軌跡)を選択する。これにより与えられた値に近いサンプリングレートを維持しつつ、カメラ位置が滑らかとなるようなフレームが選択される。
 このフレームの選択は、位置ブレが小さくなるように求められているが、撮影時のカメラの回転状況については考慮されていない。そこで本実施の形態では、後処理として天球動画についての公知の回転除去処理を行う。この回転除去処理には、例えば、Pathak, Sarthak, et.al., A decoupled virtual camera using spherical optical flow, Image Processing(IPCP), 2016 IEEE International Conference on pp.4488-4492 (September 2016)に開示されている処理がある。この手法では、天球動画のオプティカルフローのモーメントを最小化することで、フレーム間の回転が小さくなるようにしている。このように本実施の形態では、後処理を、クロップから回転除去に変更することで、天球動画に適用できるようにしている。
[構成]
 本発明の実施の形態に係る画像処理装置1は、図1に例示するように、制御部11と、記憶部12と、入出力部13とを含んで構成されている。ここで制御部11は、CPU等のプログラム制御デバイスであり、本実施の形態では、記憶部12に格納されたプログラムを実行する。本実施の形態の制御部11は、カメラを移動しつつ撮影した動画像データを受け入れて、当該カメラの移動軌跡を推定し、当該推定されたカメラ移動軌跡上の点のうち、所定の条件を満足する複数の点を選択する。制御部11は、受け入れた動画像データから、選択された複数の点にて撮像された画像データを抽出し、抽出した画像データに基づいて再構成した動画像データを生成する。そして制御部11は、当該生成した、再構成された動画像データを出力する。この制御部11の詳しい処理の内容については後に述べる。
 記憶部12は、メモリデバイス等であり、制御部11によって実行されるプログラムを格納している。このプログラムは、コンピュータ可読かつ非一時的な記憶媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。またこの記憶部12は制御部11のワークメモリとしても動作する。入出力部13は、例えばシリアルインタフェース等であり、カメラ等から処理対象となる天球動画データを受け入れて、記憶部12に、処理の対象として格納し、制御部11の処理に供する。
 本実施の形態の制御部11の動作について次に説明する。本実施の形態の制御部11は、機能的には、図2に例示するように、移動軌跡推定部21と、選択処理部22と、抽出処理部23と、生成部24と、出力部25とを含んで構成される。本実施の形態の制御部11が処理の対象とする動画像データは、例えばリコー社のTheta(登録商標)と呼ばれるカメラによって撮影された天球動画の動画像データである。
 移動軌跡推定部21は、処理の対象となった天球動画を撮影したときのカメラの移動軌跡を推定する。移動軌跡推定部21は、天球動画を、カメラの位置を中心とした六面体の投影面の内面に射影し、当該六面体の内面のうち、カメラの移動方向に対応する面(後述)に射影された平面画像を用い、例えばORB-SLAM(Mur-Artal, Raul, J.M.M.Montiel, and Juan D. Tardos. Orb-slam: a versatile and accurate monocular slam system, IEEE Transactions on Robotics 31.5 (2015): 1147-1163)の処理によって、カメラの移動軌跡の推定結果を表すフレームごとのカメラの位置座標(三次元的な位置座標)、及びカメラの姿勢(カメラの位置から画角の中心方向への向きを表すベクトル)を求める。移動軌跡推定部21は、ここで求められたカメラの姿勢を表す情報を、生成部24に出力する。
 この三次元的な位置座標は、例えば、天球動画がカメラ筐体の表裏に配された一対の撮像素子を含むカメラで撮影されている場合、撮影開始時点でのカメラの位置を原点とし、撮影開始時点の撮像素子の中心方向がカメラの進行方向であるとして、この進行方向をZ軸とし、このZ軸を法線とする面内(ORB-SLAMを適用する投影面である六面体の一つの面)で床面に平行な方向をX軸、これらX,Z軸にそれぞれ直交する方向をY軸としたXYZ直交座標系の三次元空間の座標の値として記述できる。なお、カメラの移動軌跡上の各点の座標値は、上述のORB-SLAM方法以外の方法によって推定されてもよい。
 選択処理部22は、移動軌跡推定部21が出力する、フレームごとのカメラの位置座標の情報を用い、当該推定されたカメラ移動軌跡上の点のうち、所定の条件を満足する複数の点を選択する。以下、i番目のフレーム(このiを以下、フレーム番号と呼ぶ)が撮影された時点でのカメラの位置座標Xi(ここでのXはベクトル値)とし、ベクトルX′kは、好適なカメラの三次元位置座標を表す。
 本実施の形態の一例では、この選択処理部22は、各フレームが撮像された点の位置(撮像時のカメラの位置座標Xi(i=1,2,3…))の情報に係る条件と、当該点での撮影時刻の情報に係る条件とに基づき、フレームを選択する。
 具体的に選択処理部22は、各フレームが撮影された時点でのカメラの位置座標Xi(i=1,2,3…)に基づき、k番目のフレーム(k=1,2,3…)における好適なカメラの三次元位置座標X′kを求める。
 一例として、選択処理部22は、位置座標Xi(i=1,2,3…)の値(データ系列)に対してガウシアンスムージング等の平滑化処理を適用する等の方法で好適なカメラの三次元位置座標X′kを計算する。ここで平滑化の方法としてはガウシアンスムージングのほか、移動平均を求める等の広く知られた方法を採用できる。
 選択処理部22は、指定された速度倍率vの入力を利用者から受け入れ、i番目のフレームからj番目のフレームへの遷移コストを、この速度倍率vを用いて次のように演算する。すなわち,i番目のフレームの前に選択されたフレームがh番目のフレームであるとしたとき、選択処理部22は、i番目のフレームからj番目のフレームへの遷移コストを、(1)式で演算する。
 この(1)式において、Cmは、モーションコストであり(2)式で表される。CSは、スピードコストであり(3)式で表される。
Figure JPOXMLDOC01-appb-M000003
ここでi,jはフレームの番号、vは速度倍率、τSは、スピードコストの最大値であり、予め定めておくものとする、min(a,b)は、a,bのいずれか小さい値をとることを表す(以下同様)。
 Caは、加速度コストであり、(4)式で表される。
Figure JPOXMLDOC01-appb-M000004
ここでもi,j,hはフレームの番号、τaは、加速度コストの最大値であり、予め定めておく。ここでのスピードコスト、及び加速度コストが、各フレームの撮影時刻の情報に係る条件(指定された速度倍率に基づいて本来抽出されるべきフレーム番号からの差など)に相当する。
 選択処理部22は、ここで求めたi番目のフレームからj番目のフレームへの遷移コストの列を用いて、抽出するフレームを選択する。具体的に、一連のフレームpから、あるフレームが抽出するべきフレームとして選択されたとき、当該選択されたフレームからnだけ後のフレーム(n=1,2,…,N)の、処理対象とした動画像データ全体におけるフレーム番号をtとするとき、これをp(n)=tと表記することとして、処理対象となった動画像データにおいて、指定された速度倍率vとしたときのコストの総和は、
Figure JPOXMLDOC01-appb-M000005
と表される。
 そこで選択処理部22は、この(5)式を用い、
Figure JPOXMLDOC01-appb-M000006
となるようなフレーム系列を求める。この、コストに基づくフレーム選択の方法は、非特許文献1におけるものと同様、動的計画法を用いて行うことができるので、ここでの詳しい説明を省略する。
 抽出処理部23は、選択処理部22によって選択されたフレームを、処理対象となった動画像データから抽出する。つまり、この抽出処理部23は、受け入れた動画像データから、選択処理部22が選択した、理想の位置に近く、かつ速度倍率の制約に大きく違反することのない、複数の点にて撮像されたフレームの画像データを抽出する。
 生成部24は、抽出処理部23が抽出した画像データを、抽出順(処理対象となった動画像データ内でのフレーム番号が小さい順)に配列(再構成)して、タイムラプス動画像データを生成する。また、この生成部24は、抽出処理部23が抽出した画像データの各々について、当該画像データを撮影したときのカメラの姿勢を推定し、当該推定された姿勢の情報に基づいて、画像データを補正し、当該補正後の画像データを用いて、再構成した動画像データを生成することとしてもよい。
 具体的に、この生成部24は、カメラの姿勢(カメラの位置から画角の中心方向への向きを表すベクトル)を表す情報を、移動軌跡推定部21から受け入れる。そして生成処理部24は、処理対象となった動画像データからi番目のフレームが抽出されており、また抽出されたフレームのうち、このi番目のフレームの次にフレーム番号が小さいフレーム番号がjであるとするとき、このi番目のフレームからj番目のフレームへの移動ベクトル(Xj-Xi)の方向に、i番目のフレームの画像の中心が位置することとなるよう、フレームの画像を補正する。すなわち、実際にi番目のフレームが撮像されたときのカメラの姿勢の情報が表す画角の中心方向のベクトルVと、上記移動ベクトル(Xj-Xi)とを用い、その差(Xj-Xi)-Vだけ、抽出したi番目のフレームの画像に対して三次元的に回転補正を適用する。この回転補正の処理は、広く知られているので、ここでの詳しい説明を省略する。
 本実施の形態の一例では、処理対象となった動画像データは、必ずしも360度の天球画像ではなく、比較的広角な画像であってもよい。この場合、この回転補正の処理により、最終的に出力する画角サイズ(予め指定を受け入れておけばよい)内に、撮像されていない範囲が含まれてしまう場合がある。この場合は、当該撮像されていない範囲が含まれないよう画像データをクロップして、当該クロップした画角の動画像データを出力するか、あるいは、当該撮像されていない範囲については予め定めた色の画素(例えば黒色)に設定して処理を続ければよい。
 出力部25は、生成部24が再構成して生成した動画像データを例えばディスプレイ等に出力する。またこの出力部25は、当該生成した動画像データを、外部に、ネットワーク等を介して送信する。
[動作]
 本実施の形態は、以上の構成を備えてなり、次のように動作する。なお、以下の説明の例では、図3に二次元的に概略を示すような経路に沿ってカメラを移動しつつ撮像された動画像データ(例えば歩きながら撮像した動画像データ)が処理の対象として入力されたものとする。また、利用者から速度倍率vに関する指示が入力されたとする。なお、この速度倍率の指示は、直接的に入力される必要はなく、例えば利用者から、出力する動画像データの再生時間の上限の情報を受け入れて、画像処理装置1が実際に撮像された、処理対象の動画像データの再生時間と、当該入力された再生時間の上限との比に基づき、選択する点の数(フレームの数)を決定することで定めてもよい。
 画像処理装置1は、上記の経路で撮像された動画像データ(天球動画とする)を処理対象として、図4に例示するように、まず当該処理対象の動画像データに対してORB-SLAM等の処理により、カメラの移動軌跡の推定結果を表すフレームごとのカメラの位置座標(三次元的な位置座標)、及びカメラの姿勢(カメラの位置から画角の中心方向への向きを表すベクトル)を求める(S1)。
 画像処理装置1は、そして、当該求めたフレームごとのカメラの位置座標の情報を用い、当該推定されたカメラ移動軌跡上の点のうち、所定の条件を満足する複数の点を選択する。ここでの例では、画像処理装置1は、まず、各フレームが撮影された時点でのカメラの位置座標Xi(i=1,2,3…)に対してガウシアンスムージングを施し、k番目のフレーム(k=1,2,3…)における好適なカメラの三次元位置座標X′kを求める(S2)。
 そして画像処理装置1は、利用者から受け入れた速度倍率vの情報を用いて、i番目のフレームからj番目のフレームへの遷移コストを(1)式で演算する。なお、この(1)式における、好適な経路として求めた好適なカメラ位置からの並進方向のずれ量を表すモーションコストCmと、速度倍率によって本来選択されるべきフレームからのずれを反映したスピードコストCS及び、加速度コストCaは(2)乃至(4)式から求める(S3)。
 画像処理装置1は、選択されるべきフレームの可能な組み合わせのうち、この遷移コストの総和が最も小さくなるフレームの組み合わせ(フレーム系列)を求め、当該求められたフレーム系列に含まれるフレームを選択されたフレームとして、当該選択されたフレームを特定するフレーム番号の情報を得る(例えば図3(X)のフレームが選択される)(S4)。
 画像処理装置1は、処理対象の動画像データに含まれるフレームから、上述の処理で得たフレーム番号で特定されるフレームを抽出する(S5)。そして画像処理装置1は、当該抽出したフレームの各画像データに対して、カメラの姿勢(カメラの位置から画角の中心方向への向きを表すベクトル)を表す情報を用いて、三次元的に回転補正を適用し(S6)、移動方向(ここでは選択されたフレーム間での遷移方向)と画角の中心方向とを一致させる。
 画像処理装置1は、補正後の画像データを、フレーム番号の小さい順に配列して、再構成した動画像データを生成して出力する(S7)。
 本実施の形態によると、例えば図3に例示した20個のフレームのうち、本来、指定された速度倍率(例えば8倍とする)に従って、等間隔に(つまりこの例では7個おきに)フレームを選択すると、図3(Y)のフレームを選択することとなり、その並進移動経路は、図3において破線で示した経路のように、選択した各点で大きくずれる(つまり選択された各点が概ね直線状に配列されない)こととなる。
 一方、これらのフレームの撮像位置に基づいて得られた平滑化処理結果に比較的近いフレームを選択する本実施の形態の例では、撮影時間は必ずしも等間隔とはならず、例えば図3(X)のフレームが選択される。この場合、図3の実線で示した経路のように、選択したフレームの撮影時点でのカメラの並進移動経路は概ね直線状に配列される。
 このように、本実施の形態によると、天球動画等の広角動画についてのハイパーラプス化の要求と、安定化の要求とに一度に応えることができる。
[変形例]
 なお、本実施の形態のここまでの説明では、処理対象となった動画像データの各フレームの撮像時のカメラの位置や姿勢をORB-SLAM等、撮像された画像データを用いて推定していたが、本実施の形態はこれに限られず、例えばカメラにジャイロやGPSが内蔵されている場合や、カメラとともに移動する、位置記録装置の情報があれば、画像処理装置1は、当該ジャイロやGPSにより測位され記録された情報や、位置記録装置が記録した情報の入力を受け、当該情報を用いて各フレームの撮像時のカメラの位置、または姿勢を求めてもよい。
 また本実施の形態のここまでの例では、入出力部13に接続されたカメラから処理対象となった動画像データを受け入れることとしているが、カメラ自体が画像処理装置1として機能してもよい。この場合、カメラが備えるCPU等が制御部11として機能して、自身が撮像した動画像データを、処理対象として既に述べた処理を実行することとなる。
[評価実施例]
 また、本実施の形態の画像処理装置1を用いて、実際に撮像された動画像データを処理した結果の評価を次に示す。なお、以下の評価では、カメラの移動に伴う振動の大きさを表す量として、出力する動画像データに含まれるi番目のフレームでのカメラの位置座標をxi(i=1,2,…)とし、
Figure JPOXMLDOC01-appb-M000007
により求める。ただしxi-1からxiへのベクトルと、xiからxi+1へのベクトルとのなす角をθi、つまり、
Figure JPOXMLDOC01-appb-M000008
とした。
 図5は、複数の速度倍率における、時間的に等間隔でフレームを選択したときのこの評価値S(Sregular)と、本実施の形態の画像処理装置1が選択したフレーム系列における評価値S(Soptimal)と、その比(R)とを示す説明図である。
 図5に例示するように、本実施の形態によると、等間隔でフレームを選択する場合に比べ、どの速度倍率においても振動の大きさが抑制され、安定化が実現されている。
 1 画像処理装置、11 制御部、12 記憶部、13 入出力部、21 移動軌跡推定部、22 選択処理部、23 抽出処理部、24 生成部、25 出力部。
 

Claims (5)

  1.  カメラを移動しつつ撮影した動画像データを受け入れて処理する画像処理装置であって、
     前記カメラの移動軌跡を推定する移動軌跡推定手段と、
     当該推定されたカメラ移動軌跡上の点のうち、所定の条件を満足する複数の点を選択する選択手段と、
     前記受け入れた動画像データから、前記選択された複数の点にて撮像された画像データを抽出する抽出手段と、
     前記抽出した画像データに基づいて再構成した動画像データを生成する生成手段と、
     当該生成した、再構成された動画像データを出力する出力手段と、
     を含む画像処理装置。
  2.  請求項1に記載の画像処理装置であって、
     前記生成手段は、前記抽出した画像データの各々について、当該画像データを撮影したときの前記カメラの姿勢を推定し、当該推定された姿勢の情報に基づいて、画像データを補正し、当該補正後の画像データを用いて、再構成した動画像データを生成する画像処理装置。
  3.  請求項1または2に記載の画像処理装置であって、
     前記選択手段が前記推定されたカメラ移動軌跡上の点のうちから複数の点を選択する際に用いる前記所定の条件には、
     各点の位置の情報に係る条件と、
     各点の撮影時刻の情報に係る条件と、
     を含む画像処理装置。
  4.  請求項1から3のいずれか一項に記載の画像処理装置であって、
     前記選択手段は、出力する動画像データの再生時間の上限の情報を受け入れて、前記選択する点の数を決定する画像処理装置。
  5.  コンピュータを、
     カメラを移動しつつ撮影した動画像データを受け入れる手段と、
     前記カメラの移動軌跡を推定する移動軌跡推定手段と、
     当該推定されたカメラ移動軌跡上の点のうち、所定の条件を満足する複数の点を選択する選択手段と、
     前記受け入れた動画像データから、前記選択された複数の点にて撮像された画像データを抽出する抽出手段と、
     前記抽出した画像データに基づいて再構成した動画像データを生成する生成手段と、
     当該生成した、再構成された動画像データを出力する出力手段と、
     として機能させるプログラム。

     
PCT/JP2017/045524 2016-12-20 2017-12-19 画像処理装置及びプログラム WO2018117099A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018558000A JP7164873B2 (ja) 2016-12-20 2017-12-19 画像処理装置及びプログラム
US16/471,683 US20190387166A1 (en) 2016-12-20 2017-12-19 Image processing apparatus and program
CN201780077904.6A CN110366848A (zh) 2016-12-20 2017-12-19 图像处理装置及程序
EP17883475.0A EP3562141A4 (en) 2016-12-20 2017-12-19 IMAGE PROCESSING DEVICE AND PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662436467P 2016-12-20 2016-12-20
US62/436,467 2016-12-20

Publications (1)

Publication Number Publication Date
WO2018117099A1 true WO2018117099A1 (ja) 2018-06-28

Family

ID=62626581

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/045524 WO2018117099A1 (ja) 2016-12-20 2017-12-19 画像処理装置及びプログラム

Country Status (5)

Country Link
US (1) US20190387166A1 (ja)
EP (1) EP3562141A4 (ja)
JP (1) JP7164873B2 (ja)
CN (1) CN110366848A (ja)
WO (1) WO2018117099A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7498616B2 (ja) 2020-07-22 2024-06-12 日本放送協会 Vr映像生成装置及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005204003A (ja) * 2004-01-15 2005-07-28 Nippon Telegr & Teleph Corp <Ntt> 連続メディアデータ高速再生方法、複合メディアデータ高速再生方法、多チャンネル連続メディアデータ高速再生方法、映像データ高速再生方法、連続メディアデータ高速再生装置、複合メディアデータ高速再生装置、多チャンネル連続メディアデータ高速再生装置、映像データ高速再生装置、プログラム、および、記録媒体
JP2015100065A (ja) * 2013-11-20 2015-05-28 キヤノン株式会社 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置
US20160330399A1 (en) * 2015-05-08 2016-11-10 Microsoft Technology Licensing, Llc Real-time hyper-lapse video creation via frame selection

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8842190B2 (en) * 2008-08-29 2014-09-23 Adobe Systems Incorporated Method and apparatus for determining sensor format factors from image metadata
US9414038B2 (en) * 2012-10-16 2016-08-09 Amanjyot Singh JOHAR Creating time lapse video in real-time
US10002640B2 (en) * 2014-02-28 2018-06-19 Microsoft Technology Licensing, Llc Hyper-lapse video through time-lapse and stabilization
US10267890B2 (en) * 2014-06-26 2019-04-23 Nantong Schmidt Opto-Electrical Technology Co. Ltd. Apparatus and methods for time-lapse astrophotography
US10061499B2 (en) * 2014-11-14 2018-08-28 Facebook, Inc. Systems and methods for providing interactive time-lapse selection for captured media content
US9672626B2 (en) * 2014-12-08 2017-06-06 Yissum Research Development Company Of The Hebrew University Of Jerusalem Ltd. Method and system for generating adaptive fast forward of egocentric videos
CN105791705B (zh) * 2016-05-26 2019-06-11 厦门美图之家科技有限公司 适用于移动式延时摄影的视频防抖方法、系统及拍摄终端
US10425582B2 (en) * 2016-08-25 2019-09-24 Facebook, Inc. Video stabilization system for 360-degree video data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005204003A (ja) * 2004-01-15 2005-07-28 Nippon Telegr & Teleph Corp <Ntt> 連続メディアデータ高速再生方法、複合メディアデータ高速再生方法、多チャンネル連続メディアデータ高速再生方法、映像データ高速再生方法、連続メディアデータ高速再生装置、複合メディアデータ高速再生装置、多チャンネル連続メディアデータ高速再生装置、映像データ高速再生装置、プログラム、および、記録媒体
JP2015100065A (ja) * 2013-11-20 2015-05-28 キヤノン株式会社 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置
US20160330399A1 (en) * 2015-05-08 2016-11-10 Microsoft Technology Licensing, Llc Real-time hyper-lapse video creation via frame selection

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MUR-ARTAL, RAULJ. M. M. MONTIELJUAN D. TARDOS: "Orb-slam: a versatile and accurate monocular slam system", IEEE TRANSACTIONS ON ROBOTICS, vol. 31.5, 2015, pages 1147 - 1163, XP011670910, DOI: doi:10.1109/TRO.2015.2463671
PATHAK, SARTHAK: "A decoupled virtual camera using spherical optical flow", IMAGE PROCESSING (IPCP), 2016 IEEE INTERNATIONAL CONFERENCE ON, September 2016 (2016-09-01), pages 4488 - 4492, XP033017346, DOI: doi:10.1109/ICIP.2016.7533209
See also references of EP3562141A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7498616B2 (ja) 2020-07-22 2024-06-12 日本放送協会 Vr映像生成装置及びプログラム

Also Published As

Publication number Publication date
EP3562141A1 (en) 2019-10-30
EP3562141A4 (en) 2020-07-08
JPWO2018117099A1 (ja) 2019-10-24
CN110366848A (zh) 2019-10-22
JP7164873B2 (ja) 2022-11-02
US20190387166A1 (en) 2019-12-19

Similar Documents

Publication Publication Date Title
US11632533B2 (en) System and method for generating combined embedded multi-view interactive digital media representations
CN109615703B (zh) 增强现实的图像展示方法、装置及设备
US10726560B2 (en) Real-time mobile device capture and generation of art-styled AR/VR content
JP6561216B2 (ja) 光学フローを使用した中間ビューの生成
JP3745117B2 (ja) 画像処理装置及び画像処理方法
CN106875451B (zh) 相机标定方法、装置及电子设备
EP3296952B1 (en) Method and device for blurring a virtual object in a video
JP3450833B2 (ja) 画像処理装置及びその方法並びにプログラムコード、記憶媒体
JP4351996B2 (ja) モノスコープ・イメージから立体的なイメージを生成するための方法
WO2016155377A1 (zh) 图片展示方法和装置
US10586378B2 (en) Stabilizing image sequences based on camera rotation and focal length parameters
JP2017220715A (ja) 画像処理装置、画像処理方法、プログラム
CN110245549A (zh) 实时面部和对象操纵
Kamali et al. Stabilizing omnidirectional videos using 3d structure and spherical image warping
US10764500B2 (en) Image blur correction device and control method
WO2018117099A1 (ja) 画像処理装置及びプログラム
JP2011146762A (ja) 立体モデル生成装置
CN114463213A (zh) 视频处理方法、视频处理装置、终端及存储介质
JP7013205B2 (ja) 像振れ補正装置およびその制御方法、撮像装置
JP2002077941A (ja) 奥行き画像生成装置、奥行き画像生成方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005063012A (ja) 全方位カメラ運動と3次元情報の復元方法とその装置及びプログラム並びにこれを記録した記録媒体
Garau et al. Unsupervised continuous camera network pose estimation through human mesh recovery
US11044464B2 (en) Dynamic content modification of image and video based multi-view interactive digital media representations
US11615582B2 (en) Enclosed multi-view visual media representation
US20230217001A1 (en) System and method for generating combined embedded multi-view interactive digital media representations

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17883475

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018558000

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017883475

Country of ref document: EP

Effective date: 20190722