JP2017220715A - 画像処理装置、画像処理方法、プログラム - Google Patents

画像処理装置、画像処理方法、プログラム Download PDF

Info

Publication number
JP2017220715A
JP2017220715A JP2016111841A JP2016111841A JP2017220715A JP 2017220715 A JP2017220715 A JP 2017220715A JP 2016111841 A JP2016111841 A JP 2016111841A JP 2016111841 A JP2016111841 A JP 2016111841A JP 2017220715 A JP2017220715 A JP 2017220715A
Authority
JP
Japan
Prior art keywords
trajectory
image
moving image
camera
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016111841A
Other languages
English (en)
Other versions
JP6736362B2 (ja
Inventor
勇太 川村
Yuta Kawamura
勇太 川村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016111841A priority Critical patent/JP6736362B2/ja
Priority to US15/608,427 priority patent/US10447928B2/en
Publication of JP2017220715A publication Critical patent/JP2017220715A/ja
Application granted granted Critical
Publication of JP6736362B2 publication Critical patent/JP6736362B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】撮影軌跡の変動が低減された動画を生成する際に、被写体等が何も映っていないフレーム画像が生成されてしまう状態の発生を少なくすることを課題とする。【解決手段】カメラ軌跡推定部(103)は第1の動画が撮影された際の撮影軌跡を第1の動画から推定する。カメラ軌跡補正部(104)は、推定された撮影軌跡の軌跡変動を補正する。出力画像生成部(105)は、補正された撮影軌跡に対応した第2の動画を第1の動画から生成する。ここで、カメラ軌跡補正部(104)は、第1の動画から少なくとも一つの基準点を設定し、第2の動画を構成するフレーム画像における基準点の位置が、フレーム画像の所定の範囲内に存在するように撮影軌跡を補正する。【選択図】図1

Description

本発明は、撮影された画像を処理する画像処理装置、画像処理方法、及びプログラムに関する。
手振れなどによる撮影動画の変動を電子的に安定化させる技術として、従来から、撮影動画から撮影軌跡を推定して、その推定された撮影軌跡の軌跡変動が低減するように補正を行い、その補正後の撮影軌跡に対応した動画を生成する技術が提案されている。以下、補正後の撮影軌跡に対応して生成された動画を「安定化動画」と表記する。例えば、特許文献1には、撮影軌跡を折れ線に近似し、撮影情報に応じて、折れ線の傾きを調整する技術が開示されている。
また、通常、安定化動画の再生速度は撮影動画の再生速度と同じであるが、撮影動画の再生速度に対してN倍速(Nは整数)の安定化動画を生成することで、撮影された長時間の動画を短時間のダイジェスト動画として楽しむ、といったことも盛んに行われている。以下、撮影動画の再生速度に対してN倍速となされた安定化動画を「N倍速安定化動画」と表記する。
特開2008−5109号公報
しかしながら、上述の特許文献1に開示された従来技術では、撮影動画には被写体等が映っていたのに、補正された撮影軌跡に対応した安定化動画では、例えば空や地面だけで、被写体等が何も映っていないフレームが発生してしまうことがある。このようなことは、撮影軌跡の変動を低減させることを優先して撮影軌跡を補正し、その補正後の撮影軌跡を基に、撮影動画のフレーム画像から画像領域を切り出して安定化動画のフレーム画像を形成しているために起こると考えられる。
本発明は、撮影軌跡の変動が低減された動画を生成する際に、被写体等が何も映っていないフレーム画像が生成されてしまう状態になり難くすることを目的とする。
本発明は、第1の動画が撮影された際の撮影軌跡を第1の動画から推定する軌跡推定手段と、推定された撮影軌跡の軌跡変動を補正する軌跡補正手段と、補正された撮影軌跡に対応した第2の動画を第1の動画から生成する生成手段と、第1の動画から少なくとも一つの基準点を設定する設定手段と、を有し、軌跡補正手段は、第2の動画を構成するフレーム画像における基準点の位置が、フレーム画像の所定の範囲内に存在するように撮影軌跡を補正することを特徴とする。
本発明によれば、撮影軌跡の変動が低減された動画を生成する際に、被写体等が何も映っていないフレーム画像が生成されてしまう状態になり難くすることが可能となる。
実施形態の画像処理装置の概略構成を示す図である。 カメラ軌跡推定部の概略構成を示す図である。 第1の実施形態のカメラ軌跡補正部の概略構成を示す図である。 画像処理装置の全体の動作を示すフローチャートである。 カメラ軌跡推定部及びカメラ軌跡補正部の動作の説明図である。 カメラ軌跡補正の際の基準点と中心点の説明図である。 カメラ軌跡推定部の動作を示すフローチャートである。 変動量算出の説明図である。 第1の実施形態のカメラ軌跡補正部の動作を示すフローチャートである。 撮影軌跡と撮影軌跡の変動補正の説明図である。 第2の実施形態のカメラ軌跡補正部の概略構成を示す図である。 第2の実施形態のカメラ軌跡補正部の動作を示すフローチャートである。 カメラ軌跡補正の際の基準点と基準点候補の説明図である。 第3の実施形態のカメラ軌跡補正部の概略構成を示す図である。 第3の実施形態のカメラ軌跡補正部の動作を示すフローチャートである。 カメラ軌跡補正の際の水平線と中心点の説明図である。
以下、添付図面を参照して、本発明の一実施形態について説明する。
<第1の実施形態>
図1は第1の実施形態の画像処理装置100の概略構成を示す図である。本実施形態の画像処理装置100は、撮影動画から撮影軌跡を推定し、その推定された撮影軌跡に対し、手振れなどによる軌跡変動が低減するように補正を行い、その補正後の撮影軌跡に対応した安定化動画を生成する機能を有している。さらに、本実施形態の画像処理装置100は、撮影軌跡の変動が低減された安定化動画を生成する際に、被写体等が何も映っていないフレーム画像が生成されてしまう状態になり難くする機能を有している。
図1に示した本実施形態の画像処理装置100は、画像入力部101と、画像メモリ102と、カメラ軌跡推定部103と、カメラ軌跡補正部104と、出力画像生成部105とを有する。
画像入力部101には動画や静止画等のデータが入力される。画像入力部101は、動画等を撮像する撮像装置(カメラ)であってもよいし、外部の撮像装置により撮像された撮影動画等が供給される入力インターフェイスであってもよい。本実施形態では、画像入力部101により撮影動画が入力される場合を例に挙げて説明する。画像メモリ102は、画像入力部101より入力された撮影動画の1フレーム又は複数のフレームの画像データを、一時的に記憶保持する。
カメラ軌跡推定部103は、画像入力部101より入力された画像と、画像メモリ102に記憶保持された画像とを使用して、動画の撮影がなされた際の撮影軌跡であるカメラ軌跡を推定する。カメラ軌跡補正部104は、カメラ軌跡推定部103により推定されたカメラ軌跡の変動を低減させるように補正することにより、安定化したカメラ軌跡を生成する。カメラ軌跡推定部103、カメラ軌跡補正部104の構成及び動作の詳細は後述する。
出力画像生成部105は、画像メモリ102に記憶されている撮影動画から、カメラ軌跡補正部104での補正により安定化されたカメラ軌跡に応じた画像領域を読み出して動画を再構成するレンダリング処理により、安定化動画を生成する。カメラ軌跡の変動補正、及びその変動補正後のカメラ軌跡に応じた動画の再構成では、撮影動画の再生速度に対してN倍速となるN倍速安定化動画、つまり撮影動画より短時間のN倍速安定化動画を生成することも可能となされている。N倍速安定化動画は、一例として、変動補正後のカメラ軌跡に応じて動画を再構成する際に、撮影動画を構成する各フレーム画像から所定時間間隔毎にフレーム画像を間引くなどの公知の方法により生成される。出力画像生成部105の構成及び動作の詳細は後述する。
図2は、図1の画像処理装置100のカメラ軌跡推定部103の概略構成を示す図である。カメラ軌跡推定部103は、画像マッチング部1031と、変動量算出部1032と、変動量累積部1033とを有する。
画像マッチング部1031は、撮影動画の現フレーム画像(フレーム番号n)と次フレーム画像(フレーム番号n+1)とのマッチング処理を行う。ここで、画像マッチング部1031には、画像メモリ102から読み出されたフレーム画像と、画像入力部101から供給されたフレーム画像とが入力される。本実施形態では、画像メモリ102から読み出されるフレーム画像は、画像入力部101から入力されるフレーム画像の1フレーム前の画像であるとする。したがって、画像メモリ102から読み出されたフレーム画像がフレーム番号nの現フレーム画像である場合、画像入力部101から入力されるフレーム画像がフレーム番号n+1の次フレーム画像となる。マッチング処理の詳細は後述する。
変動量算出部1032は、画像マッチング部1031によるマッチング処理の結果に基づいて、現フレーム画像と次フレーム画像の画像間の変動量を算出する。変動量の算出処理の詳細は後述する。変動量累積部1033は、変動量算出部1032によって算出された画像間の変動量を累積することにより、カメラ軌跡を算出する。カメラ軌跡の算出処理の詳細は後述する。
図3は、図1の画像処理装置100のカメラ軌跡補正部104の概略構成を示す図である。カメラ軌跡補正部104は、基準点設定部1041と、パスプランニング部1042とを有する。
基準点設定部1041は、撮影動画の最初のフレーム画像(フレーム番号0とする。)上で基準点を設定する。基準点の設定処理の詳細は後述する。パスプランニング部1042は、基準点設定部1041によって設定された基準点に基づいて、カメラ軌跡推定部103にて推定されたカメラ軌跡を補正する。カメラ軌跡の補正処理の詳細は後述する。
図4は、本実施形態の画像処理装置100における処理の流れを示すフローチャートである。図4のフローチャートに示した処理は、ハードウェア構成により実現されてもよいし、本実施形態に係る画像処理プログラムをCPU等で実行することにより実現されてもよい。この画像処理プログラムは、ROM等に予め用意されていてもよく、HDD等の記録媒体から読み出されてもよく、インターネット等のネットワークを介してダウンロードされてRAM等にロードされてもよい。以下の説明では、フローチャートの各処理のステップS401〜ステップS404をS401〜S404と略記する。これらのことは、これ以降の各フローチャートにおいても同様とする。
図4のフローチャートの処理は、一例として、ユーザが画像処理装置100に対して安定化動画(N倍速安定化動画も含む)の生成指示を行ったことでスタートする。図4のフローチャートの処理がスタートすると、先ずS401として、画像入力部101により撮影動画のデータが入力される。画像入力部101により入力された撮影動画のデータは、画像メモリ102に一時的に記憶される。S401の後、画像処理装置100の処理は、カメラ軌跡推定部103により行われるS402の処理に進む。
S402では、カメラ軌跡推定部103は、S401で入力された画像と、画像メモリ102に記憶保持されている画像とを使用して、カメラ軌跡推定を行う。具体的には、カメラ軌跡推定部103は、時間軸上で隣接した現フレーム画像(フレーム番号n)と次フレーム画像(フレーム番号n+1)のマッチング処理を行って画像間の動き量を求め、それら画像間の画像変動量を検出する。
図5(a)は、カメラ軌跡推定部103がフレーム毎に検出した画像変動量axを、フレーム番号順に時系列に並べた図であり、縦軸が画像変動量、横軸がフレーム番号(実際にはフレーム画像の撮影時刻)を示している。図5(a)のフレーム毎の画像変動量axは、それぞれ1本の矢印で表現されているが、この1本の矢印で三次元空間のx軸、y軸、z軸方向の3方向の成分を持っている。カメラ軌跡推定部103は、図5(a)に示した各フレームの画像変動量axを時間方向に累積して、図5(b)に示すような累積画像変動量を求める。この累積画像変動量は、各フレーム画像が撮像されたときのカメラ軌跡vに相当する。カメラ軌跡推定部103は、累積画像変動量(入力カメラ軌跡v)の情報をカメラ軌跡補正部104に出力する。S402の後、画像処理装置100の処理は、カメラ軌跡補正部104により行われるS403の処理に進む。
S403では、カメラ軌跡補正部104は、S402で推定されたカメラ軌跡の変動を補正する。具体的には、カメラ軌跡補正部104は、図5(b)に示した入力カメラ軌跡vに対し、1フレーム毎の変化が滑らかになるように安定化フィルタ処理を施して、図5(c)に示すような補正カメラ軌跡Vを生成する。カメラ軌跡補正部104により生成された補正カメラ軌跡Vの情報は、出力画像生成部105に送られる。S403の後、画像処理装置100の処理は、出力画像生成部105により行われるS404の処理に進む。
S404では、出力画像生成部105は、ステップS403において補正されたカメラ軌跡を基に、安定化動画を生成する。具体的には、出力画像生成部105は、入力された動画のフレーム毎に、図5(c)の補正カメラ軌跡Vに応じた画角領域の画像を、そのフレーム画像内から読み出し、その読み出された画像を安定化動画のフレーム画像とするようなレンダリング処理を行う。
図6(a)〜図6(d)は、出力画像生成部105が安定化動画を生成する様子の説明に用いる図である。図6(d)において、入力カメラ位置姿勢907は動画撮影がなされた際のカメラ軌跡から推定されるカメラ位置姿勢を表しており、補正カメラ位置姿勢906は補正されたカメラ軌跡から推定されるカメラ位置姿勢を表している。図6(a)の画像920は撮影動画の入力フレーム画像例であり、図6(c)の画像922は図6(a)の入力フレーム画像920を補正カメラ位置姿勢906に合わせて変形させた変形フレーム画像例である。
出力画像生成部105は、先ず、図6(a)の入力フレーム画像920を、補正カメラ位置姿勢906に応じて変形させて、図6(c)の変形フレーム画像922を作成する。具体的には、出力画像生成部105は、入力カメラ位置姿勢907と補正カメラ位置姿勢906の二つのカメラ位置姿勢間の回転変換行列と平行移動ベクトルを計算する。さらに、出力画像生成部105は、回転変換行列と平行移動ベクトルを基に、図6(a)の入力フレーム画像920に対して回転処理と並行移動処理を行うことで、図6(c)の変形フレーム画像922を作成する。
次に、出力画像生成部105は、図6(c)の変形フレーム画像922から、補正カメラ位置姿勢906に応じた画角領域を切り出すようにして出力画像904を抽出する。このように補正カメラ位置姿勢906に応じて変形フレーム画像922から切り出された出力画像904は、補正カメラ軌跡に対応した画像である。なお、図6(a)〜図6(d)の未説明箇所については後述する。
画像処理装置100は、撮影画像から安定化動画の生成が完了するか、又は、例えばユーザから終了の指示が入力されるまで、図4のフローチャートの処理を続ける。安定化動画の生成が完了した場合、又は、ユーザ等から終了指示が入力されると、画像処理装置100は、図4のフローチャートの処理を終了する。
図7は、図2のカメラ軌跡推定部103が図4のS402で行うカメラ軌跡推定処理の詳細な処理の流れを示すフローチャートである。
図7のS501において、カメラ軌跡推定部103の画像マッチング部1031は、撮影動画の現フレーム画像(フレーム番号n)と次フレーム画像(フレーム番号n+1)とのマッチング処理を行う。図8(a)は現フレーム画像621(フレーム番号n)の一例を示す図であり、図8(b)は次フレーム画像622(フレーム番号n+1)の一例を示す図である。また、図8(c)はマッチング処理の結果を説明する図である。マッチング処理は、例えばSIFT(Scale−Invariant Feature Transform)法やKLT(Kanade−Lucas−Tomasi)法などを用いて行う。SIFT法では、現フレーム画像と次フレーム画像の特徴点をそれぞれ算出して、それら算出した特徴点を用いた対応探索が行われる。KLT法では、現フレーム画像で特徴点を算出し、その算出した特徴点を、続くフレーム画像内で追跡する特徴点追跡が行われる。マッチング処理の方法は、SIFT法やKLT法などに限定されず、マッチング処理を行うことができるのであれば他の手法を用いてもよい。
図8(a)の図中丸印で示された位置601、602、603は現フレーム画像621の中にある特徴点の各位置を示し、図8(b)の図中丸印で示された位置604、605、606は次フレーム画像622の中にある特徴点の各位置を示している。図8(c)は、図8(a)の現フレーム画像621内の各位置601〜603の特徴点と、図8(b)の次フレーム画像622の各位置604〜、606の特徴点のうち、それぞれ対応する特徴点間を線607、608、609で示している。例えば線607は、現フレーム画像621の位置601の特徴点と、次フレーム画像622の位置604の特徴点とが、対応した特徴点(以下、対応点と表記する。)となされていることを表している。画像マッチング部1031は、マッチング処理の結果として、図8(c)の線607、608、609で示されるような、現フレーム画像621と次フレーム画像622のなかで、それぞれ特徴点が対応している点(対応点)を算出する。
なお、図8(a)〜図8(c)では、現フレーム画像621と次フレーム画像622との間で対応点の組の数が3組のみとなされた例を挙げているが、対応点の組の数はこの例に限定されるものではない。ただし、詳細は後述するが、本実施形態の場合、後述するように算出する基礎行列Fのパラメータの数が8個となされているため、対応点の組の数は好ましくは8組以上ある方がよい。対応点の組数が8組以上あれば、基礎行列Fのパラメータを精度よく算出可能となる。
また例えば、対応点が多数ある場合には、それら対応点のうち、特徴量やマッチングの精度が高い特徴点の対応点のみを用いるようにすれば、後に行われるカメラ位置姿勢の算出精度を向上させることが可能となる。多数の対応点のなかから特徴量やマッチングの精度が高い対応点を選ぶ処理は、一例として、マッチング処理の際に求められる相関値や特徴量が、予め決めた所定の閾値よりも高い特徴点の対応点を選ぶような処理を用いることができる。S501の後、カメラ軌跡推定部103の処理は、変動量算出部1032にて行われるS502の処理に進む。
S502では、変動量算出部1032は、S501において求められたマッチング処理の結果を基に、現フレーム画像と次フレーム画像の画像間の変動量を算出する。図8(d)は、いわゆるStructure from Motionを用いたカメラ位置姿勢推定の方法の説明に用いる図である。前述したマッチング処理の際の二つのフレーム画像の間で対応している特徴点(対応点)は、二つの視点から見た三次元的な同一点であると考えられる。二つの視点を、図8(d)に示すようにカメラ中心C1、C2で表した場合、同一点は、三次元座標点Xで表される。そして、カメラ中心C1から見た三次元座標点Xは、カメラ中心C1に対応したフレーム631上に投影した場合には点x1となる。同様に、カメラ中心C2から見た三次元座標点Xは、カメラ中心C2に対応したフレーム632上に投影した場合には点x2となる。
ここで、カメラ中心C1に対応したカメラの内部パラメータ行列をP1、カメラ中心C2に対応したカメラの内部パラメータ行列をP2とすると、内部パラメータ行列P1は式(1)、内部パラメータ行列P2は下記の式(2)で表される。
Figure 2017220715
なお、式(1)、式(2)において、原点を基準としたときの座標軸はカメラ中心C1に合わせており、Iは単位行列、Kは内部キャリブレーション行列、Rはカメラ中心C2の位置でのカメラの向きを表わす回転変換行列、Tは三次元の平行移動ベクトルである。本実施形態では、カメラ中心C1、C2のカメラは同じであるため、内部キャリブレーション行列Kは同じものである。
ここで、カメラ中心C1、C2におけるカメラの相対的な位置関係は回転変換行列Rと三次元の平行移動ベクトルTにより表され、カメラの特性は内部キャリブレーション行列Kにより表される。また、回転変換行列Rと、三次元の並行移動ベクトルTと、内部カリブレーション行列Kと、点x1及びx2には、幾何学的な制約が生じる。このため、前述したカメラの内部パラメータ行列P1、P2を用いると、三次元座標点Xを画像上の点x1、x2に射影する条件を導き出すことができ、これは下記の式(3)の方程式を満たす必要がある。
Figure 2017220715
なお、式(3)はエピポーラ制約の式であり、このエピポーラ制約中の行列Fは基礎行列と呼ばれる。この基礎行列Fは、2つのカメラ中心C1、C2間の回転及び平行移動量を表わす式であり、式(3)は点x1を点x2に変換する式である。また、式(4)は、基礎行列Fを、回転変換行列Rと三次元の平行移動ベクトルTと内部キャリブレーション行列Kと交代行列Stで表わした式である。式(4)の交代行列Stは三次元の平行移動ベクトルTで表わされる交代行列である。
したがって、S501で求めた2フレーム間の対応点群の情報を用いて、式(3)を解くと、基礎行列Fが求められる。基礎行列Fを求める方法は、例えば8組の対応点を用いた8点法、SVD(特異値分解)を用いた最小二乗法などがあり、何れの方法を用いてもよい。そして、この基礎行列Fを求めたのちに、式(4)を用いてカメラの内部パラメータ行列を復元することで、2つのフレーム間での回転変換行列Rと平行移動ベクトルTを求めることができる。前述の図5(a)は、算出した変動量のうち平行移動ベクトルTの変動量を時系列(フレーム番号順)に並べたものである。S502の後、カメラ軌跡推定部103の処理は、変動量累積部1033にて行われるS503の処理に進む。
S503では、変動量累積部1033は、S502において算出された変動量を時間方向に累積してカメラ軌跡を推定する。前述したように図5(a)のフレーム毎の画像変動量axを時間方向に累積することで、図5(b)に示したような入力カメラ軌跡vが推定される。ここで、平行移動ベクトルTの変動量を時間方向に累積するとカメラ軌跡の位置変化を推定することができ、回転変換行列Rの変動量を時間方向に累積することでカメラ軌跡におけるカメラ方向の変化を推定することができる。なお、カメラ方向とは、カメラの光軸方向を表している。S503の変動量累積処理が完了すると、カメラ軌跡推定部103は、図7のフローチャートの処理を終了する。
図9は、図3のカメラ軌跡補正部104が図4のS403で行うカメラ軌跡補正処理の詳細な処理の流れを示すフローチャートである。
図9のS801において、カメラ軌跡補正部104の基準点設定部1041は、撮影動画の最初のフレーム画像(フレーム番号0)内に基準点を設定する。基準点は、例えば、いわゆる消失点や、画像特徴点のような画像情報を基に設定されてもよいし、例えばディスプレイ画面の表示画像上でユーザが指定した任意の点に応じて設定されてもよい。なお、消失点とは、例えば遠近法や透視図法などにおいて、平行な直線群が奥行き方向に延びることで最終的に交わる無限遠の点である。すなわち、安定化動画の出力画像において被写体や消失点等が消えないように基準点を設定することができるのであれば、どのような手法で基準点が設定されてもよい。前述の図6(a)では、入力フレーム画像920内に基準点901が設定された例が示されている。本実施形態における基準点の設定は、ユーザにより設定される場合だけでなく、撮影動画の画像信号を基に算出等されて推定されて自動的に設定される場合も含む。S801の後、カメラ軌跡補正部104の処理は、パスプランニング部1042にて行われるS802の処理に進む。
S802では、パスプランニング部1042は、S801にて設定された基準点を基に、S402にて推定されたカメラ軌跡の変動を補正する。パスプランニング部1042により行われるパスプランニング処理は、下記式(5)〜式(10)により表すことができる。
Figure 2017220715
これら式(5)〜式(10)において、p(t)は時刻tにおけるカメラ軌跡の補正後のカメラ位置、f(t)は時刻tにおけるカメラ軌跡の補正後のカメラ方向を表す。また、pinは動画撮影の際のカメラ位置(以下、入力カメラ位置とする。)のうち、時刻tにおける補正後のカメラ位置p(t)に一番近い位置にある入力カメラ位置、cは補正カメラ軌跡に対応した画像(以下、出力画像とする。)内の座標(0,0)で表されるカメラ中心点である。pt(t)は時刻tにおける出力画像内の基準点(位置)であり、pc(t)は時刻tにおける基準点pt(t)がカメラ中心点cに重なる場合のカメラ位置である。
ここで、式(5)は、補正後のカメラ軌跡の長さを調整する式である。例えば、動画撮影がなされた際のカメラ軌跡が、図5(b)と同様の図10(a)で表される入力カメラ軌跡vである場合、式(5)により補正後のカメラ軌跡の長さを調整することで、図10(b)のように長さを調整した補正カメラ軌跡Vが生成される。式(5)のp(t)'はカメラ軌跡の長さが調整される際のカメラ位置である。図10(b)は、動画撮影がなされた際の入力カメラ軌跡vを、式(5)により、長さが短くなるように調整した後の補正カメラ軌跡Vの例を示す図である。式(6)は、補正カメラ軌跡Vにおけるカメラ位置姿勢の1フレーム毎の変化が滑らかになるように調整する式である。図10(c)は、式(6)により、補正カメラ軌跡Vの1フレーム毎の変化を、式(6)により滑らかになるように調整した例を示す図である。式(6)のp(t)"とf(t)"は変化が滑らかになるように調整される際のカメラ位置とカメラ方向である。式(7)は、入力カメラ軌跡vにおける入力カメラ位置と、補正カメラ軌跡Vにおける補正カメラ位置との差分を調整する式である。図10(d)は、式(7)により、補正カメラ軌跡Vに対し、入力カメラ軌跡との差分が少なくなるように調整した例を示す図である。更に、式(8)は出力画像内の基準点と中心点の差分を調整する式であり、式(9)は式(8)を変換したカメラ位置を表す式であり、式(10)は式(5)〜式(7)及び式(9)により表されるパスプランニングの式である。
以下、式(8)について、図6(a)〜図6(c)を用いて説明する。
前述したようにS801において、基準点設定部1041により、図6(a)のように入力フレーム画像920に対して基準点901(基準点pt(t))が設定されたとする。ここで、図6(b)は、図6(a)の入力フレーム画像920を補正カメラ位置p(t)に対応して変形させた変形フレーム画像921の例を示している。また、図6(b)の変形フレーム画像921において、出力画像903は、補正カメラ位置p(t)を基に切り出される画角領域の画像であるとする。図6(b)では、この出力画像903の中心点902(中心点c)と基準点901(基準点pt(t))とに、位置の差がある状態を表している。
パスプランニング部1042は、式(8)により、図6(c)のように、中心点902(中心点c)と基準点901(基準点pt(t))の差分を少なくした出力画像904を生成する。本実施形態では、それらの差分が0(ゼロ)のときの補正カメラ位置が前述のカメラ位置pc(t)となされる。図6(c)の出力画像903及び図6(d)の出力画像904は、実際にはS404の処理により出力される画像である。そして、パスプランニング部1042は、式(8)を式(9)に変換してカメラ位置の式とする。
以下、式(9)について図6(d)を用いて説明する。
図6(d)において、基準点901は基準点pt(t)、中心点902は中心点c、出力画像903は補正カメラ位置p(t)を基に切り出される画角領域の画像、出力画像904は補正カメラ位置pc(t)を基に切り出される画角領域の画像である。また、補正カメラ位置905は補正カメラ位置p(t)、補正カメラ位置906は補正カメラ位置pc(t)、入力カメラ位置907は入力カメラ位置pinである。さらに、位置908は基準点901(基準点pt(t))の空間上での位置、位置909は出力画像903の中心点902(中心点c)の空間上での位置である。出力画像904は補正カメラ位置903(補正カメラ位置pc(t))を基に切り出される画角領域の画像であり、基準点p(t)がカメラ中心点cに重なる場合の画像である。式(9)は補正カメラ位置905(補正カメラ位置p(t))を、補正カメラ位置906(補正カメラ位置pc(t))に近づける項になる。
パスプランニング部1042は、前述した式(5)〜式(7),式(9)により表される式(10)を最小とする補正カメラ位置p(t)と補正後のカメラ方向f(t)を、時系列(フレーム番号順)に累積する。これにより、図5(c)に示すように補正カメラ軌跡Vが生成される。本実施形態では、基準点pt(t)に近づける点として、前述した中心点cを挙げて説明したが、基準点pt(t)に近づける点は中心点cでなくてもよく、任意に設定できる。また、式(10)は式中のλによって各項の重みを変更する式となっている。例えばλ2の値を大きくし、λ3の値を小さくすると、図10(c)に示すように、補正カメラ軌跡Vが図10(a)の入力カメラ軌跡vから離れたカメラ軌跡になっても、1フレーム毎の変化を滑らかすることが優先される。S802の後、パスプランニング部1042は、S803に処理を進める。
S803では、パスプランニング部1042は、処理フレームが最終フレームか否かを判定し、最終フレームであると判定した場合(Yes)は、図9のフローチャートの処理を終了する。一方、パスプランニング部1042は、S803において、最終フレームでないと判定した場合(No)は、S804に処理を進める。
S804では、パスプランニング部1042は、S801又はS805で基準点を設定してからS402において求めた累積変動量が予め決めた所定の閾値以上であるか否か判定する。パスプランニング部1042は、S804において、累積変動量が閾値以上でない(閾値未満である)と判定した場合(No)はS802に処理を戻し、次のフレームの処理を行う。一方、S804において、累積変動量が閾値以上であると判定された場合(Yes)、カメラ軌跡補正部104の処理は、図3の基準点設定部1041で行われるS805の処理に進む。
S805では、基準点設定部1041は、現フレームで基準点を設定し直す。S805の後、カメラ軌跡補正部104の処理は、パスプランニング部1042で行われるS802に処理を戻す。これにより、パスプランニング部1042では、S805で再設定された基準点を用いて前述したS802移行の処理が行われる。
以上説明したような処理を行うことにより、第1の実施形態の画像処理装置100においては、基準点の周辺の画像領域が、フレーム画像内に収まるようになされた安定化動画が生成される。そして、本実施形態において、基準点は、消失点やユーザ指定の任意の点、画像特徴点等を基に設定される。このため、本実施形態によれば、撮影軌跡の変動が低減された安定化動画(N倍速安定化動画も含む)を生成する際に、例えば空や地面だけ映っていて被写体等が何も映っていないフレーム画像が生成されてしまう状態になり難い。
<第2の実施形態>
以下、第2の実施形態の画像処理装置100について説明する。第2の実施形態の画像処理装置100において、前述した第1の実施形態の画像処理装置100と同一の構成及び処理については、それらの説明を省略する。
図11は、第2の実施形態の画像処理装置100におけるカメラ軌跡補正部104の概略構成を示す図である。図11において、前述した図3と同じ構成については、それぞれ同一の参照符号を付して、それらの説明は省略する。第2の実施形態の場合、カメラ軌跡補正部104は、図3の基準点設定部1041の代わりに、基準・候補点設定部1043を有している。また、図12は、第2の実施形態のカメラ軌跡補正部104において、図4のS403で行うカメラ軌跡補正処理の流れを示すフローチャートである。図12において、前述した図9と同じ処理ステップについてはそれぞれ同一の参照符号を付して、それらの説明は省略する。第2の実施形態の場合、カメラ軌跡補正部104は、図9のS801の処理に代えてS1201の処理を行い、また、図9のS805の処理に代えてS1202の処理を行う。
図11の基準・候補点設定部1043は、図12のS1201において、撮影動画の最初のフレーム画像(フレーム番号0)上で基準点と基準点候補を設定する。基準点と基準点候補は、前述の第1の実施形態で説明した基準点と同様にして設定され、共に1点以上設定される。図13(a)はフレーム番号0の入力フレーム画像1321の例を示す図である。基準・候補点設定部1043は、図13(a)に示すように、フレーム番号0の入力フレーム画像1321上に、例えば基準点1301と基準点候補1302を設定する。S1201の後、カメラ軌跡補正部104の処理は、前述したS802以降の処理に進む。
また第2の実施形態のカメラ軌跡補正部104は、前述のS804において累積変動量が閾値以上であると判定された場合、基準・候補点設定部1043で行われるS1202に処理を進める。なお、図13(a)の図中点線で囲う範囲1303は、累積変動量が閾値未満となる範囲(以下、累積変動量範囲1303と表記する。)を表している。S1202では、基準・候補点設定部1043は、現フレームについて基準点と基準点候補をそれぞれ設定し直した後、S802に処理を戻す。このとき基準・候補点設定部1043は、再度設定する基準点を、再設定前にS1201で設定された基準点候補の中から選択する。
図13(b)は、累積変動量が閾値以上でない(閾値未満であった)場合の入力フレーム画像1322の例を示しており、図13(a)で設定した基準点1301が累積変動量範囲1303の範囲内にある例を表している。この場合、基準・候補点設定部1043は、基準点の再設定を行わない。一方、図13(c)は、累積変動量が閾値以上であった場合の入力フレーム画像1323の例を示しており、図13(a)で設定した基準点1301が累積変動量範囲1303の範囲外となる例を表している。この場合、基準・候補点設定部1043は、例えば基準点候補1302を基準点1311として再設定し、さらに新たな基準点候補1304を再設定する。
以上説明したように、第2の実施形態の画像処理装置100では、累積変動量が所定の閾値以上であった場合、基準点と基準点候補が再設定される。また、再設定される基準点は再設定前の基準点候補の中から選ばれるため、基準点の切り替えはスムーズに行われる。第2の実施形態によれば、カメラ軌跡の変動量が一定以上の大きな変動量であった場合でも、再設定した基準点の周辺の画像領域を、フレーム画像内に収まるようにした安定化動画の生成が可能となる。これにより、第2の実施形態によれば、第1の実施形態に比べ、より安定した安定化動画(N倍速安定化動画も含む)の生成が可能となり、またその際に、被写体等が何も映っていないフレーム画像が生成されてしまう状態になり難い。
<第3の実施形態>
以下、第3の実施形態の画像処理装置100について説明する。第3の実施形態の画像処理装置100において、前述した第1の実施形態の画像処理装置100と同一の構成及び処理については、それらの説明を省略する。
図14は、第3の実施形態の画像処理装置100におけるカメラ軌跡補正部104の概略構成を示す図である。図13において、前述した図3と同じ構成については、それぞれ同一の参照符号を付して、それらの説明は省略する。第3の実施形態の場合、カメラ軌跡補正部104は、図3の基準点設定部1041の代わりに、消失点推定部1044と水平線推定部1045を有し、また、前述したパスプランニング部1042に加えて、パスプランニング部1046を更に有している。なお、以下の説明では、パスプランニング部1042を第1のパスプランニング部1042、パスプランニング部1046を第2のパスプランニング部1046と表記する。また、図15は、第3の実施形態のカメラ軌跡補正部104において、図4のS403で行うカメラ軌跡補正処理の流れを示すフローチャートである。図15において、前述した図9と同じ処理ステップについてはそれぞれ同一の参照符号を付して、それらの説明は省略する。
図15のフローチャートのS1501において、図14の消失点推定部1044は、最初のフレーム画像(フレーム番号0)上から消失点を推定する。具体的には、消失点推定部1044は、例えば画像からハフ変換により直線を推定し、その直線の交点を消失点候補とし、その消失点候補の中から消失点を推定する。S1501の後、消失点推定部1044は、S1502に処理を進める。
S1502では、消失点推定部1044は、S1501で推定した消失点が2点以上あるか否かの判定を行う。S1502において、推定した消失点が2点以上無い(1点以下である)と判定された場合(No)、カメラ軌跡補正部104の処理は、第1のパスプランニング部1042にて行われる802の処理に進む。S802の処理は前述の第1の実施形態で説明したのと同様の処理である。S802の後、第1のパスプランニング部1042は、S803に処理を進める。S803の処理は前述の第1の実施形態で説明したのと同様の処理である。一方、S1502において、推定した消失点が2点以上あると判定された場合(Yes)、カメラ軌跡補正部104の処理は、水平線推定部1045にて行われるS1503の処理に進む。
S1503では、水平線推定部1045は、S1501で推定された2点以上の消失点を使用して、最初のフレーム画像(フレーム番号0)上から水平線を推定する。具体的には、水平線推定部1045は、推定された2点の消失点を含む線分を水平線とする。図16(a)は、入力フレーム画像1620内に消失点1601と消失点1602が存在している例を示している。水平線推定部1045は、それら二つの消失点1601と消失点1602とを含む線分を水平線1603として推定する。S1503の後、カメラ軌跡補正部104の処理は、第2のパスプランニング部1046にて行われるS1504の処理に進む。
S1504では、第2のパスプランニング部1046は、前述の図4のS402によって推定されたカメラ軌跡の変動を、S1503にて推定された水平線を使用して補正する。第2のパスプランニング部1046にて行われるパスプランニング処理は、前述した式(5)〜式(7)と、下記式(11)〜式(13)により表される。
Figure 2017220715
なお、式(11)〜式(13)において、hl(t)は時刻tでの出力画像内における推定された水平線の式を表し、h(c)は中心点cを通る傾き0の直線の式、aは水平線の傾きを表す。図16(b)と図16(c)は、式(7)を表す。図16(b)は水平線1603(水平線hl(t))の傾きを0に補正した画像1621を示し、図16(c)は水平線1603を、中心点1604(中心点c)を通る傾き0の直線h(c)に近づけた画像1622の例を示している。
そして、式(11)を変換した式(12)が、カメラ位置姿勢の式となされる。なお、式(13)のEhorizonは式(12)の値が用いられる。fc(t)は時刻tにおいて水平線hl(t)が直線h(c)に重なるときのカメラ姿勢である。第2のパスプランニング部1046は、式(13)を最小とする補正カメラ位置p(t)と補正後のカメラ方向f(t)を、時系列(フレーム番号順)に累積することで、前述の図5(c)に示すような補正カメラ軌跡Vを生成する。第3の実施形態では、水平線hl(t)を近づける直線として、出力画像の中心点cを通る直線を挙げて説明したが、水平線hl(t)を近づける直線を通る点は中心点でなくてもよく、任意に設定可能である。S1504の後、第2のパスプランニング部1046の処理は、S803に進む。
第3の実施形態の場合、S803の処理は、S802からS803へ進んだ場合には第1のパスプランニング部1042により行われ、S1504からS803に進んだ場合には第2のパスプランニング部1046により行われる。S803において最終フレームでないと判定されて、S804の処理に進み、さらにS804において累積変動量が閾値以上であると判定された場合、カメラ軌跡補正部104の処理は、消失点推定部1044で行われるS1505の処理に進む。
S1505では、消失点推定部1044は、現フレーム画像上から消失点を再度推定した後、S1502に処理を戻す。このとき消失点推定部1044は、次のフレーム画像についてS1502の処理を行う。
以上説明したように、第3の実施形態では、第1の実施形態のように画像の基準点を出力画像の任意の点に近づけるだけでなく、水平線の傾きを補正することで、撮影軌跡におけるカメラの進行方向とカメラの向きを一致させるようにしている。したがって、第3の実施形態によれば、前述した第1の実施形態と比べ、より安定した動画生成が可能となる。
なお、第3の実施形態に対し、前述の第2の実施形態を組み合わせてもよい。例えば、第2の実施形態の基準点及び基準点候補の例と同様に、第3の実施形態においてS1501で消失点と消失点候補を推定し、さらにS1503で水平線及び水平線候補を推定する。そして、S804で累積変動量が閾値以上であると判定されてS1505に進んだ場合には、現フレーム画像について消失点と消失点候補を再推定する。また、再推定する消失点は、再推定前に推定された消失点候補の中から選択する。これにより、第3の実施形態において、再推定される消失点は再推定前の消失点候補の中から選ばれるため、消失点の切り替えがスムーズに行われる。したがって、第3の実施形態によれば、撮影動画に写っていた被写体等を消失させずに、安定した安定化動画(N倍速安定化動画も含む)の生成が可能となる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
100 画像処理装置、101 画像入力部、102 画像メモリ、103 カメラ軌跡推定部、104 カメラ軌跡補正部、105 出力画像生成部、1031 画像マッチング部、1032 変動量算出部、1033 変動量累積部、1041,1043 基準点設定部、1042,1046 パスプランニング部、1044 消失点推定部、1045 水平線推定部

Claims (14)

  1. 第1の動画が撮影された際の撮影軌跡を前記第1の動画から推定する軌跡推定手段と、
    前記推定された撮影軌跡の軌跡変動を補正する軌跡補正手段と、
    前記補正された撮影軌跡に対応した第2の動画を、前記第1の動画から生成する生成手段と、
    前記第1の動画から、少なくとも一つの基準点を設定する設定手段と、を有し、
    前記軌跡補正手段は、前記第2の動画を構成するフレーム画像における前記基準点の位置が、前記フレーム画像の所定の範囲内に存在するように前記撮影軌跡を補正することを特徴とする画像処理装置。
  2. 前記設定手段は、少なくとも消失点を、前記基準点として設定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記設定手段は、前記基準点が所定の範囲外となる場合、前記基準点を前記第1の動画から再設定することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記設定手段は、
    前記基準点と基準点候補とを設定し、
    前記撮影軌跡の変動量が所定の閾値以上である場合には、前記基準点候補を前記基準点として再設定することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  5. 第1の動画が撮影された際の撮影軌跡を前記第1の動画から推定する軌跡推定手段と、
    前記推定された撮影軌跡の軌跡変動を補正する軌跡補正手段と、
    前記補正された撮影軌跡に対応した第2の動画を、前記第1の動画から生成する生成手段と、
    前記第1の動画から水平線を推定する線推定手段と、を有し、
    前記軌跡補正手段は、前記第2の動画を構成するフレーム画像における前記水平線の位置が、前記フレーム画像の所定の範囲内に存在するように前記撮影軌跡を補正することを特徴とする画像処理装置。
  6. 前記軌跡補正手段は、更に、前記第2の動画を構成するフレーム画像における前記水平線を水平に保つように前記撮影軌跡を補正することを特徴とする請求項5に記載の画像処理装置。
  7. 前記線推定手段は、前記第1の動画から二つの消失点を推定し、前記二つの消失点を含む線分を前記水平線として推定することを特徴とする請求項5又は6に記載の画像処理装置。
  8. 前記軌跡補正手段は、前記撮影軌跡の長さを短くするように前記撮影軌跡の補正を行うことを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
  9. 前記軌跡補正手段は、前記第1の動画が撮影された際のカメラ位置姿勢の変動を補正するように前記撮影軌跡の補正を行うことを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。
  10. 前記軌跡補正手段は、前記撮影軌跡と前記補正された撮影軌跡との差分を少なくするように前記撮影軌跡の補正を行うことを特徴とする請求項1乃至9の何れか1項に記載の画像処理装置。
  11. 前記生成手段は、前記第1の動画よりも短時間の前記第2の動画を生成することを特徴とする請求項1乃至10の何れか1項に記載の画像処理装置。
  12. 第1の動画が撮影された際の撮影軌跡を前記第1の動画から推定する軌跡推定工程と、
    前記第1の動画から、少なくとも一つの基準点を設定する設定工程と、
    前記推定された撮影軌跡の軌跡変動を補正する軌跡補正工程と、
    前記補正された撮影軌跡に対応した第2の動画を、前記第1の動画から生成する生成工程と、を含み、
    前記軌跡補正工程では、前記第2の動画を構成するフレーム画像における前記基準点の位置が、前記フレーム画像の所定の範囲内に存在するように前記撮影軌跡を補正することを特徴とする画像処理装置の画像処理方法。
  13. 第1の動画が撮影された際の撮影軌跡を前記第1の動画から推定する軌跡推定工程と、
    前記第1の動画から水平線を推定する線推定工程と、
    前記推定された撮影軌跡の軌跡変動を補正する軌跡補正工程と、
    前記補正された撮影軌跡に対応した第2の動画を、前記第1の動画から生成する生成工程と、を含み、
    前記軌跡補正工程では、前記第2の動画を構成するフレーム画像における前記水平線の位置が、前記フレーム画像の所定の範囲内に存在するように前記撮影軌跡を補正することを特徴とする画像処理装置の画像処理方法。
  14. コンピュータを、請求項1乃至11の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2016111841A 2016-06-03 2016-06-03 画像処理装置、画像処理方法、プログラム Active JP6736362B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016111841A JP6736362B2 (ja) 2016-06-03 2016-06-03 画像処理装置、画像処理方法、プログラム
US15/608,427 US10447928B2 (en) 2016-06-03 2017-05-30 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016111841A JP6736362B2 (ja) 2016-06-03 2016-06-03 画像処理装置、画像処理方法、プログラム

Publications (2)

Publication Number Publication Date
JP2017220715A true JP2017220715A (ja) 2017-12-14
JP6736362B2 JP6736362B2 (ja) 2020-08-05

Family

ID=60482901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016111841A Active JP6736362B2 (ja) 2016-06-03 2016-06-03 画像処理装置、画像処理方法、プログラム

Country Status (2)

Country Link
US (1) US10447928B2 (ja)
JP (1) JP6736362B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10587807B2 (en) * 2018-05-18 2020-03-10 Gopro, Inc. Systems and methods for stabilizing videos
US11468698B1 (en) 2018-06-28 2022-10-11 Amazon Technologies, Inc. Associating events with actors using digital imagery and machine learning
US11482045B1 (en) 2018-06-28 2022-10-25 Amazon Technologies, Inc. Associating events with actors using digital imagery and machine learning
US11468681B1 (en) 2018-06-28 2022-10-11 Amazon Technologies, Inc. Associating events with actors using digital imagery and machine learning
US10750092B2 (en) 2018-09-19 2020-08-18 Gopro, Inc. Systems and methods for stabilizing videos
US11470254B1 (en) 2019-06-21 2022-10-11 Gopro, Inc. Systems and methods for assessing stabilization of videos
US11398094B1 (en) 2020-04-06 2022-07-26 Amazon Technologies, Inc. Locally and globally locating actors by digital cameras and machine learning
US11443516B1 (en) * 2020-04-06 2022-09-13 Amazon Technologies, Inc. Locally and globally locating actors by digital cameras and machine learning
CN112435297B (zh) * 2020-12-02 2023-04-18 达闼机器人股份有限公司 目标物体位姿确定方法、装置、存储介质及电子设备
CN116095484B (zh) * 2021-10-29 2024-04-09 华为技术有限公司 一种视频防抖方法、装置及电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004117579A (ja) * 2002-09-24 2004-04-15 Seiko Epson Corp 画像表示方法および画像表示装置
JP2006285655A (ja) * 2005-03-31 2006-10-19 Seiko Epson Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP2008172310A (ja) * 2007-01-09 2008-07-24 Fujifilm Corp 電子式手振れ補正方法及びその装置並びに電子式手振れ補正プログラムと撮像装置
JP2011155492A (ja) * 2010-01-27 2011-08-11 Nikon Corp 画像処理装置
JP2012010145A (ja) * 2010-06-25 2012-01-12 Jvc Kenwood Corp 画像補正処理装置、画像補正処理方法、及び画像補正処理プログラム
JP2014229971A (ja) * 2013-05-20 2014-12-08 株式会社朋栄 ローリングシャッタ歪み補正と映像安定化処理方法
JP2015505447A (ja) * 2012-01-16 2015-02-19 グーグル・インコーポレーテッド 動的なクロップを用いて手ぶれ補正のために映像を処理するための方法およびシステム
JP2015079329A (ja) * 2013-10-16 2015-04-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4793120B2 (ja) 2006-06-21 2011-10-12 ソニー株式会社 手振れ補正方法、手振れ補正方法のプログラム、手振れ補正方法のプログラムを記録した記録媒体及び手振れ補正装置
FR2945724B1 (fr) * 2009-05-22 2012-11-16 Gen Electric Appareil a rayons x
WO2012068423A2 (en) * 2010-11-18 2012-05-24 David Rudich Firearm sight having uhd video camera
WO2012145818A1 (en) * 2011-04-25 2012-11-01 Magna International Inc. Method and system for dynamically calibrating vehicular cameras
JP5687553B2 (ja) * 2011-04-25 2015-03-18 オリンパス株式会社 画像合成装置、画像合成方法及び画像合成プログラム
US10311595B2 (en) 2013-11-19 2019-06-04 Canon Kabushiki Kaisha Image processing device and its control method, imaging apparatus, and storage medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004117579A (ja) * 2002-09-24 2004-04-15 Seiko Epson Corp 画像表示方法および画像表示装置
JP2006285655A (ja) * 2005-03-31 2006-10-19 Seiko Epson Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP2008172310A (ja) * 2007-01-09 2008-07-24 Fujifilm Corp 電子式手振れ補正方法及びその装置並びに電子式手振れ補正プログラムと撮像装置
JP2011155492A (ja) * 2010-01-27 2011-08-11 Nikon Corp 画像処理装置
JP2012010145A (ja) * 2010-06-25 2012-01-12 Jvc Kenwood Corp 画像補正処理装置、画像補正処理方法、及び画像補正処理プログラム
JP2015505447A (ja) * 2012-01-16 2015-02-19 グーグル・インコーポレーテッド 動的なクロップを用いて手ぶれ補正のために映像を処理するための方法およびシステム
JP2014229971A (ja) * 2013-05-20 2014-12-08 株式会社朋栄 ローリングシャッタ歪み補正と映像安定化処理方法
JP2015079329A (ja) * 2013-10-16 2015-04-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
JP6736362B2 (ja) 2020-08-05
US20170353661A1 (en) 2017-12-07
US10447928B2 (en) 2019-10-15

Similar Documents

Publication Publication Date Title
JP6736362B2 (ja) 画像処理装置、画像処理方法、プログラム
CN110264509B (zh) 确定图像捕捉设备的位姿的方法、装置及其存储介质
US10404917B2 (en) One-pass video stabilization
JP5997645B2 (ja) 画像処理装置及び方法、及び撮像装置
JP5906493B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体
US8274570B2 (en) Image processing apparatus, image processing method, hand shake blur area estimation device, hand shake blur area estimation method, and program
KR102141290B1 (ko) 화상 처리 장치, 화상 처리 방법, 화상 처리 프로그램 및 기억 매체
US9619886B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
EP3189493B1 (en) Depth map based perspective correction in digital photos
JP4102386B2 (ja) 3次元情報復元装置
KR101938067B1 (ko) Sift 플로우를 이용한 광각영상의 스테레오 정합 방법 및 장치
JP2002163647A (ja) レンズ歪み係数算出装置および算出方法、レンズ歪み係数算出プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2019121945A (ja) 撮像装置、その制御方法及びプログラム
JP2009186287A (ja) 平面パラメータ推定装置、平面パラメータ推定方法及び平面パラメータ推定プログラム
JP7185162B2 (ja) 画像処理方法、画像処理装置およびプログラム
JP2010250611A (ja) 画像処理装置、画像処理方法及び記録媒体
JP7191711B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2011146762A (ja) 立体モデル生成装置
JP4578653B2 (ja) 奥行き画像生成装置、奥行き画像生成方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP7164873B2 (ja) 画像処理装置及びプログラム
JP7206530B2 (ja) 画像処理システム、画像処理装置、画像処理方法、およびプログラム
JP2019149717A (ja) 画像処理装置及び画像処理方法、撮像装置、プログラム、記憶媒体
JP7076598B1 (ja) 動画又は複数画像からの3次元情報生成装置
JP6071142B2 (ja) 画像変換装置
JP2019083407A (ja) 像振れ補正装置およびその制御方法、撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200715

R151 Written notification of patent or utility model registration

Ref document number: 6736362

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151