JP2014192613A - 画像処理装置及び方法、及び撮像装置 - Google Patents

画像処理装置及び方法、及び撮像装置 Download PDF

Info

Publication number
JP2014192613A
JP2014192613A JP2013064916A JP2013064916A JP2014192613A JP 2014192613 A JP2014192613 A JP 2014192613A JP 2013064916 A JP2013064916 A JP 2013064916A JP 2013064916 A JP2013064916 A JP 2013064916A JP 2014192613 A JP2014192613 A JP 2014192613A
Authority
JP
Japan
Prior art keywords
image
camera work
optical image
information
image stabilization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013064916A
Other languages
English (en)
Other versions
JP5997645B2 (ja
JP2014192613A5 (ja
Inventor
Hidetoshi Tsubaki
秀敏 椿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013064916A priority Critical patent/JP5997645B2/ja
Priority to US14/216,333 priority patent/US9762800B2/en
Priority to CN201410116446.0A priority patent/CN104079819B/zh
Priority to EP14161758.9A priority patent/EP2785045B1/en
Publication of JP2014192613A publication Critical patent/JP2014192613A/ja
Publication of JP2014192613A5 publication Critical patent/JP2014192613A5/ja
Application granted granted Critical
Publication of JP5997645B2 publication Critical patent/JP5997645B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3245Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of image modifying data, e.g. handwritten addenda, highlights or augmented reality information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors

Abstract

【課題】 光学防振機能付きの撮像装置から得られた画像に基づいて、光学防振機能の影響を排除したカメラワークを取得すること。
【解決手段】 光学防振手段を含む光学系(11)を介して入射した光学像を撮像素子(12)により光電変換して得られた画像信号を入力する入力手段と、前記光学防振手段による光学防振制御情報を取得する取得手段と、前記入力手段から入力された画像信号から前記光学防振制御情報に基づいて前記光学防振手段による光学防振の影響を排除した情報に基づいてカメラワークを推定するカメラワーク推定手段(18)とを有する。
【選択図】 図1

Description

本発明は光学防振を備える撮像装置で撮影した動画像からのカメラワークを推定する技術に関する。
近年、動画像からカメラワーク解析し、その結果を利用して撮影者の利便性を高める技術の応用が広がり始めている。例えば、スマートフォン向けを皮切りに、実写とCG(コンピュータグラフィックス)を合成するAR(augmented reality)技術が普及を始めている。特に、自然特徴を入力情報にカメラワークを解析し、CG合成を実現するマーカレスAR技術は応用範囲が広く、大きな期待が寄せられている(例えば、非特許文献1参照)。また、カメラワーク解析は、動画像防振、3次元情報取得、ビジョンを利用したモーションセンサとしてのカメラワーク計測記録装置等といった魅力的なアプリケーションや製品のコア技術と位置付けられる(例えば、特許文献1参照)。このように、各種応用技術及び製品の普及が期待されている。
一方、映像を撮影する際、スマートフォンなどの手持ちの小型撮像機器で撮影すると、映像のブレが問題となる。従来、AR技術は撮影スタジオ等で利用される放送向け技術であるため、クレーンやステディカムといった特殊な安定撮像冶具と組み合わせ利用される場合が多く、ブレの問題が目立ちにくかった。ブレの問題を解決しようとして小型撮像機器とそのような特殊冶具を組み合わせると、携帯性という小型撮像機器のメリットを損ねることになる。そのため撮像装置に光学防振機構を採用することでブレの問題を解決することが容易に考えられる。また、光学防振機構を採用すると、蓄積ブレを抑制し高画質化できたり、画像解析において対応点や動きベクトル探索を容易化したり、防振用途では防振マージンの節約ができるというメリットが生まれる(例えば、特許文献2参照)。
特開2007−215114号公報 特許第4446041号公報 特開2008−259076号公報 G Klein,D Murray," Parallel Tracking and Mapping on a Camera Phone", In Proc. ISMAR'09 R.Szeliski, "Compute Vision Algorithms and Applications",(2010) C. Harris and M. Stephens, "A combined corner and edge detector", Fourth Alvey Vision Conference, pp.147-151, 1988. B.Triggs,"Auto calibration from Planar Scene",ECCV98 R.Hartley,A.Zisserman," Multiple View Geometry in Computer Vision", Cambridge Univ。 Press (2000) Bill Triggs,"Routines for Relative Pose of Two Calibrated Cameras from 5 Points",Documentation, INRIA. juillet 2000. Michal Irani,et.al.,"Multi-frame correspondence estimization using subspace constraints.",International Journal of Computer Vison 48,1,p.p.39-51(2002)
しかしながら、ブレを抑制するために光学防振機構を導入すると、例えばAR用途におけるある条件下では、実写像とCGとの動きにずれが目立ち、正しいカメラ軌跡情報が得られない、といった弊害が生じる。このある条件とは、具体的には、以下のような場合である。即ち、広角レンズで撮影した場合、合成オブジェクトのサイズが撮影画角に対して大きい場合、3次元的カメラワーク推定・合成を行った場合、動きが大きい場合、表示画面が大きく高精細な場合、これらの条件が複数重なった場合等である。つまりこれらは現実の忠実な再現のために、より高精度のカメラモデルに基づくカメラワーク情報が必要となる場合である。
そのような場合、AR用途で具体例を挙げれば、実写像がCGと一致した動きをせず、あおって見えたり、動画像防振用途では揺れ残りが生じたり、3次元情報取得では取得した3次元情報に誤差が生じるといった課題が生じる。また本来のカメラワーク推定という目的に対しては、正しいカメラ軌跡情報が得られないという課題があった。
一方、このような場合、光学防振も考慮した複雑で変数の多いカメラモデルを用意し、画像情報もしくは画像からの抽出情報へのモデルフィッティング等の最適化技術を利用し、カメラワークを推定するという対策方法も考えられる。しかしながら、この場合、推定変数が増えてしまうために、最適化計算の計算量が指数的に増えて演算の収束性が悪くなって処理の安定性が低下し、実用的でなくなってしまうといった課題があった。
本発明は上記問題点を鑑みてなされたものであり、光学防振機能付きの撮像装置から得られた画像に基づいて、光学防振機能の影響を排除したカメラワークを取得することを目的とする.
上記目的を達成するために、本発明の画像処理装置は、光学防振手段を含む光学系を介して入射した光学像を撮像素子により光電変換して得られた画像信号を入力する入力手段と、前記光学防振手段による光学防振制御情報を取得する取得手段と、前記入力手段から入力された画像信号から前記光学防振制御情報に基づいて前記光学防振手段による光学防振の影響を排除した情報に基づいてカメラワークを推定するカメラワーク推定手段とを有する。
本発明によれば、光学防振機能付きの撮像装置から得られた画像に基づいて、光学防振機能の影響を排除したカメラワークの取得が可能となる。
本発明の第1の実施形態における撮像装置の概略構成を示すブロック図。 本発明のカメラワーク推定処理を示すフローチャート。 本発明の姿勢推定処理の詳細を説明するためのフローチャート。 ブロックマッチングを説明する図。 AR合成における光学防振制御情報の利用法を説明する図。 3次元画像解析での光学防振制御情報とカメラワークの利用法を説明する図。 本発明の第2の実施形態における撮像装置の概略構成を示すブロック図。 第2の実施形態における幾何変形による防振における光学防振制御情報の利用法を説明する図。
以下、添付図面を参照して本発明を実施するための最良の形態を詳細に説明する。
<第1の実施形態>
図1は、本発明の第1の実施形態における撮像装置の構成を示すブロック図である。第1の実施形態の撮像装置は、撮影した映像からカメラワークを解析することが可能な撮像装置であって、光学防振機構を備え、カメラワーク推定部を有する。図1はその要部構成を示すブロック図である。
撮像装置100は、光学系11、撮像素子12、光学防振制御部13、姿勢センサ14、光学防振制御監視部15、前処理部16、画像メモリ17、カメラワーク推定部18、画像処理部19を含む。
光学系11は複数枚のレンズ及びミラーから構成され、被写体10から入射した光を撮像素子12上に結像させる。姿勢センサ14は例えばジャイロ等により構成され、撮像装置100の限られた任意軸に対する姿勢変化の情報を計測し、光学防振制御部13に情報を伝える。光学防振制御部13は変位素子により構成され、撮像装置100の姿勢変化、つまりカメラワークに基づき、光学系11の一部のレンズを光軸に対して垂直な方向にシフトさせることにより撮像素子12上の光学像の位置を平行移動させる。これにより、撮像装置100の揺れによる映像の揺れを抑振する。光学防振制御監視部15は、エンコーダ等により構成され、光学防振を行うレンズのシフト量を計測する。
前処理部16は、撮像素子12で光電変換されたアナログの画像信号に対して相関二重サンプリング(CDS)によるノイズ除去、オートゲインコントロール(AGC)でのゲインアップによる露出制御、黒レベル補正、A/D変換等の基礎的な処理を行う。これにより、デジタル信号に変換した画像信号を得る。また、特徴点抽出、ベクトル算出等からなる画像からのカメラワーク推定処理の精度やロバスト性を向上させるために、カメラワーク推定部18への入力画像に対し、ローパス、ハイパス等のフィルタリング処理、トーンマッピング等の諧調調整処理を行っても良い。このように、アナログ信号に対する前処理が主であるため、主要部はAFE(アナログフロントエンド)とも呼ばれる。また、デジタル出力センサと対で使われるものはDFE(デジタルフロントエンド)と呼ばれる。
画像メモリ17は、前処理部16で生成した前処理済み画像信号を一旦保存するメモリである。カメラワーク推定部18は、前処理部16で生成した画像信号及び画像メモリ17に蓄積されたその過去の画像信号を利用してカメラワークを推定する。
画像処理部19は、ベイヤー配列補間、線形化マトリクス処理、ホワイトバランス調整、YCC変換、色差・諧調・コントラスト補正、エッジ強調、等の入力デジタルの画像信号に対する画像処理を行う。一般にはポストプロセッシング、現像とも呼ばれる。これらの処理を行うことにより、1フレームもしくはフィールドの出力映像を生成可能である。またこれらの処理は前処理部16のAFE処理に対して、DBE(デジタルバックエンド)処理と呼ばれる。
さらに画像処理部19は、CG(コンピュータグラフィックス)をレンダリングしたり、レンダリングしたCGを生成した実写の出力映像と合成するAR合成機能をオプションとして含む。また、連続して生成される出力画像のフレームもしくはフィールド間の揺れを幾何変形処理により抑振する防振機能、連続出力画像間で3次元画像解析処理を行い画像と対応する3次元情報もしくはデプス情報を推定する3次元情報取得機能もオプションとして含む。CG生成、幾何変形処理、3次元画像解析等は、カメラワーク推定部18で推定されたカメラワーク情報を利用し、例えば、非特許文献2に記載されるような一般的なCV(カメラベクトル)技術に基づき実行される。
以上説明した構成を有する本第1の実施形態の撮像装置において、カメラワーク推定部18にて実行されるカメラワーク推定処理に関するフローチャートを図2に示す。
S11では、前処理部16より直接入力されるフレームと、画像メモリ17より入力される1つもしくは複数の過去フレームとの間の対応位置の動き情報、つまり対応点を推定する。対応点は、一方の画像上にグリッド上に配置した注目点に対し、他方の画像上でテンプレートマッチングや勾配法を実行する。特徴点を一方の画像上で抽出し、その特徴点位置をテンプレートとしてテンプレートマッチングや勾配法を他方の画像上で実行する。もしくは、各画像毎に特徴点を抽出し、特徴点間で組み合わせ探索することにより得ることができる。
ここで、図4を参照して対応点推定をテンプレートマッチングの一種であるブロックマッチングで行う方法を説明する。図4はブロックマッチングの例を示す。ここでは左側の画像401を基準画像とし、右側の画像402を探索画像とする。例えば先に入力された映像フレームを基準画像、後から入力されたカレント映像フレームを探索画像として対応点を検出する。基準画像401でグリッド状に配置した注目点404を中心とした所定サイズの部分領域をテンプレート403とする。探索画像402中で任意の探索領域407を設定し、テンプレート403を順次移動しながらテンプレート403が最も合致する位置を探索する。この際、探索画像402中の注目画素405を基準とした領域406と基準画像401のテンプレート403との類似度を計算していく。類似度指標としてはSSD(Sum of Square Difference)、SAD(Sum of Absolute Difference)、正規相互相関等の相関演算による演算結果が用いられる。実写映像の様にフレーム間の輝度変動が激しい場合は正規相互相関が主に用いられる。式(1)は、正規相互相関の類似度スコアの算出式である。
Figure 2014192613
ただし、
Figure 2014192613
であり、(x, y)及び(x', y')は基準画像I及び探索画像I’内におけるテンプレートの位置を示す。I(x, y)(i, j)及びI’(x', y')(i, j)は部分画像を示す。
探索領域の類似度を一通り算出した結果、最も類似度の高い位置を対応位置とみなし対応点を算出する。オクルージョンがなければ、基準画像401上で設定した注目点404の数だけ対応点が算出される。対応点は、それぞれ基準画像中の注目点位置を始点とし、探索画像中の対応点位置を終点とするベクトルにより表現される。
(x, y, x', y')i, i = 1, ..., m (m:対応点の個数) …(3)
なお、注目点をグリッド状に固定的に配置したブロックマッチングの例を示したが、基準画像上で対応点を算出しやすい特徴点を抽出し、その位置を注目点としても良い。注目点の抽出には通常Harrisオペレータ(例えば、非特許文献3参照)等の画像処理フィルタが用いられる。
Harrisオペレータはまず、ウィンドウサイズWを決定し、水平及び垂直方向についての微分画像(Idx, Idy)を計算する。微分画像の計算Soblフィルタ等を用いればよい。例えばフィルタは
Figure 2014192613
を横方向にし、縦方向に3つに並べた3×3フィルタhx、及び縦方向にし、横方向に3つならべた3×3フィルタhyを画像に適用し、微分画像(Idx, Idy)を得る。
そして画像内の全ての座標(x, y)について、ウィンドウWを用いて、次のマトリクスGを計算する。
Figure 2014192613
マトリクスGの最小特異値が大きい座標(x, y)の順に特徴点を抽出していく。その際、特徴点があまり密集しないほうが好ましい。そこで既に特徴点が抽出済みの座標(x, y)のウィンドウサイズWの周辺はもう特徴点を算出しない、等の約束を設けてもよい。
次に、S12において、光学防振制御部13で得られた光学防振機構の効果を表す光学防振制御情報を用いて対応点情報を加工する。それにより光学防振の効果、つまりは抑振のために行われた映像の並行移動をキャンセルする。
光学防振制御情報とは、光学防振の効果による映像の並行移動による座標変化の量を表す物理量である。しかしながら、光学系11がズームレンズの場合、焦点距離の変化があると、姿勢センサ14から与えられるカメラの回転量が同じであっても、映像の並行移動量が変化してしまう。このため、制御の扱いやすさを鑑み、カメラの回転量や並行移動量、焦点距離からなる複数の制御物理量の組として扱っても良い。例えば、光学防振制御情報の一つを、それ自体に光学系の焦点距離を乗算するとセンサ面上での画像の平行移動量となるようにスケーリングする値と取り決める。つまり、カメラ回転をθとすると
Figure 2014192613
という形で角度として扱っても良い。この際、光学防振機構がニュートラルな位置にある場合をレンズのシフト量0とする。式(5)において、焦点距離を画像のピクセル単位で扱えば、補正角を画像上での平行移動量として扱うことができる。
カメラ光軸に対し、Yaw方向へのレンズシフト量をShy、Pitch方向へのレンズシフト量をShpとする。この場合、
xrev = x - Shy-1
yrev = y - Shp-1 …(6)
x'rev = x' - Shy
y'rev = y' - Shp
という形で、光学防振による表示領域の移動をキャンセルすることができる。ここでShy, Shpはカレントフレームにおける防振シフト量、Shy-1, Shp-1は1つ前のフレームにおける防振シフト量を示す。また、x、yは1つ前のフレームにおけるx座標及びy座標、xrev、yrevは、光学防振による表示領域の移動をキャンセルした後のx座標及びy座標を示す。同様に、x’、y’はカレントフレームにおけるx座標及びy座標、x'rev、y'revは、光学防振による表示領域の移動をキャンセルした後のx座標及びy座標を示す。を示す。
また、S12においては、S13における計算の精度やロバスト性の向上を目的に、対応点を入力フレームのピクセル座標系の対応点値から正規化画像座標系における対応点値へと変換しても良い。以下、(x, y)は入力フレーム上のピクセル座標、(ud, vd)は歪みを含む正規化画像座標、(u, v)は歪みを除去した正規化画像座標とである。内部パラメータ及び歪み係数を用いて変換を行う。まず、内部パラメータにより正規化画像座標に変換する。inv( )は ( )のマトリクスの逆行列を表す。
Figure 2014192613
内部パラメータの行列はカメラ行列Kと呼ばれる
Figure 2014192613
そして、歪み係数により歪みを除去する。
Figure 2014192613
なお、式(9)における「→」の演算は以下で説明する処理で実現する。歪み除去は、放射歪の関係、
K = 1 + k1r + k2r2 + k3r3 + ...、r2 = ud 2 + vd 2 …(10)
u = ud/K、v = vd/K …(11)
を用いて行う。k1、k2、k3はそれぞれ1次、2次、3次の放射方向の歪み係数を表す。これらは光学系の収差より生じる歪みである。歪みは光学系の焦点距離や被写体距離等のカメラパラメータ毎に変化する。このため、焦点距離等との関係は、設計値より算出しておく。そして焦点距離等に対応するルックアップテーブルもしくは焦点距離等に関する変換式として非図示のROM等に記憶しておく。
なお、本第1の実施形態では放射方向の歪みのみを除去するが、動径方向の歪みのような別の歪みが顕著ならば、別途歪み除去処理を追加して行っても良い。
次に、S13では、カレントフレームと過去フレーム間の補正済み対応点を入力として、当該フレーム間のカメラの姿勢変化を推定する。図3にその推定処理のフローチャートを示す。S21において平面度を算出するが、この平面度は、対応点から計算されるデータ行列の条件数の大小により決定される。ここでは、S12において光学防振の影響を排除し、正規化画像座標系における値へと変換した対応点情報に対して、平面度の高さに応じた推定処理を行う。平面度が予め決められた閾値以下の場合(S22でNO)、基本的に基本行列に基づく姿勢推定もしくは5点法のようなピンホールカメラモデルに基づく姿勢推定法を実行し、カメラワークを推定する(S24)。しかしながら対応点算出において、その算出位置がマップされた空間配置が平面上の様な特異配置の場合(平面度が閾値を超える場合、S22でYES)、基本行列や5点法では縮退により解が得られなくなる。その場合には、射影ホモグラフィを求めて射影行列分解操作によりカメラ姿勢を推定する方法と切り替えを行う(S23)。
以下では、その一方のフローであるS23で行われる射影ホモグラフィに基づく姿勢推定について説明する。過去フレームにおける正規化画像座標を(ui, vi)、カレントフレームにおける正規化画像座標を(ui', vi')、i = 1, ..., m (mは対応点数)とすると、射影ホモグラフィについての線形式を得ることができる。
Figure 2014192613
この線形式は対応点数m ≧8ならば過決定となる。そして、線形最小二乗式として解くことによりh = {h11, ..., h33}が求められる。これを3×3のマトリクスに整形することにより、
Figure 2014192613
射影ホモグラフィ、つまりはフレーム間の画像の変化量が求められる。
次に、射影ホモグラフィをカメラワーク回転R、シーンの被写体を近似した面の方向n、そして並進tと深度dの積t/dに分解する。なお、n及びtの横の「」は、n及びtがベクトル値であることを示す。以降、「」はベクトル表すものとする。そして以下の手順により可能な2つの解を算出する。射影ホモグラフィの2つの解への分解は固有値分解、特異値分解を利用し、不変量を見出すことで行われる。様々な解法が可能であるが、説明として今回は非特許文献4で用いられたアプローチを参考に記述する。
射影ホモグラフィとカメラワーク及びシーン配置の関係は次式により表される。
Figure 2014192613
式(14)において、R、tはカメラの回転及び並進、dは基準面までの距離、nは基準面のカメラから離れる向きの法線、λは任意定数である。ここで2画像間からの算出では、空間平面の距離dとカメラワーク並進のノルムnorm(t)の積を分けることはできない。ノルムとはベクトルの大きさを表す量である。つまり、tは並進方向を表す単位方向ベクトルnorm(t) = 1、dは空間平面までの距離と並進量の大きさの積として扱われる。
最初に、Hの符号は、平面上の全ての対応点x1 、x2 について(x2 )THx1 >0を満たすように選択されるとする。
Hの特異値分解はH = USVT となる。ここでU及びVは3×3の回転マトリクスで、S = diag(σ1, σ2, σ3)は正の降順対角要素σ1≧σ2≧σ3≧0であり、Hの特異値とする。ここで関連する直交マトリクスU及びVの列要素をu1, u2, u3、及びv1, v2, v3で表す。
第1カメラの参照系を採用し、3次元平面を(n)Tx = d = 1/ζとする。ここでnは外向き(カメラから離れる方向)の法線とする。ζ = 1/d ≧0は平面に対する距離の逆数である。この参照系においては、第1カメラは3×4の射影マトリクスP1 = [I3×3|0]を持つ。そして第2カメラはP2 = R[I3×3|t] = [R|t']、t' = -Rtであり、ここでt、t'はカメラ間の並進(つまり、第1カメラ光軸中心から第2カメラの光軸中心への並進)、Rはカメラ間の回転を表す。
画像1から画像2へのホモグラフィはH = rH1であり、ここではH1 = I3×3 - ζtn→Tである。(平面上の3次元点xに対して、Hx = R(x- ζt(n)Tx) = R(x - t) ≒ P2x。なぜならば、そこではζ(n)Tx = 1であるためである。そして、xを画像1内の任意点として扱うと、違いは全体のスケール因子のみである。)
積ζt(n)Tのみが復元可能で、それゆえ||t|| = ||n|| = 1で正規化する。つまり平面距離1/ζは単位基線長||t||において測定される。そして、可能な符号を決めるために、後述するデプス正制約テストを行う。
特異値分解のH = USVTとH1 = U1SVTはRの要素まで同じである。すなわち、U = RU1である。H1において、外積ベクトルt×nは不変である。もし特異値が明確ならば、t×nは特異ベクトルに対応しなければならない。これにより、これはいつも2番目の特異ベクトルv2であると分かる。それゆえHの補正正規化はH→H/σ2、つまり(σ1, σ2, σ3)→(σ12, 1, σ32)である。以下、σ2による正規化が済まされているものと想定する。
画像フレーム1においてt×nがv2に対応することが与えられると、{t, n}部分空間は{v1, v3}により占められなければならない、つまり任意のパラメータα、β(α2 + β2 = 1)に対して、n = βv1 - αv3 、n×(t×n) ≒ αv1 + βv3 である。nに直交する任意方向(特に n×(t×n)はHもしくはH1)によって変化しないノルムを持つ。
ここで、(ασ1)2 + (βσ3)2 = α2 + β2もしくは、(α, β) = (±√(1 - σ3 2), (±√(σ1 2 - 1))である。ここで、t×nを上記のv1もしくはv3に対応させると、解がなくなってしまう。それゆえv2のみが可能となる。
厳密には、左辺の同じ引数がRt = -(βu1 + αu3)を示す。tがH1の固有値1 - ζn(t)Tの固有ベクトルを満たすならば、Ht = (1 - ζ(n)Tt)Rtを得る。故にt≒H-1(Rt)≒β/σ1v1 + α/σ3v3 である。及び(単純化後は)ζ = σ1 - σ3である。
H1の特異値分解の左辺(U1の列u1 , u2 , u3 )は表記u2 = v2 により復元可能であり、tがH1の固有ベクトルであることが必要である。そこでは、u1 = γv1 + δv3 、u3 = δv1 - γv3 であり、単純化後は(γ, δ)≒(1 + σ1σ3, ±αβ)である。故に、
Figure 2014192613
として、最後に回転Rが得られる。
以下、画像変化量を、回転と並進からなるカメラワークR、t(方向ベクトル)と空間の基準面の深さ位置dと方向nからなるシーン配置との可能な2つの解を算出するための、一連の具体的な処理をまとめて示す。
[U, S, B] = svd(H) …(16)
σ'1 = σ12、σ'3 = σ32 …(17)
ただし、
Figure 2014192613
ζ = (1/d) = σ'1 - σ'3 …(19)
Figure 2014192613
Figure 2014192613
Figure 2014192613
Figure 2014192613
Figure 2014192613
これらを用いて可能な2つの解{R1, t1 , n1 }、{R2, t2 , n2 }が求まる。
Figure 2014192613
Figure 2014192613
Figure 2014192613
これらの解の組に対し、方位ベクトルnが外向きの約束(デプス正制約)を導入する。
Figure 2014192613
Figure 2014192613
と符号の整合性を取ることにより、可能な2つの解が算出される。その後エピポーラ誤差チェックを行い、誤差の少ない1つの解を抽出する。
エピポーラ誤差チェックは以下のようにして実行される。対応点x1 、x2 より求められたホモグラフィを分解して得られる姿勢変化とシーン情報の可能な2つの解のセット{R1, t1 /d, n1 }、{R2, t2 /d, n2 }について、対応点を用いてエピポーラ誤差を算出する。エピポーラ誤差は、
Figure 2014192613
で表される。nは対応点数である。そして誤差の小さな解を真の解として選択する。これにより、入力されたフレーム間のカメラワークを表す{R1, t1 , n1 , d}の唯一の解が求まる。
なお、本第1の実施形態で説明を省略した、ピンホールカメラモデルを想定した、非平面シーンに対するカメラの姿勢推定方法である基本行列に基づく姿勢推定(例えば、非特許文献5参照)及び5点法(例えば、非特許文献6参照)は、公知技術をベースにしたもので実現可能である。
求められたフレーム間のカメラワーク情報は、カメラワーク情報算出の対象となったフレームと同期をとって画像処理部19に入力される。画像処理部19においてはオプション的な画像処理として、カメラワーク情報を用いてCG生成及び実写とのスプライト合成、幾何変形処理、3次元画像解析等を行う。このように、AR合成機能、防振機能、3次元情報取得機能といったユーザ価値を向上するアプリケーションを実現する。
例えば、AR合成を例に挙げる。AR合成はカメラワークを考慮しながら生成したCGと実写映像を合成する技術である。あるフレームを基準にCG合成を開始し、そのフレームから実写を撮影するカメラに生じたカメラワークを反映しそれぞれのフレームに対するCGを生成する。初期フレームとした実写カメラの位置、対応するCGのレンダリングカメラの位置を基準とすると、そのカメラ行列は、
Figure 2014192613
という式により表すことができる。
その際、S12で対応点座標に実施したオフセット除去作業と逆の操作をCGに加えることで光学防振の効果を与えることができる。つまり、図5(a)に示すように、CG生成のレンダリングビューに(Shy0, Shp0)のオフセットを加えてCGをレンダリングすることで、光学防振の影響を考慮することができる。言い換えると、光学防振で生じるビューの平行移動を生成するCGに反映することができる。そのため、画像処理部19にカメラワーク推定部18と同様に光学防振制御監視部15の情報を入力してCGレンダリングを行う。そして、生成したCGを実写画像とスプライト合成することによりARを実現する。
nフレーム後のCGをレンダリングする際には、その間のカメラワーク変化を考慮して以下のようにカメラ行列を決定し、、図5(b)に示すようにCGをレンダリングする。
Figure 2014192613
初期フレームを基準とした、nフレーム後の撮影画像のカメラ行列を表す。括弧内は姿勢行列[Ri|ti ]を乗算して連結した基準フレームからカレントフレームの姿勢変化である。
Figure 2014192613
この際のt1 は、S13の際のtが単位行列であり、そのノルムの全てがシーンの基準面の始点からのdに含まれていたのに対し、ノルムをデプス情報1/dとの間で配分して持つ。その配分は画像内のオブジェクトのサイズ、例えばシーンに写る顔領域のサイズ、平均的なカメラの移動量、例えば最初の数フレームの平行移動量等の動画像内に含まれる情報で決定する。後者のやり方は、例えば非参考文献1におけるAR合成でも用いられている従来からの一般的な暗黙知である。ratioは動画像内の情報で決定する、基本的に0〜1の値域をもつスケール因子である。
Figure 2014192613
以下、汎用的なCGの定義に従い、CG生成へのカメラワーク情報の利用方法を説明する。通常のCG生成のアーキテクチャにおいてはCG空間内のワールド座標に対するカメラの姿勢情報RC、tC を入力することでCGレンダリングにカメラワークを反映することができる。ワールド座標系に対するRはカメラの回転、tはカメラの平行移動である。AR合成の初期フレームに対し、CG側で設定した初期カメラの姿勢情報をRC、tC とすると、その姿勢行列[Rc|tc ]に各フレーム毎にカメラワーク推定部18で算出された姿勢行列を左から乗算して、カレントフレームのカメラの姿勢情報R'C、t'C もしくはM'Cを得る。
Figure 2014192613
各映像フレームに対応する式(35)のカメラ姿勢情報を設定してCG生成することにより、カメラワークに応じた動きをするCGが生成できる。
またその際、CG生成のレンダリングビューは初期フレームと同様に、カレントフレームの光学防振によるビューの平行移動を考慮してレンダリングビューを(Shyn, Shpn)オフセットさせてCGをレンダリングすることで光学防振を反映したCGを生成できる。
一方、フレーム間のカメラワーク推定の積算のみでCG生成のカメラ行列を決定していると、積算誤差からドリフトを生じてしまう。ドリフト除去のため、カメラワーク推定部の処理と並行して、非図示の別の回路において、ある任意の一定期間のフレーム区間のカメラワーク情報にバンドルアジャストメントを実施して離れたフレーム間の高精度なカメラワークを求めても良い。その際、S12で求めた、光学防振の影響を除去した対応点情報及びS13で求めたカメラワーク情報を入力をバンドルアジャストメント処理の入力情報とする。該処理により算出した高精度なカメラワークでオンライン処理中の積算の進んだ姿勢変化行列を代替することで、ドリフトのないAR合成を実現しても良い。
また、CG生成及びAR合成を、ポストプロダクションソフトウェアもしくはコンポジット(合成)ソフトウェアと呼ばれる専用のPCソフトウェアもしくは相当の専用ハードウェア機器、いわゆる外部機器で実施する場合も考えられる(例えばTHE FUNDARY社のNUKE) 。その際には、光学防振制御監視部15で計測した光学防振制御情報、カメラワーク推定部18で生成したカメラワーク情報、画像処理部19にて生成した映像を撮像装置の非図示の出力インターフェースから出力する。そしてそれらの情報を外部機器に入力してCG生成、及びスプライト合成を行うことでAR合成映像を生成できる。
大部分のCGソフトウェアはいわゆるチルトシフトレンズをCGカメラモデルに反映するため、CGカメラの属性設定にビューの平行移動設定の機能を有している。そのため、該情報のセットを計測及び推定し、生成した映像と一緒に出力することで、汎用的な外部機器でも違和感なく光学防振で撮影した動きブレのない映像に対してAR合成を実現できる。該情報のセットとは、もちろん光学防振の影響を除去したカメラワーク情報及び、前記光学防振制御情報である。
3次元画像解析の場合は、ベースラインを確保可能な、任意のある一定以上のフレーム期間離れたキーフレーム(2フレーム分)を選択して3次元情報を求める。キーフレーム間のカメラワークから算出した姿勢変化を基に、光学防振によるビューの平行移動を考慮して平行化、レクティフィケーションをまず実施する。平行化されたキーフレーム画像上で、例えば勾配法などの密な対応点探索を行う。得られた密な対応点に対し三角視を行うことによりデプスとしての3次元情報を得ることができる。そして、得られたデプス情報を対応付けたい画像フレームの光学防振制御情報のシフト量にあわせてシフトさせることで画像の画素諧調とデプス情報をレジストレーションした3次元情報を得ることができる。3次元画像解析における光学防振制御情報とカメラワークの利用の概要を図6に示す。(Shya, Shpa)はキーフレームAに対応する光学防振制御情報、(Shyb, Shpb)はキーフレームBに対応する光学防振制御情報を表す。キーフレームは一定以上のベースラインを確保可能な任意のフレームから選択する。2枚以上の任意数が可能である。各光学防振制御情報に従って光学防振の影響を画像から排除して平行化を行う。本実施形態により、光学防振で撮影した動きブレのない映像に対し幾何学的に矛盾なく3次元画像解析を実施できる。このため、勾配法等の3次元情報抽出子のデプス算出能力向上、出力される3次元情報自体の精度向上が見込める。レクティフィケーション自体は、例えば、非特許文献2にも記載される当該技術分野の基本技術である。
上記の通り第1の実施形態によれば、光学防振制御情報を考慮してカメラワークを算出し、画像処理に利用することにより、従来よりも高品質にAR合成、3次元情報取得といったアプリケーションを実行することが可能となる。
例えば、AR用途ではステディカム等の特殊撮影冶具を用いず、光学防振付きビデオカメラで手軽に動きブレのないAR画像が合成可能となる。
また、光学防振も考慮した複雑で変数の多いカメラモデルを用意し、画像情報のみからモデルフィッティング等の最適化技術を利用し、カメラワーク推定する場合に比べて、計算を単純化することができる。その結果、最適化計算の計算量を削減しやすく小規模な回路でもリアルタイム化できる、安定性の高い処理を実現することができる。
<第2の実施形態>
次に、本発明の第2の実施形態について説明する。図7は、第2の実施形態に係る撮像装置の要部構成を説明するブロック図である。本第2の実施形態における撮像装置200は、カメラボディ201とレンズ鏡筒部202の2つの部分からなる。レンズ鏡筒部202は、図1を参照して説明した同様の構成を有する光学防振機構を含む光学系11、光学防振制御部13に加え、姿勢センサ14、光学防振制御監視部15を含む。またレンズ鏡筒部202は通信部20を通してカメラボディ201とレンズ鏡筒部202間で光学防振制御情報を受け渡す。つまり、カメラボディ201側では姿勢センサ14の情報が得られない場合を想定する。例えば旧式の1眼レフカメラの交換レンズ仕様のように通信部20の通信帯域ビットレートが非常に低い場合が想定される。
なお本第2の実施形態の撮像装置200におけるカメラワーク推定処理は上述した第1の実施形態のものと同じであるため、ここでは説明を省略する。カメラワーク推定処理で利用する光学防振制御情報は、レンズ鏡筒部202で生成された情報を通信部20を経由してレンズ鏡筒部202からカメラボディ201へと出力され、カメラワーク推定部18に入力する。
また、第2の実施形態の画像処理部19は、幾何変形防振制御部191及び幾何変形部192を内包する。幾何変形防振制御部191は、カメラワーク推定部18の出力として得られたカメラワーク情報を時系列処理し、幾何変形防振制御情報を生成する。例えば時系列処理により平滑化されたカメラワークを算出し、元のカメラワークとの差を、幾何変形防振制御情報として幾何変形部192に渡す。幾何変形部192は、幾何変形防振制御情報を入力として画像フレームを幾何変形する機能を有し、幾何変形により防振映像を得る。幾何変形部192が実現する幾何変形の自由度が射影自由度の場合、幾何変形防振制御情報はホモグラフィで表現可能な情報となる。オフライン的な処理としては、例えば、非特許文献7に示されるように、固有値分解によりカメラワークが低次の基底に分解可能な性質を活用し、得られた各固有基底に対応した成分値をフィルタリングすることにより幾何変形防振制御情報を得ることができる。
具体的には、例えば、固有値分解による基底変換により得られた各固有基底に対応した成分値をハイパスフィルタリングすることにより各固有基底に対応した幾何変形防振制御情報を得る。そして基底の逆変換を実施して幾何変形部192の入力となる幾何変形防振制御情報を得る。もしくは、前述のようにローパスフィルタリングを行い、平滑化された防振後のカメラワークをまず算出する。そして元のカメラワークとの差を、固有基底における幾何変形防振制御情報として算出する。最後に、固有値分解の逆変換で幾何変形部の入力となる幾何変形防振制御情報を得る。
但し、上記手法はカメラワーク情報がある程度蓄積されたオフライン的な処理でしか実行できない。そのため、オンライン的に実行するためには、例えば特許文献3に開示されている様にカメラワークをホモグラフィとして扱い、ホモグラフィを画像の変化成分に分解して時系列のフィルタリングを行うことで同様の効果を得ることができる。また、前者の方法に比べ、後者は最終画像により影響が直接的に表れる画像の変化量の基底でフィルタリングを行うため、より滑らかな防振結果映像を得やすいという特徴がある。
幾何変形部192では、映像のフレーム毎に幾何変形防振制御情報を入力し、対応する画像フレームを幾何変形することで防振映像を得る。その際、図2のS12で対応点座標に実施したオフセット除去作業と同じ操作を画像に対してまず行い、光学防振の影響をキャンセルする。具体的には、(Shy0, Shp0)のオフセットを減算し、幾何変形防振制御情報に従う幾何変形を実施する。そして、幾何変形防振制御情報で補正する平行移動成分のみを(Shy0, Shp0)のオフセットから減算し、これを幾何変形防振制御情報に更に加算して光学防振の効果を復元する一連の幾何変形を入力画像フレームに実行する。
図8は上述した一連の幾何変形手順を示す。一連の幾何変形はホモグラフィとして表現可能なため、画像に対しては一括で実行可能である。このように、光学防振制御監視部15で計測した光学防振制御情報、カメラワーク推定部18で生成したカメラワーク情報を画像処理部19に入力し、画像処理部19の基本処理で生成した映像を上述した手順で幾何変形する。これにより、光学防振の影響を考慮した防振を実現できる。
上記の通り第2の実施形態によれば、映像入力装置が光学防振機構を備え、カメラボディ201側では姿勢センサ14の情報が得られない場合であっても、画像情報からカメラワーク推定がロバストに可能となる。その結果、AR合成、防振、3次元情報取得といった撮像装置の価値向上につながるアプリケーションを実現できる。
なお、本発明は、複数の機器(例えばカメラなどの撮像装置、インターフェイス機器、画像処理装置など)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、デジタルカメラなど)に適用してもよい。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (24)

  1. 光学防振手段を含む光学系を介して入射した光学像を撮像素子により光電変換して得られた画像信号を入力する入力手段と、
    前記光学防振手段による光学防振制御情報を取得する取得手段と、
    前記入力手段から入力された画像信号から前記光学防振制御情報に基づいて前記光学防振手段による光学防振の影響を排除した情報に基づいてカメラワークを推定するカメラワーク推定手段と
    を有することを特徴とする画像処理装置。
  2. 前記カメラワーク推定手段は、
    前記画像信号のフレーム間の対応位置の動きを抽出して動き情報を取得する抽出手段と、
    前記動き情報を前記光学防振制御情報の逆数の情報で加工して前記光学防振の影響を排除し、該加工した動き情報に基づいてカメラワークを推定する推定手段と
    を有することを特徴とする請求項1に記載の画像処理装置。
  3. 前記カメラワーク推定手段は、前記画像信号から前記光学防振制御情報に基づいて前記光学防振手段による光学防振の影響を排除した情報に基づいて平面度を求め、該平面度が予め決められた閾値以下の場合、基本行列または5点法に基づいてカメラワークを推定し、前記平面度が前記閾値を超える場合に、射影行列分解操作に基づいてカメラワークを推定することを特徴とする請求項1または2に記載の画像処理装置。
  4. コンピュータグラフィックスを生成し、該生成したコンピュータグラフィックスに前記推定されたカメラワークを反映して、前記画像信号と合成する合成手段を更に有することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 予め決められたフレーム期間離れた2フレーム分の画像信号を、前記カメラワークから算出した姿勢変化に基づいて平行化し、該平行化した画像信号から、3次元情報を取得する3次元画像解析手段を更に有することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  6. 前記カメラワークの情報に対して時系列処理を行って平滑化されたカメラワークを求め、該平滑化されたカメラワークと元のカメラワークとの差を求める防振制御手段と、
    前記差に基づいて前記画像信号をフレーム毎に幾何変形することで防振映像を取得する幾何変形手段と
    を更に有することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  7. 前記光学防振制御情報は、前記光学像のシフト量から構成されることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記光学像のシフト量は、焦点距離及び前記光学防振手段のシフト量を含む、前記撮像素子における前記光学像のシフトを計算することのできる複数の制御物理量もしくは複数の該制御物理量の組からなることを特徴とする請求項7に記載の画像処理装置。
  9. 前記カメラワークの情報は、カメラの回転量及び平行移動量を含むことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 前記画像信号、前記カメラワークの情報、前記光学防振制御情報とを出力する出力手段を更に有することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 前記撮像素子と、
    請求項1乃至10のいずれか1項に記載の画像処理装置と
    を有することを特徴とする撮像装置。
  12. 前記光学系を更に有することを特徴とする請求項11に記載の撮像装置。
  13. 画像処理装置において行われる画像処理方法であって、
    入力手段が、光学防振手段を含む光学系を介して入射した光学像を撮像素子により光電変換して得られた画像信号を入力する入力工程と、
    取得手段が、前記光学防振手段による光学防振制御情報を取得する取得工程と、
    カメラワーク推定手段が、前記入力工程で入力された画像信号から前記光学防振制御情報に基づいて前記光学防振手段による光学防振の影響を排除した情報に基づいてカメラワークを推定するカメラワーク推定工程と
    を有することを特徴とする画像処理方法。
  14. 前記カメラワーク推定工程は、
    前記画像信号のフレーム間の対応位置の動きを抽出して動き情報を取得する抽出工程と、
    前記動き情報を前記光学防振制御情報の逆数の情報で加工して前記光学防振の影響を排除し、該加工した動き情報に基づいてカメラワークを推定する推定工程と
    を有することを特徴とする請求項13に記載の画像処理方法。
  15. 前記カメラワーク推定工程は、前記画像信号から前記光学防振制御情報に基づいて前記光学防振手段による光学防振の影響を排除した情報に基づいて平面度を求める工程を含み、
    該平面度が予め決められた閾値以下の場合、基本行列または5点法に基づいてカメラワークを推定し、前記平面度が前記閾値を超える場合に、射影行列分解操作に基づいてカメラワークを推定することを特徴とする請求項13または14に記載の画像処理方法。
  16. 合成手段が、コンピュータグラフィックスを生成し、該生成したコンピュータグラフィックスに前記推定されたカメラワークを反映して、前記画像信号と合成する合成工程を更に有することを特徴とする請求項13乃至15のいずれか1項に記載の画像処理方法。
  17. 3次元画像解析手段が、予め決められたフレーム期間離れた2フレーム分の画像信号を、前記カメラワークから算出した姿勢変化に基づいて平行化し、該平行化した画像信号から、3次元情報を取得する3次元画像解析工程を更に有することを特徴とする請求項13乃至15のいずれか1項に記載の画像処理方法。
  18. 防振制御手段が、前記カメラワークの情報に対して時系列処理を行って平滑化されたカメラワークを求め、該平滑化されたカメラワークと元のカメラワークとの差を求める防振制御工程と、
    幾何変形手段が、前記差に基づいて前記画像信号をフレーム毎に幾何変形することで防振映像を取得する幾何変形工程と
    を更に有することを特徴とする請求項13乃至15のいずれか1項に記載の画像処理方法。
  19. 前記光学防振制御情報は、前記光学像のシフト量から構成されることを特徴とする請求項13乃至18のいずれか1項に記載の画像処理方法。
  20. 前記光学像のシフト量は、焦点距離及び前記光学防振手段のシフト量を含む、前記撮像素子における前記光学像のシフトを計算することのできる複数の制御物理量もしくは複数の該制御物理量の組からなることを特徴とする請求項19に記載の画像処理方法。
  21. 前記カメラワークの情報は、カメラの回転量及び平行移動量を含むことを特徴とする請求項13乃至20のいずれか1項に記載の画像処理方法。
  22. 前記画像信号、前記カメラワークの情報、前記光学防振制御情報とを出力する出力手段を更に有することを特徴とする請求項13乃至21のいずれか1項に記載の画像処理方法。
  23. コンピュータに、請求項13乃至22のいずれか1項に記載の画像処理方法の各工程を実行させるためのプログラム。
  24. 請求項23に記載のプログラムを格納したコンピュータが読み取り可能な記憶媒体。
JP2013064916A 2013-03-26 2013-03-26 画像処理装置及び方法、及び撮像装置 Active JP5997645B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013064916A JP5997645B2 (ja) 2013-03-26 2013-03-26 画像処理装置及び方法、及び撮像装置
US14/216,333 US9762800B2 (en) 2013-03-26 2014-03-17 Image processing apparatus and method, and image capturing apparatus for predicting motion of camera
CN201410116446.0A CN104079819B (zh) 2013-03-26 2014-03-26 图像处理设备和方法、以及摄像设备
EP14161758.9A EP2785045B1 (en) 2013-03-26 2014-03-26 Image processing apparatus and method, and image capturing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013064916A JP5997645B2 (ja) 2013-03-26 2013-03-26 画像処理装置及び方法、及び撮像装置

Publications (3)

Publication Number Publication Date
JP2014192613A true JP2014192613A (ja) 2014-10-06
JP2014192613A5 JP2014192613A5 (ja) 2015-05-14
JP5997645B2 JP5997645B2 (ja) 2016-09-28

Family

ID=50439164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013064916A Active JP5997645B2 (ja) 2013-03-26 2013-03-26 画像処理装置及び方法、及び撮像装置

Country Status (4)

Country Link
US (1) US9762800B2 (ja)
EP (1) EP2785045B1 (ja)
JP (1) JP5997645B2 (ja)
CN (1) CN104079819B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10986271B2 (en) 2015-10-14 2021-04-20 Google Llc Stabilizing video
WO2022049690A1 (ja) * 2020-09-03 2022-03-10 日本電信電話株式会社 移動量推定装置、移動量推定方法およびプログラム

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5967991B2 (ja) * 2012-03-16 2016-08-10 キヤノン株式会社 撮像装置及びその制御方法、並びにプログラム
JP5977591B2 (ja) * 2012-06-20 2016-08-24 オリンパス株式会社 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体
KR102041647B1 (ko) * 2014-06-30 2019-11-07 삼성전기주식회사 카메라의 보정 시스템 및 그 보정방법
US10726560B2 (en) * 2014-10-31 2020-07-28 Fyusion, Inc. Real-time mobile device capture and generation of art-styled AR/VR content
US10719939B2 (en) * 2014-10-31 2020-07-21 Fyusion, Inc. Real-time mobile device capture and generation of AR/VR content
US9940541B2 (en) 2015-07-15 2018-04-10 Fyusion, Inc. Artificially rendering images using interpolation of tracked control points
US10176592B2 (en) 2014-10-31 2019-01-08 Fyusion, Inc. Multi-directional structured image array capture on a 2D graph
US10262426B2 (en) 2014-10-31 2019-04-16 Fyusion, Inc. System and method for infinite smoothing of image sequences
US10275935B2 (en) 2014-10-31 2019-04-30 Fyusion, Inc. System and method for infinite synthetic image generation from multi-directional structured image array
US10726593B2 (en) 2015-09-22 2020-07-28 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10147211B2 (en) 2015-07-15 2018-12-04 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10222932B2 (en) 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
US11095869B2 (en) 2015-09-22 2021-08-17 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US10852902B2 (en) 2015-07-15 2020-12-01 Fyusion, Inc. Automatic tagging of objects on a multi-view interactive digital media representation of a dynamic entity
US10242474B2 (en) 2015-07-15 2019-03-26 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US11783864B2 (en) 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
JP6581474B2 (ja) * 2015-11-11 2019-09-25 キヤノン株式会社 像振れ補正装置及びその制御方法、プログラム、記憶媒体
WO2017087537A1 (en) * 2015-11-16 2017-05-26 Google Inc. Stabilization based on accelerometer data
US10402696B2 (en) * 2016-01-04 2019-09-03 Texas Instruments Incorporated Scene obstruction detection using high pass filters
US11202017B2 (en) 2016-10-06 2021-12-14 Fyusion, Inc. Live style transfer on a mobile device
US10437879B2 (en) 2017-01-18 2019-10-08 Fyusion, Inc. Visual search using multi-view interactive digital media representations
US10313651B2 (en) 2017-05-22 2019-06-04 Fyusion, Inc. Snapshots at predefined intervals or angles
US11069147B2 (en) 2017-06-26 2021-07-20 Fyusion, Inc. Modification of multi-view interactive digital media representation
CN109150571B (zh) * 2017-06-27 2021-10-12 中国电信股份有限公司 网格映射方法和装置
DE102017212339A1 (de) * 2017-07-19 2019-01-24 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bewertung von Bildausschnitten für eine Korrespondenzbildung
US10462370B2 (en) 2017-10-03 2019-10-29 Google Llc Video stabilization
US10592747B2 (en) 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging
US10171738B1 (en) 2018-05-04 2019-01-01 Google Llc Stabilizing video to reduce camera and face movement
CN109348125B (zh) * 2018-10-31 2020-02-04 Oppo广东移动通信有限公司 视频校正方法、装置、电子设备和计算机可读存储介质
US11722771B2 (en) * 2018-12-28 2023-08-08 Canon Kabushiki Kaisha Information processing apparatus, imaging apparatus, and information processing method each of which issues a notification of blur of an object, and control method for the imaging apparatus
CN110199706A (zh) * 2019-06-05 2019-09-06 安徽工程大学 一种人工智能绿化修剪机
CN111246106B (zh) 2020-01-22 2021-08-03 维沃移动通信有限公司 图像处理方法、电子设备及计算机可读存储介质
US11190689B1 (en) 2020-07-29 2021-11-30 Google Llc Multi-camera video stabilization

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10243340A (ja) * 1997-02-27 1998-09-11 Hitachi Ltd 動画像処理装置
JPH11261946A (ja) * 1998-03-11 1999-09-24 Nippon Telegr & Teleph Corp <Ntt> 映像表示方法および装置並びに該映像表示方法を記録した記録媒体
JP2009159514A (ja) * 2007-12-27 2009-07-16 Sony Corp 撮像装置、その制御方法およびプログラム
JP2011035638A (ja) * 2009-07-31 2011-02-17 Toppan Printing Co Ltd 仮想現実空間映像制作システム
JP2011097512A (ja) * 2009-11-02 2011-05-12 Canon Inc 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2012204908A (ja) * 2011-03-24 2012-10-22 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP2014176007A (ja) * 2013-03-12 2014-09-22 Canon Inc 撮像装置およびその制御方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3697129B2 (ja) 2000-01-20 2005-09-21 キヤノン株式会社 撮像装置
JP4446041B2 (ja) 2003-10-02 2010-04-07 株式会社岩根研究所 カメラベクトル演算装置と、このカメラベクトル演算装置に備えられる揺れ成分検出装置,画像安定化装置,位置姿勢安定化装置,目的対象物ロックオン装置及び実写対象物属性呼出装置
JP2005215388A (ja) * 2004-01-30 2005-08-11 Canon Inc 交換レンズ及びそれを用いたカメラシステム
JP2007215114A (ja) 2006-02-13 2007-08-23 Sony Corp 撮像画像の歪み補正方法、撮像画像の歪み補正装置および撮像装置
WO2008010568A1 (fr) 2006-07-21 2008-01-24 Panasonic Corporation Système d'appareil photo, lentille interchangeable, boîtier d'appareil photo et procédé de commande du système d'appareil photo
JP4958610B2 (ja) 2007-04-06 2012-06-20 キヤノン株式会社 画像防振装置、撮像装置及び画像防振方法
KR20130000401A (ko) * 2010-02-28 2013-01-02 오스터하우트 그룹 인코포레이티드 대화형 머리­장착식 아이피스 상의 지역 광고 컨텐츠
JP5501119B2 (ja) * 2010-06-29 2014-05-21 キヤノン株式会社 撮像装置およびその制御方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10243340A (ja) * 1997-02-27 1998-09-11 Hitachi Ltd 動画像処理装置
JPH11261946A (ja) * 1998-03-11 1999-09-24 Nippon Telegr & Teleph Corp <Ntt> 映像表示方法および装置並びに該映像表示方法を記録した記録媒体
JP2009159514A (ja) * 2007-12-27 2009-07-16 Sony Corp 撮像装置、その制御方法およびプログラム
JP2011035638A (ja) * 2009-07-31 2011-02-17 Toppan Printing Co Ltd 仮想現実空間映像制作システム
JP2011097512A (ja) * 2009-11-02 2011-05-12 Canon Inc 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2012204908A (ja) * 2011-03-24 2012-10-22 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP2014176007A (ja) * 2013-03-12 2014-09-22 Canon Inc 撮像装置およびその制御方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10986271B2 (en) 2015-10-14 2021-04-20 Google Llc Stabilizing video
WO2022049690A1 (ja) * 2020-09-03 2022-03-10 日本電信電話株式会社 移動量推定装置、移動量推定方法およびプログラム
JP7464135B2 (ja) 2020-09-03 2024-04-09 日本電信電話株式会社 移動量推定装置、移動量推定方法およびプログラム

Also Published As

Publication number Publication date
EP2785045A3 (en) 2014-10-29
JP5997645B2 (ja) 2016-09-28
EP2785045B1 (en) 2017-12-27
CN104079819B (zh) 2017-07-14
US20140293004A1 (en) 2014-10-02
US9762800B2 (en) 2017-09-12
EP2785045A2 (en) 2014-10-01
CN104079819A (zh) 2014-10-01

Similar Documents

Publication Publication Date Title
JP5997645B2 (ja) 画像処理装置及び方法、及び撮像装置
JP6570327B2 (ja) 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
JP5179398B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム
JP6147172B2 (ja) 撮像装置、画像処理装置、画像処理方法、及びプログラム
JP5725953B2 (ja) 撮像装置及びその制御方法、並びに情報処理装置
JP6577703B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP2015216510A (ja) 撮像装置、その制御方法および情報処理システム
JP4887376B2 (ja) ステレオビジョンにおいて密な視差場を求める方法
JP5901447B2 (ja) 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラム
JP2013031154A (ja) 画像処理装置、画像処理方法、撮像装置およびプログラム
JP2013254097A (ja) 画像処理装置及びその制御方法、並びにプログラム
JP7474137B2 (ja) 情報処理装置およびその制御方法
JP2008298589A (ja) 位置検出装置及び位置検出方法
JP2012003503A (ja) 画像処理装置およびその制御方法、並びにプログラム
JP5587322B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP6153318B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP6362070B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
JP2017059998A (ja) 画像処理装置およびその方法、並びに、撮像装置
JP5925109B2 (ja) 画像処理装置、その制御方法、および制御プログラム
JP6732440B2 (ja) 画像処理装置、画像処理方法、及びそのプログラム
JP2019071522A (ja) 撮像装置および制御方法
JP7191711B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN113469886A (zh) 一种基于三维重构的图像拼接方法
JP2017162313A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6807538B2 (ja) 画像処理装置、方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150326

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160826

R151 Written notification of patent or utility model registration

Ref document number: 5997645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151