JP5204785B2 - 画像処理装置、撮影装置、再生装置、集積回路及び画像処理方法 - Google Patents

画像処理装置、撮影装置、再生装置、集積回路及び画像処理方法 Download PDF

Info

Publication number
JP5204785B2
JP5204785B2 JP2009544565A JP2009544565A JP5204785B2 JP 5204785 B2 JP5204785 B2 JP 5204785B2 JP 2009544565 A JP2009544565 A JP 2009544565A JP 2009544565 A JP2009544565 A JP 2009544565A JP 5204785 B2 JP5204785 B2 JP 5204785B2
Authority
JP
Japan
Prior art keywords
image
unit
constraint condition
parameter
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009544565A
Other languages
English (en)
Other versions
JPWO2009072264A1 (ja
Inventor
淳 大宮
雅之 木村
整 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2009544565A priority Critical patent/JP5204785B2/ja
Publication of JPWO2009072264A1 publication Critical patent/JPWO2009072264A1/ja
Application granted granted Critical
Publication of JP5204785B2 publication Critical patent/JP5204785B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Adjustment Of Camera Lenses (AREA)

Description

本発明はカメラなどの撮影装置に関するものである。
近年、カメラの小型化、軽量化が進み、撮影者は、カメラを手で保持した状態で映像を撮影することが一般的に行われるようになってきている。また、撮影者は、カメラを手で保持せずに眼鏡、衣服、帽子などに装着して映像を撮影すること、いわゆるハンズフリー撮影も行われるようになっている。このような眼鏡、衣服、帽子などに装着された小型カメラによる撮影では、従来の大型で重量のあるカメラを使用していたときには問題とならなかった課題が明らかになってきている。その課題の一つが、撮影された映像に存在する映像揺れである。この映像揺れは、撮影者による撮影の自由度が高い、小型かつ軽量なカメラほど顕著である。そこで、従来、映像揺れを抑制又は補正する技術の開発が行われてきた。
従来の映像揺れを抑制又は補正する技術には、電子式揺れ補正方式、光学式揺れ補正方式などがある。そして、これら電子式揺れ補正方式、光学式揺れ補正方式などの中には、映像揺れを抑制又は補正する性能を向上されるために、加速度センサ、ジャイロセンサ、傾きセンサなどの各種センサを用いて撮影時に生じた揺れを検出できるようにしたものがある(例えば、特許文献1参照)。特許文献1に記載の手振れ補正装置は、カメラに装着された傾きセンサを用いて、揺れの傾向に関する情報を取得する。そして、この手振れ補正装置は、取得した揺れの傾向に関する情報を利用して、揺れ量及び揺れ方向の検出のための画像探索(マッチング)を行う。その結果、特許文献1に記載の手振れ補正装置は、揺れ量及び揺れ方向の検出のために要する計算量を削減することが可能となる。
また、センサから得られた揺れ情報をより積極的に用いて、映像揺れを抑制する技術も提案されている(例えば、特許文献2参照)。特許文献2に記載の手振れ補正装置は、時系列で入力されるセンサデータを学習することにより、撮影される瞬間の揺れ振動を予測する。そして、この手振れ補正装置は、予測した揺れ振動の情報を用いて揺れ振動を打ち消すように揺れ補正レンズを駆動することにより、揺れを抑制する。その結果、特許文献2に記載の手振れ補正装置は、実際の手ブレ振動の特性(撮影者の癖、カメラ本体に装着された交換レンズの重量バランス等)に対応した揺れを抑制することが可能となる。
特開2006−343652号公報 特開平7−20547号公報
しかしながら、特許文献1及び特許文献2に記載の手振れ補正装置は、ともに、センサから安定した信号が取得できるような静的な撮影条件を想定して映像揺れを補正している。つまり、特許文献1及び特許文献2に記載の手振れ補正装置は、撮影者が小型軽量カメラを手に保持した状態あるいはハンズフリーカメラを装着した状態で移動しながら撮影を行うことを想定していない。ハンズフリー撮影では、撮影者はカメラを手で保持しないため撮影状態が不安定となる。また、加えて、ハンズフリー撮影では、歩行による振動がカメラに加わる。このような撮影状態において、小型で安価なセンサが用いられた場合には、慣性ノイズあるいは他軸感度といったノイズがセンサからの出力信号に重畳するため、センサからの出力信号の信頼度は著しく低下する。したがって、このようにセンサからの出力信号の信頼度が低い場合、従来の映像揺れを補正する技術では、センサからの出力信号を映像揺れの補正に利用することができないという課題を有していた。
そこで、本発明は、上記従来の課題を解決するもので、撮影装置の動きを計測するセンサの精度が低い場合であっても、大きな映像揺れを高精度に補正するためのパラメータを算出することができる画像処理装置等を提供することを目的とする。
上記目的を達成するために、本発明に係る画像処理装置は、動きを検知するセンサを備える撮影装置により撮影された二以上の画像間の位置合わせを行うためのパラメータを算出する画像処理装置であって、前記撮影装置により撮影された画像を取得する画像取得部と、前記画像取得部により取得された画像が撮影された際の前記センサの出力信号であるセンサ情報を取得するセンサ情報取得部と、前記センサ情報取得部により取得されたセンサ情報を用いて、前記パラメータが算出される際に前記パラメータが所定範囲の値となるような制約条件を生成する制約条件生成部と、前記制約条件生成部により生成された制約条件に従って、前記画像取得部により取得された画像について前記パラメータを算出するパラメータ算出部とを備え、前記制約条件生成部は、前記センサ情報取得部により取得されたセンサ情報の特徴を示す特徴ベクトルを生成する特徴ベクトル生成部と、前記特徴ベクトルと前記撮影装置の動きとの関連付けを利用して、前記特徴ベクトル生成部により生成された特徴ベクトルから前記撮影装置の動きを識別する動き識別部とを含み、前記関連付けは、前記特徴ベクトルと前記撮影装置の実際の動きとが予め機械学習された結果得られる関連付けであり、前記制約条件生成部は、前記動き識別部により識別された前記撮影装置の動きに応じて前記所定範囲を特定することにより、前記制約条件を生成する。
これにより、特徴ベクトルと撮影装置の実際の動きとが予め機械学習された関連付けの情報を利用して撮影装置の動きを識別することができるので、センサからの出力信号の信頼性が低い場合でも、高精度に撮影装置の動きを識別することが可能となる。そして、そのように識別した撮影装置の動きに基づいて生成された制約条件を用いて、パラメータを算出することができるので、画像間の位置合わせを行うためのパラメータを高精度に算出することが可能となる。
以上の説明から明らかなように、本発明に係る画像処理装置は、撮影装置の動きを計測するセンサの精度が低い場合であっても、大きな映像揺れを高精度に補正するためのパラメータを算出することができる。
図1は、本発明の実施の形態1に係る撮影装置の機能構成を示すブロック図である。 図2は、加速度センサ及び角速度センサの計測軸を示す図である。 図3は、実施の形態1に係る撮影装置が備える画像処理部103の動作を示すフローチャートである。 図4(a)及び(b)は、AdaBoostについて説明するための図である。 図5は、傾きパラメータaについてのヒストグラムの一例を示す図である。 図6は、画像取得部により取得された映像データに含まれる画像の一例を示す図である。 図7は、画像取得部により取得された映像データに含まれる画像の一例を示す図である。 図8は、図7に示す画像を用いて作成された傾きパラメータaについてのヒストグラムの一例を示す図である。 図9Aは、時刻t−1に撮影された画像の一例を示す図である。 図9Bは、時刻tに撮影された画像の一例を示す図である。 図10は、特徴点マッチングにより算出された平行移動量を説明するための図である。 図11Aは、撮影装置により時刻t−1に撮影された画像の一例を示す図である。 図11Bは、撮影装置により時刻tに撮影された画像の一例を示す図である。 図12Aは、図11Aに示した特徴点を抽出した図である。 図12Bは、図11Bに示した特徴点を抽出した図である。 図12Cは、揺れ検出部が制約条件を利用しないで、図12Aにおいて白三角で示される特徴点についてテンプレートマッチングを行う場合の探索領域を示す図である。 図12Dは、揺れ検出部が制約条件を利用して、図12Aにおいて白三角で示される特徴点についてテンプレートマッチングを行う場合の探索領域を示す図である。 図13は、画像補正部が図11Bに示す画像に対して補正を行った結果の画像の一例を示す図である。 図14は、本発明の実施の形態2に係る撮影装置の機能構成を示すブロック図である。 図15は、第一角速度センサ及び第二角速度センサの計測軸の一例を示す図である。 図16は、本発明の実施の形態3に係る撮影装置の機能構成を示すブロック図である。 図17は、本発明の実施の形態4に係る撮影装置の機能構成を示すブロック図である。 図18は、roll方向の回転がないと識別された場合の傾きパラメータの解の探索範囲を説明するための図である。 図19は、本発明に係る集積回路の機能構成を示すブロック図である。 図20は、本発明に係る再生装置の機能構成を示すブロック図である。
以下、本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
図1は本発明の実施の形態1に係る撮影装置100の機能構成を示すブロック図である。図1に示すように、撮影装置100は、センサ部101、撮影部102、及び画像処理部103を備える。
センサ部101は、加速度センサ111と角速度センサ112とからなり、互いに直交する三つの軸方向(x、y、z軸方向)の加速度とその三つの軸回り(roll、pitch、yaw)の角速度とについて撮影装置100自身の動きの計測を行う。そして、センサ部101は、その計測結果を画像処理部103に出力する。
なお、本実施の形態では、説明の便宜のため、撮影装置100のレンズの光軸とz軸とが一致するようにxyz座標系を設定する。また、図2に示すように、三つの軸回り(roll、pitch、yaw)の角速度は、原点からみて各軸の時計回りを正の向きとし、反時計回りを負の向きとする。
また、センサ部101は、加速度センサ111及び角速度センサ112からのアナログ出力信号をデジタル信号に変換する。つまり、センサ部101は、図示しないADC(Analog to Digital Converter)を備え、デジタル信号を画像処理部103に出力する。なお、本実施の形態では、センサ部101がデジタル信号を出力する場合について説明するが、本発明に係る撮影装置は、このような撮影装置に限定されるものではない。例えば、画像処理部103がセンサ部101から出力されたアナログ信号をデジタル信号に変換してもよい。
撮影部102は、レンズ、撮像素子等からなり、被写体を撮影する。そして、撮影部102は、被写体を撮影した画像を画像処理部103等に出力する。
画像処理部103は、CPU(Central Processing Unit)、メモリ等からなる処理部であり、インタフェース部120、制約条件生成部130、パラメータ算出部140、及び画像補正部150を備える。
インタフェース部120は、センサ情報取得部121及び画像取得部122を備える。センサ情報取得部121は、画像取得部122により取得された映像データに含まれる二以上の画像のそれぞれが撮影された際のセンサ部101からの出力信号をセンサ情報として取得する。画像取得部122は、撮影部102により撮影された二以上の画像を含む映像データを取得する。
制約条件生成部130は、特徴ベクトル生成部131並びにroll方向識別器132、pitch方向識別器133、及びyaw方向識別器134を備える。制約条件生成部130は、センサ情報取得部121により取得されたセンサ情報を用いて、パラメータが算出される際にパラメータが所定範囲の値となるような制約条件を生成する。
特徴ベクトル生成部131は、センサ情報取得部121により取得されたセンサ情報の特徴を示す特徴ベクトルを生成する。
roll方向識別器132、pitch方向識別器133、及びyaw方向識別器134は、動き識別部の一例であり、特徴ベクトルと撮影装置100の動きとの関連付けを利用して、特徴ベクトル生成部131により生成された特徴ベクトルから撮影装置100の各軸回り(roll、pitch、yaw)の動きの向きを識別する。ここで、撮影装置100の各軸回りの動きの向きの識別には、どの向きにも動いていないことを識別することが含まれる。また、特徴ベクトルと撮影装置100の動きとの関連付けは、特徴ベクトルと撮影装置100の実際の動きとが予め機械学習された結果得られる関連付けである。ここで、機械学習とは、コンピュータが、複数のサンプルデータ集合を対象に解析を行い、そのデータから有用なルール、判断基準などを抽出することをいう。
パラメータ算出部140は、傾き角度検出部141及び揺れ検出部142を備える。パラメータ算出部140は、画像取得部122により取得された映像データと、制約条件生成部130により生成された制約条件とを用いて、時間的に隣接する画像(以下、単に隣接画像という。)間の位置合わせを行うためのパラメータを算出する。
傾き角度検出部141は、制約条件生成部130により生成された、解が所定範囲の値となるような制約条件に従って、画像から絶対水平又は絶対垂直を示す要素の傾きを抽出することにより、画像の傾き角度をパラメータとして算出する。
揺れ検出部142は、制約条件生成部130により生成された、解が所定範囲の値となるような制約条件に従って、映像データに含まれる時間的に隣接する二つの画像間における被写体像の相対的な移動量をパラメータとして算出する。
画像補正部150は、パラメータ算出部140により算出された、画像間の位置合わせを行うためのパラメータに基づいて、映像データに含まれる隣接フレーム間の画像の位置合わせを行う。
次に、以上のように構成された本実施の形態に係る撮影装置100の動作について説明する。
図3は、本実施の形態に係る撮影装置100が備える画像処理部103の動作を示すフローチャートである。
まず、画像取得部122は、撮影部102により生成された映像データを取得する(ステップS101)。続いて、センサ情報取得部121は、センサ部101により映像データが撮影された際に測定されたセンサ情報を取得する(ステップS102)。具体的には、センサ情報取得部121は、加速度センサ111及び角速度センサ112により測定された、各軸方向(x、y、z軸方向)の加速度及び各軸回り(roll、pitch、yaw)の角速度を取得する(ステップS102)。
次に、特徴ベクトル生成部131は、取得されたセンサ情報を用いて各種演算を行うことにより、センサ情報の特徴を示す特徴ベクトルを生成する(ステップS103)。そして、各回転方向の識別器(roll方向識別器132、pitch方向識別器133、及びyaw方向識別器134)は、特徴ベクトル生成部131により生成された特徴ベクトルから撮影装置100の各回転方向の動きを識別する(ステップS104)。そして、制約条件生成部130は、各回転方向の識別器により識別された撮影装置100の各回転方向の動きを用いて、パラメータ算出部140がパラメータを算出する際に解となるパラメータの値の範囲を制限する制約条件を生成する(ステップS105)。
次に、傾き角度検出部141は、制約条件生成部130により生成された制約条件に従って、画像から絶対水平又は絶対垂直を示す要素の傾きを抽出することにより、画像の傾き角度をパラメータとして算出する(ステップS106)。そして、揺れ検出部142は、制約条件生成部130により生成された制約条件に従って、映像データに含まれる時間的に隣接する二つの画像間における被写体像の相対的な移動量をパラメータとして算出する(ステップS107)。
最後に、画像補正部150は、傾き角度検出部141及び揺れ検出部142により算出されたパラメータを用いて、画像取得部122により取得された映像データを補正する(ステップS108)。
以下、図3に示した各ステップにおける処理の詳細について説明する。まず、特徴ベクトル生成部131による処理(図3のステップS103)の詳細について説明する。
特徴ベクトル生成部131は、センサ情報取得部121により取得されたセンサ情報(三軸方向の加速度及び角速度)を用いて、センサ情報の特徴を示す特徴ベクトルを生成する。具体的には、特徴ベクトル生成部131は、制約条件生成部130が備える図示しないバッファに時系列順に格納されたセンサ情報(センサ情報取得部121により取得されたセンサ情報)を読み出し、読み出したセンサ情報を用いて所定の演算を行う。例えば、特徴ベクトル生成部131は、同じ時刻tに加速度センサ111により計測された各軸方向の加速度の大きさを比較したり、時刻t−1と時刻tとに角速度センサ112により計測されたrollの角速度の差分値を求めたりなどの演算を行う。そして、特徴ベクトル生成部131は、上記のような演算を行った結果を所定のルール(符号化ルール)に従って符号化した符号からなる特徴ベクトルを生成する。ここで、符号化ルールとは、例えば、ある演算を行った結果が正の値であれば1を、それ以外であれば−1を与えるというルールである。また、符号化ルールは、例えば、各センサ出力値間の値の大きさを比較した結果、最も大きい値を持つセンサ出力値に1を、それ以外のセンサ出力値すべてに−1を与えるというルールである。このように、特徴ベクトル生成部131は、バッファに格納されている各センサ出力値を用いて様々な演算を行い、演算結果の符号列である特徴ベクトルx(i)を生成する。なお、本実施の形態に係る撮影装置100における符号化ルールは、上記のルールに限定されるものではない。
次に、各回転方向の識別器(roll方向識別器132、pitch方向識別器133、及びyaw方向識別器134)による処理(図3のステップS104)の詳細について説明する。
各回転方向の識別器は、AdaBoostと呼ばれる機械学習の手法によって得られる強識別器により構成される。ここで、AdaBoostとは、ブースティング手法の一例であり、弱い性能を持った多数の識別器(弱識別器)を重み付けしながら組み合わせることにより、一つの高性能の識別器(強識別器)を構成する機械学習の手法である。
図4(a)及び(b)は、AdaBoostについて説明するための図である。図4(a)に示すように、AdaBoostでは、学習時において、まず、学習コンピュータが、特徴ベクトルx(i)と、その特徴ベクトルx(i)が得られたときの撮影装置100の実際の動きy(i)との組合せである複数の学習データを取得する。動きy(i)は、ある回転軸の動きを正の向きに動いたときを「1」と、それ以外のときを「−1」と符号化されたものである。ここで、センサ情報を用いて生成された特徴ベクトルx(i)と符号化された撮影装置100の動きy(i)とは何らかの関連があるはずである。そこで、学習コンピュータは、このように取得されたx(i)とy(i)との複数の組合せについて、単純な仮説(例えば、「特徴ベクトルxの3番目の成分が1のときyは1である」、など)を次々に修正しながら逐次仮説ごとの正解率を求める。そして、学習コンピュータは、最も正解率が高かった仮説を採用した識別器が弱識別器と決定する。なお、弱識別器の出力も、「1」、あるいは「−1」の値を持つ符号である。さらに、学習コンピュータは、決定済みの弱識別器が識別できなかった特徴を識別することに重きを置くような新たな弱識別器の決定を繰り返す。このような学習の結果、学習コンピュータは、複数の弱識別器と、各弱識別器の正答率に基づく各弱識別器の重みとからなる強識別器を生成する。
図4(b)に示すように、上記のような機械学習により生成された強識別器は、特徴ベクトルxが入力された場合、まず各弱識別器の出力値を重み付け加算する。具体的には、i番目の弱識別器の出力値がz(i)、その出力値に対する重みがw(i)である場合、強識別器は、下式(1)に基づいて、評価値Zを算出する。
Figure 0005204785
次に、強識別器は、このように算出された評価値Zを閾値と比較することにより、所定の回転軸について正の向きへの動きがあったかどうかを識別する。つまり、強識別器は、学習が終了した後は、センサ情報取得部121により取得されたセンサ情報から生成される特徴ベクトルxと、学習コンピュータによって生成された重みw(i)とから、所定の軸回りの回転方向の動きの有無を推定することが可能となる。
各回転方向の識別器は、このように生成された強識別器により構成される。例えば、roll方向識別器132は、z軸回りの正負それぞれの方向への動きの有無を識別する強識別器により構成される。この二つの強識別器がともに“動きなし”と識別した場合は、roll方向識別器132は、撮影装置100がroll方向へ動いていないと識別する。
このように、例えば、撮影装置100が製品として出荷される前に、予め工場等において学習コンピュータが学習データを用いて強識別器を生成することにより、撮影装置100は、当該撮影装置100の特徴に応じた各回転方向の識別器を備えることが可能となる。また、学習コンピュータは、センサ情報から生成された特徴ベクトルと撮影装置100の実際の動きとを含む学習データを用いて、特徴ベクトルから撮影装置100の動きを識別する強識別器を生成する。つまり、強識別器は、画像の動きではなく、撮影装置100の動きを識別する。これにより、本実施の形態に係る各回転方向の識別器は、撮影された画像の特徴量等を学習データとして画像の動きを識別するよりも、より大きな揺れに対して高精度に動きを識別することが可能となる。
なお、上記において、学習コンピュータが強識別器を生成していたが、撮影装置100が学習データを用いて強識別器を生成してもよい。その場合、撮影装置100は、学習コンピュータを備えることとなる。つまり、撮影装置100は、学習データを取得する学習データ取得部と、学習データ取得部により取得された学習データを用いて、強識別器を生成する学習部とを備えることとなる。
次に、制約条件生成部130による処理(図3のステップS105)の詳細について説明する。
制約条件生成部130は、各回転方向の識別器(roll方向識別器131、pitch方向識別器132及びyaw方向識別器133)が識別した撮影装置100の各回転方向の動きを用いて、パラメータ算出部140においてパラメータを算出するときにパラメータの値の範囲を制限する制約条件を生成する。なお、制約条件の具体例は後述する。
次に、傾き角度検出部141による処理(図3のステップS106)の詳細について説明する。
傾き角度検出部141は、映像データに含まれる各画像から垂直あるいは水平を表す線分の傾きを、Hough変換などを用いて抽出することにより、画像の絶対水平あるいは絶対垂直に対する傾き角度を算出する。
一般的に、Hough変換では、抽出されたx−y座標空間上の直線y=ax+b(ただしa、bは実数)を、a−bパラメータ空間においてb=−ax+yと表現する。そして、a−bパラメータ空間上の点(a,b)のうち、最も多くの直線が交わる点(a0,b0)が、最も長い線分の直線パラメータとして抽出される。そこで、傾き角度検出部141は、パラメータa、bのうち傾きパラメータaに注目し、交差する直線の数を評価値として傾きパラメータaについてのヒストグラムを作成する。そして、傾き角度検出部141は、評価値が最も高い傾きパラメータaを画像の代表的な線分の傾きとして抽出する。
図5は、傾きパラメータaについてのヒストグラムの一例を示す図である。図5に示すヒストグラムの場合、傾き角度検出部141は、最も評価値が高いa=a0を画像の代表的な線分の傾き、つまり絶対水平あるいは絶対垂直を示す要素の傾きとして抽出する。ここで抽出された傾きを用いて、絶対水平あるいは絶対垂直のいずれかに対する画像の傾き角度が算出される。なお、傾き角度検出部141は、例えば、±45度に対応する傾きを境にして、絶対値が45度以上となる傾きの場合には絶対水平に対する傾き、絶対値が45度未満となる傾きの場合には絶対垂直に対する傾きとみなして、画像の傾き角度を算出する。つまり、World座標系における鉛直方向を0度とした場合、45度以上となる傾きのときには、傾き角度検出部141は、90度からその傾きを減じた角度を絶対水平に対する傾き角度として算出する。一方、45度未満となる傾きのときには、傾き角度検出部141は、その角度を絶対垂直に対する傾き角度として算出する。
図6は、画像取得部122により取得された映像データに含まれる画像の一例を示す図である。図6に示す画像は、反時計回りに15度傾いた画像である。この画像において、人物の後方に写っている建物の縦方向の輪郭線が最も長い線分である。したがって、傾き角度検出部141は、この輪郭線の傾きから、絶対垂直に対する傾き角度である15度を算出する。なお、傾き角度検出部141が映像データに含まれる隣接画像間の回転量を算出する場合には、傾き角度検出部141は、例えば、時刻t−1の画像の傾き角度と時刻tの傾き角度との差から回転量を算出することができる。
上記のような傾き角度の算出において、傾き角度検出部141は制約条件生成部130により生成された制約条件を利用する。以下、傾き角度検出部141において利用される制約条件について説明する。
撮影装置100に生じたroll方向の運動は、撮影装置100の光軸回りの運動である。したがって、roll方向の運動が存在する状況において撮影が行われると、撮影装置100のroll方向の動きと反対向きへ傾いた画像が撮影される。したがって、roll方向識別器132がroll方向の正の向きへの動きを識別した場合、制約条件生成部130は、傾き角度の値の範囲を負の角度に限定する制約条件を生成する。一方、roll方向識別器132がroll方向の負の向きへの動きを識別した場合、制約条件生成部130は、傾き角度の値の範囲を正の角度に限定する制約条件を生成する。これにより、傾き角度検出部141は、傾き角度が負又は正となる傾きの範囲のみについて解を探索することにより、画像の傾きを抽出することができる。
具体例について図面を用いて説明する。図7は、画像取得部122により取得された映像データに含まれる画像の一例を示す図である。図7に示す画像は、撮影装置100がroll方向の正の向き(時計回り)に回転した状態で撮影された画像であるため、反時計回りに回転した画像となっている。図8は、図7に示す画像を用いて作成された傾きパラメータaについてのヒストグラムの一例を示す図である。図8に示すヒストグラムにおいて、a0及びa1の評価値がほぼ同じである。ここで、制約条件が無い場合、傾き角度検出部141は、最も評価値が高い傾きを絶対水平あるいは絶対垂直に対する傾きと抽出する。しかし、線分抽出処理を行う際の演算誤差などが存在することを考慮すると、評価値の差が微小な場合には、傾き角度検出部141が単純に最も評価値が高い傾きを抽出することは、誤った傾きを抽出する危険がある。そこで、画像の傾き角度が負となる範囲に傾きを限定する制約条件を用いることにより、傾き角度検出部141は、解の存在範囲を図8に示すヒストグラムのa>0の領域に限定する。このように制約条件を用いて解の範囲を限定することにより、傾き角度検出部141は、a1を絶対水平あるいは絶対垂直に対する傾きとして抽出する。つまり、傾き角度検出部141は、a0を絶対水平あるいは絶対垂直に対する傾きとして抽出しない。以上のように、傾き角度検出部141は、制約条件生成部130により生成された制約条件を用いて解の存在範囲を限定することにより、求められる解の精度を向上させることができる。また、傾き角度検出部141は、評価値の最大値を探索する際に、制約条件により限定された解の範囲のみを探索することにより、演算コストも抑制することが可能となる。
次に、揺れ検出部142による処理(図3のステップS107)の詳細について説明する。
揺れ検出部142は、隣接画像間に存在する動きを検出する処理部であり、主に平行移動量の検出を行う。具体的には、揺れ検出部118は、取得した映像データに含まれる隣接画像のそれぞれの特徴点を抽出する。そして、揺れ検出部118は、隣接画像間で抽出した特徴点のマッチングを行うことにより、特徴点の位置が合致するような平行移動量を求める。
図9A及び図9Bは、時刻t−1と時刻tに撮影された画像間の平行移動量について説明するための図である。具体的には、図9Aは、時刻t−1に撮影された画像の一例を示す図である。また、図9Bは、時刻tに撮影された画像の一例を示す図である。
最初に、揺れ検出部142は、時間的に隣接する二つの画像のそれぞれから特徴点を抽出する。特徴点の抽出の方法として様々な手法があるが、揺れ検出部142は、特に特徴点の抽出の方法を限定する必要はない。つまり、揺れ検出部142は、画像の輝度又は色の変化からエッジ又はコーナーを抽出する一般的な方法を用いて特徴点を抽出してもよいし、他の方法を用いて特徴点を抽出してもよい。ここでは、特徴点の抽出についての詳細な説明は割愛する。図9A及び図9Bに記された白丸、白三角、及び白四角の記号のそれぞれは、揺れ検出部142により抽出された特徴点である。ここで、同じ形の記号は、二枚の画像間で対応する特徴点であることを示している。
次に、揺れ検出部142は、特徴点マッチングを行う。具体的には、揺れ検出部142は、基準となる時刻t−1の画像(基準画像)の各特徴点の周りにテンプレートを設定する。そして、揺れ検出部142は、時刻tの画像(参照画像)の各特徴点の周りにも同様にテンプレートを設定する。そして、揺れ検出部142は、すべての特徴点の組合せでテンプレートマッチングを行うことにより、基準画像と参照画像との間における特徴点の対応関係を決定する。具体的には、例えば、揺れ検出部142は、時刻t−1の白三角の特徴点の周りのテンプレートは、時刻tの白丸及び白四角の特徴点の周りのテンプレートよりも時刻tの白三角の特徴点の周りのテンプレートとの相関が高いことを利用して、二つの画像間における特徴点の対応関係を決定する。そして、揺れ検出部142は、決定した特徴点の対応関係を用いて、基準画像と参照画像との間の平行移動量を算出する。
図10は、特徴点マッチングにより算出された平行移動量を説明するための図である。図10では、時刻t−1及び時刻tの画像における人物像の領域が重ねて表示されている。人物像501は、時刻t−1に撮影された画像における人物像を示している。また、人物像502は、時刻tに撮影された画像における人物像を示している。なお、人物像501及び502は、それぞれの時刻に撮影された画像の撮影領域を一致させたときの画像である。移動ベクトル503は、白三角で示された特徴点の時刻t−1から時刻tへの移動ベクトルである。ここで、移動ベクトルの水平方向及び垂直方向の成分がそれぞれΔx及びΔyである場合、時刻tの画像全体を水平方向に−Δx、垂直方向に−Δyだけ平行移動させることにより、二つの時刻t−1及び時刻tの画像の特徴点を一致させることができる。上記のような方法により、揺れ検出部142により算出された平行移動量を用いて、二つの画像の揺れが補正される。
上記のような平行移動量の算出において、本実施の形態に係る揺れ検出部142は、制約条件生成部130により生成された制約条件を利用する。以下、揺れ検出部142において利用される制約条件について、図面を用いて説明する。
図11Aは、撮影装置100により時刻t−1に撮影された画像の一例を示す図である。また、図11Bは、撮影装置100により時刻tに取得された画像の一例を示す図である。図11Bに示す破線で囲まれた領域は、図11Aに示す画像に対応する領域を示している。すなわち、図11Bに示す画像は、図11Aに示す画像に対して撮影領域が右下に移動した画像である。図11A及び図11Bに示す画像上にプロットされている白丸、白三角及び黒三角は、当該画像の特徴点である。図11Bに示す特徴点は、撮影領域の移動に追従して、当該特徴点に対応する図11Aに示す特徴点よりも左上に移動している。
図12A及び図12Bは、図11A及び図11Bに示した特徴点をそれぞれ抽出した図である。ここで、揺れ検出部142が、図12A及び図12Bに示す特徴点を抽出した場合、前述のように、揺れ検出部142は、特徴点マッチングにより平行移動量の算出を行う。具体的には、揺れ検出部142は、図12Aにおいて白三角で示される特徴点が、図12Bのどの特徴点と対応するのかをテンプレートマッチングなどの手法を用いて探索する。
図12Cは、揺れ検出部142が制約条件を利用しないで、図12Aにおいて白三角で示される特徴点についてテンプレートマッチングを行う場合の探索領域を示す図である。図12Cに示すように、制約条件生成部130により生成された制約条件を利用しない場合、揺れ検出部142は、斜線領域内に含まれる特徴点(白丸、白三角及び黒三角)に対してマッチング処理を行う。すなわち、揺れ検出部142は、斜線領域外にある黒丸で示された特徴点に対してマッチング処理は行わない。ここで、斜線領域で示される探索領域は、図12Aにおいて白三角で示される特徴点の画像上の座標と同一の座標(図12Bの破線白三角の位置)を中心とする矩形領域である。このとき、図11A及び図11Bの画像に写っている鳥居の2本の足(ほぼ同じ構造を持つ)の部分に対応する特徴点群は、特徴点の配置が近似している。したがって、各特徴点の周りに設定されるテンプレートも近似する。その結果、揺れ検出部142は、テンプレートマッチングにより正しくない対応付けを行ってしまう可能性がある。すなわち、揺れ検出部142は、図12Aにおける白三角の特徴点と、図12Cにおける黒三角の特徴点とが対応すると判断してしまう可能性がある。
そこで、揺れ検出部142は、制約条件生成部130により生成された制約条件を利用して、テンプレートマッチングを行う。具体的には、制約条件生成部130は、撮影装置100に生じたpicth方向及びyaw方向の運動が、それぞれ画像の縦方向及び水平方向の平行移動として画像に反映されるという特性を利用して、テンプレートマッチングにおける探索領域を限定する制約条件を生成する。
例えば、pitch方向識別器133及びyaw方向識別器134が、図11Bに示す画像が撮影されたときのセンサ情報を用いて、pitch方向が正の向き及びyaw方向が負の向き(すなわち撮影装置の光軸の向きが右下を向いたことを意味する)と識別した場合、制約条件生成部130は、テンプレートマッチングによる参照画像の探索領域を、マッチングの対象となる基準画像の特徴点の座標と同一の座標よりも左上側の領域とする制約条件を生成する。具体的には、制約条件生成部130は、揺れ検出部142が図12A示す白三角に対応する特徴点を図12Bに示す特徴点から探索する場合、図12Aに示す白三角の特徴点の座標よりも左上の領域を探索するように制約条件を生成する。
すなわち、制約条件生成部130は、pitch方向識別器133がpitch方向の正の向きへの動きを識別した場合は、基準画像の特徴点の座標と同一の座標よりも上側の領域内の特徴点をマッチングの対象とする制約条件を生成する。一方、制約条件生成部130は、pitch方向識別器133がpitch方向の負の向きへの動きを識別した場合は、基準画像の特徴点の座標と同一の座標よりも下側の領域内の特徴点をマッチングの対象とする制約条件を生成する。
また、制約条件生成部130は、yaw方向識別器134がyaw方向の正の向きへの動きを識別した場合は、基準画像の特徴点の座標と同一の座標よりも右側の領域内の特徴点をマッチングの対象とする制約条件を生成する。一方、制約条件生成部130は、yaw方向識別器134がyaw方向の負の向きへの動きを識別した場合は、基準画像の特徴点の座標と同一の座標よりも左側の領域内の特徴点をマッチングの対象とする制約条件を生成する。
図12Dは、揺れ検出部142が制約条件を利用して、図12Aにおいて白三角で示される特徴点についてテンプレートマッチングを行う場合の探索領域を示す図である。揺れ検出部142は、制約条件を用いることにより、図12Dに示す斜線領域についてのみテンプレートマッチングを行う。その結果、揺れ検出部142は、図12Dにおける黒三角で示す特徴点をテンプレートマッチングの対象としないので、図12Aの白三角に対応する特徴点を黒三角と誤って決定することがなくなる。つまり、揺れ検出部142は、制約条件を利用することにより、間違った対応付けを行う危険性を抑制できる。また、揺れ検出部142は、テンプレートマッチングを行う対象となる特徴点の数を少なくすることができるので、演算負荷を低減させることが可能となる。
次に、画像補正部150による処理(図3のステップS108)の詳細について説明する。画像補正部150は、パラメータ算出部140により算出された傾き角度と平行移動量とを用いて、基準画像と参照画像との間の位置合わせを行う。以下、その詳細を説明する。
傾き角度検出部141で算出された傾き角度をθ、揺れ検出部142で検出された移動ベクトルを(Δx,Δy)とする。この場合、時刻tの画像は、時刻t−1の画像に対してθだけ回転している。また、時刻tの画像は、時刻t−1の画像に対してΔxだけ水平方向に、かつ、Δyだけ垂直方向に平行移動している。したがって、画像補正部150は、時刻tの画像を−θ回転させるとともに、水平方向に−Δx、かつ、垂直方向に−Δyだけ平行移動させることによって、時刻tの画像と時刻t−1の画像との位置ずれを解消させることができる。画像補正部150は、アフィン変換を用いて、この位置合わせの処理を行う。具体的には、補正後の座標を(x,y)、補正前の座標を(x0,y0)、3行3列のアフィン行列をRとする場合、画像補正部150は、下式(2)を用いて時刻tの画像を補正する。
Figure 0005204785
ここで、補正前の座標から算出される補正後の座標が画像の領域から逸脱している場合は、画像補正部150は、当該補正前の座標の画像情報を破棄する。また、補正後の座標を求めるために必要な補正前の座標が画像の領域から逸脱している場合は、画像補正部150は、当該補正後の座標の画像情報を得ることができない。そのため、画像補正部150により補正された後の画像には画像情報のない領域が存在する場合がある。
図13は、画像補正部150が図11Bに示す画像に対して補正を行った結果の画像の一例を示す図である。矩形領域510は、補正前の画像の領域を示す。また、矩形領域520は、補正後の画像領域を示す。ここで、矩形領域520の左部と上部とに存在する領域521は、補正前の画像が画像情報を保持していない領域を示す。また、矩形領域510の右部と下部とに存在する領域511は、図11Bに示す補正前の画像の画像領域のうち、位置合わせの際に画像情報が破棄される領域を示す。
以上のように、実施の形態1に係る撮影装置100は、時間的に隣接した画像の位置合わせを、撮影データに含まれる複数の画像に対して行うことにより、撮影装置100に動きが加えられても映像データにその動きが反映されないように映像データを補正することが可能となる。
また、撮影装置100は、特性の異なる複数のセンサ(本実施の形態では、加速度センサと角速度センサ)を用いて、撮影装置100の動きを識別することができるので、動きを識別する際のロバスト性を向上させることが可能となる。さらに、撮影装置100は、AdaBoost等の学習手法を用いて複数のセンサの振る舞い(すなわち特徴ベクトル)と実際の撮影装置100の動きとの関連付けを予め行うことができるので、センサの出力値に他軸感度、慣性ノイズなどが重畳していても、安定して撮影装置100の動きを識別することが可能となる。そして、撮影装置100は、そのように識別した撮影装置100の動きに基づいて生成した制約条件を用いてパラメータを算出することができるので、パラメータを精度良く算出することが可能となる。
また、撮影装置100は、画像の傾きをパラメータとして算出することができるので、映像揺れの主原因である回転成分の揺れを補正するためのパラメータを算出することが可能となる。
(実施の形態2)
次に、本発明の実施の形態2に係る撮影装置について説明する。
図14は、本発明の実施の形態2に係る撮影装置1000の機能構成を示すブロック図である。本実施の形態に係る撮影装置1000は、センサ部101が二組の角速度センサを備える点が実施の形態1に係る撮影装置100と異なる。なお、実施の形態1と同様の構成部に関しては、同一符号にて示し、説明を省略する。
第一角速度センサ1001及び第二角速度センサ1002のそれぞれは、互いに直交する三軸回りの角速度を計測する角速度センサであり、撮影装置1000の動きを計測するセンサである。ここで、第一角速度センサ1001及び第二角速度センサ1002は、計測軸が互いに異なるように撮影装置1000に設置される。
図15は、第一角速度センサ1001及び第二角速度センサ1002の計測軸の一例を示す図である。第一角速度センサ1001は、互いに直交するx1軸、y1軸、及びz1軸のそれぞれの軸回りの角速度を検出する。一方、第二角速度センサ1002は、互いに直交するx2軸、y2軸、及びz3軸のそれぞれの軸回りの角速度を検出する。例えば、撮影装置100に対して、z1軸回りの回転運動のみが印加された場合、x1軸及びy1軸の軸回りには回転運動が生じていない。したがって、第一角速度センサ1001は、x1軸及びy1軸の軸回りのセンサ情報として0(現実には他軸感度があるため何らかの出力が発生する)を出力する。しかし、z1軸回りの運動はx2軸、y2軸、及びz2軸のそれぞれの軸回りの運動に分解することができるため、第二角速度センサ1002は、z1軸回りの回転運動に対して、x2軸、y2軸、及びz2軸の軸回りのセンサ情報として0以外の値を出力する。すなわち、撮影装置100は、z1軸回りの回転運動に対して、別の視点から観測した情報を取得することが可能となる。
以上のように、本実施の形態に係る撮影装置1000は、実施の形態1に係る撮影装置100と同様に、センサ部101により計測されたセンサ情報を用いて特徴ベクトルを生成する。そして、撮影装置1000は、この特徴ベクトルを用いて、撮影装置1000に加えられた運動の三軸回りの回転の向きを識別する。ここで、本実施の形態に係る撮影装置1000は、図15に示すように、計測軸が互いに異なる、第一角速度センサと第二角速度センサとを備えることによって、撮影装置1000に加えられた運動を識別する際の情報の冗長度を増すことができる。このように、情報の冗長度を増やすことは、各回転方向の識別器の精度を向上されることにつながる。つまり、撮影装置1000は、撮影装置1000に加えられた運動を複数の異なった視点から観測することによって、パラメータを算出する際の制約条件の有効性、及びシステムの安定性を大きく向上させることが可能となる。
なお、本実施の形態では、計測軸が互いに異なるように設置された二組の角速度センサを備える撮影装置1000について説明したが、本発明に係る撮影装置は、このような角速度センサに限定されるものではない。すなわち、本発明に係る撮影装置は、設置場所、計測方向、応答周波数、及び感度特性(感度、感度偏差、感度ドリフト、他軸感度等)のうち少なくとも一つが互いに異なる複数組の角速度センサを備えればよい。
例えば、撮影装置が設置場所の異なる二組の角速度センサ(例えば、一方が撮影装置の重心位置に設置され、他方は重心位置から離れた位置に設置された二組の角速度センサ、など)を備える場合、撮影装置に加えられた運動に対する、各角速度センサが設置された位置における慣性モーメントが異なる。したがって、各角速度センサの出力値が互いに異なる出力値となる。
また、例えば、応答速度が互いに異なる二組の角速度センサを撮影装置が備える場合も、各角速度センサの出力値が互いに異なる出力値となる。なぜならば、一方の角速度センサは、瞬間的な(高い周波数の)動きを主として検出し、他方の角速度センサは、よりゆっくりとした(低い周波数の)動きを主として検出するからである。つまり、このような応答速度が互いに異なる二組の角速度センサを備える撮影装置は、撮影装置に加えられた一つの運動を、動作周波数の観点から別の視点で観測していることになる。
上記のように、二組の角速度センサの設置場所又は応答速度が異なる場合も、撮影装置に加えられた運動を検出する際の冗長度の向上に寄与しているため、制約条件の有効性及びシステムの安定性向上に貢献することができる。
なお、本実施の形態では、二組の角速度センサを備える撮影装置1000について説明したが、本発明に係る撮影装置は角速度センサに限定されるものではない。本発明に係る撮影装置は、例えば、加速度センサ、方位センサなど撮影装置の動きを検出できるような複数組のセンサを備えればよい。つまり、本発明に係る撮影装置は、設置方法及びセンサ特性の少なくとも一方が互いに異なる複数組のセンサを利用することにより、本実施の形態に係る撮影装置1000と同様の効果を得ることができる。
(実施の形態3)
次に、本発明の実施の形態3に係る撮影装置について説明する。
図16は、本発明の実施の形態3に係る撮影装置2000の機能構成を示すブロック図である。撮影装置2000は、自動車の直進方向と撮影装置2000の光軸方向とが一致した車載型の撮影装置である。つまり、撮影装置2000は、撮影された映像データの回転ぶれ、すなわちroll方向の移動成分は微小であり、その移動成分を時系列で平均化すると変化なしと近似できる。したがって、撮影装置2000により撮影された画像に存在するのは平行移動のみと限定することができる。そこで、本実施の形態に係る撮影装置2000は、roll方向識別器と傾き角度検出部とを備えない点が、実施の形態1に係る撮影装置100と異なる。なお、実施の形態1と同様の構成部に関しては、同一符号にて示し、説明を省略する。
方位センサ2001は、方位を計測するセンサである。方位センサ2001は、自動車の動きがほぼ平面上の動きのみに限定できることから、yaw方向を計測する角速度センサ112との情報の補完を行うために設置されたものである。
実施の形態1と同様、このように設置されたセンサ部101から取得されるセンサ情報と撮影装置2000の動き(自動車の動き)とを予め学習し、互いに関連付けておくことにより、センサ情報からyaw方向の動きを識別することができる。その結果、パラメータ算出部140は、処理性能(演算量、精度)を向上させることが可能となる。
なお、本実施の形態に係る撮影装置2000は、さらに、自動車の車速センサとカーブ識別器とを備えてもよい。これにより、特徴ベクトル生成部131が車速センサ、方位センサ及び角速度センサのセンサ情報を用いて特徴ベクトルを生成することができる。そして、撮影装置2000は、生成された特徴ベクトルと実際に自動車がカーブを曲がろうとしている状態を予め学習することにより、自動車がカーブを曲がろうとしている状態を識別するカーブ識別器を備えることも可能となる。自動車がカーブを曲がろうとしている場合は、撮影部102により撮影された映像データの横流れが大きくなるため、映像データに含まれる画像間の位置合わせを行う意味がなくなる。したがって、カーブ識別器が、自動車がカーブを曲がろうとしている状態を識別したときは、パラメータ算出部140及び画像補正部150は、パラメータの算出及び画像の位置合わせの処理を停止する。また、自動車がカーブを曲がり終わり、一定方向への進行が再び開始されたときには、位置合わせ処理もあわせて再開すればよい。このように、カーブ識別器は、パラメータ算出部140及び画像補正部150の処理の開始又は停止を指示するスイッチの役目を果たすことができる。
このように、本実施の形態に係る撮影装置2000は、パラメータ処理部140及び画像補正部150が処理を実行する条件を限定することにより、演算コストの更なる削減と、より状況に適応した映像揺れの補正を行うことが可能となる。
(実施の形態4)
次に、本発明の実施の形態4に係る撮影装置について説明する。
図17は、本発明の実施の形態4に係る撮影装置3000の機能構成を示すブロック図である。図17に示すように、本実施の形態に係る撮影装置3000は、撮影部102が駆動部3002及びアクティブプリズム3003を有する点と、画像補正部の代わりに駆動制御部3001を備える点とが、実施の形態1に係る撮影装置100と異なる。他の構成部については、実施の形態1の撮影装置100と同様であるので、説明を省略する。
駆動制御部3001は、パラメータ算出部140により算出されたパラメータ(傾き角度及び移動ベクトル)を撮影部102に固有のパラメータを用いて所定の方式に従って三軸の回転量に変換する。変換された回転量は、実際に撮影装置3000の造影面上に生じた回転量となる。したがって、駆動制御部3001は、変換した回転量を打ち消すように、駆動部3002にアクティブプリズム3003を駆動させることにより、撮影装置3000に発生した動きをキャンセルすることができる。
駆動部3002は、アクチュエータ等であり、アクティブプリズム3003を駆動する。アクティブプリズム3003は、光学系の一部であり、プリズムの角度を変更することにより、映像の揺れを補正することができるプリズムである。レンズ3004は、光学系の一部であり、撮影部102に入射した光を撮像素子3005の撮像面に結像する。撮像素子3005は、例えば、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などの固体撮像素子であり、レンズ3004からの光を電気信号に変換する。
このように、パラメータ算出部140により算出されたパラメータを用いて、駆動制御部3001が駆動部3002にアクティブプリズム3003を駆動させることにより、映像データに発生した映像揺れを補正することが可能となる。
なお、本実施の形態に係る撮影装置3000は、アクティブプリズム3003を駆動することにより、映像揺れの補正を行ったが、本発明に係る撮影装置は、レンズ3004又は撮像素子3005を駆動することにより映像揺れを補正してもよい。具体的には、駆動制御部3001が駆動部3002に撮像素子3005をシフト又は回転させることにより、映像揺れを補正することが可能となる。
以上、本発明に係る撮影装置について、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したもの、あるいは異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の範囲内に含まれる。
例えば、上記実施の形態において、センサ部101は、三つの軸方向の加速度を計測する加速度センサ、及び三つの軸回りの角速度を計測する角速度センサを有していたが、これに方位センサなどの撮影装置の動きを計測できる他のセンサを組み合わせてもよい。また、センサは、目的となる軸に関する動きの計測が可能であれば、どのような設置方法であってもよい。すなわち、一軸に関する動きのみを計測するセンサが必要個数だけ設置されてもよいし、直交する三軸を計測するセンサが一つのパッケージとなった加速度センサ、角速度センサ等が設置されてもよい。
また、上記実施の形態では、撮影装置の光軸とセンサの計測軸の一つであるz軸とが一致する例について説明したが、識別したい撮影装置の動きの情報(実施の形態1では撮影装置におけるroll、pitch、及びyawの三軸回りの回転方向)がベクトル解析などの手法を用いて取得できるのであれば、必ずしもセンサの計測軸と識別したい撮影装置の動きの軸とが一致していなくてもよい。
また、上記実施の形態において、特徴ベクトル生成部131は、公知の主成分分析などの手法を用いて、生成する特徴ベクトルの冗長度を増してもよい。また、特徴ベクトル生成部131は、周波数解析などを行うことにより得られる動きの周波数情報を特徴ベクトルとして生成してもよい。
また、上記実施の形態において、AdaBoostを用いて、センサ情報と撮影装置の動きの方向(回転の方向)を関連付けた各回転方向の識別器について説明したが、各回転方向の識別器は、必ずしもAdaBoost手法により構成される識別器に限定されるものではない。例えば、各回転方向の識別器は、ニューラルネットワークを用いて同様の学習が行われた識別器であってもよい。この場合、特徴ベクトルは必ずしも符号である必要はないので、特徴ベクトル生成部131は、ニューラルネットワークに適した特徴ベクトルを生成すればよい。
また、識別器は、回転方向を識別する識別器に限定されるものではない。例えば、識別器は、x軸、y軸、及びz軸方向の動きの向きを識別してもよい。
また、上記実施の形態において、制約条件生成部130は、各回転方向の識別器が正の向き又は負の向きに撮影装置が回転したことを識別した場合について制約条件を生成していたが、さらに、正の向き及び負の向きのいずれの向きにも回転していないと識別した場合にも制約条件を生成してもよい。例えば、制約条件生成部130は、roll方向識別器132によりroll方向の回転がないと識別された場合は、予め定められた所定の探索幅sを用いて、±sの範囲を傾きパラメータの解の探索範囲として設定する制約条件を生成してもよい。この場合、傾き角度検出部141は、制約条件生成部130により設定された±sの範囲において、評価値が最大となる傾きパラメータを探索する。また、例えば、制約条件生成部130は、pitch方向識別器133及びyaw方向識別器134によりpitch方向及びyaw方向の回転がないと識別された場合は、基準画像の特徴点の座標と同一の座標となる位置周りの適切な範囲の探索範囲として設定する制約条件を生成してもよい。これにより、パラメータ算出部140は、高精度にパラメータを算出することが可能となる。
図18は、roll方向の回転がないと識別された場合の傾きパラメータの解の探索範囲を説明するための図である。図18に示すように、傾き角度検出部141は、±sを解の探索範囲とする制約条件を利用することにより、評価値が最大であるa=a3ではなく、a=a2を正しい傾き角度として算出することができる。
また、制約条件生成部130は、各回転方向の識別器による識別の誤りを補償するために、上記実施の形態よりも所定の幅だけ広げた範囲を探索範囲とする制約条件を生成してもよい。例えば、yaw方向の動きが“正の向き”と識別されたときに、制約条件生成部130は、厳密にa≧0の範囲を探索範囲とするのではなく、a≧−sを探索範囲とする制約条件を生成する。一方、yaw方向の動きが“負の向き” と識別されたときには、制約条件生成部130は、a≦sを探索範囲とする制約条件を生成する。これにより、パラメータ算出部140は、各回転方向の識別器が、評価値Zを算出する際に混入する変動成分によって、各回転方向の動きを誤って識別した場合、あるいはセンサが検出できなかった小さく緩やかな動きがあった場合であっても、正しいパラメータを算出することが可能となる。つまり、制約条件生成部130がこのような補償処理を行うことで、パラメータ算出部140は、パラメータの算出精度をより高めることが可能となる。
また、上記実施の形態において、制約条件生成部130は、各回転方向の識別器により識別された撮影装置の動きに応じて、パラメータ算出部140がパラメータを算出する際にパラメータ値(解)の範囲を限定するための制約条件を生成していたが、本発明に係る撮影装置はこのような撮影装置に限定されるものではない。例えば、本発明に係る撮影装置は、各回転方向の識別器により識別された撮影装置の動きに応じて、パラメータに重み付けを行うための制約条件を生成してもよい。この場合、パラメータ算出部140は、制約条件に含まれる重み付けを用いて、解の候補となる値(候補値)に対して評価値を算出する。そして、パラメータ算出部140は、算出した評価値が最も高くなる候補値をパラメータとして算出する。
また、上記実施の形態において、揺れ検出部142は、特徴点マッチングにより平行移動量を算出していたが、特徴点マッチングに限定される必要はない。例えば、揺れ検出部142は、オプティカルフロー、パターンマッチングなど他のマッチング手法を用いて平行移動量を算出してもよい。
また、上記実施の形態において、揺れ検出部142は、平行移動量を算出していたが、回転と平行移動とを同時に扱うことができるマッチング手法を用いて、回転角度と平行移動量を同時に算出してもよい。例えば、揺れ検出部142は、画像を球面に投射し、その球面を原点を中心に回転させることでマッチングを行ってもよい。これにより、揺れ検出部142は、roll、pitch、及びyawの三軸回りのマッチングを同時に行うことが可能となる。そして、画像補正部150は、揺れ検出部142により算出されたroll、pitch、及びyawのそれぞれの回転量だけ、球面に投射された画像を回転する。さらに、画像補正部150は、回転した画像を再び平面に逆投射することにより、回転と平行移動との両方を補正することが可能となる。
また、揺れ検出部142は、マッチング手法ではなく、POC(位相限定相関)法などの解析的手法を用いて平行移動量等を算出してもよい。この場合、POC法では回転と平行移動とを同時に扱うことができないため、傾き角度検出部141により算出された画像の傾き角度を用いて、揺れ検出部142が平行移動量を算出する前に画像から回転成分の揺れを除去しておくことが望ましい。
また、上記実施の形態において、パラメータ算出部140は、映像データに含まれる、時間的に隣接する画像間で位置合わせを行うためのパラメータを算出していたが、本発明に係る撮影装置は、必ずしも時間的に隣接する画像間についてパラメータを算出しなくともよい。例えば、パラメータ算出部140は、基準となる画像を予め決定し、決定した画像とその他の画像との間で位置合わせを行うためのパラメータを算出するようにしてもよい。
なお、本発明は、このような撮影装置として実現できるだけでなく、撮影装置に含まれ画像処理部が有する構成部を備える画像処理装置として実現することができる。また、このような画像処理装置に含まれる特徴的な構成部をステップとする画像処理方法として実現したり、そのような特徴的なステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM等の記録媒体及びインターネット等の伝送媒体を介して流通させることができるのは言うまでもない。
また、本発明は、画像処理装置の機能の全て又は一部を実現する集積回路(LSI)として実現してもよい。例えば、図19に示すように、集積回路4000は、少なくともインタフェース部120、制約条件生成部130、及びパラメータ算出部140を備える。
また、本発明は、画像処理装置の機能の全て又は一部を実現する再生装置として実現してもよい。例えば、図20に示すように、再生装置5000は、画像処理部103と再生部5001とを備える。再生部5001は、画像補正部150により補正された映像データを再生する。
本発明の撮影装置は、撮影装置に発生する動きに起因した画像の回転及び撮影領域の変動を補正する装置として有用であり、デジタルスチルカメラ、デジタルビデオカメラをはじめとする撮影装置のみならず、身体に装着してハンズフリー撮影を行うような小型の撮影装置に対しても適用可能である。
100、1000、2000、3000 撮影装置
101 センサ部
102 撮影部
103 画像処理部
111 加速度センサ
112 角速度センサ
120 インタフェース部
121 センサ情報取得部
122 画像取得部
130 制約条件生成部
131 特徴ベクトル生成部
132 roll方向識別器
133 pitch方向識別器
134 yaw方向識別器
140 パラメータ算出部
141 傾き角度検出部
142 揺れ検出部
150 画像補正部
501、502 人物像
503 移動ベクトル
510、520 矩形領域
511、521 領域
1001 第一角速度センサ
1002 第二角速度センサ
2001 方位センサ
3001 駆動制御部
3002 駆動部
3003 アクティブプリズム
3004 レンズ
3005 撮像素子
4000 集積回路
5000 再生装置
5001 再生部

Claims (17)

  1. 動きを検知するセンサを備える撮影装置により撮影された二以上の画像間の位置合わせを行うためのパラメータを算出する画像処理装置であって、
    前記撮影装置により撮影された画像を取得する画像取得部と、
    前記画像取得部により取得された画像が撮影された際の前記センサの出力信号であるセンサ情報を取得するセンサ情報取得部と、
    前記センサ情報取得部により取得されたセンサ情報を用いて、前記パラメータが算出される際に前記パラメータが所定範囲の値となるような制約条件を生成する制約条件生成部と、
    前記制約条件生成部により生成された制約条件に従って、前記画像取得部により取得された画像について前記パラメータを算出するパラメータ算出部とを備え、
    前記制約条件生成部は、
    前記センサ情報取得部により取得されたセンサ情報の特徴を示す特徴ベクトルを生成する特徴ベクトル生成部と、
    前記特徴ベクトルと前記撮影装置の動きとの関連付けを利用して、前記特徴ベクトル生成部により生成された特徴ベクトルから前記撮影装置の動きを識別する動き識別部とを含み、
    前記関連付けは、前記特徴ベクトルと前記撮影装置の実際の動きとが予め機械学習された結果得られる関連付けであり、
    前記制約条件生成部は、前記動き識別部により識別された前記撮影装置の動きに応じて前記所定範囲を特定することにより、前記制約条件を生成する
    画像処理装置。
  2. 前記パラメータ算出部は、前記画像の傾き角度を前記パラメータとして算出する
    請求項1に記載の画像処理装置。
  3. 前記パラメータ算出部は、前記画像から絶対水平又は絶対垂直を示す要素の傾きを抽出することにより、前記画像の傾き角度を前記パラメータとして算出する
    請求項2に記載の画像処理装置。
  4. 前記制約条件生成部は、前記画像の傾き角度に対する重み付けを含む前記制約条件を生成し、
    前記パラメータ算出部は、前記制約条件に含まれる重み付けを用いて前記画像の傾き角度に対する評価値を算出し、算出した評価値が最も高くなる前記画像の傾き角度を前記パラメータとして選択する
    請求項3に記載の画像処理装置。
  5. 前記画像取得部は、同一の被写体像を含み、かつ、異なる時刻に撮影された少なくとも二つの画像を取得し、
    前記パラメータ算出部は、前記二つの画像に含まれる前記被写体像の相対的な移動量を前記パラメータとして算出する
    請求項1に記載の画像処理装置。
  6. 前記パラメータ算出部は、前記移動量を、前記二つの画像の少なくともいずれか一つを変形させるために利用するアフィン変換パラメータとして算出する
    請求項5に記載の画像処理装置。
  7. 前記制約条件生成部は、前記移動量に対する重み付けを含む前記制約条件を生成し、
    前記パラメータ算出部は、前記制約条件に含まれる重み付けを用いて前記移動量に対する評価値を算出し、算出した評価値が最も高くなる前記移動量を前記パラメータとして選択する
    請求項6に記載の画像処理装置。
  8. 前記画像処理装置は、さらに、
    前記パラメータ算出部により算出されたパラメータを用いて、前記画像の補正を行う画像補正部を備える
    請求項1に記載の画像処理装置。
  9. 前記センサ情報取得部は、角速度センサ、加速度センサ、及び方位センサのうち少なくともいずれか一つのセンサから前記センサ情報を取得する
    請求項1に記載の画像処理装置。
  10. 前記動き識別部は、前記撮影装置の光軸と、前記光軸と直交し、かつ互いに直交する二つの軸とからなる、三つの軸のそれぞれの軸回りの回転運動及び三つの軸のそれぞれの軸方向の平行移動の少なくともいずれか一方の動きの向きを識別する
    請求項1に記載の画像処理装置。
  11. 被写体を撮影する撮影装置であって、
    光学系及び撮像素子を含む撮影部と
    前記撮影装置の動きを検知するセンサ部と、
    請求項1に記載の画像処理装置とを備える
    撮影装置。
  12. さらに、
    前記光学系又は前記撮像素子の少なくともいずれか一方を駆動する駆動部と、
    前記パラメータ算出部により算出されたパラメータと、前記撮影部に固有の所定パラメータとに基づいて、前記撮影部の造影面上の動き量を算出し、算出した動き量を打ち消すように、前記光学系又は前記撮像素子の少なくともいずれか一方を前記駆動部に駆動させる駆動制御部とを備える
    請求項11に記載の撮影装置。
  13. 前記センサ部は、角速度センサ、加速度センサ、及び方位センサのうち少なくともいずれか一つのセンサにより構成される
    請求項11に記載の撮影装置。
  14. 画像を再生する再生装置であって、
    請求項8に記載の画像処理装置と、
    前記画像補正部により補正された画像を再生する再生部とを備える
    再生装置。
  15. 動きを検知するセンサを備える撮影装置により撮影された二以上の画像間の位置合わせを行うためのパラメータを算出する方法であって、
    前記撮影装置により撮影された画像を取得する画像取得ステップと、
    前記画像取得ステップにおいて取得された画像が撮影された際の前記センサの出力信号であるセンサ情報を取得するセンサ情報取得ステップと、
    前記センサ情報取得ステップにおいて取得されたセンサ情報を用いて、前記パラメータが算出される際に前記パラメータが所定範囲の値となるような制約条件を生成する制約条件生成ステップと、
    前記制約条件生成ステップにおいて生成された制約条件に従って、前記画像取得ステップにおいて取得された画像について前記パラメータを算出するパラメータ算出ステップとを含み、
    前記制約条件生成ステップは、
    前記センサ情報取得ステップにおいて取得されたセンサ情報の特徴を示す特徴ベクトルを生成する特徴ベクトル生成ステップと、
    前記特徴ベクトルと前記撮影装置の動きとの関連付けを利用して、前記特徴ベクトル生成ステップにおいて生成された特徴ベクトルから前記撮影装置の動きを識別する動き識別ステップとを含み、
    前記関連付けは、前記特徴ベクトルと前記撮影装置の実際の動きとが予め機械学習された結果得られる関連付けであり、
    前記制約条件生成ステップでは、前記動き識別ステップにおいて識別された前記撮影装置の動きに応じて前記所定範囲を特定することにより、前記制約条件を生成する
    画像処理方法。
  16. 請求項15に記載の画像処理方法に含まれる各ステップをコンピュータに実行させるためのプログラム。
  17. 動きを検知するセンサを備える撮影装置により撮影された二以上の画像間の位置合わせを行うためのパラメータを算出する集積回路であって、
    前記撮影装置により撮影された画像を取得する画像取得部と、
    前記画像取得部により取得された画像が撮影された際の前記センサの出力信号であるセンサ情報を取得するセンサ情報取得部と、
    前記センサ情報取得部により取得されたセンサ情報を用いて、前記パラメータが算出される際に前記パラメータが所定範囲の値となるような制約条件を生成する制約条件生成部と、
    前記制約条件生成部により生成された制約条件に従って、前記画像取得部により取得された画像について前記パラメータを算出するパラメータ算出部とを備え、
    前記制約条件生成部は、
    前記センサ情報取得部により取得されたセンサ情報の特徴を示す特徴ベクトルを生成する特徴ベクトル生成部と、
    前記特徴ベクトルと前記撮影装置の動きとの関連付けを利用して、前記特徴ベクトル生成部により生成された特徴ベクトルから前記撮影装置の動きを識別する動き識別部とを含み、
    前記関連付けは、前記特徴ベクトルと前記撮影装置の実際の動きとが予め機械学習された結果得られる関連付けであり、
    前記制約条件生成部は、前記動き識別部により識別された前記撮影装置の動きに応じて前記所定範囲を特定することにより、前記制約条件を生成する
    集積回路。
JP2009544565A 2007-12-03 2008-12-02 画像処理装置、撮影装置、再生装置、集積回路及び画像処理方法 Active JP5204785B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009544565A JP5204785B2 (ja) 2007-12-03 2008-12-02 画像処理装置、撮影装置、再生装置、集積回路及び画像処理方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2007312174 2007-12-03
JP2007312174 2007-12-03
JP2009544565A JP5204785B2 (ja) 2007-12-03 2008-12-02 画像処理装置、撮影装置、再生装置、集積回路及び画像処理方法
PCT/JP2008/003553 WO2009072264A1 (ja) 2007-12-03 2008-12-02 画像処理装置、撮影装置、再生装置、集積回路及び画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2009072264A1 JPWO2009072264A1 (ja) 2011-04-21
JP5204785B2 true JP5204785B2 (ja) 2013-06-05

Family

ID=40717446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009544565A Active JP5204785B2 (ja) 2007-12-03 2008-12-02 画像処理装置、撮影装置、再生装置、集積回路及び画像処理方法

Country Status (6)

Country Link
US (1) US8350916B2 (ja)
EP (1) EP2214403B1 (ja)
JP (1) JP5204785B2 (ja)
CN (1) CN101884213B (ja)
RU (1) RU2010122599A (ja)
WO (1) WO2009072264A1 (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5133783B2 (ja) * 2008-05-30 2013-01-30 アルパイン株式会社 車載装置
JP5226600B2 (ja) * 2009-04-28 2013-07-03 富士フイルム株式会社 画像変形装置およびその動作制御方法
JP4991887B2 (ja) * 2010-01-13 2012-08-01 シャープ株式会社 撮像画像処理システム、撮像画像処理システムの制御方法、プログラムおよび記録媒体
WO2012065600A2 (de) * 2010-11-17 2012-05-24 Universitätsklinikum Freiburg Verfahren und vorrichtung zur okulographie bei schwindel
CN102088549A (zh) * 2010-11-29 2011-06-08 中国科学院西安光学精密机械研究所 一种消旋摄像方法
EP2688279A4 (en) * 2011-03-15 2014-09-24 Nec Casio Mobile Comm Ltd PICTURE DEVICE, INFORMATION PROCESSING DEVICE AND NON-TEMPERATURE COMPUTER-READABLE MEDIA WITH A PROGRAM SAVED THEREIN
TWI435286B (zh) * 2011-05-04 2014-04-21 Altek Corp 影像處理方法與裝置
TW201301874A (zh) * 2011-06-24 2013-01-01 Wistron Corp 文件掃描方法、文件掃描裝置及可攜式電子裝置
US8896713B2 (en) * 2011-08-15 2014-11-25 Apple Inc. Motion-based video stabilization
KR101843450B1 (ko) * 2011-08-23 2018-03-29 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
CN102523380B (zh) * 2011-11-10 2015-05-27 深圳市同洲电子股份有限公司 对移动终端的相机进行防抖的方法及该移动终端
JP5975230B2 (ja) * 2011-11-22 2016-08-23 パナソニックIpマネジメント株式会社 測定方法、測定装置、コンピュータ・プログラムおよび記録媒体
JP2013138413A (ja) * 2011-11-28 2013-07-11 Panasonic Corp 撮像装置
JP2013127541A (ja) * 2011-12-19 2013-06-27 Olympus Corp 撮像装置
US9036035B2 (en) 2012-04-30 2015-05-19 Trackingpoint, Inc. Rifle scope with video output stabilized relative to a target
JP5820787B2 (ja) * 2012-08-30 2015-11-24 株式会社デンソー 画像処理装置、及びプログラム
JP6128458B2 (ja) * 2012-09-04 2017-05-17 パナソニックIpマネジメント株式会社 撮像装置および画像処理方法
JP6098874B2 (ja) * 2012-09-04 2017-03-22 パナソニックIpマネジメント株式会社 撮像装置および画像処理装置
US9554042B2 (en) * 2012-09-24 2017-01-24 Google Technology Holdings LLC Preventing motion artifacts by intelligently disabling video stabilization
WO2014115197A1 (ja) * 2013-01-24 2014-07-31 パナソニック株式会社 撮像装置、検出装置
JP6128389B2 (ja) 2013-01-24 2017-05-17 パナソニックIpマネジメント株式会社 撮像装置
EP2974269B1 (en) * 2013-03-15 2018-07-25 Freefly Systems Inc. Method and system for enabling pointing control of an actively stabilized camera
CN103281489B (zh) * 2013-06-26 2016-05-25 上海华勤通讯技术有限公司 照相装置的影像校正系统及其校正方法
US9177362B2 (en) 2013-08-02 2015-11-03 Facebook, Inc. Systems and methods for transforming an image
JP6234349B2 (ja) * 2014-09-16 2017-11-22 株式会社東芝 移動体位置推定装置、移動体位置推定方法及び移動体位置推定プログラム
US10242460B2 (en) 2014-09-26 2019-03-26 Kyocera Corporation Imaging apparatus, car, and variation detection method
CN104394376A (zh) * 2014-12-08 2015-03-04 段然 一种解决穿戴式摄录设备图像不稳定的方法
US9900511B2 (en) 2015-04-10 2018-02-20 Freefly Systems, Inc. Method, system, and device for controlling a stabilized camera remotely
CN104811641A (zh) * 2015-04-24 2015-07-29 段然 一种带有云台的头戴式摄录系统及其控制方法
JP6600232B2 (ja) * 2015-11-05 2019-10-30 キヤノン株式会社 像ブレ補正装置及び方法
US10257449B2 (en) * 2016-01-05 2019-04-09 Nvidia Corporation Pre-processing for video noise reduction
US10853737B2 (en) * 2016-02-22 2020-12-01 The Trustees Of Princeton University Machine-learning classifier based on comparators for direct inference on analog sensor data
JP6740052B2 (ja) * 2016-08-02 2020-08-12 キヤノン株式会社 撮像装置およびその制御方法
CN108271068B (zh) * 2016-12-30 2020-04-03 华为技术有限公司 一种基于流媒体技术的视频数据的处理方法及装置
JP2018164146A (ja) * 2017-03-24 2018-10-18 カシオ計算機株式会社 画像処理装置、画像処理方法、及びプログラム
JP6960238B2 (ja) * 2017-04-28 2021-11-05 キヤノン株式会社 像ブレ補正装置及びその制御方法、プログラム、記憶媒体
CN108134902B (zh) * 2017-12-25 2020-09-18 三星电子(中国)研发中心 一种拍摄相同背景的照片的方法和装置
JP7437327B2 (ja) * 2018-07-02 2024-02-22 マジック リープ, インコーポレイテッド 異種入力の補間のための方法およびシステム
US10771698B2 (en) * 2018-08-31 2020-09-08 Qualcomm Incorporated Image stabilization using machine learning
JP7197785B2 (ja) * 2019-01-28 2022-12-28 日本電信電話株式会社 映像処理装置、映像処理方法、及び映像処理プログラム
US10482584B1 (en) * 2019-01-31 2019-11-19 StradVision, Inc. Learning method and learning device for removing jittering on video acquired through shaking camera by using a plurality of neural networks for fault tolerance and fluctuation robustness in extreme situations, and testing method and testing device using the same
CN110717435B (zh) * 2019-09-30 2023-04-14 成都市喜爱科技有限公司 拍摄设备管理方法、装置、电子设备及存储介质
CN111091513B (zh) * 2019-12-18 2023-07-25 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0846856A (ja) * 1994-07-28 1996-02-16 Fuji Photo Optical Co Ltd 手振れ補正装置
JPH1023322A (ja) * 1996-07-08 1998-01-23 Hitachi Ltd カメラ揺れ補正方法および画像監視システム
JP2007228154A (ja) * 2006-02-22 2007-09-06 Matsushita Electric Ind Co Ltd 画像処理装置および画像処理方法
JP2007233166A (ja) * 2006-03-02 2007-09-13 Olympus Imaging Corp ぶれ補正機能付きカメラ
JP2008089314A (ja) * 2006-09-29 2008-04-17 Topcon Corp 位置測定装置及びその方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0720547A (ja) 1993-06-30 1995-01-24 Ricoh Co Ltd カメラの手ぶれ補正装置
US7436435B2 (en) 2001-10-01 2008-10-14 Minolta Co., Ltd. Image taking device having image-blur compensator
JP2003110929A (ja) * 2001-10-01 2003-04-11 Minolta Co Ltd 手振れ補正撮像装置
JP2004158902A (ja) 2002-11-01 2004-06-03 Sony Corp 手ぶれ信号予測装置及び撮像機器
JP2005003719A (ja) * 2003-06-09 2005-01-06 Olympus Corp 撮影装置
FR2882160B1 (fr) * 2005-02-17 2007-06-15 St Microelectronics Sa Procede de capture d'images comprenant une mesure de mouvements locaux
JP2006343652A (ja) 2005-06-10 2006-12-21 Gunma Prefecture 手ブレ補正における手ブレ方向の推定方法と手ブレ補正装置
JP5061444B2 (ja) * 2005-09-20 2012-10-31 ソニー株式会社 撮像装置及び撮像方法
JP4420906B2 (ja) * 2006-03-29 2010-02-24 三洋電機株式会社 撮像装置
FR2903200B1 (fr) 2006-06-29 2008-12-19 Thales Sa Stabilisation hybride d'images pour camera video
JP2009230537A (ja) * 2008-03-24 2009-10-08 Olympus Corp 画像処理装置、画像処理プログラム、画像処理方法、および、電子機器
JP5374220B2 (ja) * 2009-04-23 2013-12-25 キヤノン株式会社 動きベクトル検出装置およびその制御方法、ならびに撮像装置
US8531535B2 (en) * 2010-10-28 2013-09-10 Google Inc. Methods and systems for processing a video for stabilization and retargeting

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0846856A (ja) * 1994-07-28 1996-02-16 Fuji Photo Optical Co Ltd 手振れ補正装置
JPH1023322A (ja) * 1996-07-08 1998-01-23 Hitachi Ltd カメラ揺れ補正方法および画像監視システム
JP2007228154A (ja) * 2006-02-22 2007-09-06 Matsushita Electric Ind Co Ltd 画像処理装置および画像処理方法
JP2007233166A (ja) * 2006-03-02 2007-09-13 Olympus Imaging Corp ぶれ補正機能付きカメラ
JP2008089314A (ja) * 2006-09-29 2008-04-17 Topcon Corp 位置測定装置及びその方法

Also Published As

Publication number Publication date
EP2214403A1 (en) 2010-08-04
RU2010122599A (ru) 2012-01-10
US8350916B2 (en) 2013-01-08
CN101884213A (zh) 2010-11-10
EP2214403B1 (en) 2012-07-25
CN101884213B (zh) 2012-09-05
JPWO2009072264A1 (ja) 2011-04-21
WO2009072264A1 (ja) 2009-06-11
US20100245604A1 (en) 2010-09-30
EP2214403A4 (en) 2011-02-09

Similar Documents

Publication Publication Date Title
JP5204785B2 (ja) 画像処理装置、撮影装置、再生装置、集積回路及び画像処理方法
Joshi et al. Image deblurring using inertial measurement sensors
JP6395506B2 (ja) 画像処理装置および方法、プログラム、並びに撮像装置
US8681230B2 (en) Picture processing device, picture processing method, program for picture processing, and imaging device
EP2053844B1 (en) Image processing device, image processing method, and program
CN107862243B (zh) 搜索设备、包括该搜索设备的摄像设备和搜索方法
JP5391074B2 (ja) カメラ、カメラシステムおよびカメラ本体
JP5451593B2 (ja) 撮像装置、撮像方法
JP6098874B2 (ja) 撮像装置および画像処理装置
JP5694300B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP4532856B2 (ja) 位置姿勢計測方法及び装置
US8264553B2 (en) Hardware assisted image deblurring
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
CN111353355B (zh) 动作追踪系统及方法
Seok et al. ROVINS: Robust omnidirectional visual inertial navigation system
JPWO2009060626A1 (ja) カメラ
CN111279354A (zh) 图像处理方法、设备及计算机可读存储介质
WO2021059765A1 (ja) 撮像装置、画像処理システム、画像処理方法及びプログラム
US11431907B2 (en) Imaging device capable of correcting image blur of a captured image and control method therefor
CN112393721B (zh) 相机位姿估计方法
CN113596322A (zh) 图像处理方法、装置、电子设备及存储介质
JP2019009643A (ja) 画像処理装置、画像処理方法およびプログラム
CN116668665A (zh) 测量装置、移动装置、测量方法和存储介质
CN114902131A (zh) 摄像设备及其控制方法、程序和存储介质
JP2015138010A (ja) 撮影カメラの位置検出システムおよび方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130215

R150 Certificate of patent or registration of utility model

Ref document number: 5204785

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350