JP6157242B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP6157242B2
JP6157242B2 JP2013136921A JP2013136921A JP6157242B2 JP 6157242 B2 JP6157242 B2 JP 6157242B2 JP 2013136921 A JP2013136921 A JP 2013136921A JP 2013136921 A JP2013136921 A JP 2013136921A JP 6157242 B2 JP6157242 B2 JP 6157242B2
Authority
JP
Japan
Prior art keywords
images
region
moving object
image
movement vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013136921A
Other languages
English (en)
Other versions
JP2015012480A (ja
Inventor
洋晃 朽木
洋晃 朽木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013136921A priority Critical patent/JP6157242B2/ja
Priority to US14/288,136 priority patent/US9489747B2/en
Publication of JP2015012480A publication Critical patent/JP2015012480A/ja
Application granted granted Critical
Publication of JP6157242B2 publication Critical patent/JP6157242B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置に関し、特に流し撮り時の被写体の動きに着目した被写体認識に関するものである。
移動している被写体のスピード感を表現する撮影技術として流し撮りがある。前記撮影技術は、撮影者が被写体の動きに合わせてカメラをパンニングすることにより、移動している被写体を撮影画像内では静止させて、背景が流れるように写すことを目的とする。一般的な流し撮りは、撮影したい被写体(主被写体)の移動速度に合わせてシャッター速度を通常より遅めに調節することで撮影を行う。しかしながら、シャッター速度を遅くしているため、手ぶれや主被写体の移動速度とパンニング速度の差の影響により、主被写体までぶれた画像になることも多い。前記問題を鑑み、画像処理技術による流し撮りの容易化が望まれている。
例えば、特許文献1では、主被写体を捕捉するための基準領域を任意に設定し、各画像データと基準領域との位置関係から主被写体を特定する。特定した主被写体で位置を合わせて、複数の画像を合成する撮像装置が開示されている。特許文献2では、画像間における移動ベクトルやカメラの動きから移動体を検出。主被写体を特定する情報に基づき、検出した移動体から主被写体を特定し、主被写体以外の領域に流し撮りの効果を付与する撮像装置が開示されている。
特開2006−339803号公報 特開2010−273183号公報
しかしながら、上述の特許文献1に開示された従来技術では、主被写体を捕捉するための基準領域を設定する必要があるため、基準領域外に主被写体がある場合に撮り逃してしまう可能性がある。また、撮影したい構図で撮影するためには、基準領域を事前に設定するなどの前処理が必要になってくる。
特許文献2に開示された従来技術では、主被写体を特定するための情報を別途用意する必要がある。この主被写体を特定するための情報を、事前に設定するか撮影時に予測する必要があるが、どのように情報を取得するかまでは開示されていない。
また、上述したような主被写体認識についての課題は、流し撮りのような特殊な撮影方法に限らず、通常の撮影においても、手振れやパンニングによって起こりうる。
そこで、本発明の目的は、撮像装置に動きを伴う撮影において、被写体を高精度に認識することを可能にした画像処理装置を提供することである。
上記目的を達成するために、本発明の画像処理装置は、複数の画像間で変化のある領域を検出する検出手段と、前記複数の画像の領域ごとの移動ベクトルを算出する算出手段と、前記算出手段により算出された領域ごとの移動ベクトルと、前記複数の画像を撮像した撮像手段の前記複数の画像間での動きに関する情報を用いて、前記複数の画像内で動体の存在する領域を推定する推定手段と、前記検出手段により検出された変化のある領域と、前記推定手段により推定された動体の存在する領域とに基づいて動体領域を特定する特定手段と、を有し、し、前記検出手段は、前記複数の画像を撮像した撮像手段の動きを検出するセンサからの情報に対応する動き情報を用いて、前記複数の画像を背景の位置で位置を合わせる位置合わせ手段を有し、前記位置合わせ手段により位置合わせされた前記複数の画像の差分から前記変化のある領域を検出することを特徴とする。
本発明によれば、撮像装置に動きを伴う撮影において、被写体を高精度に認識することを可能にする。
第1の実施形態にかかわる撮像装置の基本構成図。 第1の実施形態にかかわるCPUの処理のフローチャート。 第1の実施形態にかかわる差分領域検出のフローチャート。 第1の実施形態にかかわる背景で位置合わせの説明図。 第1の実施形態にかかわる差分領域検出の説明図。 第1の実施形態にかかわる背景の移動量の算出方法の説明図。 第1の実施形態にかかわる主被写体ベクトル算出の説明図。 第1の実施形態にかかわる主被写体ベクトル領域検出の説明図。 第1の実施形態にかかわる主被写体領域検出の説明図。 第1の実施形態にかかわる流し撮り画像例を示す図。
(第1の実施形態)
図1は、本発明の第1の実施形態にかかわる画像処理装置の一例としての撮像装置のブロック図である。
撮像装置100は、デジタルカメラ、デジタルビデオカメラのようなカメラはもとより、カメラ機能付き携帯電話、カメラ付きコンピュータ、スキャナなど、撮像機能を備える任意の電子機器であっても良い。また、本実施形態における撮像装置100の一部あるいは全部をもって本実施形態における画像処理装置とすることができる。画像処理装置としては必ずしも撮像機能を有する必要はなく、撮像素子102から出力される画像あるいは各記憶装置に記憶されている画像を処理する機能を有していればよい。
光学系101は、レンズ、シャッター、絞りから構成されており、被写体からの光束を撮像素子102に導き、被写体の光学像を撮像素子102上に結像する。そして、焦点距離、シャッター速度、絞り値などの情報を中央演算装置(以降、CPU)103へ伝達する。
撮像素子102は、光学系101により結像された光学像を電気信号に変換する。撮像素子102としては、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどが適用できる。その後AD変換器を通してデジタル化した後、一次記憶装置104に記憶する。また、本実施形態では、撮像素子102の画素配列はRGBの画素によるBayer配列とするが、本発明の適用はこの画素配置に限られない。例えば補色の色フィルタの画素の配列であってもよいし、このような撮影用の画素とは別に測色、測距などの目的で機能画素などを配していてもよい。なお、撮像素子102の電気的利得(以降、ISO感度)は、CPU103によって設定される。
ジャイロセンサなどの角速度センサ105は、振れを検出し、電気信号として変換してCPU103へ伝達する。
制御部として機能するCPU103は、入力された信号や予め記憶されたプログラムに従い、撮像装置100を構成する各部を制御することで、撮像装置100の各機能を実現させる。なお、以下の説明において、CPU103がプログラムを実行して実現する機能の少なくとも一部は、ASIC(Application Specific Integrated Circuit)などの専用ハードウェアによって実現されても良い。
一次記憶装置104は、例えばRAM(Random Access Memory)のような揮発性装置であり、CPU103の作業用に使われる。また、一次記憶装置104に記憶されている情報は、画像処理部106で利用されたり、記録媒体107へ記録されたりもする。
二次記憶装置108は、例えばEEPROM(Electrically Erasable Programmable Read−Only Memory)のような不揮発性記憶装置である。二次記憶装置108は、撮像装置100を制御するためのプログラム(ファームウェア)や各種の設定情報を記憶し、CPU103によって利用される。
記録媒体107は、一次記憶装置104に記憶されている、撮影により得られた画像のデータなどを記録する。なお、記録媒体107は、例えば半導体メモリカードのように撮像装置100から取り外し可能であり、記録されたデータはパーソナルコンピュータなど他の機器で読み出し可能である。つまり、撮像装置100は、記録媒体107の着脱機構及び読み書き機能を有する。
表示部109は、CPU103の指示により一時記憶装置104内に表示用に記憶される情報を表示する機能を有する。本実施形態では、撮像素子102から連続的に取得される画像の少なくとも一部を順次表示するライブビュー(ビューファインダ)表示の機能を有する。また、撮影後記録媒体107等に記録されている記録画像の再生表示、対話的な操作のためのGUI(Graphical User Interface)などの表示の機能を有する。
操作部110は、ユーザの操作を受け付けてCPU103へ入力情報を伝達する入力デバイス群であり、例えばボタン、レバー、タッチパネル等はもちろん、音声や視線などを用いた入力機器であっても良い。なお、本実施形態の撮像装置100は、画像処理装置106が撮像画像に適用する画像処理のパターンを複数有し、パターンを撮像モードとして操作部110から設定可能である。
画像処理部106は、いわゆる現像処理と呼ばれる画像処理をはじめ、撮影モードに応じた色調の調整なども行う。例えばデモザイキング処理などの補間処理、ホワイトバランス処理、収差、歪などの補正処理、シャープネス、ガンマ処理、マトリクス演算、ルックアップテーブル等による色変換処理などがあげられる。表示部109で表示するためのリサイズ、ガンマ変換等の表示用処理、記録媒体107への記録時の符号化、圧縮等の記録用処理も画像処理部106により行う。また、本実施形態にある流し撮り画像を生成する処理も画像処理部106が行う。合成される複数の画像や処理過程で生成される画像データは、例えば一次記憶装置104に記憶される。なお、画像処理部106の機能の少なくとも一部は、CPU103がソフトウェア的に実現しても良い。
図2は、流し撮り撮影モードでの撮影、記録に関するCPU103の処理に関するフローチャートである。
なお、本実施形態では、画像の撮影、記録までの指示が2段階になっており、以降に出てくる操作部110のS1は、撮影準備の指示を意味し、操作部110のS2は、本画像の撮影、記録の指示を意味する。また、本実施形態では、S1を操作部110のシャッターボタンの半押し、S2をシャッターボタンの全押しと対応付けてユーザが入力可能なようにしている。この他にも操作部110がタッチパネルである場合、タッチパネルへのタッチ操作を変えることが考えられ、任意の操作をS1、S2に割り当てることが可能である。
S201で、CPU103は、操作部110からのユーザの入力を受け付ける。
S202で、CPU103は、入力された情報を基に、光学系101の焦点距離、シャッター速度、絞り値などの設定を調節する。
S203で、CPU103は、入力された情報を基に、撮像素子102のISO感度などの設定を調節する。
S204で、CPU103は、変更された設定に関する情報を表示部109でユーザに提示する。
S205で、CPU103は、角速度センサ105で検出された撮像装置100の角速度の情報を受信する。また、S205をS202やS203と同様に常に実行することで、焦点距離、シャッター速度、絞り値、ISO感度などの情報と併せて、角速度の情報も画像情報として埋め込む。そして、撮影済みの画像に対して、カメラ内での再処理や、PCアプリケーションでの後加工を可能とする。記録する角速度に対応する情報としては、角速度自体であっても良いし、画像間で移動した角度、角変位であっても良い。
なお、S201〜S205の順番はこの限りではなく、処理に応じて自由に順番を入れ替えることができる。
S206で、操作部110のS1の入力の有無(ON/OFF)を判定し、操作部110のS1が入力されない限り、CPU103は、S201〜S205の動作を繰り返し行う。
以降は、S206で、操作部110のS1が入力(ON)された後の処理である。
S207で、CPU103は、光学系101の一部である測光センサを用いて露出を計測する。また、自動露出制御を行うAE(Auto Exposure)モードの場合は、シャッター速度と絞り値、ISO感度を用いて、自動的に露出を調節する。
S208で、CPU103は、自動焦点調節制御を行うAF(Auto Focus)モードの場合、光学系101の一部あるいは撮像素子102内に配されている測距センサを用いて、被写体距離を測定し、デフォーカス量に基づいて焦点調節を行う。
なお、S207、S208の順番はこの限りではなく、処理に応じて自由に順番を入れ替えることができる。
S209では、操作部110のS2の入力の有無(ON/OFF)を判定し、操作部110のS2が入力されない限り,CPU103は、S201〜S208の動作を繰り返し行う。また、S209において操作部110のS1の入力が継続されているかどうかの検出を行い、操作部110のS1の入力が行われていない(OFF)の場合、ステップS201に戻るように構成してもよい。
以降は、S209で、操作部110のS2が入力(ON)された後の処理である。
S210では、操作部10からのS2の撮影指示を受けて、流し撮り処理に必要な数の画像を撮影する。なお、本実施形態において「撮影」とは、S2の押下げにより行われる撮像及びその撮像により得られた画像の記録までのS210からS215の一連の動作を意味する。この際、流し撮りモードでは、ユーザが、流し撮り効果を得るため、撮像装置100(あるいは撮像素子102を含むその一部)をパンニングして撮影を行うことを想定している。流し撮りに用いる画像の数はユーザによりあらかじめ設定されていてもよいし、主被写体の速度、パンニングの量、背景領域をぼかす程度の設定などから自動的に算出される数であってもよい。
S211では、S210で撮影された画像データに対して画像処理部106が上述したような現像処理を行う。
S212では、CPU103は、主被写体領域の検出処理と、検出された主被写体領域での位置合わせ処理を行う。ここで、本実施形態で主被写体領域とは、撮影画像の画像内において後述する背景領域と区別して検出される被写体領域のことを指し、当該領域内の被写体が例えば複数の人物から構成されていてもよいものとする。また、本実施形態では、流し撮りの主被写体領域として、動いている被写体が撮影されている領域(動体領域)を検出することとする。すなわち、複数の撮影の中で静止している被写体(静止体)は背景として取り扱われる。ただし、上述したとおり、パンニングして撮影が行われることを想定している場合、撮影された画像間で比較すると、画像内で、パンニング方向の逆方向にパンニング量に対応するような動きをする被写体が元は静止している被写体である。つまり静止している被写体はパンニング量相当動いているように見える。パンニング方向に、パンニング量あるいはパンニング量に近い量の動きをする被写体が動体と判定される。詳細は後述する。一方、三脚等で固定して撮影が行われることを想定している場合、動きベクトルが大きく検出できる領域が主被写体領域と考えられる。
S213では、CPU103は、画像処理部106によってS212で主被写体領域が一致するように位置合わせが行われた複数枚の画像を合成し、流し撮り画像として合成画像を生成する。流し撮りと同様の視覚効果のある合成画像の生成方法としては複数の方法が考えられる。
撮影で得られた複数の画像の背景領域に、画像間の背景の移動量に基づいたぼかし量(タップ数)でぼかし処理(フィルタ処理等)を施し、主被写体領域が撮影された複数の画像間で一致するように位置合わせを行って加算平均で合成する。ここで、背景の移動量は、角速度センサ105によって得られる角速度から算出できる。これに限らず、例えば、主被写体領域が撮影された複数の画像間で一致するように位置合わせを行って加算し、さらに合成後の画像の主被写体領域、つまり動体の存在する動体領域以外の背景領域にぼかし処理を施してもよい。また、合成後の画像を上記のようにぼかした画像と、ぼかす前の画像とをさらに合成した画像を最終的な合成画像としてもよい。
S214では、CPU103は、S213で生成された合成画像データやその元となった合成前の画像データに画像処理部106によって表示用処理が施された画像データを、表示部109に表示する。
そして、S215では、CPU103は、記録媒体107にS213で生成された合成画像データやその元となった合成前の画像データに、記録用に符号化、圧縮等の処理が施された画像データを記録する。また、本実施形態では、記録画像の設定として、現像処理等を行わないRAW画像の記録や現像処理を施し、規格に準拠したJPEG画像の記録などを設定可能である。それらの設定によってはS211の現像処理やS215での画像記録処理は適用されない場合もある。
また、本実施形態では、S211における現像処理後の画像に対してS212の主被写体の検出処理、及びS213の流し撮り合成処理を行ったが、これに限らず、現像処理前の画像に対して各処理を適用することも可能である。
以下、S212の主被写体検出処理の内部について図3(a)のフローチャートを用いて説明する。
S301で、CPU103は、画像間で変化のある領域を検出するため、画像間の差分絶対値を用いて差分画像を生成し、差分領域を検出する。S301の処理の詳細は後述する。なお、後述のS302で用いられる方法以外の方法であって画像間で変化のある領域を検出できる手法であれば、異なる検出方法でも良い。
S302では、CPU103は、角速度センサ105で検出される角速度と画像から算出される移動ベクトル(動きベクトル)を用いて主被写体の移動ベクトルを特定し、主被写体(動体)と同等な移動ベクトルを持つ領域を検出する。S302の処理の詳細は後述する。
そして、S303で、CPU103は、S302で検出した主被写体ベクトル領域を用いて、S301で検出した動体領域の中から主被写体領域を絞り込む。具体的には、本実施形態では、主被写体ベクトル領域の画素値と、動体領域の対応する画素値とを比較し、比較結果より得られる画素値が所定値以上の領域を主被写体領域として検出する。なお、本実施形態では両領域の比較を画素値ごとに行っているが、これに限らず、所定の画素群ごとに平均値等の代表値の比較を行い、主被写体領域を検出してもよい。また、画素値あるいは画素群の代表値の比較の代わりに、画素あるいは画素群の代表値の平均を求めてもよい。すなわち、差分領域及び主被写体領域の両領域を参酌しても主被写体領域の決定が行われれば、その参酌方法は問わない。
図4は、S301〜S303の処理の過程で得られる領域を表した図である。S301では画像401のような差分領域による主被写体領域マップが、S302では画像402のような主被写体ベクトルによる主被写体領域マップが得られ、S303で画像403のような主被写体領域マップが検出される。なお、画像501、503、503は、各検出方法によって検出された主被写体領域に対応する領域を高い信号値(白)で、それ以外をゼロにした主被写体領域マップである。
図3(b)は、S301で行われる差分領域検出処理の詳細を示したフローチャートである。本実施形態では、各画像の画素値として現像後の輝度(Y)信号を用いることを想定している。しかし、同様の処理を色差(UV)信号についても行って結果を合成してもよいし、現像後のYUV信号からRGB信号に変換し、各色信号について検出を行った結果を合成してもよい。各画像の画素値として上記のような変形例が適用できるのは、後述する主被写体ベクトル領域検出処理、主被写体領域検出処理においても同様である。
なお、差分領域検出処理には、少なくとも2枚の画像が必要である。本実施形態では、3枚の画像データから差分領域を検出する例を説明する。
S3011では、CPU103は、ユーザが撮像装置100をパンニングしながら取得した3枚の画像を時系列順に並べ、1枚目の画像と3枚目の画像を、2枚目の画像(中間画像)を基準にして背景で位置を合わせる。図5は、位置合わせの一例を示したものであり、501〜503の画像をその背景で位置合わせすると、504〜506の画像のようになる。位置合わせ方法の詳細は後述する。
S3012では、CPU103は、位置合わせした3枚の画像の前後、つまり、1枚目の画像と2枚目の画像、2枚目の画像と3枚目の画像で差分絶対値をとる。
S3013では、CPU103は、差分絶対値をとった2枚の画像同士で論理積をとる。
図6は、図5の画像504〜506に対してS3012とS3013の処理を行った結果を示した図である。504と505の画像の差分絶対値結果は601、505と506の画像の差分絶対値結果は602になる。そして、601と602の画像で論理積をとることで画像603が得られる。
S3014では、CPU103は、画像処理部106で上述した論理積の結果にフィルタ等のぼかし処理を行う。これは主被写体と背景に異なる補正を行って、画像を合成する場合を考慮し、主被写体と背景の境界線を滑らかにするために行う。したがって、S3014は必要に応じて省略しても良い。
以上のS3011〜S3014のステップによってS301の差分領域検出を行う。この差分領域を持って静止している被写体(背景)が完全に分離できていればよいが、実際にはいくつかの原因で分離がうまくいかないことがある。例えば、背景に繰り返し模様があったり、レンズの歪みによって背景が歪んでいる場合に、差分絶対値の結果として値が出てくる場合がある。したがって、差分領域で差分として検出された領域を後述の被写体ベクトル領域で限定することにより、より高精度な主被写体領域の検出を行うことができる。
ここで、S3011における位置合わせ方法の詳細を図7及び式(1)を用いて説明する。
図7は、カメラをパンニングした時に背景が撮像面上でどのように移動するかを表している。
カメラ701を702のようにパンニングして、静止している被写体703を撮影した場合、静止している被写体703は、撮像素子102上において、704の位置から705の位置まで移動する。
式(1)を用いて、前述の静止している被写体703の画像上の移動量を算出する。
Figure 0006157242
式(1)に示す通り、静止している被写体、すなわち、背景の移動量706は、パンニングによる撮像装置701の移動角度707と、レンズ状態検知部105で検知されたレンズ101の焦点距離fから算出できる。
移動角度707は、角速度センサ103で検出された撮像装置701の角速度ωと、フレームレートfps、サンプリングする画像間にある画像数nを用いて算出する。
最後に、画素ピッチppを用いて背景の移動量706をピクセルに換算することで、画像内での背景の移動量が算出され、この移動量を基に基準画像以外を移動させ、位置合わせを行うことが可能となる。
移動角度707は、各画像に対応した角速度から毎回正確に算出しても、全画像の平均角速度から一括して算出しても良い。
以上の処理の結果、図3(a)のS301では、図4、の画像401のような差分領域が得られる。なお、401では、白い領域が動体領域を表す。理想環境下での動体領域は403であるが、実環境下では、パンニングによる被写体の入射角の変化から発生する像の歪みや、主被写体以外の動体の影響まで含んだ差分領域401のように検出されることが多い。また、S301に用いる3枚の画像は、3画像間の変化が顕著なほど動体領域を検出しやすいため、例えば連続的に撮影される複数の画像を取得した場合には、最初と最後の画像、そして二つの画像の間に撮影された中間画像を用いると良い。
また、2枚の画像で差分領域を算出する場合、上述したステップから論理積をとるステップが除かれる。
上記の実施形態では、角速度センサ103の出力に基づいて撮影された画像内における背景の移動量、すなわち撮像手段の動きを検出するセンサからの情報に対応する動き情報を検出した。しかし、赤外センサ、加速度センサなど公知の他のセンサを用いて検出しても良いし、後述する画像間の移動ベクトルから、背景に対応する移動ベクトルを特定し、背景の移動量としても良い。さらには、それら複数の手段から得られる背景の移動量に基づいて重み付け平均をとるなどして最終的な背景の移動量を算出しても良い。
図3(c)は、図3(a)のS302で行われる動体領域推定処理の詳細を示したフローチャートである。また、図8はS3021〜S3025の処理を説明する図である。
S3021で、CPU103は、複数の画像それぞれの対応する領域に移動ベクトル検出用の探索領域を図8の画像801のように設定し、画像間における各領域の移動ベクトルを図8の画像802のように検出する。移動ベクトルの算出方法としては公知の手法を用いてよく、例えば領域ごとに図8の画像802のように差分絶対値和を求め、差分絶対値和が最小になる対応点を結んで当該領域の移動ベクトルとする。
S3022では、CPU103は、検出された移動ベクトルの中から主被写体の移動ベクトル(以降、主被写体ベクトル)を算出する。図9は、画像間の移動ベクトルのヒストグラムを算出したものを表したグラフであり、横軸に移動ベクトルの大きさを、縦軸に同じ大きさを持つ移動ベクトルの数(度数)をとる。横軸は0を境に、移動ベクトルの方向を区別している。まず、S3021で算出される振れ(すなわち複数の画像間の撮像手段の動き情報)に基づき背景の移動量901を求める。次に、背景の移動量901に基づいて移動ベクトルを図9のように背景の移動量から離れた主被写体成分902と背景の移動量近傍の背景成分903に分類する。次に、分類された主被写体成分902の移動ベクトルの中で、数が最も多かった移動ベクトルを主被写体ベクトル904とする。ここでS3021で算出される振れの情報を用いずに、移動ベクトルのヒストグラムから主被写体と背景を分類することも可能である。この場合、流し撮りがパンニング撮影によって各画像でほぼ中心付近に主被写体がいると仮定すると、ベクトルの大きさがゼロに近く、画像内で連続した領域に固まって存在する移動ベクトルに対応する領域が、主被写体領域と考えられる。しかし、移動ベクトルの探索領域の大きさによっては移動ベクトルの誤検出も存在するため、上記実施形態のように、振れ情報を参照した方がより精度良く主被写体と背景を分類できる。
S3023では、CPU103は、上記主被写体ベクトルと同等な移動ベクトルを持つ連続した領域の中で、面積が最大となる領域を抽出して、該当領域およびその周辺を主被写体暫定領域(図8の画像803中の803a)とする。また、主被写体ベクトルを用いて画像の位置を合わせることで、画像内における主被写体の位置を統一する。
S3024では、CPU103は、主被写体暫定領域に移動ベクトル検出用の探索領域(図8の画像804中の804a)を設定し、探索領域内で再度、画像間における各領域の移動ベクトルを検出する。S3023では、S3021と比べて1領域の大きさが小さな探索領域での検出を行い、主被写体と背景をより細かく分類する。例えば、S3021に対して縦横それぞれ2分の1の大きさで探索領域を設定する。
S3025では、CPU103は、ほぼ0の移動ベクトルを持つ連続した領域の中で、最大となる領域を抽出して、主被写体ベクトル領域(図8の画像805中の805a)とする。
S3026は、S3014と同様に主被写体ベクトルを持つ領域に値を持つ805のような画像データに対してもぼかし処理を施す。S3014と同様に、S3026も省略しても良い。
以上の画像処理の結果、S302では、図5の画像502や図8の805aのような主被写体ベクトル領域が得られる。また、画像間における主被写体の位置がほぼ同じ位置にある場合や、被写体が低コントラストでも同じ模様が繰り返されることがない場合は、S3021の探索領域を最初から小さく設定し、S3024とS3025を省略しても良い。
以上のように、本実施形態では、振れを伴う撮影で得られた複数の画像について、振れと、画像間の差分と、振れに基づく主被写体の移動ベクトルとに基づいて主被写体領域を高精度に検出する。これにより、撮像装置に動きを伴う撮影において、被写体を高精度に認識することを可能にする。
また、本実施形態ではこれにより、主被写体と背景が高精度に分離され違和感の少ない流し撮り画像の生成が可能となる。
本実施形態では、S3011における位置合わせの方法として、角速度センサ105で検出される角速度を用いる方法を示した。角速度を用いる利点は、被写体に依存しない検出が可能な点にある。被写体の移動速度が速く、背景の変化量が著しい場合、被写体が低コントラストや同じ模様が繰り返される場合のように、背景の移動量を画像から判断するのが難しい場合にも検出が可能である。その一方で、角速度センサ105を用いているため、多少なりともオフセットがのってしまう。したがって、正確な位置まで合わせることは難しい。他にもコストが高くなるなどの問題もある。前述からも分かるように、角速度の代わりに移動ベクトルを用いる方法もあり、角速度とは対照的な特徴を持つ。移動ベクトルは、オフセットの影響がないため、正確な位置まで合わせることができ、かつ、コストも安価である。その一方で、画像から判断するのが難しい場合は、移動ベクトルの誤検出が多くなるため、誤った位置で合わせてしまう可能性もある。以上より、角速度と移動ベクトルを組み合わせて使用しても良い。例えば、移動ベクトルに、低コントラストや同じ模様の繰り返しによる信頼性という指標を設定し、信頼性が高いときには移動ベクトルを、信頼性が低いときには角速度を用いるとしても良い。また、角速度から算出した背景の移動量を用いて、移動ベクトルの検出範囲を制限してやることで、より高精度な移動ベクトル検出にする方法もある。
上記実施形態において生成される合成後の画像のイメージを図10に示す。画像1001は、図5に示す画像501,502、503に基づいて上記のステップで合成を行い生成された画像のイメージ図である。動体であり、主被写体である車両がくっきりと写り、背景の木が流れて写っている。
本実施形態では、撮像装置100で行われる撮影時に連続して撮影される複数の撮影画像を用いて流し撮り画像を生成した。しかし、これに限らず、例えば画像処理装置としてPC(Personal Computer)を用いて、時系列的に撮影された複数の記録画像を用いて、同様の流し撮り画像を生成することも可能である。この場合、背景の移動量の推定に用いられる振れ情報は、記録される画像のヘッダあるいは記録される画像と関連付けられて記憶されていればよい。
(他の実施形態)
本発明の目的は以下のようにしても達成できる。すなわち、前述した各実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給する。そしてそのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行しても実現できる。
この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。
また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどが挙げられる。また、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等も用いることができる。
また、コンピュータが読み出したプログラムコードを実行可能とすることにより、前述した各実施形態の機能が実現される。さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。
更に、以下の場合も含まれる。まず記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。
また、本発明はデジタルカメラのような撮影を主目的とした機器にかぎらず、携帯電話、パーソナルコンピュータ(ラップトップ型、デスクトップ型、タブレット型など)、ゲーム機など、撮像装置を内蔵もしくは外部接続する任意の機器に適用可能である。従って、本明細書における「撮像装置」は、撮像機能を備えた任意の電子機器を包含する。
100 撮像装置
101 光学系
102 撮像素子
103 中央演算装置(CPU)
104 一次記憶装置
105 角速度センサ
106 画像処理部
107 記録媒体
108 二次記憶装置
109 表示部
110 操作部

Claims (12)

  1. 複数の画像の差分から画像間で変化のある領域を検出する検出手段と、
    前記複数の画像の領域ごとの移動ベクトルを算出する算出手段と、
    前記算出手段により算出された領域ごとの移動ベクトルに基づいて、前記複数の画像内で動体の存在する動体領域を推定する推定手段と、
    前記検出手段により検出された変化のある領域と、前記推定手段により推定された動体領域とに基づいて動体領域を特定する特定手段と、
    を有し、
    前記検出手段は、前記複数の画像を撮像した撮像手段の動きを検出するセンサからの情報に対応する動き情報を用いて、前記複数の画像を背景の位置で位置を合わせる位置合わせ手段を有し、前記位置合わせ手段により位置合わせされた前記複数の画像の差分から前記変化のある領域を検出することを特徴とする画像処理装置。
  2. 前記推定手段は、前記算出手段により算出された領域ごとの移動ベクトルから、前記複数の画像を撮像した撮像手段の動きを検出するセンサからの情報に対応する動き情報に基づいて決まる大きさの範囲にある移動ベクトルを、動体の領域に対応する移動ベクトルとして検出し、前記動体領域を推定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記複数の画像を撮像した撮像手段の動きを検出するセンサからの情報に対応する動き情報は、前記複数の画像が撮像された際の前記撮像手段の角速度に対応する情報であることを特徴とする請求項1または2に記載の画像処理装置。
  4. 複数の画像の差分から画像間で変化のある領域を検出する検出手段と、
    前記複数の画像の領域ごとの移動ベクトルを算出する算出手段と、
    前記算出手段により算出された領域ごとの移動ベクトルに基づいて、前記複数の画像内で動体の存在する動体領域を推定する推定手段と、
    前記検出手段により検出された変化のある領域と、前記推定手段により推定された動体領域とに基づいて動体領域を特定する特定手段と、
    を有し、
    前記検出手段は、前記算出手段により算出された領域ごとの移動ベクトルを用いて、前記複数の画像を背景の位置で位置を合わせる位置合わせ手段を有し、前記位置合わせ手段により位置合わせされた前記複数の画像の差分から前記変化のある領域を検出することを特徴とする画像処理装置。
  5. 前記推定手段は、前記移動ベクトルのヒストグラムに基づいて、前記動体領域を推定することを特徴とする請求項1乃至4のいずれか1つに記載の画像処理装置。
  6. 前記検出手段は、連続して撮影された3枚の画像に対して、中間に撮影された画像を基準にして他の画像との差分をそれぞれとった差分画像を生成し、当該2つの差分画像の論理積によって前記変化のある領域を検出することを特徴とする請求項1乃至5のいずれか1つに記載の画像処理装置。
  7. 前記推定手段は、前記算出手段により求められた移動ベクトルで前記動体の存在する領域を推定した後、さらに推定された前記動体の存在する領域についてより細かい領域ごとの移動ベクトルを検出し、前記動体領域を推定することを特徴とする請求項1乃至6のいずれか1つに記載の画像処理装置。
  8. 前記特定手段は、前記検出手段により検出される前記変化のある領域であり、前記推定手段により推定される前記動体領域でもある領域を、動体領域として特定することを特徴とする請求項1乃至7のいずれか1つに記載の画像処理装置。
  9. 前記動体領域を基準として前記複数の画像の位置合わせを行い、合成する合成手段を有することを特徴とする請求項1乃至のいずれか1つに記載の画像処理装置。
  10. 前記合成手段により合成された画像に基づいて、前記特定された動体領域以外の領域がぼけた合成画像を生成することを特徴とする請求項に記載の画像処理装置。
  11. 複数の画像の差分から画像間で変化のある領域を検出する検出ステップと、
    前記複数の画像の領域ごとの移動ベクトルを算出する算出ステップと、
    前記算出ステップにて算出された領域ごとの移動ベクトルと、前記複数の画像を撮像した撮像手段の前記複数の画像間での動きに関する情報を用いて、前記複数の画像内で動体の領域を推定する推定ステップと、
    前記検出ステップにて検出された変化のある領域と、前記推定ステップにて推定された動体の領域とに基づいて動体領域を特定する特定ステップと、
    を有し、
    前記検出ステップは、前記複数の画像を撮像した撮像手段の動きを検出するセンサからの情報に対応する動き情報を用いて、前記複数の画像を背景の位置で位置を合わせる位置合わせステップを有し、前記位置合わせステップにて位置合わせされた前記複数の画像の差分から前記変化のある領域を検出することを特徴とする画像処理方法。
  12. 複数の画像の差分から画像間で変化のある領域を検出する検出ステップと、
    前記複数の画像の領域ごとの移動ベクトルを算出する算出ステップと、
    前記算出ステップにて算出された領域ごとの移動ベクトルに基づいて、前記複数の画像内で動体の存在する動体領域を推定する推定ステップと、
    前記検出ステップにて検出された変化のある領域と、前記推定ステップにて推定された動体領域とに基づいて動体領域を特定する特定ステップと、
    を有し、
    前記検出ステップは、前記算出ステップにて算出された領域ごとの移動ベクトルを用いて、前記複数の画像を背景の位置で位置を合わせる位置合わせステップを有し、前記位置合わせステップにて位置合わせされた前記複数の画像の差分から前記変化のある領域を検出することを特徴とする画像処理方法。
JP2013136921A 2013-06-28 2013-06-28 画像処理装置及び画像処理方法 Expired - Fee Related JP6157242B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013136921A JP6157242B2 (ja) 2013-06-28 2013-06-28 画像処理装置及び画像処理方法
US14/288,136 US9489747B2 (en) 2013-06-28 2014-05-27 Image processing apparatus for performing object recognition focusing on object motion, and image processing method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013136921A JP6157242B2 (ja) 2013-06-28 2013-06-28 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2015012480A JP2015012480A (ja) 2015-01-19
JP6157242B2 true JP6157242B2 (ja) 2017-07-05

Family

ID=52115638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013136921A Expired - Fee Related JP6157242B2 (ja) 2013-06-28 2013-06-28 画像処理装置及び画像処理方法

Country Status (2)

Country Link
US (1) US9489747B2 (ja)
JP (1) JP6157242B2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6497987B2 (ja) * 2015-03-12 2019-04-10 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP6539091B2 (ja) * 2015-04-09 2019-07-03 キヤノン株式会社 撮像装置およびその制御方法
US9536287B1 (en) * 2015-07-09 2017-01-03 Intel Corporation Accelerated lens distortion correction with near-continuous warping optimization
JP6602089B2 (ja) * 2015-08-06 2019-11-06 キヤノン株式会社 画像処理装置及びその制御方法
KR102372711B1 (ko) * 2015-10-13 2022-03-17 삼성전자주식회사 영상 촬영 장치 및 이의 제어 방법
JP6674264B2 (ja) * 2016-01-26 2020-04-01 キヤノン株式会社 像振れ検出装置及び方法、及び撮像装置
JP6700872B2 (ja) * 2016-03-07 2020-05-27 キヤノン株式会社 像振れ補正装置及びその制御方法、撮像装置、プログラム、記憶媒体
JP6700929B2 (ja) * 2016-04-19 2020-05-27 キヤノン株式会社 動きベクトル検出装置、撮像装置、動きベクトル検出方法、プログラム、および、記憶媒体
JP6815747B2 (ja) * 2016-05-02 2021-01-20 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法、プログラム、および、記憶媒体
JP6800642B2 (ja) * 2016-07-25 2020-12-16 キヤノン株式会社 アクセサリ装置、制御装置、これらの制御方法
JP6781589B2 (ja) * 2016-08-08 2020-11-04 キヤノン株式会社 像ブレ補正装置及びその制御方法、プログラム、記憶媒体
JP6661493B2 (ja) * 2016-08-30 2020-03-11 キヤノン株式会社 像ブレ制御装置、撮像装置および制御方法
EP3296950A1 (en) * 2016-09-15 2018-03-21 Thomson Licensing Method and device for blurring a virtual object in a video
US11783707B2 (en) 2018-10-09 2023-10-10 Ford Global Technologies, Llc Vehicle path planning
US11460851B2 (en) 2019-05-24 2022-10-04 Ford Global Technologies, Llc Eccentricity image fusion
US11521494B2 (en) * 2019-06-11 2022-12-06 Ford Global Technologies, Llc Vehicle eccentricity mapping
US11662741B2 (en) 2019-06-28 2023-05-30 Ford Global Technologies, Llc Vehicle visual odometry
US11164299B1 (en) * 2020-04-06 2021-11-02 Gopro, Inc. Systems and methods for generating panning images
US12046047B2 (en) 2021-12-07 2024-07-23 Ford Global Technologies, Llc Object detection

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3569992B2 (ja) * 1995-02-17 2004-09-29 株式会社日立製作所 移動体検出・抽出装置、移動体検出・抽出方法及び移動体監視システム
KR0171120B1 (ko) * 1995-04-29 1999-03-20 배순훈 특징점 기반 움직임 보상을 이용한 비디오 신호 부호화에서의 움직임 영역 설정방법 및 장치
JP3573895B2 (ja) * 1997-01-20 2004-10-06 松下電器産業株式会社 動物体抽出装置
US5969772A (en) * 1997-10-30 1999-10-19 Nec Corporation Detection of moving objects in video data by block matching to derive a region motion vector
JP4596220B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4330914B2 (ja) * 2003-04-09 2009-09-16 株式会社エヌ・ティ・ティ・データ 動物体検出装置および動物体検出方法
US7620266B2 (en) * 2005-01-20 2009-11-17 International Business Machines Corporation Robust and efficient foreground analysis for real-time video surveillance
JP4454539B2 (ja) 2005-05-31 2010-04-21 Necインフロンティア株式会社 Ip電話機自動設定システム及び方法
JP2007074031A (ja) * 2005-09-02 2007-03-22 Canon Inc 撮像装置、及び、画像処理装置及び方法
KR100803611B1 (ko) * 2006-11-28 2008-02-15 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
JP4626632B2 (ja) * 2007-06-25 2011-02-09 株式会社日立製作所 映像監視システム
GB2470072B (en) * 2009-05-08 2014-01-01 Sony Comp Entertainment Europe Entertainment device,system and method
JP5326809B2 (ja) 2009-05-22 2013-10-30 株式会社ニコン 撮像装置
JP2011040902A (ja) * 2009-08-07 2011-02-24 Toshiba Corp 撮像装置及び撮像装置用制御装置
JP2011210139A (ja) * 2010-03-30 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム
JP2011211628A (ja) * 2010-03-30 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム
JP5703788B2 (ja) * 2011-01-28 2015-04-22 株式会社ニコン 撮像装置、画像処理装置、画像処理プログラム
JP5791336B2 (ja) * 2011-04-01 2015-10-07 キヤノン株式会社 画像処理装置及びその制御方法
JP5507014B2 (ja) * 2011-08-10 2014-05-28 富士フイルム株式会社 動体検出装置及び方法
US9274597B1 (en) * 2011-12-20 2016-03-01 Amazon Technologies, Inc. Tracking head position for rendering content
KR101975206B1 (ko) * 2012-11-23 2019-05-07 삼성전자주식회사 시간상 연속하는 물체의 움직임들에 대응하는 이미지 데이터들을 프로세싱하는 방법 및 장치

Also Published As

Publication number Publication date
US20150003676A1 (en) 2015-01-01
JP2015012480A (ja) 2015-01-19
US9489747B2 (en) 2016-11-08

Similar Documents

Publication Publication Date Title
JP6157242B2 (ja) 画像処理装置及び画像処理方法
US8823861B2 (en) Imaging apparatus, image display apparatus, imaging method, method of displaying image and method of correcting position of focusing-area frame
JP4872797B2 (ja) 撮像装置、撮像方法および撮像プログラム
JP5643563B2 (ja) 画像処理装置及びその制御方法
JP6906947B2 (ja) 画像処理装置、撮像装置、画像処理方法およびコンピュータのプログラム
JP6261205B2 (ja) 画像処理装置
CN105979135B (zh) 图像处理设备和图像处理方法
EP2219366A1 (en) Image capturing device, image capturing method, and image capturing program
KR101728042B1 (ko) 디지털 촬영 장치 및 이의 제어 방법
WO2010073619A1 (ja) 撮像装置
JP2015012482A (ja) 画像処理装置及び画像処理方法
JP2013165487A (ja) 画像処理装置、撮像装置、およびプログラム
JP2011066827A (ja) 画像処理装置、画像処理方法及びプログラム
JP4807582B2 (ja) 画像処理装置、撮像装置及びそのプログラム
JP2017175364A (ja) 画像処理装置、撮像装置および画像処理装置の制御方法
JP4894708B2 (ja) 撮像装置
JP2010279054A (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP6541501B2 (ja) 画像処理装置、撮像装置、及び画像処理方法
JP4942572B2 (ja) 画像加算装置および方法並びにプログラム
JP7458769B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP4586707B2 (ja) 画像処理装置、電子カメラおよび画像処理プログラム
JP2006229868A (ja) 画像処理装置及び方法、動き検出装置及び方法
JP5041050B2 (ja) 撮像装置および画像処理プログラム
JP2020160773A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2015041865A (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170606

R151 Written notification of patent or utility model registration

Ref document number: 6157242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees