JPWO2013150829A1 - 画像処理装置、画像処理装置の制御方法およびプログラム - Google Patents

画像処理装置、画像処理装置の制御方法およびプログラム Download PDF

Info

Publication number
JPWO2013150829A1
JPWO2013150829A1 JP2014509075A JP2014509075A JPWO2013150829A1 JP WO2013150829 A1 JPWO2013150829 A1 JP WO2013150829A1 JP 2014509075 A JP2014509075 A JP 2014509075A JP 2014509075 A JP2014509075 A JP 2014509075A JP WO2013150829 A1 JPWO2013150829 A1 JP WO2013150829A1
Authority
JP
Japan
Prior art keywords
region
moving body
moving
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014509075A
Other languages
English (en)
Other versions
JP5983737B2 (ja
Inventor
大木 光晴
光晴 大木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2013150829A1 publication Critical patent/JPWO2013150829A1/ja
Application granted granted Critical
Publication of JP5983737B2 publication Critical patent/JP5983737B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)

Abstract

躍動感のある画像を生成する。画像処理装置は、移動体取得部、移動方向取得部、後部領域検出部、および、平滑化処理部を具備する。移動体取得部は、時系列に沿って連続する複数の画像のうちの少なくとも1つの画像である対象画像において移動体の領域を取得する。移動方向取得部は、移動体の移動方向を取得する。移動方向取得部は、移動体の領域において移動方向に対して後方の部分の領域を後部領域として検出する。後部領域処理部は、後部領域において所定の画像処理を実行する。

Description

本技術は、画像処理装置、その制御方法および当該方法をコンピュータに実行させるためのプログラムに関する。詳しくは、平滑化処理を実行する画像処理装置、その制御方法および当該方法をコンピュータに実行させるためのプログラムに関する。
従来、撮像機器で撮像された画像に対して、画像処理装置により、様々な画像処理が実行されることがあった。例えば、画像処理装置が、動画内の画像を選択して、選択した画像の画風を絵画調に変更する技術が提案されている(特許文献1および特許文献2参照。)。また、画像処理装置が被写体までの距離を検出して、画像に対して、その距離に応じた度合いのぼかし処理(すなわち、平滑化処理)を実行する技術が提案されている(例えば、特許文献3参照。)。
特開2011−170402号公報 特開2011−182213号公報 特開2003−037767号公報
しかしながら、上述の従来技術では、躍動感のある画像を生成することができなかった。移動体の撮影においては、撮影者が、画像の一部にブレが生じるようにシャッタースピード等を調整することにより、移動体のスピード感や動きの迫力が表現された画像を撮影することがある。上述の従来技術では、このような撮影手法を用いずに撮影された画像から、躍動感のある画像を生成することができなかった。
本技術はこのような状況に鑑みて生み出されたものであり、躍動感のある画像を生成することを目的とする。
本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、 時系列に沿って連続する複数の画像のうちの少なくとも1つの画像である対象画像において移動体の領域を取得する移動体取得部と、上記移動体の移動方向を取得する移動方向取得部と、上記移動体の領域において上記移動方向に対して後方の部分の領域を後部領域として検出する後部領域検出部と、上記後部領域において所定の画像処理を実行する後部領域処理部とを具備する画像処理装置、および、その制御方法ならびに当該方法をコンピュータに実行させるためのプログラムである。これにより、移動体の後部領域について移動方向に沿って平滑化処理が実行されるという作用をもたらす。
また、この第1の側面において、上記移動体取得部は、上記対象画像において上記移動体の領域を検出してもよい。これにより、対象画像において後部領域が検出されるという作用をもたらす。
また、この第1の側面において、上記対象画像は複数の所定形状のブロックを含み、上記移動体取得部は、ブロックマッチングアルゴリズムを使用して上記ブロック毎に当該ブロックの動き量を求めて当該動き量が所定の閾値を超えるブロックからなる領域を上記移動体の領域として検出してもよい。これにより、動き量が所定の閾値を超えるブロックからなる領域が移動体の領域として検出されるという作用をもたらす。
また、この第1の側面において、上記移動体取得部は、上記複数の画像のうち上記対象画像の1つ前の画像である基準画像において上記移動体の領域をさらに取得し、上記移動方向取得部は、上記基準画像における上記移動体の領域内の特定の座標から上記対象画像における上記移動体の領域内の特定の座標への方向を上記移動方向として検出してもよい。これにより、移動体において検出された移動方向に対して後方の部分の領域が後部領域として検出されるという作用をもたらす。
また、この第1の側面において、上記後部領域検出部は、上記対象画像内で上記移動方向に位置を変更した上記後方の部分の輪郭線と上記変更前の上記輪郭線とに囲まれる領域を上記後部領域として検出してもよい。これにより、移動前後の輪郭線に囲まれる領域が上記後部領域として検出されるという作用をもたらす。
また、この第1の側面において、上記後部領域検出部は、上記対象画像内で上記移動方向に位置を変更した上記移動体の領域をマスク領域として上記変更前の上記移動体の領域においてマスクすることにより生成された領域を上記後部領域として検出してもよい。これにより、移動方向に位置を変更した移動体の領域をマスク領域として移動体の領域においてマスクすることにより生成された領域が後部領域として検出されるという作用をもたらす。
また、この第1の側面において、上記後部領域検出部は、上記移動体の移動速度を検出する移動速度検出部と、上記移動速度に応じた変更量に従って上記位置を変更した上記移動体の領域を上記マスク領域として上記マスクを行うマスク処理部とを備えてもよい。これにより、移動速度に応じた変更量で位置が変更された移動体の領域をマスク領域としてマスクが行われるという作用をもたらす。
また、この第1の側面において、上記後部領域検出部は、上記対象画像において上記移動体の領域を上記移動方向に拡大する拡大部をさらに備え、上記マスク処理部は、上記拡大部により拡大された上記移動体の領域である拡大領域の位置を上記移動方向に変更した領域を上記マスク領域として上記変更前の上記拡大領域において上記マスクを行ってもよい。これにより、移動方向に位置を変更した拡大領域をマスク領域として拡大領域においてマスクすることにより生成された領域が後部領域として検出されるという作用をもたらす。
また、この第1の側面において、上記所定の画像処理は、上記移動方向に沿った平滑化処理であってもよい。これにより、移動方向に沿って平滑化処理が行われるという作用をもたらす。
また、この第1の側面において、上記平滑化処理は、上記後部領域について上記移動方向に沿って上記移動速度に応じた度合いの上記平滑化処理を実行してもよい。これにより、後部領域について移動速度に応じた度合いの平滑化処理が実行されるという作用をもたらす。
また、この第1の側面において、上記拡大部は、上記移動体の領域を上記移動速度に応じて上記移動方向に拡大してもよい。これにより、移動体の領域が移動速度に応じて拡大されるという作用をもたらす。
また、この第1の側面において、上記対象画像は、上記複数の画像のうちのいずれか1つの画像であり、上記後部領域検出部は、上記移動体の後方の部分において複数の上記後部領域を検出し、上記平滑化処理部は、複数の上記後部領域について上記平滑化処理を実行した複数の画像を生成してもよい。これにより、複数の後部領域が検出されて、それらに平滑化処理が実行された画像が生成されるという作用をもたらす。
また、この第1の側面において、上記後部領域処理部は、上記移動方向に沿った方向における上記後部領域内の画素値の分布を表す周期関数の振幅に応じた広さの通過帯域を有するローパスフィルタを使用して上記平滑化処理を実行してもよい。これにより、周期関数の振幅に応じた広さの通過帯域を有するローパスフィルタを使用して平滑化処理が実行されるという作用をもたらす。
また、この第1の側面において、上記対象画像の1つ前の画像である基準画像と上記対象画像とにおいて共通の領域が重なるように上記基準画像の位置に上記対象画像の位置を合わせる位置合わせ処理部をさらに備え、上記移動体検出部は、上記位置を合わせた上記対象画像において上記移動体を検出してもよい。これにより、位置合わせ処理が行われた対象画像において移動体が検出されるという作用をもたらす。
また、この第1の側面において、上記後部領域処理部は、上記対象画像における上記移動体以外の領域について上記移動方向に沿って上記後部領域とは異なる度合いの平滑化処理をさらに実行してもよい。これにより、移動体以外の領域について、後部領域とは異なる度合いの平滑化処理が実行されるという作用をもたらす。
また、この第1の側面において、上記後部領域に含まれる線分のうち上記移動方向に沿った線分を強調する強調処理部をさらに具備してもよい。これにより、移動方向に沿った線分が強調されるという作用をもたらす。
また、この第1の側面において、上記所定の画像処理は、上記後部領域を所定の色により塗り潰す処理であってもよい。これにより、後部領域が所定の色により塗り潰されるという作用をもたらす。
本技術によれば、画像処理装置が、躍動感のある画像を生成することができるという優れた効果を奏し得る。
第1の実施の形態における情報処理装置の一構成例を示すブロック図である。 第1の実施の形態における画像処理装置の一構成例を示すブロック図である。 第1の実施の形態における移動体検出部の一構成例を示すブロック図である。 第1の実施の形態における移動ベクトル検出部の一構成例を示すブロック図である。 第1の実施の形態における後部領域検出部の一構成例を示すブロック図である。 第1の実施の形態における画像処理装置の動作の一例を示すフローチャートである。 第1の実施の形態における入力画像データの一例を示す図である。 第1の実施の形態における画素値の分布例を示す図である。 第1の実施の形態における移動領域データの一例を示す図である。 第1の実施の形態における重心および移動ベクトルの一例を示す図である。 第1の実施の形態における移動体領域データ、拡張領域データ、マスク領域データ、および、後部領域データの一例を示す図である。 第1の実施の形態における出力画像データの一例を示す図である。 第1の実施の形態の第2の変形例における画像処理装置の一構成例を示すブロック図である。 第1の実施の形態の第2の変形例における出力画像データの一例を示す図である。 第1の実施の形態の第3の変形例における画像処理装置200の一構成例を示すブロック図である。 第1の実施の形態の第4の変形例における画像処理装置200の一構成例を示すブロック図である。 第2の実施の形態における画像処理装置の一構成例を示すブロック図である。 第2の実施の形態における後部領域検出部の一構成例を示すブロック図である。 第2の実施の形態における後部領域データの一例を示す図である。 第2の実施の形態における移動体の後部の一例を示す図である。 第2の実施の形態における出力画像データの一例を示す図である。 第2の実施の形態の第3の変形例における関数Sの軌跡の一例を示す図である。 第3の実施の形態における画像処理装置の一構成例を示すブロック図である。 第3の実施の形態における動画データの撮影方法を説明するための図である。 第3の実施の形態における位置合わせ処理部の一構成例を示すブロック図である。 第3の実施の形態における入力画像データの一例を示す図である。 第3の実施の形態における位置をオフセットにより補正した画像データの一例を示す図である。 第3の実施の形態における平滑化処理部の一構成例を示すブロック図である。 第3の実施の形態における出力画像データの一例を示す図である。
以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(画像処理:後部領域について平滑化処理を実行する例)
2.第2の実施の形態(画像処理:1つの移動体内の複数の後部領域について平滑化処理を実行する例)
3.第3の実施の形態(画像処理:位置合わせ後の画像における後部領域について平滑化処理を実行する例)
<1.第1の実施の形態>
[情報処理装置の構成例]
図1は、第1の実施の形態における情報処理装置100の一構成例を示すブロック図である。この情報処理装置100は、動画データの撮像や、その動画データに対する画像処理などの各種の情報処理を実行する装置である。情報処理装置100は、撮像部110、制御部120、表示部130、入出力インターフェース140、動画データ記憶部150、バス160、および、画像処理装置200を備える。
撮像部110は、移動体などの被写体を撮像して動画データを生成するものである。この動画データは、時系列に沿って連続する複数の画像データを含むものである。撮像部110は、生成した動画データを動画データ記憶部150に出力する。
制御部120は、情報処理装置100全体を制御するものである。制御部120は、例えば、撮像部110に動画データを生成させる制御や、動画データに対する画像処理を画像処理装置200に実行させる制御を行う。
表示部130は、動画データを表示するものである。入出力インターフェース140は、情報処理装置100の外部の装置へのデータの出力と、外部の装置からのデータの入力とを行うものである。入出力されるデータは、動画データなどを含む。動画データ記憶部150は、動画データを記憶するものである。バス160は、撮像部110、制御部120、表示部130、入出力インターフェース140、動画データ記憶部150、および、画像処理装置200がデータを送受信するための共通の経路である。
画像処理装置200は、動画データ内の画像データに対して、所定の画像処理を実行するものである。この画像処理装置200は、動画データ記憶部150から、信号線208を介して複数の画像データを入力画像データとして読み出す。画像処理装置200は、これらの入力画像データのうちの少なくとも1つにおける画像を対象画像として、その対象画像において移動体を検出する。そして、画像処理装置200は、その移動体の移動方向を検出する。画像処理装置200は、その移動体において、移動方向に対して後方の部分の領域を後部領域として検出する。画像処理装置200は、検出した後部領域について移動方向に沿って平滑化処理を実行する。画像処理装置200は、平滑化処理後の画像データを出力画像データとして信号線209を介して表示部130などへ出力する。
[画像処理装置の構成例]
図2は、第1の実施の形態における画像処理装置200の一構成例を示すブロック図である。画像処理装置200は、移動体検出部220、移動ベクトル検出部230、後部領域検出部240、および、平滑化処理部250を備える。
移動体検出部220は、入力画像データにおいて移動体を検出するものである。この移動体検出部220は、例えば、n(nは2以上の整数)個の入力画像データI0乃至In-1の各々において、移動体を検出する。移動体の検出方法の詳細については後述する。移動体検出部220は、検出した移動体の領域を示すデータを移動体領域データM0乃至Mn-1として移動ベクトル検出部230および後部領域検出部240に信号線229を介して供給する。移動体領域データは、例えば、移動体の領域内の画素の画素値を「1」、それ以外の画素値を「0」とした画像データである。なお、移動体検出部220は、特許請求の範囲に記載の移動体取得部の一例である。
移動ベクトル検出部230は、移動体の移動方向を検出するものである。例えば、移動ベクトル検出部230は、対象画像の1つ前の画像を、その対象画像に対応する基準画像とする。そして、移動ベクトル検出部230は、基準画像における移動体内の特定の座標(例えば、重心の座標)を起点とし、対象画像の移動体内の特定の座標を終点とするベクトルを移動ベクトル(すなわち、移動方向)として検出する。ただし、n個の入力画像データのうち、時系列において最初の入力画像データについては対応する基準画像が存在しないため、移動ベクトル検出部230は、2個目以降のn−1個の入力画像データの各々において移動ベクトルを検出する。移動ベクトル検出部230は、検出した移動ベクトルV1乃至Vn-1を後部領域検出部240および平滑化処理部250に信号線239を介して供給する。
なお、移動ベクトル検出部230は、特許請求の範囲に記載の移動方向取得部の一例である。また、移動ベクトル検出部230は、2個目以降の入力画像データについて移動ベクトルを求めているが、最初の入力画像データについても移動ベクトルを求めてもよい。例えば、移動ベクトル検出部230は、2個目の移動ベクトルV1と同一のベクトルを最初の入力画像データについての移動ベクトルV0として補間してもよい。
後部領域検出部240は、移動ベクトルが検出された入力画像データの各々において、その移動ベクトルに対する後方の部分の領域を後部領域として検出する。後部領域の検出方法の詳細については後述する。後部領域検出部240は、検出した後部領域を示す後部領域データB1乃至Bn-1を平滑化処理部250に信号線249を介して供給する。後部領域データは、例えば、後部領域内の画素の画素値を「1」、それ以外の画素値を「0」とした画像データである。
平滑化処理部250は、後部領域について移動方向に沿って平滑化処理を実行するものである。平滑化処理部250は、後部領域が検出された2個目以降の入力画像データの各々の後部領域において、移動ベクトルの方向に沿って平滑化処理を実行する。平滑化処理部250は、例えば、移動平均フィルタを使用して、平滑化を行う。この移動平均フィルタにおいては、平滑化処理後の画素値は、例えば、次の式1および式2から算出される。
Figure 2013150829
Figure 2013150829
式1において、P0乃至PK-1は、平滑化処理前の移動体領域内の画素の画素値である。これらの画素値のうち、P1乃至PK-1は、P0に対応する画素から見て、移動方向に並ぶ画素の画素値である。例えば、P0が座標(0,0)の画素値であり、移動方向がX軸方向である場合、座標(1,0)乃至(K−1,0)の画素値がP1乃至PK-1として式1に入力される。Kは、平滑化の度合いであり、具体的には、移動平均フィルタのフィルタ次数である。P0'は、P0に対応する画素における、平滑化処理後の画素値である。式2において、|V|は、2フレーム間における移動ベクトルの大きさ(言い換えれば、移動体の移動速度)である。αは、所定の係数であり、実数が設定される。平滑化処理部250は、平滑化処理後の画像データを出力画像データO1乃至On-1として出力する。
なお、平滑化処理部250は、2個目以降の入力画像データの全てに対して平滑化処理を実行しているが、それらの入力画像データのうちの一部(例えば、いずれか1つの入力画像データ)に対してのみ平滑化処理を実行してもよい。また、平滑化処理部250は、移動平均フィルタを使用して平滑化処理を実行しているが、移動平均フィルタ以外のフィルタ(例えば、ガウシアンフィルタ)を使用して平滑化処理を実行してもよい。また、平滑化処理部250は、平滑化の度合い(K)を移動速度(|V|)に応じた値としているが、移動速度に関らず、Kを一定の値として平滑化処理を実行してもよい。また、平滑化処理部250は、特許請求の範囲の後部領域処理部の一例である。
図3は、第1の実施の形態における移動体検出部220の一構成例を示すブロック図である。移動体検出部220は、画素選択部221、背景基準値算出部222および移動体領域抽出部223を備える。
画素選択部221は、n個の入力画像データI0乃至In-1において対応する座標のn個の画素値を選択するものである。例えば、入力画像データのそれぞれが、座標(0,0)乃至(w−1,h−1)のw×h個(wおよびhは1以上の整数)の画素からなる場合、画素選択部221は、n個の入力画像データの中から座標(0,0)の画素値をそれぞれ選択する。これによりn個の画素値が選択される。画素選択部221は、次に、n個の入力画像データのそれぞれにおいて、座標(0,1)の画素値を選択する。これにより、次のn個の画素値が選択される。この要領で、最終的には、入力画像データI0乃至In-1に対して、n個の画素値が、w×h組分選択されることになる。これらの選択された画素値は、背景基準値算出部222および移動体領域抽出部223に供給される。
背景基準値算出部222は、入力画像データにおける画素が背景の画素であるか否かを判断する際の基準値を座標毎に算出するものである。背景基準値算出部222は、w×h組の各々において、例えば、最頻値を基準値として算出する。これは、n枚の連続する画像において、出現頻度が高い画素値の画素は、背景である可能性が高いと推定されるためである。背景基準値算出部222は、算出した基準値V(0,0)乃至V(w−1,h−1)を移動体領域抽出部223に供給する。なお、背景基準値算出部222は、n個の画素値の平均値を基準値として算出してもよい。
移動体領域抽出部223は、入力画像データの各々において、移動体の領域を抽出するものである。この移動体領域抽出部223は、入力画像データにおいて、画素ごとに、その画素の画素値と、その画素に対応する基準値との間の差分を算出する。算出した差分が所定の閾値以下である場合には、移動体領域抽出部223は、その画素が背景における画素であると判断する。一方、算出した差分が閾値より大きい場合には、移動体領域抽出部223は、その画素が移動体における画素であると判断する。移動体領域抽出部223は、判断結果に基づいて、移動体領域データM0乃至Mn-1を生成して出力する。移動体領域データにおいては、例えば、移動体と判断された画素に「1」の画素値が設定され、背景と判断された画素に「0」の画素値が設定される。
なお、移動体検出部220は、画素値の出現頻度に基づいて、移動体を検出しているが、他の方法を使用して移動体を検出することもできる。例えば、移動体検出部220は、連続する複数の画像において、対応する画素同士の画素値の差分を算出し、その差分が閾値以上である画素を移動体の画素として検出するフレーム間差分法を使用してもよい。
図4は、第1の実施の形態における移動ベクトル検出部230の一構成例を示すブロック図である。この移動ベクトル検出部230は、重心座標演算部231および移動ベクトル演算部232を備える。
重心座標演算部231は、移動体の領域における重心座標を演算するものである。重心座標演算部231は、入力画像データと、その入力画像データに対応する移動体領域データとを受け取る。重心座標演算部231は、入力画像データにおける移動体内の画素値の各々を密度として、その移動体における重心を演算する。具体的には、重心座標演算部231は、例えば、次の式3および式4を使用して重心の座標を演算する。
Figure 2013150829
Figure 2013150829
式3において、gは、重心のx座標であり、gは、重心のY座標である。また、式3および式4において、iは移動体の領域内の画素のx座標であり、jは移動体の領域内の画素のy座標である。P[i][j]は、座標(i,j)における画素値である。重心座標演算部231は、n個の入力データについて重心座標G0乃至Gn-1を演算して移動ベクトル演算部232に供給する。
なお、重心座標演算部231は、入力画像データにおける移動体の領域内の画素値を全て一定の値(例えば、「1」)として重心座標を求めてもよい。この場合、重心座標演算部231は、式3および式4においてP[i][j]を全て一定の値(例えば、「1」)として、移動体領域データのみから重心座標を演算する。
移動ベクトル演算部232は、重心座標から、移動ベクトルを演算するものである。移動ベクトル演算部232は、対象画像の1つ前の画像(基準画像)内の移動体の重心座標を起点とし、その対象画像内の移動体の重心座標を終点とするベクトルを移動ベクトルとして演算する。例えば、重心座標G0を起点とし、重心座標G1を終点とするベクトルが2個目の入力画像データI1における移動体の移動ベクトルV1として算出される。
なお、移動ベクトル検出部230は、重心以外の座標を移動ベクトルの始点または終点としてもよい。例えば、移動ベクトル検出部230は、それぞれの移動体においてx座標の平均値とy座標の平均値を求め、それらの平均値からなる座標をベクトルの始点または終点としてもよい。また、移動ベクトル検出部230は、入力画像データ(フレーム)ごとに、移動ベクトルを算出しているが、一定の期間(例えば、30フレーム)内の移動ベクトルの平均を求めて、その平均のベクトルを、その期間内の移動ベクトルとして出力してもよい。
図5は、第1の実施の形態における後部領域検出部240の一構成例を示すブロック図である。後部領域検出部240は、拡大部241、移動体位置変更部242およびマスク処理部243を備える。
拡大部241は、移動体の領域を移動方向に拡大するものである。この拡大部241は、移動体検出部220および移動ベクトル検出部230から移動体領域データMおよび移動ベクトルVを受け取る。拡大部241は、移動ベクトルVの大きさ|V|を算出する。そして、拡大部241は、移動ベクトルの方向に、|V|×βの分(βは、実数)、その移動ベクトルVに対応する移動体領域Mを拡大する。これにより、移動体の移動方向を横方向として、移動体の領域の横幅は、|V|×βの分、拡張される。拡大部241は、拡大した移動体の領域Mを拡大領域データWとして移動体位置変更部242およびマスク処理部243に出力する。
移動体位置変更部242は、拡大された移動体の領域(W)の位置を移動方向へ変更するものである。この移動体位置変更部242は、拡大部241および移動ベクトル検出部230から拡大領域データWおよび移動ベクトルVを受け取る。そして、移動体位置変更部242は、移動ベクトルの方向へ、|V|×γ(γは実数)の距離だけ、拡大領域の位置を変更(シフト)する。移動体位置変更部242は、位置を変更した拡大領域データをマスク領域データW'としてマスク処理部243に供給する。
なお、拡大部241は、移動体の領域について、移動体の移動速度(|V|)に応じたサイズの拡大を行っているが、移動速度に関らず、一定サイズの拡大を行う構成とすることもできる。
また、移動体位置変更部242は、移動速度(|V|)に応じた距離の位置の変更を行っているが、移動速度に関らず、一定距離の変更を行う構成とすることもできる。
マスク処理部243は、拡大領域データWにおいてマスク領域データW'を使用してマスク処理を実行するものである。このマスク処理により、拡大領域データWにおいて、マスク領域データW'と重なる部分が削除され、残りの領域が抽出される。マスク処理部243は、マスク処理により生成された領域(すなわち、マスク領域データW'以外の領域)を後部領域として、その後部領域を示す後部領域データBを出力する。
[画像処理装置の動作例]
図6は、第1の実施の形態における画像処理装置200の動作の一例を示すフローチャートである。この動作は、例えば、入力画像データI0乃至In-1が画像処理装置200に入力されたときに開始する。画像処理装置200は、入力画像データI0乃至In-1において移動体を検出して、移動体領域データM0乃至Mn-1を生成する(ステップS910)。画像処理装置200は、入力画像データI0乃至In-1および移動体領域データM0乃至Mn-1から、移動体の移動ベクトルV1乃至Vn-1を検出する(ステップS920)。
画像処理装置200は、移動ベクトルV1乃至Vn-1および移動体領域データM0乃至Mn-1から、移動体の各々における後部領域を検出して後部領域データB1乃至Bn-1を生成する(ステップS930)。そして、画像処理装置200は、入力画像データI0乃至In-1、後部領域データB1乃至Bn-1および移動ベクトルV1乃至Vn-1から、入力画像データにおける後部領域について移動方向に沿った平滑化処理を実行する(ステップS940)。
図7は、第1の実施の形態における入力画像データの一例を示す図である。図7におけるaは、時系列において最初の入力画像データI0であり、図7におけるb乃至dは、2乃至4個目の入力画像データI1乃至I3である。図7におけるa乃至dにおいて自動車が撮影されており、自動車の位置は、時間の経過に伴い、水平方向に移動している。
図8は、第1の実施の形態における画素値の分布例を示す図である。図8において、縦軸は画素値であり、横軸は時間である。また、P0(0,0)乃至P10(0,0)は、入力画像データI0至I10のそれぞれにおける座標(0,0)の画素値である。図8において、P0(0,0)乃至P2(0,0)などの画素値の出現頻度が高く、この画素値が基準値V(0,0)として使用される。P0(0,0)乃至P2(0,0)や、P6(0,0)乃至P10(0,0)などは、基準値と間の差分が閾値以下であるため、これらに対応する画素は、背景における画素であると判断される。一方、P3(0,0)乃至P5(0,0)などの画素値は、基準値との間の差分が閾値より大きいため、これらに対応する画素は、移動体における画素であると判断される。(0,0)以外の座標についても、同じ要領で、出現頻度に基づいて移動体であるか否かが判断される。
図9は、第1の実施の形態における移動領域データの一例を示す図である。図9におけるa乃至dは、図7におけるa乃至dに例示した入力画像データI0乃至I3から生成された移動体領域データM0乃至M3である。図7におけるa乃至dにおいて、白塗りの領域は背景の領域であり、黒塗りの領域は移動体の領域である。図7におけるa乃至dに例示するように、移動体の領域として自動車の領域が検出されている。
図10は、第1の実施の形態における重心および移動ベクトルの一例を示す図である。図10におけるa乃至dは、図7におけるa乃至dに例示した入力画像データI0乃至I3において検出された重心および移動ベクトルを示す図である。これらの図10におけるa乃至dにおいて背景は省略されている。図10におけるa乃至dに示すように、各々の移動体(自動車)において、式3および式4から重心座標G0乃至G3が算出される。そして、図10におけるbにおいて、G0を起点とし、G1を終点とする移動ベクトルV1が検出される。また、図10におけるcおよびdにおいても、重心座標G1乃至G3から、移動ベクトルV2およびV3が検出される。
図11は、第1の実施の形態における移動体領域データ、拡張領域データ、マスク領域データ、および、後部領域データの一例を示す図である。図11におけるaは、2個目の入力画像データI1に対応する、移動体領域データM1を示す図である。
図11におけるbは、図11のaの移動体領域データM1において、移動体の領域(黒塗りの領域)を移動方向に拡大した拡大領域データW1である。後部領域検出部240は、移動体の領域を、移動方向(V1)へ|V1|×β(βは、例えば「2」)だけ拡大する。これにより、図11におけるbに示すように、移動体の領域の横幅が拡張される。
図11におけるcは、図11のbにおける、拡大された領域の位置を、移動方向に変更したマスク領域データW1'である。後部領域検出部240は、拡大された領域の位置を、移動方向に、|V1|×γ(γは、例えば「2」)だけ変更する。これにより、図11におけるcに示すように、拡大された領域が移動方向にシフトされる。
図11におけるdは、図11におけるbの拡大領域データW1において、マスク領域データW1'によりマスクすることにより生成された後部領域データB1である。図11におけるcに示すように、後部領域検出部240は、図11のbにおいて、図11におけるbと図11におけるcとの間で重なる領域を削除して、残りの領域を後部領域として検出する。
ここで、移動体の領域を拡大せずにシフトさせてマスク領域とした場合、移動体の後部以外の部分(自動車の前輪など)の領域がマスク処理後に残ってしまうことがありうる。図11におけるbに例示したように、移動体の領域を拡大させてから位置を変更することにより、自動車の前輪などの領域が、後部領域として検出されてしまうことが防止される。
なお、移動体が楕円形や四角形に近い形状など、凹凸の少ない形状である場合、移動体の領域を拡大させず(すなわち、前述のβについて、β=0にする)にシフトさせても、後部以外の領域が後部領域として検出されることは少ない。このため、後部領域検出部240は、移動体の領域を拡大せずにシフトさせる構成とすることもできる。
また、後部領域検出部240は、移動方向に位置を変更した後方の部分の輪郭線と、変更前の輪郭線とに囲まれる領域を検出することができるのであれば、マスク処理以外の処理により後部領域を検出することもできる。具体的には、後部領域検出部240は、移動体の領域を移動方向に対して垂直な線に沿って2分割し、分割した2つの部分のうち、移動方向に対して後方の部分の輪郭線を検出する。そして、後部領域検出部240は、その輪郭線の位置を移動方向に変更し、位置の変更前後の輪郭線に囲まれる領域を後部領域として検出すればよい。
また、後部領域検出部240は、移動体の領域を移動方向に対して垂直な線に沿って2分割し、分割した2つの部分のうち、移動方向に対して後方の部分の領域をそのまま、後部領域として検出してもよい。
図12は、第1の実施の形態における出力画像データの一例を示す図である。この図12は、図7におけるbに例示した入力画像データI1において自動車の後部の領域について、移動方向に沿って平滑化処理を実行することにより生成された出力画像データO1である。これにより、移動体の後部が移動方向にブレた画像が生成され、移動体のスピード感が強調される。
このように、本技術の第1の実施の形態によれば、画像処理装置200は、移動体の後部領域について移動方向に沿って平滑化処理を実行することにより、後部領域が移動方向に沿って平滑化された画像を生成することができる。これにより、移動体のスピード感が強調された、躍動感のある画像が得られる。
[第1の変形例]
第1の実施の形態では、画像処理装置200は、画素毎に出現頻度の高い画像値の画素は背景とし、それ以外の画素を移動体として、移動体の重心の時間的変化から移動ベクトルを求めていた。しかしながら、画像処理装置200は、ブロックマッチングにより移動ベクトルを求めてもよい。第1の変形例の画像処理装置200は、ブロックマッチングにより移動ベクトルを求める点において第1の実施の形態と異なる。
具体的には、第1の変形例の移動体検出部220は、入力画像データを所定形状の複数のブロックに区切り、隣り合う入力画像データの一方の探索範囲内のブロックと、他方の探索範囲内のブロックとの間で相関性の最も高いブロックを求める。ここで、探索範囲は、動きベクトルを探索するための範囲である。また、相関性の高さは、例えば、画素値の差分絶対値の総和を算出するSAD(Sum of Absolute Difference estimation)処理により求められる。なお、相関性の高さは、画素値の差分絶対値が所定の差分閾値以下となる画素数を計数するMPC(Maximum matching Pixel Count)処理により求めてもよい。
移動体検出部220は、探索範囲内で相関性が最も高い2つのブロックの一方から他方へのベクトルを動きベクトルとして検出する。そして、移動体検出部220は、動きベクトルの示す動き量が所定の閾値を越えるブロックからなる領域を移動体の領域として検出する。
なお、移動体検出部220は、求めた動きベクトルを、そのまま移動ベクトルとして後部領域検出部240および平滑化処理部250に供給してもよい。
[第2の変形例]
第1の実施の形態では、画像処理装置200は、後部領域を移動方向に沿って平滑化していたが、さらに移動方向に沿った線分を強調する処理を行ってもよい。第2の変形例の画像処理装置200は、後部領域において、移動方向に沿った線分を強調する点において、第1の実施の形態と異なる。
図13は、第1の実施の形態の第2の変形例における画像処理装置200の一構成例を示すブロック図である。第2の変形例の画像処理装置200は、エッジ強調処理部260をさらに備える点において第1の実施の形態と異なる。
エッジ強調処理部260は、後部領域において、移動方向に沿った線分を強調するものである。エッジ強調処理部260には、平滑化処理部250により平滑化処理が行われた画像データと、移動体領域データと、移動ベクトルとが入力される。エッジ強調処理部260は、画像データ内の後部領域において、ハイパスフィルタなどを使用して、移動ベクトルと垂直な方向にエッジを強調する処理を行う。移動方向に対して90度方向のエッジを強調することにより、相対的に、移動方向に沿った線分が強調される。エッジ強調処理部260は、エッジを強調した画像データを出力画像データとして出力する。なお、エッジ強調処理部260は、特許請求の範囲に記載の強調処理部の一例である。
図14は、第2の変形例における出力画像データの一例を示す図である。図14におけるaは、平滑化処理前の入力画像データにおける移動体の一部を示す図である。図14におけるaに示すように、白黒のチェッカーパターンを有する移動体が検出されたものとする。図14において、点線で囲まれた領域は、移動体の後部領域である。
図14におけるbは、平滑化処理後の入力画像データにおける移動体の一部を示す図である。図14におけるbに示すように、後部領域が平滑化される。図14におけるcは、エッジ強調後の入力画像データにおける移動体の一部を示す図である。図14におけるcに示すように、後部領域において、移動ベクトルに対して垂直な方向にエッジが強調される。この結果、移動ベクトルに水平な方向に伸びる線分が強調される。このため、相対的に、移動方向に対して、より平滑化された感じを与えることができる。
[第3の変形例]
第1の実施の形態では、画像処理装置200は、移動体および移動ベクトルを検出していたが、画像処理装置200は必ずしも移動体および移動ベクトルを検出する必要はない。第4の変形例の画像処理装置200は、装置自身が移動体および移動ベクトルを検出しない点において第1の実施の形態と異なる。
図15は、第1の実施の形態の第3の変形例における画像処理装置200の一構成例を示すブロック図である。第3の変形例の画像処理装置200は、移動体検出部220および移動ベクトル検出部230の代わりに移動体取得部225および移動ベクトル取得部235を備える点において第1の実施の形態と異なる。
第3の変形例の画像処理装置200には、入力画像データに加えて、移動体領域データおよび移動ベクトルが入力される。例えば、ユーザが、移動体の領域と移動ベクトルとを手作業により求めて情報処理装置100に入力する。移動体取得部225は、入力された移動体の領域を取得して後部領域検出部240に供給するものである。移動ベクトル取得部235は、入力された移動ベクトルを取得して後部領域検出部240および平滑化処理部250に供給するものである。なお、移動体および移動ベクトルの一方のみをユーザが入力し、他方を画像処理装置200が検出する構成としてもよい。
[第4の変形例]
第1の実施の形態では、画像処理装置200は、後部領域において平滑化を行っていたが、平滑化処理以外の画像処理を実行してもよい。例えば、後部領域を所定の色により塗り潰す処理を実行してもよい。第4の変形例の画像処理装置200は、後部領域を所定の色により塗り潰す点において第1の実施の形態と異なる。
図16は、第1の実施の形態の第4の変形例における画像処理装置200の一構成例を示すブロック図である。第4の変形例の画像処理装置200は、平滑化処理部250の代わりに後部領域処理部255を備える点において第1の実施の形態と異なる。この後部領域処理部255は、式1および式2の代わりに、次の式6または式7により、平滑化処理後の画素値P0'を求める。
P0'=0 ・・・式6
P0'=255 ・・・式7
式6において0は、8ビットにより表わされる画素値の最小値を示す値であり、式7において255は、画素値の最大値を示す値である。
<2.第2の実施の形態>
[画像処理装置の構成例]
図17は、第2の実施の形態における画像処理装置200の一構成例を示すブロック図である。第2の画像処理装置200は、1個の入力画像データにおいて、異なる複数の後部領域を検出し、それぞれの後部領域を平滑化する点において第1の実施の形態と異なる。
第2の実施の形態の移動体検出部220は、移動体領域データM0乃至Mn-1の代わりに、それらのうちの移動体領域データMtおよびMt-1のみを生成する点において、第1の実施の形態と異なる。移動体検出部220は、移動体領域データMtおよびMt-1を移動ベクトル検出部230に出力し、移動体領域データMtを後部領域検出部240に出力する。
移動ベクトル検出部230は、移動ベクトルM1乃至Mn-1の代わりに、1個の移動ベクトルVtのみを検出する点において第1の実施の形態と異なる。
後部領域検出部240は、移動体領域データMtおよび移動ベクトルVtから、移動体において複数の後部領域を検出する点において第1の実施の形態と異なる。後部領域検出部240は、それらの後部領域を示す後部領域データB0乃至m-1(mは、2以上の整数)を生成して平滑化処理部250へ出力する。
平滑化処理部250は、入力画像データItと後部領域データB0乃至Bm-1と移動ベクトルVtとから、入力画像データItにおいて、複数の後部領域に平滑化処理を実行する点において第1の実施の形態と異なる。平滑化処理部250は、平滑化処理の実行結果である出力画像データO0乃至Om-1を出力する。ここで、m個の後部領域についての平滑化処理において、平滑化の度合いKの値には、同じ値が設定されるものとする。なお、平滑化処理部250は、後部領域のそれぞれについて、異なる度合いの平滑化を行ってもよい。
図18は、第2の実施の形態における後部領域検出部240の一構成例を示すブロック図である。第2の実施の形態の後部領域検出部240は、後部位置変更部244をさらに備える点において第1の実施の形態と異なる。
第2の実施の形態の拡大部241は、n−1個の拡大領域データの代わりに1個の拡大領域データWtを生成する点において第1の実施の形態と異なる。第2の実施の形態の移動体位置変更部242は、n−1個のマスク領域データの代わりに1個のマスク領域データWt'を生成する点において第1の実施の形態と異なる。第2の実施の形態のマスク処理部243は、n−1個の後部領域データの代わりに1個の後部領域データBtを生成する点において第1の実施の形態と異なる。
後部位置変更部244は、後部領域データBtの位置を移動方向に沿って変更するものである。後部位置変更部244は、移動方向において、互いに位置の異なる複数の後部領域データを生成して、それらを後部領域データB0乃至Bm-1として出力する。
図19は、第2の実施の形態における後部領域データの一例を示す図である。図19におけるaは、第1の実施の形態と同様に、マスク処理により生成された後部領域データB0である。ただし、図19におけるaでは、拡大された領域の移動方向の量を表わすγには、例えば、「1」が設定されている。
図19におけるbは、後部位置変更部244が、後部領域データB0における後部領域の位置を移動方向へ、例えば、|V1|/2だけ変更した後部領域データB1である。図19におけるcは、後部位置変更部244が、後部領域データB1における後部領域の位置を移動方向へ、例えば、|V1|/2だけ変更した後部領域データB2である。なお、後部領域検出部240は、複数の後部領域のうちのいずれか1つを検出して1つの後部領域データを出力してもよい。この場合にはmに「1」が設定される。ただし、m=1の場合、最初の後部領域データBのみを出力すると第1の実施の形態と同様の結果となる。m=1の場合は、後部領域検出部240が後部領域データBと異なる後部領域データ(例えば、図19におけるbのB)を出力することにより、第1の実施の形態の場合とは異なる後部領域が平滑化され、異なる結果が得られる。
図20は、第2の実施の形態における移動体の後部の一例を示す図である。図20におけるa乃至cは、図19におけるa乃至cに例示した後部領域データB0乃至B3により特定される移動体の後部である。図20におけるaにおいては、後部領域データB0乃至B3における後部領域のうち、最も後方に位置する領域が後部領域として検出されている。図20のbにおいては、図20におけるaの後部領域の前方に位置する領域が後部領域として検出されている。図20におけるcでは、図20におけるbの後部領域のさらに前方に位置する領域が後部領域として検出されている。このように、マスク処理により求められた後部領域の位置を後部位置変更部244が移動方向に沿って変更することにより、1個の移動体において、互いに異なる複数の後部領域が検出される。
図21は、第2の実施の形態における出力画像データの一例を示す図である。図21におけるa乃至cは、1つの入力画像データに対して、図19におけるa乃至cに例示した後部領域をそれぞれ平滑化した画像データである。これらの画像データにおいては、平滑化される領域が互いに異なるため、これらを連続してリピート再生すると、後部が後方に流れていくように見える。これにより、移動体のスピード感が強調される。
このように、本技術の第2の実施の形態によれば、画像処理装置200は、異なる複数の後部領域のそれぞれについての平滑化処理の実行により、異なる後部領域が平滑化された複数の画像からなる動画を生成することができる。これにより、後部領域が流れているように見える、躍動感のある動画が得られる。
[変形例]
第2の実施の形態では、画像処理装置200は、移動平均フィルタを使用して平滑化を行っていたが、ローパスフィルタを使用して平滑化を行ってもよい。変形例の画像処理装置200は、ローパスフィルタを使用して平滑化を行う点により、第2の実施の形態と異なる。
具体的には、変形例の平滑化処理部250は、移動ベクトルVtの逆方向に進む波を表す三角関数の値に比例した通過帯域を有するローパスフィルタにより平滑化を行う。すなわち、より具体的には、以下の処理を行う。「移動ベクトルVtの逆方向に進む波を表す三角関数」をS(t1,x1,y1)とする。ここで、関数Sは、時刻t1、位置(x1,y1)における波の値が、S(t1,x1,y1)となる関数である。関数Sは、たとえば、次の式により表わされる。
Figure 2013150829
ここで、Kは比例定数であり、式中の「・」は内積を表す。また、Qは、出力画像データにおける(x1,y1)の座標である。なお、移動方向に沿った方向における後部領域の画素の画素値の分布を表す周期関数であれば、平滑化処理部250は、式5に例示した三角関数以外の関数を用いてもよい。
平滑化処理部250では、出力画像データO(tは、0以上m−1以下)を作成するにあたり、後部領域データBで指定された後部領域内にある入力画像データIの各画素に対してローパスフィルタをかける。具体的には、Itの各画素の画素位置を(x2,y2)として、S(t,x2,y2)に比例した通過帯域を有するローパスフィルタをかける。このように平滑化した出力画像データO〜Om−1を連続してリピート再生することで、移動ベクトルVの逆方向に進む波を、後部領域において鑑賞者は感じることができ、よりスピード感が強調される。
図22は、第2の実施の形態の変形例における関数Sの軌跡の一例を示す図である。図21において、横軸は移動ベクトルに沿った画素の座標であり、縦軸は、ある時刻における関数Sの軌跡である。図22におけるaは、t=0における関数Sの軌跡であり、bはt=1における関数Sの軌跡である。また、21におけるcは、t=1における関数Sの軌跡であり、dはt=m−1における関数Sの軌跡である。
図22に例示するように、関数Sで表される波は、時刻tが0からm−1へと変化すると、移動ベクトルとは逆の方向に進む。さらに、周期がmなので、m−1から0へと戻るようにして繰り返すと、常に、途切れることがなく、移動ベクトルとは逆の方向に進む波となる。そして、画像処理装置200は、関数Sの振幅に応じた広さの通過帯域を有するローパスフィルタを入力画像データItの画素に施す。具体的には、画像処理装置200は、関数Sの振幅が大きい場合には、通過帯域の広いローパスフィルタを入力画像データItの画素に施す(言い換えれば、あまり平滑化しない)。一方、関数Sの振幅が小さい場合には、通過帯域の狭いローパスフィルタを入力画像データItの画素に施す(言い換えれば、かなり平滑化する)。このようなローパスフィルタを施した出力画像データO〜Om−1を連続してリピート再生すると、関数Sの振幅に応じた度合いで平滑化されたパターンが、後ろの方向へと流れていくことになり、よりスピード感が強調される。
<3.第3の実施の形態>
[画像処理装置の構成例]
図23は、第3の実施の形態における画像処理装置200の一構成例を示すブロック図である。第1の実施の形態では、画像処理装置200は、入力画像データの撮影において、撮影者が撮像機器を動かさずに撮影したものと想定して移動体の検出を行っている。しかしながら、撮影において、撮影者が撮像機器自体を動かしながら撮影することがある。例えば、図24に例示するように、移動体の移動に追従して、撮影者が撮像機器を移動方向へ動かす(パンする)ことがある。撮像機器を動かす速度によっては、画面内で見かけ上、移動体が移動しない一方で、静止物体が移動する動画データが撮像されることがある。このような動画データに対して、第1の実施の形態に例示した移動体の検出方法をそのまま適用すると、移動体でない物体が誤って移動体として検出されてしまうことがある。
移動体の誤検出を抑制するために、第3の実施の形態の画像処理装置200は、入力画像データにおいて、撮像機器が動かされたことによる、入力画像データ間の位置ずれを補正してから、移動体を検出する点において第1の実施の形態と異なる。具体的には、図23に示すように、第3の実施の形態の画像処理装置200は、位置合わせ処理部210をさらに備える点において、第1の実施の形態と異なる。
位置合わせ処理部210は、入力画像データ間の位置合わせ処理を実行するものである。具体的には、入力画像データの位置合わせを行うための「位置補正パラメータC乃至Cn-1」を計算する処理と、該「位置補正パラメータC乃至Cn-1」により入力画像データI1乃至In-1の座標系にオフセットを加える処理の2つの処理が行われる。
図25は、第3の実施の形態における位置合わせ処理部210の一構成例を示すブロック図である。この位置合わせ処理部210は、位置補正パラメータ算出部211と、入力画像位置補正部212を備える。
位置補正パラメータ算出部211は、入力画像データI0および入力画像データI1乃至In-1を入力とする。そして、入力画像データの位置合わせを行うための「位置補正パラメータC乃至Cn-1」を算出するものである。「位置補正パラメータCt」とは、入力画像データItが、入力画像データI0に対して、どのような位置関係にあるかを示すデータである。すなわち、入力画像データItの2次元座標系を、位置補正パラメータCtで示される量だけオフセットした座標系を考えると、この「オフセットされた座標系における任意の位置(座標値)における入力画像データItに投影されている被写体」は、入力画像データI0の同じ位置(座標値)に投影されていることになる。
なお、より具体的には、例えば、「位置補正パラメータCt」とは、X方向のオフセット値(スカラー値)とY方向のオフセット値(スカラー値)の2つのスカラー値よりなるデータである。
このような「位置補正パラメータCt」は、入力画像データItと、入力画像データI0の2枚の画像間でのマッチング計算により求めることができる。マッチング計算は、従来から知られている技術であり、その詳細説明を省略する。
すなわち、位置補正パラメータ算出部211は、t=1乃至n−1に対して、入力画像データI0と入力画像データItの画像のマッチング処理を行い、2つの画像のずれ量を求める事を行う。そして、このずれ量を、「位置補正パラメータCt」として出力する。
なお、マッチング計算においては、例えば、位相限定相関法が用いられる。この位相限定相関法では、位置補正パラメータ算出部211は、比較する画像をフーリエ変換し、フーリエ変換した結果から、両画像のクロスパワースペクトルを求め、そのクロスパワースペクトルを逆フーリエ変換する。この逆フーリエ変換により、あるx,yの値において急峻になるx,yの関数が得られる。この急峻になるときのx,yの値だけ対象画像の位置をx,y方向にずらすと、対象画像が基準画像とよく一致するようになるため、位置補正パラメータ算出部211は、それらの値を位置補正パラメータとする。この位相限定相関法は、「B. Srinivasa Reddy and B. N. Chatterji, An FFT-Based Technique for Translation, Rotation, and Scale-Invariant Image Registration, IEEE TRANSACTIONS ON IMAGE PROCESSING 1996.」などに記載されているように、位置合わせ処理においてよく用いられる手法である。
入力画像位置補正部212では、入力画像データI1乃至In-1の座標系にオフセットを加えて新たな座標系上の画像とする処理を行う。
このオフセットを加える処理により、入力画像データI0乃至In-1のそれぞれについて、同じ位置(座標値)には、同じ被写体が投影されていることになる。すなわち、あたかも、撮影者が撮像機器を動かさずに撮影した画像と考えることができる。つまり、図25の入力画像に対して、オフセットを加えることで、図26に示す入力画像とすることができる。
図26は、第3の実施の形態における入力画像データの一例を示す図である。図26におけるaは、時系列において最初の入力画像データI0であり、図26におけるb乃至dは、2乃至4個目の入力画像データI1乃至I3である。図26におけるb乃至dにおいて自動車と、その背景の物体が撮影されており、撮像者のパン操作により、背景の物体は水平方向に移動している。一方、自動車の移動方向は、パンの方向と同じ方向であるため、フレーム間で位置があまり変化しない場合がある。
図27は、第3の実施の形態における位置をオフセットにより補正した画像データの一例を示す図である。図27におけるaは、時系列において最初の入力画像データI0であり、基準画像として用いられる。図27におけるbは、基準画像と共通の領域が重なるように位置補正パラメータC1を使用して位置をオフセット補正した2個目の入力画像データI1である。図27におけるcおよびdは、それぞれ、基準画像と共通の領域が重なるように位置補正パラメータC2およびC3を使用して位置をオフセット補正した3個目および4個目の入力画像データI2、3である。図26に例示するように位置をオフセット補正することにより、画像処理装置200は、移動体を確実に検出することができる。
このオフセットされた座標系による入力画像データI0乃至In-1について、本発明の第1の実施の形態と同じ処理(図23の220以降)を施すことで、本発明の第1の実施の形態の結果と同様な「移動体のスピード感が強調された躍動感のある画像」が得られる。さらに、第3の実施の形態においては、本発明の第1の実施の形態にはない処理を追加することにより、さらなる「スピード感が強調された躍動感のある画像」が得られる。これについて、以下に説明する。
本発明の第3の実施の形態(図23)は、本発明の第1の実施の形態(図2)に対して、位置合わせ処理部210が追加されたほか、位置合わせ処理部210に入力されるデータが異なる。具体的には、位置合わせ処理部210で求まった「位置補正パラメータC乃至Cn-1」の情報、および、移動体検出部220で抽出された移動体領域データM0乃至Mn-1が平滑化処理部250に入力されている点が異なる。
図27は、第3の実施の形態における平滑化処理部250の一構成例を示すブロック図である。この平滑化処理部250は、後部領域平滑化処理部251および背景領域平滑化処理部252を備える。
後部領域平滑化処理部251は、移動速度に応じて後部領域について平滑化処理を実行するものである。後部領域平滑化処理部251は、平滑化処理を実行した入力画像データを背景領域平滑化処理部252に供給する。
背景領域平滑化処理部252は、位置補正パラメータの示す補正量に応じて、背景の領域について、補正方向に沿って平滑化処理を実行するものである。具体的には、背景領域平滑化処理部252は、後部領域が平滑化された入力画像データにおいて、移動体領域データに基づいて、移動体の領域以外の背景の領域を抽出する。そして、背景領域平滑化処理部252は、位置補正パラメータから補正ベクトルの大きさ(補正量)を算出する。より具体的には、連続する2つの位置補正パラメータCtとCt-1の差分より入力画像データItを撮影したときのパンの大きさを求め、その値を補正量とする。なお、C0は0とする。背景領域平滑化処理部252は、補正量×α'を平滑化の度合いKとして、補正ベクトルの方向に沿って、背景の領域について平滑化処理を実行する。ここで、係数α'の値は、後部領域を平滑化する場合に設定される係数α(例えば、「1」)と比較して小さい値(例えば、「1/10」)とするのが望ましい。背景領域平滑化処理部252は、平滑化処理を実行した画像データを出力画像データとして出力する。
図29は、第3の実施の形態における出力画像データの一例を示す図である。図29におけるaは、後部領域について移動方向に沿って平滑化処理を実行した結果である入力画像データI1'の一例である。図29におけるbは、移動体の背景について、補正方向(パンの方向)に沿って平滑化処理を実行した結果である出力画像データO1の一例である。図28におけるbに例示したように、移動体の後部領域が移動方向に沿って平滑化され、背景がパンの方向に沿って平滑化されるため、移動体の躍動感が強調された画像となる。
このように、本技術の第3の実施の形態によれば、画像処理装置200は、基準画像と対象画像とにおいて共通の領域が重なるように基準画像の位置に前記対象画像の位置を合わせてから、移動体の領域を検出することができる。これにより、撮像機器が動かされた場合においても、移動体の領域が確実に検出される。そして、さらに、位置補正パラメータからカメラのパン方向がわかり、その方向に沿って「移動体の領域以外の背景の領域」に対して微少な平滑化を施すことで、いわゆる流し撮り効果を持たせることができる。この流し撮り効果により、さらなる「スピード感が強調された躍動感のある画像」が得られる。
なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。
また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disk)、メモリカード、ブルーレイディスク(Blu-ray Disc(登録商標))等を用いることができる。
なお、本技術は以下のような構成もとることができる。
(1)時系列に沿って連続する複数の画像のうちの少なくとも1つの画像である対象画像において移動体の領域を取得する移動体取得部と、
前記移動体の移動方向を取得する移動方向取得部と、
前記移動体の領域において前記移動方向に対して後方の部分の領域を後部領域として検出する後部領域検出部と、
前記後部領域において所定の画像処理を実行する後部領域処理部と
を具備する画像処理装置。
(2)前記移動体取得部は、前記対象画像において前記移動体の領域を検出する
前記(1)記載の画像処理装置。
(3)前記対象画像は複数の所定形状のブロックを含み、
前記移動体取得部は、ブロックマッチングアルゴリズムを使用して前記ブロック毎に当該ブロックの動き量を求めて当該動き量が所定の閾値を超えるブロックからなる領域を前記移動体の領域として検出する
前記(2)記載の画像処理装置。
(4)前記移動体取得部は、前記複数の画像のうち前記対象画像の1つ前の画像である基準画像において前記移動体の領域をさらに取得し、
前記移動方向取得部は、前記基準画像における前記移動体の領域内の特定の座標から前記対象画像における前記移動体の領域内の特定の座標への方向を前記移動方向として検出する
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(5)前記後部領域検出部は、前記対象画像内で前記移動方向に位置を変更した前記後方の部分の輪郭線と前記変更前の前記輪郭線とに囲まれる領域を前記後部領域として検出する
前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6)前記後部領域検出部は、前記対象画像内で前記移動方向に位置を変更した前記移動体の領域をマスク領域として前記変更前の前記移動体の領域においてマスクすることにより生成された領域を前記後部領域として検出する
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(7)前記後部領域検出部は、
前記移動体の移動速度を検出する移動速度検出部と、
前記移動速度に応じた変更量に従って前記位置を変更した前記移動体の領域を前記マスク領域として前記マスクを行うマスク処理部と
を備える前記(6)記載の画像処理装置。
(8)前記後部領域検出部は、前記対象画像において前記移動体の領域を前記移動方向に拡大する拡大部をさらに備え、
前記マスク処理部は、前記拡大部により拡大された前記移動体の領域である拡大領域の位置を前記移動方向に変更した領域を前記マスク領域として前記変更前の前記拡大領域において前記マスクを行う
前記(7)記載の画像処理装置。
(9)前記所定の画像処理は、前記移動方向に沿った平滑化処理である
前記(1)乃至(8)のいずれかに記載の画像処理装置。
(10)前記後部領域処理部は、前記後部領域について前記移動方向に沿って前記移動速度に応じた度合いの前記平滑化処理を実行する
前記(9)記載の画像処理装置。
(11)前記拡大部は、前記移動体の領域を前記移動速度に応じて前記移動方向に拡大する
前記(9)または(10)記載の画像処理装置。
(12)前記後部領域処理部は、前記移動方向に沿った方向における前記後部領域内の画素値の分布を表す周期関数の振幅に応じた広さの通過帯域を有するローパスフィルタを使用して前記平滑化処理を実行する
前記(9)乃至(11)のいずれかに記載の画像処理装置。
(13)前記対象画像は、前記複数の画像のうちのいずれか1つの画像であり、
前記後部領域検出部は、前記移動体の後方の部分において複数の前記後部領域を検出し、
前記後部領域処理部は、複数の前記後部領域について前記所定の画像処理を実行した複数の画像を生成する
前記(1)乃至(12)のいずれかに記載の画像処理装置。
(14)前記対象画像の1つ前の画像である基準画像と前記対象画像とにおいて共通の領域が重なるように前記基準画像の位置に前記対象画像の位置を合わせる位置合わせ処理部をさらに備え、
前記移動体検出部は、前記位置を合わせた前記対象画像において前記移動体を検出する
前記(1)乃至(13)のいずれかに記載の画像処理装置。
(15)前記平滑化処理部は、前記対象画像における前記移動体以外の領域について前記移動方向に沿って前記後部領域とは異なる度合いの平滑化処理をさらに実行する
前記(1)乃至(14)のいずれかに記載の画像処理装置。
(16)前記後部領域に含まれる線分のうち前記移動方向に沿った線分を強調する強調処理部をさらに具備する
前記(1)乃至(15)のいずれかに記載の画像処理装置。
(17)前記所定の画像処理は、前記後部領域を所定の色により塗り潰す処理である
前記(1)乃至(16)のいずれかに記載の画像処理装置。
(18)時系列に沿って連続する複数の画像のうちの少なくとも1つの画像である対象画像において移動体の領域を取得する移動体取得ステップと、
前記移動体の移動方向を取得する移動方向取得ステップと、
前記移動体の領域において前記移動方向に対して後方の部分の領域を後部領域として検出する後部領域検出ステップと、
前記後部領域において所定の画像処理を実行する後部領域処理ステップと
を具備する画像処理装置の制御方法。
(19)時系列に沿って連続する複数の画像のうちの少なくとも1つの画像である対象画像において移動体の領域を取得する移動体取得ステップと、
前記移動体の移動方向を取得する移動方向取得ステップと、
前記移動体の領域において前記移動方向に対して後方の部分の領域を後部領域として検出する後部領域検出ステップと、
前記後部領域において所定の画像処理を実行する後部領域処理ステップと
をコンピュータに実行させるためのプログラム。
100 情報処理装置
110 撮像部
120 制御部
130 表示部
140 入出力インターフェース
150 動画データ記憶部
160 バス
200 画像処理装置
210 位置合わせ処理部
211 位置補正パラメータ算出部
212 入力画像位置補正部
220 移動体検出部
221 画素選択部
222 背景基準値算出部
223 移動体領域抽出部
225 移動体取得部
230 移動ベクトル検出部
231 重心座標演算部
232 移動ベクトル演算部
235 移動ベクトル取得部
240 後部領域検出部
241 拡大部
242 移動体位置変更部
243 マスク処理部
244 後部位置変更部
250 平滑化処理部
251 後部領域平滑化処理部
252 背景領域平滑化処理部
255 後部領域処理部
260 エッジ強調処理部

Claims (19)

  1. 時系列に沿って連続する複数の画像のうちの少なくとも1つの画像である対象画像において移動体の領域を取得する移動体取得部と、
    前記移動体の移動方向を取得する移動方向取得部と、
    前記移動体の領域において前記移動方向に対して後方の部分の領域を後部領域として検出する後部領域検出部と、
    前記後部領域において所定の画像処理を実行する後部領域処理部と
    を具備する画像処理装置。
  2. 前記移動体取得部は、前記対象画像において前記移動体の領域を検出する
    請求項1記載の画像処理装置。
  3. 前記対象画像は複数の所定形状のブロックを含み、
    前記移動体取得部は、ブロックマッチングアルゴリズムを使用して前記ブロック毎に当該ブロックの動き量を求めて当該動き量が所定の閾値を超えるブロックからなる領域を前記移動体の領域として検出する
    請求項2記載の画像処理装置。
  4. 前記移動体取得部は、前記複数の画像のうち前記対象画像の1つ前の画像である基準画像において前記移動体の領域をさらに取得し、
    前記移動方向取得部は、前記基準画像における前記移動体の領域内の特定の座標から前記対象画像における前記移動体の領域内の特定の座標への方向を前記移動方向として検出する
    請求項1記載の画像処理装置。
  5. 前記後部領域検出部は、前記対象画像内で前記移動方向に位置を変更した前記後方の部分の輪郭線と前記変更前の前記輪郭線とに囲まれる領域を前記後部領域として検出する
    請求項1記載の画像処理装置。
  6. 前記後部領域検出部は、前記対象画像内で前記移動方向に位置を変更した前記移動体の領域をマスク領域として前記変更前の前記移動体の領域においてマスクすることにより生成された領域を前記後部領域として検出する
    請求項1記載の画像処理装置。
  7. 前記後部領域検出部は、
    前記移動体の移動速度を検出する移動速度検出部と、
    前記移動速度に応じた変更量に従って前記位置を変更した前記移動体の領域を前記マスク領域として前記マスクを行うマスク処理部と
    を備える請求項6記載の画像処理装置。
  8. 前記後部領域検出部は、前記対象画像において前記移動体の領域を前記移動方向に拡大する拡大部をさらに備え、
    前記マスク処理部は、前記拡大部により拡大された前記移動体の領域である拡大領域の位置を前記移動方向に変更した領域を前記マスク領域として前記変更前の前記拡大領域において前記マスクを行う
    請求項7記載の画像処理装置。
  9. 前記所定の画像処理は、前記移動方向に沿った平滑化処理である
    請求項8記載の画像処理装置。
  10. 前記後部領域処理部は、前記後部領域について前記移動方向に沿って前記移動速度に応じた度合いの前記平滑化処理を実行する
    請求項9記載の画像処理装置。
  11. 前記拡大部は、前記移動体の領域を前記移動速度に応じて前記移動方向に拡大する
    請求項9記載の画像処理装置。
  12. 前記後部領域処理部は、前記移動方向に沿った方向における前記後部領域内の画素値の分布を表す周期関数の振幅に応じた広さの通過帯域を有するローパスフィルタを使用して前記平滑化処理を実行する
    請求項9記載の画像処理装置。
  13. 前記対象画像は、前記複数の画像のうちのいずれか1つの画像であり、
    前記後部領域検出部は、前記移動体の後方の部分において複数の前記後部領域を検出し、
    前記後部領域処理部は、複数の前記後部領域について前記所定の画像処理を実行した複数の画像を生成する
    請求項1記載の画像処理装置。
  14. 前記対象画像の1つ前の画像である基準画像と前記対象画像とにおいて共通の領域が重なるように前記基準画像の位置に前記対象画像の位置を合わせる位置合わせ処理部をさらに備え、
    前記移動体検出部は、前記位置を合わせた前記対象画像において前記移動体を検出する
    請求項1記載の画像処理装置。
  15. 前記平滑化処理部は、前記対象画像における前記移動体以外の領域について前記移動方向に沿って前記後部領域とは異なる度合いの平滑化処理をさらに実行する
    請求項1記載の画像処理装置。
  16. 前記後部領域に含まれる線分のうち前記移動方向に沿った線分を強調する強調処理部をさらに具備する
    請求項1記載の画像処理装置。
  17. 前記所定の画像処理は、前記後部領域を所定の色により塗り潰す処理である
    請求項1記載の画像処理装置。
  18. 時系列に沿って連続する複数の画像のうちの少なくとも1つの画像である対象画像において移動体の領域を取得する移動体取得ステップと、
    前記移動体の移動方向を取得する移動方向取得ステップと、
    前記移動体の領域において前記移動方向に対して後方の部分の領域を後部領域として検出する後部領域検出ステップと、
    前記後部領域において所定の画像処理を実行する後部領域処理ステップと
    を具備する画像処理装置の制御方法。
  19. 時系列に沿って連続する複数の画像のうちの少なくとも1つの画像である対象画像において移動体の領域を取得する移動体取得ステップと、
    前記移動体の移動方向を取得する移動方向取得ステップと、
    前記移動体の領域において前記移動方向に対して後方の部分の領域を後部領域として検出する後部領域検出ステップと、
    前記後部領域において所定の画像処理を実行する後部領域処理ステップと
    をコンピュータに実行させるためのプログラム。
JP2014509075A 2012-04-03 2013-02-22 画像処理装置、画像処理装置の制御方法およびプログラム Expired - Fee Related JP5983737B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2012084964 2012-04-03
JP2012084964 2012-04-03
JP2013000990 2013-01-08
JP2013000990 2013-01-08
PCT/JP2013/054557 WO2013150829A1 (ja) 2012-04-03 2013-02-22 画像処理装置、画像処理装置の制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2013150829A1 true JPWO2013150829A1 (ja) 2015-12-17
JP5983737B2 JP5983737B2 (ja) 2016-09-06

Family

ID=49300329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014509075A Expired - Fee Related JP5983737B2 (ja) 2012-04-03 2013-02-22 画像処理装置、画像処理装置の制御方法およびプログラム

Country Status (5)

Country Link
US (1) US9361703B2 (ja)
JP (1) JP5983737B2 (ja)
CN (1) CN104205803A (ja)
BR (1) BR112014024049A8 (ja)
WO (1) WO2013150829A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017158065A (ja) * 2016-03-02 2017-09-07 株式会社リコー 情報処理装置、情報処理方法、及びプログラム

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9432575B2 (en) * 2013-06-28 2016-08-30 Canon Kabushiki Kaisha Image processing apparatus
JP6318547B2 (ja) * 2013-10-28 2018-05-09 株式会社ニコン 画像処理装置、撮像装置および画像処理プログラム
KR102180466B1 (ko) * 2013-12-19 2020-11-18 삼성메디슨 주식회사 대상체의 측정값과 관련된 부가 정보를 디스플레이하기 위한 방법 및 장치
JP6577703B2 (ja) * 2014-08-05 2019-09-18 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
US9390487B2 (en) * 2014-10-20 2016-07-12 Microsoft Technology Licensing, Llc Scene exposure auto-compensation for differential image comparisons
US9704272B2 (en) * 2014-11-21 2017-07-11 Microsoft Technology Licensing, Llc Motion blur using cached texture space blur
US10697766B1 (en) * 2014-11-25 2020-06-30 Hunter Engineering Company Method and apparatus for compensating vehicle inspection system measurements for effects of vehicle motion
US9591237B2 (en) * 2015-04-10 2017-03-07 Qualcomm Incorporated Automated generation of panning shots
US9584716B2 (en) * 2015-07-01 2017-02-28 Sony Corporation Method and apparatus for autofocus area selection by detection of moving objects
TWI554108B (zh) * 2015-08-04 2016-10-11 緯創資通股份有限公司 電子裝置及影像處理方法
JP2017049783A (ja) * 2015-09-01 2017-03-09 キヤノン株式会社 画像処理装置及び画像処理方法
KR102474837B1 (ko) * 2015-09-14 2022-12-07 주식회사 한화 전경 추출 방법 및 장치
JP6604908B2 (ja) * 2016-06-10 2019-11-13 キヤノン株式会社 画像処理装置、その制御方法、および制御プログラム
JP2018146663A (ja) * 2017-03-02 2018-09-20 キヤノン株式会社 像ブレ補正装置およびその制御方法、撮像装置、レンズ装置
JP2019117547A (ja) * 2017-12-27 2019-07-18 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN109064427A (zh) * 2018-08-01 2018-12-21 京东方科技集团股份有限公司 增强图像对比度的方法、装置、显示设备和存储介质
JP7290961B2 (ja) * 2019-03-11 2023-06-14 セコム株式会社 画像処理装置及び画像処理プログラム
US11838658B2 (en) * 2020-04-01 2023-12-05 Canon Kabushiki Kaisha Imaging device controlling correction of subject blur and control method for imaging device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187478A (ja) * 1998-12-24 2000-07-04 Casio Comput Co Ltd 画像処理装置及び画像処理方法
JP2006050070A (ja) * 2004-08-02 2006-02-16 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
CN1750601A (zh) * 2004-09-17 2006-03-22 佳能株式会社 图像传感设备和及其控制方法
JP2010273183A (ja) * 2009-05-22 2010-12-02 Nikon Corp 撮像装置
WO2011074049A1 (ja) * 2009-12-18 2011-06-23 富士通株式会社 画像選別装置及び画像選別方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3639476B2 (ja) * 1999-10-06 2005-04-20 シャープ株式会社 画像処理装置および画像処理方法ならびに画像処理プログラムを記録した記録媒体
JP2003037767A (ja) 2001-07-24 2003-02-07 Minolta Co Ltd デジタルカメラ
JP4924727B2 (ja) 2010-02-16 2012-04-25 カシオ計算機株式会社 画像処理装置及び画像処理プログラム
JP2011182213A (ja) 2010-03-02 2011-09-15 Casio Computer Co Ltd 撮像装置及び撮像装置の制御プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187478A (ja) * 1998-12-24 2000-07-04 Casio Comput Co Ltd 画像処理装置及び画像処理方法
JP2006050070A (ja) * 2004-08-02 2006-02-16 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
CN1750601A (zh) * 2004-09-17 2006-03-22 佳能株式会社 图像传感设备和及其控制方法
US20060062433A1 (en) * 2004-09-17 2006-03-23 Canon Kabushiki Kaisha Image sensing apparatus and control method thereof
JP2006086933A (ja) * 2004-09-17 2006-03-30 Canon Inc 撮像装置及び制御方法
JP2010273183A (ja) * 2009-05-22 2010-12-02 Nikon Corp 撮像装置
WO2011074049A1 (ja) * 2009-12-18 2011-06-23 富士通株式会社 画像選別装置及び画像選別方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017158065A (ja) * 2016-03-02 2017-09-07 株式会社リコー 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
JP5983737B2 (ja) 2016-09-06
BR112014024049A2 (ja) 2017-06-20
BR112014024049A8 (pt) 2017-07-25
CN104205803A (zh) 2014-12-10
US20150043786A1 (en) 2015-02-12
WO2013150829A1 (ja) 2013-10-10
US9361703B2 (en) 2016-06-07

Similar Documents

Publication Publication Date Title
JP5983737B2 (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
Guilluy et al. Video stabilization: Overview, challenges and perspectives
Cho et al. Video deblurring for hand-held cameras using patch-based synthesis
Goldstein et al. Video stabilization using epipolar geometry
JP4947060B2 (ja) 画像合成装置、画像合成方法、プログラム
US10957068B2 (en) Information processing apparatus and method of controlling the same
JP3935500B2 (ja) 動きベクトル演算方法とこの方法を用いた手ぶれ補正装置、撮像装置、並びに動画生成装置
KR102563750B1 (ko) 영상 블러링 제거 방법 및 장치
US10818018B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
EP3281400A1 (en) Automated generation of panning shots
WO2010024479A1 (en) Apparatus and method for converting 2d image signals into 3d image signals
US9727984B2 (en) Electronic device and method for processing an image
JP5325800B2 (ja) 画像処理装置、画像撮影装置、画像表示装置、およびプログラム
JP4210954B2 (ja) 画像処理方法、画像処理方法のプログラム、画像処理方法のプログラムを記録した記録媒体及び画像処理装置
KR20050065348A (ko) 반복적 질량 중심을 이용하는 로버스트 카메라 팬 벡터 측정
JP2013062741A (ja) 画像処理装置および撮像装置、ならびに画像処理方法
TWI792990B (zh) 滑動變焦效果的產生方法和系統
JP5251410B2 (ja) カメラワーク算出プログラム、撮像装置及びカメラワーク算出方法
JP2012073703A (ja) 画像ボケ量計算装置およびそのプログラム
JP2012169701A (ja) 画像処理装置、画像処理方法及びプログラム
JP2011209070A (ja) 画像処理装置
Li et al. Blur robust optical flow using motion channel
JP4578653B2 (ja) 奥行き画像生成装置、奥行き画像生成方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP3804836B2 (ja) キー信号生成装置および画像合成装置、並びにキー信号生成方法および画像合成方法
JP2007179211A (ja) 画像処理装置、画像処理方法、およびそのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160718

R151 Written notification of patent or utility model registration

Ref document number: 5983737

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees