JP2016178608A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2016178608A
JP2016178608A JP2015059349A JP2015059349A JP2016178608A JP 2016178608 A JP2016178608 A JP 2016178608A JP 2015059349 A JP2015059349 A JP 2015059349A JP 2015059349 A JP2015059349 A JP 2015059349A JP 2016178608 A JP2016178608 A JP 2016178608A
Authority
JP
Japan
Prior art keywords
subject
image
area
size
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015059349A
Other languages
English (en)
Other versions
JP2016178608A5 (ja
JP6500535B2 (ja
Inventor
正規 石原
Masanori Ishihara
正規 石原
圭 井手口
Kei Ideguchi
圭 井手口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2015059349A priority Critical patent/JP6500535B2/ja
Priority to US15/016,025 priority patent/US10095919B2/en
Priority to CN201610169833.XA priority patent/CN105991928B/zh
Publication of JP2016178608A publication Critical patent/JP2016178608A/ja
Publication of JP2016178608A5 publication Critical patent/JP2016178608A5/ja
Application granted granted Critical
Publication of JP6500535B2 publication Critical patent/JP6500535B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Abstract

【課題】動画像から被写体に対応する領域を適正に切り出すことができる。【解決手段】画像処理装置100であって、動画像内で被写体を検出する被写体検出部5bと、動画像を構成する各フレーム画像から被写体検出部により検出された被写体に対応する被写体切出領域を切り出す画像切出部5eと、既に切り出された被写体切出領域の位置及びサイズのうちの少なくとも一方に基づいて、新たに切り出される切出予定領域を設定する領域設定部5dと、を備えている。【選択図】図1

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
従来、動画像から追尾対象である被写体を切り出して記録する画像処理装置が知られている(例えば、特許文献1参照)。
特開2012−205037号公報
しかしながら、上記特許文献1の場合、被写体の特徴点の動きが検出された領域に応じて画像の切り出し領域を設定しており、被写体の動きによっては切り出された領域がフレーム画像間で大きく移動してしまい、非常に見難い動画像となる虞がある。
本発明は、このような問題に鑑みてなされたものであり、本発明の課題は、動画像から被写体に対応する領域を適正に切り出すことができる画像処理装置、画像処理方法及びプログラムを提供することである。
上記課題を解決するため、本発明に係る画像処理装置は、
動画像内で被写体を検出する検出手段と、
前記動画像を構成する各フレーム画像から前記検出手段により検出された前記被写体に対応する領域を切り出す切り出し手段と、
前記切り出し手段により既に切り出された前記被写体に対応する領域の位置及びサイズのうちの少なくとも一方に基づいて、当該切り出し手段により新たに切り出される切出予定領域を設定する設定手段と、
を備えたことを特徴としている。
また、本発明に係る画像処理方法は、
画像処理装置を用いた画像処理方法であって、
動画像内で被写体を検出するステップと、
前記動画像を構成する各フレーム画像から検出された前記被写体に対応する領域を切り出すステップと、
既に切り出された前記被写体に対応する領域の位置及びサイズのうちの少なくとも一方に基づいて、新たに切り出される切出予定領域を設定するステップと、
を含むことを特徴としている。
また、本発明に係るプログラムは、
画像処理装置のコンピュータを、
動画像内で被写体を検出する検出手段、
前記動画像を構成する各フレーム画像から前記検出手段により検出された前記被写体に対応する領域を切り出す切り出し手段、
前記切り出し手段により既に切り出された前記被写体に対応する領域の位置及びサイズのうちの少なくとも一方に基づいて、当該切り出し手段により新たに切り出される切出予定領域を設定する設定手段、
として機能させることを特徴としている。
本発明によれば、動画像から被写体に対応する領域を適正に切り出すことができる。
本発明を適用した一実施形態の撮像装置の概略構成を示すブロック図である。 図1の撮像装置による画像切り出し処理に係る動作の一例を示すフローチャートである。 図2の画像切り出し処理の続きを示すフローチャートである。 図3の画像切り出し処理の続きを示すフローチャートである。 図2の画像切り出し処理に係るフレーム画像と被写体領域と被写体切出領域との対応関係の一例を模式的に示す図である。 図2の画像切り出し処理に係るフレーム画像と被写体領域と被写体切出領域との対応関係の一例を模式的に示す図である。
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
図1に示すように、本実施形態の撮像装置100は、中央制御部1と、メモリ2と、撮像部3と、画像データ生成部4と、画像処理部5と、画像記録部6と、表示部7と、操作入力部8とを備えている。
また、中央制御部1、メモリ2、撮像部3、画像データ生成部4、画像処理部5、画像記録部6及び表示部7は、バスライン9を介して接続されている。
中央制御部1は、撮像装置100の各部を制御するものである。具体的には、中央制御部1は、図示は省略するが、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。
メモリ2は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、中央制御部1や画像処理部5等の各部によって処理されるデータ等を一時的に記憶するものである。
撮像部3は、例えば、ヒト等の被写体S(図5(a)等参照)を撮像する。具体的には、撮像部3は、レンズ部3aと、電子撮像部3bと、撮像制御部3cとを備えている。
レンズ部3aは、例えば、ズームレンズやフォーカスレンズ等の複数のレンズから構成されている。
電子撮像部3bは、例えば、CMOS(Complementary Metal-oxide Semiconductor)やCCD(Charge Coupled Device)等のイメージセンサから構成され、レンズ部3aの各種レンズを通過した光学像を二次元の画像信号に変換する。
なお、図示は省略するが、撮像部3は、レンズ部3aを通過する光の量を調整する絞りを備えていても良い。
撮像制御部3cは、撮像部3による被写体Sの撮像を制御する。即ち、撮像制御部3cは、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3cは、タイミング発生器、ドライバにより電子撮像部3bを走査駆動して、所定周期毎に光学像を電子撮像部3bにより二次元の画像信号に変換させ、当該電子撮像部3bの撮像領域から1画面分ずつフレーム画像Fを読み出して画像データ生成部4に出力させる。
画像データ生成部4は、電子撮像部3bから転送されたフレーム画像Fのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。また、画像データ生成部4は、動画像を構成する複数のフレーム画像F、…の各々を所定形式(例えば、MPEG形式やモーションJPEG形式等)で符号化して、動画像の画像データを生成する。
また、画像データ生成部4は、生成した画像データをバッファメモリとして使用されるメモリ2に転送する。
画像処理部5は、画像取得部5aと、被写体検出部5bと、判定部5cと、領域設定部5dと、画像切出部5eとを具備している。
なお、画像処理部5の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
画像取得部5aは、画像切り出し処理の処理対象となる動画像を取得する。
すなわち、画像取得部5aは、例えば、被写体Sが撮像部3により撮像されて画像データ生成部4により生成された複数のフレーム画像F、…からなる動画像の画像データを、メモリ2から取得する。
なお、画像取得部5aは、撮像部3や外部機器(図示略)による被写体Sの撮像後に画像記録部6に記録されている動画像の画像データを読み出して、画像切り出し処理の処理対象として取得しても良い。
被写体検出部(検出手段)5bは、動画像内で被写体Sを検出する。
すなわち、被写体検出部5bは、画像取得部5aにより取得された複数のフレーム画像F、…からなる動画像の画像データに対して、所定の被写体検出処理を行って各フレーム画像Fから被写体Sを検出する。具体的には、例えば、被写体S(例えば、ヒト等)に可視光(波長が380〜780nmの領域の光)を発光する光タグ(図示略)が取り付けられている場合、被写体検出部5bは、動画像内で所定の規則性(例えば、発色パターンや発光パターン等)で発光する光タグを検出し、その検出位置を特定する。そして、被写体検出部5bは、特定された光タグの検出位置を基準として、各フレーム画像Fに対して所定の被写体検出処理(例えば、顔検出処理等)を行い、各フレーム画像Fから被写体Sの位置や当該被写体Sが含まれる領域を検出する。また、被写体検出部5bは、動画像を構成する複数のフレーム画像F、…のうち、一のフレーム画像Fから検出された被写体Sの位置情報、被写体Sが含まれる領域の輝度情報や色情報等の画像情報などを追尾対象として、他のフレーム画像F内で被写体Sを検出するようにしても良い。
また、被写体検出部5bは、各フレーム画像Fから複数の被写体S、…や複数の被写体S、…が含まれる領域を検出しても良い。
なお、顔検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。また、被写体検出処理として、顔検出処理を例示したが、一例であってこれに限られるものではなく、例えば、エッジ検出処理、特徴抽出処理等の所定の画像認識技術を利用するものであれば適宜任意に変更可能である。
判定部5cは、被写体検出部5bにより被写体Sが検出されたか否かを判定する。
すなわち、判定部(判定手段)5cは、動画像を構成する一のフレーム画像Fから被写体検出部5bにより被写体Sが検出されたか否かを判定する。具体的には、判定部5cは、例えば、被写体検出部5bにより各フレーム画像Fから被写体Sに取り付けられている光タグが検出されたか否かや被写体Sが含まれる領域が検出されたか否かに応じて、被写体Sが検出されたか否かを判定する。
領域設定部5dは、動画像を構成する各フレーム画像Fから画像切出部5eにより切り出される切出予定領域A0(図5(a)参照)を設定する。
すなわち、領域設定部(設定手段)5dは、画像切出部5eにより既に切り出された被写体切出領域A(図5(a)参照)の位置及びサイズのうちの少なくとも一方に基づいて、当該画像切出部5eにより新たに切り出される切出予定領域A0を設定する。具体的には、領域設定部5dは、画像切出部5eにより既に切り出された被写体切出領域Aの位置の経時的な変化に基づいて、新たな切出予定領域A0の位置を補間して設定する。また、領域設定部5dは、画像切出部5eにより既に切り出された被写体切出領域Aのサイズの経時的な変化に基づいて、新たな切出予定領域A0のサイズを補間して設定する。
例えば、領域設定部5dは、画像切出部5eにより既に切り出された複数の被写体切出領域Aの位置(例えば、左上画素等の基準位置)の座標をメモリ2から取得し、時間軸で隣り合う被写体切出領域Aどうしの位置座標間の距離の代表値(例えば、平均値等)を算出する。そして、領域設定部5dは、算出された代表値に基づいて所定の演算を行って、例えば、線形補間により新たな切出予定領域A0の位置やサイズを補間して設定するための線形補間条件を算出する。
ここで、複数の被写体切出領域Aのサイズが変位すると当該被写体切出領域Aの位置も変位することから、領域設定部5dは、時間軸で隣り合う被写体切出領域Aどうしの位置座標間の距離の代表値を利用して線形補間条件を算出しているが、例えば、複数の被写体切出領域Aのサイズの代表値を所定のサイズと比較した結果も利用して線形補間条件を算出しても良い。
なお、線形補間は、公知の技術であるので、ここでは詳細な説明を省略する。
また、判定部5cにより処理対象となる一のフレーム画像Fから被写体Sが検出されたと判定された場合、領域設定部5dは、被写体検出部5bにより検出された被写体Sの位置座標を取得して、動画像を構成する一のフレーム画像Fよりも前の他のフレーム画像Fから画像切出部5eにより切り出された被写体切出領域Aの位置及びサイズの経時的な変化に基づいて、画像切出部5eにより一のフレーム画像Fから新たに切り出される切出予定領域A0を設定する。このとき、例えば、被写体検出部5bにより一のフレーム画像Fから一の被写体Sが検出された場合、領域設定部5dは、一の被写体Sの位置座標のx座標及びy座標の最大値及び最小値の差、つまり、x軸方向及びy軸方向の画素数0を被写体サイズとして算出する。そして、領域設定部5dは、被写体Sの位置座標の最小値と算出された被写体サイズから被写体領域Asを特定する。また、例えば、被写体検出部5bにより一のフレーム画像Fから複数の被写体S、…が検出された場合、領域設定部5dは、複数の被写体S、…の各々の位置座標をそれぞれ取得し、x座標及びy座標の最大値及び最小値の差を被写体サイズとして算出する。例えば、3つの被写体S、…が検出された場合、仮に、第1の被写体Sの位置座標(30,390)、第2の被写体Sの位置座標(100,50)、第3の被写体Sの位置座標(600,200)とすると、x座標の最大値が600、最小値が30となり、y座標の最大値が390、最小値が50となる。被写体サイズは、x軸方向の画素数が最大値600から最小値30を減算した570、y軸方向の画素数が最大値390から最小値50を減算した340となる。そして、領域設定部5dは、複数の被写体S、…の位置座標の最小値と算出された被写体サイズから被写体領域Asを特定する。
このとき、領域設定部5dは、撮像部3により被写体Sを撮像する際のブレを考慮して、重心を中心として外側にあそび領域を付加して被写体領域Asを設定しても良い。なお、付加されるあそび領域のサイズは、例えば、被写体領域Asの位置やサイズに応じて変化させても良いし、経験的に求められる一定のサイズであっても良い。
そして、領域設定部5dは、特定された被写体領域As内に、一のフレーム画像F(例えば、二番目のフレーム画像N=2;図5(b)参照)よりも一つ前のフレーム画像F(例えば、最初のフレーム画像N=1;図5(a)参照)から切り出された被写体切出領域Aの重心(x軸方向及びy軸方向の中心)が存するか否かを判定する。ここで、被写体領域As内に、一つ前のフレーム画像Fから切り出された被写体切出領域Aの重心が存すると判定された場合には、領域設定部5dは、一つ前のフレーム画像Fから切り出された被写体切出領域Aの重心を、一のフレーム画像Fから新たに切り出される切出予定領域A0の重心として設定する。その一方で、被写体領域As内に、一つ前のフレーム画像Fから切り出された被写体切出領域Aの重心が存しないと判定された場合には、領域設定部5dは、線形補間条件に基づいて一のフレーム画像Fから新たに切り出される切出予定領域A0の重心を設定する。
なお、被写体領域Asにあそび領域が付加されている場合、領域設定部5dは、特定された被写体領域Asのあそび領域内に、一つ前のフレーム画像Fから切り出された被写体切出領域Aの重心が存するか否かを判定するようにしても良い。
また、上記の判定手法以外にも、領域設定部5dは、特定された被写体領域As内に、一つ前のフレーム画像Fから切り出された被写体切出領域A全体が存するか否かを判定するようにしても良い。
また、領域設定部5dは、特定された被写体領域Asのサイズが一つ前のフレーム画像Fから切り出された被写体切出領域Aのサイズよりも大きいか否かを判定する。ここで、被写体領域Asのサイズが一つ前のフレーム画像Fから切り出された被写体切出領域Aのサイズよりも大きいと判定されると、領域設定部5dは、線形補間条件に基づいて、一のフレーム画像Fから新たに切り出される切出予定領域A0のサイズが一つ前のフレーム画像Fから切り出された被写体切出領域Aのサイズよりも大きくなるように設定する。その一方で、被写体領域Asのサイズが一つ前のフレーム画像Fから切り出された被写体切出領域Aのサイズよりも大きくないと判定されると、領域設定部5dは、線形補間条件に基づいて、一のフレーム画像Fから新たに切り出される切出予定領域A0のサイズが一つ前のフレーム画像Fから切り出された被写体切出領域Aのサイズ以下となるように設定する。
なお、被写体領域Asのサイズが一つ前のフレーム画像Fから切り出された被写体切出領域Aのサイズと同じと判定された場合には、領域設定部5dは、一のフレーム画像Fから新たに切り出される切出予定領域A0のサイズが一つ前のフレーム画像Fから切り出された被写体切出領域Aのサイズと同一となるように設定しても良い。
一方、判定部5cにより処理対象となる一のフレーム画像Fから被写体Sが検出されなかったと判定された場合、領域設定部5dは、動画像を構成する一のフレーム画像Fよりも前の他のフレーム画像Fから画像切出部5eにより切り出された被写体切出領域Aの位置及びサイズの経時的な変化に基づいて、画像切出部5eにより一のフレーム画像Fから新たに切り出される切出予定領域A0を設定する。このとき、領域設定部5dは、予め指定された条件(例えば、ズームアウトの有無、ズーム倍率等)に従って設定される仮の切出予定領域A0のサイズに応じて、一のフレーム画像Fから切り出される新たな切出予定領域A0の重心やサイズを設定しても良い。
なお、領域設定部5dは、動画像を構成する各フレーム画像Fから切り出される被写体切出領域Aの縦横比(アスペクト比)が一定となるように切出予定領域A0を設定しても良い。例えば、縦横比が9:16の場合、領域設定部5dは、y軸方向の画素数を9で除算し、切り上げ用の定数(例えば、0.5等)を加算して四捨五入した値に9を乗算し、同様に、x軸方向の画素数を16で除算し、切り上げ用の定数(例えば、0.5等)を加算して四捨五入した値に16を乗算する。
また、設定される切出予定領域A0の重心がフレーム画像Fの端部(例えば、左端部等)に近いために、当該端部よりも外側に切出予定領域A0が設定されてしまう場合には、領域設定部5dは、切出予定領域A0の縦横比を保持したまま、切出予定領域A0をフレーム画像Fの端部から離れる方向に移動させて設定しても良い。
また、領域設定部5dは、切出予定領域A0の設定に線形補間を用いるようにしたが、一例であってこれに限られるものではなく、たとえば、三次曲線補間などの他の補間手法を用いても良い。
画像切出部(切り出し手段)5eは、動画像を構成する各フレーム画像Fから被写体検出部5bにより検出された被写体Sに対応する領域(被写体切出領域A)を切り出す。
すなわち、画像切出部5eは、処理対象となる一のフレーム画像Fから領域設定部5dにより設定された切出予定領域A0を被写体切出領域Aとして切り出す。
なお、被写体切出領域Aは、被写体検出部5bにより被写体Sが検出されなかった場合にも、領域設定部5dにより切出予定領域A0が設定されて切り出されるため、当該領域内に被写体Sが含まれている場合も含まれていない場合もある。
画像記録部6は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されている。また、画像記録部6は、画像データ生成部4の符号化部(図示略)により所定の符号化方式で符号化された各種の画像の画像データを記録する。
具体的には、画像記録部6は、例えば、撮像部3により撮像された被写体Sの動画像の画像データや、当該動画像から切り出された被写体切出領域Aのトリミング動画像の画像データ等を記録する。
なお、画像記録部6は、例えば、記録媒体(図示略)が着脱自在に構成され、装着された記録媒体からのデータの読み出しや記録媒体に対するデータの書き込みを制御する構成であっても良い。
表示部7は、静止画像や動画像を表示する。具体的には、表示部7は、表示パネル7aと、表示制御部7bとを具備している。
表示パネル7aは、表示領域内に画像を表示する。具体的には、表示部7は、静止画撮像モードや動画撮像モードにて、撮像部3による被写体Sの撮像により生成された複数のフレーム画像F、…を所定の再生フレームレートで逐次更新しながら表示する。
なお、表示パネル7aとしては、例えば、液晶表示パネルや有機EL表示パネルなどが挙げられるが、一例であってこれらに限られるものではない。
表示制御部7bは、画像記録部6から読み出され画像処理部5により復号された所定サイズの画像データに基づいて、所定の画像を表示パネル7aの表示画面に表示させる制御を行う。具体的には、表示制御部7bは、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、画像処理部5により復号されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから読み出して、これらのデータを元にビデオ信号を発生して表示パネル7aに出力する。
操作入力部8は、装置本体に対して各種指示を入力するためのものである。
具体的には、操作入力部8は、例えば、モードや機能等の選択指示に係る上下左右のカーソルボタンや決定ボタン等を具備する操作部(図示略)を備えている。
そして、ユーザにより操作部の各種ボタンが操作されると、操作入力部8は、操作されたボタンに応じた操作指示を中央制御部1に出力する。中央制御部1は、操作入力部8から出力され入力された操作指示に従って所定の動作(例えば、被写体Sの撮像等)を各部に実行させる。
なお、操作入力部8は、表示部7の表示パネル7aと一体となって設けられたタッチパネル(図示略)を有して構成されていても良い。
<画像切り出し処理>
次に、画像切り出し処理について、図2〜図6を参照して説明する。
図2〜図4は、画像切り出し処理に係る動作の一例を示すフローチャートである。また、図5(a)〜図5(c)並びに図6(a)及び図6(b)は、フレーム番号N=1〜5のフレーム画像Fと被写体領域Asと被写体切出領域Aとの対応関係の一例を模式的に示す図である。
なお、図5(a)〜図5(c)並びに図6(a)及び図6(b)にあっては、切出予定領域A0及び被写体切出領域Aを一点鎖線で表し、被写体領域Asを二点鎖線で表すものとする。
以下に説明する画像切り出し処理は、ユーザによる操作入力部8の所定操作に基づいて、メニュー画面(図示略)に表示された複数の動作モードの中から画像切り出しモードが選択指示された場合に実行される処理である。また、画像記録部6には、撮像部3により撮像された被写体Sの動画像の画像データが記録されているものとする。
図2に示すように、先ず、画像処理部5の画像取得部5aは、画像記録部6から複数のフレーム画像F、…からなる動画像の画像データを取得する(ステップS1)。
次に、画像処理部5は、前回の被写体切出領域Aがあるか否かを判定する(ステップS2)。例えば、画像処理部5は、例えば、メモリ2の所定の格納領域に当該画像切り出し処理にて前回切り出された被写体切出領域Aの位置、サイズ、重心等の情報が格納されているか否かを判定する。
ここで、画像処理部5は、動画像の複数のフレーム画像F、…のうち、フレーム番号が最初(N=1)のフレーム画像F(図5(a)参照)を処理対象とする場合、未だ被写体切出領域Aの切り出しが行われていないため、前回の被写体切出領域Aはないと判定する。
ステップS2にて、前回の被写体切出領域Aがないと判定されると(ステップS2;NO)、画像処理部5は、動画像の複数のフレーム画像F、…のうち、何れか一のフレーム画像F(例えば、最初のフレーム画像F等)を処理対象として指定する(ステップS3)。
続けて、被写体検出部5bは、処理対象として指定された一のフレーム画像Fの画像データに対して所定の被写体検出処理を行う(ステップS4)。この被写体検出処理では、例えば、被写体Sに取り付けられている光タグを利用して、フレーム画像F内から被写体Sを検出しても良い。
次に、判定部5cは、処理対象のフレーム画像F内から被写体検出部5bにより被写体Sが検出されたか否かを判定する(ステップS5)。
ここで、被写体検出部5bにより被写体Sが検出されたと判定されると(ステップS5;YES)、領域設定部5dは、被写体検出部5bにより検出された被写体Sの位置、サイズに基づいて、例えば、被写体Sを中心として当該被写体Sを包含する程度のサイズで切出予定領域A0を設定する(ステップS6)。
一方、被写体検出部5bにより被写体Sが検出されていないと判定されると(ステップS5;NO)、領域設定部5dは、フレーム画像F全体を切出予定領域A0として設定する(ステップS7)。
次に、画像切出部5eは、一のフレーム画像Fから領域設定部5dにより設定された切出予定領域A0を被写体切出領域Aとして切り出す(ステップS8)。そして、画像切出部5eは、切り出された被写体切出領域Aの位置、サイズ、重心等の情報をメモリ2に出力する。メモリ2の所定の格納領域には、フレーム画像Fのフレーム番号(N=1)と対応付けて、被写体切出領域Aの位置、サイズ、重心等の情報が格納される。
次に、画像処理部5は、処理対象のフレーム画像Fが動画像を構成する複数のフレーム画像F、…のうち、最後のフレーム画像Fであるか否かを判定する(ステップS9)。
ここで、処理対象のフレーム画像Fが最後のフレーム画像Fでないと判定されると(ステップS9;NO)、画像処理部5は、処理をステップS2に戻し、上記と同様に、前回の被写体切出領域Aがあるか否かを判定する(ステップS2)。
ステップS2にて、前回の被写体切出領域Aがあると判定されると(ステップS2;YES)、図3に示すように、画像処理部5は、メモリ2から前回切り出された被写体切出領域Aの位置、サイズ、重心等の情報を取得し(ステップS10)、動画像の複数のフレーム画像F、…のうち、次のフレーム番号のフレーム画像F(例えば、フレーム番号が二番目(N=2)のフレーム画像F;図5(b)参照等)を処理対象として指定する(ステップS11)。
続けて、被写体検出部5bは、処理対象として指定された次のフレーム画像Fの画像データに対して所定の被写体検出処理を行う(ステップS12)。この被写体検出処理は、上記したステップS4における被写体検出処理と略同様である。
次に、判定部5cは、処理対象のフレーム画像F内から被写体検出部5bにより被写体Sが検出されたか否かを判定する(ステップS13)。
ステップS13にて、被写体検出部5bにより被写体Sが検出されたと判定されると(ステップS13;YES)、領域設定部5dは、メモリ2に格納されている所定期間分の時間軸で隣り合う被写体切出領域Aどうしの位置座標間の距離の代表値(例えば、平均値等)を算出する(ステップS14)。なお、例えば、二番目のフレーム画像Fを処理対象とする場合、最初のフレーム画像Fから切り出された被写体切出領域Aの位置しかメモリ2に格納されていないため、当該最初のフレーム画像Fの被写体切出領域Aの位置と、被写体検出部5bにより処理対象のフレーム画像Fから検出された被写体Sの位置とを利用しても良い。
そして、領域設定部5dは、算出された被写体切出領域Aどうしの距離の代表値に基づいて所定の演算を行って、新たな切出予定領域A0の位置やサイズを補間して設定するための線形補間条件を算出する(ステップS15)。
次に、領域設定部5dは、被写体検出部5bにより検出された被写体Sの位置座標のx座標及びy座標の最大値及び最小値に基づいて、被写体サイズを算出する(ステップS16)。例えば、領域設定部5dは、被写体検出部5bにより一の被写体Sが検出された場合には、当該一の被写体Sの位置座標のx座標及びy座標の最大値及び最小値の差を被写体サイズとして算出し、一方、複数の被写体S、…が検出された場合、複数の被写体S、…の位置座標をそれぞれ取得し、x座標及びy座標の最大値及び最小値の差を被写体サイズとして算出する。
続けて、領域設定部5dは、算出された被写体サイズと被写体Sの位置座標の最小値とから被写体領域Asの重心を特定し、その重心を中心としたあそび領域を付加して被写体領域Asを特定する(ステップS17)。
次に、領域設定部5dは、特定された被写体領域Asのあそび領域内に前回の被写体切出領域Aの重心が存するか否かを判定する(ステップS18)。
ステップS18にて、あそび領域内に前回の被写体切出領域Aの重心が存すると判定されると(ステップS18;YES)、領域設定部5dは、前回の被写体切出領域Aの重心を処理対象のフレーム画像Fから新たに切り出される切出予定領域A0の重心として設定する(ステップS19)。
一方、あそび領域内に前回の被写体切出領域Aの重心が存しないと判定されると(ステップS18;NO)、領域設定部5dは、ステップS15にて算出された線形補間条件に基づいて、処理対象のフレーム画像Fから新たに切り出される切出予定領域A0の重心を設定する(ステップS20)。
その後、領域設定部5dは、被写体検出部5bにより検出された被写体Sの数に応じて、例えば、被写体Sの数が多いほど大きくなるように被写体領域Asのサイズを調整する(ステップS21)。
そして、領域設定部5dは、サイズ調整後の被写体領域Asのサイズが前回の被写体切出領域Aのサイズよりも大きいか否かを判定する(ステップS22)。
ステップS22にて、被写体領域Asのサイズが前回の被写体切出領域Aのサイズよりも大きいと判定されると(ステップS22;YES)、領域設定部5dは、ステップS15にて算出された線形補間条件に基づいて、処理対象のフレーム画像Fから新たに切り出される切出予定領域A0のサイズが前回の被写体切出領域Aのサイズよりも大きくなるように設定する(ステップS23)。
一方、被写体領域Asのサイズが前回の被写体切出領域Aのサイズよりも大きくないと判定されると(ステップS22;NO)、領域設定部5dは、ステップS15にて算出された線形補間条件に基づいて、処理対象のフレーム画像Fから新たに切り出される切出予定領域A0のサイズが前回の被写体切出領域Aのサイズ以下となるように設定する(ステップS24)。
次に、領域設定部5dは、設定された切出予定領域A0の重心及びサイズから当該切出予定領域A0の位置(例えば、左上画素等の基準位置)を特定する(ステップS25)。
画像切出部5eは、処理対象のフレーム画像Fから領域設定部5dにより設定された切出予定領域A0を被写体切出領域Aとして切り出す(ステップS26)。そして、画像切出部5eは、上記ステップS8と同様に、切り出された被写体切出領域Aの位置、サイズ、重心等の情報をメモリ2に出力する。メモリ2の所定の格納領域には、フレーム画像Fのフレーム番号(N=2)と対応付けて、被写体切出領域Aの位置、サイズ、重心等の情報が格納される。
その後、図2に示すように、画像処理部5は、処理をステップS9に戻し、上記と同様に、処理対象のフレーム画像Fが動画像を構成する複数のフレーム画像F、…のうち、最後のフレーム画像Fであるか否かを判定する(ステップS9)。
ここで、処理対象のフレーム画像Fが最後のフレーム画像Fでないと判定されると(ステップS9;NO)、画像処理部5は、処理をステップS2に戻し、上記と同様に、前回の被写体切出領域Aがあるか否かを判定する(ステップS2)。
上記の各処理は、ステップS9にて、処理対象のフレーム画像Fが動画像を構成する複数のフレーム画像F、…のうち、最後のフレーム画像Fであると判定(ステップS9;YES)されるまで繰り返し実行される。
例えば、図5(a)〜図5(c)並びに図6(a)及び図6(b)に示すように、フレーム番号N=1の最初のフレーム画像F及び次のフレーム番号N=2のフレーム画像Fで一の被写体Sが検出され、三番目のフレーム番号N=3のフレーム画像Fで二つの被写体S、Sが検出された場合であっても、被写体切出領域A(切出予定領域A0)の位置及びサイズは、三番目のフレーム番号N=3のフレーム画像Fで急激に変化するのではなく、既に切り出された被写体切出領域Aの位置及びサイズの経時的な変化を考慮して補間して設定される(図5(c)参照)。つまり、処理対象のフレーム画像Fで被写体領域Asの位置やサイズが急激に変化しても、当該フレーム画像Fから実際に切り出される被写体切出領域Aの位置やサイズは隣り合うフレーム画像F間で緩やかに変化していくこととなる(図5(b)〜図6(b)参照)。
一方、ステップS13にて、被写体検出部5bにより被写体Sが検出されていないと判定されると(ステップS13;NO)、画像処理部5は、予め指定された条件に従ってズームアウトするか否かを判定する(ステップS27)。
ここで、ズームアウトしないと判定されると(ステップS27;NO)、領域設定部5dは、前回設定された切出予定領域A0の位置、サイズを処理対象のフレーム画像Fから新たに切り出される切出予定領域A0の位置、サイズとして設定する(ステップS28)。
その後、画像処理部5は、処理をステップS26に移行して、それ以降の各処理を実行する。すなわち、ステップS26にて、画像切出部5eは、処理対象のフレーム画像Fから領域設定部5dにより設定された切出予定領域A0を被写体切出領域Aとして切り出す。
一方、ステップS27にて、ズームアウトすると判定されると(ステップS27;YES)、画像処理部5は、前回切り出された被写体切出領域Aのサイズが縦横それぞれを2倍となるようにズームした2倍ズームサイズ(面積比で1/4)以上であるか否かを判定する(ステップS29)。
ステップS29にて、前回切り出された被写体切出領域Aのサイズが2倍ズームサイズ以上であると判定されると(ステップS29;YES)、領域設定部5dは、処理対象のフレーム画像Fから新たに切り出される切出予定領域A0の目標サイズとして、2倍ズームサイズを設定する(ステップS30)。続けて、領域設定部5dは、前回の被写体切出領域Aの重心を処理対象のフレーム画像Fから新たに切り出される切出予定領域A0の重心として設定する(ステップS31)。
その後、画像処理部5は、処理をステップS23に移行して、それ以降の各処理を実行する。すなわち、ステップS23にて、領域設定部5dは、ステップS15にて算出された線形補間条件に基づいて、処理対象のフレーム画像Fから新たに切り出される切出予定領域A0のサイズが前回の被写体切出領域Aのサイズよりも大きくなるように設定し、ステップS25にて、設定された切出予定領域A0の重心及びサイズから当該切出予定領域A0の位置を特定する。
そして、ステップS26にて、画像切出部5eは、処理対象のフレーム画像Fから領域設定部5dにより設定された切出予定領域A0を被写体切出領域Aとして切り出す。
一方、ステップS29にて、前回切り出された被写体切出領域Aのサイズが2倍ズームサイズ以上でないと判定されると(ステップS29;NO)、画像処理部5は、予め指定された条件に従ってフレーム画像F全体までズームアウトするか否かを判定する(ステップS32)。
ここで、フレーム画像F全体までズームアウトすると判定されると(ステップS32;YES)、画像処理部5は、前回切り出された被写体切出領域Aのサイズがフレーム画像F全体のサイズよりも小さいか否かを判定する(ステップS33)。
ステップS33にて、前回切り出された被写体切出領域Aのサイズがフレーム画像F全体のサイズよりも小さいと判定されると(ステップS33;YES)、領域設定部5dは、処理対象のフレーム画像Fから新たに切り出される切出予定領域A0の目標サイズとして、フレーム画像F全体のサイズを設定する(ステップS34)。続けて、領域設定部5dは、フレーム画像F全体の重心を新たに切り出される切出予定領域A0の目標重心とし、ステップS15にて算出された線形補間条件に基づいて、処理対象のフレーム画像Fから新たに切り出される切出予定領域A0の重心を設定する(ステップS35)。
その後、画像処理部5は、処理をステップS23に移行して、それ以降の各処理を実行する。すなわち、ステップS23にて、領域設定部5dは、ステップS15にて算出された線形補間条件に基づいて、処理対象のフレーム画像Fから新たに切り出される切出予定領域A0のサイズが前回の被写体切出領域Aのサイズよりも大きくなるように設定し、ステップS25にて、設定された切出予定領域A0の重心及びサイズから当該切出予定領域A0の位置を特定する。
そして、ステップS26にて、画像切出部5eは、処理対象のフレーム画像Fから領域設定部5dにより設定された切出予定領域A0を被写体切出領域Aとして切り出す。
一方、ステップS32にて、フレーム画像F全体までズームアウトしないと判定されるか(ステップS32;NO)、或いは、ステップS33にて、前回切り出された被写体切出領域Aのサイズがフレーム画像F全体のサイズよりも小さくないと判定されると(ステップS33;NO)、画像処理部5は、処理をステップS28に移行して、それ以降の各処理を実行する。すなわち、ステップS28にて、領域設定部5dは、前回設定された切出予定領域A0の位置、サイズを処理対象のフレーム画像Fから新たに切り出される切出予定領域A0の位置、サイズとして設定する。
その後、画像処理部5は、処理をステップS26に移行して、それ以降の各処理を実行する。すなわち、ステップS26にて、画像切出部5eは、処理対象のフレーム画像Fから領域設定部5dにより設定された切出予定領域A0を被写体切出領域Aとして切り出す。
各フレーム画像Fから切り出された被写体切出領域Aの画像データは、処理対象のフレーム画像Fのフレーム番号と対応付けて画像記録部6に出力され、当該動画像から切り出された被写体切出領域Aのトリミング動画像の画像データとして記録される。
以上のように、本実施形態の撮像装置100によれば、既に切り出された被写体切出領域Aの位置及びサイズに基づいて、処理対象のフレーム画像Fから新たに切り出される切出予定領域A0を設定するので、処理対象のフレーム画像Fよりも前のフレーム画像Fから切り出された被写体切出領域Aの位置及びサイズを考慮して処理対象のフレーム画像Fから被写体切出領域Aを切り出すことができる。すなわち、例えば、動画像内から検出される被写体Sの数、位置、サイズ等が急激に変化した場合であっても、既に切り出された被写体切出領域Aの位置やサイズの経時的な変化を考慮して切出予定領域A0の位置やサイズを補間して設定することができ、実際に切り出される被写体切出領域Aの位置やサイズを隣り合うフレーム画像F間で緩やかに変化させることができる。特に、動画像内から検出される被写体Sを追尾対象として被写体切出領域Aを切り出す場合に、当該被写体Sをより自然な構図で捉えた動画像を生成することができる。
このように、動画像から被写体Sに対応する被写体切出領域Aを適正に切り出すことができる。
また、処理対象のフレーム画像Fから被写体Sが検出された場合には、検出された被写体Sの位置及びサイズと、処理対象のフレーム画像Fよりも前の他のフレーム画像Fから切り出された被写体切出領域Aの位置及びサイズとに基づいて、処理対象のフレーム画像Fから新たに切り出される切出予定領域A0を設定するので、処理対象のフレーム画像Fよりも前のフレーム画像Fから切り出された被写体切出領域Aの位置及びサイズだけでなく、処理対象のフレーム画像Fから検出された被写体Sの位置及びサイズも考慮して、切出予定領域A0を設定することができ、当該処理対象のフレーム画像Fから被写体切出領域Aを適正に切り出すことができる。
特に、処理対象のフレーム画像Fから被写体Sが複数検出された場合に、検出された複数の被写体S、…の位置及びサイズを考慮することで、動画像内から検出される被写体Sの数が急激に変化しても、実際に切り出される被写体切出領域Aの位置やサイズを隣り合うフレーム画像F間で緩やかに変化させることができる。
さらに、処理対象となるフレーム画像Fから被写体Sが検出されなかった場合であっても処理対象のフレーム画像Fよりも前の他のフレーム画像Fから切り出された被写体切出領域Aの位置及びサイズに基づいて、処理対象のフレーム画像Fから新たに切り出される切出予定領域A0を設定するので、被写体Sが含まれていない被写体切出領域Aを切り出す場合にも、当該被写体切出領域Aの位置やサイズを隣り合うフレーム画像F間で緩やかに変化させることができる。
また、動画像内で被写体Sの可視光の発光(例えば、光タグの発光等)を検出するので、当該発光を利用して被写体Sの検出を適正に行うことができる。これにより、動画像内での被写体Sの追尾をより適正に行うことができる。
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態では、既に切り出された被写体切出領域Aの位置及びサイズに基づいて、新たに切り出される切出予定領域A0を設定するようにしたが、一例であってこれに限られるものではなく、例えば、被写体切出領域Aの位置及びサイズの何れか一方を考慮して切出予定領域A0を設定しても良い。
さらに、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。さらに、画像処理装置として、撮像装置100を例示したが、これに限られるものではない。
加えて、上記実施形態にあっては、検出手段、切り出し手段、設定手段としての機能を、中央制御部1の制御下にて、被写体検出部5b、画像切出部5e、領域設定部5dが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、検出処理ルーチン、切り出し処理ルーチン、設定処理ルーチンを含むプログラムを記憶しておく。そして、検出処理ルーチンにより中央制御部1のCPUを、動画像内で被写体Sを検出する手段として機能させるようにしても良い。また、切り出し処理ルーチンにより中央制御部1のCPUを、動画像を構成する各フレーム画像Fから検出された被写体Sに対応する被写体切出領域Aを切り出す手段として機能させるようにしても良い。また、設定処理ルーチンにより中央制御部1のCPUを、既に切り出された被写体切出領域Aの位置及びサイズのうちの少なくとも一方に基づいて、新たに切り出される切出予定領域A0を設定する手段として機能させるようにしても良い。
同様に、判定手段についても、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
動画像内で被写体を検出する検出手段と、
前記動画像を構成する各フレーム画像から前記検出手段により検出された前記被写体に対応する領域を切り出す切り出し手段と、
前記切り出し手段により既に切り出された前記被写体に対応する領域の位置及びサイズのうちの少なくとも一方に基づいて、当該切り出し手段により新たに切り出される切出予定領域を設定する設定手段と、
を備えたことを特徴とする画像処理装置。
<請求項2>
前記設定手段は、
前記切り出し手段により既に切り出された前記被写体に対応する領域の位置の経時的な変化に基づいて、前記切出予定領域の位置を補間して設定することを特徴とする請求項1に記載の画像処理装置。
<請求項3>
前記設定手段は、
前記切り出し手段により既に切り出された前記被写体に対応する領域のサイズの経時的な変化に基づいて、前記切出予定領域のサイズを補間して設定することを特徴とする請求項1に記載の画像処理装置。
<請求項4>
前記設定手段は、
前記検出手段により検出された前記被写体に対応する領域と、前記切り出し手段により既に切り出された前記被写体に対応する領域の位置及びサイズの経時的な変化に基づいて、前記切出予定領域を設定することを特徴とする請求項1〜3の何れか一項に記載の画像処理装置。
<請求項5>
前記動画像を構成する一のフレーム画像から前記検出手段により前記被写体が検出されたか否かを判定する判定手段を更に備え、
前記設定手段は、
前記判定手段により前記被写体が検出されたと判定された場合に、前記一のフレーム画像から前記検出手段により検出された前記被写体の位置及びサイズと、前記動画像を構成する前記一のフレーム画像よりも前の他のフレーム画像から前記切り出し手段により切り出された前記被写体に対応する領域の位置及びサイズとに基づいて、当該切り出し手段により前記一のフレーム画像から新たに切り出される切出予定領域を設定することを特徴とする請求項1〜4の何れか一項に記載の画像処理装置。
<請求項6>
前記設定手段は、
前記検出手段により前記被写体が複数検出された場合に、前記一のフレーム画像から前記検出手段により検出された前記複数の被写体の位置及びサイズと、前記他のフレーム画像から前記切り出し手段により切り出された前記被写体に対応する領域の位置及びサイズとに基づいて、前記切出予定領域を設定することを特徴とする請求項5に記載の画像処理装置。
<請求項7>
前記設定手段は、更に、
前記判定手段により前記被写体が検出されなかったと判定された場合に、前記他のフレーム画像から前記切り出し手段により切り出された前記被写体に対応する領域の位置及びサイズに基づいて、前記切出予定領域を設定することを特徴とする請求項5又は6に記載の画像処理装置。
<請求項8>
前記被写体は、前記動画像内で追尾対象の被写体を含むことを特徴とする請求項1〜7の何れか一項に記載の画像処理装置。
<請求項9>
前記検出手段は、更に、前記動画像内で前記被写体の可視光の発光を検出することを特徴とする請求項1〜8の何れか一項に記載の画像処理装置。
<請求項10>
画像処理装置を用いた画像処理方法であって、
動画像内で被写体を検出するステップと、
前記動画像を構成する各フレーム画像から検出された前記被写体に対応する領域を切り出すステップと、
既に切り出された前記被写体に対応する領域の位置及びサイズのうちの少なくとも一方に基づいて、新たに切り出される切出予定領域を設定するステップと、
を含むことを特徴とする画像処理方法。
<請求項11>
画像処理装置のコンピュータを、
動画像内で被写体を検出する検出手段、
前記動画像を構成する各フレーム画像から前記検出手段により検出された前記被写体に対応する領域を切り出す切り出し手段、
前記切り出し手段により既に切り出された前記被写体に対応する領域の位置及びサイズのうちの少なくとも一方に基づいて、当該切り出し手段により新たに切り出される切出予定領域を設定する設定手段、
として機能させることを特徴とするプログラム。
100 撮像装置
1 中央制御部
5b 被写体検出部
5c 判定部
5d 領域設定部
5e 画像切出部
F フレーム画像
As 被写体領域
A0 切出予定領域
A 被写体切出領域

Claims (11)

  1. 動画像内で被写体を検出する検出手段と、
    前記動画像を構成する各フレーム画像から前記検出手段により検出された前記被写体に対応する領域を切り出す切り出し手段と、
    前記切り出し手段により既に切り出された前記被写体に対応する領域の位置及びサイズのうちの少なくとも一方に基づいて、当該切り出し手段により新たに切り出される切出予定領域を設定する設定手段と、
    を備えたことを特徴とする画像処理装置。
  2. 前記設定手段は、
    前記切り出し手段により既に切り出された前記被写体に対応する領域の位置の経時的な変化に基づいて、前記切出予定領域の位置を補間して設定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記設定手段は、
    前記切り出し手段により既に切り出された前記被写体に対応する領域のサイズの経時的な変化に基づいて、前記切出予定領域のサイズを補間して設定することを特徴とする請求項1に記載の画像処理装置。
  4. 前記設定手段は、
    前記検出手段により検出された前記被写体に対応する領域と、前記切り出し手段により既に切り出された前記被写体に対応する領域の位置及びサイズの経時的な変化に基づいて、前記切出予定領域を設定することを特徴とする請求項1〜3の何れか一項に記載の画像処理装置。
  5. 前記動画像を構成する一のフレーム画像から前記検出手段により前記被写体が検出されたか否かを判定する判定手段を更に備え、
    前記設定手段は、
    前記判定手段により前記被写体が検出されたと判定された場合に、前記一のフレーム画像から前記検出手段により検出された前記被写体の位置及びサイズと、前記動画像を構成する前記一のフレーム画像よりも前の他のフレーム画像から前記切り出し手段により切り出された前記被写体に対応する領域の位置及びサイズとに基づいて、当該切り出し手段により前記一のフレーム画像から新たに切り出される切出予定領域を設定することを特徴とする請求項1〜4の何れか一項に記載の画像処理装置。
  6. 前記設定手段は、
    前記検出手段により前記被写体が複数検出された場合に、前記一のフレーム画像から前記検出手段により検出された前記複数の被写体の位置及びサイズと、前記他のフレーム画像から前記切り出し手段により切り出された前記被写体に対応する領域の位置及びサイズとに基づいて、前記切出予定領域を設定することを特徴とする請求項5に記載の画像処理装置。
  7. 前記設定手段は、更に、
    前記判定手段により前記被写体が検出されなかったと判定された場合に、前記他のフレーム画像から前記切り出し手段により切り出された前記被写体に対応する領域の位置及びサイズに基づいて、前記切出予定領域を設定することを特徴とする請求項5又は6に記載の画像処理装置。
  8. 前記被写体は、前記動画像内で追尾対象の被写体を含むことを特徴とする請求項1〜7の何れか一項に記載の画像処理装置。
  9. 前記検出手段は、更に、前記動画像内で前記被写体の可視光の発光を検出することを特徴とする請求項1〜8の何れか一項に記載の画像処理装置。
  10. 画像処理装置を用いた画像処理方法であって、
    動画像内で被写体を検出するステップと、
    前記動画像を構成する各フレーム画像から検出された前記被写体に対応する領域を切り出すステップと、
    既に切り出された前記被写体に対応する領域の位置及びサイズのうちの少なくとも一方に基づいて、新たに切り出される切出予定領域を設定するステップと、
    を含むことを特徴とする画像処理方法。
  11. 画像処理装置のコンピュータを、
    動画像内で被写体を検出する検出手段、
    前記動画像を構成する各フレーム画像から前記検出手段により検出された前記被写体に対応する領域を切り出す切り出し手段、
    前記切り出し手段により既に切り出された前記被写体に対応する領域の位置及びサイズのうちの少なくとも一方に基づいて、当該切り出し手段により新たに切り出される切出予定領域を設定する設定手段、
    として機能させることを特徴とするプログラム。
JP2015059349A 2015-03-23 2015-03-23 画像処理装置、画像処理方法及びプログラム Active JP6500535B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015059349A JP6500535B2 (ja) 2015-03-23 2015-03-23 画像処理装置、画像処理方法及びプログラム
US15/016,025 US10095919B2 (en) 2015-03-23 2016-02-04 Image processing apparatus, image processing method and storage medium to suitably clip a subject region from a moving image
CN201610169833.XA CN105991928B (zh) 2015-03-23 2016-03-23 图像处理装置以及图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015059349A JP6500535B2 (ja) 2015-03-23 2015-03-23 画像処理装置、画像処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2016178608A true JP2016178608A (ja) 2016-10-06
JP2016178608A5 JP2016178608A5 (ja) 2018-04-12
JP6500535B2 JP6500535B2 (ja) 2019-04-17

Family

ID=56975618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015059349A Active JP6500535B2 (ja) 2015-03-23 2015-03-23 画像処理装置、画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US10095919B2 (ja)
JP (1) JP6500535B2 (ja)
CN (1) CN105991928B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020526853A (ja) * 2017-07-18 2020-08-31 ハンジョウ タロ ポジショニング テクノロジー カンパニー リミテッドHangzhou Taro Positioning Technology Co.,Ltd. インテリジェントな物体追跡
JPWO2021124524A1 (ja) * 2019-12-19 2021-06-24
US11364637B2 (en) 2017-07-18 2022-06-21 Hangzhou Taro Positioning Technology Co., Ltd. Intelligent object tracking

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6500535B2 (ja) * 2015-03-23 2019-04-17 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
CN106709495B (zh) * 2017-01-22 2020-03-20 广东小天才科技有限公司 一种图像区域居中的方法和装置
US11548158B2 (en) * 2020-04-17 2023-01-10 Abb Schweiz Ag Automatic sensor conflict resolution for sensor fusion system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012175207A (ja) * 2011-02-18 2012-09-10 Panasonic Corp 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2015023294A (ja) * 2013-07-16 2015-02-02 オリンパスイメージング株式会社 動画処理装置及び動画処理方法
JP2015043557A (ja) * 2013-07-24 2015-03-05 キヤノン株式会社 撮像装置、撮像装置の制御方法、撮像装置の制御プログラムおよび記憶媒体

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1444654A2 (de) * 2001-03-08 2004-08-11 Universite Joseph Fourier Quantitative analyse, visualisierung und bewegungskorrektur in dynamischen prozessen
DE102005000714A1 (de) * 2005-01-03 2006-07-20 Siemens Ag Verfahren zur Bildgebung eines periodisch bewegten Objektbereichs eines Objekts
WO2007017785A2 (en) * 2005-08-08 2007-02-15 Nxp B.V. Method of setting contrast in digital image processing, and an arrangement for this purpose
JP2008061184A (ja) 2006-09-04 2008-03-13 Sony Corp 画像処理装置および方法、プログラム、並びに撮像装置
WO2008084413A2 (en) * 2007-01-08 2008-07-17 Koninklijke Philips Electronics N.V. Imaging system for imaging a region of interest comprising a moving object
US8805497B2 (en) 2008-10-06 2014-08-12 Cardiac Pacemakers, Inc. Titrated intermittent pacing therapy
JP4985834B2 (ja) * 2009-10-13 2012-07-25 株式会社ニコン 撮像装置及び画像処理装置
CN102045527B (zh) * 2009-10-14 2015-11-25 株式会社尼康 摄像装置及图像处理装置
JP2012205037A (ja) * 2011-03-25 2012-10-22 Olympus Imaging Corp 画像処理装置および画像処理方法
JP5897308B2 (ja) * 2011-11-24 2016-03-30 株式会社東芝 医用画像処理装置
JP5804007B2 (ja) * 2013-09-03 2015-11-04 カシオ計算機株式会社 動画生成システム、動画生成方法及びプログラム
JP6299300B2 (ja) * 2014-03-14 2018-03-28 オムロン株式会社 画像処理装置および画像処理方法
CN104036523A (zh) * 2014-06-18 2014-09-10 哈尔滨工程大学 一种基于SURF特征的改进Mean Shift的目标跟踪方法
JP6500535B2 (ja) * 2015-03-23 2019-04-17 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012175207A (ja) * 2011-02-18 2012-09-10 Panasonic Corp 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2015023294A (ja) * 2013-07-16 2015-02-02 オリンパスイメージング株式会社 動画処理装置及び動画処理方法
JP2015043557A (ja) * 2013-07-24 2015-03-05 キヤノン株式会社 撮像装置、撮像装置の制御方法、撮像装置の制御プログラムおよび記憶媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020526853A (ja) * 2017-07-18 2020-08-31 ハンジョウ タロ ポジショニング テクノロジー カンパニー リミテッドHangzhou Taro Positioning Technology Co.,Ltd. インテリジェントな物体追跡
US11364637B2 (en) 2017-07-18 2022-06-21 Hangzhou Taro Positioning Technology Co., Ltd. Intelligent object tracking
JPWO2021124524A1 (ja) * 2019-12-19 2021-06-24
WO2021124524A1 (ja) * 2019-12-19 2021-06-24 三菱電機株式会社 目標追尾装置および目標追尾方法

Also Published As

Publication number Publication date
CN105991928B (zh) 2019-06-21
US20160283813A1 (en) 2016-09-29
CN105991928A (zh) 2016-10-05
US10095919B2 (en) 2018-10-09
JP6500535B2 (ja) 2019-04-17

Similar Documents

Publication Publication Date Title
US7796840B2 (en) Image processing apparatus and method thereof
JP6500535B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5331128B2 (ja) 撮像装置
JP6682559B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム及び記憶媒体
US20100238325A1 (en) Image processor and recording medium
JP5935779B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10462373B2 (en) Imaging device configured to control a region of imaging
US10237488B2 (en) Image capturing apparatus and image capturing method
US20140313354A1 (en) Moving image processing apparatus, imaging apparatus, and moving image processing method
JP4868046B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2018093376A (ja) 撮像装置、撮像方法及びプログラム
KR20150023602A (ko) 화상 처리 장치, 화상 처리 방법 및 기억 매체
JP5510287B2 (ja) 被写体検出装置、被写体検出方法及びプログラム
JP6541501B2 (ja) 画像処理装置、撮像装置、及び画像処理方法
JP2011193066A (ja) 撮像装置
JP5636660B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2009027437A (ja) 画像処理装置,画像処理方法及び撮像装置
JP5967172B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP5807695B2 (ja) 被写体検出装置、被写体検出方法及びプログラム
JP5740934B2 (ja) 被写体検出装置、被写体検出方法及びプログラム
JP2019041188A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
US20230122606A1 (en) Image capturing system, control method, and storage medium
JP6682874B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2016039513A (ja) 画像生成装置、画像生成方法及びプログラム
JP2016149663A (ja) 出力装置、出力制御方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180305

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190304

R150 Certificate of patent or registration of utility model

Ref document number: 6500535

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150