JP2016178608A - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP2016178608A JP2016178608A JP2015059349A JP2015059349A JP2016178608A JP 2016178608 A JP2016178608 A JP 2016178608A JP 2015059349 A JP2015059349 A JP 2015059349A JP 2015059349 A JP2015059349 A JP 2015059349A JP 2016178608 A JP2016178608 A JP 2016178608A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- area
- size
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
Abstract
Description
動画像内で被写体を検出する検出手段と、
前記動画像を構成する各フレーム画像から前記検出手段により検出された前記被写体に対応する領域を切り出す切り出し手段と、
前記切り出し手段により既に切り出された前記被写体に対応する領域の位置及びサイズのうちの少なくとも一方に基づいて、当該切り出し手段により新たに切り出される切出予定領域を設定する設定手段と、
を備えたことを特徴としている。
画像処理装置を用いた画像処理方法であって、
動画像内で被写体を検出するステップと、
前記動画像を構成する各フレーム画像から検出された前記被写体に対応する領域を切り出すステップと、
既に切り出された前記被写体に対応する領域の位置及びサイズのうちの少なくとも一方に基づいて、新たに切り出される切出予定領域を設定するステップと、
を含むことを特徴としている。
画像処理装置のコンピュータを、
動画像内で被写体を検出する検出手段、
前記動画像を構成する各フレーム画像から前記検出手段により検出された前記被写体に対応する領域を切り出す切り出し手段、
前記切り出し手段により既に切り出された前記被写体に対応する領域の位置及びサイズのうちの少なくとも一方に基づいて、当該切り出し手段により新たに切り出される切出予定領域を設定する設定手段、
として機能させることを特徴としている。
図1に示すように、本実施形態の撮像装置100は、中央制御部1と、メモリ2と、撮像部3と、画像データ生成部4と、画像処理部5と、画像記録部6と、表示部7と、操作入力部8とを備えている。
また、中央制御部1、メモリ2、撮像部3、画像データ生成部4、画像処理部5、画像記録部6及び表示部7は、バスライン9を介して接続されている。
電子撮像部3bは、例えば、CMOS(Complementary Metal-oxide Semiconductor)やCCD(Charge Coupled Device)等のイメージセンサから構成され、レンズ部3aの各種レンズを通過した光学像を二次元の画像信号に変換する。
なお、図示は省略するが、撮像部3は、レンズ部3aを通過する光の量を調整する絞りを備えていても良い。
また、画像データ生成部4は、生成した画像データをバッファメモリとして使用されるメモリ2に転送する。
なお、画像処理部5の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
すなわち、画像取得部5aは、例えば、被写体Sが撮像部3により撮像されて画像データ生成部4により生成された複数のフレーム画像F、…からなる動画像の画像データを、メモリ2から取得する。
なお、画像取得部5aは、撮像部3や外部機器(図示略)による被写体Sの撮像後に画像記録部6に記録されている動画像の画像データを読み出して、画像切り出し処理の処理対象として取得しても良い。
すなわち、被写体検出部5bは、画像取得部5aにより取得された複数のフレーム画像F、…からなる動画像の画像データに対して、所定の被写体検出処理を行って各フレーム画像Fから被写体Sを検出する。具体的には、例えば、被写体S(例えば、ヒト等)に可視光(波長が380〜780nmの領域の光)を発光する光タグ(図示略)が取り付けられている場合、被写体検出部5bは、動画像内で所定の規則性(例えば、発色パターンや発光パターン等)で発光する光タグを検出し、その検出位置を特定する。そして、被写体検出部5bは、特定された光タグの検出位置を基準として、各フレーム画像Fに対して所定の被写体検出処理(例えば、顔検出処理等)を行い、各フレーム画像Fから被写体Sの位置や当該被写体Sが含まれる領域を検出する。また、被写体検出部5bは、動画像を構成する複数のフレーム画像F、…のうち、一のフレーム画像Fから検出された被写体Sの位置情報、被写体Sが含まれる領域の輝度情報や色情報等の画像情報などを追尾対象として、他のフレーム画像F内で被写体Sを検出するようにしても良い。
また、被写体検出部5bは、各フレーム画像Fから複数の被写体S、…や複数の被写体S、…が含まれる領域を検出しても良い。
すなわち、判定部(判定手段)5cは、動画像を構成する一のフレーム画像Fから被写体検出部5bにより被写体Sが検出されたか否かを判定する。具体的には、判定部5cは、例えば、被写体検出部5bにより各フレーム画像Fから被写体Sに取り付けられている光タグが検出されたか否かや被写体Sが含まれる領域が検出されたか否かに応じて、被写体Sが検出されたか否かを判定する。
すなわち、領域設定部(設定手段)5dは、画像切出部5eにより既に切り出された被写体切出領域A(図5(a)参照)の位置及びサイズのうちの少なくとも一方に基づいて、当該画像切出部5eにより新たに切り出される切出予定領域A0を設定する。具体的には、領域設定部5dは、画像切出部5eにより既に切り出された被写体切出領域Aの位置の経時的な変化に基づいて、新たな切出予定領域A0の位置を補間して設定する。また、領域設定部5dは、画像切出部5eにより既に切り出された被写体切出領域Aのサイズの経時的な変化に基づいて、新たな切出予定領域A0のサイズを補間して設定する。
ここで、複数の被写体切出領域Aのサイズが変位すると当該被写体切出領域Aの位置も変位することから、領域設定部5dは、時間軸で隣り合う被写体切出領域Aどうしの位置座標間の距離の代表値を利用して線形補間条件を算出しているが、例えば、複数の被写体切出領域Aのサイズの代表値を所定のサイズと比較した結果も利用して線形補間条件を算出しても良い。
なお、線形補間は、公知の技術であるので、ここでは詳細な説明を省略する。
このとき、領域設定部5dは、撮像部3により被写体Sを撮像する際のブレを考慮して、重心を中心として外側にあそび領域を付加して被写体領域Asを設定しても良い。なお、付加されるあそび領域のサイズは、例えば、被写体領域Asの位置やサイズに応じて変化させても良いし、経験的に求められる一定のサイズであっても良い。
なお、被写体領域Asにあそび領域が付加されている場合、領域設定部5dは、特定された被写体領域Asのあそび領域内に、一つ前のフレーム画像Fから切り出された被写体切出領域Aの重心が存するか否かを判定するようにしても良い。
また、上記の判定手法以外にも、領域設定部5dは、特定された被写体領域As内に、一つ前のフレーム画像Fから切り出された被写体切出領域A全体が存するか否かを判定するようにしても良い。
なお、被写体領域Asのサイズが一つ前のフレーム画像Fから切り出された被写体切出領域Aのサイズと同じと判定された場合には、領域設定部5dは、一のフレーム画像Fから新たに切り出される切出予定領域A0のサイズが一つ前のフレーム画像Fから切り出された被写体切出領域Aのサイズと同一となるように設定しても良い。
また、設定される切出予定領域A0の重心がフレーム画像Fの端部(例えば、左端部等)に近いために、当該端部よりも外側に切出予定領域A0が設定されてしまう場合には、領域設定部5dは、切出予定領域A0の縦横比を保持したまま、切出予定領域A0をフレーム画像Fの端部から離れる方向に移動させて設定しても良い。
すなわち、画像切出部5eは、処理対象となる一のフレーム画像Fから領域設定部5dにより設定された切出予定領域A0を被写体切出領域Aとして切り出す。
なお、被写体切出領域Aは、被写体検出部5bにより被写体Sが検出されなかった場合にも、領域設定部5dにより切出予定領域A0が設定されて切り出されるため、当該領域内に被写体Sが含まれている場合も含まれていない場合もある。
具体的には、画像記録部6は、例えば、撮像部3により撮像された被写体Sの動画像の画像データや、当該動画像から切り出された被写体切出領域Aのトリミング動画像の画像データ等を記録する。
なお、表示パネル7aとしては、例えば、液晶表示パネルや有機EL表示パネルなどが挙げられるが、一例であってこれらに限られるものではない。
具体的には、操作入力部8は、例えば、モードや機能等の選択指示に係る上下左右のカーソルボタンや決定ボタン等を具備する操作部(図示略)を備えている。
そして、ユーザにより操作部の各種ボタンが操作されると、操作入力部8は、操作されたボタンに応じた操作指示を中央制御部1に出力する。中央制御部1は、操作入力部8から出力され入力された操作指示に従って所定の動作(例えば、被写体Sの撮像等)を各部に実行させる。
なお、操作入力部8は、表示部7の表示パネル7aと一体となって設けられたタッチパネル(図示略)を有して構成されていても良い。
次に、画像切り出し処理について、図2〜図6を参照して説明する。
図2〜図4は、画像切り出し処理に係る動作の一例を示すフローチャートである。また、図5(a)〜図5(c)並びに図6(a)及び図6(b)は、フレーム番号N=1〜5のフレーム画像Fと被写体領域Asと被写体切出領域Aとの対応関係の一例を模式的に示す図である。
なお、図5(a)〜図5(c)並びに図6(a)及び図6(b)にあっては、切出予定領域A0及び被写体切出領域Aを一点鎖線で表し、被写体領域Asを二点鎖線で表すものとする。
次に、画像処理部5は、前回の被写体切出領域Aがあるか否かを判定する(ステップS2)。例えば、画像処理部5は、例えば、メモリ2の所定の格納領域に当該画像切り出し処理にて前回切り出された被写体切出領域Aの位置、サイズ、重心等の情報が格納されているか否かを判定する。
ここで、画像処理部5は、動画像の複数のフレーム画像F、…のうち、フレーム番号が最初(N=1)のフレーム画像F(図5(a)参照)を処理対象とする場合、未だ被写体切出領域Aの切り出しが行われていないため、前回の被写体切出領域Aはないと判定する。
続けて、被写体検出部5bは、処理対象として指定された一のフレーム画像Fの画像データに対して所定の被写体検出処理を行う(ステップS4)。この被写体検出処理では、例えば、被写体Sに取り付けられている光タグを利用して、フレーム画像F内から被写体Sを検出しても良い。
ここで、被写体検出部5bにより被写体Sが検出されたと判定されると(ステップS5;YES)、領域設定部5dは、被写体検出部5bにより検出された被写体Sの位置、サイズに基づいて、例えば、被写体Sを中心として当該被写体Sを包含する程度のサイズで切出予定領域A0を設定する(ステップS6)。
一方、被写体検出部5bにより被写体Sが検出されていないと判定されると(ステップS5;NO)、領域設定部5dは、フレーム画像F全体を切出予定領域A0として設定する(ステップS7)。
ここで、処理対象のフレーム画像Fが最後のフレーム画像Fでないと判定されると(ステップS9;NO)、画像処理部5は、処理をステップS2に戻し、上記と同様に、前回の被写体切出領域Aがあるか否かを判定する(ステップS2)。
次に、判定部5cは、処理対象のフレーム画像F内から被写体検出部5bにより被写体Sが検出されたか否かを判定する(ステップS13)。
そして、領域設定部5dは、算出された被写体切出領域Aどうしの距離の代表値に基づいて所定の演算を行って、新たな切出予定領域A0の位置やサイズを補間して設定するための線形補間条件を算出する(ステップS15)。
次に、領域設定部5dは、特定された被写体領域Asのあそび領域内に前回の被写体切出領域Aの重心が存するか否かを判定する(ステップS18)。
一方、あそび領域内に前回の被写体切出領域Aの重心が存しないと判定されると(ステップS18;NO)、領域設定部5dは、ステップS15にて算出された線形補間条件に基づいて、処理対象のフレーム画像Fから新たに切り出される切出予定領域A0の重心を設定する(ステップS20)。
そして、領域設定部5dは、サイズ調整後の被写体領域Asのサイズが前回の被写体切出領域Aのサイズよりも大きいか否かを判定する(ステップS22)。
一方、被写体領域Asのサイズが前回の被写体切出領域Aのサイズよりも大きくないと判定されると(ステップS22;NO)、領域設定部5dは、ステップS15にて算出された線形補間条件に基づいて、処理対象のフレーム画像Fから新たに切り出される切出予定領域A0のサイズが前回の被写体切出領域Aのサイズ以下となるように設定する(ステップS24)。
画像切出部5eは、処理対象のフレーム画像Fから領域設定部5dにより設定された切出予定領域A0を被写体切出領域Aとして切り出す(ステップS26)。そして、画像切出部5eは、上記ステップS8と同様に、切り出された被写体切出領域Aの位置、サイズ、重心等の情報をメモリ2に出力する。メモリ2の所定の格納領域には、フレーム画像Fのフレーム番号(N=2)と対応付けて、被写体切出領域Aの位置、サイズ、重心等の情報が格納される。
ここで、処理対象のフレーム画像Fが最後のフレーム画像Fでないと判定されると(ステップS9;NO)、画像処理部5は、処理をステップS2に戻し、上記と同様に、前回の被写体切出領域Aがあるか否かを判定する(ステップS2)。
例えば、図5(a)〜図5(c)並びに図6(a)及び図6(b)に示すように、フレーム番号N=1の最初のフレーム画像F及び次のフレーム番号N=2のフレーム画像Fで一の被写体Sが検出され、三番目のフレーム番号N=3のフレーム画像Fで二つの被写体S、Sが検出された場合であっても、被写体切出領域A(切出予定領域A0)の位置及びサイズは、三番目のフレーム番号N=3のフレーム画像Fで急激に変化するのではなく、既に切り出された被写体切出領域Aの位置及びサイズの経時的な変化を考慮して補間して設定される(図5(c)参照)。つまり、処理対象のフレーム画像Fで被写体領域Asの位置やサイズが急激に変化しても、当該フレーム画像Fから実際に切り出される被写体切出領域Aの位置やサイズは隣り合うフレーム画像F間で緩やかに変化していくこととなる(図5(b)〜図6(b)参照)。
ここで、ズームアウトしないと判定されると(ステップS27;NO)、領域設定部5dは、前回設定された切出予定領域A0の位置、サイズを処理対象のフレーム画像Fから新たに切り出される切出予定領域A0の位置、サイズとして設定する(ステップS28)。
その後、画像処理部5は、処理をステップS26に移行して、それ以降の各処理を実行する。すなわち、ステップS26にて、画像切出部5eは、処理対象のフレーム画像Fから領域設定部5dにより設定された切出予定領域A0を被写体切出領域Aとして切り出す。
その後、画像処理部5は、処理をステップS23に移行して、それ以降の各処理を実行する。すなわち、ステップS23にて、領域設定部5dは、ステップS15にて算出された線形補間条件に基づいて、処理対象のフレーム画像Fから新たに切り出される切出予定領域A0のサイズが前回の被写体切出領域Aのサイズよりも大きくなるように設定し、ステップS25にて、設定された切出予定領域A0の重心及びサイズから当該切出予定領域A0の位置を特定する。
そして、ステップS26にて、画像切出部5eは、処理対象のフレーム画像Fから領域設定部5dにより設定された切出予定領域A0を被写体切出領域Aとして切り出す。
ここで、フレーム画像F全体までズームアウトすると判定されると(ステップS32;YES)、画像処理部5は、前回切り出された被写体切出領域Aのサイズがフレーム画像F全体のサイズよりも小さいか否かを判定する(ステップS33)。
その後、画像処理部5は、処理をステップS23に移行して、それ以降の各処理を実行する。すなわち、ステップS23にて、領域設定部5dは、ステップS15にて算出された線形補間条件に基づいて、処理対象のフレーム画像Fから新たに切り出される切出予定領域A0のサイズが前回の被写体切出領域Aのサイズよりも大きくなるように設定し、ステップS25にて、設定された切出予定領域A0の重心及びサイズから当該切出予定領域A0の位置を特定する。
そして、ステップS26にて、画像切出部5eは、処理対象のフレーム画像Fから領域設定部5dにより設定された切出予定領域A0を被写体切出領域Aとして切り出す。
その後、画像処理部5は、処理をステップS26に移行して、それ以降の各処理を実行する。すなわち、ステップS26にて、画像切出部5eは、処理対象のフレーム画像Fから領域設定部5dにより設定された切出予定領域A0を被写体切出領域Aとして切り出す。
このように、動画像から被写体Sに対応する被写体切出領域Aを適正に切り出すことができる。
特に、処理対象のフレーム画像Fから被写体Sが複数検出された場合に、検出された複数の被写体S、…の位置及びサイズを考慮することで、動画像内から検出される被写体Sの数が急激に変化しても、実際に切り出される被写体切出領域Aの位置やサイズを隣り合うフレーム画像F間で緩やかに変化させることができる。
さらに、処理対象となるフレーム画像Fから被写体Sが検出されなかった場合であっても処理対象のフレーム画像Fよりも前の他のフレーム画像Fから切り出された被写体切出領域Aの位置及びサイズに基づいて、処理対象のフレーム画像Fから新たに切り出される切出予定領域A0を設定するので、被写体Sが含まれていない被写体切出領域Aを切り出す場合にも、当該被写体切出領域Aの位置やサイズを隣り合うフレーム画像F間で緩やかに変化させることができる。
例えば、上記実施形態では、既に切り出された被写体切出領域Aの位置及びサイズに基づいて、新たに切り出される切出予定領域A0を設定するようにしたが、一例であってこれに限られるものではなく、例えば、被写体切出領域Aの位置及びサイズの何れか一方を考慮して切出予定領域A0を設定しても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、検出処理ルーチン、切り出し処理ルーチン、設定処理ルーチンを含むプログラムを記憶しておく。そして、検出処理ルーチンにより中央制御部1のCPUを、動画像内で被写体Sを検出する手段として機能させるようにしても良い。また、切り出し処理ルーチンにより中央制御部1のCPUを、動画像を構成する各フレーム画像Fから検出された被写体Sに対応する被写体切出領域Aを切り出す手段として機能させるようにしても良い。また、設定処理ルーチンにより中央制御部1のCPUを、既に切り出された被写体切出領域Aの位置及びサイズのうちの少なくとも一方に基づいて、新たに切り出される切出予定領域A0を設定する手段として機能させるようにしても良い。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
動画像内で被写体を検出する検出手段と、
前記動画像を構成する各フレーム画像から前記検出手段により検出された前記被写体に対応する領域を切り出す切り出し手段と、
前記切り出し手段により既に切り出された前記被写体に対応する領域の位置及びサイズのうちの少なくとも一方に基づいて、当該切り出し手段により新たに切り出される切出予定領域を設定する設定手段と、
を備えたことを特徴とする画像処理装置。
<請求項2>
前記設定手段は、
前記切り出し手段により既に切り出された前記被写体に対応する領域の位置の経時的な変化に基づいて、前記切出予定領域の位置を補間して設定することを特徴とする請求項1に記載の画像処理装置。
<請求項3>
前記設定手段は、
前記切り出し手段により既に切り出された前記被写体に対応する領域のサイズの経時的な変化に基づいて、前記切出予定領域のサイズを補間して設定することを特徴とする請求項1に記載の画像処理装置。
<請求項4>
前記設定手段は、
前記検出手段により検出された前記被写体に対応する領域と、前記切り出し手段により既に切り出された前記被写体に対応する領域の位置及びサイズの経時的な変化に基づいて、前記切出予定領域を設定することを特徴とする請求項1〜3の何れか一項に記載の画像処理装置。
<請求項5>
前記動画像を構成する一のフレーム画像から前記検出手段により前記被写体が検出されたか否かを判定する判定手段を更に備え、
前記設定手段は、
前記判定手段により前記被写体が検出されたと判定された場合に、前記一のフレーム画像から前記検出手段により検出された前記被写体の位置及びサイズと、前記動画像を構成する前記一のフレーム画像よりも前の他のフレーム画像から前記切り出し手段により切り出された前記被写体に対応する領域の位置及びサイズとに基づいて、当該切り出し手段により前記一のフレーム画像から新たに切り出される切出予定領域を設定することを特徴とする請求項1〜4の何れか一項に記載の画像処理装置。
<請求項6>
前記設定手段は、
前記検出手段により前記被写体が複数検出された場合に、前記一のフレーム画像から前記検出手段により検出された前記複数の被写体の位置及びサイズと、前記他のフレーム画像から前記切り出し手段により切り出された前記被写体に対応する領域の位置及びサイズとに基づいて、前記切出予定領域を設定することを特徴とする請求項5に記載の画像処理装置。
<請求項7>
前記設定手段は、更に、
前記判定手段により前記被写体が検出されなかったと判定された場合に、前記他のフレーム画像から前記切り出し手段により切り出された前記被写体に対応する領域の位置及びサイズに基づいて、前記切出予定領域を設定することを特徴とする請求項5又は6に記載の画像処理装置。
<請求項8>
前記被写体は、前記動画像内で追尾対象の被写体を含むことを特徴とする請求項1〜7の何れか一項に記載の画像処理装置。
<請求項9>
前記検出手段は、更に、前記動画像内で前記被写体の可視光の発光を検出することを特徴とする請求項1〜8の何れか一項に記載の画像処理装置。
<請求項10>
画像処理装置を用いた画像処理方法であって、
動画像内で被写体を検出するステップと、
前記動画像を構成する各フレーム画像から検出された前記被写体に対応する領域を切り出すステップと、
既に切り出された前記被写体に対応する領域の位置及びサイズのうちの少なくとも一方に基づいて、新たに切り出される切出予定領域を設定するステップと、
を含むことを特徴とする画像処理方法。
<請求項11>
画像処理装置のコンピュータを、
動画像内で被写体を検出する検出手段、
前記動画像を構成する各フレーム画像から前記検出手段により検出された前記被写体に対応する領域を切り出す切り出し手段、
前記切り出し手段により既に切り出された前記被写体に対応する領域の位置及びサイズのうちの少なくとも一方に基づいて、当該切り出し手段により新たに切り出される切出予定領域を設定する設定手段、
として機能させることを特徴とするプログラム。
1 中央制御部
5b 被写体検出部
5c 判定部
5d 領域設定部
5e 画像切出部
F フレーム画像
As 被写体領域
A0 切出予定領域
A 被写体切出領域
Claims (11)
- 動画像内で被写体を検出する検出手段と、
前記動画像を構成する各フレーム画像から前記検出手段により検出された前記被写体に対応する領域を切り出す切り出し手段と、
前記切り出し手段により既に切り出された前記被写体に対応する領域の位置及びサイズのうちの少なくとも一方に基づいて、当該切り出し手段により新たに切り出される切出予定領域を設定する設定手段と、
を備えたことを特徴とする画像処理装置。 - 前記設定手段は、
前記切り出し手段により既に切り出された前記被写体に対応する領域の位置の経時的な変化に基づいて、前記切出予定領域の位置を補間して設定することを特徴とする請求項1に記載の画像処理装置。 - 前記設定手段は、
前記切り出し手段により既に切り出された前記被写体に対応する領域のサイズの経時的な変化に基づいて、前記切出予定領域のサイズを補間して設定することを特徴とする請求項1に記載の画像処理装置。 - 前記設定手段は、
前記検出手段により検出された前記被写体に対応する領域と、前記切り出し手段により既に切り出された前記被写体に対応する領域の位置及びサイズの経時的な変化に基づいて、前記切出予定領域を設定することを特徴とする請求項1〜3の何れか一項に記載の画像処理装置。 - 前記動画像を構成する一のフレーム画像から前記検出手段により前記被写体が検出されたか否かを判定する判定手段を更に備え、
前記設定手段は、
前記判定手段により前記被写体が検出されたと判定された場合に、前記一のフレーム画像から前記検出手段により検出された前記被写体の位置及びサイズと、前記動画像を構成する前記一のフレーム画像よりも前の他のフレーム画像から前記切り出し手段により切り出された前記被写体に対応する領域の位置及びサイズとに基づいて、当該切り出し手段により前記一のフレーム画像から新たに切り出される切出予定領域を設定することを特徴とする請求項1〜4の何れか一項に記載の画像処理装置。 - 前記設定手段は、
前記検出手段により前記被写体が複数検出された場合に、前記一のフレーム画像から前記検出手段により検出された前記複数の被写体の位置及びサイズと、前記他のフレーム画像から前記切り出し手段により切り出された前記被写体に対応する領域の位置及びサイズとに基づいて、前記切出予定領域を設定することを特徴とする請求項5に記載の画像処理装置。 - 前記設定手段は、更に、
前記判定手段により前記被写体が検出されなかったと判定された場合に、前記他のフレーム画像から前記切り出し手段により切り出された前記被写体に対応する領域の位置及びサイズに基づいて、前記切出予定領域を設定することを特徴とする請求項5又は6に記載の画像処理装置。 - 前記被写体は、前記動画像内で追尾対象の被写体を含むことを特徴とする請求項1〜7の何れか一項に記載の画像処理装置。
- 前記検出手段は、更に、前記動画像内で前記被写体の可視光の発光を検出することを特徴とする請求項1〜8の何れか一項に記載の画像処理装置。
- 画像処理装置を用いた画像処理方法であって、
動画像内で被写体を検出するステップと、
前記動画像を構成する各フレーム画像から検出された前記被写体に対応する領域を切り出すステップと、
既に切り出された前記被写体に対応する領域の位置及びサイズのうちの少なくとも一方に基づいて、新たに切り出される切出予定領域を設定するステップと、
を含むことを特徴とする画像処理方法。 - 画像処理装置のコンピュータを、
動画像内で被写体を検出する検出手段、
前記動画像を構成する各フレーム画像から前記検出手段により検出された前記被写体に対応する領域を切り出す切り出し手段、
前記切り出し手段により既に切り出された前記被写体に対応する領域の位置及びサイズのうちの少なくとも一方に基づいて、当該切り出し手段により新たに切り出される切出予定領域を設定する設定手段、
として機能させることを特徴とするプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015059349A JP6500535B2 (ja) | 2015-03-23 | 2015-03-23 | 画像処理装置、画像処理方法及びプログラム |
US15/016,025 US10095919B2 (en) | 2015-03-23 | 2016-02-04 | Image processing apparatus, image processing method and storage medium to suitably clip a subject region from a moving image |
CN201610169833.XA CN105991928B (zh) | 2015-03-23 | 2016-03-23 | 图像处理装置以及图像处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015059349A JP6500535B2 (ja) | 2015-03-23 | 2015-03-23 | 画像処理装置、画像処理方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016178608A true JP2016178608A (ja) | 2016-10-06 |
JP2016178608A5 JP2016178608A5 (ja) | 2018-04-12 |
JP6500535B2 JP6500535B2 (ja) | 2019-04-17 |
Family
ID=56975618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015059349A Active JP6500535B2 (ja) | 2015-03-23 | 2015-03-23 | 画像処理装置、画像処理方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10095919B2 (ja) |
JP (1) | JP6500535B2 (ja) |
CN (1) | CN105991928B (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020526853A (ja) * | 2017-07-18 | 2020-08-31 | ハンジョウ タロ ポジショニング テクノロジー カンパニー リミテッドHangzhou Taro Positioning Technology Co.,Ltd. | インテリジェントな物体追跡 |
JPWO2021124524A1 (ja) * | 2019-12-19 | 2021-06-24 | ||
US11364637B2 (en) | 2017-07-18 | 2022-06-21 | Hangzhou Taro Positioning Technology Co., Ltd. | Intelligent object tracking |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6500535B2 (ja) * | 2015-03-23 | 2019-04-17 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
CN106709495B (zh) * | 2017-01-22 | 2020-03-20 | 广东小天才科技有限公司 | 一种图像区域居中的方法和装置 |
US11548158B2 (en) * | 2020-04-17 | 2023-01-10 | Abb Schweiz Ag | Automatic sensor conflict resolution for sensor fusion system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012175207A (ja) * | 2011-02-18 | 2012-09-10 | Panasonic Corp | 画像処理装置、画像処理方法、及びコンピュータプログラム |
JP2015023294A (ja) * | 2013-07-16 | 2015-02-02 | オリンパスイメージング株式会社 | 動画処理装置及び動画処理方法 |
JP2015043557A (ja) * | 2013-07-24 | 2015-03-05 | キヤノン株式会社 | 撮像装置、撮像装置の制御方法、撮像装置の制御プログラムおよび記憶媒体 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1444654A2 (de) * | 2001-03-08 | 2004-08-11 | Universite Joseph Fourier | Quantitative analyse, visualisierung und bewegungskorrektur in dynamischen prozessen |
DE102005000714A1 (de) * | 2005-01-03 | 2006-07-20 | Siemens Ag | Verfahren zur Bildgebung eines periodisch bewegten Objektbereichs eines Objekts |
WO2007017785A2 (en) * | 2005-08-08 | 2007-02-15 | Nxp B.V. | Method of setting contrast in digital image processing, and an arrangement for this purpose |
JP2008061184A (ja) | 2006-09-04 | 2008-03-13 | Sony Corp | 画像処理装置および方法、プログラム、並びに撮像装置 |
WO2008084413A2 (en) * | 2007-01-08 | 2008-07-17 | Koninklijke Philips Electronics N.V. | Imaging system for imaging a region of interest comprising a moving object |
US8805497B2 (en) | 2008-10-06 | 2014-08-12 | Cardiac Pacemakers, Inc. | Titrated intermittent pacing therapy |
JP4985834B2 (ja) * | 2009-10-13 | 2012-07-25 | 株式会社ニコン | 撮像装置及び画像処理装置 |
CN102045527B (zh) * | 2009-10-14 | 2015-11-25 | 株式会社尼康 | 摄像装置及图像处理装置 |
JP2012205037A (ja) * | 2011-03-25 | 2012-10-22 | Olympus Imaging Corp | 画像処理装置および画像処理方法 |
JP5897308B2 (ja) * | 2011-11-24 | 2016-03-30 | 株式会社東芝 | 医用画像処理装置 |
JP5804007B2 (ja) * | 2013-09-03 | 2015-11-04 | カシオ計算機株式会社 | 動画生成システム、動画生成方法及びプログラム |
JP6299300B2 (ja) * | 2014-03-14 | 2018-03-28 | オムロン株式会社 | 画像処理装置および画像処理方法 |
CN104036523A (zh) * | 2014-06-18 | 2014-09-10 | 哈尔滨工程大学 | 一种基于SURF特征的改进Mean Shift的目标跟踪方法 |
JP6500535B2 (ja) * | 2015-03-23 | 2019-04-17 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
-
2015
- 2015-03-23 JP JP2015059349A patent/JP6500535B2/ja active Active
-
2016
- 2016-02-04 US US15/016,025 patent/US10095919B2/en active Active
- 2016-03-23 CN CN201610169833.XA patent/CN105991928B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012175207A (ja) * | 2011-02-18 | 2012-09-10 | Panasonic Corp | 画像処理装置、画像処理方法、及びコンピュータプログラム |
JP2015023294A (ja) * | 2013-07-16 | 2015-02-02 | オリンパスイメージング株式会社 | 動画処理装置及び動画処理方法 |
JP2015043557A (ja) * | 2013-07-24 | 2015-03-05 | キヤノン株式会社 | 撮像装置、撮像装置の制御方法、撮像装置の制御プログラムおよび記憶媒体 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020526853A (ja) * | 2017-07-18 | 2020-08-31 | ハンジョウ タロ ポジショニング テクノロジー カンパニー リミテッドHangzhou Taro Positioning Technology Co.,Ltd. | インテリジェントな物体追跡 |
US11364637B2 (en) | 2017-07-18 | 2022-06-21 | Hangzhou Taro Positioning Technology Co., Ltd. | Intelligent object tracking |
JPWO2021124524A1 (ja) * | 2019-12-19 | 2021-06-24 | ||
WO2021124524A1 (ja) * | 2019-12-19 | 2021-06-24 | 三菱電機株式会社 | 目標追尾装置および目標追尾方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105991928B (zh) | 2019-06-21 |
US20160283813A1 (en) | 2016-09-29 |
CN105991928A (zh) | 2016-10-05 |
US10095919B2 (en) | 2018-10-09 |
JP6500535B2 (ja) | 2019-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7796840B2 (en) | Image processing apparatus and method thereof | |
JP6500535B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5331128B2 (ja) | 撮像装置 | |
JP6682559B2 (ja) | 画像処理装置、画像処理方法、画像処理プログラム及び記憶媒体 | |
US20100238325A1 (en) | Image processor and recording medium | |
JP5935779B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US10462373B2 (en) | Imaging device configured to control a region of imaging | |
US10237488B2 (en) | Image capturing apparatus and image capturing method | |
US20140313354A1 (en) | Moving image processing apparatus, imaging apparatus, and moving image processing method | |
JP4868046B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2018093376A (ja) | 撮像装置、撮像方法及びプログラム | |
KR20150023602A (ko) | 화상 처리 장치, 화상 처리 방법 및 기억 매체 | |
JP5510287B2 (ja) | 被写体検出装置、被写体検出方法及びプログラム | |
JP6541501B2 (ja) | 画像処理装置、撮像装置、及び画像処理方法 | |
JP2011193066A (ja) | 撮像装置 | |
JP5636660B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2009027437A (ja) | 画像処理装置,画像処理方法及び撮像装置 | |
JP5967172B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP5807695B2 (ja) | 被写体検出装置、被写体検出方法及びプログラム | |
JP5740934B2 (ja) | 被写体検出装置、被写体検出方法及びプログラム | |
JP2019041188A (ja) | 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム | |
US20230122606A1 (en) | Image capturing system, control method, and storage medium | |
JP6682874B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2016039513A (ja) | 画像生成装置、画像生成方法及びプログラム | |
JP2016149663A (ja) | 出力装置、出力制御方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180305 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180305 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190304 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6500535 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |