JP2014027580A - 撮像装置、及び画像処理方法 - Google Patents
撮像装置、及び画像処理方法 Download PDFInfo
- Publication number
- JP2014027580A JP2014027580A JP2012167984A JP2012167984A JP2014027580A JP 2014027580 A JP2014027580 A JP 2014027580A JP 2012167984 A JP2012167984 A JP 2012167984A JP 2012167984 A JP2012167984 A JP 2012167984A JP 2014027580 A JP2014027580 A JP 2014027580A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- image
- area
- face
- detection target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Indication In Cameras, And Counting Of Exposures (AREA)
- Studio Devices (AREA)
Abstract
【課題】適切に画像効果を施すことができる撮像装置、及び画像処理方法を提供すること。
【解決手段】本発明の一態様に係る撮像装置は、動画像を撮像する撮像部100と、撮フレーム画像から検出対象を順次検出する顔検出処理部131と、検出対象が検出された検出フレーム画像の間の中間フレーム画像において、検出対象の座標を補正する中央制御部400と、中央制御部400によって補正された検出対象の位置に応じて、画像効果を施す画像効果処理部210と、を備え、中央制御部400が、(a)フレーム画像の一部である検出エリアCと、サーチ範囲Sと、を決定し、(b)サーチ範囲S内において、検出エリアCと比較されるリファレンスエリアRをスキャンしていき、(c)リファレンスエリアRをスキャンした時の検出エリアCの輝度情報とリファレンスエリアRの輝度情報の比較結果から、検出対象の座標を補正する。
【選択図】図1
【解決手段】本発明の一態様に係る撮像装置は、動画像を撮像する撮像部100と、撮フレーム画像から検出対象を順次検出する顔検出処理部131と、検出対象が検出された検出フレーム画像の間の中間フレーム画像において、検出対象の座標を補正する中央制御部400と、中央制御部400によって補正された検出対象の位置に応じて、画像効果を施す画像効果処理部210と、を備え、中央制御部400が、(a)フレーム画像の一部である検出エリアCと、サーチ範囲Sと、を決定し、(b)サーチ範囲S内において、検出エリアCと比較されるリファレンスエリアRをスキャンしていき、(c)リファレンスエリアRをスキャンした時の検出エリアCの輝度情報とリファレンスエリアRの輝度情報の比較結果から、検出対象の座標を補正する。
【選択図】図1
Description
本発明は撮像装置、及びその画像処理方法に関するものである。
特許文献1には画像中の適切な位置に所定の画像を合成する画像処理装置が開示されている。例えば、特許文献1では、スルー画像中に、キャラクタ画像を合成することにより得られる合成画像を表示している。
また、特許文献2には、ユーザがタッチパネル上で文字、図形を手書きすることで、モニタ上に表示された画像に手書きした文字、図形を表示させる撮像装置が開示されている。
しかしながら、特許文献1に記載の画像処理装置、及び特許文献2に記載の撮像装置では、キャラクタ画像、文字画像、又は図形画像が撮像の際の画角や方向と関係なく不変の位置となっている。すなわち、撮像方向を変えた場合でも、モニタに表示される、又は記録媒体に記録される画像において、キャラクタ画像等の位置が一定となっている。また、ズーム倍率を変更して画角を変更した場合でも、同じくモニタに表示される、又は記録媒体に記録される画像において、キャラクタ画像の位置や大きさが一定となっている。
そのため、例えば、撮像の際にユーザが注目した特定の被写体画像の近辺等にキャラクタ等の画像を合成した合成画像を生成しても、その後ユーザが撮像の最中に画角を変更、又は撮像方向を変更した場合には、その被写体画像の大きさ等が変化するため、ユーザは一度合成したキャラクタ画像等を削除し、改めて新しい位置や大きさでキャラクタ画像等を合成しなおす必要があった。つまり、撮像方向や撮像画角といった撮像条件を変化させた場合、ユーザはキャラクタ画像等を合成し直す操作をしなければならないという問題があった。
本発明は、上記問題を鑑み、適切に画像効果を施すことができる撮像装置、及び表示処理方法を提供することを目的とする。
本発明の一態様にかかる撮像装置は、動画像を撮像する撮像部(100)と、前記撮像部(100)で撮像された動画像のフレーム画像から検出対象を順次検出する検出部(131)と、前記検出対象が検出された検出フレーム画像の間の中間フレーム画像において、前記検出対象の座標を補正する処理部(400)と、前記処理部によって補正された検出対象の位置に応じて、画像効果を施す画像効果処理部(210)と、を備え、前記処理部(400)が、(a)前記検出部での検出結果に基づいて、フレーム画像の一部である検出エリアと、前記中間フレーム画像において前記検出対象をサーチするサーチ範囲(S)と、を決定し、(b)前記中間フレーム画像の前記サーチ範囲(S)内において、前記検出エリアと比較されるリファレンスエリア(R)をスキャンしていき、(c)前記リファレンスエリア(R)をスキャンした時の前記検出エリアの輝度情報と前記リファレンスエリア(R)の輝度情報の比較結果から、前記検出対象の座標を補正するものである。このようにすることで、適切に画像効果を施すことができる。
上記の撮像装置において、前記(c)において補正された前記検出対象の位置に基づいて、前記中間フレーム画像から前記検出エリアを抽出して、前記検出エリアの輝度情報を更新し、抽出された前記検出エリアによって、前記(b)、及び前記(c)の処理を行うようにしてもよい。このようにすることで、適切に画像効果を施すことができる。
上記の撮像装置において、前回の前記検出対象と最新の前記検出対象との移動量に応じて、前記サーチ範囲(S)が決定されていてもよい。このようにすることで、適切なサーチ範囲(S)を設定することができるため、迅速に処理することができる。
上記の撮像装置において、前記(c)では、前記検出エリアの輝度情報と前記リファレンスエリア(R)の輝度情報との差の絶対値を画素毎に求め、前記画素毎の絶対値の総和を求め、前記サーチ範囲(S)に含まれるリファレンスエリア(R)の中で、前記総和が最小となるリファレンスエリアに基づいて、前記検出対象の位置が補正されていてもよい。
上記の撮像装置において、前記総和がしきい値よりも大きい時は、前記(c)において前記検出対象の位置を補正しないようにしてもよい。
本発明の一態様にかかる画像処理方法は動画像を撮像する撮像部を有する撮像装置における画像処理方法であって、前記撮像部によって撮像された動画像のフレーム画像から検出対象を順次検出するステップと、前記検出対象が検出された検出フレーム画像の間の中間フレーム画像において、前記検出対象の位置を補正するステップと、補正された前記検出対象の位置に基づいて、画像効果を施すステップと、を備え、前記撮像装置が、前記検出対象の検出結果に基づいて、フレーム画像の一部である検出エリアと、前記中間フレーム画像において前記検出対象をサーチするサーチ範囲(S)と、を決定し、前記中間フレーム画像の前記サーチ範囲(S)内において、前記検出エリアと比較されるリファレンスエリア(R)をスキャンしていき、前記リファレンスエリア(R)をスキャンした時の前記検出エリアの輝度情報と前記リファレンスエリア(R)の輝度情報の比較結果から、前記検出対象の位置を補正するものである。このようにすることで、適切に画像効果を施すことができる。
上記の撮像装置において、前記(c)において補正された前記検出対象の位置に基づいて、前記中間フレーム画像から前記検出エリアを抽出して、前記検出エリアの輝度情報を更新し、抽出された前記検出エリアによって、前記(b)、及び前記(c)の処理を行うようにしてもよい。このようにすることで、適切に画像効果を施すことができる。
上記の撮像装置において、前回の前記検出対象と最新の前記検出対象との移動量に応じて、前記サーチ範囲(S)が決定されていてもよい。このようにすることで、適切なサーチ範囲(S)を設定することができるため、迅速に処理することができる。
上記の撮像装置において、前記(c)では、前記検出エリアの輝度情報と前記リファレンスエリア(R)の輝度情報との差の絶対値を画素毎に求め、前記画素毎の絶対値の総和を求め、前記サーチ範囲(S)に含まれるリファレンスエリア(R)の中で、前記総和が最小となるリファレンスエリアに基づいて、前記検出対象の位置が補正されていてもよい。
上記の撮像装置において、前記総和がしきい値よりも大きい時は、前記(c)において前記検出対象の位置を補正しないようにしてもよい。
本発明の一態様にかかる画像処理方法は動画像を撮像する撮像部を有する撮像装置における画像処理方法であって、前記撮像部によって撮像された動画像のフレーム画像から検出対象を順次検出するステップと、前記検出対象が検出された検出フレーム画像の間の中間フレーム画像において、前記検出対象の位置を補正するステップと、補正された前記検出対象の位置に基づいて、画像効果を施すステップと、を備え、前記撮像装置が、前記検出対象の検出結果に基づいて、フレーム画像の一部である検出エリアと、前記中間フレーム画像において前記検出対象をサーチするサーチ範囲(S)と、を決定し、前記中間フレーム画像の前記サーチ範囲(S)内において、前記検出エリアと比較されるリファレンスエリア(R)をスキャンしていき、前記リファレンスエリア(R)をスキャンした時の前記検出エリアの輝度情報と前記リファレンスエリア(R)の輝度情報の比較結果から、前記検出対象の位置を補正するものである。このようにすることで、適切に画像効果を施すことができる。
本発明の撮像装置及び表示処理方法によれば、適切に画像効果を施すことができる。
本実施の形態に係る撮像装置は、動画像を撮像して、スルー画像として表示するものである。さらに、撮像装置は、画像効果を施して、スルー画像を表示する。例えば、撮像した動画像の中から対象画像を検出して、対象画像に画像効果を施す。そして、画像効果が行われた動画像を表示する。
より具体的には、動画像のフレーム画像に対して顔検出を行う。そして、検出された顔画像に対して顔枠、アニメーション、アバター等の画像効果を施している。すなわち、検出された顔画像の座標、及びサイズに基づいて、そして、画像効果を施した状態で、動画像を表示する。なお、画像効果は、画像データに対する演算に限らず、撮像部のオートフォーカス、ゲイン、アイリス、シャッタースピードの調整等を含むものとする。
本実施の形態に係る撮像装置を備えた撮像システムについて、図1を用いて説明する。図1は、本発明の実施形態に係る撮像装置1の内部構成の例を示すブロック図である。撮像装置1は動画像を撮像することができる。なお、本発明に係る撮像装置1は、動画像を撮像できるものであれば、その形状、及び構成は特に限定されるものではない。また、以下の説明では、人間の顔を検出する例を説明するが、検出対象としては、人間、動物、又は物体等とすることができる。また、以下の説明では、検出した顔に顔枠を付加して表示する例を説明する。
中央制御部400はCPU(Central Processing Unit)、各種プログラムが格納されたROM(Read Only Memory)、及びワークエリアとしてのRAM(Random Access Memory)等を含む半導体集積回路により構成されている。中央制御部400をマイクロコンピュータで構成することができる。中央制御部400は、撮像、各種画像の表示、又は後述する画像処理や画像表示等に関する撮像装置1全体の処理を統括的に制御する。
撮像装置1は、ズームレンズ101、フォーカスレンズ102、絞り103、及び撮像素子104で構成される撮像部100を有する。ズームレンズ101は図示しないズームアクチュエータによって光軸LAに沿って移動する。これにより、撮像される撮像画像のズーム倍率が変更する。同様に、フォーカスレンズ102は、図示しないフォーカスアクチュエータによって光軸LAに沿って移動する。絞り103は、図示しない絞りアクチュエータに駆動されて動作する。撮像素子104は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等で構成される。
撮像装置1を用いた撮像は以下の手順で行われる。撮像素子104はズームレンズ101、フォーカスレンズ102、及び絞り103を通過した光を光電変換して、被写体のアナログ画像信号を生成する。
アナログ画像信号処理部105が、このアナログ画像信号を増幅した後、画像A/D変換部106が、その増幅された信号をデジタル画像データに変換する。画像入力コントローラ107は、画像A/D変換部106から出力されたデジタル画像データを撮像画像データとして取り込んで、バス200を介してメインメモリ206に格納する。
アナログ画像信号処理部105が、このアナログ画像信号を増幅した後、画像A/D変換部106が、その増幅された信号をデジタル画像データに変換する。画像入力コントローラ107は、画像A/D変換部106から出力されたデジタル画像データを撮像画像データとして取り込んで、バス200を介してメインメモリ206に格納する。
デジタル信号処理部108は、バス200を介して中央制御部400からの指令に基づき、メインメモリ206に格納された撮像画像データを取り込み、所定の信号処理を施して輝度信号と色差信号とからなるデータを生成する。デジタル信号処理部108はまた、オフセット処理、ホワイトバランス調整処理、ガンマ補正処理、RGB補完処理、ノイズ低減処理、輪郭補正処理、色調補正処理、光源種別判定処理等の各種デジタル補正を行う。
音声処理部202は、バス200を介して中央制御部400の指示に従い、マイク(不図示)等で取得された音声データに所定の処理を施す。例えば、音声データをデジタルデータに変換したり、雑音除去処理等をしたりする。
圧縮・伸長処理部201は、バス200を介して中央制御部400からの指示に従って、撮像画像データ及びデジタル音声データに所定の圧縮処理を施して圧縮データを生成する。また、圧縮・伸長処理部201は、中央制御部400からの指示に従って、記録部の一例であるカード型記録媒体302に格納された圧縮データに所定形式の伸張処理を施して非圧縮データを生成する。所定の圧縮処理としては、静止画像に対してはJPEG規格に準拠した圧縮方式を採用することができ、動画像に対してはMPEG2規格やAVC/H.264規格に準拠した圧縮方式を採用することができる。
ROM203はバス200を介して中央制御部400に接続されており、中央制御部400が実行する制御プログラム及び制御に必要な各種データ等を格納している。フラッシュROM204は、ユーザの設定情報等、撮像装置1の動作に関する各種設定情報を格納している。撮像装置1は、様々な撮像のシチュエーションに応じて、いくつかの撮像モードと、各モードにあわせた撮像条件の設定を予めフラッシュROM204に記憶している。そして、ユーザは撮像を開始する前に、各モードの中から最適なモードを選択することにより、最適な撮像条件で撮像を実施することができる。例えば、特定の人物の撮像に適した「ポートレートモード」、運動会等の撮像に適した「スポーツモード」、又は夜景等の暗い場所の撮像に適した「夜景モード」等である。
メディア制御部207は、中央制御部400からの指示に従って、カードI/F301を介してカード型記録媒体302に対してデータを書き込み、カード型記録媒体302に記録されたデータを読み出すよう制御する。カード型記録媒体302はSDカードやコンパクトフラッシュ(登録商標)等の外部メモリであり、撮像装置1に対して脱着可能に設けられている。
液晶モニタ304、スピーカ305、操作部306及び入出力端子307は入出力I/F303に接続されている。液晶モニタ304は、例えばVRAMやメインメモリ206に一時記録された撮像画像データや各種メニュー画像データ等、各種画像データから生成された画像を表示する。液晶モニタ304は、撮像部100によって取得された動画像を表示する。
画像効果処理部210は、撮像部100が取得した動画像に対して、画像効果処理を行う。すなわち、画像効果処理部210は、顔検出結果に基づいて、画像効果を施す。例えば、撮像した動画像に含まれる人物の顔を顔枠で囲む画像効果を施す。すなわち、動画像のフレーム画像に、検出対象である顔を囲む顔枠を付加した画像データを生成する。そして、液晶モニタ304は、画像効果が施された動画像をスルー画像として表示する。これにより、撮像部100が取得した動画像の各フレームに顔枠が重畳された動画像を表示することができる。ここで、画像効果処理部210は、中央制御部400における顔座標の補正結果に基づいて、顔枠の位置(フレーム画像中における座標)を補正している。顔枠の座標補正については後述する。
スピーカ305は、例えばメインメモリ206に一時記録された音声を出力する。操作部306は、図示しないレリーズ・スイッチや電源スイッチを含む操作キー、十字キー、ジョイスティック、又は液晶モニタ304上に重畳されたタッチパネル等から構成されており、ユーザの撮像装置1への操作入力を受け付ける。入出力端子307は、図示しないテレビモニタやPC(Personal Computer)等に接続される。
顔検出処理部131は、撮像部100が撮像した動画像に対して顔検出処理を順次行う。これにより、動画像に含まれるフレーム画像中の顔が検出される。例えば、フレーム画像から特徴を抽出して、特徴の位置や大きさに応じて顔を検出する。顔検出処理部131は、フレーム画像における顔座標、及び顔サイズを検出する。顔検出処理部131が検出した顔座標、及び顔サイズに基づいて、画像効果処理部310が画像効果を施す。
顔検出処理部131による顔検出処理は、少なくとも数フレームを有する。すなわち、顔検出処理は、動画像の数フレームに対応する時間を要する処理である。従って、動画像の撮像中では、複数のフレーム毎に顔検出が行われることになる。ここで、顔検出が行われたフレーム画像を検出フレーム画像とする。そして、隣接する検出フレーム画像間のフレーム画像を中間フレーム画像とする。すなわち、前回の検出フレーム画像から最新の検出フレーム画像までのフレーム画像が、中間フレーム画像となる。中間フレーム画像では、顔検出処理部131による顔検出処理が行われていないことになる。以下、中間フレーム画像において、顔座標を補正するための構成を説明する。
中央制御部400は、顔検出データ取得部401と、移動量算出部402と、補正・予測処理部403と、を備えている。そして、中央制御部400は、中間フレーム画像における顔座標を補正する。顔検出データ取得部401は、必要な顔検出データを顔検出処理部131から取得する。移動量算出部402は、顔検出データ取得部401で取得した顔検出データに基づいて、顔の移動量を算出する、そして、補正・予測処理部403は、顔検出データ取得部401で取得した顔検出データと、移動量算出部402で算出した移動量に基づいて、顔座標を補正して、画像効果を施す位置を予測する。
例えば、補正・予測処理部403は、顔検出が行われたフレーム画像の一部である検出エリアと、最新のフレーム画像の一部であるリファレンスエリアを比較することで、顔座標を補正している。すなわち、検出エリアとリファレンスエリアとで、ブロックマッチングを行う。そして、サーチ範囲内でリファレンスエリアをスキャンしていく、最もマッチングしたリファレンスエリアに基づいて、顔座標を補正する。
以下、中央制御部400における顔座標の補正処理を図2〜図4を用いて説明する。図2〜図4は、撮像部100によって取得されたフレーム画像を模式的に示す図である。
まず、顔検出処理部131による検出結果がある検出フレーム画像での処理を説明する。顔検出処理部131が顔検出処理を行うと、顔座標、及び顔サイズが決定する。検出フレーム画像での顔検出結果から、図2に示すようなサーチ範囲S、及び検出エリアCを抽出する。検出エリアCは顔座標における顔サイズの矩形である。サーチ範囲Sは、フレーム画像の一部の範囲であり、検出エリアCよりも大きい範囲である。ここでは、サーチ範囲Sは、検出エリアCを含み、検出エリアCよりも大きいサイズの矩形となっている。具体的には、サーチ範囲Sは、検出エリアCの中心を中心として、横方向(x方向)、及び縦方向(y方向)に一定の幅を有する矩形となっている。例えば、サーチ範囲Sは、フレーム画像の画素数により特定される。
検出エリアCは、検出フレーム画像で検出された顔に対応する矩形エリアである。検出エリアCのサイズは、検出された顔サイズに対応している。ここでは、検出エリアCのサイズを顔検出の矩形エリアと一致させているが、異なるサイズとしてもよい。検出エリアCの座標は、顔検出の矩形エリアの中心座標とすることができる。例えば、矩形枠内の輝度情報が検出エリアCとして取得される。すなわち、検出フレーム画像における検出エリアCの輝度情報を顔検出データ取得部401が取得する。
サーチ範囲Sは、最新の顔検出データと前回の顔検出データとに基づいて、決定することができる。具体的には、最新の顔検出が更新されると、顔検出データ取得部401が、前回の顔検出データと、今回の顔検出データを取得する。そして、顔検出データ取得部401顔検出データの座標を取得する。移動量算出部402が、顔の移動量から、サーチ範囲Sを決定する。
顔の移動量X,Yは、以下の式(1)で示すことができる。
X=|x(f)−x(f−1)|
Y=|y(f)−y(f−1)|・・・(1)
X=|x(f)−x(f−1)|
Y=|y(f)−y(f−1)|・・・(1)
なお、x、yは顔検出結果のx座標、y座標を示している。例えば、x(f)、y(f)は、f回目の検出結果のxy座標であり、x(f−1)、y(f−1)は、(f−1)回目の検出結果のxy座標である。ここでは、移動量算出部402が、移動量X、Yを2つの検出フレーム画像における顔座標の差を求めている。最新の顔座標と前回の顔座標の差に基づいて、移動量算出部402が移動量を算出する。ここでは、差の絶対値を移動量としている。
そして、移動量算出部402が、移動量X,Yからサーチ範囲Sを特定する。ここで、x方向、及ぶy方向のサーチ範囲Sの大きさをそれぞれSx、Syとする。移動量算出部402は、以下の式(2)を用いて、Sx、Syを決定している。
Sx=2(|X|+α)
Sy=2(|Y|+β) ・・・(2)
Sy=2(|Y|+β) ・・・(2)
ここで、α、βは調整値であり、具体的には正の数である。移動量に正の数を加算した値をSx,Syとしている。このように顔の移動量に応じてサーチ範囲Sを設定している。これにより、顔が移動した場合でも、適切に顔座標を補正することができる。なお、移動量に調整値を加算するだけではなく、移動量を調整値で乗算してもよい。顔検出処理部131が顔検出を行う毎に、サーチ範囲Sが更新される。
連続するフレーム画像での補正について説明する。最新のフレーム画像では、図3に示すように顔が移動しているとする。ここで、顔座標を補正するため、サーチ範囲S内でリファレンスエリアRをスキャンしていく。リファレンスエリアRは、最新のフレーム画像の一部である。
サーチ範囲S内で、リファレンスエリアRの輝度情報と検出エリアCの輝度情報を比較する。例えば、検出エリアCの輝度情報と、リファレンスエリアRの輝度情報が図4に示すようになっているとする。ここでは、検出エリアC、及びリファレンスエリアRのそれぞれが(m+1)×(n+1)の画素数を有する矩形としている。そして、検出エリアCの輝度情報をX00〜Xmnとし、リファレンスエリアRの輝度情報をY00〜Ymnとしている。
なお、リファレンスエリアRは、検出エリアCと同じサイズの矩形となっている。こうすることで、スキャン精度を向上することができる。もちろん、リファレンスエリアRは、検出エリアCと異なるサイズとなっていてもよい。すなわち、検出エリアCを構成する画素数と、リファレンスエリアRを構成する画素数は、異なっていてもよい。
ここで、SADは、リファレンスエリアRと検出エリアCの比較を示す比較値である。すなわち、検出エリアCの輝度情報とリファレンスエリアRの輝度情報との差の絶対値を画素毎に求め、画素毎の絶対値の総和が比較値SADとしている。具体的には、リファレンスエリアRと検出エリアCとの比較値SADは、以下の式(3)で求めることができる。
SAD=Σ |Xmn−Ymn| ・・・(3)
SAD=Σ |Xmn−Ymn| ・・・(3)
そして、補正・予測処理部403が、サーチ範囲Sにおいて、比較値SADが最小となるリファレンスエリアRを補正エリアA1とする。補正・予測処理部403が、サーチ範囲S内において、リファレンスエリアRを順番にずらしていき、リファレンスエリアRがサーチ範囲S全体をスキャンする。ここでは、サーチ範囲Sの左上角からリファレンスエリアRを下方向にスキャンしていく。そして、サーチ範囲Sの下端までスキャンしたら、リファレンスエリアRを1画素右方向にずらして、再度上端から下端までスキャンする。これを繰り返してサーチ範囲Sの右下角までスキャンしたら、スキャンを終了する。そして、ずらして行ったリファレンスエリアRのそれぞれについて、比較値SADを求める。
ここで、顔が存在する位置にリファレンスエリアRがある場合、比較値SADが小さくなる。すなわち、顔が存在するエリア同士を比較する場合、各画素の輝度情報が類似する。対応する位置では、リファレンスエリアRと検出エリアCの輝度情報が近くなる。一方、顔が存在しないリファレンスエリアRでは、検出エリアCと輝度情報が大きく異なる。よって、サーチ範囲S内において、顔が存在するリファレンスエリアRで比較値SADが最小になる。サーチ範囲S内に比較値SADが最小となるリファレンスエリアRを、補正エリアA1とする。
なお、サーチ範囲Sをサーチする方向は、特に限定されるものではない。例えば、前回の検出エリアCの近傍から順番にサーチしていってもよい。そして、ある程度類似した比較結果が得られた場合は、その段階でサーチを打ち切ってもよい。これにより、速やかにサーチを行うことができる。
そして、顔座標が補正された補正エリアA1に対して画像効果を施す。ここでは、補正エリアA1の位置に顔枠の矩形を表示する。こうすることで、適切に顔枠を表示することができる。具体的には、画像効果処理部210が、補正エリアA1に顔枠を重畳する画像処理を行う。そして、液晶モニタ304が、所定の位置に顔枠が付加された画像を表示する。
なお、比較値SADが大きい場合は、補正エリアA1を更新しないようにしてもよい。すなわち、比較値SADが予め設定されたしきい値よりも大きい場合は、前回の補正エリアをそのままと使用することもできる。
さらに、次の中間フレーム画像が取得されたとする。この場合、補正エリアA1に基づいて、検出エリアCを更新する。すなわち、図5に示すように、最新の補正エリアA1を検出エリアCとする。すなわち、補正された顔位置に基づいて、中間フレーム画像から検出エリアCを抽出する。これにより、中間フレーム画像から検出エリアの輝度情報を更新する。そして、中間フレーム画像から更新された検出エリアCを用いて、新たなフレーム画像に対してスキャンを行う。図5で、比較値SADが最小となるリファレンスエリアRを補正エリアA2とする。中央制御部400は、上記の処理を繰り返して、新たな補正エリアAを順次決定する。これにより、補正・予測処理部403が補正エリアA1、補正エリアA2、補正エリアA3・・・・と順番に更新していく。
そして、中央制御部400は、新たな補正エリアを決定すると、検出エリアCを順次更新していく。すなわち、更新された補正エリアAを検出エリアCとして、次のフレーム画像に対してスキャン処理を繰り返し行う。このとき、サーチ範囲Sは、前回と同じ範囲にすることができる。すなわち、サーチ範囲Sは、顔検出処理部131での顔検出結果が更新されるまで、同じ範囲にすることができる。
このように、ブロックマッチングによって画像効果を施す座標を補正している。そして、マッチング結果によって、顔座標を随時補正している。すなわち、最新のフレーム画像と前回のフレーム画像との比較結果から、補正・予測処理部403が顔座標を予測する。そして、画像効果処理部210が、予測した顔座標で顔枠等を付加する画像効果を施す。これにより、画像効果の位置を適切に補正することができ、適切な位置に顔枠を付加することができる。例えば、顔検出処理には少なくとも数フレームを要し、リアルタイムに検出結果を撮影画像に反映することができない。すなわち、描画している顔検出枠は数フレーム前の検出結果に対するものであって、描画しているフレーム画像の顔座標とは異なる座標となってしまう。また、検出処理には少なくとも数フレームを要するため、連続的に検出結果を得ることは困難である。そのため、同じ検出結果を使用する期間が生じ、顔検出枠のずれや追従精度の低下が生じる。
そこで、上記のようにブロックマッチングで顔座標を補正する。顔検出処理に少なくとも数フレームを要したとしても、現在のフレーム画像に対して負荷の少ない処理で検出結果を補正することができる。最新のフレーム画像に対して顔検出処理が終了していない場合でも、補正・予測処理部403が前回のフレーム画像から顔座標を予測する。すなわち、補正・予測処理部403が、顔検出処理が終了するまでの間、前回の顔検出結果から顔座標を予測する。そして、予測した顔座標に基づいて、画像効果を施す。これにより、上記課題を解決することができ、顔枠の追従性を高くすることができる。すなわち、顔検出処理部131が検出フレーム画像に対して顔検出を終了する前に、顔位置を予測することができる。これにより、補正した位置に画像効果を付加することができる。
もちろん、顔枠以外の画像効果についても適用することができる。以上から、顔検出結果を用いた顔枠や、アニメーション、アバター等の画像効果の追従性を高くすることができる。よって、適切に画像効果を施した動画像を表示することができる。さらに、オートフォーカス、アイリス、ゲイン等の調整を適切に行うことができる。すなわち、対象とする顔の画像を適切に表示するために、撮像条件の調整を行うことができる。
さらに、前回の顔検出結果と最新の顔検出結果とに応じて、サーチ範囲Sを決定している。顔の移動量に応じて、サーチ範囲Sを変えているため、適切なサーチ範囲Sを設定することができる。例えば、顔の移動量が大きい場合は、対象となる人物が早く移動しているため、サーチ範囲Sが大きくなる。これにより、顔が高速に動いた場合でも、サーチ範囲S内に顔の位置を含ませることができる。よって、確実に顔座標を補正することができる。反対に顔の移動量が小さい場合、対象となる人物の動きがほとんどないため、サーチ範囲Sが小さくなる。サーチ範囲Sを絞り込むことができるため、演算処理の負荷を低減し、処理を迅速に行うことができる。
次に、本実施の形態にかかる撮像装置の画像処理方法について、図6、及び図7を用いて説明する。図6、及び図7は、画像処理方法を示すフローチャートである。
まず、顔検出データの更新があるか否かを判定する(ステップS1)。すなわち、顔検出処理部131による顔検出が終了したか否かを判定する。新たな顔検出データの更新がない場合(ステップS1のNO)、前回の補正エリアAとサーチ範囲Sを取得する(ステップS2)。そして、ステップS8に移行する。すなわち、前回の補正エリアAを検出エリアCとして、検出エリアCを更新する。また、前回のサーチ範囲Sを変更せずにそのまま使用する。
新たな顔検出データの更新がある場合(ステップS1のYES)、最新の顔検出データを取得する(ステップS3)。すなわち、顔検出データ取得部401が最新の顔検出結果の顔座標、及び顔サイズを取得する。これにより、顔検出処理部131による顔座標、及び顔サイズに応じて、検出エリアCが確定する。そして、一つ前の顔検出データの有無を判定する(ステップS4)。一つ前の顔検出データが無い場合(ステップS4のNO)、全画面をサーチ範囲Sとする(ステップS5)。すなわち、最新の顔検出結果が1回目の顔検出結果である場合、フレーム画像の全領域をサーチ範囲Sとする。そして、ステップS8に移行する。
一つ前の顔検出データの更新がある場合(ステップS4のYES)、一つ前の顔検出データを取得する(ステップS6)。すなわち、顔検出データ取得部401が1回前の顔検出結果の顔座標、及び顔サイズを取得する。そして、補正・予測処理部403が、最新の顔検出データと、一つ前の検出データを比較して、サーチ範囲Sを確定する(ステップS7)。サーと範囲Sは、上記のように顔座標の移動量X、Yを考慮した大きさとなっている。なお、サーチ範囲Sは、顔サイズを考慮して決定されていてもよい。例えば、顔サイズが大きい場合、サーチ範囲Sを大きくしてもよい。そして、ステップS8に移行する。
ステップS8では、サーチ範囲S内をリファレンスエリアRでサーチする。そして、リファレンスエリアRと検出エリアCとを順次比較していく。この比較結果によって、比較値SADを求めることができる。そして、サーチ範囲S内に信頼できるサーチ結果があるか否かを判定する(ステップS9)。例えば、比較値SADが所定のしきい値よりも低くなっているか否かを判定する。比較値SADが予め定められたしきい値よりも高い場合、信頼できるサーチ結果が無いと判定する(ステップS9のNO)。すなわち、サーチ範囲S内に検出エリアCに十分類似したリファレンスエリアRが存在しないため、過去の顔座標をそのまま利用する(ステップS10)。すなわち、補正・予測処理部403が、1回前に補正した補正エリアAを、最新の補正エリアとしてもう一度利用する。そして、ステップS13に移行する。
比較値SADが予め定められたしきい値よりも低い場合、信頼できるサーチ結果があると判定する(ステップS9のYES)。すなわち、サーチ範囲S内に検出エリアCに十分類似したリファレンスエリアRが存在するため、最もマッチングしたエリアを補正エリアAに選定する(ステップS11)。比較値SADが最小となったリファレンスエリアRを最新の補正エリアAとする。そして、最新の補正エリアAから顔座標と予測する(ステップS12)。次に、ステップS13に移行する。
ステップS13では、画像効果位置を算出する。すなわち、最新の補正エリアAによって、画像効果を施す位置を決定する。そして、表示するフレーム画像に画像効果を付与する(ステップS14)。例えば、最新の補正エリアAに顔枠が付加された状態で、フレーム画像が表示されていく。
このようなフローを繰り返し行う。こうすることで、画像効果を適切に位置に施すことができる。例えば、顔検出処理に時間を要する場合でも、最新のフレーム画像に対する画像効果の位置ずれを抑制することができる。さらに、フレーム画像の一部をサーチ範囲に設定しているため、速やかに処理を行うことができる。また、サーチ範囲を移動量に応じて設定しているため、適切かつ速やかな処理が可能になる。もちろん、画像効果は、顔枠の付加に限らず、アニメーションやアバターへの変換や、その他画像の追加などでもよい。さらには、画像効果は、撮像部100に対するオートフォーカス等の設定調整であってもよい。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。また、上記の動機撮影の処理は、メインプロセッサのROM等に格納されたコンピュータプログラムによって実行可能である。上述の例において、各処理をコンピュータ(プロセッサ)に行わせるための命令群を含むプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
100 撮像部
105 アナログ画像信号処理部
106 画像A/D変換部
107 画像入力コントローラ部
108 デジタル信号処理部
131 顔検出処理部
202 音声処理部
203 ROM
204 フラッシュROM
206 メインメモリ
207 メディア制御部
301 カードI/F
302 カード型記録媒体
303 入出力I/F
304 液晶モニタ
305 スピーカ
306 操作部
307 入出力端子
400 中央制御部
401 顔検出データ取得部
402 移動量算出部
403 補正・予測処理部
105 アナログ画像信号処理部
106 画像A/D変換部
107 画像入力コントローラ部
108 デジタル信号処理部
131 顔検出処理部
202 音声処理部
203 ROM
204 フラッシュROM
206 メインメモリ
207 メディア制御部
301 カードI/F
302 カード型記録媒体
303 入出力I/F
304 液晶モニタ
305 スピーカ
306 操作部
307 入出力端子
400 中央制御部
401 顔検出データ取得部
402 移動量算出部
403 補正・予測処理部
Claims (6)
- 動画像を撮像する撮像部と、
前記撮像部で撮像された動画像のフレーム画像から検出対象を順次検出する検出部と、
前記検出対象が検出された検出フレーム画像の間の中間フレーム画像において、前記検出対象の座標を補正する処理部と、
前記処理部によって補正された検出対象の位置に応じて、画像効果を施す画像効果処理部と、を備え、
前記処理部が、
(a)前記検出部での検出結果に基づいて、フレーム画像の一部である検出エリアと、前記中間フレーム画像において前記検出対象をサーチするサーチ範囲と、を決定し、
(b)前記中間フレーム画像の前記サーチ範囲内において、前記検出エリアと比較されるリファレンスエリアをスキャンしていき、
(c)前記リファレンスエリアをスキャンした時の前記検出エリアの輝度情報と前記リファレンスエリアの輝度情報の比較結果から、前記検出対象の座標を補正する、
撮像装置。 - 前記(c)において補正された前記検出対象の位置に基づいて、前記中間フレーム画像から前記検出エリアを抽出して、前記検出エリアの輝度情報を更新し、
抽出された前記検出エリアによって、前記(b)、及び前記(c)の処理を行うことを特徴とする請求項1に記載の撮像装置。 - 前回の前記検出対象と最新の前記検出対象との移動量に応じて、前記サーチ範囲が決定されている請求項1、又は2に記載の撮像装置。
- 前記(c)では、前記検出エリアの輝度情報と前記リファレンスエリアの輝度情報との差の絶対値を画素毎に求め、前記画素毎の絶対値の総和を求め、
前記サーチ範囲に含まれるリファレンスエリアの中で、前記総和が最小となるリファレンスエリアに基づいて、前記検出対象の位置が補正される請求項1、2、又は3に記載の撮像装置。 - 前記総和がしきい値よりも大きい時は、前記(c)において前記検出対象の位置を補正しないことを特徴とする請求項4に記載の撮像装置。
- 動画像を撮像する撮像部を有する撮像装置における画像処理方法であって、
前記撮像部によって撮像された動画像のフレーム画像から検出対象を順次検出するステップと、
前記検出対象が検出された検出フレーム画像の間の中間フレーム画像において、前記検出対象の位置を補正するステップと、
補正された前記検出対象の位置に基づいて、画像効果を施すステップと、を備え、
前記撮像装置が、
前記検出対象の検出結果に基づいて、フレーム画像の一部である検出エリアと、前記中間フレーム画像において前記検出対象をサーチするサーチ範囲と、を決定し、
前記中間フレーム画像の前記サーチ範囲内において、前記検出エリアと比較されるリファレンスエリアをスキャンしていき、
前記リファレンスエリアをスキャンした時の前記検出エリアの輝度情報と前記リファレンスエリアの輝度情報の比較結果から、前記検出対象の位置を補正する、
画像処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012167984A JP2014027580A (ja) | 2012-07-30 | 2012-07-30 | 撮像装置、及び画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012167984A JP2014027580A (ja) | 2012-07-30 | 2012-07-30 | 撮像装置、及び画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014027580A true JP2014027580A (ja) | 2014-02-06 |
Family
ID=50200815
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012167984A Pending JP2014027580A (ja) | 2012-07-30 | 2012-07-30 | 撮像装置、及び画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014027580A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017126036A1 (ja) * | 2016-01-19 | 2017-07-27 | オリンパス株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
JP2020036081A (ja) * | 2018-08-27 | 2020-03-05 | 日本信号株式会社 | 画像処理装置及び監視システム |
JP7424280B2 (ja) | 2020-12-01 | 2024-01-30 | オムロン株式会社 | 情報処理装置および情報処理方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008112210A (ja) * | 2006-10-27 | 2008-05-15 | Matsushita Electric Works Ltd | 自動追尾方法 |
JP2010230870A (ja) * | 2009-03-26 | 2010-10-14 | Fujifilm Corp | オートフォーカスシステム |
JP2010244462A (ja) * | 2009-04-09 | 2010-10-28 | Fujifilm Corp | 人物追跡装置、人物追跡方法及びプログラム |
JP2011015201A (ja) * | 2009-07-02 | 2011-01-20 | Nikon Corp | 電子カメラ |
JP2011107396A (ja) * | 2009-11-17 | 2011-06-02 | Fujifilm Corp | オートフォーカスシステム |
-
2012
- 2012-07-30 JP JP2012167984A patent/JP2014027580A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008112210A (ja) * | 2006-10-27 | 2008-05-15 | Matsushita Electric Works Ltd | 自動追尾方法 |
JP2010230870A (ja) * | 2009-03-26 | 2010-10-14 | Fujifilm Corp | オートフォーカスシステム |
JP2010244462A (ja) * | 2009-04-09 | 2010-10-28 | Fujifilm Corp | 人物追跡装置、人物追跡方法及びプログラム |
JP2011015201A (ja) * | 2009-07-02 | 2011-01-20 | Nikon Corp | 電子カメラ |
JP2011107396A (ja) * | 2009-11-17 | 2011-06-02 | Fujifilm Corp | オートフォーカスシステム |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017126036A1 (ja) * | 2016-01-19 | 2017-07-27 | オリンパス株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
JP2020036081A (ja) * | 2018-08-27 | 2020-03-05 | 日本信号株式会社 | 画像処理装置及び監視システム |
JP7244979B2 (ja) | 2018-08-27 | 2023-03-23 | 日本信号株式会社 | 画像処理装置及び監視システム |
JP7424280B2 (ja) | 2020-12-01 | 2024-01-30 | オムロン株式会社 | 情報処理装置および情報処理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101811717B1 (ko) | 줌 제어 방법 및 장치와, 디지털 촬영 장치 | |
JP4735742B2 (ja) | 撮像装置、ストロボ画像生成方法、および、プログラム | |
KR101455018B1 (ko) | 촬상 장치, 촬상 방법, 및 컴퓨터 판독 가능한 기록 매체 | |
US8472747B2 (en) | Image composition device, image composition method, and storage medium storing program | |
US10237488B2 (en) | Image capturing apparatus and image capturing method | |
JP5289993B2 (ja) | 追尾装置および追尾方法 | |
JP2009111716A (ja) | 撮像装置、プログラムおよびテンプレート生成方法 | |
JP5247338B2 (ja) | 画像処理装置及び画像処理方法 | |
JP6108680B2 (ja) | 撮像装置及びその制御方法、プログラム、並びに記憶媒体 | |
JP2013012940A (ja) | 追尾装置及び追尾方法 | |
JP2014027580A (ja) | 撮像装置、及び画像処理方法 | |
JP6172973B2 (ja) | 画像処理装置 | |
JP2015138399A (ja) | 画像処理装置、画像処理方法、及びコンピュータプログラム | |
JP6178646B2 (ja) | 撮像装置及び像振れ補正処理方法 | |
JP2011071925A (ja) | 移動体追尾装置および方法 | |
JP4807623B2 (ja) | 撮像装置、撮像方法及び撮像プログラム | |
JP5451364B2 (ja) | 被写体追跡装置及びその制御方法 | |
JP2023090492A (ja) | 画像処理装置および画像処理方法、撮像装置 | |
JP2015041819A (ja) | 撮像装置およびその制御方法、プログラム並びに記憶媒体 | |
JP5939124B2 (ja) | 撮像装置及び画像処理方法 | |
JP2009027437A (ja) | 画像処理装置,画像処理方法及び撮像装置 | |
JP2016129281A (ja) | 画像処理装置 | |
US11206344B2 (en) | Image pickup apparatus and storage medium | |
JP2017192027A (ja) | 画像処理装置、画像処理方法、プログラム | |
JP2014038164A (ja) | 画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150331 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160209 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160802 |