JP5691617B2 - 被写体特定装置、および被写体追尾装置 - Google Patents

被写体特定装置、および被写体追尾装置 Download PDF

Info

Publication number
JP5691617B2
JP5691617B2 JP2011034823A JP2011034823A JP5691617B2 JP 5691617 B2 JP5691617 B2 JP 5691617B2 JP 2011034823 A JP2011034823 A JP 2011034823A JP 2011034823 A JP2011034823 A JP 2011034823A JP 5691617 B2 JP5691617 B2 JP 5691617B2
Authority
JP
Japan
Prior art keywords
image
subject
difference image
mask
color difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011034823A
Other languages
English (en)
Other versions
JP2012175361A (ja
Inventor
浩史 金藤
浩史 金藤
龍一 大宮
龍一 大宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011034823A priority Critical patent/JP5691617B2/ja
Priority to CN201210040405.9A priority patent/CN102647555B/zh
Priority to US13/400,996 priority patent/US8649561B2/en
Publication of JP2012175361A publication Critical patent/JP2012175361A/ja
Application granted granted Critical
Publication of JP5691617B2 publication Critical patent/JP5691617B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Description

本発明は、被写体特定装置、および被写体追尾装置に関する。
次のような撮像装置が知られている。この撮像装置は、使用者によって選択されたAF領域に基づいて被写体位置を特定し、特定した被写体を対象として焦点調節処理を行う(例えば、特許文献1)。
特開2004−205885号公報
しかしながら、従来の撮像装置では、使用者によって選択されたAF領域のみに基づいて被写体位置を特定しており、被写体位置特定のために被写体の色情報や輝度情報は使用していなかった。このため、撮影シーンによっては被写体を特定することができなかった。
本発明による被写体特定装置は、対象画像に基づいて、輝度成分からなる輝度画像と色差成分からなる色差画像とを生成する輝度画像・色差画像生成手段と、輝度画像・色差画像生成手段によって生成された輝度画像と色差画像とのそれぞれから、被写体を含む被写体領域を抽出する被写体領域抽出手段と、被写体領域抽出手段によって輝度画像と色差画像とのそれぞれから抽出された被写体領域内の画素の画素値に基づいて、代表値を算出する代表値算出手段と、被写体領域内の各画素の画素値から代表値算出手段によって算出された代表値を減算して、輝度画像と色差画像とのそれぞれに対応する差分画像を作成する差分画像生成手段と、差分画像生成手段によって生成された差分画像を2値化する2値化手段と、2値化手段によって2値化された輝度画像に対応する2値化画像と、色差画像に対応する2値化画像とを合成する合成手段と、合成手段によって合成された合成画像を複数に区分して、各区分画像内から白画素の塊をマスクとして抽出するマスク抽出手段と、マスク抽出手段によって抽出されたマスクに対して、マスクが被写体を示すマスクである可能性を示す評価値を算出する評価値算出手段と、評価値算出手段によって算出された評価値に基づいて、対象画像内における被写体を特定する被写体特定手段とを備えることを特徴とする。
本発明による被写体追尾装置は、上記被写体特定装置で特定された被写体を複数フレーム間で追尾する追尾手段を備えることを特徴とする。
本発明によれば、様々なシーンで被写体位置を特定することができる。
カメラの一実施の形態の構成を示すブロック図である。 被写体追尾処理の流れを示すフローチャート図である。 距離重み付け係数Distの算出例を示す第1の図である。 距離重み付け係数Distの算出例を示す第2の図である。 合成画像の作成例を示す図である。
図1は、本実施の形態におけるカメラの一実施の形態の構成を示すブロック図である。カメラ100は、操作部材101と、レンズ102と、撮像素子103と、制御装置104と、メモリカードスロット105と、モニタ106とを備えている。操作部材101は、使用者によって操作される種々の入力部材、例えば電源ボタン、レリーズボタン、ズームボタン、十字キー、決定ボタン、再生ボタン、削除ボタンなどを含んでいる。
レンズ102は、複数の光学レンズから構成されるが、図1では代表して1枚のレンズで表している。撮像素子103は、例えばCCDやCMOSなどのイメージセンサーであり、レンズ102により結像した被写体像を撮像する。そして、撮像によって得られた画像信号を制御装置104へ出力する。
制御装置104は、CPU、メモリ、およびその他の周辺回路により構成され、カメラ100を制御する。なお、制御装置104を構成するメモリには、SDRAMやフラッシュメモリが含まれる。SDRAMは、揮発性のメモリであって、CPUがプログラム実行時にプログラムを展開するためのワークメモリとして使用されたり、データを一時的に記録するためのバッファメモリとして使用される。また、フラッシュメモリは、不揮発性のメモリであって、制御装置104が実行するプログラムのデータや、プログラム実行時に読み込まれる種々のパラメータなどが記録されている。
制御装置104は、撮像素子103から入力された画像信号に基づいて所定の画像形式、例えばJPEG形式の画像データ(以下、「本画像データ」と呼ぶ)を生成する。また、制御装置104は、生成した画像データに基づいて、表示用画像データ、例えばサムネイル画像データを生成する。制御装置104は、生成した本画像データとサムネイル画像データとを含み、さらにヘッダ情報を付加した画像ファイルを生成してメモリカードスロット105へ出力する。本実施の形態では、本画像データとサムネイル画像データとは、いずれもRGB表色系で表された画像データであるものとする。
メモリカードスロット105は、記憶媒体としてのメモリカードを挿入するためのスロットであり、制御装置104から出力された画像ファイルをメモリカードに書き込んで記録する。また、メモリカードスロット105は、制御装置104からの指示に基づいて、メモリカード内に記憶されている画像ファイルを読み込む。
モニタ106は、カメラ100の背面に搭載された液晶モニタ(背面モニタ)であり、当該モニタ106には、メモリカードに記憶されている画像やカメラ100を設定するための設定メニューなどが表示される。また、制御装置104は、使用者によってカメラ100のモードが撮影モードに設定されると、撮像素子103から時系列で取得した画像の表示用画像データをモニタ106に出力する。これによってモニタ106にはスルー画が表示される。
本実施の形態では、制御装置104は、撮影画面内における被写体の初期位置、被写体の色情報・被写体の輝度情報に基づいて、撮影画面内における被写体を特定し、特定した被写体を対象として追尾を行う。図2は、本実施の形態における被写体追尾処理の流れを示すフローチャートである。図2に示す処理は、使用者によって被写体追尾の開始が指示され、撮像素子103からの画像データの入力が開始されると起動するプログラムとして、制御装置104によって実行される。
ステップS10において、制御装置104は、撮像素子103から入力される画像を対象画像として読み込む。このとき、制御装置104は、撮像素子103から入力される画像のサイズを例えば360×240に縮小して対象画像とする。これにより、後の処理を高速化することができる。上述したように、本実施の形態では、撮像素子103から入力される画像データは、RGB表色系で表されているため、次式(1)〜(3)を用いて、YCbCr色空間における輝度成分(Y成分)からなる輝度画像と色差成分(Cb成分、Cr成分)とからなる色差画像とに変換する。なお、撮像素子103から入力される画像データがYCbCrで表されている場合には、この変換処理は不要となる。
Y=0.299R+0.587G+0.114B ・・・(1)
Cb=−0.169R−0.332G+0.500B ・・・(2)
Cr=0.500R−0.419G−0.081B ・・・(3)
その後、ステップS20へ進み、制御装置104は、無駄な処理やノイズを防ぐための制限値であるSmallLimitを設定する。本実施の形態では、例えば、SmallLimit=0.0001とする。なお、SmallLimitは、後述するステップS220で用いられる。その後、ステップS30へ進む。
ステップS30では、制御装置104は、対象画像内における被写体位置の座標を特定する。本実施の形態では、制御装置104は、使用者に対して対象画像内における被写体位置の指定を促し、使用者がユーザーや操作部材101を操作して入力した位置の座標を被写体位置座標として特定する。
その後、ステップS40へ進み、制御装置104は、ステップS30で特定した被写体位置座標を中心とした3×3の領域を対象として、Y、Cb、Cr各々の平均値を算出する。ここでは、Y、Cb、Crの平均値をそれぞれaveY、aveCb、aveCrとする。その後、ステップS50へ進む。
ステップS50では、制御装置104は、対象画像がスルー画の1コマ目、すなわち初期フレームであるか否かを判断する。ステップS50で肯定判断した場合には、ステップS60へ進む。ステップS60では、制御装置104は、ステップS30で特定した被写体位置座標を中心として、ステップS10で作成した360×240の大きさの輝度画像と色差画像から所定範囲、例えば180×135の大きさの領域をクロップする。このクロップ処理によって得られたクロップ画像を対象として後の処理を行うことにより、処理を高速化することができる。
その後、ステップS70へ進み、制御装置104は、ステップS60で作成した輝度画像(Y画像)のクロップ画像と色差画像(Cb画像とCr画像)のクロップ画像の各画素の値から、ステップS40で算出したY、Cb、Cr各々の平均値を減算し、絶対値をとった差分画像を作成する。各クロップ画像に対応した差分画像(DiffY、DiffCb、DiffCr)は、次式(4)〜(6)により表される。なお、次式(4)〜(6)において、absは絶対値をとる関数である。
DiffY=abs(Y−aveY) ・・・(4)
DiffCb=abs(Cb−aveCb) ・・・(5)
DiffCr=abs(Cr−aveCr) ・・・(6)
その後、ステップS80へ進み、制御装置104は、ステップS30で特定した被写体位置座標を中心とした所定の大きさ、例えば30×30の矩形からの距離に応じた距離重み付け係数Distを算出する。そして、制御装置104は、次式(7)〜(9)に示すように、ステップS70で作成したY、Cb、Crの各差分画像の各画素の値に距離重み付け係数Distをかけることにより、距離重みつき差分画像DistY、DistCb、DistCrを作成して、後述するステップS160へ進む。このステップS80の処理により、背景のノイズを除去することができる。
DistY=DiffY×Dist ・・・(7)
DistCb=DiffCb×Dist ・・・(8)
DistCr=DiffCr×Dist ・・・(9)
距離重み付け係数Distの算出例について図3を用いて説明する。ここでは、制御装置104は、図3に示す領域3を被写体位置座標を中心とした30×30の矩形として設定した場合の例について説明する。ここで、矩形のx方向の大きさを示す変数Xsizeと、矩形のy方向の大きさを示す変数Ysizeとを次式(10)により定義する。また、距離重み付け係数Distの算出に用いる変数γを次式(11)により定義する。
Figure 0005691617
Figure 0005691617
この図3に示す場合において、領域1のように、領域3よりも上側に存在する画素については、次式(12)により距離重み付け係数Distを算出する。領域2のように、領域3と同じ横ライン上にあり、かつ左側に存在する画素については、次式(13)により距離重み付け係数Distを算出する。領域3内の画素については、次式(14)により距離重み付け係数Distを算出する。領域4のように、領域3と同じ横ライン上にあり、かつ右側に存在する画素については、次式(15)により距離重み付け係数Distを算出する。領域5のように、領域3よりも下側に存在する画素については、次式(16)により距離重み付け係数Distを算出する。
Figure 0005691617
Figure 0005691617
Figure 0005691617
Figure 0005691617
Figure 0005691617
これに対して、ステップS50で否定判断した場合には、ステップS90へ進む。ステップS90では、制御装置104は、撮像素子103から新たに入力される画像に対して、ステップS10と同様の処理を行い、360×240に縮小した輝度画像と色差画像とを作成して、ステップS100へ進む。
ステップS100では、制御装置104は、前フレームにおいて、後述するステップS260で保存した評価値最大のマスクの重心座標を中心として、ステップS90で作成した360×240の大きさの輝度画像と色差画像から所定範囲、例えば180×135の大きさの領域をクロップする。このクロップ処理によって得られたクロップ画像を対象として後の処理を行うことにより、処理を高速化することができる。なお、本実施の形態において、マスクとは、2値化画像における白画素の塊を示す。また、評価値最大のマスクについては後述する。
その後、ステップS110へ進み、制御装置104は、ステップS100で作成した輝度画像(Y画像)のクロップ画像と色差画像(Cb画像とCr画像)のクロップ画像のそれぞれに対して、上述したステップS70と同様に式(4)〜(6)を用いて各クロップ画像に対応した差分画像(DiffY、DiffCb、DiffCr)を作成する。その後、ステップS120へ進む。
ステップS120では、制御装置104は、後述するステップS260で保存した前フレームのマスクを包絡する包絡矩形の4端座標に基づいてマスクの面積を算出し、このマスクの面積と全画面面積とが次式(17)に示す関係を満たすか否かを判断する。
マスクの面積/全画面面積>0.001 ・・・(17)
ステップS120で肯定判断した場合には、ステップS130へ進み、制御装置104は、後述するステップS260で保存した前フレームの包絡矩形の4端座標に基づいて、各差分画像における包絡矩形の位置を特定して、包絡矩形からの距離に応じた距離重み付け係数Distを算出する。そして、制御装置104は、式(7)〜(9)を用いて、ステップS110で作成したY、Cb、Crの各差分画像の各画素の値に距離重み付け係数Distをかけることにより、距離重みつき差分画像DistY、DistCb、DistCrを作成する。その後、ステップS160へ進む。
なお、包絡矩形からの距離に応じた距離重み付け係数Distの算出方法は、上述したステップS80と同様である。例えば、包絡矩形のx方向の大きさをXsizeとし、包絡矩形のy方向の大きさをYsizeとし、距離重み付け係数Distの算出に用いる変数γを式(11)により定義する。そして、図4に示す領域3を包絡矩形とした場合には、領域1のように、領域3よりも上側に存在する画素については、式(12)により距離重み付け係数Distを算出する。領域2のように、領域3と同じ横ライン上にあり、かつ左側に存在する画素については、式(13)により距離重み付け係数Distを算出する。領域3内の画素については、式(14)により距離重み付け係数Distを算出する。領域4のように、領域3と同じ横ライン上にあり、かつ右側に存在する画素については、式(15)により距離重み付け係数Distを算出する。領域5のように、領域3よりも下側に存在する画素については、式(16)により距離重み付け係数Distを算出する。
ステップS120で否定判断した場合には、そのままステップS160へ進む。このように、ステップS120で肯定判断した場合のみ、ステップS130で距離による重み付け処理を行うようにすれば、小さい被写体に対しては距離による重み付け処理を行わないことになり、被写体をロストする可能性が下げることができる。
ステップS160では、制御装置104は、ステップS60またはステップS100で作成したクロップ画像の画素値の標準偏差、すなわち、Y成分のクロップ画像の標準偏差sigY、Cb成分のクロップ画像の標準偏差sigCb、Cr成分のクロップ画像の標準偏差sigCrを算出する。本実施の形態では、標準偏差の算出には、クロップ画像の平均値ではなく、ステップS40で算出し3×3領域の平均値(aveY、aveCb、aveCr)を使用する。その後、ステップS170へ進む。
ステップS170では、制御装置104は、ステップS80またはS130で作成した距離重み付き差分画像の各成分(DistY、DistCb、DistCr)を以下に示す方法で2値化し、Y、Cb、Crの2値化画像を作成する。具体的には、制御装置104は、Y成分の距離重み付き差分画像の各成分DistYについては、次式(21)により2値化を行って2値化画像を作成する。
if DistY<α×sigY → DistY=1
else DistY=0 ・・・(21)
Cb成分の距離重み付き差分画像の各成分DistCbについては、次式(22)、(23)により2値化を行って2値化画像を作成する。
if DistCb<α×sigCb → DistCb=1
else DistCb=0 ・・・(22)
ただし、118<aveCb<138 かつ sigCb<abs(aveCb−128)+3のとき、
if DistCb<α×sigCb×[{abs(aveCb−128)+3}/sigCb]1/2×[10/{abs(aveCb−128)+0.1}]1/2 → DistCb=1
else DistCb=0 ・・・(23)
Cr成分の距離重み付き差分画像の各成分DistCrについては、次式(24)、(25)により2値化を行って2値化画像を作成する。
if DistCr<α×sigCr → DistCr=1
else DistCr=0 ・・・(24)
ただし、118<aveCr<138 かつ sigCr<abs(aveCr−128)+3のとき、
if DistCr<α×sigCr×[{abs(aveCr−128)+3}/sigCr]1/2×[10/{abs(aveCr−128)+0.1}]1/2 → DistCr=1
else DistCr=0 ・・・(25)
なお、上記式(21)〜(25)において、αは例えば0.6とする。また、Cb成分とCr成分の2値化画像作成にあたって、式(23)と(25)を用いた処理を行うのは、無彩色シーンに対応するためである。
その後、ステップS180へ進み、制御装置104は、図5に示すように、対象画像5aに基づいて作成したY、Cb,Crの2値化画像5b〜5dのアンドをとって合成し、アンド画像(合成画像)5eを作成する。ここで作成したアンド画像5eにより、被写体の色を特定することが可能となる。その後、ステップS200へ進む。
ステップS200では、制御装置104は、ステップS180で作成したアンド画像5eを複数の閾値を用いて8つの区分に分類することにより、8方向のラベリング処理を行う。その後、ステップS210へ進み、制御装置104は、ステップS200におけるラベリング処理で作成された8区分の各ラベリング画像内から白画素の塊をマスクとして抽出し、抽出したマスクの面積を算出して、ステップS220へ進む。
ステップS220では、ステップS210で算出したマスクの面積に基づいて、主要被写体である可能性が低いマスクを除外するための足切りを行う。具体的には、制御装置104は、次式(26)に示すように、マスク面積をアンド画像の画面面積で割った値が、あらかじめ設定された下限値SmallLimitより大きいマスクのみを残し、その他を以降の処理対象から除外する。ここで、SmallLimitは、1フレーム目は、ステップS20で設定されたものが用いられ、2フレーム目以降は、前フレームのステップS280で算出されたものが用いられる。これにより、小さすぎるマスクや大きすぎるマスクなど、主要被写体である可能性が低いマスクを以降の処理対象から除外して、処理の高速化を図ることができる。
SmallLimit<マスク面積/全画面面積 ・・・(26)
その後、ステップS230へ進み、制御装置104は、ステップS200でラベリングしたマスクを包絡する包絡矩形を設定し、該包絡矩形の縦横比に基づいて、主要被写体である可能性が低いマスクを除外するための足切りを行う。具体的には、制御装置104は、次式(27)に示す条件を満たすマスクのみを残し、その他を以降の処理対象から除外する。これによって、主要被写体である可能性が低い、細長いマスクを以降の処理対象から除外して、処理の高速化を図ることができる。
0.2≦包絡矩形の縦の長さ/包絡矩形の横の長さ≦5 ・・・(27)
その後、ステップS240へ進み、制御装置104は、次式(28)により、各マスクの慣性モーメントIM22を算出して、ステップS250へ進む。
IM22=ΣΣ{(x−x+(y−y} ・・・(28)
なお、式(28)において、(x,y)は、各マスクの重心位置の座標であり、(x,y)は、対象画像が1フレーム目の場合には、ステップS30で特定した被写体位置の座標であり、対象画像が2フレーム目以降の場合は、前フレームにおける後述するステップS260の処理で保存した評価値最大のマスクの重心の座標である。
ステップS250では、制御装置104は、ステップS210で算出したマスク面積とステップS240で算出した慣性モーメントIM22に基づいて、次式(29)により各マスクの評価値を算出する。なお、次式(29)においては、βの値は例えば1.5とする。
評価値=(マスク面積)β/IM22 ・・・(29)
その後、ステップS260へ進み、制御装置104は、ステップS250で算出した評価値が最大のマスクを主要被写体を示す可能性が高いマスクとして特定し、特定した評価値最大マスクの重心座標と、ステップS230で設定した該マスクの包絡矩形の4端座標を保存する。その後、ステップS270へ進む。
ステップS270では、制御装置104は、ステップS260で保存したマスクの重心座標と包絡矩形の4端座標とに基づいて、ステップS10またはステップS90で読み込んだ画像中に包絡矩形を表示してモニタ106に出力する。これによって、スルー画上に被写体位置を示す包絡矩形を表示することができる。
その後、ステップS280へ進み、制御装置104は、ステップS250で算出した評価値が最大のマスクの面積に基づいて、次フレームのステップS220で用いるSmallLimitを算出して保存する。SmallLimitは、例えば次式(30)により算出する。
SmallLimit=(マスクの面積/全画面面積)×0.1 ・・・(30)
ただし、ステップS20で設定したSmallLimit=0.0001をそれぞれInitSmallLimitとし、SmallLimit<InitSmallLimit×0.1の関係が成り立つ場合には、SmallLimit=InitSmallLimitとする。
その後、ステップS290へ進み、制御装置104は、撮像素子103からの画像データの入力が終了したか否か、すなわち現在のフレームがラストのフレームであるか否かを判断する。ステップS290で否定判断した場合には、ステップS90へ戻って処理を繰り返す。これにより、時系列で入力される複数のフレームのそれぞれで被写体を特定することができ、フレーム間で被写体を追尾することが可能となる。これに対して、ステップS290で肯定判断した場合には、処理を終了する。
以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)制御装置104は、対象画像に基づいて、輝度成分からなる輝度画像と色差成分からなる色差画像とを生成し、生成した輝度画像と色差画像とのそれぞれにおける被写体位置座標を特定し、被写体位置座標を中心とした3×3の領域を対象として、Y、Cb、Cr各々の平均値を算出するようにした。そして、制御装置104は、輝度画像と色差画像から抽出したクロップ画像の各画素から上記平均値を減算して差分画像を作成し、作成した差分画像を2値化した後に合成するようにした。その後、制御装置104は、合成画像(アンド画像)を複数の区分に区分して、各区分画像内から白画素の塊をマスクとして抽出し、各マスクに対して算出した評価値に基づいて、対象画像内における被写体を特定するようにした。これによって、被写体の色情報(色差情報)や輝度情報を用いて、様々なシーンで被写体位置を特定することができる。
(2)制御装置104は、差分画像の各画素値に対して、被写体位置座標を中心とした所定の大きさの矩形(被写体領域)からの距離に応じた距離重み付け係数Distをかけて重み付けを行って、輝度画像と色差画像とのそれぞれに対応する重み付け差分画像を生成するようにした。これによって、各画素の画素値を被写体位置からの距離に応じて重み付けを行うことができるため、被写体位置の特定精度を向上させることができる。
(3)制御装置104は、使用者に対して対象画像内における被写体位置の指定を促し、使用者がユーザーや操作部材101を操作して入力した位置の座標を被写体位置座標として特定するようにした。これによって、被写体位置座標を正確に特定することができる。
(4)制御装置104は、時系列で入力される複数のフレームのそれぞれで被写体を特定するようにした。これによって、フレーム間で被写体を追尾することができる。
―変形例―
なお、上述した実施の形態のカメラは、以下のように変形することもできる。
(1)上述した実施の形態では、図2のステップS60またはステップS100で輝度画像と色差画像から所定範囲、例えば180×135の大きさの領域をクロップする例について説明した。しかしながら、クロップを行わずに、輝度画像と色差画像を対象として以降の処理を行ってもよい。
(2)上述した実施の形態では、図2のステップS80またはステップS130において、Y、Cb、Crの各差分画像の各画素の値に距離重み付け係数Distをかけることにより、距離重みつき差分画像DistY、DistCb、DistCrを作成する例について説明した。しかしながら、ステップS80またはステップS130の処理は行わなくてもよい。この場合、重み付けを行っていない差分画像を対象として、ステップS160以降の処理を行えばよい。
(3)上述した実施の形態では、制御装置104は、使用者に対して対象画像内における被写体位置の指定を促し、使用者がユーザーや操作部材101を操作して入力した位置の座標を被写体位置座標として特定する例について説明した。しかしながら、他の方法によって被写体位置座標を特定してもよい。例えば、制御装置104は、オートフォーカス処理によって焦点調節が行われたAF点の座標を被写体位置座標として特定してもよい。
(4)上述した実施の形態では、制御装置104は、被写体位置座標を中心とした3×3の領域を対象として、Y、Cb、Cr各々の平均値を算出し、クロップ画像の各画素の値から該平均値を減算することにより差分画像を生成する例について説明した。しかしながら、制御装置104は、平均値ではなく、最頻値や中央値を代表値として算出し、クロップ画像の各画素の値から該代表値を減算することにより差分画像を生成するようにしてもよい。
(5)上述した実施の形態では、本発明をカメラに適用する場合について説明した。しかしながら、本発明は、動画データを読み込んで、動画中の被写体をフレーム間で追尾するための被写体追尾装置、例えばパソコンや携帯端末などに適用することも可能である。
なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。また、上述の実施の形態と複数の変形例を組み合わせた構成としてもよい。
100 カメラ、101 操作部材、102 レンズ、103 撮像素子、104 制御装置、105 メモリカードスロット、106 モニタ

Claims (5)

  1. 対象画像に基づいて、輝度成分からなる輝度画像と色差成分からなる色差画像とを生成する輝度画像・色差画像生成手段と、
    前記輝度画像・色差画像生成手段によって生成された前記輝度画像と前記色差画像とのそれぞれから、被写体を含む被写体領域を抽出する被写体領域抽出手段と、
    前記被写体領域抽出手段によって前記輝度画像と前記色差画像とのそれぞれから抽出された前記被写体領域内の画素の画素値に基づいて、代表値を算出する代表値算出手段と、
    前記被写体領域内の各画素の画素値から前記代表値算出手段によって算出された前記代表値を減算して、前記輝度画像と前記色差画像とのそれぞれに対応する差分画像を作成する差分画像生成手段と、
    前記差分画像生成手段によって生成された前記差分画像を2値化する2値化手段と、
    前記2値化手段によって2値化された前記輝度画像に対応する2値化画像と、前記色差画像に対応する2値化画像とを合成する合成手段と、
    前記合成手段によって合成された合成画像を複数に区分して、各区分画像内から白画素の塊をマスクとして抽出するマスク抽出手段と、
    前記マスク抽出手段によって抽出された前記マスクに対して、前記マスクが被写体を示すマスクである可能性を示す評価値を算出する評価値算出手段と、
    前記評価値算出手段によって算出された前記評価値に基づいて、前記対象画像内における被写体を特定する被写体特定手段とを備えることを特徴とする被写体特定装置。
  2. 請求項1に記載の被写体特定装置において、
    前記差分画像生成手段によって生成された前記差分画像の各画素値に対して、前記被写体領域からの距離に応じた係数をかけて重み付けを行って、前記輝度画像と前記色差画像とのそれぞれに対応する重み付け画像を生成する重み付け画像生成手段をさらに備え、
    前記2値化手段は、前記重み付け画像生成手段によって生成された前記重み付け画像を2値化することを特徴とする被写体特定装置。
  3. 請求項1または2に記載の被写体特定装置において、
    前記差分画像生成手段は、前記被写体領域内の画素の画素値の平均値、最頻値、または中央値を前記代表値として算出することを特徴とする被写体特定装置。
  4. 請求項1〜3のいずれか一項に記載の被写体特定装置において、
    前記被写体領域抽出手段は、前記対象画像上で使用者によって指定された座標を含む領域、または焦点調節処理におけるAF点を含む領域を前記被写体領域として特定することを特徴とする被写体特定装置。
  5. 請求項1〜4のいずれか一項に記載の被写体特定装置で特定された被写体を複数フレーム間で追尾する追尾手段を備えることを特徴とする被写体追尾装置。
JP2011034823A 2011-02-21 2011-02-21 被写体特定装置、および被写体追尾装置 Active JP5691617B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011034823A JP5691617B2 (ja) 2011-02-21 2011-02-21 被写体特定装置、および被写体追尾装置
CN201210040405.9A CN102647555B (zh) 2011-02-21 2012-02-20 被摄体确定装置及被摄体追踪装置
US13/400,996 US8649561B2 (en) 2011-02-21 2012-02-21 Subject designating device and subject tracking apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011034823A JP5691617B2 (ja) 2011-02-21 2011-02-21 被写体特定装置、および被写体追尾装置

Publications (2)

Publication Number Publication Date
JP2012175361A JP2012175361A (ja) 2012-09-10
JP5691617B2 true JP5691617B2 (ja) 2015-04-01

Family

ID=46652765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011034823A Active JP5691617B2 (ja) 2011-02-21 2011-02-21 被写体特定装置、および被写体追尾装置

Country Status (3)

Country Link
US (1) US8649561B2 (ja)
JP (1) JP5691617B2 (ja)
CN (1) CN102647555B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6044123B2 (ja) * 2012-06-07 2016-12-14 株式会社ニコン 被写体追尾装置および電子カメラ並びに被写体追尾プログラム
JP6318661B2 (ja) * 2014-02-05 2018-05-09 株式会社ニコン 被写体検出装置、撮像装置及び画像処理プログラム
JP6326841B2 (ja) * 2014-02-05 2018-05-23 株式会社ニコン 画像処理装置、撮像装置及び画像処理プログラム
CN107710278A (zh) * 2015-06-18 2018-02-16 日本电气方案创新株式会社 图像处理设备,图像处理方法和计算机可读记录介质
EP3347857A1 (en) * 2015-09-10 2018-07-18 Koninklijke Philips N.V. Automatic image feature removal

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4284998B2 (ja) 2002-12-26 2009-06-24 ソニー株式会社 撮像装置および方法、並びにプログラム
ATE543159T1 (de) * 2006-04-28 2012-02-15 Nikon Corp Objektextraktion, objektverfolgung und bildsynthetisierung
JP2009003787A (ja) * 2007-06-22 2009-01-08 Sanyo Electric Co Ltd 対象物検出装置、対象物検出プログラム及び対象物検出システム
JP2010011441A (ja) * 2008-05-26 2010-01-14 Sanyo Electric Co Ltd 撮像装置及び画像再生装置
JP5371331B2 (ja) * 2008-09-01 2013-12-18 キヤノン株式会社 撮像装置、撮像装置の制御方法及びプログラム
US8237823B2 (en) * 2008-11-06 2012-08-07 Samsung Electronics Co., Ltd. Method and apparatus for canceling chromatic aberration
JP4798236B2 (ja) * 2009-03-06 2011-10-19 カシオ計算機株式会社 撮像装置、画像処理方法及びプログラム
US8498444B2 (en) * 2010-12-13 2013-07-30 Texas Instruments Incorporated Blob representation in video processing

Also Published As

Publication number Publication date
CN102647555A (zh) 2012-08-22
US8649561B2 (en) 2014-02-11
CN102647555B (zh) 2016-11-23
US20120213406A1 (en) 2012-08-23
JP2012175361A (ja) 2012-09-10

Similar Documents

Publication Publication Date Title
JP6763417B2 (ja) 電子機器
JP5246078B2 (ja) 被写体位置特定用プログラム、およびカメラ
JP2009212853A (ja) ホワイトバランス制御装置およびその制御方法並びに撮像装置
CN103888667B (zh) 摄像设备及其控制方法
WO2015196896A1 (zh) 对焦状态的提示方法和拍摄装置
JP5691617B2 (ja) 被写体特定装置、および被写体追尾装置
JP2008109344A (ja) 特定被写体像の検出方法およびデジタルカメラ
JP2010072619A (ja) 露出演算装置およびカメラ
JP2012039210A (ja) 被写体特定用プログラム、およびカメラ
JP2014179920A (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP4807582B2 (ja) 画像処理装置、撮像装置及びそのプログラム
JP5509621B2 (ja) 画像処理装置、カメラおよびプログラム
JP5012477B2 (ja) 部分画像抽出方法および部分画像抽出装置
JP2008005438A (ja) 撮像装置及び撮像方法
CN109582811B (zh) 图像处理方法、装置、电子设备和计算机可读存储介质
JP5240305B2 (ja) 被写体特定用プログラム、およびカメラ
JP2013182478A (ja) 被写体追尾装置、被写体追尾方法およびカメラ
JP5181952B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2013182479A (ja) 被写体追尾装置、被写体追尾方法およびカメラ
JP2020046475A (ja) 画像処理装置およびその制御方法
JP6044123B2 (ja) 被写体追尾装置および電子カメラ並びに被写体追尾プログラム
JP5111023B2 (ja) 撮像装置及びその制御方法
JP2010245923A (ja) 被写体追尾装置、およびカメラ
WO2021142711A1 (zh) 图像处理方法、装置、存储介质及电子设备
JP4580307B2 (ja) 検出画像領域決定装置および対象画像の特徴量算出装置ならびにそれらの制御方法およびそれらの制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150119

R150 Certificate of patent or registration of utility model

Ref document number: 5691617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250