JPWO2007125866A1 - 被写体抽出方法、被写体追跡方法、画像合成方法、被写体抽出コンピュータプログラム、被写体追跡コンピュータプログラム、画像合成コンピュータプログラム、被写体抽出装置、被写体追跡装置、および画像合成装置 - Google Patents

被写体抽出方法、被写体追跡方法、画像合成方法、被写体抽出コンピュータプログラム、被写体追跡コンピュータプログラム、画像合成コンピュータプログラム、被写体抽出装置、被写体追跡装置、および画像合成装置 Download PDF

Info

Publication number
JPWO2007125866A1
JPWO2007125866A1 JP2008513191A JP2008513191A JPWO2007125866A1 JP WO2007125866 A1 JPWO2007125866 A1 JP WO2007125866A1 JP 2008513191 A JP2008513191 A JP 2008513191A JP 2008513191 A JP2008513191 A JP 2008513191A JP WO2007125866 A1 JPWO2007125866 A1 JP WO2007125866A1
Authority
JP
Japan
Prior art keywords
image
subject
binary mask
input
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008513191A
Other languages
English (en)
Other versions
JP4924606B2 (ja
Inventor
啓之 阿部
啓之 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008513191A priority Critical patent/JP4924606B2/ja
Publication of JPWO2007125866A1 publication Critical patent/JPWO2007125866A1/ja
Application granted granted Critical
Publication of JP4924606B2 publication Critical patent/JP4924606B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

画像処理後の画像(処理後画像)を所定の閾値を用いて2値化して被写体抽出用の2値マスク画像を生成し、画像処理前の画像(処理前画像)と被写体抽出用の2値マスク画像とに基づいて、処理前画像から背景領域を除去して処理前画像内に含まれる被写体像のみを抽出した被写体画像を生成する。

Description

本発明は、画像内から被写体像を抽出する被写体抽出方法、抽出した被写体像をフレーム間で追跡する被写体追跡方法、抽出した被写体像を異なる画像に合成する画像合成方法、被写体抽出コンピュータプログラム、被写体追跡コンピュータプログラム、画像合成コンピュータプログラム、被写体抽出装置、被写体追跡装置、および画像合成装置に関する。
次のような撮影画面の顔領域検出方法が知られている。この顔領域検出方法では、撮影時の撮影倍率から人物の顔のサイズを推定するとともに、画面内での肌色領域のサイズを算出する。そして、推定した人物の顔のサイズと画面上の肌色領域のサイズとを比較することによって、撮影画面内における人物の顔の領域を検出する(特許文献1参照)。
特開平07−306483号公報
しかしながら、従来の方法によれば、人物の顔のサイズを撮影時の撮影倍率から推定しているが、画像内における人物の顔のサイズは、カメラから人物までの距離によっても異なる。そのため、撮影時の撮影倍率から推定したサイズは必ずしも正確であるとは限らず、この推定値に誤りがあると人物の顔の領域を正確に検出できない可能性があった。
本発明の第1の態様によると、被写体抽出方法は、画像処理後の画像(処理後画像)を所定の閾値を用いて2値化して被写体抽出用の2値マスク画像を生成し、画像処理前の画像(処理前画像)と被写体抽出用の2値マスク画像とに基づいて、処理前画像から背景領域を除去して処理前画像内に含まれる被写体像のみを抽出した被写体画像を生成する。
本発明の第2の態様によると、第1の態様の被写体抽出方法において、処理後画像の濃度平均値、または濃度中央値を所定の閾値として、2値マスク画像を生成することが好ましい。
本発明の第3の態様によると、第1または第2の態様の被写体抽出方法において、処理前画像はRGB色空間により表される画像であり、処理前画像に基づいて、輝度成分からなる輝度画像と色差成分からなる色差画像とを生成し、輝度画像と色差画像とをそれぞれ処理後画像として2値マスク画像を生成し、輝度画像の2値マスク画像と色差画像の2値マスク画像の中から所定の評価値を用いて選択した1つの2値マスク画像を被写体抽出用の2値マスク画像とすることが好ましい。
本発明の第4の態様によると、第3の態様の被写体抽出方法において、輝度成分と色差成分とからなる色空間は、YCbCr色空間であることが好ましい。
本発明の第5の態様によると、第3の態様の被写体抽出方法において、輝度成分と色差成分とからなる色空間は、YIQ色空間であることが好ましい。
本発明の第6の態様によると、第3〜第5のいずれかの態様の被写体抽出方法において、所定の評価値は、輝度画像の2値マスク画像の重心周りの慣性モーメント、および色差画像の2値マスク画像の重心周りの慣性モーメントであることが好ましい。
本発明の第7の態様によると、第3〜第5のいずれかの態様の被写体抽出方法において、所定の評価値は、輝度画像内における白色の領域の面積を輝度画像の2値マスク画像の重心周りの慣性モーメントで除算することにより算出される値、および色差画像内における白色の領域の面積を色差画像の2値マスク画像の重心周りの慣性モーメントで除算することにより算出される値であることが好ましい。
本発明の第8の態様によると、第1〜第7のいずれかの態様の被写体抽出方法において、処理前画像と被写体抽出用の2値マスク画像との論理積により得られる画像を被写体画像とすることが好ましい。
本発明の第9の態様によると、被写体追跡方法は、第1〜第8のいずれかの態様の被写体抽出方法を使用して入力画像の各フレームから背景領域を除去し、入力画像内に含まれる被写体像のみを抽出した入力被写体画像を生成し、テンプレート画像と、入力被写体画像との類似度に基づいて、入力画像におけるフレーム間での被写体像の動きを追跡する。
本発明の第10の態様によると、被写体追跡方法は、第1〜第8のいずれかの態様の被写体抽出方法を使用してテンプレート画像から背景領域を除去し、テンプレート画像内に含まれる被写体像のみを抽出したテンプレート被写体画像を生成し、第1〜第8のいずれかの態様の被写体抽出方法を使用して入力画像の各フレームから背景領域を除去し、入力画像内に含まれる被写体像のみを抽出した入力被写体画像を生成し、テンプレート被写体画像と、入力被写体画像との類似度に基づいて、入力画像におけるフレーム間での被写体像の動きを追跡する。
本発明の第11の態様によると、第10の態様の被写体追跡方法において、テンプレート画像はRGB色空間により表される画像であり、テンプレート画像に基づいて、輝度成分からなる輝度画像と色差成分からなる色差画像とを生成し、輝度画像と色差画像とを、それぞれの画像の濃度平均値、または濃度中央値を閾値として2値化して2値マスク画像を生成し、輝度画像の2値マスク画像と色差画像の2値マスク画像の中から所定の評価値を用いて選択した1つの2値マスク画像をテンプレート用の2値マスク画像として選択し、テンプレート画像とテンプレート用の2値マスク画像との論理積により得られる画像をテンプレート被写体画像とすることが好ましい。
本発明の第12の態様によると、第11の態様の被写体追跡方法において、入力画像はRGB色空間により表される画像であり、入力画像に基づいて、テンプレート用の2値マスク画像として選択した2値マスク画像と同じ成分からなる成分画像を生成し、成分画像を成分画像の濃度平均値、または濃度中央値を閾値として2値化して入力画像用の2値マスク画像を生成し、入力画像と入力画像用の2値マスク画像との論理積により得られる画像を入力被写体画像とすることが好ましい。
本発明の第13の態様によると、第12の態様の被写体追跡方法において、テンプレート用の2値マスク画像の重心を中心としたテンプレート被写体画像の慣性モーメントをテンプレート被写体画像の特徴量とし、入力画像用の2値マスク画像内に設定した所定領域内の重心を中心とした入力被写体画像の慣性モーメントを入力被写体画像の特徴量とし、テンプレート被写体画像の特徴量、および入力被写体画像の特徴量に基づいて、テンプレート被写体画像と入力被写体画像との類似度を演算することが好ましい。
本発明の第14の態様によると、画像合成方法は、第1〜第8のいずれかの態様の被写体抽出方法を使用して第1の画像から抽出した被写体像の第1の画像における抽出位置を特定し、第1〜第8のいずれかの態様の被写体抽出方法を使用して第2の画像から被写体像のみを抽出した被写体画像を生成し、第1の画像における被写体像の抽出位置に、第2の画像から生成した被写体画像を合成する。
本発明の第15の態様による被写体抽出コンピュータプログラムは、次の(a)および(b)の手順を実行する。
(a)画像処理後の画像(処理後画像)を所定の閾値を用いて2値化して被写体抽出用の2値マスク画像を生成する2値マスク画像生成手順、
(b)画像処理前の画像(処理前画像)と前記被写体抽出用の2値マスク画像とに基づいて、前記処理前画像から背景領域を除去して前記処理前画像内に含まれる被写体像のみを抽出した被写体画像を生成する被写体画像生成手順。
本発明の第16の態様によると、第15の態様の被写体抽出コンピュータプログラムにおいて、2値マスク画像生成手順は、処理後画像の濃度平均値、または濃度中央値を所定の閾値として、2値マスク画像を生成することが好ましい。
本発明の第17の態様によると、第15または第16の態様の被写体抽出コンピュータプログラムにおいて、処理前画像はRGB色空間により表される画像であり、2値マスク画像生成手順は、処理前画像に基づいて、輝度成分からなる輝度画像と色差成分からなる色差画像とを生成し、輝度画像と色差画像とをそれぞれ処理後画像として2値マスク画像を生成し、輝度画像の2値マスク画像と色差画像の2値マスク画像の中から所定の評価値を用いて選択した1つの2値マスク画像を被写体抽出用の2値マスク画像とすることが好ましい。
本発明の第18の態様によると、第17の態様の被写体抽出コンピュータプログラムにおいて、輝度成分と色差成分とからなる色空間は、YCbCr色空間であることが好ましい。
本発明の第19の態様によると、第17の態様の被写体抽出コンピュータプログラムにおいて、輝度成分と色差成分とからなる色空間は、YIQ色空間であることが好ましい。
本発明の第20の態様によると、第17〜第19のいずれかの態様の被写体抽出コンピュータプログラムにおいて、所定の評価値は、輝度画像の2値マスク画像の重心周りの慣性モーメント、および色差画像の2値マスク画像の重心周りの慣性モーメントであることが好ましい。
本発明の第21の態様によると、第17〜第19のいずれかの態様の被写体抽出コンピュータプログラムにおいて、所定の評価値は、輝度画像内における白色の領域の面積を輝度画像の2値マスク画像の重心周りの慣性モーメントで除算することにより算出される値、および色差画像内における白色の領域の面積を色差画像の2値マスク画像の重心周りの慣性モーメントで除算することにより算出される値であることが好ましい。
本発明の第22の態様によると、第15〜第21のいずれかの態様の被写体抽出コンピュータプログラムにおいて、被写体画像生成手順は、処理前画像と被写体抽出用の2値マスク画像との論理積により得られる画像を被写体画像とすることが好ましい。
本発明の第23の態様による被写体追跡コンピュータプログラムは、次の(c)および(d)の手順を実行する。
(c)第15〜第22のいずれかの態様の被写体抽出コンピュータプログラムを実行して、入力画像の各フレームから背景領域を除去して入力画像内に含まれる被写体像のみを抽出した入力被写体画像を生成する入力被写体画像生成手順、
(d)テンプレート画像と、入力被写体画像との類似度に基づいて、入力画像におけるフレーム間での被写体像の動きを追跡する被写体追跡手順。
本発明の第24の態様による被写体追跡コンピュータプログラムは、次の(e)〜(g)の手順を実行する。
(e)第15〜第22のいずれかの態様の被写体抽出コンピュータプログラムを実行して、テンプレート画像から背景領域を除去してテンプレート画像内に含まれる被写体像のみを抽出したテンプレート被写体画像を生成するテンプレート被写体画像生成手順、
(f)第15〜第22のいずれかの態様の被写体抽出コンピュータプログラムを実行して、入力画像の各フレームから背景領域を除去して入力画像内に含まれる被写体像のみを抽出した入力被写体画像を生成する入力被写体画像生成手順、
(g)テンプレート被写体画像と、入力被写体画像との類似度に基づいて、入力画像におけるフレーム間での被写体像の動きを追跡する被写体追跡手順。
本発明の第25の態様によると、第24の態様の被写体追跡コンピュータプログラムにおいて、テンプレート画像はRGB色空間により表される画像であり、テンプレート被写体画像生成手順は、テンプレート画像に基づいて、輝度成分からなる輝度画像と色差成分からなる色差画像とを生成し、輝度画像と色差画像とを、それぞれの画像の濃度平均値、または濃度中央値を閾値として2値化して2値マスク画像を生成し、輝度画像の2値マスク画像と色差画像の2値マスク画像の中から所定の評価値を用いて選択した1つの2値マスク画像をテンプレート用の2値マスク画像として選択し、テンプレート画像とテンプレート用の2値マスク画像との論理積により得られる画像をテンプレート被写体画像とすることが好ましい。
本発明の第26の態様によると、第25の態様の被写体追跡コンピュータプログラムにおいて、入力画像はRGB色空間により表される画像であり、入力被写体画像生成手順は、入力画像に基づいて、テンプレート用の2値マスク画像として選択した2値マスク画像と同じ成分からなる成分画像を生成し、成分画像を成分画像の濃度平均値、または濃度中央値を閾値として2値化して入力画像用の2値マスク画像を生成し、入力画像と入力画像用の2値マスク画像との論理積により得られる画像を入力被写体画像とすることが好ましい。
本発明の第27の態様によると、第26の態様の被写体追跡コンピュータプログラムにおいて、被写体追跡手順は、テンプレート用の2値マスク画像の重心を中心としたテンプレート被写体画像の慣性モーメントをテンプレート被写体画像の特徴量とし、入力画像用の2値マスク画像内に設定した所定領域内の重心を中心とした入力被写体画像の慣性モーメントを入力被写体画像の特徴量とし、テンプレート被写体画像の特徴量、および入力被写体画像の特徴量に基づいて、テンプレート被写体画像と入力被写体画像との類似度を演算することが好ましい。
本発明の第28の態様による画像合成コンピュータプログラムは、次の(h)〜(j)の手順を実行する。
(h)第15〜第22のいずれかの態様の被写体抽出コンピュータプログラムを実行して、第1の画像から抽出した被写体像の第1の画像における抽出位置を特定する特定手順、
(i)第15〜第22のいずれかの態様の被写体抽出コンピュータプログラムを実行して、第2の画像から被写体像のみを抽出した被写体画像を生成する被写体画像生成手順、
(j)第1の画像における前記被写体像の抽出位置に、第2の画像から生成した被写体画像を合成する合成手順。
本発明の第29の態様による被写体抽出装置は、第15〜第22のいずれかの態様の被写体抽出コンピュータプログラムを実行するプログラム実行部を備える。
本発明の第30の態様による被写体追跡装置は、第23〜第27のいずれかの態様の被写体追跡コンピュータプログラムを実行するプログラム実行部を備える。
本発明の第31の態様による画像合成装置は、第28の態様の画像合成コンピュータプログラムを実行するプログラム実行部を備える。
本発明によれば、画像から背景領域を除去して、画像内に含まれる被写体像を正確に抽出することができる。
カメラの一実施の形態の構成を示すブロック図。 追跡対象の人物の顔を含む画像の具体例を示す図。 テンプレート画像の具体例を示す図。 テンプレート画像から生成した成分画像の具体例を示す図。 成分画像に基づいて作成された濃度ヒストグラムの具体例を示す図。 成分画像を2値化して生成した2値マスク画像の具体例を示す図。 テンプレート被写体画像の具体例を示す図。 入力被写体画像の具体例を示す図。 テンプレート被写体画像生成処理を示すフローチャート図。 被写体追跡処理を示すフローチャート図。 被写体追跡プログラムを被写体追跡装置に提供する様子を示す図。
図1は、本実施の形態におけるカメラの一実施の形態の構成を示すブロック図である。カメラ100は、例えばデジタルカメラであり、入力スイッチ101と、レンズ102と、撮像素子103と、制御装置104と、メモリ105と、メモリカードスロット106と、モニタ107とを備えている。
入力スイッチ101は、使用者によって操作される種々の入力部材を含んでいる。例えば、この入力スイッチ101には、レリーズスイッチやカメラ100を操作するための種々の操作ボタンが含まれる。
レンズ102は、複数の光学レンズ群から構成されるが、図1では代表して1枚のレンズで表している。撮像素子103は、例えばCCDであり、レンズ102を通して入力される被写体像を撮像し、得られた画像データを制御装置104へ出力する。ここで撮像されて得られる画像データは、RGB色空間により表される画像データであるものとし、この画像データを構成する各々の画素には、RGBの各色成分の色情報が全て存在しているものとする。
なお、本実施の形態におけるカメラ100においては、撮像素子103は、使用者による入力スイッチ101に含まれるレリーズボタンが押下されることにより被写体像の撮像を行う。このとき、レリーズボタンが押下された時点の1フレームの画像を静止画像として撮像することもでき、また、レリーズボタンが押下されてから次にレリーズボタンが押下されるまでの間、被写体像を所定の時間間隔で連続して複数フレーム撮像することによって、動画像を撮影することもできる。
制御装置104は、CPU、メモリ、およびその他の周辺回路により構成され、撮像素子103から入力される画像データ(静止画像データまたは動画像データ)をモニタ107に出力して表示し、さらにメモリカードスロット106に挿入されているメモリカード内に記憶する。制御装置104はまた、被写体抽出部104aと、テンプレートマッチング部104bと、被写体追跡部104cとを機能的に有している。
被写体抽出部104aは、あらかじめ撮影された追跡対象の被写体像を含む画像に対して被写体抽出処理を実行し、画像内から被写体像のみを抽出したテンプレート被写体画像を生成する。そして、撮像素子103から入力される動画像データ(入力画像)を構成する各フレームの画像データに対して被写体抽出処理を実行し、各フレーム内から被写体像のみを抽出した入力被写体画像をそれぞれ生成する。テンプレートマッチング部104bは、各入力被写体画像と、あらかじめ生成しておいたテンプレート被写体画像とをマッチング処理し、被写体追跡部104cは、テンプレートマッチング部104bによるマッチング結果に基づいて、フレーム間での被写体像の動きを追跡する。以下、104a〜104cの各部による処理を説明する。
被写体抽出部104aは、まず、後述するテンプレートマッチング部104bでテンプレートマッチング処理に使用するテンプレート被写体画像を生成する。このために、まず、後述する被写体追跡処理で追跡対象とする被写体像が撮影されている画像内から被写体像が含まれる領域の画像をテンプレート画像として抽出する。ここで、追跡対象とする被写体としては、例えば人物の顔や特定の物体などが用いられる。
このために、使用者は、あらかじめ当該追跡対象とする被写体を撮影した画像を用意しておき、その画像内の被写体が写っている範囲をテンプレート画像として抽出する範囲として指定する必要がある。なお、追跡対象とする被写体を撮影した画像は、過去に撮影されメモリカードスロット106内のメモリカードに記録されている画像を読み込んで使用してもよく、あるいは、撮像素子103を介して新たに取得した画像を使用してもよい。
そして、使用者は、このようにあらかじめ準備した追跡対象の人物の顔を含む画像をモニタ107上に表示し、入力スイッチ101を操作してモニタ107上でテンプレート画像として抽出する範囲を指定する。例えば、使用者によって、図2に示す画像内から、人物の顔を含む領域2aが指定された場合には、被写体抽出部104aは、領域2a内の画像を抽出してテンプレート画像とする。すなわち、被写体抽出部104aは、図2に示す画像内から、図3に示すテンプレート画像を抽出する。なお、上述したように、このテンプレート画像は、RGB表色系で表されているものとする。
被写体抽出部104aは、RGB表色系で表されているテンプレート画像を次式(1)〜(3)を用いてYCbCr色空間における輝度成分からなる輝度画像と色差成分からなる色差画像とに変換する。すなわち、次式(1)を用いてY成分からなるY画像を輝度画像として生成し、次式(2)および(3)を用いてCb成分からなるCb画像とCr成分からなるCr画像とをそれぞれ色差画像として生成する。
Y = 0.299R+0.587G+0.114B ・・・(1)
Cb=−0.169R−0.332G+0.500B ・・・(2)
Cr= 0.500R−0.419G−0.081B ・・・(3)
これによって、図3に示したRGB色空間により表されるテンプレート画像(処理前画像)は、図4(a)に示すY画像、図4(b)に示すCb画像、および図4(c)に示すCr画像(処理後画像)にそれぞれ変換される。そして、被写体抽出部104aは、生成したY画像、Cb画像、およびCr画像について、横軸に濃度値(0〜255)、縦軸に画素数をとった濃度ヒストグラムを作成する。すなわち、Y画像、Cb画像、Cr画像の成分画像それぞれに対して、画像内の全画素の濃度値を調べ、各濃度値ごとに画素数を計数して、濃度値ごとの画素数の出現頻度を示した濃度ヒストグラムを作成する。
その結果、例えば図5に示すような濃度ヒストグラムを得る。なお、図5に示す濃度ヒストグラムは、Y画像、Cb画像、およびCr画像のいずれか1つ、例えばY画像について作成したものであり、その他のCb画像、およびCr画像についても同様に作成される。
被写体抽出部104aは、このように作成した各成分画像の濃度ヒストグラムの中央値、すなわち濃度中央値(Median)5aを算出する。そして、この算出した濃度中央値5aを閾値に設定して、生成したY画像、Cb画像、およびCr画像のそれぞれを2値化して2値マスク画像を生成する。その結果、図6に示すように、Y画像、Cb画像、およびCr画像のそれぞれについての2値マスク画像を生成することができる。
すなわち、被写体抽出部104aは、図4(a)に示したY画像をY画像の濃度中央値5aを閾値に使用して2値化することによって、図6(a)に示すようなY画像の2値マスク画像を生成することができる。同様に、図4(b)に示したCb画像をCb画像の濃度中央値5aを閾値に使用して2値化することによって図6(b)に示すようなCb画像の2値マスク画像を生成することができる。また、図4(c)に示したCr画像をCr画像の濃度中央値5aを閾値に使用して2値化することによって図6(c)に示すようなCr画像の2値マスク画像を生成することができる。
なお、本実施の形態では、Y画像、Cb画像、およびCr画像のそれぞれについて濃度中央値5aを閾値に使用して2値化する例について説明するが、その他の値を閾値として使用するようにしてもよい。例えば、各成分画像の濃度ヒストグラムの平均値、すなわち濃度平均値(Mean)5bを算出して、これを閾値として使用してもよい。
次に、被写体抽出部104aは、Y画像の2値マスク画像、Cb画像の2値マスク画像、Cr画像の2値マスク画像のそれぞれについて、重心周りの慣性モーメントを算出する。すなわち、Y画像の2値マスク画像の重心周りの慣性モーメント、Cb画像の2値マスク画像の重心周りの慣性モーメント、およびCr画像の2値マスク画像の重心周りの慣性モーメントをそれぞれ算出する。なお、2値画像の重心周りの慣性モーメントの算出方法については、公知のため詳細な説明を省略するが、重心からの画素距離の2乗×0または1の濃度値の和により算出される。
そして、被写体抽出部104aは、Y画像の2値マスク画像、Cb画像の2値マスク画像、Cr画像の2値マスク画像のうち、算出した重心周りの慣性モーメントが最小となる2値マスク画像を被写体抽出用の2値マスク画像として選択する。すなわち、Y画像の2値マスク画像の重心周りの慣性モーメント、Cb画像の2値マスク画像の重心周りの慣性モーメント、およびCr画像の2値マスク画像の重心周りの慣性モーメントを評価値として使用して、被写体抽出用の2値マスク画像を選択する。
Y画像の2値マスク画像、Cb画像の2値マスク画像、およびCr画像の2値マスク画像は、それぞれ「黒:0」および「白:1」の値を持っているため、各画像の重心周りの慣性モーメントは白画素の重心からの距離のみに依存した値となる。このため、重心周りに白画素がまとまっている場合には、重心周りの慣性モーメントの値が小さくなる。よって、重心周りの慣性モーメントが最小となる2値マスク画像を選択することによって、被写体像を示す白画素が他の2値マスク画像よりもまとまって存在している2値マスク画像を選択することができる。
例えば、図6に示す例において、Y画像の2値マスク画像の慣性モーメントが19、Cb画像の2値マスク画像の慣性モーメントが19.1、およびCr画像の2値マスク画像の慣性モーメントが3.38と算出された場合には、被写体抽出部104aは、慣性モーメントが最小であるCr画像の2値マスク画像を被写体抽出用の2値マスク画像として選択する。これによって、図6(c)に示すように、被写体像が白い領域のまとまりとして表され、その他の背景に相当する領域が黒い領域として表されているCr画像の2値マスク画像を被写体抽出用の2値マスク画像として選択することができる。
そして、被写体抽出部104aは、テンプレート画像と被写体抽出用の2値マスク画像との論理積をとることにより、テンプレート画像内から背景を除去して被写体像のみを抽出したテンプレート被写体画像を得ることができる。例えば、図3に示したテンプレート画像と図6(c)に示した被写体抽出用の2値マスク画像との論理積をとることにより、図7に示すように背景を除去して被写体像である人物の顔のみを抽出したテンプレート被写体画像を得ることができる。被写体抽出部104aは、生成したテンプレート被写体画像をメモリ105に記録する。
被写体抽出部104a〜被写体追跡部104cの各部は、以上のようにしてテンプレート画像から生成したテンプレート被写体画像を用いて、撮像素子103から入力される動画像データ(入力画像)を構成する各フレームの画像データ内に存在する被写体像のフレーム間での動きを追跡する。具体的には次のように処理する。
被写体抽出部104aは、撮像素子103から入力画像の入力が開始されると、メモリ105からあらかじめ生成したテンプレート被写体画像を読み込む。そして、RGB表色系で表されている各フレームの画像を上述した成分画像に変換する。このとき、Y画像、Cb画像、およびCr画像のうち、上述した処理でテンプレート被写体画像を生成したときに、被写体抽出用の2値マスク画像として選択した2値マスク画像と同じ成分の成分画像に式(1)〜(3)のいずれかを使用して変換する。すなわち、上述した処理では、Cr画像の2値マスク画像を被写体抽出用の2値マスク画像として選択したため、式(3)を使用して入力画像をCr画像に変換する。
そして、被写体抽出部104aは、生成したCr画像を処理対象として、テンプレート被写体画像を生成したときと同様の処理を実行して、入力画像から背景を除去して被写体像のみを抽出した入力被写体画像を生成する。すなわち、生成したCr画像に基づいて図5に示したような濃度ヒストグラムを作成し、濃度中央値5aを閾値に設定してCr画像を2値化してCr画像の2値マスク画像を生成する。そして、このCr画像の2値マスク画像を被写体抽出用の2値マスク画像とし、入力画像と被写体抽出用の2値マスク画像との論理積をとることにより、入力画像内から背景を除去して被写体像のみを抽出した入力被写体画像を生成する。例えば、入力画像のある1フレームが、図2に示した画像である場合には、図8に示すような入力被写体画像が生成される。
テンプレートマッチング部104bは、このように生成した入力被写体画像上にテンプレート被写体画像とのマッチングを行うための矩形枠をターゲット領域として設定し、ターゲット領域の位置を入力被写体画像内で所定量ずつ、例えば1画素ずつ移動させながらそれぞれの位置におけるターゲット領域内の画像とテンプレート被写体画像との類似度を算出する。
なお、本実施の形態では、テンプレート被写体画像の生成に用いた2値マスク画像(テンプレート被写体画像の2値マスク画像)の重心を中心としたテンプレート被写体画像の慣性モーメントをテンプレート被写体画像の特徴量とする。また、入力被写体画像の生成に用いた2値マスク画像(入力被写体画像の2値マスク画像)のターゲット領域に相当する領域内の重心を中心とした入力被写体画像の慣性モーメントを入力被写体画像の特徴量とする。そして、テンプレート被写体画像の特徴量と、入力被写体画像の特徴量とに基づいて、ターゲット領域内の画像とテンプレート被写体画像との類似度を算出する。ここで、両特徴量に基づく類似度の演算には、例えば特開2005−293334号公報に記載されている方法を使用するものとし、詳細な説明は省略する。
そして、テンプレートマッチング部104bは、入力被写体画像全体に対してテンプレートマッチング処理を実行した結果、入力被写体画像内でテンプレート被写体画像との類似度が最も高い所定領域を特定する。すなわち、ターゲット領域の位置を入力被写体画像内で所定量ずつ移動させながらマッチング処理を行った結果、最も高い類似度が算出されたときのターゲット領域の位置を特定する。
被写体追跡部104cは、テンプレートマッチング部104bによって特定されたターゲット領域の位置をフレーム間で追跡することによって、撮像素子103から入力される動画像データ内の被写体像の動きをフレーム間で追跡することができる。
図9は、本実施の形態におけるテンプレート被写体画像生成処理を示すフローチャートである。図9に示す処理は、使用者によって入力スイッチ101が操作され、テンプレート被写体画像の生成が指示されると起動する被写体抽出プログラムとして被写体抽出部104aによって実行される。
ステップS10において、被写体抽出部104aは、被写体像が撮影されている画像を取得する。例えば、メモリカードスロット106内のメモリカードに記録されている画像を読み込んで取得するか、あるいは、撮像素子103を介して新たに画像を取得する。その後、ステップS20へ進み、使用者によって、取得した画像内にテンプレート画像として抽出する範囲が指定されたか否かを判断する。範囲が指定されたと判断した場合には、ステップS30へ進む。
ステップS30では、使用者によって指定された範囲内の画像をテンプレート画像として抽出し、ステップS40へ進む。ステップS40では、式(1)〜(3)を用いて、テンプレート画像から成分画像、すなわちY画像、Cb画像、およびCr画像をそれぞれ生成する。その後、ステップS50へ進み、生成したY画像、Cb画像、およびCr画像のそれぞれについて、図5に示した濃度ヒストグラムを作成して、ステップS60へ進む。
ステップS60において、各成分画像の濃度ヒストグラムの濃度中央値5aを算出して、ステップS70へ進む。ステップS70では、算出した濃度中央値5aを閾値に設定して、生成したY画像、Cb画像、およびCr画像のそれぞれを2値化して各成分の2値マスク画像を生成する。その後、ステップS80へ進み、Y画像の2値マスク画像、Cb画像の2値マスク画像、Cr画像の2値マスク画像のそれぞれについて、重心周りの慣性モーメントを算出する。その後、ステップS90へ進む。
ステップS90では、Y画像の2値マスク画像、Cb画像の2値マスク画像、Cr画像の2値マスク画像のうち、算出した重心周りの慣性モーメントが最小となる2値マスク画像を被写体抽出用の2値マスク画像として選択する。その後、ステップS100へ進み、テンプレート画像と被写体抽出用の2値マスク画像との論理積をとることにより、テンプレート被写体画像を生成してステップS110へ進む。ステップS110では、生成したテンプレート被写体画像をメモリ105へ記録して処理を終了する。
図10は、本実施の形態における被写体追跡処理を示すフローチャートである。図10に示す処理は、使用者によって入力スイッチ101が操作され、動画像の撮影が開始されると起動する被写体追跡プログラムとして制御装置104によって実行される。なお、図9に示したテンプレート被写体画像生成処理と処理内容が同一のステップには同じステップ番号を付与し、相違点を中心に説明する。
ステップS210において、被写体抽出部104aは、メモリ105から図9に示す処理で再生したテンプレート被写体画像を読み込んで、ステップS220へ進む。ステップS220では、被写体抽出部104aは、入力画像に基づいて、図9のステップS90で被写体抽出用の2値マスク画像として選択した2値マスク画像と同じ成分の成分画像を式(1)〜(3)のいずれかを使用して生成する。その後、ステップS50へ進む。
ステップS230では、被写体抽出部104aは、入力画像と被写体抽出用の2値マスク画像との論理積をとることにより、入力画像内から背景を除去して被写体像のみを抽出した入力被写体画像を生成する。その後、ステップS240へ進み、テンプレートマッチング部104bは、上述したように、入力被写体画像上に設定したターゲット領域内の画像とテンプレート被写体画像との類似度を算出して、テンプレートマッチング処理を行い、入力被写体画像内でテンプレート被写体画像との類似度が最も高いターゲット領域の位置を特定する。その後、ステップS250へ進む。
ステップS250では、被写体追跡部104cは、テンプレートマッチング部104bによって特定されたターゲット領域の位置をフレーム間で追跡して、撮像素子103から入力される動画像データ内の被写体像の動きをフレーム間で追跡する。その後、ステップS260へ進み、撮像素子103からの動画像データの入力が終了したか、すなわち動画像の撮影が終了したか否かを判断する。動画像の撮影が終了していないと判断した場合には、ステップS220へ戻って処理を繰り返す。これに対して動画像の撮影が終了したと判断した場合には処理を終了する。
以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)追跡対象とする被写体像を含む画像から処理画像としてのテンプレート画像を抽出し、テンプレート画像をY画像、Cb画像、Cr画像の各成分画像に変換した後、各成分画像をそれぞれの濃度中央値を閾値として2値化した。そして、Y画像の2値マスク画像、Cb画像の2値マスク画像、Cr画像の2値マスク画像のうち、重心周りの慣性モーメントが最小となる2値マスク画像を被写体抽出用の2値マスク画像として選択するようにした。これによって、重心周りの慣性モーメントが最小となる2値マスク画像においては、重心周りに白い領域がまとまって集中しており、被写体像は画像の重心付近に存在していることが多いことを加味して、被写体を抽出するために最適な2値マスク画像を選択することができる。
(2)テンプレート画像と被写体抽出用の2値マスク画像との論理積をとることによってテンプレート画像内から背景を除去して被写体像のみを抽出したテンプレート被写体画像を生成するようにした。これによって、被写体抽出用の2値マスク画像は、被写体像に相当する範囲が白い領域として表され、その他の背景領域が黒い領域として表されていることから、これとテンプレート画像との論理積をとることにより、背景の除去と被写体像の抽出を精度高く行ったテンプレート被写体画像を生成することができる。
(3)入力画像から入力被写体画像を生成するに当たっては、入力画像をテンプレート被写体画像を生成したときに、被写体抽出用の2値マスク画像として選択した2値マスク画像と同じ成分の成分画像に変換してから、その他の処理を行うようにした。これによって、処理対象とする画像を、テンプレート被写体画像を生成するために選択した2値マスク画像と同じ成分の成分画像のみに限定することができ、処理の負荷を低減して処理速度を向上することができる。
(4)入力被写体画像全体に対してテンプレートマッチング処理を実行した結果、入力被写体画像内でテンプレート被写体画像との類似度が最も高い所定領域を特定し、特定したターゲット領域の位置をフレーム間で追跡することによって、被写体像の動きを追跡するようにした。これによって、フレーム間での被写体像の動きを精度高く追跡することができる。
―変形例―
なお、上述した実施の形態のカメラは、以下のように変形することもできる。
(1)上述した実施の形態では、RGB表色系で表されているテンプレート画像、および入力画像を、YCbCr色空間における輝度成分からなる輝度画像と色差成分からなる色差画像とに変換する例について説明した。しかしながら、YIQ色空間における輝度成分からなる輝度画像と色差成分からなる色差画像とに変換するようにしてもよい。
(2)上述した実施の形態では、被写体抽出部104aによってテンプレート画像と入力画像のそれぞれから被写体画像を生成し、その抽出結果を用いて、テンプレートマッチング部104bでテンプレートマッチング処理を行い、被写体追跡部104cでフレーム間での被写体像の動きを追跡する例について説明した。しかしながら、被写体抽出部104aによって画像から抽出した被写体画像を用いて、画像の合成を行うようにしてもよい。例えば、合成元の画像と合成先の画像の2枚の画像があるときに、被写体抽出部104aは、合成元の画像、および合成先の画像のそれぞれに対して被写体抽出処理を実行して、各画像内から被写体画像を生成する。そして、合成先の画像における被写体画像の抽出位置を特定し、合成元の画像から生成した被写体画像を合成先の画像における被写体画像の抽出位置に合成するようにしてもよい。
(3)上述した実施の形態では、撮像素子103から入力される動画像データ、すなわち連続して入力される複数フレームの画像データに対して処理を実行して、フレーム間で被写体追跡を行う例について説明した。しかしながら、連写機能によって静止画像が連続して複数フレーム入力された場合に、フレーム間で被写体像の動きを追跡する場合にも本発明は適用可能である。
(4)上述した実施の形態では、Y画像の2値マスク画像、Cb画像の2値マスク画像、Cr画像の2値マスク画像のそれぞれについて、重心周りの慣性モーメントを算出し、算出した重心周りの慣性モーメントが最小となる2値マスク画像を被写体抽出用の2値マスク画像として選択する例について説明した。すなわち、上述した実施の形態では、被写体抽出用の2値マスク画像を選択するための評価値として、各成分の2値マスク画像の重心周りの慣性モーメントを用いる例について説明した。しかしこれに限定されず、各成分の2値マスク画像それぞれについて、白色の領域(白エリア)の面積を算出し、各成分の2値マスク画像について、次式(4)によって算出した評価値が最小となる2値マスク画像を被写体抽出用の2値マスク画像として選択するようにしてもよい。
評価値=白エリア面積/重心周りの慣性モーメント ・・・(4)
これによって、画像の重心周りに被写体像とは異なる小さい白エリアが存在する2値マスク画像を被写体抽出用の2値マスク画像として誤って選択してしまうことを防ぐことができる。
(5)上述した実施の形態では、被写体抽出処理を行って画像内から抽出した被写体をフレーム間で追跡する例について説明した。すなわち、被写体抽出処理を被写体追跡処理を行うための処理として実行する例について説明した。しかしながら、被写体抽出処理は、他の用途にも適用することができる。例えば、被写体抽出処理を行って画像内から被写体を抽出した後、画像内の抽出した被写体以外の背景をデジタル的にぼかすようにしてもよい。すなわち、被写体抽出処理をデジタルぼかしを行うために実行するようにしてもよい。
(6)上述した実施の形態では、カメラ100が供える制御装置104によって、被写体抽出部104a、テンプレートマッチング部104b、および被写体追跡部104cの処理を実行する例について説明した。しかしこれに限定されず、104a〜104cと等価な処理を実行するためのプログラムをパーソナルコンピュータなどその他の端末に記録して、それらの端末上で処理を実行することも可能である。この場合、カメラで撮影した画像データを端末側に取り込んで処理を行うようにすればよい。また、本発明はカメラ付き携帯電話などに適用することも可能である。さらに、被写体抽出部104aと等価な処理を実行するための被写体抽出プログラムのみを他の端末に記録して、画像内から背景を除去して被写体像のみを抽出する被写体抽出処理のみを行うようにしてもよい。
(7)また、パーソナルコンピュータなどに適用する場合、上述した被写体抽出プログラムや被写体追跡プログラムなどのプログラムは、CD−ROMなどの記録媒体やインターネットなどのデータ信号を通じて提供することができる。図11はその様子を示す図である。パーソナルコンピュータ400は、CD−ROM404を介してプログラムの提供を受ける。また、パーソナルコンピュータ400は通信回線401との接続機能を有する。コンピュータ402は上記被写体抽出プログラムや被写体追跡プログラムなどのプログラムを提供するサーバーコンピュータであり、ハードディスク403などの記録媒体にこれらのプログラムを格納する。通信回線401は、インターネット、パソコン通信などの通信回線、あるいは専用通信回線などである。コンピュータ402はハードディスク403を使用してプログラムを読み出し、通信回線401を介してプログラムをパーソナルコンピュータ400に送信する。すなわち、プログラムをデータ信号として搬送波にembodyして、通信回線401を介して送信する。このように、プログラムは、記録媒体や搬送波などの種々の形態のコンピュータ読み込み可能なコンピュータプログラム製品として供給できる。
上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
日本国特許出願2006年第125202号(2006年4月28日出願)

Claims (31)

  1. 画像処理後の画像(処理後画像)を所定の閾値を用いて2値化して被写体抽出用の2値マスク画像を生成し、
    画像処理前の画像(処理前画像)と前記被写体抽出用の2値マスク画像とに基づいて、前記処理前画像から背景領域を除去して前記処理前画像内に含まれる被写体像のみを抽出した被写体画像を生成する被写体抽出方法。
  2. 請求項1に記載の被写体抽出方法において、
    前記処理後画像の濃度平均値、または濃度中央値を前記所定の閾値として、前記2値マスク画像を生成する被写体抽出方法。
  3. 請求項1または2に記載の被写体抽出方法において、
    前記処理前画像はRGB色空間により表される画像であり、
    前記処理前画像に基づいて、輝度成分からなる輝度画像と色差成分からなる色差画像とを生成し、
    前記輝度画像と前記色差画像とをそれぞれ前記処理後画像として前記2値マスク画像を生成し、前記輝度画像の2値マスク画像と前記色差画像の2値マスク画像の中から所定の評価値を用いて選択した1つの2値マスク画像を前記被写体抽出用の2値マスク画像とする被写体抽出方法。
  4. 請求項3に記載の被写体抽出方法において、
    前記輝度成分と色差成分とからなる色空間は、YCbCr色空間である被写体抽出方法。
  5. 請求項3に記載の被写体抽出方法において、
    前記輝度成分と色差成分とからなる色空間は、YIQ色空間である被写体抽出方法。
  6. 請求項3〜5のいずれか一項に記載の被写体抽出方法において、
    前記所定の評価値は、前記輝度画像の2値マスク画像の重心周りの慣性モーメント、および前記色差画像の2値マスク画像の重心周りの慣性モーメントである被写体抽出方法。
  7. 請求項3〜5のいずれか一項に記載の被写体抽出方法において、
    前記所定の評価値は、前記輝度画像内における白色の領域の面積を前記輝度画像の2値マスク画像の重心周りの慣性モーメントで除算することにより算出される値、および前記色差画像内における白色の領域の面積を前記色差画像の2値マスク画像の重心周りの慣性モーメントで除算することにより算出される値である被写体抽出方法。
  8. 請求項1〜7のいずれか一項に記載の被写体抽出方法において、
    前記処理前画像と前記被写体抽出用の2値マスク画像との論理積により得られる画像を前記被写体画像とする被写体抽出方法。
  9. 請求項1〜8のいずれか一項に記載の被写体抽出方法を使用して入力画像の各フレームから背景領域を除去し、前記入力画像内に含まれる被写体像のみを抽出した入力被写体画像を生成し、
    テンプレート画像と、前記入力被写体画像との類似度に基づいて、前記入力画像におけるフレーム間での被写体像の動きを追跡する被写体追跡方法。
  10. 請求項1〜8のいずれか一項に記載の被写体抽出方法を使用してテンプレート画像から背景領域を除去し、前記テンプレート画像内に含まれる被写体像のみを抽出したテンプレート被写体画像を生成し、
    請求項1〜8のいずれか一項に記載の被写体抽出方法を使用して入力画像の各フレームから背景領域を除去し、前記入力画像内に含まれる被写体像のみを抽出した入力被写体画像を生成し、
    前記テンプレート被写体画像と、前記入力被写体画像との類似度に基づいて、前記入力画像におけるフレーム間での被写体像の動きを追跡する被写体追跡方法。
  11. 請求項10に記載の被写体追跡方法において、
    前記テンプレート画像はRGB色空間により表される画像であり、
    前記テンプレート画像に基づいて、輝度成分からなる輝度画像と色差成分からなる色差画像とを生成し、
    前記輝度画像と前記色差画像とを、それぞれの画像の濃度平均値、または濃度中央値を閾値として2値化して2値マスク画像を生成し、
    前記輝度画像の2値マスク画像と前記色差画像の2値マスク画像の中から所定の評価値を用いて選択した1つの2値マスク画像をテンプレート用の2値マスク画像として選択し、
    前記テンプレート画像と前記テンプレート用の2値マスク画像との論理積により得られる画像を前記テンプレート被写体画像とする被写体追跡方法。
  12. 請求項11に記載の被写体追跡方法において、
    前記入力画像はRGB色空間により表される画像であり、
    前記入力画像に基づいて、前記テンプレート用の2値マスク画像として選択した2値マスク画像と同じ成分からなる成分画像を生成し、
    前記成分画像を前記成分画像の濃度平均値、または濃度中央値を閾値として2値化して入力画像用の2値マスク画像を生成し、
    前記入力画像と前記入力画像用の2値マスク画像との論理積により得られる画像を前記入力被写体画像とする被写体追跡方法。
  13. 請求項12に記載の被写体追跡方法において、
    前記テンプレート用の2値マスク画像の重心を中心とした前記テンプレート被写体画像の慣性モーメントを前記テンプレート被写体画像の特徴量とし、前記入力画像用の2値マスク画像内に設定した所定領域内の重心を中心とした前記入力被写体画像の慣性モーメントを前記入力被写体画像の特徴量とし、
    前記テンプレート被写体画像の特徴量、および前記入力被写体画像の特徴量に基づいて、前記テンプレート被写体画像と前記入力被写体画像との類似度を演算する被写体追跡方法。
  14. 請求項1〜8のいずれか一項に記載の被写体抽出方法を使用して第1の画像から抽出した被写体像の前記第1の画像における抽出位置を特定し、
    請求項1〜8のいずれか一項に記載の被写体抽出方法を使用して第2の画像から被写体像のみを抽出した被写体画像を生成し、
    前記第1の画像における前記被写体像の抽出位置に、前記第2の画像から生成した前記被写体画像を合成する画像合成方法。
  15. コンピュータで実行される被写体抽出コンピュータプログラムであって、
    前記被写体抽出コンピュータプログラムにより前記コンピュータは、
    画像処理後の画像(処理後画像)を所定の閾値を用いて2値化して被写体抽出用の2値マスク画像を生成する2値マスク画像生成手順と、
    画像処理前の画像(処理前画像)と前記被写体抽出用の2値マスク画像とに基づいて、前記処理前画像から背景領域を除去して前記処理前画像内に含まれる被写体像のみを抽出した被写体画像を生成する被写体画像生成手順とを実行する。
  16. 請求項15に記載の被写体抽出コンピュータプログラムにおいて、
    前記2値マスク画像生成手順は、前記処理後画像の濃度平均値、または濃度中央値を前記所定の閾値として、前記2値マスク画像を生成する。
  17. 請求項15または16に記載の被写体抽出コンピュータプログラムにおいて、
    前記処理前画像はRGB色空間により表される画像であり、
    前記2値マスク画像生成手順は、
    前記処理前画像に基づいて、輝度成分からなる輝度画像と色差成分からなる色差画像とを生成し、
    前記輝度画像と前記色差画像とをそれぞれ前記処理後画像として前記2値マスク画像を生成し、前記輝度画像の2値マスク画像と前記色差画像の2値マスク画像の中から所定の評価値を用いて選択した1つの2値マスク画像を前記被写体抽出用の2値マスク画像とする。
  18. 請求項17に記載の被写体抽出コンピュータプログラムにおいて、
    前記輝度成分と色差成分とからなる色空間は、YCbCr色空間である。
  19. 請求項17に記載の被写体抽出コンピュータプログラムにおいて、
    前記輝度成分と色差成分とからなる色空間は、YIQ色空間である。
  20. 請求項17〜19のいずれか一項に記載の被写体抽出コンピュータプログラムにおいて、
    前記所定の評価値は、前記輝度画像の2値マスク画像の重心周りの慣性モーメント、および前記色差画像の2値マスク画像の重心周りの慣性モーメントである。
  21. 請求項17〜19のいずれか一項に記載の被写体抽出コンピュータプログラムにおいて、
    前記所定の評価値は、前記輝度画像内における白色の領域の面積を前記輝度画像の2値マスク画像の重心周りの慣性モーメントで除算することにより算出される値、および前記色差画像内における白色の領域の面積を前記色差画像の2値マスク画像の重心周りの慣性モーメントで除算することにより算出される値である。
  22. 請求項15〜21のいずれか一項に記載の被写体抽出コンピュータプログラムにおいて、
    前記被写体画像生成手順は、前記処理前画像と前記被写体抽出用の2値マスク画像との論理積により得られる画像を前記被写体画像とする。
  23. コンピュータで実行される被写体追跡コンピュータプログラムであって、
    前記被写体追跡コンピュータプログラムにより前記コンピュータは、
    請求項15〜22のいずれか一項に記載の被写体抽出コンピュータプログラムを実行して、入力画像の各フレームから背景領域を除去して前記入力画像内に含まれる被写体像のみを抽出した入力被写体画像を生成する入力被写体画像生成手順と、
    テンプレート画像と、前記入力被写体画像との類似度に基づいて、前記入力画像におけるフレーム間での被写体像の動きを追跡する被写体追跡手順とを実行する。
  24. コンピュータで実行される被写体追跡コンピュータプログラムであって、
    前記被写体追跡コンピュータプログラムにより前記コンピュータは、
    請求項15〜22のいずれか一項に記載の被写体抽出コンピュータプログラムを実行して、テンプレート画像から背景領域を除去して前記テンプレート画像内に含まれる被写体像のみを抽出したテンプレート被写体画像を生成するテンプレート被写体画像生成手順と、
    請求項15〜22のいずれか一項に記載の被写体抽出コンピュータプログラムを実行して、入力画像の各フレームから背景領域を除去して前記入力画像内に含まれる被写体像のみを抽出した入力被写体画像を生成する入力被写体画像生成手順と、
    前記テンプレート被写体画像と、前記入力被写体画像との類似度に基づいて、前記入力画像におけるフレーム間での被写体像の動きを追跡する被写体追跡手順とを実行する。
  25. 請求項24に記載の被写体追跡コンピュータプログラムにおいて、
    前記テンプレート画像はRGB色空間により表される画像であり、
    前記テンプレート被写体画像生成手順は、
    前記テンプレート画像に基づいて、輝度成分からなる輝度画像と色差成分からなる色差画像とを生成し、
    前記輝度画像と前記色差画像とを、それぞれの画像の濃度平均値、または濃度中央値を閾値として2値化して2値マスク画像を生成し、
    前記輝度画像の2値マスク画像と前記色差画像の2値マスク画像の中から所定の評価値を用いて選択した1つの2値マスク画像をテンプレート用の2値マスク画像として選択し、
    前記テンプレート画像と前記テンプレート用の2値マスク画像との論理積により得られる画像を前記テンプレート被写体画像とする。
  26. 請求項25に記載の被写体追跡コンピュータプログラムにおいて、
    前記入力画像はRGB色空間により表される画像であり、
    前記入力被写体画像生成手順は、
    前記入力画像に基づいて、前記テンプレート用の2値マスク画像として選択した2値マスク画像と同じ成分からなる成分画像を生成し、
    前記成分画像を前記成分画像の濃度平均値、または濃度中央値を閾値として2値化して入力画像用の2値マスク画像を生成し、
    前記入力画像と前記入力画像用の2値マスク画像との論理積により得られる画像を前記入力被写体画像とする。
  27. 請求項26に記載の被写体追跡コンピュータプログラムにおいて、
    前記被写体追跡手順は、
    前記テンプレート用の2値マスク画像の重心を中心とした前記テンプレート被写体画像の慣性モーメントを前記テンプレート被写体画像の特徴量とし、前記入力画像用の2値マスク画像内に設定した所定領域内の重心を中心とした前記入力被写体画像の慣性モーメントを前記入力被写体画像の特徴量とし、
    前記テンプレート被写体画像の特徴量、および前記入力被写体画像の特徴量に基づいて、前記テンプレート被写体画像と前記入力被写体画像との類似度を演算する。
  28. コンピュータで実行される画像合成コンピュータプログラムであって、
    前記画像合成コンピュータプログラムにより前記コンピュータは、
    請求項15〜22のいずれか一項に記載の被写体抽出コンピュータプログラムを実行して、第1の画像から抽出した被写体像の前記第1の画像における抽出位置を特定する特定手順と、
    請求項15〜22のいずれか一項に記載の被写体抽出コンピュータプログラムを実行して、第2の画像から被写体像のみを抽出した被写体画像を生成する被写体画像生成手順と、
    前記第1の画像における前記被写体像の抽出位置に、前記第2の画像から生成した前記被写体画像を合成する合成手順とを実行する。
  29. 被写体抽出装置は、
    請求項15〜22のいずれか一項に記載の被写体抽出コンピュータプログラムを実行するプログラム実行部を備える。
  30. 被写体追跡装置は、
    請求項23〜27のいずれか一項に記載の被写体追跡コンピュータプログラムを実行するプログラム実行部を備える。
  31. 画像合成装置は、
    請求項28に記載の画像合成コンピュータプログラムを実行するプログラム実行部を備える。
JP2008513191A 2006-04-28 2007-04-23 被写体抽出方法、被写体追跡方法、画像合成方法、被写体抽出コンピュータプログラム、被写体追跡コンピュータプログラム、画像合成コンピュータプログラム、被写体抽出装置、被写体追跡装置、および画像合成装置 Expired - Fee Related JP4924606B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008513191A JP4924606B2 (ja) 2006-04-28 2007-04-23 被写体抽出方法、被写体追跡方法、画像合成方法、被写体抽出コンピュータプログラム、被写体追跡コンピュータプログラム、画像合成コンピュータプログラム、被写体抽出装置、被写体追跡装置、および画像合成装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006125202 2006-04-28
JP2006125202 2006-04-28
JP2008513191A JP4924606B2 (ja) 2006-04-28 2007-04-23 被写体抽出方法、被写体追跡方法、画像合成方法、被写体抽出コンピュータプログラム、被写体追跡コンピュータプログラム、画像合成コンピュータプログラム、被写体抽出装置、被写体追跡装置、および画像合成装置
PCT/JP2007/058739 WO2007125866A1 (ja) 2006-04-28 2007-04-23 被写体抽出方法、被写体追跡方法、画像合成方法、被写体抽出コンピュータプログラム、被写体追跡コンピュータプログラム、画像合成コンピュータプログラム、被写体抽出装置、被写体追跡装置、および画像合成装置

Publications (2)

Publication Number Publication Date
JPWO2007125866A1 true JPWO2007125866A1 (ja) 2009-09-10
JP4924606B2 JP4924606B2 (ja) 2012-04-25

Family

ID=38655390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008513191A Expired - Fee Related JP4924606B2 (ja) 2006-04-28 2007-04-23 被写体抽出方法、被写体追跡方法、画像合成方法、被写体抽出コンピュータプログラム、被写体追跡コンピュータプログラム、画像合成コンピュータプログラム、被写体抽出装置、被写体追跡装置、および画像合成装置

Country Status (5)

Country Link
US (1) US8254630B2 (ja)
EP (1) EP2015251B1 (ja)
JP (1) JP4924606B2 (ja)
AT (1) ATE543159T1 (ja)
WO (1) WO2007125866A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009141475A (ja) * 2007-12-04 2009-06-25 Nikon Corp カメラ
JP5012477B2 (ja) * 2007-12-12 2012-08-29 株式会社ニコン 部分画像抽出方法および部分画像抽出装置
US8682056B2 (en) * 2008-06-30 2014-03-25 Ncr Corporation Media identification
JP5178441B2 (ja) * 2008-10-14 2013-04-10 三洋電機株式会社 電子カメラ
US8320662B2 (en) * 2009-01-07 2012-11-27 National Instruments Corporation Distinguishing colors of illuminated objects using machine vision
JP5656370B2 (ja) * 2009-07-01 2015-01-21 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、およびプログラム
JP5246078B2 (ja) * 2009-07-10 2013-07-24 株式会社ニコン 被写体位置特定用プログラム、およびカメラ
US8509482B2 (en) * 2009-12-21 2013-08-13 Canon Kabushiki Kaisha Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
JP5240305B2 (ja) * 2010-03-19 2013-07-17 株式会社ニコン 被写体特定用プログラム、およびカメラ
US8531733B2 (en) * 2010-04-06 2013-09-10 Xerox Corporation Image processing system with electronic book reader mode
JP2012039210A (ja) * 2010-08-04 2012-02-23 Nikon Corp 被写体特定用プログラム、およびカメラ
JP5691617B2 (ja) * 2011-02-21 2015-04-01 株式会社ニコン 被写体特定装置、および被写体追尾装置
US8873841B2 (en) * 2011-04-21 2014-10-28 Nokia Corporation Methods and apparatuses for facilitating gesture recognition
US8983176B2 (en) 2013-01-02 2015-03-17 International Business Machines Corporation Image selection and masking using imported depth information
US9183620B2 (en) 2013-11-21 2015-11-10 International Business Machines Corporation Automated tilt and shift optimization
US9449234B2 (en) 2014-03-31 2016-09-20 International Business Machines Corporation Displaying relative motion of objects in an image
US9196027B2 (en) 2014-03-31 2015-11-24 International Business Machines Corporation Automatic focus stacking of captured images
US9300857B2 (en) 2014-04-09 2016-03-29 International Business Machines Corporation Real-time sharpening of raw digital images
CN110832495A (zh) * 2018-07-13 2020-02-21 深圳市大疆创新科技有限公司 波浪识别方法、装置、计算机可读存储介质和无人飞行器
DE102019119138B4 (de) * 2019-07-15 2022-01-20 Deutsche Post Ag Bestimmen einer Verteil- und/oder Sortierinformation zum automatisierten Verteilen und/oder Sortieren einer Sendung
CN113111883B (zh) * 2021-03-23 2023-06-06 浙江大华技术股份有限公司 车牌检测方法、电子设备及存储介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07306483A (ja) 1994-05-12 1995-11-21 Fuji Photo Film Co Ltd 撮影画面の顔領域検出方法
JP2663878B2 (ja) 1994-09-28 1997-10-15 日本電気株式会社 人物動き領域検出装置
JPH11224327A (ja) 1998-02-09 1999-08-17 Fujitsu Ltd ディジタル画像処理装置
US6690822B1 (en) * 2000-10-20 2004-02-10 Eastman Kodak Company Method for detecting skin color in a digital image
US6952286B2 (en) * 2000-12-07 2005-10-04 Eastman Kodak Company Doubleprint photofinishing service with the second print having subject content-based modifications
JP2002190029A (ja) 2000-12-21 2002-07-05 Canon Inc 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体
JP2003216955A (ja) * 2002-01-23 2003-07-31 Sharp Corp ジェスチャ認識方法、ジェスチャ認識装置、対話装置及びジェスチャ認識プログラムを記録した記録媒体
JP4105933B2 (ja) 2002-11-08 2008-06-25 ペンタックス株式会社 デジタルカメラおよび画像生成方法
US7319780B2 (en) * 2002-11-25 2008-01-15 Eastman Kodak Company Imaging method and system for health monitoring and personal security
US7430335B2 (en) * 2003-08-13 2008-09-30 Apple Inc Pre-processing method and system for data reduction of video sequences and bit rate reduction of compressed video sequences using spatial filtering
JP2005293334A (ja) 2004-04-01 2005-10-20 Nikon Corp テンプレートマッチング装置
CA2568633C (en) * 2004-10-15 2008-04-01 Oren Halpern A system and a method for improving the captured images of digital still cameras
JP2006125202A (ja) 2004-10-26 2006-05-18 Toyota Motor Corp 筒内直噴内燃機関用の燃料噴射弁
JP2006157817A (ja) 2004-12-01 2006-06-15 Nikon Corp デジタルカメラ、画像処理システム及び画像処理プログラム
US8355595B2 (en) * 2007-05-15 2013-01-15 Xerox Corporation Contrast enhancement methods and apparatuses
US7916905B2 (en) * 2009-02-02 2011-03-29 Kabushiki Kaisha Toshiba System and method for image facial area detection employing skin tones

Also Published As

Publication number Publication date
WO2007125866A1 (ja) 2007-11-08
EP2015251A1 (en) 2009-01-14
EP2015251A4 (en) 2010-11-17
US8254630B2 (en) 2012-08-28
ATE543159T1 (de) 2012-02-15
US20090141937A1 (en) 2009-06-04
EP2015251B1 (en) 2012-01-25
JP4924606B2 (ja) 2012-04-25

Similar Documents

Publication Publication Date Title
JP4924606B2 (ja) 被写体抽出方法、被写体追跡方法、画像合成方法、被写体抽出コンピュータプログラム、被写体追跡コンピュータプログラム、画像合成コンピュータプログラム、被写体抽出装置、被写体追跡装置、および画像合成装置
JP4848965B2 (ja) 撮像装置
JP2010045613A (ja) 画像識別方法および撮像装置
JP5246078B2 (ja) 被写体位置特定用プログラム、およびカメラ
US8558942B2 (en) Focusing measurement device, focusing measurement method, and program
US8830359B2 (en) Image processing apparatus, imaging apparatus, and computer readable medium
JP2010114752A (ja) 撮像装置及び撮像方法及びプログラム
JP2009123081A (ja) 顔検出方法及び撮影装置
JP5504990B2 (ja) 撮像装置、画像処理装置及びプログラム
JP5691617B2 (ja) 被写体特定装置、および被写体追尾装置
JP4565273B2 (ja) 被写体追跡装置、およびカメラ
WO2012014946A1 (ja) 画像処理装置、および画像処理プログラム
JP5012477B2 (ja) 部分画像抽出方法および部分画像抽出装置
JP4534750B2 (ja) 画像処理装置および画像処理プログラム
JP5539565B2 (ja) 撮像装置及び被写体追跡方法
JP2010200270A (ja) 画像処理装置、カメラおよびプログラム
JP2016081095A (ja) 被写体追跡装置、その制御方法、撮像装置、表示装置及びプログラム
CN111314608B (zh) 一种图像定焦提示方法、计算机装置及计算机可读存储介质
US8675958B2 (en) Subject determination method, computer program product for determining subject, and camera
JP6776532B2 (ja) 画像処理装置、撮像装置、電子機器及び画像処理プログラム
JP2005004287A (ja) 顔画像検出装置およびその制御方法
JP2014153517A (ja) 画像処理装置および画像処理方法、プログラム並びに記憶媒体
JP5631181B2 (ja) 画像処理装置及びその制御方法、及びプログラム
JP4661957B2 (ja) 画像マッチング装置、およびカメラ
JP5247419B2 (ja) 撮像装置および被写体追跡方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120123

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4924606

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees