JP6312924B2 - 撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体 - Google Patents

撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体 Download PDF

Info

Publication number
JP6312924B2
JP6312924B2 JP2017508833A JP2017508833A JP6312924B2 JP 6312924 B2 JP6312924 B2 JP 6312924B2 JP 2017508833 A JP2017508833 A JP 2017508833A JP 2017508833 A JP2017508833 A JP 2017508833A JP 6312924 B2 JP6312924 B2 JP 6312924B2
Authority
JP
Japan
Prior art keywords
change
texture
subject
imaging
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017508833A
Other languages
English (en)
Other versions
JPWO2016157299A1 (ja
Inventor
雄大 中村
雄大 中村
智教 福田
智教 福田
雅志 神谷
雅志 神谷
内藤 正博
正博 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2016157299A1 publication Critical patent/JPWO2016157299A1/ja
Application granted granted Critical
Publication of JP6312924B2 publication Critical patent/JP6312924B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Description

本発明は、撮像画像から被写体領域を抽出する撮像装置及び方法に関するものである。本発明は特に、異なる照明条件による撮像で得られた2枚以上の撮像画像間の差分を用いて、被写体領域を抽出する技術に関する。本発明はまた、上記の撮像装置で得られたデータを用いて機器に対する操作を行う操作装置及び方法に関する。本発明はまた、上記撮像装置又は方法、或いは上記の操作装置又は方法における処理をコンピュータに実行させるためのプログラム、及び該プログラムを記録したコンピュータで読み取り可能な記録媒体に関する。
人の状態或いは動作をモニタリングする目的でカメラに近接する人又はその一部(手など)を被写体として撮像する場合には、周囲の背景を取り除き、被写体が写った領域のみを抽出した上で該領域を詳細に分析するのが有効である。カメラに近接する被写体領域を抽出するために、特許文献1は、被写体を照らす照明を短い周期で点滅し、点灯時の撮像画像と消灯時の撮像画像とを取得し、それらの差分を用いる表示撮像装置を開示している。
この手法においては、背景が変化した場合或いは被写体が移動した場合に、差分画像上に偽信号の領域が生じるという問題がある。特許文献1には、このような問題に対応するため、被写体や背景の動きを補償した補間画像を生成し、被写体の移動により生じる偽信号の領域を排除した差分画像を生成することも開示されている。また、特許文献2には、被写体の移動量を検出し、検出した移動量を被写体領域の特定に利用する画像処理装置が開示されている。
特許第4915367号公報 特許第4842374号公報
非特許文献1については後に言及する。
しかしながら、差分画像を用いて被写体領域を抽出する技術には、走行中の自動車内部、屋外等のように、環境光或いは背景がめまぐるしく変化する空間においては、偽信号の影響を受け、被写体を正しく抽出できない問題がある。特許文献1では、被写体の動き或いは背景の変化を補償する場合、補間画像を生成するために使用する複数の画像において同一の被写体及び背景物が写っている必要がある。しかし、走行中の自動車内部、或いは屋外では環境光の変化或いは背景の変化の速度が速いため、複数の画像において同一の被写体或いは同一の背景が写っている保証がなく、この場合、偽信号の影響を抑えることができない。
一方、被写体の移動量を検出して被写体領域を特定する場合、差分を取ることで算出される輝度変化は環境光の影響を受けやすく、自動車の内部或いは屋外では偽信号か否かの判定を正確に行うことが困難である。また、背景の変化によっても同様の偽信号が生じるため、偽信号が生じた領域を誤って被写体の領域と判定してしまう可能性がある。
本発明は上記課題を解決するものであり、環境光或いは背景の変化があっても、被写体を高精度で抽出することを可能にすることを目的とする。
本発明に係る撮像装置は、
照明条件を制御する照明条件制御信号及び撮像条件を制御する撮像条件制御信号を生成する撮像照射制御部と、
前記照明条件制御信号に基づいて複数の互いに異なる照明条件で被写体を照明する照射部と、
前記撮像条件制御信号で制御される撮像条件で前記被写体の撮像を行って撮像画像を生成する撮像部と、
前記撮像部により、前記異なる照明条件での撮像で得られた複数の撮像画像を使用して前記複数の撮像画像間での各画素についての輝度変化を算出する輝度変化算出部と、
前記撮像部により、異なる時刻における撮像で得られた複数の撮像画像を使用して当該複数の撮像画像間での各画素についてのテクスチャ変化を算出するテクスチャ変化算出部と、
前記輝度変化と前記テクスチャ変化とに基づいて被写体領域を抽出する被写体抽出部とを有し、
前記テクスチャ変化算出部は、前記テクスチャ変化として、
前記異なる時刻に互いに等しい照明条件で行われた撮像で得られた複数の撮像画像を用いて第1のテクスチャ変化を算出するとともに、
前記輝度変化の算出に使用した複数の撮像画像を用いて第2のテクスチャ変化を算出するものである。
本発明によれば、環境光或いは背景の変化があっても、被写体を高精度で抽出することができる。
本発明の実施の形態1の撮像装置の構成を示すブロック図である。 図1の照射部の構成を示すブロック図である。 図1の輝度変化算出部の構成を示すブロック図である。 図1のテクスチャ変化算出部の構成を示すブロック図である。 CSLBP特徴の算出に用いられる画素の配置を示す図である。 (a)〜(h)は、異なる照明条件で撮像された画像に対しCSLBP特徴を算出した結果、及び該画像の輝度ヒストグラムを示した図である。 図4のテクスチャ特徴抽出部の構成を示すブロック図である。 特徴抽出領域のセルへの分割方法を示す図である。 図1の被写体抽出部の構成を示すブロック図である。 照明条件の変化、背景の変化及び被写体の移動と、輝度変化及びテクスチャ変化の関係を示す図である。 (a)〜(e)は、実施の形態1の撮像装置による被写体領域の抽出の一例を示す図である。 (a)〜(e)は、実施の形態1の撮像装置による被写体領域の抽出の一例を示す図である。 実施の形態1の撮像装置における処理の手順の一例を示すフローチャートである。 図13の被写体抽出ステップの手順の一例を示すフローチャートである。 図13の被写体抽出ステップの手順の他の例を示すフローチャートである。 実施の形態1の撮像装置の変形例におけるテクスチャ変化算出部の構成を示すブロック図である。 実施の形態1の撮像装置の変形例における処理の手順を示すフローチャートである。 実施の形態1の撮像装置の変形例における処理の手順を示すフローチャートである。 実施の形態1の変形例において、テクスチャ特徴の算出の対象となる画素の配置を示した図である。 実施の形態1の撮像装置における処理の手順の他の例を示すフローチャートである。 本発明の実施の形態2の撮像装置の構成を示すブロック図である。 図21の目標値算出部の構成を示すブロック図である。 実施の形態2の撮像装置における処理の手順を示すフローチャートである。 実施の形態2の撮像装置における処理の手順を示すフローチャートである。 本発明の実施の形態3の撮像装置の構成を示すブロック図である。 図25の輝度変化算出部の構成を示すブロック図である。 図25のテクスチャ変化算出部の構成を示すブロック図である。 実施の形態3に係る撮像装置における処理の手順を示すフローチャートである。 実施の形態3に係る撮像装置における処理の手順を示すフローチャートである。 本発明の実施の形態4に係る操作装置の構成を示すブロック図である。 図30のテクスチャ変化算出部の構成を示すブロック図である。 図30の被写体認識部の構成を示すブロック図である。 図30の被写体認識部で認識されるジェスチャーの種類と操作決定部で生成される操作内容の対応関係の例を示す図である。 実施の形態4に係る操作装置における処理の手順を示すフローチャートである。 実施の形態1の撮像装置をソフトウェアで実現する場合に用いられるコンピュータを、照射部及び撮像部とともに示すブロック図である。
実施の形態1.
図1は、この発明の実施の形態1に係る撮像装置の構成を示すブロック図である。図示の撮像装置は、撮像照射制御部11と、照射部12と、撮像部13と、輝度変化算出部21と、テクスチャ変化算出部22と、被写体抽出部23と、画像メモリ14とを備える。
本実施の形態の撮像装置は、例えば人を被写体とする。具体的には、人の全身或いは上半身、顔、手など身体の一部(パーツ)を被写体とし、背景から被写体のみを抽出するために用いられる。
撮像照射制御部11は、照明条件を制御する制御信号(照明条件制御信号)C11aを照射部12へ出力するともに、撮像条件を制御する制御信号(撮像条件制御信号)C11bを生成し、撮像部13へ出力する。
制御信号C11aによって制御される照明条件には、照明光の照射分布、照明光の発光強度、照明光の発光タイミング、及び照明光の発光期間のうちの1つ以上が含まれる。
制御信号C11bによって制御される撮像条件には、露光タイミング、露光時間、フレームレート、絞り、及びゲインのうちの1つ以上が含まれる。
撮像部13はフレーム毎に撮像を行う。照射部12による照明条件の切り換えは、撮像部13による撮像に同期して行われる。
本実施の形態では、撮像照射制御部11から供給される制御信号C11aが、1フレーム毎に交互に異なる照明条件A及びBを指定し、照射部12は、制御信号C11aに基づいて、照明条件Aでの照明と照明条件Bでの照明を1フレーム毎に交互に行う。ある条件で照明することを、当該照明条件を生成するとも言う。
照射部12は、図2に示すように、複数のLED121と、発光制御部122とを有する。
LED121としては、近赤外線LED、或いは白色LEDが用いられる。
被写体が人の上半身である場合、光源としては、人の眼の感度の小さい近赤外線LEDを使用するのが望ましい。
照射部12による照明の発光強度を変えるには、複数のLED121のうちの発光させるLEDの数を変えても良く、各LEDの発光の強度を変えても良く、上記2つの方法を併用しても良い。
各LEDの発光の強度を変えるには、例えば、当該LEDへ入力する駆動電流量を変えても良く、PWM(Pulse Width Modulation)制御におけるデューティ比を変えても良い。
照射部12による照明光の照射分布を変えるには、発光させるLEDを変えても良く、或いは各LEDの発光強度を、当該LEDの位置(複数のLED121の群内における位置)に応じて変えて良い。
以下では、照明条件の切り換えが、PWM制御におけるデューティ比を制御することで発光強度を切り換えによって行われるものとして説明する。
照明条件Aにおける発光強度をΦAで表し、照明条件Bにおける発光強度をΦBで表す。発光強度ΦA及び発光強度ΦBはそれぞれ固定された値であり、
ΦA>ΦB
の関係があるものとする。
撮像部13は、照射部12が生成する2つの照明条件下で、撮像照射制御部11から供給される制御信号C11bに基づいて被写体を撮像し、撮像した画像Gを画像メモリ14に蓄積させる。
撮像部13としては、例えば、CMOSセンサー、CCDセンサー等の撮像素子が用いられる。
撮像部13は、制御信号C11bに基づいて、例えば、1秒に30フレーム撮像し、出力する画像Gは、例えばグレースケール画像(白黒画像)、RGB画像である。
以下では、撮像部13は、例えば、1秒に30フレームのレートで、画像を出力する。出力される画像(出力画像)は、例えば、8ビット階調のグレースケール画像である。
出力画像の解像度は例えば、VGA規格に沿うものであり、画像幅Wが640画素、高さHが480画素である。
照射部12と撮像部13とは、照射部12から照射された光(照明光)が被写体に反射し、その反射光が撮像部13に入射するように設置されている。
撮像部13は、照射部12が交互に生成する照明条件Aと照明条件Bとで交互に撮像を行い、照明条件Aでの撮像で得られた画像(照明条件Aの画像)Gaと、照明条件Bでの撮像で得られた画像(照明条件Bの画像)Gbを交互に出力する。その結果、照明条件Aの画像Gaと照明条件Bの画像Gbが1秒に15フレームずつ出力される。
撮像部13から出力された画像G(Ga、Gb)は画像メモリ14に順次蓄積される。
照明条件Aでの撮像における撮像条件と、照明条件Bでの撮像における撮像条件は、それぞれ固定されているものとする。
輝度変化算出部21は、画像メモリ14から、撮像部13が、2つの異なる照明条件で相前後して撮像することで得た2枚の画像Ga、Gbを読み出し、画素毎の輝度Iを比較し、画像間での輝度変化dIを算出して出力する。出力された輝度変化dIは被写体抽出部23に供給される。
輝度変化算出部21は、図3に示すように、輝度特徴量算出部211と、輝度特徴量メモリ212と、照明条件判定部213と、差分算出部215と、輝度変化メモリ216とを有する。
輝度特徴量算出部211は、画像メモリ14から読み出された各フレームの画像の輝度特徴量Imを算出する。輝度特徴量Imは、例えば輝度平均値、輝度中央値、或いは輝度最頻値である。輝度特徴量算出部211で算出した輝度特徴量Imは輝度特徴量メモリ212に記憶され、1フレーム期間後に、前フレームの画像についての輝度特徴量Imとして照明条件判定部213によって読み出される。
照明条件判定部213は、輝度特徴量算出部211で算出された、最新の画像(最新のフレームの画像)についての輝度特徴量Imと、輝度特徴量メモリ212から読み出される、1フレーム前の画像についての輝度特徴量Imとを読み出す。これらの画像は、撮像時刻の隣り合う2枚の画像、即ち相前後する2つのフレームの画像である。照明条件判定部213は2つのフレームの画像についての輝度特徴量Imを比較し、比較の結果に基づいて、どちらが照明条件Aの画像Gaであり、どちらが照明条件Bの画像Gbであるかの判定を行う。この判定の結果CNaは、差分算出部215に供給される。
例えば、輝度特徴量Imが大きい方の画像が照明条件Aの画像Gaであり、輝度特徴量Imが小さい方の画像が照明条件Bの画像Gbであると判断する。
差分算出部215は、照明条件Aの画像Gaと、照明条件Bの画像Gbとの間で、画素毎の輝度Iの差分を求め、該差分を輝度変化dIとして出力する。即ち、差分算出部215は、例えば、画像上の各画素の輝度値I(x,y)について、2枚の画像間の輝度差分dI(x,y)を算出する。
ここで、x,yは画像上の座標を示しており、
x∈{0,1,…,W−1},y∈{0,1,…,H−1}
である。
輝度差分dI(x,y)は、照明条件Aの画像Gaの各画素の輝度値から、照明条件Bの画像Gbの、同じ位置の画素の輝度値を差し引くことで算出される。画像メモリ14から読み出された2枚の画像の中で、どちらが照明条件Aの画像Gaであるかは、照明条件判定部213から出力される判定結果CNaに基づいて判断する。
差し引いた結果が負の値となる場合には、輝度差分dI(x,y)を0とする。
このようにして算出された輝度差分dI(x,y)を輝度変化と言う。
輝度差分dI(x,y)は、輝度変化として、輝度変化メモリ216に蓄積される。蓄積された輝度差分dI(x,y)は後に被写体抽出部23に供給される。
各画素についての輝度差分dI(x,y)の集合、即ち各画素の輝度差分dI(x,y)を、当該画素と同じ位置に配列したものを、輝度差分画像(輝度変化画像)を形成する。
撮像部13から取得される画像には、撮像素子における暗電流によるノイズ或いは電荷の読み出しノイズが含まれている。輝度変化算出部21は、例えば、撮像部13から供給される画像に対し、図示しない平滑化フィルタで平滑化フィルタリングを施してノイズを取り除いた上で、差分算出部215で差分を求めることとしても良い。代わりに、輝度変化算出部21は、差分算出部215で算出した輝度差分画像に対し、図示しない平滑化フィルタにより平滑化フィルタリングを施してノイズを取り除いた結果を輝度変化として出力しても良い。平滑化フィルタとしては、例えば、ガウシアンフィルタ、メディアンフィルタ等を用いることができる。
上記の平滑化フィルタリングを、輝度差分を算出する前に行うことで、カメラ等に起因するノイズを除去することできる。輝度差分を算出した後で上記の平滑化フィルタリングを行うと、差分の小さい領域(つまりノイズ)を除去できる。輝度差分を算出する前と、算出した後の双方で上記の平滑化フィルタリングを行っても良い。
輝度差分画像に対し、閾値処理を施すことで、被写体領域を抽出することができる。但し、輝度差分画像のみに基づいて被写体領域の抽出を行うと、背景の変化或いは被写体の移動が起こった部分が被写体領域と誤判定されてしまう。この被写体領域と誤判定される部分を偽信号の領域と言う。
本発明では、以下に説明するように、テクスチャ変化を併せて利用することで、偽信号の領域と被写体の領域とを判別し、被写体領域のみの抽出を可能にしている。
テクスチャ変化算出部22は、画像メモリ14に蓄積されている複数の画像を順次読出し、各画像を構成する画素の各々についてテクスチャ特徴Fを求め、2つの異なる時刻における撮像で得られた2枚の画像間のテクスチャ変化dFを算出し、算出したテクスチャ変化dFを被写体抽出部23に供給する。
上記の「2つの異なる時刻」は具体的には、相前後するフレーム期間である。従って、2つの異なる時刻における撮像は、本実施の形態では、2つの異なる照明条件での画像Ga、Gbとなる。しかしながら、テクスチャ変化dFの算出においては、照明条件が異なることは重要ではなく、時刻が異なることが重要であるので、そのことを強調するため、「2つの異なる時刻」と言う場合がある。
テクスチャ変化算出部22は、図4に示されるように、CSLBP特徴算出部221と、CSLBP特徴メモリ222と、テクスチャ特徴算出部223と、特徴変化処理部225と、テクスチャ特徴メモリ224と、テクスチャ変化メモリ226とを含む。
CSLBP特徴算出部221は、画像メモリ14から各時刻(フレーム期間)での撮像で得られた画像を読み出して、読み出した画像の各画素についてCSLBP特徴Bを算出し、算出したCSLBP特徴Bを、CSLBP特徴メモリ222に蓄積させる。
テクスチャ特徴算出部223は、CSLBP特徴メモリ222に蓄積されている各画像の各画素についてのCSLBP特徴Bを読み出して、当該画像の各画素についてのテクスチャ特徴Fを算出し、テクスチャ特徴メモリ224に蓄積させる。
特徴変化処理部225はテクスチャ特徴メモリ224から2枚の画像の同じ画素(同じ位置の画素)についてのテクスチャ特徴Fを読み出し、画像間でのテクスチャ特徴Fの変化(テクスチャ変化)dFを算出し、算出されたテクスチャ変化dFをテクスチャ変化メモリ226に蓄積させる。蓄積されたテクスチャ変化dFは、後に被写体抽出部23に供給される。
テクスチャ特徴算出部223によって算出されるテクスチャ特徴Fは、被写体或いは背景の見え方に関する特徴であり、照明条件に対する依存度の低い、表面の模様或いは凹凸、反射率の違いを表す特徴である。
テクスチャ特徴Fは、例えば、画像上の各画素(注目画素)に対し、注目画素を中心とする領域(特徴抽出領域)内の特定の位置の画素の輝度値の相関関係を数値化した特徴ベクトルで表される。
テクスチャ特徴Fを表すものとして使用できる特徴ベクトルは、照明変化に頑健な(照明の変化の影響を受けにくい)特徴ベクトルが好ましく、例えば、特徴抽出領域内の輝度勾配のヒストグラムで構成されるHOG(Histogram of Gradient)特徴ベクトル、或いは特徴抽出領域内の輝度勾配をバイナリーコード化したLBP(Local Binary Pattern)のヒストグラムで構成された特徴ベクトルである。
以下では、各画素について当該画素を中心とする正方形の特徴抽出領域内の画素について、LBPを拡張したCSLBP(Center Symmetric LBP)特徴のヒストグラムを求め、テクスチャ特徴Fとして使用する。CSLBPのヒストグラムは非特許文献1に倣って算出する。
各画素についてのCSLBP特徴Bの算出には、その画素を中心とする3×3画素の輝度値が必要である。
また、各画素のテクスチャ特徴の算出には、その画素を中心とする特徴抽出領域内のすべての画素についてのCSLBP特徴Bが必要である。
従って、画像の周縁部に位置する画素についてはテクスチャ特徴を算出することができない。
以下では、特徴抽出領域の縦方向及び横方向のサイズLがともに40画素であるものとする。そして、画像のサイズが、上記のように、横方向640画素、縦方向480画素であり、横方向の端から20画素までの部分及び縦方向の端から20画素までの部分を除くことで形成された横方向600画素、縦方向440画素の範囲内のすべての画素の各々についてテクスチャ特徴Fが算出される。テクスチャ特徴Fが算出される領域の横方向の画素数(600)をMで、縦方向の画素数(440)をNで表す。
以下では、上記の横方向600画素、縦方向440画素の範囲内のすべての画素を単に画像のすべての画素と言うこともある。
以下、各画素についてのテクスチャ特徴Fの算出方法の一例を説明する。
まず、CSLBP特徴算出部221によるCSLBP特徴Bの算出について図5を参照して説明する。
CSLBP特徴Bは、画像周縁に隣接する画素(画像周縁から数えて1番目の画素)を除き、画像上の全ての画素に対して算出される。
図5は、各画素Pc(x,y)についてのCSLBP特徴Bの算出に使用される、当該画素を中心とする3×3画素の領域内の画素に番号を付けたものである。
画素Pc(x,y)についてのCSLBP特徴B(x,y)は、当該画素を中心とする3×3個の画素の輝度値を用いて式(1)により算出される。
Figure 0006312924
式(1)で,n0〜n7は、それぞれ図5に示される画素n0〜n7の輝度値を表す。
また、s(a)は閾値関数であり、a>T1のときs(a)=1、それ以外の場合はs(a)=0となる。
また、s(a)が0又は1であるので、CSLBP特徴B(x,y)は整数であり、CSLBP特徴B(x,y)の取り得る値の範囲は、
0≦B(x,y)<16 ∀x,y
である。
非特許文献1によれば、閾値T1は、例えば、輝度値の取り得る値の1%程度が望ましく、輝度値が0〜255の値を取る場合は、T1=3と設定する。
図6(a)〜(h)は、異なる照明条件で撮像された画像に対してCSLBP特徴を算出した結果、及び該画像の輝度ヒストグラムの例を示す。図6(a)及び(b)は照明条件Aで撮像された画像Gaの例及び輝度ヒストグラムを示し、図6(c)及び(d)は図6(a)の画像から算出されたCSLBP特徴及びCSLBP特徴のヒストグラムを示し、図6(e)及び(f)は照明条件Bで撮像された画像Gbの例及び輝度ヒストグラムを示し、図6(g)及び(h)は図6(e)の画像から算出されたCSLBP特徴及びCSLBP特徴のヒストグラムを示す。図6(c)、(d)、(g)及び(h)に示されるように、CSLBP特徴は、照明条件を変化させても変化が小さく、照明条件の変化に対して頑健である。そのため、2つの画像に対してCSLBP特徴を算出した場合、撮像照射制御部11が決定する照明条件に関係なく、同じ背景、被写体である限りは、CSLBP特徴は極めて近い値となる。
一方で、2枚の画像間で背景が変化した場合或いは被写体が移動した場合には、上記の背景が変化した領域又は被写体が移動した領域に含まれる画素

Pc(xc,yc),
xc∈{0,1,…,W−1},yc∈{0,1,…,H−1},

におけるCSLBP特徴の値は変化する。
CSLBP特徴を用いて後述のように算出されるテクスチャ特徴も同様の性質を有する。
画像上の各画素についてテクスチャ特徴Fを算出することで、画像上の局所領域におけるテクスチャの特徴を把握することができる。そして、局所領域毎にテクスチャの特徴を比較することで、テクスチャの特徴が変化した領域を特定することができる。
従って、輝度変化算出部21で照明条件による輝度変化を抽出するためには、照明条件の異なる2枚の画像を使用する必要があるのに対し、テクスチャ変化算出部22でテクスチャ変化dFを抽出するには、照明条件の異なる2枚の画像を使用する必要はなく、撮像時刻の異なる2枚の画像であれば良く、撮像時刻の異なる2枚の画像は同じ照明条件の画像であっても良い。
但し以下では、テクスチャ変化算出部22は、輝度変化算出部21が使用する画像と同一の画像を用いてテクスチャ変化dFを算出するものとして説明する。すなわち、照明条件Aと照明条件Bの2枚の画像Ga、Gbを用いてテクスチャ変化dFを算出するものとして説明する。
テクスチャ特徴算出部223は、各画素を中心とする特徴抽出領域に含まれる画素の各々についてのCSLBP特徴の複数のヒストグラムを生成し、生成した複数のヒストグラムを合成することで得られる数値列を、特徴ベクトルとして生成する。
テクスチャ特徴算出部223は、例えば、図7に示すように、領域分割部2211と、第1乃至第16のCSLBP特徴読出し部2212−1〜2212−16と、第1乃至第16のヒストグラム生成部2213−1〜2213−16と、連結部2214と、正規化部2215と、クリップ部2216とを有する。
領域分割部2211は、各画素を中心とする特徴抽出領域AFを、図8に示すように、縦方向及び横方向に4つに分割して、16個のセルCAを生成する。本例では、特徴抽出領域AFが上記のように40画素×40画素であるので、各セルCAのサイズは10画素×10画素となる。
16個のセルCAはそれぞれ第1乃至第16のCSLBP特徴読出し部2212−1〜2212−16に割り当てられる。
各CSLBP特徴読出し部2212−i(i=1〜16)には、当該CSLBP特徴読出し部2212−iに割り当てられたセル内に位置する10×10個の画素の各々についてのCSLBP特徴を、CSLBP特徴メモリ222から読み出す。
各CSLBP特徴読出し部2212−iで読み出された10×10個の画素の各々についてのCSLBP特徴は、対応するヒストグラム生成部2213−iに供給される。
ヒストグラム生成部2213−iでは、対応するCSLBP特徴読出し部2212−iで読み出されたCSLBP特徴をその値毎の出現頻度を求めることでヒストグラムを生成する。CSLBP特徴は0から15までの値を有し得るので、16ビンのヒストグラムが生成される。
連結部2214では、第1乃至第16のヒストグラム生成部2213−1〜2213−16で生成されたヒストグラムを連結して、16×16=256ビンのヒストグラムを生成し、これを256次元の特徴ベクトルとして出力する。
正規化部2215は、連結部2214から出力された256次元の特徴ベクトルを、ベクトル長が1となるように正規化する。
特徴ベクトルを構成する256個の要素の各々をv(i=0〜255)とするとき、ベクトル長Vは、下記の式(2)で与えられる。
Figure 0006312924
正規化後の各要素の値vniは、下記の式(3)で与えられる。
Figure 0006312924
クリップ部2216は、正規化後のベクトルの各要素に対して閾値処理(クリッピング)を施し、T2より大きな値を持つ要素は、その値をT2とする。非特許文献1によると、T2は、例えばT2=0.2である。
なお、上記の例では、16個のCSLBP読出し部が設けられているが、16個より少ないCSLBP読出し部を設け、各CSLBP読出し部に2以上のセル内の全画素についてのCSLBP特徴の読出しを順次行わせても良い。例えば一つのCSLBP読出し部に16個のセル内の全画素についてのCSLBP特徴を順次読み出させても良い。同様に16個のヒストグラム生成部を設ける代わりに、16個より少ないヒストグラム生成部を設け、各ヒストグラム生成部に2以上のセルについてのヒストグラムを生成させても良い。例えば一つのヒストグラム生成部に16個のセルについてのヒストグラムを順次生成させても良い。
テクスチャ特徴算出部223は、上記のクリッピング後の特徴ベクトルを、特徴抽出領域の中心に位置する画素についてのテクスチャ特徴Fとして出力する。
テクスチャ特徴算出部223は、各画像の各画素について上記の処理を行って、算出したテクスチャ特徴Fを、テクスチャ特徴メモリ224に蓄積させる。
特徴変化処理部225はテクスチャ特徴メモリ224から2枚の画像(即ち、時刻t1aの撮像で得られた画像Ga、及び時刻t1bの撮像で得られた画像Gb)についてのテクスチャ特徴Fを読み出し、画像間でのテクスチャ特徴Fの変化(テクスチャ変化)dFを算出する。算出されたテクスチャ変化dFは、テクスチャ変化メモリ226に蓄積される。蓄積されたテクスチャ変化dFは後に被写体抽出部23に供給される。
上記のように、テクスチャ特徴Fは、画像の周縁部以外の各画素について算出され、テクスチャ特徴Fの変化としては、同じ位置の画素についてのテクスチャ特徴の2枚の画像間での変化が算出される。
テクスチャ特徴Fの変化は、例えば、2枚の画像に対して、各画素における256次元の特徴ベクトルを比較することで求められる。特徴ベクトルの変化は、例えば、2つの特徴ベクトル間の距離で定義する。ベクトル間距離としては、例えば、ユークリッド距離或いはマンハッタン距離を使用する。
以下では、マンハッタン距離を用いて、特徴ベクトルの変化を算出する場合について説明する。時刻t1aにおける特徴ベクトルF(t1a)と時刻t1bにおける特徴ベクトルF(t1b)との間のマンハッタン距離dF(t1a,t1b)は、2つの特徴ベクトルの対応する要素間の差の絶対値の総和を算出することで求められる。即ち、マンハッタン距離dF(t1a,t1b)は、下記の式(4)で与えられる。
Figure 0006312924
式(4)で、
aj(j=1からJまで)は、特徴ベクトルF(t1a)の要素、
bj(j=1からJまで)は、特徴ベクトルF(t1b)の要素、
jの値が同じである要素fajと、要素fbjとは互いに対応する。
Jは各特徴ベクトルF(t1a)又はF(t1b)の要素faj又は要素fbjの総数であり、本例ではJ=256である。
特徴変化処理部225は、各画素について上記のようにして、特徴ベクトル間距離を求め、テクスチャ変化dFとして、テクスチャ変化メモリ226に蓄積させる。蓄積されたテクスチャ変化dFは後に被写体抽出部23に供給される。
テクスチャ特徴Fは照明変化によって変化が生じにくいため、背景が変化した場合或いは被写体が移動した場合にはテクスチャ変化dFが大きくなる。そのため、照明条件Aの画像と照明条件Bの画像の間で算出されたテクスチャ変化dFは、背景が変化したことによるテクスチャ特徴の変化、又は被写体が移動したことによるテクスチャ特徴の変化と判断することができる。
被写体抽出部23は、画像メモリ14から読み出される画像Gと、輝度変化算出部21から供給される輝度変化dIと、テクスチャ変化算出部22から供給されるテクスチャ変化dFとに基づいて、被写体領域を抽出する。
被写体抽出部23は、図9に示すように輝度変化比較部231と、テクスチャ変化比較部232と、領域判定部233と、ゲート部234とを有する。
輝度変化比較部231は、各画素についての輝度変化dIが閾値TIよりも大きいか否かを判定する。
テクスチャ変化比較部232は、各画素についてのテクスチャ変化dFが閾値TFよりも大きいか否かを判定する。
領域判定部233は、各画素についての、輝度変化比較部231における判定結果とテクスチャ変化比較部232における判定結果とに基づいて当該画素が、被写体領域に属する(該領域内に位置する)ものであるか、背景領域に属するか、被写体の移動又は背景の変化による偽信号の領域に属するかの判定を行う。
即ち、輝度変化比較部231における判定結果が、閾値TI以下であることを示す場合には、当該画素が背景領域に属すると判定する。
輝度変化比較部231における判定結果が閾値TIよりも大きいことを示し、テクスチャ変化比較部232における判定結果が閾値TF以下であることを示す場合には、当該画素が、被写体領域に属すると判定する。
輝度変化比較部231における判定結果が閾値TIよりも大きいことを示し、テクスチャ変化比較部232における判定結果が閾値TFよりも大きいことを示す場合には、当該画素が偽信号の領域に属すると判定する。
ゲート部234は、画像Gを構成する画素のうち、領域判定部233により、被写体領域に属すると判定された画素の輝度値を、被写体領域内の画素の輝度値として出力する。
ゲート部234から出力された画素、即ち、被写体領域に属すると判定された画素の集合により被写体領域が構成される。
このような処理により、ゲート部234は、画像メモリ14から読み出された画像Gのうち、被写体領域に一致する部分を、被写体領域Hの抽出の結果として出力する。被写体領域Hの抽出の結果は、被写体領域Hの画像を表すものである。
以上の処理によって被写体領域の抽出を行うのが適切である理由を説明する。
まず、照明条件の変化、背景の変化、及び被写体の移動と、これらによる画像上の輝度変化及びテクスチャ変化との関係を説明する。図10に示すように、照明条件を変化させると、被写体領域における輝度変化が生じる。
一方、背景の変化又は被写体の移動があると、変化又は移動があった領域(例えば移動によりエッジの位置が変わった部分)において輝度変化が生じる。そのため、仮に輝度変化があった部分をすべて被写体領域であると判定することとすれば、背景の変化又は被写体の移動があった領域も、被写体領域として誤検出されてしまう。そこで本発明では、テクスチャ変化に基づく判定をも行って被写体領域と、背景の変化又は被写体が移動により輝度が変化した領域との判別を行う。
即ち、図6(c)、(d)、(g)及び(h)を参照して説明したように、被写体領域では、照明条件の変化に伴うテクスチャ変化は生じない(図10)。一方、背景が変化し、又は被写体が移動すると、変化又は移動した部分にテクスチャの変化が生じる(図10)。この違いに基づいて、被写体領域と、背景の変化又は被写体の移動により輝度が変化した領域との区別を行うことができる。
以上より、輝度変化が生じた領域の中で、テクスチャ変化が生じていない領域は照明変化により輝度変化が生じた領域であり、従って被写体を構成する部分と判定することができる。一方、輝度変化とともに、テクスチャ変化が生じている領域は、背景の変化又は被写体の移動により輝度変化が生じた領域、すなわち偽信号の領域であると判定することができる。
上記の判定方法を用いて、被写体抽出部23は、輝度変化dI及びテクスチャ変化dFに基づいて被写体領域を抽出する。
例えば、輝度変化dIの大きさに対して閾値TIを設け、輝度変化比較部231において、輝度変化dIが閾値TIより大きいと判断された画素を、「輝度変化が生じた画素」が生じた画素と判断する。同様に、例えば、テクスチャ変化dFの大きさに対して閾値TFを設け、テクスチャ変化比較部232において、テクスチャ変化dFが閾値TFより大きいと判断された画素を、「テクスチャ変化が生じた画素」と判断する。
そして、領域判定部233において、輝度変化比較部231で、輝度変化が生じていると判定され、テクスチャ変化比較部232でテクスチャ変化が生じていないと判定された画素を、被写体領域に属する画素であると判定する。
この場合、領域判定部233における判定は、以下の基準に従って行われる。
(a) 輝度変化が生じておりかつテクスチャ変化が生じている画素は偽信号の領域に属する画素である。
(b) 輝度変化が生じておりかつテクスチャ変化が生じていない画素は被写体領域に属する画素である。
(c) (a)及び(b)以外の画素、即ち輝度変化が生じていない画素は背景領域に属する画素である。
但し、被写体領域の抽出が目的であるので、上記(b)に基づく判定のみを行って、上記(a)及び(c)に基づく判定は省略することができる。
ゲート部234は、画像メモリ14から輝度算出に使用された画像の何れか一方を読み出し、読み出した画像のうち、領域判定部233により、被写体領域に属すると判定された画素の輝度値を、被写体領域Hの抽出結果として出力する。
以上の例では、各画素についての輝度変化比較部231における判定結果及びテクスチャ変化比較部232における判定結果を、領域判定部233で組合せることで、当該画素が被写体領域に属するか否かの判定を行っている。即ち、輝度変化比較部231、テクスチャ変化比較部232及び領域判定部233における判定を画素毎に行っている。
代わりに、輝度変化比較部231、テクスチャ変化比較部232及び領域判定部233における判定を画像毎(フレーム毎)に行っても良い。即ち、輝度変化比較部231において画像の全体についての輝度変化が生じた画素の集合を、輝度変化領域として抽出し、テクスチャ変化比較部232において画像の全体についてのテクスチャ変化が生じた画素の集合を、テクスチャ変化領域として抽出し、領域判定部233において、輝度変化領域に属し、テクスチャ変化領域に属さない画素から成る領域を被写体領域Hと判定しても良い。
この場合、領域判定部233における判定は、以下の基準に従って行われる。
(a) 輝度変化が生じておりかつテクスチャ変化が生じている領域は、偽信号の領域である。
(b) 輝度変化が生じておりかつテクスチャ変化が生じていない領域は被写体領域である。
(c) (a)及び(b)以外の領域、即ち輝度変化が生じていない領域は背景領域である。
但し、被写体領域の抽出が目的であるので、上記(b)に基づく判定のみを行って、上記(a)及び(c)に基づく判定は省略することができる。
ゲート部234は、画像メモリ14から輝度算出に使用された画像の何れか一方を読み出し、読み出した画像のうち、領域判定部233により、被写体領域Hと判定された領域に属する画素の輝度値を、被写体領域Hの画像の輝度値として出力する。
なお、輝度変化比較部231で用いる閾値TI及びテクスチャ変化比較部232で用いる閾値TFは固定された値でなくても良く、例えば公知の技術より適応的に修正しても良い。例えば、輝度変化dI或いはテクスチャ変化dFの集合に対して、P−タイル法、モード法、判別分析法等を使用して閾値を設定することとしても良い。
前述した通り、撮像部13から取得される画像には、撮像素子における暗電流によるノイズ或いは電荷の読み出しノイズが多く含まれており、輝度変化算出部21から供給される輝度変化及びテクスチャ変化算出部22から供給されるテクスチャ変化はノイズを含んでいる場合がある。
そのため、被写体抽出部23は、例えば、輝度変化dIに対し、図示しない平滑化フィルタを用いて平滑化フィルタリングを施した上で輝度変化比較部231における閾値処理を行っても良い。また、輝度変化比較部231で画像毎の処理を行っている場合には、輝度変化比較部231における閾値処理を行った後に平滑化フィルタリングを施しても良い。
同様に、例えば、テクスチャ変化dFに対し、図示しない平滑化フィルタを用いて平滑化フィルタリングを施した上でテクスチャ変化比較部232における閾値処理を行っても良い。また、テクスチャ変化比較部232で画像毎の処理を行っている場合には、テクスチャ変化比較部232における閾値処理を行った後に平滑化フィルタリングを施してもよい。
加えて、領域判定部233で画像毎の処理を行っている場合には、領域判定部233における判定の結果に対して平滑化フィルタリングを施しても良い。
平滑化フィルタとして、例えば、ガウシアンフィルタ或いはメディアンフィルタを用いることができる。
次に、被写体抽出部23による被写体領域の抽出の動作の例を、図11(a)〜(e)及び図12(a)〜(e)を参照して説明する。ここでは、被写体が人の手である場合を想定する。
まず、被写体は移動せず、背景要素の消滅によって背景が変化した場合の被写体領域の抽出の動作を、図11(a)〜(e)を参照して説明する。図11(a)〜(e)は、時刻t1aと時刻t1bの間に背景を構成する要素B1が消滅したことにより背景が変化した場合の撮像画像、輝度変化量、テクスチャ変化量、及び抽出された被写体領域を示す図である。
図11(a)及び(b)は、それぞれ時刻t1a及びt1bにおける撮像画像を示すとともに、線BLに沿う部分の輝度をグラフ(横軸は画像座標系のx軸方向、縦軸が輝度)で示す図である。図11(c)は、時刻t1aと時刻t1bの間に輝度が変化した領域を白で示すとともに、線BLに沿う部分の輝度変化量をグラフ(横軸は画像座標系のx軸方向、縦軸が輝度変化量)で示す図である。図11(d)は、時刻t1aと時刻t1bの間にテクスチャが変化した領域を白で示すとともに、線BLに沿う部分のテクスチャ変化量をグラフ(横軸は画像座標系のx軸方向、縦軸がテクスチャ変化量)で示す図である。図11(e)は、抽出された被写体領域を白で示している。
図11(a)に示される時刻t1aの画像は照明条件Aで撮像された画像Ga、図11(b)に示される時刻t1bの画像は照明条件Bで撮像された画像Gbである。
被写体Hは、時刻t1aから時刻t1bにかけて静止している。背景のうち、背景要素B1は時刻t1aには存在するが、時刻t1bには存在しない。例えば、背景要素B1は、太陽であり、時刻t1aには見える状態にあるが、時刻t1bではビル陰に隠れてしまった場合に相当する。
背景要素B1は、非常に明るいため、照射部12が発光する光の影響を受けない。背景のうち、背景要素B1以外の部分(背景部分)B2は、照射部12及び撮像部13から十分に距離が離れているため、照射部12が発光する光の影響を受けない。
図11(a)及び(b)の撮像画像と、図11(c)の輝度変化、図11(d)のテクスチャ変化を参照しながら、被写体H、背景要素B1、及び背景要素B1以外の部分B2の輝度変化及びテクスチャ変化について説明する。
照明条件Aは照明条件Bよりも照射部12が発光する光の強度が大きいため、時刻t1aにおける被写体Hの輝度は時刻t1bにおける被写体の輝度よりも大きい。そのため、被写体Hは、図11(c)に示されるように輝度変化が生じた領域として抽出される。一方で、被写体Hでは、照明条件の変化によるテクスチャ特徴の変化は生じない。従って、被写体Hは、テクスチャ変化が生じた領域としては抽出されない(図11(d))。
背景要素B1は、背景部分B2とは明るさ及びテクスチャ特徴が異なり、背景要素B1は、時刻t1aから時刻t1bにかけて背景要素B1が消失した領域が、輝度変化が生じた領域として抽出される(図11(c))とともに、テクスチャ変化が生じた領域として抽出される(図11(d))。
背景部分B2(厳密には、時刻t1bの背景のうち、時刻t1aに背景要素B1が存在した領域以外の領域)は、時刻t1aから時刻t1bにかけて輝度もテクスチャも変化せず、従って、輝度変化領域としても、テクスチャ変化領域としても抽出されない(図11(c)及び図11(d))。
輝度変化が生じており、かつテクスチャ変化が生じていない領域を被写体領域と判定し、輝度変化が生じており、かつテクスチャ変化が生じている領域を偽信号の領域として判定すると、被写体領域を、背景要素B1が消失した領域から区別することができ、図11(e)に示すように、被写体領域Hのみを抽出することができる。
次に、被写体が移動した場合の被写体領域の抽出の動作、図12(a)〜(e)を参照して説明する。図12(a)〜(e)は、時刻t1aと時刻t1bの間に被写体Hが移動し、これとともに背景を構成する要素B1が移動したことによって背景が変化した場合の撮像画像、輝度変化量、テクスチャ変化量、及び抽出された被写体領域を示す図である。
図12(a)及び(b)は、それぞれ時刻t1a及びt1bにおける撮像画像を示すとともに、線BLに沿う部分の輝度をグラフ(横軸は画像座標系のx軸方向、縦軸が輝度値の大きさ)で示す図である。図12(c)は、時刻t1aと時刻t1bの間に輝度が変化した領域を白で示すとともに、線BLに沿う部分の輝度変化量をグラフ(横軸は画像座標系のx軸方向、縦軸が輝度変化量)で示す図である。図12(d)は、時刻t1aと時刻t1bの間にテクスチャが変化した領域を白で示すとともに、線BLに沿う部分のテクスチャ変化量をグラフ(横軸は画像座標系のx軸方向、縦軸がテクスチャ変化量)で示す図である。図12(e)は、抽出された被写体領域を白で示している。
図12(a)に示される時刻t1aの画像は照明条件Aで撮像された画像Ga、図12(b)に示される時刻t1bの画像は照明条件Bで撮像された画像Gbである。
被写体Hは、時刻t1aから時刻t1bにかけて右方向に移動している。
背景のうち、背景要素B1は、被写体Hと同様に、時刻がt1aから時刻t1bにかけて右方向に移動している。
背景要素B1は、非常に明るいため、照射部12が発光する光の影響を受けない。背景のうち、背景要素B1以外の部分B2は、照射部12及び撮像部13から十分に距離が離れているため、照射部12による照明光の影響を受けない。
図12(a)及び(b)の撮像画像と、図12(c)の輝度変化、図12(d)のテクスチャ変化を参照しながら、被写体H、背景要素B1、及び背景要素B1以外の部分B2の輝度変化及びテクスチャ変化について説明する。
照明条件Aは照明条件Bよりも照射部12が照射する光の強度が大きいため、時刻t1aにおける被写体Hの輝度は時刻t1bにおける被写体の輝度よりも大きい。そのため、図12(c)に示される輝度変化結果においては輝度変化が生じた領域として抽出される。また、被写体Hは移動しているため、被写体領域の左右の境界部分(移動によって、被写体から背景に変わった部分、及び背景から被写体に変わった部分)が、輝度変化が生じた領域として抽出される(図12(c))。即ち被写体領域の左側の境界部分(背景から被写体に変わった部分)では、照明条件Bの被写体の明るさと、背景部分B2との明るさの違いのため、輝度変化が検出され、被写体領域の右側の境界部分(被写体から背景に変わった部分)では、照明条件Aの被写体の明るさと、背景部分B2との明るさの違いのため、輝度変化が検出される。
また、被写体Hが移動しているため、被写体Hの左右の境界部分(背景から被写体に変わった部分、及び被写体から背景部分に変わった部分)が、背景部分B2と被写体Hとのテクスチャ特徴の違いにより、テクスチャ変化領域として抽出される(図12(d)。
背景要素B1は、背景部分B2とは明るさ及びテクスチャ特徴が異なり、背景要素B1が時刻t1aから時刻t1bにかけて移動しているため、背景要素B1の左右の境界部分が、輝度変化領域として抽出される(図12(c)とともに、テクスチャ変化領域として抽出される(図12(d))。
背景部分B2(厳密には、時刻t1aにおいて、時刻t1bにおいても背景要素B1の一部とならない部分)は、時刻t1aから時刻t1bにかけて輝度もテクスチャも変化せず、従って、輝度変化領域としても、テクスチャ変化領域としても抽出されない(図12(c)、図12(d))。
輝度変化が生じており、かつテクスチャ変化が生じていない領域を被写体領域と判定し、輝度変化が生じており、かつテクスチャ変化が生じている領域を偽信号の領域と判定すると、被写体の領域を、被写体Hの境界部分(輝度が変化した部分)及び背景要素B1の境界部分(輝度が変化した部分)から区別することができ、図12(e)に示すように、被写体領域Hのみを抽出することができる。
以上のように、本発明では、輝度変化とテクスチャ変化とに基づいて、被写体領域を、背景領域のみならず、偽信号の領域から区別することができ、被写体領域を高精度で抽出することができる。
また、被写体或いは背景要素(背景を構成する物体など)の表面に模様或いは凹凸、反射率の違いがあって、輝度が不均一な場合、被写体或いは背景要素の移動により、領域境界付近だけでなく、被写体領域或いは背景の領域内部においてもテクスチャ特徴が変化する。しかしながら、本実施の形態では、テクスチャ特徴を算出する際に、各画素に対して特徴抽出領域を設けた上で、テクスチャ特徴を算出する。各画素とそれに隣接する画素に基づいて判定を行うのではなく、より広い範囲の画素に基づいて判定を行うので、被写体或いは背景要素の移動が、被写体領域或いは背景領域内におけるテクスチャ特徴の変化に与える影響は小さい。一方で、領域境界におけるテクスチャ特徴の変化は、被写体と背景要素のテクスチャが類似でない限り、領域内部における変化と比較して大きくなる。そのため、テクスチャ変化に対して閾値処理を設けることで、領域内部におけるテクスチャ変化を区別して、領域境界におけるテクスチャ変化のみを抽出することができる。
次に、実施の形態1の撮像装置における処理の手順を、図13を参照して説明する。
図13に示される処理は、1フレーム期間毎に、即ち1フレーム期間に1度行われる。
まず、各フレーム期間での撮像に先立ち、ステップST1で、撮像照射制御部11が制御信号C11a及びC11bを生成し、照射部12及び撮像部13へ出力する。
撮像照射制御部11は、照射部12に対し、照明条件Aでの照射と、照明条件Bでの照射とをフレームごとに交互に行わせるように制御を行う。例えば、奇数番目のフレームでは、照明条件Aで照射を行うように、偶数番目のフレームでは照明条件Bでの照射を行うように制御を行う。このような照明条件の制御は、2フレーム期間を1サイクルとし、各サイクルの1番目のフレームでは照明条件Aで照明を行わせ、2番目のフレームでは、照明条件Bで照明を行わえる制御と見ることができる。
次にステップST2で、照射部12が撮像照射制御部11からの制御信号C11aに基づいて照射を行う。この照射によって、制御信号C11aに対応する照明条件が生成される。
次にステップST3で、ステップST2で生成された照明条件下で行われた撮像を行って、撮像画像を取得し、画像メモリ14に記憶させる。
次にステップST4で、輝度変化算出部21の輝度特徴量算出部211が、画像メモリ14から、最新の画像を読出し、読み出された画像の輝度特徴量Imを求める。算出された輝度特徴量Imは、輝度特徴量メモリ212に記憶される。
ステップST4の処理と並行してステップST5で、テクスチャ変化算出部22のCSLBP特徴算出部221が、画像メモリ14から、最新の画像を読出し、読み出された画像の各画素のCSLBP特徴Bを算出する。そして、算出されたCSLBP特徴Bを、CSLBP特徴メモリ222に記憶させる。
次に、ステップST6で、テクスチャ変化算出部22のテクスチャ特徴算出部223が、CSLBP特徴メモリ222から、最新の画像の各画素についてのCSLBP特徴を読出し、読み出したCSLBP特徴Bに基づいて、同じ画像内の各画素についてのテクスチャ特徴Fを算出する。そして算出されたテクスチャ特徴Fを、テクスチャ特徴メモリ224に記憶させる。
次にステップST7で、輝度変化算出部21の照明条件判定部213が、最新の画像の輝度特徴量Imと1フレーム前の画像の輝度特徴量Imとを輝度特徴量メモリ212から読み出して比較し、いずれの画像の輝度特徴量Imがより高いかを判断し、判断の結果に基づきいずれが照明条件Aの画像Gaであり、いずれが照明条件Bの画像Gbであるかを判定する。この判定の結果CNaは、差分算出部215に供給される。
ステップST7の次に、ステップST8及びST9に進む。
ステップST8では、輝度変化算出部21の差分算出部215が、画像メモリ14から、最新画像(現フレームの画像)と、1フレーム前の画像とを読出し、各画素の輝度差分を算出する。算出された輝度差分は、輝度変化dIとして輝度変化メモリ216に蓄積され、後に被写体抽出部23に供給される。
差分の算出に当たっては、ステップST7での判定結果に基づき、照明条件Aの画像(ステップST7で輝度特徴量Imがより高いと判定された画像)Gaの各画素の輝度値から、照明条件Bの画像(ステップST7で輝度特徴量Imがより低いと判定された画像)Gbの、同じ位置の画素の輝度値を差し引く。差し引いた結果が負となる場合には、輝度変化を0とする。
算出された各画素の輝度変化dIは輝度変化メモリ216に蓄積される。
ステップST9では、テクスチャ変化算出部22の特徴変化処理部225が、最新の画像と1フレーム前の画像との間の各画素のテクスチャ変化dFを算出する。算出された各画素のテクスチャ変化dFはテクスチャ変化メモリ226に蓄積される。
ステップST8及びST9の次にステップST10に進む。
ステップST10では、被写体抽出部23が、輝度変化dI及びテクスチャ変化dFに基づいて被写体領域を抽出する。
被写体領域の抽出においては、各画素が被写体領域に属するか否かの判定を画素毎に行っても良く、画像毎に行っても良い。以下では、最初に画素毎に行う場合の手順を、図14を参照して説明し、その後で画像毎に行う場合の手順を、図15を参照して説明する。
図14に示される手順では、まずステップST11で、画像上の処理対象とすべき画素の一つを選択する。ここで、画像上の処理対象とすべき画素、即ち画像の周縁部以外の画素を意味する。以下でも同様である。また、周縁部以外に位置するすべての画素を、単に「画像のすべての画素」と言うこともある。
選択は例えば画像の左上から右下へと言う順序で行われる。
次にステップST12で、選択された画素(注目画素)についての輝度変化dIを輝度変化メモリ216から読出し、次にステップST13で、読み出した輝度変化dIが閾値TIよりも大きいか否か(即ち「輝度変化有り」か「輝度変化無し」か)の判定を行う。
閾値TIよりも大きくなければ(「輝度変化無し」であれば)、注目画素は、背景領域に属すると判定する(ST14)。
閾値TIよりも大きければ、ステップST15に進む。ステップST15では、注目画素についてのテクスチャ変化dFをテクスチャ変化メモリ226から読出す。
次にステップST16では、読み出したテクスチャ変化dFが閾値TFよりも大きいか否か(「テクスチャ変化有り」か「テクスチャ変化無し」か)の判定を行う。
閾値TFよりも大きくないと判断したとき(「テクスチャ変化無し」と判断したとき)は、注目画素は、被写体領域に属すると判断する(ST17)。
閾値TFよりも大きいと判断したとき(「テクスチャ変化有り」と判断したとき)は、注目画素は、被写体が移動した部分、或いは背景が変化した部分、即ち偽信号の領域であると判断する(ST18)。ここで被写体が移動した部分とは、1フレーム前には被写体の一部であった部分が最新のフレームでは背景の一部となった部分、或いは1フレーム前には背景の一部であった部分が最新のフレームでは被写体の一部となった部分である。これらの部分は、本発明では、被写体の一部とはみなさない。
次にステップST19では、画像上の処理対象とすべき画素のすべてが選択されたか否か、即ちすべての画素についてステップST12からST18までの処理が行われたか否かの判定を行う。まだ選択されていない画素があればステップST11に戻る。
すべての画素が選択されていれば、ステップST20に進む。
ステップST20では、ステップST17で被写体領域に属すると判断された画素の集合を、被写体領域Hの抽出結果として出力する。
なお、被写体領域の抽出が目的であるので、ステップST14及びST18の処理を省略しても良い。この場合、ステップST13でNOの場合、及びステップST16でYESの場合には直ちにステップST19に進むことになる。
図15に示される手順では、まず、ステップST21で、画像中の画素を順次選択し、選択した画素の輝度変化dIを輝度変化メモリ216から読出し、読み出した輝度変化dIが閾値TIよりも大きいか否か(即ち「輝度変化有り」か「輝度変化無し」か)の判定を行う。そして、「輝度変化有り」と判定された画素の集合を、輝度変化領域として抽出する。
次のステップST22では、画像中の画素を順次選択し、選択した画素のテクスチャ変化dFをテクスチャ変化メモリ226から読出し、読み出したテクスチャ変化dFが閾値TFよりも大きいか否か(「テクスチャ変化有り」か「テクスチャ変化無し」か)の判定を行う。そして、「テクスチャ変化有り」と判定された画素の集合を、テクスチャ変化領域として抽出する。
次のステップST23では、「輝度変化領域」に属し、「テクスチャ変化領域」に属さない画素の集合を「被写体領域」として抽出する。
次のステップST20では、ステップST23で抽出された被写体領域に属すると判断された画素の集合を、被写体領域Hの抽出結果として出力する。
上記の例では、画像のすべての画素についてテクスチャ特徴Fを算出し、テクスチャ特徴メモリ224に記憶させた後、2つの画像の同じ画素についてのテクスチャ特徴Fを読み出して、テクスチャ変化dFを算出している。このようにする代わりに、各画像の各画素についてのテクスチャ特徴Fが算出されたら、同じ画素についての1フレーム前の画像における同じ位置の画素についてそれ以前に算出されたテクスチャ特徴F(例えばテクスチャ特徴メモリ224に記憶させておく)と、算出されたばかりのテクスチャ特徴Fとから、当該画素についてのテクスチャ変化dFを算出することとしても良い。このようにすることで、撮像からテクスチャ変化dFの算出までの時間を短くすることができる。
このような手順で処理をする場合には、図4に示されるテクスチャ変化算出部22の代わりに、図16に示されるテクスチャ変化算出部22aを用いる。図16に示されるテクスチャ変化算出部22aは、CSLBP特徴算出部221と、CSLBP特徴メモリ222と、テクスチャ特徴算出部223aと、テクスチャ特徴メモリ224と、特徴変化処理部225aと、テクスチャ変化メモリ226とを含む。
図16のうち、CSLBP特徴算出部221、CSLBP特徴メモリ222、テクスチャ特徴メモリ224、及びテクスチャ変化メモリ226は、図4に示すのと同様のものである。
テクスチャ特徴算出部223aは、画像メモリ14から読み出した各画像の、各画素についてのテクスチャ特徴Fを順に算出し、テクスチャ特徴メモリ224に蓄積させるとともに、特徴変化処理部225aに供給する。
特徴変化処理部225aは、最新の画像において、選択されている画素(注目画素)についてテクスチャ特徴算出部223aで算出されたテクスチャ特徴Fを受けるとともに、テクスチャ特徴メモリ224に記憶されている、1つ前のフレームの画像における、同じ位置の画素についてのテクスチャ特徴Fを受けて、両者間の変化を算出し、算出結果をテクスチャ変化dFとして、テクスチャ変化メモリ226に記憶させる。蓄積されたテクスチャ変化dFは後に被写体抽出部23に供給される。
この場合の処理の手順を図17及び図18に示す。
図17及び図18で、図13と同じ符号は、同一又は同様の処理を示す。
即ち、図17で、ステップST1〜ST4、ST5、及びST7の処理は図13と同じである。
ステップST7の次に、ステップST11aに進む。
ステップST11aでは、画像上の処理対象とすべき画素の一つを選択する。
ステップST11aの次にステップST8a及びステップST6aに進む。
ステップST8aでは、選択された画素(注目画素)について、輝度変化算出部21の差分算出部215が、画像メモリ14へ記憶されている最新の画像と、1フレーム前の画像の注目画素と同じ位置の画素の輝度値を読み出し、輝度差分を算出し、算出した輝度差分を輝度変化dIとして輝度変化メモリ216に記憶させる。記憶された輝度変化dIは後に被写体抽出部23に供給される。
ステップST6aでは、テクスチャ特徴算出部223aが、選択された画素(注目画素)についてテクスチャ特徴Fを算出し、算出したテクスチャ特徴Fをテクスチャ特徴メモリ224に記憶させるとともに、特徴変化処理部225aに供給する。
ステップST9aでは、特徴変化処理部225aが、テクスチャ特徴算出部223aから供給された、注目画素についてのテクスチャ特徴F(ステップST6aで算出されたもの)と、テクスチャ特徴メモリ224に記憶されている、1つ前のフレームの画像の、同じ位置の画素についてのテクスチャ特徴Fから、注目画素についてのテクスチャ変化dFを算出し、算出したテクスチャ変化dFをテクスチャ変化メモリ226に記憶させる。記憶されたテクスチャ変化dFは後に被写体抽出部23に供給される。
なお、図13のステップST6、ST8、ST9は、画像を構成するすべての画素についての処理であるのに対し、図17のステップST6a、ST8a、ST9aは、選択された画素についての処理である点で異なる。
ステップST8a及びST9aの次にステップST13に進む。
ステップST13では、ステップST8aで算出された輝度変化dIが閾値TIよりも大きいか否か(即ち「輝度変化有り」か「輝度変化無し」か)の判定を行う。
閾値TIよりも大きくなければ(「輝度変化無し」であれば)、注目画素は、背景領域に属すると判定する(ST14)。
閾値TIよりも大きければ、ステップST16に進む。
ステップST16では、ステップST9aで算出されたテクスチャ変化dFが閾値TFよりも大きいか否か(「テクスチャ変化有り」か「テクスチャ変化無し」か)の判定を行う。
閾値TFよりも大きくないと判断したとき(「テクスチャ変化無し」と判断したとき)は、注目画素は、被写体領域に属すると判断する(ST17)。
閾値TFよりも大きいと判断したとき(「テクスチャ変化有り」と判断したとき)は、注目画素は偽信号の領域に属すると判断する(ST18)。
次にステップST19では、画像上の処理対象とすべき画素のすべてが選択されたか否か、即ちすべての画素についてステップST6a、ST8a、ST9a、ST13、ST14、ST16〜ST18の処理が行われたか否かの判定を行う。まだ選択されていない画素があればステップST11aに戻る。
すべての画素が選択されていれば、ステップST20に進む。
ステップST20では、ステップST17で被写体領域に属すると判断された画素の集合を、被写体領域Hの抽出結果として出力する。
なお、図13について述べたのと同様に、ステップST14及びST18の処理を省略しても良い。この場合、ステップST13でNOの場合、及びステップST16でYESの場合には直ちにステップST19に進むことになる。
なおまた、図17及び図18の手順では、ステップST13の前にステップST6a及びST9aの処理を行っているが、このようにする代わりに、ステップST13でYESとの判断がされたら、そのあとでステップST6a及びステップST9aの処理をし、そのあとで、ステップST16に進むこととしても良い。
上記説明のように、本実施の形態に係る撮像装置では、撮像照射制御部11が照明条件を制御する制御信号C11a及び撮像条件を制御する制御信号C11bを出力し、照射部12が制御信号C11aに基づいて2つの異なる照明条件を生成し、
撮像部13が2つの異なる照明条件下で被写体を撮像し、輝度変化算出部21が異なる照明条件下で撮像された2数の画像間の輝度変化dIを算出し、テクスチャ変化算出部22が異なる時刻に撮像された2枚の画像間のテクスチャ変化dFを算出し、被写体抽出部23は輝度変化dIとテクスチャ変化dFとから、照明変化により被写体に生じた輝度変化と、背景の変化又は被写体の移動により生じた輝度変化とを判別している。
従って、被写体領域の抽出を高精度に行うことができる。
本実施の形態に係る撮像装置では、背景変化又は被写体移動がある領域は輝度変化及びテクスチャ変化が生じ、一方で、背景変化及び被写体移動がない条件下では、照明変化による輝度変化のみ生じる特徴に着目し、輝度変化が大きくテクスチャ変化が小さい領域を被写体領域とすることで、背景変化及び被写体移動による影響を排除し、被写体領域を精度よく抽出することができる。
また、第1の発光強度で光を発光する第1の照明条件と、第1の発光強度より小さい第2の発光強度で光を発光する第2照明条件との2種類の照明条件を使用することとしており、そのため簡単な構成及び処理により、輝度変化及びテクスチャ変化を利用した被写体領域の抽出が可能である。
さらに、輝度変化算出部21が輝度変化の算出のために使用する画像の照明条件と、テクスチャ変化算出部22がテクスチャ変化の算出のために使用する画像の照明条件とを一致させることで、輝度変化が生じた原因を、照明変化によるものと背景変化及び被写体移動によるものとに判別することができ、より精度良く被写体領域を抽出することができる。
本実施の形態に係る撮像装置では、抽出したい被写体へ適切に照明光が照射されるような照射分布を照明条件の1つとすることができ、そのようにすることで、被写体の位置及びサイズに応じて輝度変化及びテクスチャ変化の算出に好適な画像を取得することができる。
また、抽出したい被写体の反射率に応じて適切な光量の照明光が照射されるような光の強度を照明条件の1つとすることができ、そのようにすることで、輝度変化及びテクスチャ変化の算出に好適な画像を取得することができる。
さらには、上記2つの条件の双方を照明条件とすることができ、そのようにすることで、被写体の位置、サイズ及び反射率に応じて、輝度変化及びテクスチャ変化の算出に好適な画像を取得することができる。
なお、本実施の形態では、発光する光の強度に条件づけられた2つの照明条件(照明条件A及び照明条件B)を用いて被写体領域を抽出したが、被写体への照明光の照射分布を考慮した照明条件を2つ用意しても良い。例えば、撮像画像における被写体位置がある程度決まっている場合は、被写体位置に適切に照明光が配光されるように照明条件を設定する。また、局所的な環境光の変化に応じて照射分布を設定しても良い。照射分布は、例えば、LEDの照射角度を変えて調整しても良いし、複数個のLEDのうちの発光させるLEDを選択することで照射分布を調整してもよい。
なお、上記の実施の形態では、2枚の画像間で輝度変化及びテクスチャ変化の算出を行っている。しかしながら、本発明はこれに限定されず、3枚以上の画像間で輝度変化及びテクスチャ変化の算出を行うようにしても良い。要するに複数の画像間で輝度変化及びテクスチャ変化の算出を行うこととすれば良い。3枚以上の画像間で輝度変化を行う場合には、それぞれの画像としては、互いに異なる照明条件での撮像で得られたものを用い、3枚以上の画像間でテクスチャ変化を行う場合には、それぞれの画像としては、互いに異なる時刻における撮像で得られたものを用いる。互いに異なる時刻における撮像で得られた画像は、互いに異なる照明条件での撮像で得られた画像であっても良い。従って、輝度変化の算出に用いられた画像と同じものであっても良い。
但し、輝度変化及びテクスチャ変化の算出に用いる画像の数を増やすと、メモリ量或いは処理量は増加する。即ちハードウェアリソースが増え、処理時間が長くなる。従って、これらの点を勘案して、輝度変化及びテクスチャ変化の算出に用いる画像の数を決定する必要がある。
なお、本実施の形態では、差分画像を生成する際に、照明条件Aの画像Gaの輝度値から照明条件Bの画像Gbの輝度値を減算しているが、これに限るものではない。例えば、輝度差分の絶対値を使用しても良い。
また、本実施の形態では、輝度変化算出に用いた画像と同じ画像を用いてテクスチャ変化を算出したが、これに限るものではない。異なる時刻に撮像された2枚の画像であれば、照明条件に関係なく、テクスチャ変化を算出することで背景変化或いは被写体移動を捉えることができる。
但し、輝度変化算出に用いた画像と十分に近いタイミングで撮像された画像を用いる必要がある。
また、本実施の形態では、画像上のすべての画素に対してテクスチャ変化dFを算出したが、算出された輝度変化dIに基づき、輝度変化が生じた領域(輝度変化dIが閾値TIよりも大きい領域)内の画素についてのみテクスチャ変化dFを算出しても良い。この場合、テクスチャ変化dFの処理量が削減される。
上記の実施の形態では、テクスチャ特徴の算出の際に、注目画素を中心とする正方形の特徴抽出領域を使用したが、特徴抽出領域の形状はこれに限定されない。即ち、特徴抽出領域形状は、円形であっても良く、四角形以外の多角形であっても良い。但し、いずれの場合も注目画素を中心とするものであるのが望ましい。また、特徴抽出領域のサイズも上記の例に限定されない。
上記の実施の形態では、画像の周縁部に位置する画素以外のすべての画素の各々についてテクスチャ特徴の算出及びテクスチャ変化の算出を行った。
しかし、本発明はこれに限定されない。例えば、画像の周縁部以外の部分において、予め定められた間隔毎の位置にある画素についてのみ、テクスチャ特徴の算出及びテクスチャ変化の算出を行っても良い。例えば画像上に図19に示すように格子模様を描き、その格子点に位置する画素についてのみテクスチャ特徴の算出及びテクスチャ変化の算出を行っても良い。
図19に示す例では、格子が正方格子であって、格子点間の縦方向の間隔及び横方向の間隔が符号Dで示されている。
図19に示すように、格子点に位置する画素についてのみテクスチャ特徴の算出及びテクスチャ変化の算出を行うと、格子点以外に位置する画素については、最も近い格子点位置にある画素について算出されたテクスチャ特徴及びテクスチャ変化を、当該格子点以外に位置する画素についてのテクスチャ特徴及びテクスチャ変化として用いることとしても良い。
なお、上記の実施の形態で説明した、すべての画素についてテクスチャ特徴の算出及びテクスチャ変化の算出を行う例は、図19でDが1画素である場合に相当する。
なおまた、テクスチャ特徴及びテクスチャ変化の算出の対象とする画素は、画像上の格子点に位置するものに限定されない。
さらに、テクスチャ特徴及びテクスチャ変化の算出の対象とする画素相互の間隔、従ってそのような画素の密度は、画像全体で均一でなくても良い。例えば、画像上で被写体が存在する位置が予め分かっていれば、その領域付近においては、テクスチャ特徴及びテクスチャ変化の算出の対象とする画素の密度が高く、それ以外の領域ではテクスチャ特徴及びテクスチャ変化の算出の対象とする画素の密度が低くなるようにしても良い。
上記の実施の形態では、テクスチャ特徴算出の際に、特徴抽出領域を4×4個のセルに分割した。しかし、セルの個数はこれに限定されない。例えば、セルの数を多くし、各セルをより小さくして、特徴抽出領域内のセルの数を増やすことで、より詳細なテクスチャ特徴を得ることができるが、特徴ベクトルの次元が増えるため処理負荷が増加する。これらの点と、本発明が適用される装置の特性を勘案して、セルの数及びサイズを決定すれば良い。
上記の実施の形態では、画像メモリ14から読み出した画像の照明条件を、画像の輝度特徴量(例えば輝度平均値)から判定しているが、本発明はこれに限定されない。
例えば、照射部12へ与える制御信号C11aと同様に、照明条件(例えば発光強度)を示す信号を撮像部13へ与え、撮像部13が上記の信号に基づいて照明条件を判断し、撮像画像を画像メモリ14へ記憶させる際に照明条件を示す情報(付加情報)を付加し、輝度変化算出部21が、画像メモリ14から画像を読み出す際に、上記の付加情報に基づいて、画像の照明条件を判定することとしても良い。
上記の実施の形態では、画像メモリ14から輝度算出に使用された画像の何れか一方を読み出し、読み出した画像のうちの、被写体抽出部23で抽出した被写体領域に一致する部分を抽出結果(被写体画像)とした。しかしながら、本発明はこれに限定されない。
例えば、輝度変化算出部21で算出された輝度変化から成る画像(すべての画素の輝度変化を、それぞれの画素と同様に配列した画像)、即ち、輝度差分画像のうちの、被写体抽出部23で抽出した被写体領域に一致する部分を抽出結果(被写体画像)としても良い。輝度差分画像は、環境光の影響が取り除かれているので、輝度差分画像から抽出した画像を被写体画像とすればその点で有利である。
さらにまた、上記の実施の形態では、輝度変化算出部21が、画像メモリ14から最新の画像と1フレーム前の画像を読出し、2枚の画像間で、各画素の輝度変化を算出している。その結果、照明条件Aの画像Gaとそれに続く照明条件Bの画像Gbとの間で輝度変化を算出するとともに、上記照明条件Bの画像Gbとそれに続く照明条件Aの画像Gaとの間でも輝度変化を算出することになる。テクスチャ変化についても同様である。
上記のようにする代わりに、照明条件Aの画像Gaと、その直後のフレームの照明条件Bの画像Gbとの間で輝度変化を算出し、照明条件Aの画像Gaとその直前のフレームの照明条件Bの画像Gbとの間では輝度変化を算出しないように輝度変化算出部21を構成しても良い。言い換えれば最新の画像が照明条件Bの画像Gbで、その直前の画像が照明条件Aの画像Gaである場合に限り、輝度変化の算出を行うようにしても良い。テクスチャ変化算出部22も同様に、最新の画像が照明条件Bの画像Gbで、その直前の画像が照明条件Aの画像Gaである場合に限り、テクスチャ変化の算出を行うように構成しても良い。
その場合図13に示す手順の代わりに、図20に示す手順を用いる。図20では、図13のステップST7の代わりに、ステップST7aが行われる。ステップST7aでは、最新の画像が照明条件Bの画像Gbか否かの判定をし、判定結果がNOであれば、そのフレームでの処理を終了することとし、判定結果がYESであれば、ステップST8及びST9以降の処理を行う。
なお、逆に、最新の画像が照明条件Aの画像Gaで、その直前の画像が照明条件Bの画像Gbである場合に限り、輝度変化及びテクスチャ変化の算出を行うようにしても良い。
実施の形態2.
図21は、本発明の実施の形態2に係る撮像装置の構成を示すブロック図である。図21に示される撮像装置は、図1に示される撮像装置と概して同じであるが、目標値算出部24が追加され、撮像照射制御部11の代りに、撮像照射制御部11bを備える点で異なる。図1と同一の符号は同一又は相当部分を示すので説明を省略する。
図1に示す撮像装置では、照明条件及び撮像条件が固定されているが、本実施の形態に係る撮像装置では、目標値算出部24が、テクスチャ変化、被写体領域の抽出の結果及び撮像画像の輝度特徴量に基づいて照明条件及び撮像条件の少なくともいずれか一方を調整することにより、環境光或いは背景の変化に対して被写体領域の抽出の精度を向上させる。
照明条件或いは撮像条件の調整は、照明条件或いは撮像条件に係る目標値を調整し、照明条件或いは撮像条件に係る実際の値が、目標値に一致するように制御することで行われる。
撮像照射制御部11bは、目標値算出部24から照明条件及び撮像条件に係る目標値信号Qを供給され、目標値信号Qに基づいて、制御信号C11aを生成して、照射部12へ出力すると共に、制御信号C11bを生成して、撮像部13へ出力する。
目標値算出部24は、画像メモリ14から2つの照明条件で撮像された画像を読み出すとともに、テクスチャ変化算出部22からテクスチャ変化dFを供給され、さらに、被写体抽出部23から被写体領域の抽出の結果を供給され、これらの入力に基づいて、照明条件及び撮像条件の少なくとも一方の目標値を算出し、算出した目標値を表す目標値信号Qを撮像照射制御部11bへ出力する。
目標値算出部24が撮像照射制御部11bへ出力する目標値信号Qは、撮像照射制御部11bにおいて制御信号C11a及びC11bの生成に使用される。目標値信号Qは、例えば、照明光の照射分布の形状、照明光の発光強度、照明光の発光期間、撮像部の露光時間、絞り、及びゲインの少なくとも何れか一つの目標値を表すものである。但し、目標値信号Qは、照明光の照射分布の形状、照明光の発光強度、照明光の発光期間、撮像部の露光時間、絞り、ゲインを直接表す数値(絶対値)の目標値を表すものに限らず、相対値の目標値を表すものでも良く、さらに絶対値又は相対値をコード化したものでも良い。以下では、目標値信号Qは照明光の発光強度の目標値を表すものであるとして説明する。
目標値算出部24は、撮像部13が、輝度変化算出部21における輝度変化dIの算出及びテクスチャ変化算出部22におけるテクスチャ変化dFの算出に好適な画像を取得できるように上記の目標値を算出する。
目標値算出部24が算出した目標値は内部の目標値メモリ244(後述する)に蓄積される。
目標値算出部24は、撮像照射制御部11bが照明条件又は撮像条件の制御を行う際に、目標値メモリ244に蓄積された目標値を読み出し、読み出した目標値を表す目標値信号Qを撮像照射制御部11bに供給する。
目標値算出部24は、図22に示すように、被写体内変化領域抽出部241と、面積判定部242と、目標値調整部243と、目標値メモリ244とを有する。
被写体内変化領域抽出部241は、被写体抽出部23から出力される被写体領域Hの内部に位置し、テクスチャ変化dFが比較的大きい領域RLHを抽出する。
ここで、テクスチャ変化が比較的大きいか否かは、テクスチャ変化算出部22から出力されるテクスチャ変化dFに基づいて判定される。
例えば、上記のテクスチャ変化dFが閾値TFaより大きい領域を、テクスチャ変化領域RLHと判定し、それ以外の領域は無変化領域RLLと判定する。
被写体抽出部23においてテクスチャ変化dFが閾値TFより大きいと判定された領域(テクスチャ変化領域)との区別のため、被写体内変化領域抽出部241においてテクスチャ変化dFが閾値TFaより大きいと判定された領域を、被写体内変化領域と言う。
なお、閾値TFaは、例えば、TFa<TFを満たすように定められる。このように閾値TFaを設定することで、被写体抽出部23において閾値TFを使用して抽出された被写体領域(輝度変化dIが閾値TI以上であり、テクスチャ変化dFが閾値TF以下であると判定された領域)において、テクスチャ変化dFが、別の閾値TFaよりも大きい領域(被写体内変化領域)RLHを抽出することができる。
面積判定部242は、被写体内変化領域抽出部241で抽出された被写体内変化領域RLHの面積、例えば該領域RLHに含まれる画素の数)が閾値TAa以上か否かの判定を行い、判定結果を出力する。
被写体領域内におけるテクスチャ変化dFは、照明条件が変化した画像間でのテクスチャ変化を表しており、被写体内変化領域RLHは、照明条件の変化によりテクスチャ特徴が変化した領域と判断できる。
テクスチャ特徴は一般には照明条件の変化による変化は小さいが、それにも拘わらず、照明条件の変化によりテクスチャ特徴がある程度以上変化した場合、即ち、被写体内変化領域RLHの面積が閾値TAa以上である場合には、照明条件或いは撮像条件の調整(変更)が必要と判断する。
目標値調整部243は、面積判定部242で、被写体内変化領域RLHの面積が閾値TAa以上であると判定されると、その判定結果に応じて、新たな目標値を算出する。
新たな目標値は、2つの照明条件A及びBにおいて、発光強度の差が小さくなるように定められる。例えば、時刻t1aに照明条件A(発光強度ΦA(t1a))で撮像された画像と、時刻t1bに照明条件B(発光強度ΦB(t1b))で撮像された画像とを使用して、テクスチャ変化dFが算出されたのであれば、照明条件Aでの次の撮像の時刻t2aにおける発光強度の目標値ΦA(t2a)、及び照明条件Bでの次の撮像時刻t2bにおける発光強度の目標値ΦB(t2b)を、それぞれ式(5)及び式(6)のように調整する。このように目標値を調整することで、2つの照明条件A、Bにおける発光強度の目標値の差を小さくする。
ΦA(t2a)=ΦA(t1a)−ΔΦa …(5)
ΦB(t2b)=ΦB(t1b)+ΔΦa …(6)
式(5)及び式(6)でΔΦaは、調整量を表す。
発光強度の目標値を調整し、調整後の目標値を照射部12に与えることで、照射部12では、発光強度の実際の値が目標値に一致するように制御が行われる。
上記の調整に加えて、輝度変化dIを算出するために使用した画像Ga、Gbの中で、発光強度がより小さい条件Bで撮像された画像Gbのうちの、被写体内変化領域RLHと一致する領域の輝度特徴量Ihが閾値TLa以下の場合、上記の照明条件B(発光強度がより小さい照明条件B)における発光強度が大きくなるように目標値を調整する。即ち、上記の照明条件Bにおける発光強度の目標値ΦBを大きくする。
ここで言う、輝度特徴量Ihとは、例えば、輝度値の最大値、平均値又は中央値である。以下では、輝度値の平均値を輝度特徴量Ihとして使用するものとして説明する。
例えば、時刻t1aに照明条件A(発光強度ΦA(t1a))で撮像された画像Gaと、時刻t1bに照明条件B(発光強度ΦB(t1b))で撮像された画像Gbとを使用して輝度変化dIを算出したのであれば、照明条件Bでの次の撮像の時刻t2bにおける発光強度の目標値ΦB(t2b)を式(7)のように調整し、より大きくする。
ΦB(t2b)=ΦB(t1b)+ΔΦb …(7)
式(6)の処理と、式(7)の処理が同時に行われる場合、調整後の発光強度の目標値ΦB(t2b)は、下記の式(8)の如くとなる。
ΦB(t2b)=ΦB(t1b)+ΔΦa+ΔΦb …(8)
また、輝度変化dIを算出するために使用した画像Ga、Gbの中で、発光強度がより大きい条件(A)で撮像された画像Gaのうちの、被写体内変化領域RLHと一致する領域の輝度特徴量Ihが閾値TLbより大きい場合、上記の照明条件A(発光強度がより大きい条件A)における発光強度が小さくなるように目標値ΦAを調整する。即ち、上記の照明条件Aにおける発光強度の目標値ΦAを小さくする。
例えば、時刻t1aに照明条件A(発光強度ΦA(t1a))で撮像された画像Gaと、時刻t1bに照明条件B(発光強度ΦB(t1b))で撮像された画像Gbとを使用して輝度変化dIを算出したのであれば、照明条件Aでの次の撮像の時刻t2aにおける発光強度の目標値ΦA(t2a)を式(9)のように調整し、より小さくする。
ΦA(t2a)=ΦA(t1a)−ΔΦc …(9)
式(5)の処理と、式(9)の処理が同時に行われる場合、調整後の発光強度の目標値ΦA(t2a)は下記の式(10)の如くとなる。
ΦA(t2a)=ΦA(t1a)−ΔΦa−ΔΦc …(10)
一方、被写体内変化領域RLHが存在しない場合は、照明条件Aでの次の撮像の時刻t2aにおける発光強度の目標値ΦA(t2a)及び照明条件Bでの次の撮像の時刻t2bにおける発光強度の目標値ΦB(t2b)を、それぞれ式(11)及び式(12)のように調整する。このように調整することで、2つの照明条件A、Bにおける発光強度の差を大きくし、これにより被写体において、より大きな輝度変化dIが生じるようにする。
ΦA(t2a)=ΦA(t1a)+ΔΦd …(11)
ΦB(t2b)=ΦB(t1b)−ΔΦd …(12)
上記のように発光強度を変化させることで、被写体領域において十分に大きな輝度変化dIを生じさせることができる。
式(5)から式(12)に示した更新規則に応じて目標値を調整する際、調整量ΔΦa〜ΔΦdは発光強度ΦA及びΦBと比較して十分に小さいものとする。調整量ΔΦa〜ΔΦdが大きすぎる場合、発光強度ΦA及びΦBが発振してしまい、望ましくない。また、発光強度ΦA及びΦBを安定させる上では、更新までの時間遅れが重要であり、これらを考慮して調整量ΔΦa〜ΔΦdの大きさを設定する。
目標値調整部243は、以上のように更新した目標値を目標値メモリ244に書き込むとともに、目標値を表す目標値信号Qを撮像照射制御部11bへ供給する。
以下、実施の形態2の撮像装置における処理の手順を図23及び図24のフローチャートを用いて説明する。図23及び図24に示される処理の手順は、図13に示される方法と概して同じであるが、ステップST1の代りにステップST1bを含み、ステップST31〜ST34が付加されている点で異なる。図23及び図24において、図13と同じ符号は、同一又は相当するステップを示す。
ステップST1bで、撮像照射制御部11bは、目標値算出部24から照明条件及び撮像条件の目標値を表す目標値信号Qを供給され、目標値信号Qに応じて制御信号C11a及び制御信号C11bを出力する。
照明条件は、図13のステップST1と同様、2フレーム期間を1サイクルとして変化するように制御される。
ステップST31で、被写体内変化領域抽出部241が、ステップST10で検出された被写体領域Hと、ステップST9で算出されたテクスチャ変化dFとから被写体内変化領域RLHを抽出する。
次にステップST32で、面積判定部242が、ステップST31で抽出された被写体内変化領域RLHの面積が閾値TAa以上か否かを判定する。
被写体内変化領域RLHの面積が閾値TAa未満であれば、そのフレームの処理を終了する。
被写体内変化領域RLHの面積が閾値TAa以上であれば、ステップST33に進む。
ステップST33で、目標値調整部243が、目標値メモリ244に記憶されている目標値を読み出し、ステップST31で抽出された被写体内変化領域RLHと、ステップST9において算出されたテクスチャ変化dFと、画像メモリ14に記憶されている画像データ(最新の画像データ)から、新たな目標値を算出し、算出した新たな目標値を目標値メモリ244に書き込む(例えば古い目標値に対して上書きする)とともに、新たな目標値を表す目標値信号Qを撮像照射制御部11bへ供給する。
新たな目標値の算出は、式(5)〜式(12)を参照して説明したように行うことができる。
次に、ステップST34で、撮像照射制御部11bは、目標値算出部24から供給される目標値信号Qに基づいて、制御信号C11a、C11bの生成(その内容の更新)を行う。
制御信号C11a、C11bによって、2フレーム期間から成る各サイクルにおける各順位のフレーム(第1フレーム、第2フレーム)における照明条件が更新される。更新の後、各フレームの撮像を行う場合には、当該順位のフレームについての更新後の照明条件で撮像が行われる。
上記の実施の形態では、目標値算出部24が、照明条件の目標値として、照明光の発光強度の目標値を算出することとしているが、代わりに、照明光の照射分布の目標値を算出しても良く、照明光の発光強度の目標値と、照明光の照射分布の目標値の双方を算出することとしても良い。
上記の実施の形態では、輝度変化dIを算出するために使用した画像Ga、Gbのうちの被写体内変化領域RLHと一致する領域の輝度特徴量に基づいて、照明条件の調整(新たな目標値の決定)を行っている。しかしながら、本発明はこれに限定されない。例えば、輝度変化dIを算出するために使用した画像Ga、Gbの被写体領域の全体の輝度特徴量に基づいて、照明条件の調整(新たな目標値の決定)を行うこととしても良い。
以上のように、本実施の形態に係る撮像装置では、被写体領域として抽出された領域内において、輝度特徴量Ih及びテクスチャ変化dFの少なくとも何れか一方に基づいて、照明条件及び撮像条件の少なくとも何れか一方の目標値を算出し、算出した目標値を表す目標値信号Qに基づいて撮像照射制御部11bが制御信号C11a、C11bを出力することとしており、これにより、環境光の変化に対し、被写体領域の抽出に好適な画像を取得することができ、被写体領域の抽出の精度を向上させることができる。
特に、照明条件の目標値として、照明光の照射分布及び照明光の発光強度の少なくとも何れか一方の目標値を算出することとすれば、局所的な環境光の変化に対し、被写体領域の抽出に好適な画像を取得することができ、被写体領域の抽出の精度を向上させることができる。
また、本実施の形態に係る撮像装置では、抽出された被写体領域において、異なる照明条件の画像を用いて算出されたテクスチャ変化dFが閾値TFaよりも大きい領域(被写体内変化領域RLH)の面積が閾値(TAa)以上であるときに、異なる照明条件の画像間でのテクスチャ変化dFが小さくなるように照明条件及び撮像条件の少なくとも何れか一方の目標値を算出する。また、抽出された被写体領域において、異なる照明条件の画像を用いて算出されたテクスチャ変化dFが閾値TFaよりも大きい領域(被写体内変化領域RLH)が存在しないときに、異なる照明条件の画像間でのテクスチャ変化dFが大きくなるように照明条件及び撮像条件の少なくとも何れか一方の目標値を算出する。これにより、環境光の変化に対し、被写体領域の抽出に好適な画像を取得することができ、被写体領域の抽出の精度を向上させることができる。
さらに、本実施の形態に係る撮像装置では、抽出された被写体領域において、異なる照明条件の画像を用いて算出されたテクスチャ変化dFが閾値TFaよりも大きい領域(被写体内変化領域RLH)の面積が閾値(TAa)以上であり、且つ輝度変化dIの算出に使用された画像のうち発光強度がより小さい照明条件の画像のうちの、上記の被写体領域の輝度特徴量、例えば、被写体内変化領域RLH内の輝度特徴量Ihが閾値以下であるときに、上記の照明条件(発光強度がより小さい照明条件)の発光強度を大きくするように照明条件の目標値を算出する(即ち、発光強度の目標値を大きくする)。また、抽出された被写体領域において、異なる照明条件の画像を用いて算出されたテクスチャ変化dFが閾値TFaよりも大きい領域(被写体内変化領域RLH)の面積が閾値(TAa)以上であり、且つ輝度変化dIの算出に使用された画像のうち発光強度がより大きい照明条件の画像のうちの、上記の被写体領域の輝度特徴量、例えば、被写体内変化領域RLH内の輝度特徴量Ihが閾値より大きいときに、上記の照明条件(発光強度がより大きい照明条件)の発光強度を小さくするように照明条件に係る目標値を算出する(即ち、発光強度の目標値を小さくする)。これにより、環境光の変化に対し、被写体領域の抽出に好適な画像を取得することができ、被写体領域の抽出の精度を向上させることができる。
実施の形態3.
図25は、本発明の実施の形態3に係る撮像装置の構成を示すブロック図である。図25に示される撮像装置は、図21に示される撮像装置と概して同じであるが、図21の撮像照射制御部11b、輝度変化算出部21、テクスチャ変化算出部22、被写体抽出部23、及び目標値算出部24の代わりに、撮像照射制御部11c、輝度変化算出部21c、テクスチャ変化算出部22c、被写体抽出部23c、及び目標値算出部24cを備える点で異なる。図21と同一の符号は同一又は相当部分を示すので説明を省略する。
実施の形態2では、テクスチャ変化算出部22が、異なる時刻における異なる照明条件下で撮像された2枚の画像から、単一のテクスチャ変化dFを算出する。これに対し、実施の形態3では、テクスチャ変化算出部22cが、異なる時刻における同じ照明条件下で撮像された2枚の画像から、第1のテクスチャ変化dF1を算出するとともに、異なる時刻における異なる照明条件下で撮像された2枚の画像から、第2のテクスチャ変化dF2を算出する。
上記のように2つのテクスチャ変化dF1、dF2を算出することを可能にするため、図25の撮像照射制御部11cは、照明条件の変更を、3フレーム期間を周期(1サイクル)として行い、各周期において、照明条件Aを1フレーム期間生成した後、照明条件Bを2フレーム続けて生成する。即ち、各サイクルの第1フレームでは、第1の照明条件Aで撮像を行い、第2フレーム及び第3フレームでは、第2の照明条件Bで撮像を行う。このようにする結果、第1フレームと第2フレームとは照明条件が異なり、第2フレームと第3フレームとは照明条件が同じとなる。
そして、第1フレームの画像Gaと第2フレームの画像Gb1から、輝度変化dI及び第2のテクスチャ変化dF2を算出し、第2フレームの画像Gb1と第3フレームの画像Gb2から第1のテクスチャ変化dF1を算出する。
そして、上記のように算出された輝度変化dI及び第1のテクスチャ変化dF1から被写体領域を抽出する。さらに、このようにして抽出された被写体領域と、第2のテクスチャ変化dF2とから、被写体内変化領域RLHを抽出する。
輝度変化算出部21cは、図26に示すように、輝度特徴量算出部211と、輝度特徴量メモリ212と、照明条件判定部213cと、差分算出部215と、輝度変化メモリ216とを有する。
輝度特徴量算出部211は、画像メモリ14から読み出された各フレームの画像の輝度特徴量Imを算出し、算出した輝度特徴量Imを輝度特徴量メモリ212に記憶させる。
照明条件判定部213cは、輝度特徴量算出部211で算出された最新の画像(最新のフレームの画像)の輝度特徴量Imと、輝度特徴量メモリ212に記憶されている、1フレーム前の画像の輝度特徴量Im及び2フレーム前の画像の輝度特徴量Imとを比較する。これらの画像は、互いに連続する3つのフレームの画像である。照明条件判定部213cは、これらの3つのフレームの画像の輝度特徴量Imを比較し、比較の結果に基づいて、どの画像が照明条件Aの画像Gaであり、どの画像が照明条件Bの画像Gb1、Gb2であるかの判定を行う。さらに、各画像が、照明条件の変化の各サイクル中の何番目の画像であるかの判定を行う。この判定の結果CNbは、差分算出部215及びテクスチャ変化算出部22cに供給される。
差分算出部215は、照明条件判定部213cから上記の判定結果CNbを受けることで、最新の画像が、照明条件変化の各サイクル中の何番目の画像であるかを認識する。そして、照明条件の変化の各サイクル中の1番目の画像(照明条件Aの画像)Gaの各画素の輝度値から、照明条件の変化の各サイクル中の2番目の画像(照明条件Bの画像)Gb1の、同じ位置の画素の輝度値を差し引くことで、輝度差分を求め、輝度変化dIとして出力する。
実施の形態1で述べたのと同様に、差し引いた結果が負の値となる場合には、輝度差分は0であるとする。
テクスチャ変化算出部22cは、第1のテクスチャ変化dF1を被写体抽出部23cに出力し、第2のテクスチャ変化dF2を目標値算出部24cに出力する。
テクスチャ変化算出部22cは、図27に示すように、CSLBP特徴算出部221と、CSLBP特徴メモリ222と、テクスチャ特徴算出部223と、テクスチャ特徴メモリ224と、特徴変化処理部225cと、テクスチャ変化メモリ226とを有する。
図27のうち、CSLBP特徴算出部221、CSLBP特徴メモリ222、及びテクスチャ特徴算出部223は、図4に示されるものと同じである。
特徴変化処理部225cは、輝度変化算出部21c内の照明条件判定部213cから上記の判定結果CNbを受けることで、最新の画像が、照明条件変化の各サイクル中の何番目の画像であるかを認識する。そして、各サイクル中の1番目の画像Gaと2番目の画像Gb1とのテクスチャ変化を、第2のテクスチャ変化dF2として算出する。また、各サイクル中の2番目の画像Gb1の3番目の画像Gb2とのテクスチャ変化を、第1のテクスチャ変化dF1として算出する。
算出された第1のテクスチャ変化dF1及び第2のテクスチャ変化dF2は、テクスチャ変化メモリ226に蓄積される。蓄積された第1のテクスチャ変化dF1は、後に被写体抽出部23cに供給される。蓄積された第2のテクスチャ変化dF2は、後に目標値算出部24cに供給される。
被写体抽出部23cは、実施の形態1で説明した被写体抽出部23と同様のものである。但し、テクスチャ変化として第1のテクスチャ変化dF1を用いる。
即ち、被写体抽出部23cは、輝度変化算出部21cで算出された輝度変化dIと、テクスチャ変化算出部22cで算出された第1のテクスチャ変化dF1とに基づいて、被写体領域を抽出し、抽出結果Hを目標値算出部24cへ出力する。
被写体抽出部23cが輝度変化dI及びテクスチャ変化dF1に基づいて被写体領域を抽出する処理は、実施の形態1において、被写体抽出部23が輝度変化dI及びテクスチャ変化dFに基づいて被写体領域を抽出する処理と同じである。
目標値算出部24cは、画像メモリ14から2つの照明条件で撮像された画像を読み出し、テクスチャ変化算出部22cから第2のテクスチャ変化dF2が供給され、被写体抽出部23cから被写体領域Hの抽出結果を供給され、これらの入力に基づいて、照明条件及び撮像条件の少なくとも何れか一つに係る目標値を算出し、算出した目標値を表す目標値信号Qを撮像照射制御部11cへ出力する。
目標値算出部24cは、実施の形態2の目標値算出部24と同様のものであり、目標値算出部24cが撮像照射制御部11cへ供給する目標値信号Qは、実施の形態2で説明したのと同様のものである。但し、テクスチャ変化として第2のテクスチャ変化dF2が供給される。
以下目標値の調整方法について詳しく説明する。
目標値算出部24cの被写体内変化領域抽出部241は、被写体抽出部23cから出力される被写体領域Hの内部に位置し、テクスチャ変化が比較的大きい領域RLHを抽出する。
ここで、テクスチャ変化が比較的大きいか否かは、テクスチャ変化算出部22cから出力されるテクスチャ変化dF2に基づいて判定される。
例えば、上記のテクスチャ変化dF2が閾値TFaより大きい領域を被写体内変化領域RLHと判定し、それ以外の領域は無変化領域RLLと判定する。
なお、閾値TFaについて、実施の形態2では、TFa<TFが好ましいと述べたが、実施の形態3ではそのような制約はない。
この処理を行うことで、被写体抽出部23cにおいて第1のテクスチャ変化dF1が閾値TF以下であると判定された被写体領域内において、第2のテクスチャ変化dF2が、閾値TFa(閾値TFとは異なる)よりも大きい領域(被写体内変化領域)RLHを抽出することができる。
面積判定部242は、被写体内変化領域抽出部241で抽出された被写体内変化領域RLHの面積、例えば該領域RLHに含まれる画素の数が閾値TAa以上か否かの判定を行い、判定結果を出力する。
目標値調整部243は、面積判定部242で、被写体内変化領域RLHの面積が閾値TAa以上であると判定されると、その判定結果に応じて、新たな目標値を算出する。
新たな目標値は、2つの照明条件A及びBにおいて、発光強度の差が小さくなるように定められる。例えば、時刻t1aに照明条件A(発光強度ΦA(t1a))で撮像された画像と、時刻t1bに照明条件B(発光強度ΦB(t1b))で撮像された画像とを使用して、第2のテクスチャ変化dF2が算出されたのであれば、照明条件Aでの次の撮像の時刻t2aにおける発光強度の目標値ΦA(t2a)、及び照明条件Bでの次の撮像の時刻t2bにおける発光強度の目標値ΦB(t2b)を、それぞれ式(13)及び式(14)のように調整する。このように目標値を調整することで、2つの照明条件A、Bにおける発光強度の差を小さくする。
ΦA(t2a)=ΦA(t1a)−ΔΦa …(13)
ΦB(t2b)=ΦB(t1b)+ΔΦa …(14)
式(13)及び式(14)でΔΦaは、調整量を表す。
発光強度の目標値を調整し、調整後の目標値を照射部12に与えることで、照射部12では、発光強度の実際の値が目標値に一致するように制御が行われる。
上記の調整に加えて、輝度変化dIを算出するために使用した画像Ga、Gb1の中で、発光強度がより小さい条件Bで撮像された画像Gb1のうちの、被写体内変化領域RLHと一致する領域の輝度特徴量Ihが閾値TLa以下の場合、上記の照明条件B(発光強度がより小さい照明条件B)における発光強度が大きくなるように目標値を調整する。即ち、上記の照明条件Bにおける発光強度の目標値ΦBを大きくする。
ここで言う輝度特徴量Ihとは、例えば、輝度値の最大値、平均値及び中央値である。以下では、輝度値の平均値を輝度特徴量Ihとして使用するものとして説明する。
例えば、時刻t1aに照明条件A(発光強度ΦA(t1a))で撮像された画像Gaと、時刻t1bに照明条件B(発光強度ΦB(t1b))で撮像された画像Gb1とを使用して輝度変化dIを算出したのであれば、照明条件Bでの次の撮像の時刻t2bにおける発光強度の目標値ΦB(t2b)を式(15)のように調整し、より大きくする。
ΦB(t2b)=ΦB(t1b)+ΔΦb …(15)
式(14)の処理と、式(15)の処理が同時に行われる場合、調整後の発光強度の目標値ΦB(t2b)は、下記の式(16)の如くとなる。
ΦB(t2b)=ΦB(t1b)+ΔΦa+ΔΦb …(16)
また、輝度変化dIを算出するために使用した画像Ga、Gb1の中で、発光強度がより大きい条件(A)で撮像された画像Gaのうちの、被写体内変化領域RLHと一致する領域の輝度特徴量Ihが閾値TLbより大きい場合、上記の照明条件A(発光強度がより大きい条件A)における発光強度が小さくなるように目標値ΦAを調整する。即ち、上記の照明条件Aにおける発光強度の目標値ΦAを小さくする。
例えば、時刻t1aに照明条件A(発光強度ΦA(t1a))で撮像された画像Gaと、時刻t1bに照明条件B(発光強度ΦB(t1b))で撮像された画像Gb1とを使用して輝度変化dIを算出したのであれば、照明条件Aでの次の撮像の時刻t2aにおける発光強度の目標値ΦA(t2a)を式(17)のように調整し、より小さくする。
ΦA(t2a)=ΦA(t1a)−ΔΦc …(17)
式(13)の処理と、式(17)の処理が同時に行われる場合、調整後の発光強度の目標値ΦA(t2a)は下記の式(18)の如くとなる。
ΦA(t2a)=ΦA(t1a)−ΔΦa−ΔΦc …(18)
一方、被写体内変化領域RLHが存在しない場合は、照明条件Aでの次の撮像の時刻t2aにおける発光強度の目標値ΦA(t2a)及び照明条件Bでの次の撮像の時刻t2bにおける発光強度の目標値ΦB(t2b)を、それぞれ式(19)及び式(20)のように調整する。このように調整することで、2つの照明条件A、Bにおける発光強度の差を大きくし、これにより被写体において、より大きな輝度変化dIが生じるようにする。
ΦA(t2a)=ΦA(t1a)+ΔΦd …(19)
ΦB(t2b)=ΦB(t1b)−ΔΦd …(20)
上記のように発光強度を変化させることで、被写体領域において十分に大きな輝度変化dIを生じさせることができる。
式(13)から式(20)に示した更新規則に応じて目標値を調整する際、調整量ΔΦa〜ΔΦdは発光強度ΦA及びΦBと比較して十分に小さいものとする。調整量ΔΦa〜ΔΦdが大きすぎる場合、発光強度ΦA及びΦBが発振してしまい、望ましくない。また、発光強度ΦA及びΦBを安定させる上では、更新までの時間遅れが重要であり、これらを考慮して調整量ΔΦa〜ΔΦdの大きさを設定する。
目標値調整部243は、以上のように更新した目標値を目標値メモリ244に書き込むとともに、目標値を表す目標値信号Qを撮像照射制御部11cへ供給する。
以下、実施の形態3の撮像装置における処理の手順を図28及び図29のフローチャートを用いて説明する。図28及び図29に示される手順は、図23及び図24に示される手順と概して同じであるが、ステップST1b、ST7、ST8、ST9、ST10、ST31の代わりにステップST1c、ST7c、ST8c、ST9c、ST10d、ST31dを含む点で異なる。図28及び図29において、図23及び図24と同じ符号は、同一又は相当するステップを示す。
ステップST1cで、撮像照射制御部11cは、目標値算出部24cから照明条件及び撮像条件の目標値を表す目標値信号Qを供給され、目標値信号Qに応じて制御信号C11a及び制御信号C11bを出力する。
ステップST1cは、図23のステップST1bと同様であるが、図28のステップST1cでは、照明条件が3フレーム期間を1サイクルとして変化する点で異なる。
ステップST7cでは、最新の画像と1フレーム前の画像の組合せについて、画像の照明条件の判定を行う。この判定においては、最新の画像と、1フレーム前の画像の組合せが、3フレーム周期のうちの第1フレームの画像と第2フレームの画像の組合せ(AB)であるか、第2フレームの画像と第3フレームの画像の組合せ(BB)であるか、第3フレームの画像と(次の3フレーム周期の)第1フレームの画像の組合せ(BA)であるかを判定する。この判定は、実施の形態1で説明したのと相前後して供給されるフレームの画像の明るさの変化を記憶し、比較することで行われる。
なお、撮像照射制御部11cから制御信号C11a、C11bを得て、該制御信号に基づいてこの判定を行っても良い。
ステップST7cで、第1フレームと第2フレーム画像の組合せ(AB)であると判定したときは、ステップST8c及びステップST9cに進む。
ステップST8c及びステップST9cの処理は、実施の形態1におけるステップST8及びST9の処理と同様である。
即ち、ステップST8cでは、輝度変化算出部21cの差分算出部215が、最新のフレームの画像(第2フレーム画像)と1フレーム前の画像(第1フレーム画像)の各画素の輝度変化dIを算出する。そして、算出した各画素の輝度変化dIを輝度変化メモリ216に記憶させる。
ステップST9cでは、テクスチャ変化算出部22cが、最新のフレームの画像(第2フレーム画像)と1フレーム前の画像(第1フレーム画像)の各画素のテクスチャ変化を算出し、算出したテクスチャ変化を第2のテクスチャ変化dF2として出力するとともに、テクスチャ変化メモリ226に記憶させる。
ステップST8c及びST9cの処理の後、このフレーム期間における処理を終了する。
ステップST8cで輝度変化メモリ216に記憶された輝度変化dI、及びステップST9cでテクスチャ変化メモリ226に記憶された第2のテクスチャ変化dF2は次のフレーム期間に利用される。
ステップST7cで、第2フレーム画像と第3フレーム画像の組合せ(BB)であると判定した場合には、ステップST9dに進む。
ステップST9dでは、テクスチャ変化算出部22cが、最新のフレームの画像(第3フレーム画像)と1フレーム前の画像(第2フレーム画像)の各画素のテクスチャ変化を算出し、第1のテクスチャ変化dF1として出力するとともに、テクスチャ変化メモリ226に記憶させる。
ステップST9dの次のステップST10dでは、被写体領域を抽出する。この処理は、図13のステップST10と同じである。但し、図13のステップST10ではテクスチャ変化dFを用いるが、図29のステップST10dでは、ステップST9dで算出された第1のテクスチャ変化dF1を用いる。また、輝度変化dIとしては1フレーム期間前にステップST8cで算出されたものを用いる。
ステップST10dの次に、ステップST31dに進む。
ステップST31dの処理は、図24のステップST31の処理と同様であるが、被写体内変化領域RLHの検出のため、ステップST9cで算出された第2のテクスチャ変化dF2を用いる。
即ち、ステップST31dで、被写体内変化領域抽出部241が、ステップST10dで検出された被写体領域Hと、ステップST9cで算出された第2のテクスチャ変化dF2とから被写体内変化領域RLHを抽出する。
ステップST31dの次に、ステップST32、ST33及びST34の処理を行う。これらの処理は図24のステップST32、ST33及びST34と同様である。
即ち、ステップST32で、面積判定部242が、ステップST31dで抽出された被写体内変化領域RLHの面積が閾値TAa以上か否かを判定する。
被写体内変化領域RLHの面積が閾値TAa未満であれば、そのフレームの処理を終了する。
被写体内変化領域RLHの面積が閾値TAa以上であれば、ステップST33に進む。
ステップST33で、目標値調整部243が、目標値メモリ244に記憶されている目標値を読み出し、ステップST31dで抽出された被写体内変化領域RLHと、(前のフレーム期間における)ステップST9cにおいて算出された第2のテクスチャ変化dF2と、画像メモリ14に蓄積されている画像データ(最新のフレームの画像データ)から、新たな目標値を算出し、算出した新たな目標値を目標値メモリ244に書き込む(例えば古い目標値に対して上書きする)とともに、新たな目標値を表す目標値信号Qを撮像照射制御部11cへ供給する。
新たな目標値の算出は、式(13)〜式(20)を参照して説明したように行うことができる。
次に、ステップST34で、撮像照射制御部11cは、目標値算出部24cから供給される目標値信号Qに基づいて、制御信号C11a、C11bの生成(その内容を更新)を行う。
制御信号C11a、C11bによって、3フレーム期間から成る各サイクルにおける各順位のフレーム(第1フレーム、第2フレーム、第3フレーム)における照明条件が更新される。更新の後、各順位のフレームの撮像を行う場合には、当該順位のフレームについての更新後の照明条件で撮像が行われる。
実施の形態3では、実施の形態2でテクスチャ変化dFを用いて行う目標値の更新の処理を、第2のテクスチャ変化dF2を用いて行う。
第2のテクスチャ変化dF2は異なる時間に、異なる照明条件での撮像で得られた画像間のテクスチャ変化であるので、実施の形態2における「テクスチャ変化」と同じである。従って、実施の形態3でも実施の形態2と同様の効果を得ることができる。
実施の形態2及び3では、目標値算出部24又は24cが調整する目標値が、照明光の発光強度の目標値である。しかしながら、本発明はこれに限定されず、上記の目標値は、照明光の照射分布の形状、照明光の発光期間、撮像部13の露光時間、絞り、及びゲインの少なくともいずれか1つ以上の目標値であれば良い。例えば、画像上で局所的に被写体内変化領域RLH、又は無変化領域RLLが位置する場合は、照射分布を調整することで、局所的な発光強度を調整することとしても良い。また、被写体内変化領域RLHにおける輝度特徴量Ihが閾値TLa’以下である場合、或いは閾値TLb’より大きい場合は、例えば、露光時間を調整することで輝度特徴量Ihを調整することとしても良い。この場合に用いる閾値TLa’、TLb’は、上記の発光強度の調整の判断に用いた閾値TLa、TLbと同じであっても良く、異なっていても良い。
また、実施の形態2及び3では、2枚の画像間で輝度変化及びテクスチャ変化の算出を行っているが、3枚以上の画像間で輝度変化及びテクスチャ変化の算出を行うようにしても良い。要するに複数の画像間で輝度変化及びテクスチャ変化の算出を行うこととすれば良い。3枚以上の画像間で輝度変化を行う場合には、それぞれの画像としては、互いに異なる照明条件での撮像で得られたものを用い、3枚以上の画像間でテクスチャ変化を行う場合には、それぞれの画像としては、互いに異なる時刻における撮像で得られたものを用いる。互いに異なる時刻における撮像で得られた画像は、互いに異なる照明条件での撮像で得られた画像であっても良い。従って、輝度変化の算出に用いられた画像と同じものであっても良い。
3枚以上の画像を用いて算出された輝度変化及びテクスチャ変化から、照明条件又は撮像条件の目標値を調整する場合、上記の説明中の、「発光強度がより小さい照明条件の画像」を用いた処理として、「発光強度が最も小さい照明条件の画像」を用いた処理を行い、「発光強度がより大きい照明条件の画像」を用いた処理として、「発光強度が最も大きい照明条件の画像」を用いた処理を行い、「より小さい発光強度」に対する処理(目標値の調整)として、「最も小さい発光強度」に対する処理を行い、「より大きい発光強度」に対する処理(目標値の調整)として、「最も大きい発光強度」に対する処理を行うこととしても良い。
なおまた、実施の形態2及び3では、被写体内変化領域RHLの面積に対する閾値TAaの大きさは固定された値であったが、適用的に変化させても良い。例えば、抽出された被写体領域Hの面積に応じて閾値TAaの大きさを修正するとしても良い。この場合、抽出された被写体領域の面積が大きければ閾値TAaの値を大きく、被写体領域Hの面積が小さければ閾値TAaの値を小さく修正する。
なおまた、実施の形態2及び3では、調整量ΔΦa〜ΔΦdの大きさは固定された値であったが、適用的に変化させても良い。例えば、被写体領域における被写体内変化領域RLH及び無変化領域RLLの面積の割合に応じて調整量ΔΦa〜ΔΦdの大きさを修正することとしても良い。
また、式(5)〜式(20)のように、すべての照明条件に対して同じ大きさの調整量ΔΦa〜ΔΦdを用いる必要はなく、異なる大きさの調整量ΔΦa〜ΔΦdを使用して良い。
さらにまた、上記の例では、テクスチャ変化算出部22cは、画像メモリ14から読み出された3枚の画像の各々が、照明条件変化の各サイクル中の何番目の画像であるかを、輝度変化算出部21cから通知されるが、テクスチャ変化算出部22cが、独自に判定を行うこととしても良い。この場合、輝度変化算出部21cと同様に画像の輝度特徴量Imから判定しても良い。
実施の形態4.
図30は、本発明の実施の形態4に係る操作装置の構成を示すブロック図である。図30に示す操作装置は、図21に示される撮像装置と同様の撮像装置と、被写体認識部25と操作決定部26とを組合せたものである。但し、図21のテクスチャ変化算出部22の代りにテクスチャ変化算出部22dを備える。図21と同一の符号は同一又は相当部分を示すので説明は省略する。
また、本実施の形態では、被写体が人の手である場合を想定する。
テクスチャ変化算出部22dは、画像メモリ14に蓄積されている複数の画像を順次読出し、各画像を構成する画素の各々についてテクスチャ特徴Fを求め、2つの異なる時刻における撮像で得られた2枚の画像間のテクスチャ変化dFを算出し、算出したテクスチャ変化dFを被写体抽出部23、目標値算出部24、及び被写体認識部25へ供給するとともに、テクスチャ特徴Fを被写体認識部25へ供給する。
テクスチャ変化算出部22dは、図31に示すように、CSLBP特徴算出部221と、CSLBP特徴メモリ222と、テクスチャ特徴算出部223と、テクスチャ特徴メモリ224dと、特徴変化処理部225と、テクスチャ変化メモリ226とを備える。
図31のうち、CSLBP特徴算出部221、CSLBP特徴メモリ222、テクスチャ特徴算出部223及び特徴変化処理部225は、図4に示されるものと同じである。
テクスチャ特徴メモリ224dは、図4のテクスチャ特徴メモリ224と同様の機能を有するが、特徴変化処理部225以外から、特に被写体認識部25からも読み出し可能である点で、図4のテクスチャ特徴メモリ224とは異なる。
被写体認識部25は、被写体抽出部23から供給される被写体領域Hの抽出結果Hと、テクスチャ変化算出部22dから供給されるテクスチャ変化dF及びテクスチャ特徴Fと、画像メモリ14から読み出された画像Gを入力として、これらに基づいて被写体の形状及び動きの少なくとも何れか一方を認識し、認識結果を操作決定部26へ出力する。
被写体認識部25は、例えば、人によるジェスチャーを認識する。ジェスチャーには、例えば、手の形状(グー、チョキ、パー等)による形状ジェスチャーと、手の動き(手の横振り、縦振り、捻り動作)による動きジェスチャーが含まれる。
被写体認識部25は、図32に示すように、形状認識部251と、動き認識部252と、基準データメモリ253とを有する。
形状ジェスチャーについては、予め定められた形状の特徴量を表す基準データSsを基準データメモリ253に予め登録しておき、形状認識部251が、撮像部13で撮像された被写体の形状を、基準データSsと照合することで、形状ジェスチャーを認識する。
基準データSsは、手の形状が特定のジェスチャーを意図したものであると認定されるために満たすべき条件を表すものであり、条件を満たすか否かの判定には例えば手の形状の特徴量に対する閾値処理(手の形状の特徴量が閾値に対して予め定められた関係を有するか否かの判定)が含まれる。
例えば、特定のジェスチャーを意図する手の形状を表すデータを取り込み、それとの違いが予め定められた閾値以下であるかによって判定を行う場合、上記の取り込んだデータと、上記の閾値を表すデータとで基準データSsが構成される。
基準データSsを学習によって修正していくことも可能である。学習の方法として、例えば、Adaboostという手法や、Support Vector Machineという手法が知られている。
手の形状の特徴量としては、手と背景の境界線(手のエッジ)の特徴量を利用し得るほか、手の領域(被写体領域)におけるテクスチャ特徴を利用することができる。
手と背景の境界線としては、被写体抽出部23において抽出された被写体領域Hの輪郭を表すデータを利用し得る。この場合には、形状認識部251は被写体抽出部23からの被写体領域Hの抽出結果を示すデータに基づいて手の形状を特定する。
テクスチャ特徴Fを用いて手と背景の境界線を抽出することも可能である。
例えば、手と背景の境界線を解析することで手の形状、例えば手を握っている状態(グー)か手を開いている状態(パー)かを判定することができる。手と背景の境界線の抽出に当たっては、手と背景の模様や凹凸、反射率の違いに対応するテクスチャ特徴の違いを利用することができる。この場合には、形状認識部251はテクスチャ特徴メモリ224dに蓄積されているテクスチャ特徴Fに基づいて手の形状を特定する。
手領域の内部においても、指の形状などによって、表面の凹凸の違いが現れることがある。例えば、手を握っており(グーの状態)掌が指で隠れている場合と、手を開いており(パーの状態)掌が現れている場合とでは、表面の凹凸の違いが生じる。このような違いを、テクスチャ特徴に基づいて判別することができる。従って、テクスチャ特徴を用いることで、特定の手の形状(グーか、パーか等)を表す特徴を抽出できる。この場合には、形状認識部251は、形状認識部251はテクスチャ特徴メモリ224dに蓄積されているテクスチャ特徴Fのうち、被写体抽出部23で抽出した被写体領域H内の画素についてのテクスチャ特徴Fに基づいて手の形状を特定する。
動きジェスチャーについては、予め定められた動きの特徴量を表す基準データSmを基準データメモリ253に予め登録しておき、動き認識部252が、撮像部13で撮像された被写体の動きを、基準データSmと照合することで、動きジェスチャーを認識する。
基準データSmは、手の動きが特定のジェスチャーを意図したものであると認定されるために満たすべき条件を表すものであり、条件を満たすか否かの判定には例えば手の動きの特徴量に対する閾値処理(手の動きの特徴量が閾値に対して予め定められた関係を有するか否かの判定)が含まれる。
例えば、特定のジェスチャーを意図する手の動きを表すデータを取り込み、それとの違いが予め定められた閾値以下であるかによって判定を行う場合、上記の取り込んだデータと、上記の閾値を表すデータとで基準データSmが構成される。
手の形状によるジェスチャーについて述べたのと同様に、手の動きによるジェスチャーについても、基準データSmを学習によって修正していくことも可能である。
動きの特徴量としては、例えば、被写体中心の位置の変化、速度、及び加速度に加え、テクスチャ変化dFを用い得る。
手の横振り、縦振り等については、被写体の中心位置をトラッキングすることで位置の変化、速度、加速度等を観測でき、これらを特徴量として使用することができる。中心位置の特定には、手の形状、特に背景との境界線を特定する必要がある。
手の形状の特定には、被写体抽出部23からの被写体領域Hの抽出結果を示すデータを利用することができる。この場合には、動き認識部252はテクスチャ特徴メモリ224dに蓄積されているテクスチャ特徴Fに基づいて手の形状を特定する。
手の形状の特定には、形状認識部251について述べたように、テクスチャ特徴メモリ224dに蓄積されているテクスチャ特徴Fを利用することができる。この場合には、動き認識部252はテクスチャ特徴メモリ224dに蓄積されているテクスチャ特徴Fに基づいて手の形状を特定する。
手と背景との境界線の変化が少ない手の捻り動作等は、テクスチャ変化算出部22dから出力されるテクスチャ変化dF、或いはテクスチャ特徴Fの時系列を特徴量として利用することができる。この場合には、動き認識部252はテクスチャ変化メモリ226に蓄積されているテクスチャ変化dFのうち、被写体抽出部23で抽出した被写体領域H内の画素についてのテクスチャ変化dF、或いは特徴Fテクスチャ特徴メモリ224dに蓄積されているテクスチャ特徴Fのうち、被写体抽出部23で抽出した被写体領域H内の画素についてのテクスチャ特徴Fに基づいて手の動きを特定する。
輝度変化算出部21で算出された輝度変化dIを動きの特徴量の算出に用いることも可能である。例えば、被写体領域Hにおける輝度変化dIの平均値の時系列を動きの特徴量とすることで、カメラ方向に対する手の前後の動きを特定することが出来る。例えば、時間経過に伴って被写体領域Hにおける輝度変化dIの平均値が大きくなっている場合は、カメラに手が近付く動作と特定できる。一方で、被写体領域Hにおける輝度変化dIの平均値が小さくなっている場合は、カメラから手が遠ざかる動作と特定できる。
目標値算出部24によって算出された目標値を用いて照明条件を調整することで、テクスチャ特徴Fの算出に好適な画像を取得しているため、環境光に対し安定してテクスチャ特徴Fを算出でき、テクスチャ特徴Fを形状或いは動き特徴量の算出に利用しているので、ジェスチャーの認識を高い精度で行うことができる。
操作決定部26は、被写体認識部25の形状認識部251から出力される認識結果Rs及び動き認識部252から出力される認識結果Rmに基づいて、機器を操作するためのコマンドを生成し、出力する。例えば、被写体認識部25が認識するジェスチャーの種類に応じて、予め機器操作コマンドを設定しておき、認識結果に応じてコマンドを生成し、出力する。
図33は、被操作機器が車載機器である場合を想定し、ジェスチャーの種類と、車載機器操作の操作コマンドの対応関係の例を示す。例えば、グーのジェスチャーを認識したときは、表示画面を地図案内画面に切り替えるようにコマンドを生成し、出力する。チョキのジェスチャーを認識したときは、表示画面をオーディオ画面に切り替えるようにコマンドを生成し、出力する。パーのジェスチャーを認識したときには、表示画面をエアコン調節画面に切り替えるようにコマンドを生成し、出力する。
実施の形態4の操作装置の被写体抽出部23における被写体抽出の処理は、図23及び図24などで示したのと同じである。
実施の形態4の操作装置は、図23のステップST6のテクスチャ特徴Fの算出の結果、及び図24のステップST10の被写体抽出の結果を利用して、ジェスチャーの判定及び判定結果に基づく機器操作の処理を行う。
以下に、ジェスチャーの判定及び判定結果に基づく機器操作の処理を、図34を参照して説明する。
ステップST41では、被写体認識部25は、被写体抽出部23から供給される被写体領域の抽出の結果と、テクスチャ変化算出部22dから供給されるテクスチャ変化dF及びテクスチャ特徴Fと、画像メモリ14から読み出された画像Gとを入力として、被写体の形状及び動きの少なくとも何れか一方の特徴量を算出し、予め基準データメモリ253に登録してある基準データ(被写体の標準的な形状又は標準的な動きの特徴量を表す)と照合し、被写体の形状及び動きの少なくとも何れか一方を認識結果として操作決定部26へ出力する。
ステップST42では、被写体認識部25から出力される認識結果に基づいて、機器を操作するためのコマンドを生成し、出力する。
上記説明のように、本実施の形態に係る操作装置では、環境光の変化に対して安定した被写体領域の抽出の結果を用いることで、環境光に対して安定した被写体認識結果を得ることができる。
また、被写体領域の抽出に使用したテクスチャ特徴に基づいて、被写体の形状の認識を行うことで、環境光に対して安定した被写体認識結果を得ることができる。
さらに、被写体領域の抽出に使用したテクスチャ特徴に基づいて、被写体の動きの認識を行うことで、環境光に対して安定した被写体認識結果を得ることができる。
さらにまた、環境光の変化に対して安定した被写体認識結果を用いることで、環境光が変化する中でも、被写体の形状及び動きの少なくとも何れか一方を使用した機器操作を行うことができる。
なお、本実施の形態では、操作決定部による機器操作の例として、被操作機器が車載機器である場合について説明したが、本発明はこれに限るものではない。例えば、テレビ、或いはサイネージ等の映像機器、或いはメガネ型、ブレスレッド型、指輪型、衣服型等のウエアラブル機器を操作する場合にも本発明を適用することができる。
なおまた、本実施の形態では、被写体のジェスチャーを認識し、認識結果に基づいて操作を行う場合について説明したが、本発明はこれに限定されない。即ちジェスチャー以外の人の動作或いは状態を認識し、認識結果に基づいて操作を行う場合にも本発明を適用することができる。例えば、顔の向き、眼又は口の開閉、或いはこれらを伴う脇見状態、居眠り状態、人が会話している状態の認識、眠気を催している状態、疲労している状態、或いは集中度が低下した状態の認識、及び認識結果に基づく操作を行う場合にも本発明を適用することができる。認識結果に基づく操作としては機器の動作を切り換える処理、自動車にブレーキを掛ける操作、警報音の発生などがある。
以上、実施の形態2の撮像装置を備える操作装置について説明したが、実施の形態2の撮像装置の代わりに、実施の形態1の撮像装置又は実施の形態3の撮像装置を備える操作装置も同様に構成できる。
以上本発明を撮像装置及び操作装置として説明したが、上記の撮像装置を用いて実施される撮像方法、及び上記の操作装置を用いて実施される操作方法もまた本発明の一部を成す。
上記の撮像装置又は操作装置で行われる処理の一部、或いは上記の撮像方法又は操作方法で行われる処理の一部はプロセッサを備えたコンピュータに実行させることができる。従って、コンピュータに上記の撮像装置又は操作装置で行われる処理、上記の撮像方法又は操作方法で行われる処理を実行させるためのプログラム、及び該プログラムを記録した、コンピュータで読み取り可能な記録媒体もまた本発明の一部を成す。
図35は、上記のコンピュータの一例を、照射部12及び撮像部13とともに示す。照射部12及び撮像部13は例えば図1の照射部12及び撮像部13と同様の機能を持つものである。
図35のコンピュータは、プロセッサ51と、プログラムメモリ52と、データメモリ53と、データ入力インターフェース54と、制御出力インターフェース55と、データ出力インターフェース56とを備え、これらはデータバス57で接続されている。
プロセッサ51は、プログラムメモリ52に記憶されたプログラムに従って動作し、図1の撮像照射制御部11、輝度変化算出部21、テクスチャ変化算出部22、及び被写体抽出部23と同様の処理を行う。
制御出力インターフェース55は、照射部12及び撮像部13に接続されており、プロセッサ51からの制御信号C11aを照射部12に与え、制御信号C11bを撮像部13に与える。
データ入力インターフェース54は、撮像部13に接続されており、撮像部13から出力された撮像画像が入力される。
プロセッサ51は、データ入力インターフェース54を介して入力された撮像画像に対して、例えば実施の形態1の輝度変化算出部21、テクスチャ変化算出部22、及び被写体抽出部23と同様の処理を行って、被写体抽出の結果をデータ出力インターフェース56から出力する。
データメモリ53は、図1の画像メモリ14と同様の役割を持つ。
データメモリ53がさらに、図1の輝度変化算出部21内の輝度特徴量メモリ212及び輝度変化メモリ216(図3)、及びテクスチャ変化算出部22内のテクスチャ特徴メモリ224及びテクスチャ変化メモリ226(図4)の役割を持つものであっても良い。
プロセッサ51による処理の手順は、実施の形態1に関し、図13及び図14を参照して説明したのと同様である。
なお、図35に示されるコンピュータを複数台設け、それぞれに、撮像装置の各部の処理を行わせることとしても良い。撮像方法の処理をコンピュータに実行させる場合も同様である。
以上、コンピュータで実施の形態1の撮像装置の処理を実行させる場合について説明したが、実施の形態2又は3の撮像装置の処理、又は該撮像装置で実施される撮像方法の処理、或いは、実施の形態3の操作装置の処理、又は該操作装置で実施される操作方法をコンピュータで実行させる場合も同様である。
11、11b、11c 撮像照射制御部、 12 照射部、 13 撮像部、 14 画像メモリ、 21、21c 輝度変化算出部、 22、22c、22d テクスチャ変化算出部、 23、23c 被写体抽出部、 24、24c 目標値算出部、 25 被写体認識部、 26 操作決定部、 51 プロセッサ、 52 プログラムメモリ、 53 データメモリ、 54 データ入力インターフェース、 55 制御出力インターフェース、 56 データ出力インターフェース、 121 LED、 122 発光制御部、 211 輝度特徴量算出部、 212 輝度特徴量メモリ、 213、213c 照明条件判定部、 215 差分算出部、 216 輝度変化メモリ、 221 CSLBP特徴算出部、 222 CSLBP特徴メモリ、 223、223a テクスチャ特徴算出部、 224、224d テクスチャ特徴メモリ、 225、225a、225c 特徴変化処理部、 226 テクスチャ変化メモリ、 231 輝度変化比較部、 232 テクスチャ変化比較部、 233 領域判定部、 234 ゲート部、 241 被写体内変化領域抽出部、 242 面積判定部、 243 目標値調整部、 244 目標値メモリ、 251 形状認識部、 252 動き認識部、 253 基準データメモリ、 2211 領域分割部、 2212−1〜2212−16 CSLBP特徴読出し部、 2213−1〜2213−16 ヒストグラム生成部、 2214 連結部、 2215 正規化部、 2216 クリップ部、 H 被写体、 B1 背景要素、 B2 背景部分。

Claims (18)

  1. 照明条件を制御する照明条件制御信号及び撮像条件を制御する撮像条件制御信号を生成する撮像照射制御部と、
    前記照明条件制御信号に基づいて複数の互いに異なる照明条件で被写体を照明する照射部と、
    前記撮像条件制御信号で制御される撮像条件で前記被写体の撮像を行って撮像画像を生成する撮像部と、
    前記撮像部により、前記異なる照明条件での撮像で得られた複数の撮像画像を使用して前記複数の撮像画像間での各画素についての輝度変化を算出する輝度変化算出部と、
    前記撮像部により、異なる時刻における撮像で得られた複数の撮像画像を使用して当該複数の撮像画像間での各画素についてのテクスチャ変化を算出するテクスチャ変化算出部と、
    前記輝度変化と前記テクスチャ変化とに基づいて被写体領域を抽出する被写体抽出部とを有し、
    前記テクスチャ変化算出部は、前記テクスチャ変化として、
    前記異なる時刻に互いに等しい照明条件で行われた撮像で得られた複数の撮像画像を用いて第1のテクスチャ変化を算出するとともに、
    前記輝度変化の算出に使用した複数の撮像画像を用いて第2のテクスチャ変化を算出する
    撮像装置。
  2. 前記テクスチャ変化算出部は、異なる時刻に互いに異なる照明条件での撮像で得られた複数の撮像画像を用いて前記第2のテクスチャ変化を算出する
    ことを特徴とする請求項1に記載の撮像装置。
  3. 前記テクスチャ変化算出部は、前記複数の撮像画像の各々についてテクスチャ特徴を算出し、前記複数の撮像画像間での、前記テクスチャ特徴の変化を、前記テクスチャ変化として算出する
    ことを特徴とする請求項1又は2に記載の撮像装置。
  4. 前記被写体抽出部は、前記輝度変化の算出及び前記テクスチャ変化の算出の少なくともいずれか一方に使用された撮像画像、又は各画素についての前記輝度変化で構成される輝度差分画像のうちの、前記輝度変化が第1の閾値よりも大きく、かつ前記テクスチャ変化が第2の閾値以下である領域を前記被写体領域として抽出する
    ことを特徴とする請求項1から3のいずれか1項に記載の撮像装置。
  5. 前記複数の照明条件は、照明光の照射分布及び照明光の発光強度の少なくともいずれか一方が互いに異なる
    ことを特徴とする請求項1から4のいずれか1項に記載の撮像装置。
  6. 前記複数の照明条件は、第1の発光強度で照明光を照射する第1の照明条件と、前記第1の発光強度より小さい第2の発光強度で照明光を照射する第2の照明条件とを含む
    ことを特徴とする請求項1から5のいずれか1項に記載の撮像装置。
  7. 前記抽出された被写体領域における前記撮像画像の輝度特徴量及び前記テクスチャ変化の少なくとも何れか一方に基づいて、前記撮像条件の目標値を決定する目標値算出部をさらに有し、
    前記撮像照射制御部は前記撮像条件の目標値に基づいて前記撮像条件制御信号を生成する
    ことを特徴とする請求項1から6のいずれか1項に記載の撮像装置。
  8. 前記抽出された被写体領域における前記撮像画像の輝度特徴量及び前記テクスチャ変化の少なくとも何れか一方に基づいて、前記照明条件の目標値を決定する目標値算出部をさらに有し、
    前記撮像照射制御部は前記照明条件の目標値に基づいて前記照明条件制御信号を生成する
    ことを特徴とする請求項1から6のいずれか1項に記載の撮像装置。
  9. 前記照明条件の目標値は前記照射部による照明光の照射分布及び照明光の発光強度の少なくとも一方の目標値である
    ことを特徴とする請求項8に記載の撮像装置。
  10. 前記被写体抽出部は、前記輝度変化と前記第1のテクスチャ変化とに基づいて前記被写体領域の抽出を行い、
    前記目標値算出部は、
    前記抽出された被写体領域のうち、前記第2のテクスチャ変化が第3の閾値よりも大きい部分の面積が第4の閾値以上である場合は、前記複数の照明条件における発光強度の差を小さくするように前記照明条件の目標値を調整し、
    前記抽出された被写体領域の全体において前記第2のテクスチャ変化が前記第3の閾値以下である場合は、前記複数の照明条件における発光強度の差を大きくするように前記照明条件の目標値を調整する
    ことを特徴とする請求項8又は9に記載の撮像装置。
  11. 前記目標値算出部は、
    前記輝度変化の算出に使用した前記複数の撮像画像の中で、発光強度の最も小さい照明条件での撮像で得られた撮像画像のうちの、前記抽出された被写体領域の輝度特徴量が第5の閾値以下である場合は発光強度の最も小さい照明条件で用いられる発光強度の目標値を大きくし、
    前記輝度変化の算出に使用した前記複数の撮像画像の中で、発光強度の最も大きい照明条件での撮像で得られた撮像画像のうちの、前記抽出された被写体領域の輝度特徴量が第6の閾値よりも大きい場合は発光強度の最も大きい照明条件で用いられる発光強度の目標値を小さくする
    ことを特徴とする請求項8から10のいずれか1項に記載の撮像装置。
  12. 請求項1から11のいずれか1項に記載の撮像装置と、
    前記被写体抽出部による、前記被写体領域の抽出の結果から前記被写体の形状の特徴量及び動きの特徴量の少なくとも何れか一方を算出し、予め定められた形状又は動きの特徴量を表す基準データと照合することで前記被写体の形状又は動きを認識する被写体認識部とを有する
    ことを特徴とする操作装置。
  13. 前記被写体認識部は、前記動きの特徴量を、前記輝度変化及び前記テクスチャ変化の少なくとも何れか一方に基づき算出する
    ことを特徴とする請求項12に記載の操作装置。
  14. 請求項3に記載の撮像装置と、
    前記被写体抽出部による、前記被写体領域の抽出の結果から前記被写体の形状の特徴量及び動きの特徴量の少なくとも何れか一方を算出し、予め定められた形状又は動きの特徴量を表す基準データと照合することで前記被写体の形状又は動きを認識する被写体認識部とを有し、
    前記被写体認識部は、前記テクスチャ変化算出部で算出された前記テクスチャ特徴に基づいて前記形状の特徴量を算出する
    ことを特徴とする操作装置。
  15. 前記被写体の形状又は動きの認識の結果から操作内容を決定し、決定した操作内容を示すコマンドを生成して出力する操作決定部をさらに有する
    ことを特徴とする請求項12から14のいずれか1項に記載の操作装置。
  16. 照明条件を制御する照明条件制御信号及び撮像条件を制御する撮像条件制御信号を生成する撮像照射制御ステップと、
    前記照明条件制御信号に基づいて複数の互いに異なる照明条件で被写体を照明する照射ステップと、
    前記撮像条件制御信号で制御される撮像条件で前記被写体の撮像を行って撮像画像を生成する撮像ステップと、
    前記撮像ステップにより、前記異なる照明条件での撮像で得られた複数の撮像画像を使用して前記複数の撮像画像間での各画素についての輝度変化を算出する輝度変化算出ステップと、
    前記撮像ステップにより、異なる時刻における撮像で得られた複数の撮像画像を使用して当該複数の撮像画像間での各画素についてのテクスチャ変化を算出するテクスチャ変化算出ステップと、
    前記輝度変化と前記テクスチャ変化とに基づいて被写体領域を抽出する被写体抽出ステップとを有し、
    前記テクスチャ変化算出ステップは、前記テクスチャ変化として、
    前記異なる時刻に互いに等しい照明条件で行われた撮像で得られた複数の撮像画像を用いて第1のテクスチャ変化を算出するとともに、
    前記輝度変化の算出に使用した複数の撮像画像を用いて第2のテクスチャ変化を算出する撮像方法。
  17. 請求項16の各ステップの処理をコンピュータに実行させるためのプログラム。
  18. 請求項17に記載のプログラムを記録した、コンピュータで読取り可能な記録媒体。
JP2017508833A 2015-03-27 2015-03-27 撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体 Active JP6312924B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/059635 WO2016157299A1 (ja) 2015-03-27 2015-03-27 撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体

Publications (2)

Publication Number Publication Date
JPWO2016157299A1 JPWO2016157299A1 (ja) 2017-09-21
JP6312924B2 true JP6312924B2 (ja) 2018-04-18

Family

ID=57005289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017508833A Active JP6312924B2 (ja) 2015-03-27 2015-03-27 撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体

Country Status (5)

Country Link
US (1) US10460195B2 (ja)
JP (1) JP6312924B2 (ja)
CN (1) CN107408305B (ja)
DE (1) DE112015006385T5 (ja)
WO (1) WO2016157299A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2208354A4 (en) 2007-10-10 2010-12-22 Gerard Dirk Smits IMAGE PROJECTOR WITH REFLECTIVE LIGHT TRACKING
WO2016025502A1 (en) 2014-08-11 2016-02-18 Gerard Dirk Smits Three-dimensional triangulation and time-of-flight based tracking systems and methods
US10043282B2 (en) * 2015-04-13 2018-08-07 Gerard Dirk Smits Machine vision for ego-motion, segmenting, and classifying objects
US10484601B2 (en) * 2015-08-31 2019-11-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP6593753B2 (ja) * 2015-09-24 2019-10-23 パナソニックIpマネジメント株式会社 照度取得装置、照明制御システムおよびプログラム
JP6854828B2 (ja) 2015-12-18 2021-04-07 ジェラルド ディルク スミッツ 物体のリアルタイム位置検知
US9813673B2 (en) 2016-01-20 2017-11-07 Gerard Dirk Smits Holographic video capture and telepresence system
EP3532863A4 (en) 2016-10-31 2020-06-03 Gerard Dirk Smits FAST SCAN LIDAR WITH DYNAMIC VOXEL PROBE
EP3563347A4 (en) 2016-12-27 2020-06-24 Gerard Dirk Smits SYSTEMS AND METHODS FOR MACHINE PERCEPTION
CN110612465B (zh) 2017-05-10 2022-03-08 杰拉德·迪尔克·施密茨 扫描反射镜系统和方法
WO2019079750A1 (en) 2017-10-19 2019-04-25 Gerard Dirk Smits METHODS AND SYSTEMS FOR NAVIGATING A VEHICLE EQUIPPED WITH A NEW MILITARY MARKER SYSTEM
US10379220B1 (en) 2018-01-29 2019-08-13 Gerard Dirk Smits Hyper-resolved, high bandwidth scanned LIDAR systems
CN109583375B (zh) * 2018-11-30 2021-04-06 中山大学 一种多特征融合的人脸图像光照识别方法及系统
US11275453B1 (en) 2019-09-30 2022-03-15 Snap Inc. Smart ring for manipulating virtual objects displayed by a wearable device
WO2021174227A1 (en) 2020-02-27 2021-09-02 Gerard Dirk Smits High resolution scanning of remote objects with fast sweeping laser beams and signal recovery by twitchy pixel array
US11798429B1 (en) 2020-05-04 2023-10-24 Snap Inc. Virtual tutorials for musical instruments with finger tracking in augmented reality
US11520399B2 (en) 2020-05-26 2022-12-06 Snap Inc. Interactive augmented reality experiences using positional tracking
US11925863B2 (en) * 2020-09-18 2024-03-12 Snap Inc. Tracking hand gestures for interactive game control in augmented reality
US11546505B2 (en) 2020-09-28 2023-01-03 Snap Inc. Touchless photo capture in response to detected hand gestures
CN112686122B (zh) * 2020-12-25 2023-09-29 浙江大华技术股份有限公司 人体及影子的检测方法、装置、电子设备、存储介质
US11740313B2 (en) 2020-12-30 2023-08-29 Snap Inc. Augmented reality precision tracking and display
US11531402B1 (en) 2021-02-25 2022-12-20 Snap Inc. Bimanual gestures for controlling virtual and graphical elements
KR20230170086A (ko) 2021-04-19 2023-12-18 스냅 인코포레이티드 가상 및 그래픽 엘리먼트들을 애니메이팅하고 제어하기 위한 손 제스처
JPWO2022244351A1 (ja) * 2021-05-17 2022-11-24
JP2023003627A (ja) * 2021-06-24 2023-01-17 シヤチハタ株式会社 コンピュータデバイス、方法およびコンピュータプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6681037B1 (en) * 1999-05-27 2004-01-20 Cognex Corporation Apparatus for locating features of an object using varied illumination
JP3861551B2 (ja) * 2000-03-07 2006-12-20 松下電器産業株式会社 外観検査における光学系の較正方法
JP2003259189A (ja) 2002-03-01 2003-09-12 Sony Corp 撮像装置,画像処理方法
JP2005130268A (ja) 2003-10-24 2005-05-19 Nikon Corp 画像抽出装置
US7599576B2 (en) * 2004-01-23 2009-10-06 Electro Scientific Industries, Inc. Image subtraction of illumination artifacts
JP4849460B2 (ja) * 2005-10-14 2012-01-11 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 画像中の顔を認識する方法
JP4740755B2 (ja) 2006-01-27 2011-08-03 セコム株式会社 画像を用いた監視装置
EP2131589B1 (en) 2007-03-28 2018-10-24 Fujitsu Limited Image processing device, image processing method, and image processing program
JP4915367B2 (ja) 2008-02-27 2012-04-11 ソニー株式会社 表示撮像装置および物体の検出方法
JP5218168B2 (ja) * 2009-03-11 2013-06-26 ソニー株式会社 撮像装置、動体検知方法、動体検知回路、プログラム、及び監視システム
CN103824307B (zh) * 2012-11-16 2016-04-06 浙江大华技术股份有限公司 一种确定无效运动目标像素的方法和装置
TWI475495B (zh) * 2013-02-04 2015-03-01 Wistron Corp 圖像的識別方法、電子裝置與電腦程式產品
JP2015043141A (ja) 2013-08-26 2015-03-05 キヤノン株式会社 ジェスチャ認識装置および制御プログラム
CN104143191A (zh) * 2014-07-29 2014-11-12 中国科学院遥感与数字地球研究所 一种基于纹理元的遥感图像变化检测方法

Also Published As

Publication number Publication date
US10460195B2 (en) 2019-10-29
CN107408305A (zh) 2017-11-28
JPWO2016157299A1 (ja) 2017-09-21
DE112015006385T5 (de) 2017-12-14
WO2016157299A1 (ja) 2016-10-06
US20180039852A1 (en) 2018-02-08
CN107408305B (zh) 2020-09-11

Similar Documents

Publication Publication Date Title
JP6312924B2 (ja) 撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体
US9710716B2 (en) Computer vision pipeline and methods for detection of specified moving objects
JP5675229B2 (ja) 画像処理装置及び画像処理方法
St-Charles et al. SuBSENSE: A universal change detection method with local adaptive sensitivity
EP3418944A2 (en) Information processing apparatus, information processing method, and program
CN105260731A (zh) 一种基于光脉冲的人脸活体检测系统及方法
Rujikietgumjorn et al. Optimized pedestrian detection for multiple and occluded people
JP5166102B2 (ja) 画像処理装置及びその方法
JP2018524726A (ja) ジェスチャーの検知識別の方法及びシステム
Brémond et al. Saliency maps of high dynamic range images
CN112464885A (zh) 基于机器学习的面部色斑未来变化的图像处理系统
CN113763424B (zh) 基于嵌入式平台的实时智能目标检测方法及系统
CN106250878B (zh) 一种结合可见光和红外图像的多模态目标跟踪方法
Zhang et al. Hand gesture detection and segmentation based on difference background image with complex background
CN116935133B (zh) 一种基于spect图像识别的心血管病分类方法及系统
JP2014197353A (ja) 画像検出装置及び制御プログラム並びに画像検出方法
Apewokin et al. Embedded real-time surveillance using multimodal mean background modeling
CN110073406A (zh) 面部检测装置及其控制方法、以及程序
JP2000023141A (ja) 移動物体監視装置
US11875518B2 (en) Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium
Zhang et al. Background modeling by exploring multi-scale fusion of texture and intensity in complex scenes
Zou et al. Improved Camshift tracking algorithm based on silhouette moving detection
Rotaru et al. Animal Tracking Method Used in Neuroscience Experiments
GB2446293A (en) Video based monitoring system and method
JP2009064100A (ja) 画像処理装置およびゲイン調整方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170428

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180320

R150 Certificate of patent or registration of utility model

Ref document number: 6312924

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250