JP6312924B2 - 撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体 - Google Patents
撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体 Download PDFInfo
- Publication number
- JP6312924B2 JP6312924B2 JP2017508833A JP2017508833A JP6312924B2 JP 6312924 B2 JP6312924 B2 JP 6312924B2 JP 2017508833 A JP2017508833 A JP 2017508833A JP 2017508833 A JP2017508833 A JP 2017508833A JP 6312924 B2 JP6312924 B2 JP 6312924B2
- Authority
- JP
- Japan
- Prior art keywords
- change
- texture
- subject
- imaging
- luminance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 257
- 238000000034 method Methods 0.000 title claims description 95
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000008859 change Effects 0.000 claims description 668
- 238000005286 illumination Methods 0.000 claims description 326
- 238000004364 calculation method Methods 0.000 claims description 206
- 238000000605 extraction Methods 0.000 claims description 111
- 230000008569 process Effects 0.000 claims description 46
- 239000000284 extract Substances 0.000 claims description 19
- 230000001678 irradiating effect Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 84
- 239000013598 vector Substances 0.000 description 25
- 238000010586 diagram Methods 0.000 description 22
- 230000014509 gene expression Effects 0.000 description 16
- 238000009499 grossing Methods 0.000 description 16
- 238000001914 filtration Methods 0.000 description 10
- 101000661816 Homo sapiens Suppression of tumorigenicity 18 protein Proteins 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 6
- 101000661807 Homo sapiens Suppressor of tumorigenicity 14 protein Proteins 0.000 description 5
- 102100029860 Suppressor of tumorigenicity 20 protein Human genes 0.000 description 5
- 102100035353 Cyclin-dependent kinase 2-associated protein 1 Human genes 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 101000911772 Homo sapiens Hsc70-interacting protein Proteins 0.000 description 1
- 101001139126 Homo sapiens Krueppel-like factor 6 Proteins 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 108090000237 interleukin-24 Proteins 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10152—Varying illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Description
照明条件を制御する照明条件制御信号及び撮像条件を制御する撮像条件制御信号を生成する撮像照射制御部と、
前記照明条件制御信号に基づいて複数の互いに異なる照明条件で被写体を照明する照射部と、
前記撮像条件制御信号で制御される撮像条件で前記被写体の撮像を行って撮像画像を生成する撮像部と、
前記撮像部により、前記異なる照明条件での撮像で得られた複数の撮像画像を使用して前記複数の撮像画像間での各画素についての輝度変化を算出する輝度変化算出部と、
前記撮像部により、異なる時刻における撮像で得られた複数の撮像画像を使用して当該複数の撮像画像間での各画素についてのテクスチャ変化を算出するテクスチャ変化算出部と、
前記輝度変化と前記テクスチャ変化とに基づいて被写体領域を抽出する被写体抽出部とを有し、
前記テクスチャ変化算出部は、前記テクスチャ変化として、
前記異なる時刻に互いに等しい照明条件で行われた撮像で得られた複数の撮像画像を用いて第1のテクスチャ変化を算出するとともに、
前記輝度変化の算出に使用した複数の撮像画像を用いて第2のテクスチャ変化を算出するものである。
図1は、この発明の実施の形態1に係る撮像装置の構成を示すブロック図である。図示の撮像装置は、撮像照射制御部11と、照射部12と、撮像部13と、輝度変化算出部21と、テクスチャ変化算出部22と、被写体抽出部23と、画像メモリ14とを備える。
LED121としては、近赤外線LED、或いは白色LEDが用いられる。
被写体が人の上半身である場合、光源としては、人の眼の感度の小さい近赤外線LEDを使用するのが望ましい。
照明条件Aにおける発光強度をΦAで表し、照明条件Bにおける発光強度をΦBで表す。発光強度ΦA及び発光強度ΦBはそれぞれ固定された値であり、
ΦA>ΦB
の関係があるものとする。
撮像部13は、制御信号C11bに基づいて、例えば、1秒に30フレーム撮像し、出力する画像Gは、例えばグレースケール画像(白黒画像)、RGB画像である。
以下では、撮像部13は、例えば、1秒に30フレームのレートで、画像を出力する。出力される画像(出力画像)は、例えば、8ビット階調のグレースケール画像である。
出力画像の解像度は例えば、VGA規格に沿うものであり、画像幅Wが640画素、高さHが480画素である。
撮像部13から出力された画像G(Ga、Gb)は画像メモリ14に順次蓄積される。
照明条件Aでの撮像における撮像条件と、照明条件Bでの撮像における撮像条件は、それぞれ固定されているものとする。
ここで、x,yは画像上の座標を示しており、
x∈{0,1,…,W−1},y∈{0,1,…,H−1}
である。
差し引いた結果が負の値となる場合には、輝度差分dI(x,y)を0とする。
輝度差分dI(x,y)は、輝度変化として、輝度変化メモリ216に蓄積される。蓄積された輝度差分dI(x,y)は後に被写体抽出部23に供給される。
各画素についての輝度差分dI(x,y)の集合、即ち各画素の輝度差分dI(x,y)を、当該画素と同じ位置に配列したものを、輝度差分画像(輝度変化画像)を形成する。
本発明では、以下に説明するように、テクスチャ変化を併せて利用することで、偽信号の領域と被写体の領域とを判別し、被写体領域のみの抽出を可能にしている。
テクスチャ特徴Fを表すものとして使用できる特徴ベクトルは、照明変化に頑健な(照明の変化の影響を受けにくい)特徴ベクトルが好ましく、例えば、特徴抽出領域内の輝度勾配のヒストグラムで構成されるHOG(Histogram of Gradient)特徴ベクトル、或いは特徴抽出領域内の輝度勾配をバイナリーコード化したLBP(Local Binary Pattern)のヒストグラムで構成された特徴ベクトルである。
また、各画素のテクスチャ特徴の算出には、その画素を中心とする特徴抽出領域内のすべての画素についてのCSLBP特徴Bが必要である。
従って、画像の周縁部に位置する画素についてはテクスチャ特徴を算出することができない。
以下では、上記の横方向600画素、縦方向440画素の範囲内のすべての画素を単に画像のすべての画素と言うこともある。
まず、CSLBP特徴算出部221によるCSLBP特徴Bの算出について図5を参照して説明する。
CSLBP特徴Bは、画像周縁に隣接する画素(画像周縁から数えて1番目の画素)を除き、画像上の全ての画素に対して算出される。
画素Pc(x,y)についてのCSLBP特徴B(x,y)は、当該画素を中心とする3×3個の画素の輝度値を用いて式(1)により算出される。
また、s(a)は閾値関数であり、a>T1のときs(a)=1、それ以外の場合はs(a)=0となる。
また、s(a)が0又は1であるので、CSLBP特徴B(x,y)は整数であり、CSLBP特徴B(x,y)の取り得る値の範囲は、
0≦B(x,y)<16 ∀x,y
である。
非特許文献1によれば、閾値T1は、例えば、輝度値の取り得る値の1%程度が望ましく、輝度値が0〜255の値を取る場合は、T1=3と設定する。
Pc(xc,yc),
xc∈{0,1,…,W−1},yc∈{0,1,…,H−1},
におけるCSLBP特徴の値は変化する。
CSLBP特徴を用いて後述のように算出されるテクスチャ特徴も同様の性質を有する。
各CSLBP特徴読出し部2212−i(i=1〜16)には、当該CSLBP特徴読出し部2212−iに割り当てられたセル内に位置する10×10個の画素の各々についてのCSLBP特徴を、CSLBP特徴メモリ222から読み出す。
特徴ベクトルを構成する256個の要素の各々をvi(i=0〜255)とするとき、ベクトル長VLは、下記の式(2)で与えられる。
faj(j=1からJまで)は、特徴ベクトルF(t1a)の要素、
fbj(j=1からJまで)は、特徴ベクトルF(t1b)の要素、
jの値が同じである要素fajと、要素fbjとは互いに対応する。
Jは各特徴ベクトルF(t1a)又はF(t1b)の要素faj又は要素fbjの総数であり、本例ではJ=256である。
輝度変化比較部231は、各画素についての輝度変化dIが閾値TIよりも大きいか否かを判定する。
テクスチャ変化比較部232は、各画素についてのテクスチャ変化dFが閾値TFよりも大きいか否かを判定する。
即ち、輝度変化比較部231における判定結果が、閾値TI以下であることを示す場合には、当該画素が背景領域に属すると判定する。
輝度変化比較部231における判定結果が閾値TIよりも大きいことを示し、テクスチャ変化比較部232における判定結果が閾値TFよりも大きいことを示す場合には、当該画素が偽信号の領域に属すると判定する。
このような処理により、ゲート部234は、画像メモリ14から読み出された画像Gのうち、被写体領域に一致する部分を、被写体領域Hの抽出の結果として出力する。被写体領域Hの抽出の結果は、被写体領域Hの画像を表すものである。
まず、照明条件の変化、背景の変化、及び被写体の移動と、これらによる画像上の輝度変化及びテクスチャ変化との関係を説明する。図10に示すように、照明条件を変化させると、被写体領域における輝度変化が生じる。
例えば、輝度変化dIの大きさに対して閾値TIを設け、輝度変化比較部231において、輝度変化dIが閾値TIより大きいと判断された画素を、「輝度変化が生じた画素」が生じた画素と判断する。同様に、例えば、テクスチャ変化dFの大きさに対して閾値TFを設け、テクスチャ変化比較部232において、テクスチャ変化dFが閾値TFより大きいと判断された画素を、「テクスチャ変化が生じた画素」と判断する。
この場合、領域判定部233における判定は、以下の基準に従って行われる。
(a) 輝度変化が生じておりかつテクスチャ変化が生じている画素は偽信号の領域に属する画素である。
(b) 輝度変化が生じておりかつテクスチャ変化が生じていない画素は被写体領域に属する画素である。
(c) (a)及び(b)以外の画素、即ち輝度変化が生じていない画素は背景領域に属する画素である。
但し、被写体領域の抽出が目的であるので、上記(b)に基づく判定のみを行って、上記(a)及び(c)に基づく判定は省略することができる。
代わりに、輝度変化比較部231、テクスチャ変化比較部232及び領域判定部233における判定を画像毎(フレーム毎)に行っても良い。即ち、輝度変化比較部231において画像の全体についての輝度変化が生じた画素の集合を、輝度変化領域として抽出し、テクスチャ変化比較部232において画像の全体についてのテクスチャ変化が生じた画素の集合を、テクスチャ変化領域として抽出し、領域判定部233において、輝度変化領域に属し、テクスチャ変化領域に属さない画素から成る領域を被写体領域Hと判定しても良い。
(a) 輝度変化が生じておりかつテクスチャ変化が生じている領域は、偽信号の領域である。
(b) 輝度変化が生じておりかつテクスチャ変化が生じていない領域は被写体領域である。
(c) (a)及び(b)以外の領域、即ち輝度変化が生じていない領域は背景領域である。
但し、被写体領域の抽出が目的であるので、上記(b)に基づく判定のみを行って、上記(a)及び(c)に基づく判定は省略することができる。
平滑化フィルタとして、例えば、ガウシアンフィルタ或いはメディアンフィルタを用いることができる。
被写体Hは、時刻t1aから時刻t1bにかけて静止している。背景のうち、背景要素B1は時刻t1aには存在するが、時刻t1bには存在しない。例えば、背景要素B1は、太陽であり、時刻t1aには見える状態にあるが、時刻t1bではビル陰に隠れてしまった場合に相当する。
被写体Hは、時刻t1aから時刻t1bにかけて右方向に移動している。
背景のうち、背景要素B1は、被写体Hと同様に、時刻がt1aから時刻t1bにかけて右方向に移動している。
背景要素B1は、非常に明るいため、照射部12が発光する光の影響を受けない。背景のうち、背景要素B1以外の部分B2は、照射部12及び撮像部13から十分に距離が離れているため、照射部12による照明光の影響を受けない。
図13に示される処理は、1フレーム期間毎に、即ち1フレーム期間に1度行われる。
まず、各フレーム期間での撮像に先立ち、ステップST1で、撮像照射制御部11が制御信号C11a及びC11bを生成し、照射部12及び撮像部13へ出力する。
撮像照射制御部11は、照射部12に対し、照明条件Aでの照射と、照明条件Bでの照射とをフレームごとに交互に行わせるように制御を行う。例えば、奇数番目のフレームでは、照明条件Aで照射を行うように、偶数番目のフレームでは照明条件Bでの照射を行うように制御を行う。このような照明条件の制御は、2フレーム期間を1サイクルとし、各サイクルの1番目のフレームでは照明条件Aで照明を行わせ、2番目のフレームでは、照明条件Bで照明を行わえる制御と見ることができる。
ステップST7の次に、ステップST8及びST9に進む。
差分の算出に当たっては、ステップST7での判定結果に基づき、照明条件Aの画像(ステップST7で輝度特徴量Imがより高いと判定された画像)Gaの各画素の輝度値から、照明条件Bの画像(ステップST7で輝度特徴量Imがより低いと判定された画像)Gbの、同じ位置の画素の輝度値を差し引く。差し引いた結果が負となる場合には、輝度変化を0とする。
算出された各画素の輝度変化dIは輝度変化メモリ216に蓄積される。
ステップST10では、被写体抽出部23が、輝度変化dI及びテクスチャ変化dFに基づいて被写体領域を抽出する。
被写体領域の抽出においては、各画素が被写体領域に属するか否かの判定を画素毎に行っても良く、画像毎に行っても良い。以下では、最初に画素毎に行う場合の手順を、図14を参照して説明し、その後で画像毎に行う場合の手順を、図15を参照して説明する。
選択は例えば画像の左上から右下へと言う順序で行われる。
閾値TIよりも大きければ、ステップST15に進む。ステップST15では、注目画素についてのテクスチャ変化dFをテクスチャ変化メモリ226から読出す。
閾値TFよりも大きくないと判断したとき(「テクスチャ変化無し」と判断したとき)は、注目画素は、被写体領域に属すると判断する(ST17)。
すべての画素が選択されていれば、ステップST20に進む。
ステップST20では、ステップST17で被写体領域に属すると判断された画素の集合を、被写体領域Hの抽出結果として出力する。
図17及び図18で、図13と同じ符号は、同一又は同様の処理を示す。
即ち、図17で、ステップST1〜ST4、ST5、及びST7の処理は図13と同じである。
ステップST11aでは、画像上の処理対象とすべき画素の一つを選択する。
ステップST11aの次にステップST8a及びステップST6aに進む。
なお、図13のステップST6、ST8、ST9は、画像を構成するすべての画素についての処理であるのに対し、図17のステップST6a、ST8a、ST9aは、選択された画素についての処理である点で異なる。
ステップST13では、ステップST8aで算出された輝度変化dIが閾値TIよりも大きいか否か(即ち「輝度変化有り」か「輝度変化無し」か)の判定を行う。
閾値TIよりも大きくなければ(「輝度変化無し」であれば)、注目画素は、背景領域に属すると判定する(ST14)。
ステップST16では、ステップST9aで算出されたテクスチャ変化dFが閾値TFよりも大きいか否か(「テクスチャ変化有り」か「テクスチャ変化無し」か)の判定を行う。
閾値TFよりも大きいと判断したとき(「テクスチャ変化有り」と判断したとき)は、注目画素は偽信号の領域に属すると判断する(ST18)。
すべての画素が選択されていれば、ステップST20に進む。
ステップST20では、ステップST17で被写体領域に属すると判断された画素の集合を、被写体領域Hの抽出結果として出力する。
撮像部13が2つの異なる照明条件下で被写体を撮像し、輝度変化算出部21が異なる照明条件下で撮像された2数の画像間の輝度変化dIを算出し、テクスチャ変化算出部22が異なる時刻に撮像された2枚の画像間のテクスチャ変化dFを算出し、被写体抽出部23は輝度変化dIとテクスチャ変化dFとから、照明変化により被写体に生じた輝度変化と、背景の変化又は被写体の移動により生じた輝度変化とを判別している。
従って、被写体領域の抽出を高精度に行うことができる。
また、抽出したい被写体の反射率に応じて適切な光量の照明光が照射されるような光の強度を照明条件の1つとすることができ、そのようにすることで、輝度変化及びテクスチャ変化の算出に好適な画像を取得することができる。
さらには、上記2つの条件の双方を照明条件とすることができ、そのようにすることで、被写体の位置、サイズ及び反射率に応じて、輝度変化及びテクスチャ変化の算出に好適な画像を取得することができる。
但し、輝度変化及びテクスチャ変化の算出に用いる画像の数を増やすと、メモリ量或いは処理量は増加する。即ちハードウェアリソースが増え、処理時間が長くなる。従って、これらの点を勘案して、輝度変化及びテクスチャ変化の算出に用いる画像の数を決定する必要がある。
但し、輝度変化算出に用いた画像と十分に近いタイミングで撮像された画像を用いる必要がある。
しかし、本発明はこれに限定されない。例えば、画像の周縁部以外の部分において、予め定められた間隔毎の位置にある画素についてのみ、テクスチャ特徴の算出及びテクスチャ変化の算出を行っても良い。例えば画像上に図19に示すように格子模様を描き、その格子点に位置する画素についてのみテクスチャ特徴の算出及びテクスチャ変化の算出を行っても良い。
図19に示すように、格子点に位置する画素についてのみテクスチャ特徴の算出及びテクスチャ変化の算出を行うと、格子点以外に位置する画素については、最も近い格子点位置にある画素について算出されたテクスチャ特徴及びテクスチャ変化を、当該格子点以外に位置する画素についてのテクスチャ特徴及びテクスチャ変化として用いることとしても良い。
例えば、照射部12へ与える制御信号C11aと同様に、照明条件(例えば発光強度)を示す信号を撮像部13へ与え、撮像部13が上記の信号に基づいて照明条件を判断し、撮像画像を画像メモリ14へ記憶させる際に照明条件を示す情報(付加情報)を付加し、輝度変化算出部21が、画像メモリ14から画像を読み出す際に、上記の付加情報に基づいて、画像の照明条件を判定することとしても良い。
図21は、本発明の実施の形態2に係る撮像装置の構成を示すブロック図である。図21に示される撮像装置は、図1に示される撮像装置と概して同じであるが、目標値算出部24が追加され、撮像照射制御部11の代りに、撮像照射制御部11bを備える点で異なる。図1と同一の符号は同一又は相当部分を示すので説明を省略する。
目標値算出部24は、撮像照射制御部11bが照明条件又は撮像条件の制御を行う際に、目標値メモリ244に蓄積された目標値を読み出し、読み出した目標値を表す目標値信号Qを撮像照射制御部11bに供給する。
ここで、テクスチャ変化が比較的大きいか否かは、テクスチャ変化算出部22から出力されるテクスチャ変化dFに基づいて判定される。
例えば、上記のテクスチャ変化dFが閾値TFaより大きい領域を、テクスチャ変化領域RLHと判定し、それ以外の領域は無変化領域RLLと判定する。
ΦB(t2b)=ΦB(t1b)+ΔΦa …(6)
式(5)及び式(6)でΔΦaは、調整量を表す。
ΦB(t2b)=ΦB(t1b)+ΔΦb …(7)
ΦB(t2b)=ΦB(t1b)+ΔΦa+ΔΦb …(8)
ΦA(t2a)=ΦA(t1a)−ΔΦc …(9)
ΦA(t2a)=ΦA(t1a)−ΔΦa−ΔΦc …(10)
ΦA(t2a)=ΦA(t1a)+ΔΦd …(11)
ΦB(t2b)=ΦB(t1b)−ΔΦd …(12)
照明条件は、図13のステップST1と同様、2フレーム期間を1サイクルとして変化するように制御される。
被写体内変化領域RLHの面積が閾値TAa未満であれば、そのフレームの処理を終了する。
被写体内変化領域RLHの面積が閾値TAa以上であれば、ステップST33に進む。
新たな目標値の算出は、式(5)〜式(12)を参照して説明したように行うことができる。
図25は、本発明の実施の形態3に係る撮像装置の構成を示すブロック図である。図25に示される撮像装置は、図21に示される撮像装置と概して同じであるが、図21の撮像照射制御部11b、輝度変化算出部21、テクスチャ変化算出部22、被写体抽出部23、及び目標値算出部24の代わりに、撮像照射制御部11c、輝度変化算出部21c、テクスチャ変化算出部22c、被写体抽出部23c、及び目標値算出部24cを備える点で異なる。図21と同一の符号は同一又は相当部分を示すので説明を省略する。
そして、上記のように算出された輝度変化dI及び第1のテクスチャ変化dF1から被写体領域を抽出する。さらに、このようにして抽出された被写体領域と、第2のテクスチャ変化dF2とから、被写体内変化領域RLHを抽出する。
実施の形態1で述べたのと同様に、差し引いた結果が負の値となる場合には、輝度差分は0であるとする。
即ち、被写体抽出部23cは、輝度変化算出部21cで算出された輝度変化dIと、テクスチャ変化算出部22cで算出された第1のテクスチャ変化dF1とに基づいて、被写体領域を抽出し、抽出結果Hを目標値算出部24cへ出力する。
目標値算出部24cの被写体内変化領域抽出部241は、被写体抽出部23cから出力される被写体領域Hの内部に位置し、テクスチャ変化が比較的大きい領域RLHを抽出する。
例えば、上記のテクスチャ変化dF2が閾値TFaより大きい領域を被写体内変化領域RLHと判定し、それ以外の領域は無変化領域RLLと判定する。
なお、閾値TFaについて、実施の形態2では、TFa<TFが好ましいと述べたが、実施の形態3ではそのような制約はない。
ΦB(t2b)=ΦB(t1b)+ΔΦa …(14)
式(13)及び式(14)でΔΦaは、調整量を表す。
ここで言う輝度特徴量Ihとは、例えば、輝度値の最大値、平均値及び中央値である。以下では、輝度値の平均値を輝度特徴量Ihとして使用するものとして説明する。
ΦB(t2b)=ΦB(t1b)+ΔΦb …(15)
ΦB(t2b)=ΦB(t1b)+ΔΦa+ΔΦb …(16)
ΦA(t2a)=ΦA(t1a)−ΔΦc …(17)
ΦA(t2a)=ΦA(t1a)−ΔΦa−ΔΦc …(18)
ΦA(t2a)=ΦA(t1a)+ΔΦd …(19)
ΦB(t2b)=ΦB(t1b)−ΔΦd …(20)
ステップST1cは、図23のステップST1bと同様であるが、図28のステップST1cでは、照明条件が3フレーム期間を1サイクルとして変化する点で異なる。
なお、撮像照射制御部11cから制御信号C11a、C11bを得て、該制御信号に基づいてこの判定を行っても良い。
ステップST8c及びステップST9cの処理は、実施の形態1におけるステップST8及びST9の処理と同様である。
ステップST8cで輝度変化メモリ216に記憶された輝度変化dI、及びステップST9cでテクスチャ変化メモリ226に記憶された第2のテクスチャ変化dF2は次のフレーム期間に利用される。
ステップST31dの処理は、図24のステップST31の処理と同様であるが、被写体内変化領域RLHの検出のため、ステップST9cで算出された第2のテクスチャ変化dF2を用いる。
即ち、ステップST31dで、被写体内変化領域抽出部241が、ステップST10dで検出された被写体領域Hと、ステップST9cで算出された第2のテクスチャ変化dF2とから被写体内変化領域RLHを抽出する。
即ち、ステップST32で、面積判定部242が、ステップST31dで抽出された被写体内変化領域RLHの面積が閾値TAa以上か否かを判定する。
被写体内変化領域RLHの面積が閾値TAa未満であれば、そのフレームの処理を終了する。
被写体内変化領域RLHの面積が閾値TAa以上であれば、ステップST33に進む。
新たな目標値の算出は、式(13)〜式(20)を参照して説明したように行うことができる。
第2のテクスチャ変化dF2は異なる時間に、異なる照明条件での撮像で得られた画像間のテクスチャ変化であるので、実施の形態2における「テクスチャ変化」と同じである。従って、実施の形態3でも実施の形態2と同様の効果を得ることができる。
図30は、本発明の実施の形態4に係る操作装置の構成を示すブロック図である。図30に示す操作装置は、図21に示される撮像装置と同様の撮像装置と、被写体認識部25と操作決定部26とを組合せたものである。但し、図21のテクスチャ変化算出部22の代りにテクスチャ変化算出部22dを備える。図21と同一の符号は同一又は相当部分を示すので説明は省略する。
また、本実施の形態では、被写体が人の手である場合を想定する。
例えば、特定のジェスチャーを意図する手の形状を表すデータを取り込み、それとの違いが予め定められた閾値以下であるかによって判定を行う場合、上記の取り込んだデータと、上記の閾値を表すデータとで基準データSsが構成される。
例えば、手と背景の境界線を解析することで手の形状、例えば手を握っている状態(グー)か手を開いている状態(パー)かを判定することができる。手と背景の境界線の抽出に当たっては、手と背景の模様や凹凸、反射率の違いに対応するテクスチャ特徴の違いを利用することができる。この場合には、形状認識部251はテクスチャ特徴メモリ224dに蓄積されているテクスチャ特徴Fに基づいて手の形状を特定する。
例えば、特定のジェスチャーを意図する手の動きを表すデータを取り込み、それとの違いが予め定められた閾値以下であるかによって判定を行う場合、上記の取り込んだデータと、上記の閾値を表すデータとで基準データSmが構成される。
手の横振り、縦振り等については、被写体の中心位置をトラッキングすることで位置の変化、速度、加速度等を観測でき、これらを特徴量として使用することができる。中心位置の特定には、手の形状、特に背景との境界線を特定する必要がある。
手の形状の特定には、形状認識部251について述べたように、テクスチャ特徴メモリ224dに蓄積されているテクスチャ特徴Fを利用することができる。この場合には、動き認識部252はテクスチャ特徴メモリ224dに蓄積されているテクスチャ特徴Fに基づいて手の形状を特定する。
実施の形態4の操作装置は、図23のステップST6のテクスチャ特徴Fの算出の結果、及び図24のステップST10の被写体抽出の結果を利用して、ジェスチャーの判定及び判定結果に基づく機器操作の処理を行う。
以下に、ジェスチャーの判定及び判定結果に基づく機器操作の処理を、図34を参照して説明する。
図35のコンピュータは、プロセッサ51と、プログラムメモリ52と、データメモリ53と、データ入力インターフェース54と、制御出力インターフェース55と、データ出力インターフェース56とを備え、これらはデータバス57で接続されている。
プロセッサ51は、データ入力インターフェース54を介して入力された撮像画像に対して、例えば実施の形態1の輝度変化算出部21、テクスチャ変化算出部22、及び被写体抽出部23と同様の処理を行って、被写体抽出の結果をデータ出力インターフェース56から出力する。
データメモリ53がさらに、図1の輝度変化算出部21内の輝度特徴量メモリ212及び輝度変化メモリ216(図3)、及びテクスチャ変化算出部22内のテクスチャ特徴メモリ224及びテクスチャ変化メモリ226(図4)の役割を持つものであっても良い。
Claims (18)
- 照明条件を制御する照明条件制御信号及び撮像条件を制御する撮像条件制御信号を生成する撮像照射制御部と、
前記照明条件制御信号に基づいて複数の互いに異なる照明条件で被写体を照明する照射部と、
前記撮像条件制御信号で制御される撮像条件で前記被写体の撮像を行って撮像画像を生成する撮像部と、
前記撮像部により、前記異なる照明条件での撮像で得られた複数の撮像画像を使用して前記複数の撮像画像間での各画素についての輝度変化を算出する輝度変化算出部と、
前記撮像部により、異なる時刻における撮像で得られた複数の撮像画像を使用して当該複数の撮像画像間での各画素についてのテクスチャ変化を算出するテクスチャ変化算出部と、
前記輝度変化と前記テクスチャ変化とに基づいて被写体領域を抽出する被写体抽出部とを有し、
前記テクスチャ変化算出部は、前記テクスチャ変化として、
前記異なる時刻に互いに等しい照明条件で行われた撮像で得られた複数の撮像画像を用いて第1のテクスチャ変化を算出するとともに、
前記輝度変化の算出に使用した複数の撮像画像を用いて第2のテクスチャ変化を算出する
撮像装置。 - 前記テクスチャ変化算出部は、異なる時刻に互いに異なる照明条件での撮像で得られた複数の撮像画像を用いて前記第2のテクスチャ変化を算出する
ことを特徴とする請求項1に記載の撮像装置。 - 前記テクスチャ変化算出部は、前記複数の撮像画像の各々についてテクスチャ特徴を算出し、前記複数の撮像画像間での、前記テクスチャ特徴の変化を、前記テクスチャ変化として算出する
ことを特徴とする請求項1又は2に記載の撮像装置。 - 前記被写体抽出部は、前記輝度変化の算出及び前記テクスチャ変化の算出の少なくともいずれか一方に使用された撮像画像、又は各画素についての前記輝度変化で構成される輝度差分画像のうちの、前記輝度変化が第1の閾値よりも大きく、かつ前記テクスチャ変化が第2の閾値以下である領域を前記被写体領域として抽出する
ことを特徴とする請求項1から3のいずれか1項に記載の撮像装置。 - 前記複数の照明条件は、照明光の照射分布及び照明光の発光強度の少なくともいずれか一方が互いに異なる
ことを特徴とする請求項1から4のいずれか1項に記載の撮像装置。 - 前記複数の照明条件は、第1の発光強度で照明光を照射する第1の照明条件と、前記第1の発光強度より小さい第2の発光強度で照明光を照射する第2の照明条件とを含む
ことを特徴とする請求項1から5のいずれか1項に記載の撮像装置。 - 前記抽出された被写体領域における前記撮像画像の輝度特徴量及び前記テクスチャ変化の少なくとも何れか一方に基づいて、前記撮像条件の目標値を決定する目標値算出部をさらに有し、
前記撮像照射制御部は前記撮像条件の目標値に基づいて前記撮像条件制御信号を生成する
ことを特徴とする請求項1から6のいずれか1項に記載の撮像装置。 - 前記抽出された被写体領域における前記撮像画像の輝度特徴量及び前記テクスチャ変化の少なくとも何れか一方に基づいて、前記照明条件の目標値を決定する目標値算出部をさらに有し、
前記撮像照射制御部は前記照明条件の目標値に基づいて前記照明条件制御信号を生成する
ことを特徴とする請求項1から6のいずれか1項に記載の撮像装置。 - 前記照明条件の目標値は前記照射部による照明光の照射分布及び照明光の発光強度の少なくとも一方の目標値である
ことを特徴とする請求項8に記載の撮像装置。 - 前記被写体抽出部は、前記輝度変化と前記第1のテクスチャ変化とに基づいて前記被写体領域の抽出を行い、
前記目標値算出部は、
前記抽出された被写体領域のうち、前記第2のテクスチャ変化が第3の閾値よりも大きい部分の面積が第4の閾値以上である場合は、前記複数の照明条件における発光強度の差を小さくするように前記照明条件の目標値を調整し、
前記抽出された被写体領域の全体において前記第2のテクスチャ変化が前記第3の閾値以下である場合は、前記複数の照明条件における発光強度の差を大きくするように前記照明条件の目標値を調整する
ことを特徴とする請求項8又は9に記載の撮像装置。 - 前記目標値算出部は、
前記輝度変化の算出に使用した前記複数の撮像画像の中で、発光強度の最も小さい照明条件での撮像で得られた撮像画像のうちの、前記抽出された被写体領域の輝度特徴量が第5の閾値以下である場合は発光強度の最も小さい照明条件で用いられる発光強度の目標値を大きくし、
前記輝度変化の算出に使用した前記複数の撮像画像の中で、発光強度の最も大きい照明条件での撮像で得られた撮像画像のうちの、前記抽出された被写体領域の輝度特徴量が第6の閾値よりも大きい場合は発光強度の最も大きい照明条件で用いられる発光強度の目標値を小さくする
ことを特徴とする請求項8から10のいずれか1項に記載の撮像装置。 - 請求項1から11のいずれか1項に記載の撮像装置と、
前記被写体抽出部による、前記被写体領域の抽出の結果から前記被写体の形状の特徴量及び動きの特徴量の少なくとも何れか一方を算出し、予め定められた形状又は動きの特徴量を表す基準データと照合することで前記被写体の形状又は動きを認識する被写体認識部とを有する
ことを特徴とする操作装置。 - 前記被写体認識部は、前記動きの特徴量を、前記輝度変化及び前記テクスチャ変化の少なくとも何れか一方に基づき算出する
ことを特徴とする請求項12に記載の操作装置。 - 請求項3に記載の撮像装置と、
前記被写体抽出部による、前記被写体領域の抽出の結果から前記被写体の形状の特徴量及び動きの特徴量の少なくとも何れか一方を算出し、予め定められた形状又は動きの特徴量を表す基準データと照合することで前記被写体の形状又は動きを認識する被写体認識部とを有し、
前記被写体認識部は、前記テクスチャ変化算出部で算出された前記テクスチャ特徴に基づいて前記形状の特徴量を算出する
ことを特徴とする操作装置。 - 前記被写体の形状又は動きの認識の結果から操作内容を決定し、決定した操作内容を示すコマンドを生成して出力する操作決定部をさらに有する
ことを特徴とする請求項12から14のいずれか1項に記載の操作装置。 - 照明条件を制御する照明条件制御信号及び撮像条件を制御する撮像条件制御信号を生成する撮像照射制御ステップと、
前記照明条件制御信号に基づいて複数の互いに異なる照明条件で被写体を照明する照射ステップと、
前記撮像条件制御信号で制御される撮像条件で前記被写体の撮像を行って撮像画像を生成する撮像ステップと、
前記撮像ステップにより、前記異なる照明条件での撮像で得られた複数の撮像画像を使用して前記複数の撮像画像間での各画素についての輝度変化を算出する輝度変化算出ステップと、
前記撮像ステップにより、異なる時刻における撮像で得られた複数の撮像画像を使用して当該複数の撮像画像間での各画素についてのテクスチャ変化を算出するテクスチャ変化算出ステップと、
前記輝度変化と前記テクスチャ変化とに基づいて被写体領域を抽出する被写体抽出ステップとを有し、
前記テクスチャ変化算出ステップは、前記テクスチャ変化として、
前記異なる時刻に互いに等しい照明条件で行われた撮像で得られた複数の撮像画像を用いて第1のテクスチャ変化を算出するとともに、
前記輝度変化の算出に使用した複数の撮像画像を用いて第2のテクスチャ変化を算出する撮像方法。 - 請求項16の各ステップの処理をコンピュータに実行させるためのプログラム。
- 請求項17に記載のプログラムを記録した、コンピュータで読取り可能な記録媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/059635 WO2016157299A1 (ja) | 2015-03-27 | 2015-03-27 | 撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016157299A1 JPWO2016157299A1 (ja) | 2017-09-21 |
JP6312924B2 true JP6312924B2 (ja) | 2018-04-18 |
Family
ID=57005289
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017508833A Active JP6312924B2 (ja) | 2015-03-27 | 2015-03-27 | 撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10460195B2 (ja) |
JP (1) | JP6312924B2 (ja) |
CN (1) | CN107408305B (ja) |
DE (1) | DE112015006385T5 (ja) |
WO (1) | WO2016157299A1 (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2208354A4 (en) | 2007-10-10 | 2010-12-22 | Gerard Dirk Smits | IMAGE PROJECTOR WITH REFLECTIVE LIGHT TRACKING |
WO2016025502A1 (en) | 2014-08-11 | 2016-02-18 | Gerard Dirk Smits | Three-dimensional triangulation and time-of-flight based tracking systems and methods |
US10043282B2 (en) * | 2015-04-13 | 2018-08-07 | Gerard Dirk Smits | Machine vision for ego-motion, segmenting, and classifying objects |
US10484601B2 (en) * | 2015-08-31 | 2019-11-19 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
JP6593753B2 (ja) * | 2015-09-24 | 2019-10-23 | パナソニックIpマネジメント株式会社 | 照度取得装置、照明制御システムおよびプログラム |
JP6854828B2 (ja) | 2015-12-18 | 2021-04-07 | ジェラルド ディルク スミッツ | 物体のリアルタイム位置検知 |
US9813673B2 (en) | 2016-01-20 | 2017-11-07 | Gerard Dirk Smits | Holographic video capture and telepresence system |
EP3532863A4 (en) | 2016-10-31 | 2020-06-03 | Gerard Dirk Smits | FAST SCAN LIDAR WITH DYNAMIC VOXEL PROBE |
EP3563347A4 (en) | 2016-12-27 | 2020-06-24 | Gerard Dirk Smits | SYSTEMS AND METHODS FOR MACHINE PERCEPTION |
CN110612465B (zh) | 2017-05-10 | 2022-03-08 | 杰拉德·迪尔克·施密茨 | 扫描反射镜系统和方法 |
WO2019079750A1 (en) | 2017-10-19 | 2019-04-25 | Gerard Dirk Smits | METHODS AND SYSTEMS FOR NAVIGATING A VEHICLE EQUIPPED WITH A NEW MILITARY MARKER SYSTEM |
US10379220B1 (en) | 2018-01-29 | 2019-08-13 | Gerard Dirk Smits | Hyper-resolved, high bandwidth scanned LIDAR systems |
CN109583375B (zh) * | 2018-11-30 | 2021-04-06 | 中山大学 | 一种多特征融合的人脸图像光照识别方法及系统 |
US11275453B1 (en) | 2019-09-30 | 2022-03-15 | Snap Inc. | Smart ring for manipulating virtual objects displayed by a wearable device |
WO2021174227A1 (en) | 2020-02-27 | 2021-09-02 | Gerard Dirk Smits | High resolution scanning of remote objects with fast sweeping laser beams and signal recovery by twitchy pixel array |
US11798429B1 (en) | 2020-05-04 | 2023-10-24 | Snap Inc. | Virtual tutorials for musical instruments with finger tracking in augmented reality |
US11520399B2 (en) | 2020-05-26 | 2022-12-06 | Snap Inc. | Interactive augmented reality experiences using positional tracking |
US11925863B2 (en) * | 2020-09-18 | 2024-03-12 | Snap Inc. | Tracking hand gestures for interactive game control in augmented reality |
US11546505B2 (en) | 2020-09-28 | 2023-01-03 | Snap Inc. | Touchless photo capture in response to detected hand gestures |
CN112686122B (zh) * | 2020-12-25 | 2023-09-29 | 浙江大华技术股份有限公司 | 人体及影子的检测方法、装置、电子设备、存储介质 |
US11740313B2 (en) | 2020-12-30 | 2023-08-29 | Snap Inc. | Augmented reality precision tracking and display |
US11531402B1 (en) | 2021-02-25 | 2022-12-20 | Snap Inc. | Bimanual gestures for controlling virtual and graphical elements |
KR20230170086A (ko) | 2021-04-19 | 2023-12-18 | 스냅 인코포레이티드 | 가상 및 그래픽 엘리먼트들을 애니메이팅하고 제어하기 위한 손 제스처 |
JPWO2022244351A1 (ja) * | 2021-05-17 | 2022-11-24 | ||
JP2023003627A (ja) * | 2021-06-24 | 2023-01-17 | シヤチハタ株式会社 | コンピュータデバイス、方法およびコンピュータプログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6681037B1 (en) * | 1999-05-27 | 2004-01-20 | Cognex Corporation | Apparatus for locating features of an object using varied illumination |
JP3861551B2 (ja) * | 2000-03-07 | 2006-12-20 | 松下電器産業株式会社 | 外観検査における光学系の較正方法 |
JP2003259189A (ja) | 2002-03-01 | 2003-09-12 | Sony Corp | 撮像装置,画像処理方法 |
JP2005130268A (ja) | 2003-10-24 | 2005-05-19 | Nikon Corp | 画像抽出装置 |
US7599576B2 (en) * | 2004-01-23 | 2009-10-06 | Electro Scientific Industries, Inc. | Image subtraction of illumination artifacts |
JP4849460B2 (ja) * | 2005-10-14 | 2012-01-11 | ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド | 画像中の顔を認識する方法 |
JP4740755B2 (ja) | 2006-01-27 | 2011-08-03 | セコム株式会社 | 画像を用いた監視装置 |
EP2131589B1 (en) | 2007-03-28 | 2018-10-24 | Fujitsu Limited | Image processing device, image processing method, and image processing program |
JP4915367B2 (ja) | 2008-02-27 | 2012-04-11 | ソニー株式会社 | 表示撮像装置および物体の検出方法 |
JP5218168B2 (ja) * | 2009-03-11 | 2013-06-26 | ソニー株式会社 | 撮像装置、動体検知方法、動体検知回路、プログラム、及び監視システム |
CN103824307B (zh) * | 2012-11-16 | 2016-04-06 | 浙江大华技术股份有限公司 | 一种确定无效运动目标像素的方法和装置 |
TWI475495B (zh) * | 2013-02-04 | 2015-03-01 | Wistron Corp | 圖像的識別方法、電子裝置與電腦程式產品 |
JP2015043141A (ja) | 2013-08-26 | 2015-03-05 | キヤノン株式会社 | ジェスチャ認識装置および制御プログラム |
CN104143191A (zh) * | 2014-07-29 | 2014-11-12 | 中国科学院遥感与数字地球研究所 | 一种基于纹理元的遥感图像变化检测方法 |
-
2015
- 2015-03-27 WO PCT/JP2015/059635 patent/WO2016157299A1/ja active Application Filing
- 2015-03-27 US US15/552,870 patent/US10460195B2/en active Active
- 2015-03-27 JP JP2017508833A patent/JP6312924B2/ja active Active
- 2015-03-27 DE DE112015006385.4T patent/DE112015006385T5/de not_active Withdrawn
- 2015-03-27 CN CN201580078223.2A patent/CN107408305B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US10460195B2 (en) | 2019-10-29 |
CN107408305A (zh) | 2017-11-28 |
JPWO2016157299A1 (ja) | 2017-09-21 |
DE112015006385T5 (de) | 2017-12-14 |
WO2016157299A1 (ja) | 2016-10-06 |
US20180039852A1 (en) | 2018-02-08 |
CN107408305B (zh) | 2020-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6312924B2 (ja) | 撮像装置及び方法、操作装置及び方法、並びにプログラム及び記録媒体 | |
US9710716B2 (en) | Computer vision pipeline and methods for detection of specified moving objects | |
JP5675229B2 (ja) | 画像処理装置及び画像処理方法 | |
St-Charles et al. | SuBSENSE: A universal change detection method with local adaptive sensitivity | |
EP3418944A2 (en) | Information processing apparatus, information processing method, and program | |
CN105260731A (zh) | 一种基于光脉冲的人脸活体检测系统及方法 | |
Rujikietgumjorn et al. | Optimized pedestrian detection for multiple and occluded people | |
JP5166102B2 (ja) | 画像処理装置及びその方法 | |
JP2018524726A (ja) | ジェスチャーの検知識別の方法及びシステム | |
Brémond et al. | Saliency maps of high dynamic range images | |
CN112464885A (zh) | 基于机器学习的面部色斑未来变化的图像处理系统 | |
CN113763424B (zh) | 基于嵌入式平台的实时智能目标检测方法及系统 | |
CN106250878B (zh) | 一种结合可见光和红外图像的多模态目标跟踪方法 | |
Zhang et al. | Hand gesture detection and segmentation based on difference background image with complex background | |
CN116935133B (zh) | 一种基于spect图像识别的心血管病分类方法及系统 | |
JP2014197353A (ja) | 画像検出装置及び制御プログラム並びに画像検出方法 | |
Apewokin et al. | Embedded real-time surveillance using multimodal mean background modeling | |
CN110073406A (zh) | 面部检测装置及其控制方法、以及程序 | |
JP2000023141A (ja) | 移動物体監視装置 | |
US11875518B2 (en) | Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium | |
Zhang et al. | Background modeling by exploring multi-scale fusion of texture and intensity in complex scenes | |
Zou et al. | Improved Camshift tracking algorithm based on silhouette moving detection | |
Rotaru et al. | Animal Tracking Method Used in Neuroscience Experiments | |
GB2446293A (en) | Video based monitoring system and method | |
JP2009064100A (ja) | 画像処理装置およびゲイン調整方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170428 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180320 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6312924 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |