JPH08153187A - 画像認識方法 - Google Patents
画像認識方法Info
- Publication number
- JPH08153187A JPH08153187A JP7119974A JP11997495A JPH08153187A JP H08153187 A JPH08153187 A JP H08153187A JP 7119974 A JP7119974 A JP 7119974A JP 11997495 A JP11997495 A JP 11997495A JP H08153187 A JPH08153187 A JP H08153187A
- Authority
- JP
- Japan
- Prior art keywords
- label
- image
- person
- silhouette
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【目的】 入力画像中の複数の物体を一人ずつの人物領
域に分離して抽出する。 【構成】 入力画像メモリ101に格納されている入力
画像と、背景画像メモリ102に格納されている背景画
像との差分画像を求める。そしてシルエット関数作成処
理104により、人物画像のシルエット関数を作成す
る。このシルエット関数は、人物のくびなどによるくび
れた部分と、頭部以外での肩幅より狭い部分を省略した
人物のシルエット像を表わすものである。そして、シル
エット関数形状ラベリング処理105では、シルエット
関数の凹凸に対して平滑化処理を行ったのち、曲線の形
状によってラベル付けを行う。シルエット関数ラベル変
換処理106では、ラベルの並び方によりラベルの変換
を行う。人物分離処理107ではこのラベルを、あらか
じめ求められた人物の肩幅の閾値と、頭と肩の高さの差
の閾値とで比較することにより、入力画像中の複数の物
体を一人ずつの人物領域に分離して抽出する。
域に分離して抽出する。 【構成】 入力画像メモリ101に格納されている入力
画像と、背景画像メモリ102に格納されている背景画
像との差分画像を求める。そしてシルエット関数作成処
理104により、人物画像のシルエット関数を作成す
る。このシルエット関数は、人物のくびなどによるくび
れた部分と、頭部以外での肩幅より狭い部分を省略した
人物のシルエット像を表わすものである。そして、シル
エット関数形状ラベリング処理105では、シルエット
関数の凹凸に対して平滑化処理を行ったのち、曲線の形
状によってラベル付けを行う。シルエット関数ラベル変
換処理106では、ラベルの並び方によりラベルの変換
を行う。人物分離処理107ではこのラベルを、あらか
じめ求められた人物の肩幅の閾値と、頭と肩の高さの差
の閾値とで比較することにより、入力画像中の複数の物
体を一人ずつの人物領域に分離して抽出する。
Description
【0001】
【産業上の利用分野】本発明は、テレビカメラ等による
撮像画像から、来訪者を検出する来訪者案内システム等
において、来訪者の頭部等を検出する場合の前処理にお
いて、テレビカメラの前に複数の人物が存在する場合
に、画像を一人ずつの人物領域に分割する画像認識方法
に関するものである。
撮像画像から、来訪者を検出する来訪者案内システム等
において、来訪者の頭部等を検出する場合の前処理にお
いて、テレビカメラの前に複数の人物が存在する場合
に、画像を一人ずつの人物領域に分割する画像認識方法
に関するものである。
【0002】
【従来の技術】従来、この種の技術には、例えば、文献
「画像電子学会研究会予稿1993.4.4、西村、高
浜、山根、賀好」の「リアルタイム顔画像追尾方式」P
P.13ー16に記載されるものがある。
「画像電子学会研究会予稿1993.4.4、西村、高
浜、山根、賀好」の「リアルタイム顔画像追尾方式」P
P.13ー16に記載されるものがある。
【0003】図9は、従来の人物領域抽出方法の処理手
順を示す図である。図10は、図9における処理内容を
示す図であり、画像中の最大動き物体を抽出する方法を
示す。図10を参照しつつ、図9の人物領域抽出方法を
説明する。まず、テレビカメラ等から得られた入力画像
を、動き物体検出処理201において、例えば連続する
複数の画像間のフレーム間差分を利用して、図10
(a)に示す2値画像を得る。
順を示す図である。図10は、図9における処理内容を
示す図であり、画像中の最大動き物体を抽出する方法を
示す。図10を参照しつつ、図9の人物領域抽出方法を
説明する。まず、テレビカメラ等から得られた入力画像
を、動き物体検出処理201において、例えば連続する
複数の画像間のフレーム間差分を利用して、図10
(a)に示す2値画像を得る。
【0004】次に、X軸濃度投影処理202により、入
力画像中の動き物体の垂直方向、すなわちX軸方向への
投影を行い、図10(b)に示す投影ヒストグラムH
(x)を作成する。次に、最大物体領域抽出処理203
により、投影ヒストグラムH(x)を適当な閾値で2値
化し、図10(c)に示す投影ヒストグラムH′(x)
を作成する。このヒストグラム中でH′(x)の値が1
で連続した領域のうち、その領域のx軸の幅が最も大き
い領域を抽出する。図10(c)では、Xa−Xb間と
なる。これにより、入力画像中の動き物体のうち、最も
大きい連結図形領域を得られ、その領域を対象者が存在
するX軸方向の領域とする。
力画像中の動き物体の垂直方向、すなわちX軸方向への
投影を行い、図10(b)に示す投影ヒストグラムH
(x)を作成する。次に、最大物体領域抽出処理203
により、投影ヒストグラムH(x)を適当な閾値で2値
化し、図10(c)に示す投影ヒストグラムH′(x)
を作成する。このヒストグラム中でH′(x)の値が1
で連続した領域のうち、その領域のx軸の幅が最も大き
い領域を抽出する。図10(c)では、Xa−Xb間と
なる。これにより、入力画像中の動き物体のうち、最も
大きい連結図形領域を得られ、その領域を対象者が存在
するX軸方向の領域とする。
【0005】
【発明が解決しようとする課題】しかしながら、従来の
人物領域に分割する画像認識方法では、入力画像中に動
き物体が複数ある場合において、その物体が少しでも重
なっている場合は、対象者の人物領域を抽出することは
困難である。図11に従来の人物領域抽出方法において
領域抽出に失敗する例を示す。例えば、入力画像中に動
き物体が二つあり、その物体が重なっている場合の2値
画像を図11(a)に示す。
人物領域に分割する画像認識方法では、入力画像中に動
き物体が複数ある場合において、その物体が少しでも重
なっている場合は、対象者の人物領域を抽出することは
困難である。図11に従来の人物領域抽出方法において
領域抽出に失敗する例を示す。例えば、入力画像中に動
き物体が二つあり、その物体が重なっている場合の2値
画像を図11(a)に示す。
【0006】次に、図11(b)に示す投影ヒストグラ
ムH(x)を作成した場合、動き物体が重なっているた
め、二つの投影ヒストグラムがつながってしまう。その
ため、図11(c)に示す投影ヒストグラムH′(x)
を作成した場合に、二つの動き物体がH′(x)の値が
1で連続して現れてしまう。したがって、動き物体が二
つあることを認識することが不可能となり、対象者のい
る人物領域を抽出することができない。
ムH(x)を作成した場合、動き物体が重なっているた
め、二つの投影ヒストグラムがつながってしまう。その
ため、図11(c)に示す投影ヒストグラムH′(x)
を作成した場合に、二つの動き物体がH′(x)の値が
1で連続して現れてしまう。したがって、動き物体が二
つあることを認識することが不可能となり、対象者のい
る人物領域を抽出することができない。
【0007】本発明は、入力画像中に動き物体が複数存
在し、その物体がある程度重なり合った場合において、
画像を一人ずつの人物領域に分割する方法を提供するこ
とを目的とする。
在し、その物体がある程度重なり合った場合において、
画像を一人ずつの人物領域に分割する方法を提供するこ
とを目的とする。
【0008】
【課題を解決するための手段】上記の目的を解決するた
め、本発明の画像認識方法においては、侵入物体が存在
しないときにあらかじめ撮影した背景画像と、背景画像
を撮影したときと同じ位置で逐次撮影される入力画像と
の、差分画像を求めた後、その差分画像を2値化して差
分2値画像を求める。
め、本発明の画像認識方法においては、侵入物体が存在
しないときにあらかじめ撮影した背景画像と、背景画像
を撮影したときと同じ位置で逐次撮影される入力画像と
の、差分画像を求めた後、その差分画像を2値化して差
分2値画像を求める。
【0009】その差分2値画像を垂直方向に走査して変
化領域が最初に現れる位置を人物のシルエット像の輪郭
点とみなしてシルエット関数を作成し、そのシルエット
関数に平滑化処理を行った後、そのシルエット関数の曲
線の形状を調べ、始点に第1のラベル、終点に第2のラ
ベル、右上がりになる点に第3のラベル、右下がりにな
る点に第4のラベル、これら以外の点に第5のラベルを
付る。ラベル付けにより第3のラベルまたは第4のラベ
ルが第5のラベルを0個以上挟んで、それぞれ連続して
現れた場合は、先頭のラベルを残して第5のラベルに変
換し、第1のラベルの後に第5のラベルを0個以上挟ん
で第3のラベルが現れた場合は第3のラベルを第5のラ
ベルに変換し、第4のラベルの後に0個以上の第5のラ
ベルを挟んで第2のラベルが現れた場合は、第4のラベ
ルを第5のラベルに変換する。
化領域が最初に現れる位置を人物のシルエット像の輪郭
点とみなしてシルエット関数を作成し、そのシルエット
関数に平滑化処理を行った後、そのシルエット関数の曲
線の形状を調べ、始点に第1のラベル、終点に第2のラ
ベル、右上がりになる点に第3のラベル、右下がりにな
る点に第4のラベル、これら以外の点に第5のラベルを
付る。ラベル付けにより第3のラベルまたは第4のラベ
ルが第5のラベルを0個以上挟んで、それぞれ連続して
現れた場合は、先頭のラベルを残して第5のラベルに変
換し、第1のラベルの後に第5のラベルを0個以上挟ん
で第3のラベルが現れた場合は第3のラベルを第5のラ
ベルに変換し、第4のラベルの後に0個以上の第5のラ
ベルを挟んで第2のラベルが現れた場合は、第4のラベ
ルを第5のラベルに変換する。
【0010】ラベル変換によって付けられた第1のラベ
ルと第2のラベルの幅をあらかじめ求められた人物にお
ける肩幅の閾値と比較し、第1のラベルと第2のラベル
の間に第4のラベルと第3のラベルの組が存在する場合
は第1のラベルと第3のラベルの幅をあらかじめ求めら
れた人物における肩幅の閾値と比較し、第1のラベルと
第3のラベルの間に第4のラベルが存在する場合は、第
4のラベルの点におけるシルエット関数の値にあらかじ
め求められた人物における頭と肩の高さの差の閾値を乗
算した値と第3のラベルの点におけるシルエット関数の
値を比較することで、入力画像の複数の人物から一人ず
つの人物領域を抽出する。
ルと第2のラベルの幅をあらかじめ求められた人物にお
ける肩幅の閾値と比較し、第1のラベルと第2のラベル
の間に第4のラベルと第3のラベルの組が存在する場合
は第1のラベルと第3のラベルの幅をあらかじめ求めら
れた人物における肩幅の閾値と比較し、第1のラベルと
第3のラベルの間に第4のラベルが存在する場合は、第
4のラベルの点におけるシルエット関数の値にあらかじ
め求められた人物における頭と肩の高さの差の閾値を乗
算した値と第3のラベルの点におけるシルエット関数の
値を比較することで、入力画像の複数の人物から一人ず
つの人物領域を抽出する。
【0011】
【作用】入力画像メモリに格納されている入力画像と、
背景画像メモリに格納されている背景画像との差分画像
から差分2値画像を求め、その差分2値画像からシルエ
ット関数を求める。このシルエット関数は、人物の首な
どによるくびれた部分と、頭部以外での肩幅より狭い部
分を省略した人物のシルエット像を表すものである。シ
ルエット関数は局所的に凹凸があるため、平滑化処理を
一回から数回行うことで、ある程度滑らかな曲線にした
後、形状によりラベルを付け、始点と終点と右上がりの
点と右下がりの点を得ることができる。
背景画像メモリに格納されている背景画像との差分画像
から差分2値画像を求め、その差分2値画像からシルエ
ット関数を求める。このシルエット関数は、人物の首な
どによるくびれた部分と、頭部以外での肩幅より狭い部
分を省略した人物のシルエット像を表すものである。シ
ルエット関数は局所的に凹凸があるため、平滑化処理を
一回から数回行うことで、ある程度滑らかな曲線にした
後、形状によりラベルを付け、始点と終点と右上がりの
点と右下がりの点を得ることができる。
【0012】形状によって付けられたラベルを変換する
ことで、第1のラベルと第2のラベルの間には、第4の
ラベル、第3のラベルの順で1組存在するようになる。
ラベル変換によって得られたラベルに対し、第1のラベ
ルと第2のラベルの幅と、第1のラベルと第2のラベル
の間に第4のラベルと第3のラベルの組が存在する場合
は第1のラベルと第3のラベルの幅をあらかじめ求めら
れた人物における肩幅の閾値と比較することにより、肩
幅より狭い物体は非人間区間とする。第1のラベルと第
3のラベルの間に第4のラベルが存在する場合は、第4
のラベルの点におけるシルエット関数の値にあらかじめ
求められた人物における頭と肩の高さの差の閾値を乗算
した値と第3のラベルの点におけるシルエット関数の値
を比較することで、頭髪などの分け目により一人の人物
を2つの領域に分離することを防ぐことができる。この
結果、入力画像中に複数の人物が存在する場合において
も、一人ずつの人物領域を抽出することができる。
ことで、第1のラベルと第2のラベルの間には、第4の
ラベル、第3のラベルの順で1組存在するようになる。
ラベル変換によって得られたラベルに対し、第1のラベ
ルと第2のラベルの幅と、第1のラベルと第2のラベル
の間に第4のラベルと第3のラベルの組が存在する場合
は第1のラベルと第3のラベルの幅をあらかじめ求めら
れた人物における肩幅の閾値と比較することにより、肩
幅より狭い物体は非人間区間とする。第1のラベルと第
3のラベルの間に第4のラベルが存在する場合は、第4
のラベルの点におけるシルエット関数の値にあらかじめ
求められた人物における頭と肩の高さの差の閾値を乗算
した値と第3のラベルの点におけるシルエット関数の値
を比較することで、頭髪などの分け目により一人の人物
を2つの領域に分離することを防ぐことができる。この
結果、入力画像中に複数の人物が存在する場合において
も、一人ずつの人物領域を抽出することができる。
【0013】
第1実施例 図1は、本発明の画像認識方法の実施例の処理手順を示
す図であり、入力画像メモリ101、背景画像メモリ1
02、差分2値化処理103、シルエット関数作成処理
104、シルエット関数形状ラベリング処理105、シ
ルエット関数ラベル変換処理106、人物分離処理10
7から成る。
す図であり、入力画像メモリ101、背景画像メモリ1
02、差分2値化処理103、シルエット関数作成処理
104、シルエット関数形状ラベリング処理105、シ
ルエット関数ラベル変換処理106、人物分離処理10
7から成る。
【0014】入力画像メモリ101は、RAM(ランダ
ム・アクセス・メモリ)等から成り、例えばテレビカメ
ラ等から逐次撮影された入力画像を格納する。図2に人
物の上半身が存在する入力画像を示す。また、このよう
な入力画像メモリ101には人物の全身が入るようにし
てもよい。背景画像メモリ102は、RAMまたはEP
ROM等から成り、侵入物体が存在しないときにあらか
じめ撮影された図3に示すような背景画像を格納する。
また、入力画像と背景画像は同じ位置で撮影するものと
する。図2の入力画像、及び図3の背景画像は一例を示
すものにすぎない。
ム・アクセス・メモリ)等から成り、例えばテレビカメ
ラ等から逐次撮影された入力画像を格納する。図2に人
物の上半身が存在する入力画像を示す。また、このよう
な入力画像メモリ101には人物の全身が入るようにし
てもよい。背景画像メモリ102は、RAMまたはEP
ROM等から成り、侵入物体が存在しないときにあらか
じめ撮影された図3に示すような背景画像を格納する。
また、入力画像と背景画像は同じ位置で撮影するものと
する。図2の入力画像、及び図3の背景画像は一例を示
すものにすぎない。
【0015】以下の各部は、入力画像メモリ101及び
背景画像メモリ102に格納された画像を順に処理して
いく。差分2値化処理103は、入力画像と背景画像と
の差分画像を計算し、適当な閾値で2値化を行い、差分
2値画像を計算する。図4は、差分2値画像であり矢印
の示した方向にx軸、y軸をとり、画像の大きさを0≦
x<w、0≦y<hとする。図4の黒い部分を変化領域
とし画素値をf(x,y)=1、白い部分を背景領域と
し画素値をf(x,y)=0とする。また、入力画像に
侵入物体が存在せず、入力画像と背景画像との差分画像
が得られない場合は、その入力画像を破棄し、次の入力
画像の処理に移るものとする。
背景画像メモリ102に格納された画像を順に処理して
いく。差分2値化処理103は、入力画像と背景画像と
の差分画像を計算し、適当な閾値で2値化を行い、差分
2値画像を計算する。図4は、差分2値画像であり矢印
の示した方向にx軸、y軸をとり、画像の大きさを0≦
x<w、0≦y<hとする。図4の黒い部分を変化領域
とし画素値をf(x,y)=1、白い部分を背景領域と
し画素値をf(x,y)=0とする。また、入力画像に
侵入物体が存在せず、入力画像と背景画像との差分画像
が得られない場合は、その入力画像を破棄し、次の入力
画像の処理に移るものとする。
【0016】シルエット関数作成処理104は、差分2
値画像を垂直方向に走査してシルエット関数S(x)を
作成する。図5(a)に人物の全身のシルエット像を示
す。ここで、図5(b)に示すシルエット関数の各値
は、首などによるくびれ部分と、頭部以外で肩幅より狭
い部分を省略した人物のシルエット像の輪郭の位置であ
り、その形状は人物の上半身の形状をほぼ表している。
値画像を垂直方向に走査してシルエット関数S(x)を
作成する。図5(a)に人物の全身のシルエット像を示
す。ここで、図5(b)に示すシルエット関数の各値
は、首などによるくびれ部分と、頭部以外で肩幅より狭
い部分を省略した人物のシルエット像の輪郭の位置であ
り、その形状は人物の上半身の形状をほぼ表している。
【0017】図6は、シルエット関数の作成方法であ
る。図6(a)に示す差分2値画像において、原点を左
上にとり、x=x1に対して垂直方向にy=0から垂直
な破線の方向に順に走査する。最初に1が現れた位置を
シルエット像の輪郭点とみなし、この時点のy座標をy
1とする。図6(b)では、原点を左下にとり、x=x
1のときS(x)=h−y1となる。同様の処理を0≦
x<wの範囲で行い、シルエット関数S(x)を作成す
る。
る。図6(a)に示す差分2値画像において、原点を左
上にとり、x=x1に対して垂直方向にy=0から垂直
な破線の方向に順に走査する。最初に1が現れた位置を
シルエット像の輪郭点とみなし、この時点のy座標をy
1とする。図6(b)では、原点を左下にとり、x=x
1のときS(x)=h−y1となる。同様の処理を0≦
x<wの範囲で行い、シルエット関数S(x)を作成す
る。
【0018】シルエット関数形状ラベリング処理105
では、シルエット関数S(x)に平滑化処理を行い、シ
ルエット関数S′(x)を作成し、形状によるラベル付
けを行う。図6(b)において、シルエット関数S
(x)の各値は、シルエット像の輪郭点であるため、シ
ルエット像の入力画像の濃度値や雑音の影響により局所
的に凹凸がある。したがって、シルエット関数S(x)
に対して0≦x<wの範囲内で平滑化処理を行いシルエ
ット関数S′(x)を作成する。平滑化処理は、ある点
aを中心としてその点から等しい幅で前後にc点とb点
を取り、c点からb点までの区間内にある全ての点の値
を加算し、平均値を求める方法で行う。しかし、平滑化
処理は上記の方法に限定されるものではなく例えばメデ
ィアンフィルタを用いてc点からb点までの区間内にあ
る全ての点の値の中央値を求める方法でも良い。図6
(c)は、平滑化処理後のシルエット関数S′(x)で
ある。シルエット関数S′(x)は、次式(1)で求め
る。
では、シルエット関数S(x)に平滑化処理を行い、シ
ルエット関数S′(x)を作成し、形状によるラベル付
けを行う。図6(b)において、シルエット関数S
(x)の各値は、シルエット像の輪郭点であるため、シ
ルエット像の入力画像の濃度値や雑音の影響により局所
的に凹凸がある。したがって、シルエット関数S(x)
に対して0≦x<wの範囲内で平滑化処理を行いシルエ
ット関数S′(x)を作成する。平滑化処理は、ある点
aを中心としてその点から等しい幅で前後にc点とb点
を取り、c点からb点までの区間内にある全ての点の値
を加算し、平均値を求める方法で行う。しかし、平滑化
処理は上記の方法に限定されるものではなく例えばメデ
ィアンフィルタを用いてc点からb点までの区間内にあ
る全ての点の値の中央値を求める方法でも良い。図6
(c)は、平滑化処理後のシルエット関数S′(x)で
ある。シルエット関数S′(x)は、次式(1)で求め
る。
【0019】
【数1】 上記式(1)の計算を1回から数回行う。ただし、−Δ
w≦x<0の場合と、w≦x<w+Δwの場合は、S
(x)=0とする。
w≦x<0の場合と、w≦x<w+Δwの場合は、S
(x)=0とする。
【0020】次に、シルエット関数S′(x)における
曲線の形状を調べることにより、0≦x<wの範囲に対
して、x軸にそれぞれ異なるラベルを付ける。
曲線の形状を調べることにより、0≦x<wの範囲に対
して、x軸にそれぞれ異なるラベルを付ける。
【0021】形状によるラベル付け条件 ラベルA:S′(x+1)>0かつS′(x)=0. ラベルB:S′(x+1)=0かつS′(x)>0. ラベルC:S′(x+1)−S′(x)>0かつS′
(x)−S′(x−1)≦0かつx≠A. ラベルD:S′(x+1)−S′(x)<0かつS′
(x)−S′(x−1)≧0かつx≠B. ラベルE:上記以外(x≠A,B,C,D).
(x)−S′(x−1)≦0かつx≠A. ラベルD:S′(x+1)−S′(x)<0かつS′
(x)−S′(x−1)≧0かつx≠B. ラベルE:上記以外(x≠A,B,C,D).
【0022】ただし、−1≦x<0の場合と、x=wの
場合は、S′(x)=0とする。図7(a)は、上記に
示す形状によるラベル付け条件にもとづいてラベル付け
を行ったシルエット関数S′(x)である。ここで、ラ
ベルEは図に示していないが図示してあるラベルA、ラ
ベルB、ラベルC、ラベルD以外のx軸上の点はラベル
Eであるとする。形状によるラベル付け条件よりあきら
かように、ラベルAは始点(第1のラベル)、ラベルB
は終点(第2のラベル)、ラベルCは右上がりになる点
(第3のラベル)、ラベルDは右下がりになる点(第4
のラベル)、ラベルEはこれらの点以外(第5のラベ
ル)を示している。
場合は、S′(x)=0とする。図7(a)は、上記に
示す形状によるラベル付け条件にもとづいてラベル付け
を行ったシルエット関数S′(x)である。ここで、ラ
ベルEは図に示していないが図示してあるラベルA、ラ
ベルB、ラベルC、ラベルD以外のx軸上の点はラベル
Eであるとする。形状によるラベル付け条件よりあきら
かように、ラベルAは始点(第1のラベル)、ラベルB
は終点(第2のラベル)、ラベルCは右上がりになる点
(第3のラベル)、ラベルDは右下がりになる点(第4
のラベル)、ラベルEはこれらの点以外(第5のラベ
ル)を示している。
【0023】シルエット関数ラベル変換処理106で
は、シルエット関数S′(x)に、形状によってつけら
れたラベルに対して、ラベル変換を行う。区間I(A,
B)内には、x軸に対してラベルD,ラベルCの順で1
組または0組存在するようにするためのラベル変換であ
る。
は、シルエット関数S′(x)に、形状によってつけら
れたラベルに対して、ラベル変換を行う。区間I(A,
B)内には、x軸に対してラベルD,ラベルCの順で1
組または0組存在するようにするためのラベル変換であ
る。
【0024】以下に、ラベル変換の方法をラベル変換1
とラベル変換2に示す。シルエット関数S′(x)のx
軸上につけられたすべてのラベルに対して、ラベル変換
1を行った後、ラベル変換2を行うものとする。 ラベル変換1 ラベルCまたはラベルDの後に0個以上のラベルEを挟
んで同じラベルが連続する場合は、先頭のラベルのみを
残してラベルEに変換する。図7(b)は、ラベル変換
1を行ったシルエット関数S′(x)である。
とラベル変換2に示す。シルエット関数S′(x)のx
軸上につけられたすべてのラベルに対して、ラベル変換
1を行った後、ラベル変換2を行うものとする。 ラベル変換1 ラベルCまたはラベルDの後に0個以上のラベルEを挟
んで同じラベルが連続する場合は、先頭のラベルのみを
残してラベルEに変換する。図7(b)は、ラベル変換
1を行ったシルエット関数S′(x)である。
【0025】ラベル変換2 ラベルAの後に0個以上のラベルEを挟んでラベルCが
ある場合は、そのラベルCをラベルEに変換する。ラベ
ルDの後に0個以上のラベルEを挟んでラベルBがある
場合は、そのラベルDをラベルEに変換する。図7
(c)は、ラベル変換2を行ったシルエット関数S′
(x)である。
ある場合は、そのラベルCをラベルEに変換する。ラベ
ルDの後に0個以上のラベルEを挟んでラベルBがある
場合は、そのラベルDをラベルEに変換する。図7
(c)は、ラベル変換2を行ったシルエット関数S′
(x)である。
【0026】人物分離処理107は、シルエット関数ラ
ベル変換処理106により得られたラベルにより人物の
領域を抽出する。図8に人物領域抽出方法を示す。図8
(a)は差分2値画像より求めたシルエット関数S
(x)である。図8(b)は、シルエット関数S(x)
に平滑化処理を行ったのち、ラベル付けとラベル変換を
行ったシルエット関数S′(x)である。まず、x軸に
つけられたラベルのうち、一組のラベルAとラベルBに
挟まれた区間I(A,B)を抽出する。なお、区間I
(A,B)が複数存在する場合は、以下の処理を存在す
る全ての区間I(A,B)に対して行うものとする。
ベル変換処理106により得られたラベルにより人物の
領域を抽出する。図8に人物領域抽出方法を示す。図8
(a)は差分2値画像より求めたシルエット関数S
(x)である。図8(b)は、シルエット関数S(x)
に平滑化処理を行ったのち、ラベル付けとラベル変換を
行ったシルエット関数S′(x)である。まず、x軸に
つけられたラベルのうち、一組のラベルAとラベルBに
挟まれた区間I(A,B)を抽出する。なお、区間I
(A,B)が複数存在する場合は、以下の処理を存在す
る全ての区間I(A,B)に対して行うものとする。
【0027】次に、区間I(A,B)のx軸の幅を、あ
らかじめ決められている閾値Twと比較する。閾値Tw
とは、画像上に映る人物における肩幅の閾値である。区
間I(A,B)のx軸の幅が、閾値Twより小さい場合
は、区間I(A,B)を、非人物区間とする。閾値Tw
以上の場合は、区間I(A,B)内に少なくとも一人の
人物が存在するとし、人物区間とする。
らかじめ決められている閾値Twと比較する。閾値Tw
とは、画像上に映る人物における肩幅の閾値である。区
間I(A,B)のx軸の幅が、閾値Twより小さい場合
は、区間I(A,B)を、非人物区間とする。閾値Tw
以上の場合は、区間I(A,B)内に少なくとも一人の
人物が存在するとし、人物区間とする。
【0028】図8(b)において、例えば、区間I1
(A,B)及び、区間I2(A,B)を人間区間とし、
区間I3(A,B)を非人間区間とする。
(A,B)及び、区間I2(A,B)を人間区間とし、
区間I3(A,B)を非人間区間とする。
【0029】次に、区間I(A,B)が人物区間である
場合においての処理を以下に示す。 処理1 区間I(A,B)内にラベルDとラベルCの組が存在し
ない場合は、区間I(A,B)内に人物は一人しか存在
しないものとして、一人の人物領域P(A,B)とす
る。 処理2 区間I(A,B)内にラベルDとラベルCの組が存在す
る場合は、ラベルAから最初のラベルCまでの区間I
(A,C)のx軸の幅を、閾値Twと比較する。区間I
(A,C)の幅が閾値Tw以上の場合は処理3を行い、
閾値Twより小さい場合は、処理4を行う。
場合においての処理を以下に示す。 処理1 区間I(A,B)内にラベルDとラベルCの組が存在し
ない場合は、区間I(A,B)内に人物は一人しか存在
しないものとして、一人の人物領域P(A,B)とす
る。 処理2 区間I(A,B)内にラベルDとラベルCの組が存在す
る場合は、ラベルAから最初のラベルCまでの区間I
(A,C)のx軸の幅を、閾値Twと比較する。区間I
(A,C)の幅が閾値Tw以上の場合は処理3を行い、
閾値Twより小さい場合は、処理4を行う。
【0030】処理3 区間I(A,C)内において、S′(x=C)の値と
S′(x=D)の値の関係が、条件1:S′(x=C)
<S′(x=D)×Thを満たす場合は区間I(A,
C)を一人の人物領域P(A,B)とする。次に、この
ラベルCをラベルBにし、次のラベルをラベルAに変換
する。次に処理1に戻り、ラベルAから次のラベルBま
での区間に対して、同様に処理を行う。条件1を満たさ
ない場合は、処理4を行う。ここで、Thは人物の頭と
肩の高さの差の割合の閾値で例えば0.8程度の値であ
り、頭髪の分け目などにより一人の人物を2つの領域に
分割することを防ぐために用いる。 処理4 区間I(A,C)内のラベルDとラベルCをそれぞれラ
ベルEに変換し、処理1に戻り同様に処理を行う。
S′(x=D)の値の関係が、条件1:S′(x=C)
<S′(x=D)×Thを満たす場合は区間I(A,
C)を一人の人物領域P(A,B)とする。次に、この
ラベルCをラベルBにし、次のラベルをラベルAに変換
する。次に処理1に戻り、ラベルAから次のラベルBま
での区間に対して、同様に処理を行う。条件1を満たさ
ない場合は、処理4を行う。ここで、Thは人物の頭と
肩の高さの差の割合の閾値で例えば0.8程度の値であ
り、頭髪の分け目などにより一人の人物を2つの領域に
分割することを防ぐために用いる。 処理4 区間I(A,C)内のラベルDとラベルCをそれぞれラ
ベルEに変換し、処理1に戻り同様に処理を行う。
【0031】図8(c)は人物区間において、上記に示
す処理にもとづいて求められた人物一人分の水平方向の
領域である。ここで、x軸上のAとBで挟まれたP1
(A,B)とP2(A,B)とP3(A,B)が、一人
ずつの人物領域である。以上の処理を行うことにより、
入力画像中に複数の人物が存在する場合においても、一
人ずつの人物領域に分離することができる。
す処理にもとづいて求められた人物一人分の水平方向の
領域である。ここで、x軸上のAとBで挟まれたP1
(A,B)とP2(A,B)とP3(A,B)が、一人
ずつの人物領域である。以上の処理を行うことにより、
入力画像中に複数の人物が存在する場合においても、一
人ずつの人物領域に分離することができる。
【0032】なお、人物分離処理107は、上記に示し
た処理の流れに限定されるものではない。例えば、最初
に、人物の頭と肩の高さの差の割合である閾値Thと比
較してから、肩幅の閾値であるTwと比較をすることで
一人ずつの人物領域に分離することもできる。
た処理の流れに限定されるものではない。例えば、最初
に、人物の頭と肩の高さの差の割合である閾値Thと比
較してから、肩幅の閾値であるTwと比較をすることで
一人ずつの人物領域に分離することもできる。
【0033】第2実施例 図12は本発明による第2実施例の処理手順を示した図
である。第2実施例においては、入力画像501および
背景画像502から第1実施例で行った人物領域分離処
理503を用いて人物頭部検出処理504、面積の大き
さ等による頭部位置の並べ換え505を順次行うことに
より連続画像に対しても人物領域の検出を行うことを可
能にするものである。また、第2実施例は例えば図13
に示す構成図によって実現されるものである。カメラ1
301によって撮影される入力画像を格納する入力画像
メモリ1302および人物が存在しないときに撮影され
た背景画像を格納する背景画像メモリ1304を備えて
おり、差分画像計算処理ボード1303によって計算さ
れた入力画像と背景画像との差分画像は差分画像メモリ
1305に格納される。人物領域分離処理ボード130
7は差分画像を処理する事により人物1人ずつの人物領
域を抽出する。人物頭部検出処理ボード1306は差分
画像と人物領域とから人物の頭部位置を検出する。人物
領域および人物頭部位置は人物ラベル付け処理ボード1
307に入力されると頭部位置メモリ1308に格納さ
れている1フレーム前のラベル付けされた人物頭部位置
を用いて現フレームでの頭部位置に対するラベル付けが
行われる。ここで得られた結果は対話システム1310
に渡されるとともに頭部位置メモリ1308に格納され
る。
である。第2実施例においては、入力画像501および
背景画像502から第1実施例で行った人物領域分離処
理503を用いて人物頭部検出処理504、面積の大き
さ等による頭部位置の並べ換え505を順次行うことに
より連続画像に対しても人物領域の検出を行うことを可
能にするものである。また、第2実施例は例えば図13
に示す構成図によって実現されるものである。カメラ1
301によって撮影される入力画像を格納する入力画像
メモリ1302および人物が存在しないときに撮影され
た背景画像を格納する背景画像メモリ1304を備えて
おり、差分画像計算処理ボード1303によって計算さ
れた入力画像と背景画像との差分画像は差分画像メモリ
1305に格納される。人物領域分離処理ボード130
7は差分画像を処理する事により人物1人ずつの人物領
域を抽出する。人物頭部検出処理ボード1306は差分
画像と人物領域とから人物の頭部位置を検出する。人物
領域および人物頭部位置は人物ラベル付け処理ボード1
307に入力されると頭部位置メモリ1308に格納さ
れている1フレーム前のラベル付けされた人物頭部位置
を用いて現フレームでの頭部位置に対するラベル付けが
行われる。ここで得られた結果は対話システム1310
に渡されるとともに頭部位置メモリ1308に格納され
る。
【0034】まず、人物頭部検出処理504では以下の
ような処理を行う。図14は人物の頭部検出を行う処理
手順を示す図である。人物領域でのシルエット関数の水
平方向の投影ヒストグラムを作成する水平方向投影ヒス
トグラム作成1401、頭部の垂直方向の領域とその中
心部分の検出を行う垂直方向頭部検出処理1402、頭
部の水平方向の領域とその中心部分の検出を行う水平方
向頭部検出処理1403が順次行われる。
ような処理を行う。図14は人物の頭部検出を行う処理
手順を示す図である。人物領域でのシルエット関数の水
平方向の投影ヒストグラムを作成する水平方向投影ヒス
トグラム作成1401、頭部の垂直方向の領域とその中
心部分の検出を行う垂直方向頭部検出処理1402、頭
部の水平方向の領域とその中心部分の検出を行う水平方
向頭部検出処理1403が順次行われる。
【0035】図15はシルエット関数の水平方向投影ヒ
ストグラム作成方法1401を示す図である。図15
(a)に示す1人ずつの人物領域の1人分の領域につい
て、ある値y2に対しx=A1,A1+1,・・・,B1−
1と順次変化させたときのS(x)≧h−y2となる場
合の数を数え、これをh1(y2)の値とする(図15
(b)に示す)。全てのy(0≦y<h)に対して同様
の処理を行い、図15(c)に示す水平方向ヒストグラ
ムを作成する。
ストグラム作成方法1401を示す図である。図15
(a)に示す1人ずつの人物領域の1人分の領域につい
て、ある値y2に対しx=A1,A1+1,・・・,B1−
1と順次変化させたときのS(x)≧h−y2となる場
合の数を数え、これをh1(y2)の値とする(図15
(b)に示す)。全てのy(0≦y<h)に対して同様
の処理を行い、図15(c)に示す水平方向ヒストグラ
ムを作成する。
【0036】図16は垂直方向頭部領域の検出方法14
02を示す図である。図16(a)に示す水平方向投影
ヒストグラムh1(y)の値をy=0から順に調べて最
初にh1(y)>0となるyを頭部の先端点aとして検
出する。人のシルエットの特徴からヒストグラムh1
(y)の値は、首と肩の境界に当たる位置から急激に増
加する事が分かっている。このためa≦y<hにおける
ヒストグラムh1(y)を大局的に2つのクラスに分割
する点を首と肩の境界点として求めることとする。この
ヒストグラムh1(y)を微分することにより図16
(b)に示す水平方向投影ヒストグラムh1′(y)を
作成する。ここでシルエット関数の特徴からh1(y)
は単調増加関数であると言えるのでh1′(y)≧0
(0≦y<h)となる。次に一定区間2wにおけるh1
(y)の増加量の和D(yw)をD(yw)=Σh1′
(y)として計算し、一定区間2w内に先端点aを含む
区間以外で最も増加量の多い区間の中心値ywを点bと
する。ただしこのときのΣはyをyw−wからyw+w
まで変化させたときの和集合を表す。頭部の中心位置点
cはカメラの垂直方向の角度によって画像中の実際の肩
の位置が変動するので、|b−c|と|c−a|を1:
nに分割する点として検出する。ただし、nはカメラの
上下方向の角度によって決まる定数であり1〜2程度の
実数である。さらに|c−a|:|d−c|=1:1を
満たすように点dを定め点aと点dとで囲まれた部分を
垂直方向の頭部領域とする。
02を示す図である。図16(a)に示す水平方向投影
ヒストグラムh1(y)の値をy=0から順に調べて最
初にh1(y)>0となるyを頭部の先端点aとして検
出する。人のシルエットの特徴からヒストグラムh1
(y)の値は、首と肩の境界に当たる位置から急激に増
加する事が分かっている。このためa≦y<hにおける
ヒストグラムh1(y)を大局的に2つのクラスに分割
する点を首と肩の境界点として求めることとする。この
ヒストグラムh1(y)を微分することにより図16
(b)に示す水平方向投影ヒストグラムh1′(y)を
作成する。ここでシルエット関数の特徴からh1(y)
は単調増加関数であると言えるのでh1′(y)≧0
(0≦y<h)となる。次に一定区間2wにおけるh1
(y)の増加量の和D(yw)をD(yw)=Σh1′
(y)として計算し、一定区間2w内に先端点aを含む
区間以外で最も増加量の多い区間の中心値ywを点bと
する。ただしこのときのΣはyをyw−wからyw+w
まで変化させたときの和集合を表す。頭部の中心位置点
cはカメラの垂直方向の角度によって画像中の実際の肩
の位置が変動するので、|b−c|と|c−a|を1:
nに分割する点として検出する。ただし、nはカメラの
上下方向の角度によって決まる定数であり1〜2程度の
実数である。さらに|c−a|:|d−c|=1:1を
満たすように点dを定め点aと点dとで囲まれた部分を
垂直方向の頭部領域とする。
【0037】図17は水平方向頭部領域の検出方法14
03を示す図である。図17(a)はシルエット関数S
(x)に対してA1≦x≦B1、h−d≦h1(x)<
hの範囲でh1(x)を切り出したものを図17(b)
に示す頭部シルエット関数Sh(x)とする。また、頭
部シルエット関数Sh(x)においてx=0から順にそ
の値を調べ、Sh(x)>c−aを満たす最初の点を
f、最後の点をgとして点fと点gとで囲まれた部分を
水平方向の頭部領域として検出する。次にe=Σx・S
h(x)/ΣSh(x)により求められた重心eを水平
方向の頭部中心位置とする。ただしこのときΣはxをA
1からB1まで変化させたときの和集合を表す。以上か
ら人物領域に対する頭部中心位置P=(c,e)が求め
られる。
03を示す図である。図17(a)はシルエット関数S
(x)に対してA1≦x≦B1、h−d≦h1(x)<
hの範囲でh1(x)を切り出したものを図17(b)
に示す頭部シルエット関数Sh(x)とする。また、頭
部シルエット関数Sh(x)においてx=0から順にそ
の値を調べ、Sh(x)>c−aを満たす最初の点を
f、最後の点をgとして点fと点gとで囲まれた部分を
水平方向の頭部領域として検出する。次にe=Σx・S
h(x)/ΣSh(x)により求められた重心eを水平
方向の頭部中心位置とする。ただしこのときΣはxをA
1からB1まで変化させたときの和集合を表す。以上か
ら人物領域に対する頭部中心位置P=(c,e)が求め
られる。
【0038】図18に頭部位置データの並べ換えを行う
処理手順を示す。背景画像のフレームをf=0とする
(1801)。入力画像501および背景画像502か
ら実施例1同様に人物領域を抽出し、前述の頭部位置の
検出を行う(1802)。人物領域抽出の結果、人物領
域が存在しなければ最初の処理(1801)に戻り、存
在する場合は人物が存在する最初のフレームとしてfに
1を加算する(1804)かどうかの判断を行う(18
03)。1805ではf>1でないとき、即ちf=1の
ときには1802で求めた頭部位置データPp(f,k)(0
≦k≦n(f))を次式に従って面積の大きい順に並べ換
え、ラベルを付する処理を行い(1806)、1802
へ戻る。 area(Pp(f,1))≦area(Pp(f,2))≦・・・≦area(Pp
(f,Pn(f))) ここで頭部位置データPpに対する人物の占める面積are
a(Pp(f,Pn(f)))=ΣS(x)でありΣはxをA1か
らB1まで変化させたときの和集合を表す。
処理手順を示す。背景画像のフレームをf=0とする
(1801)。入力画像501および背景画像502か
ら実施例1同様に人物領域を抽出し、前述の頭部位置の
検出を行う(1802)。人物領域抽出の結果、人物領
域が存在しなければ最初の処理(1801)に戻り、存
在する場合は人物が存在する最初のフレームとしてfに
1を加算する(1804)かどうかの判断を行う(18
03)。1805ではf>1でないとき、即ちf=1の
ときには1802で求めた頭部位置データPp(f,k)(0
≦k≦n(f))を次式に従って面積の大きい順に並べ換
え、ラベルを付する処理を行い(1806)、1802
へ戻る。 area(Pp(f,1))≦area(Pp(f,2))≦・・・≦area(Pp
(f,Pn(f))) ここで頭部位置データPpに対する人物の占める面積are
a(Pp(f,Pn(f)))=ΣS(x)でありΣはxをA1か
らB1まで変化させたときの和集合を表す。
【0039】再び1802での処理が行われ、人物領域
が検出されるとfに1が加算され(1804)f=2と
なるため1807へ進むとnに1が代入される。ここで
は次式の条件を満たすよう頭部位置データの並べ換えが
行われ、ラベルが付される(1808)。 |Pp(f-1,n)−Pp(f,i)| ≦ |Pp(f-1,n)−Pp(f,j)
| (n≦i,j≦Pn(f)) この場合フレーム1の画像で1番面積の大きかった頭部
位置データ(ラベル1ー1とする)に最も近い頭部位置
データをフレーム2でのラベル2ー1とする。次にnを
1つ進ませ(1809)、フレーム1での人物数Pn(1)
とnとで大小を比較し(1810)nが小さい場合はフ
レーム0での人物数Pn(0)とnとで大小を比較する(1
812)。nが小さい場合は1808に戻り同様に処理
を行う。例えばPn(0)=2、Pn(1)=3の時、フレーム
2の画像で2番目に面積の大きい頭部位置データ(ラベ
ル1ー2)に最も近い頭部位置データをラベル2ー2と
して(1808)、n=2+1=3となる(180
9)。ここでn=3とPn(0)=2の大小が比較され(1
810)、この場合はnの方が大きくなるためPp(1,k)
について面積の大きい順にラベルが付される。全てのk
について並べ換えが終わると1802に戻り同様の処理
が行われる。また、Pn(0)=3、Pn(1)=2とした場合
には1810においてnが小さくなるため1812に進
み、Pn(1)=2の方がn=3より小さくなるため180
2に戻り次の入力画像に対する処理が行われることにな
る。
が検出されるとfに1が加算され(1804)f=2と
なるため1807へ進むとnに1が代入される。ここで
は次式の条件を満たすよう頭部位置データの並べ換えが
行われ、ラベルが付される(1808)。 |Pp(f-1,n)−Pp(f,i)| ≦ |Pp(f-1,n)−Pp(f,j)
| (n≦i,j≦Pn(f)) この場合フレーム1の画像で1番面積の大きかった頭部
位置データ(ラベル1ー1とする)に最も近い頭部位置
データをフレーム2でのラベル2ー1とする。次にnを
1つ進ませ(1809)、フレーム1での人物数Pn(1)
とnとで大小を比較し(1810)nが小さい場合はフ
レーム0での人物数Pn(0)とnとで大小を比較する(1
812)。nが小さい場合は1808に戻り同様に処理
を行う。例えばPn(0)=2、Pn(1)=3の時、フレーム
2の画像で2番目に面積の大きい頭部位置データ(ラベ
ル1ー2)に最も近い頭部位置データをラベル2ー2と
して(1808)、n=2+1=3となる(180
9)。ここでn=3とPn(0)=2の大小が比較され(1
810)、この場合はnの方が大きくなるためPp(1,k)
について面積の大きい順にラベルが付される。全てのk
について並べ換えが終わると1802に戻り同様の処理
が行われる。また、Pn(0)=3、Pn(1)=2とした場合
には1810においてnが小さくなるため1812に進
み、Pn(1)=2の方がn=3より小さくなるため180
2に戻り次の入力画像に対する処理が行われることにな
る。
【0040】以上のように本発明による第2実施例にお
いては、前フレームで割り当てられたラベルの順に最も
近い人物の位置を求め対応づけを行うことにより連続し
たフレームにおいても同一人物の領域を抽出することが
できるものである。従って対話システム等においては対
応すべき人物を常に捉えることが可能になり、対話すべ
き人物に顔を向けた対応が可能になるという効果を持つ
ものである。
いては、前フレームで割り当てられたラベルの順に最も
近い人物の位置を求め対応づけを行うことにより連続し
たフレームにおいても同一人物の領域を抽出することが
できるものである。従って対話システム等においては対
応すべき人物を常に捉えることが可能になり、対話すべ
き人物に顔を向けた対応が可能になるという効果を持つ
ものである。
【0041】
【発明の効果】以上説明したように、本発明の画像認識
方法によれば、入力画像と背景画像の差分画像を求め、
その差分画像からシルエット関数を求め、そのシルエッ
ト関数に平滑化処理を施し、ラベル付けを行うことで、
人物の上半身の輪郭の形状を人物の分離に利用すること
が可能となる。このため、入力画像中に侵入物体が複数
あり、その物体がある程度重なっている場合でも、画像
を一人ずつの人物領域に分割することができ、対象者の
いる人物領域を抽出することができる。
方法によれば、入力画像と背景画像の差分画像を求め、
その差分画像からシルエット関数を求め、そのシルエッ
ト関数に平滑化処理を施し、ラベル付けを行うことで、
人物の上半身の輪郭の形状を人物の分離に利用すること
が可能となる。このため、入力画像中に侵入物体が複数
あり、その物体がある程度重なっている場合でも、画像
を一人ずつの人物領域に分割することができ、対象者の
いる人物領域を抽出することができる。
【図1】本発明の画像認識方法の実施例の処理手順を示
す図である。
す図である。
【図2】入力画像の一例の説明図である。
【図3】背景画像の一例の説明図である。
【図4】差分2値画像の作成結果の説明図である。
【図5】シルエット像とシルエット関数の説明図であ
る。
る。
【図6】シルエット関数の作成方法の説明図である。
【図7】シルエット関数のラベル付け及びラベル変換の
説明図である。
説明図である。
【図8】シルエット関数の人物領域抽出方法の説明図で
ある。
ある。
【図9】従来の画像認識方法の処理手順を示す図であ
る。
る。
【図10】従来の最大動き物体抽出処理の説明図であ
る。
る。
【図11】従来の人物領域抽出方法において領域抽出に
失敗する例の説明図である。
失敗する例の説明図である。
【図12】本発明による第2実施例の処理手順を示した
図である。
図である。
【図13】本発明による第2実施例の構成例を示した図
である。
である。
【図14】人物の頭部検出を行う処理手順を示した図で
ある。
ある。
【図15】シルエット関数の水平方向投影ヒストグラム
の作成方法を示した図である。
の作成方法を示した図である。
【図16】垂直方向頭部領域の検出方法を示した図であ
る。
る。
【図17】水平方向頭部領域の検出方法を示した図であ
る。
る。
【図18】頭部位置データの並べ換えを行う処理手順を
示した図である。
示した図である。
101 入力画像メモリ 102 背景画像メモリ 103 差分2値化処理 104 シルエット関数作成処理 105 シルエット関数形状ラベリング処理 106 シルエット関数ラベル変換処理 107 人物分離処理
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G08B 13/196 9419−2E H04N 7/18 D 9061−5H G06F 15/70 405
Claims (3)
- 【請求項1】 侵入物体が存在しないときにあらかじめ
撮影された背景画像と、前記背景画像を撮影したときと
同じ位置で撮影された入力画像との差分画像を求めた
後、前記差分画像を2値化して差分2値画像を求め、前
記差分2値画像の変化領域より前記入力画像の複数の人
物を一人ずつの領域に分離する画像認識方法において、 前記差分2値画像を垂直方向に走査して前記変化領域が
最初に現れる位置を、人物のシルエット像の輪郭点とみ
なしてシルエット関数を作成し、 前記シルエット関数に、平滑化処理を一回から数回行
い、 前記平滑化処理後の前記シルエット関数の曲線の形状を
調べることにより、前記シルエット関数の始点に第1の
ラベル、終点に第2のラベル、右上がりになる点に第3
のラベル、右下がりになる点に第4のラベル、これら以
外の点に第5のラベルを付け、 前記ラベル付けにより前記第3のラベルまたは前記第4
のラベルが前記第5のラベルを0個以上挟んで、それぞ
れ連続して現れた場合は、先頭のラベルを残して前記第
5のラベルに変換し、前記第1のラベルの後に前記第5
のラベルを0個以上挟んで前記第3のラベルが現れた場
合は前記第3のラベルを前記第5のラベルに変換し、前
記第4のラベルの後に0個以上の前記第5のラベルを挟
んで前記第2のラベルが現れた場合は、前記第4のラベ
ルを前記第5のラベルに変換し、 前記ラベル変換によって付けられた前記第1のラベルと
前記第2のラベルの幅をあらかじめ求められた人物にお
ける肩幅の閾値と比較し、 前記第1のラベルと前記第2のラベルの間に前記第4の
ラベルと前記第3のラベルの組が存在する場合は前記第
1のラベルと前記第3のラベルの幅をあらかじめ求めら
れた人物における肩幅の閾値と比較し、 前記第1のラベルと前記第3のラベルの間に前記第4の
ラベルが存在する場合は、前記第4のラベルの点におけ
るシルエット関数の値にあらかじめ求められた人物にお
ける頭と肩の高さの差の閾値を乗算した値と前記第3の
ラベルの点におけるシルエット関数の値を比較すること
で、前記入力画像の複数の人物から一人ずつの人物領域
を抽出することを特徴とする画像認識方法。 - 【請求項2】 侵入物体が存在しないときにあらかじめ
撮影された背景画像と、前記背景画像を撮影したときと
同じ位置で撮影された入力画像との差分画像を求めた
後、前記差分画像を2値化して差分2値画像を求め、前
記差分2値画像の変化領域より前記入力画像の複数の人
物を一人ずつの領域に分離する画像認識方法において、 n(n=1、2、・・・)番目のフレームに対して第1
の人物領域を抽出する処理と前記第1の人物領域に順序
を付する処理とn+1番目のフレームに対して第2の人
物領域を抽出する処理と前記第1の人物領域に付された
順序に従って前記第1の人物領域に近接する前記第2の
人物領域に順序を付する処理とを備えたことを特徴とす
る画像認識方法。 - 【請求項3】 前記第1の人物領域を抽出する処理また
は前記第2の人物領域を抽出する処理は、請求項1記載
の画像認識方法を用いることを特徴とする請求項2記載
の画像認識方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7119974A JPH08153187A (ja) | 1994-09-27 | 1995-05-18 | 画像認識方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23132594 | 1994-09-27 | ||
JP6-231325 | 1994-09-27 | ||
JP7119974A JPH08153187A (ja) | 1994-09-27 | 1995-05-18 | 画像認識方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH08153187A true JPH08153187A (ja) | 1996-06-11 |
Family
ID=26457622
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7119974A Withdrawn JPH08153187A (ja) | 1994-09-27 | 1995-05-18 | 画像認識方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH08153187A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7123754B2 (en) | 2001-05-22 | 2006-10-17 | Matsushita Electric Industrial Co., Ltd. | Face detection device, face pose detection device, partial image extraction device, and methods for said devices |
WO2012161291A1 (ja) * | 2011-05-20 | 2012-11-29 | 日本電気株式会社 | 部位分離位置抽出装置、プログラム、方法 |
JP2013058017A (ja) * | 2011-09-07 | 2013-03-28 | Nippon Hoso Kyokai <Nhk> | 特定領域抽出装置及び特定領域抽出プログラム |
JP2016042328A (ja) * | 2014-08-19 | 2016-03-31 | 株式会社岩崎電機製作所 | 位置変化検出装置 |
JP2016178531A (ja) * | 2015-03-20 | 2016-10-06 | 大日本印刷株式会社 | 印画物作製装置 |
US10839552B2 (en) | 2017-06-01 | 2020-11-17 | Nec Corporation | Image processing apparatus, tracking method, and program |
-
1995
- 1995-05-18 JP JP7119974A patent/JPH08153187A/ja not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7123754B2 (en) | 2001-05-22 | 2006-10-17 | Matsushita Electric Industrial Co., Ltd. | Face detection device, face pose detection device, partial image extraction device, and methods for said devices |
WO2012161291A1 (ja) * | 2011-05-20 | 2012-11-29 | 日本電気株式会社 | 部位分離位置抽出装置、プログラム、方法 |
JPWO2012161291A1 (ja) * | 2011-05-20 | 2014-07-31 | 日本電気株式会社 | 部位分離位置抽出装置、プログラム、方法 |
JP6090162B2 (ja) * | 2011-05-20 | 2017-03-08 | 日本電気株式会社 | 部位分離位置抽出装置、プログラム、方法 |
JP2013058017A (ja) * | 2011-09-07 | 2013-03-28 | Nippon Hoso Kyokai <Nhk> | 特定領域抽出装置及び特定領域抽出プログラム |
JP2016042328A (ja) * | 2014-08-19 | 2016-03-31 | 株式会社岩崎電機製作所 | 位置変化検出装置 |
JP2016178531A (ja) * | 2015-03-20 | 2016-10-06 | 大日本印刷株式会社 | 印画物作製装置 |
US10839552B2 (en) | 2017-06-01 | 2020-11-17 | Nec Corporation | Image processing apparatus, tracking method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107358149B (zh) | 一种人体姿态检测方法和装置 | |
JP6276519B2 (ja) | 人数計測装置および人物動線解析装置 | |
EP2265023B1 (en) | Subject tracking device and subject tracking method | |
EP1426898B1 (en) | Human detection through face detection and motion detection | |
JP4216668B2 (ja) | 映像視覚情報を結合してリアルタイムで複数の顔を検出して追跡する顔検出・追跡システム及びその方法 | |
JP5629803B2 (ja) | 画像処理装置、撮像装置、画像処理方法 | |
EP2737434B1 (en) | Gait recognition methods and systems | |
JP5675229B2 (ja) | 画像処理装置及び画像処理方法 | |
JP2005056387A (ja) | 画像処理装置、撮像装置、画像処理方法 | |
Shirodkar et al. | Automated attendance management system using face recognition | |
CN113191216B (zh) | 基于姿态识别和c3d网络的多人实时动作识别方法和系统 | |
JP2008035301A (ja) | 移動体追跡装置 | |
JP2019029747A (ja) | 画像監視システム | |
JPH08153187A (ja) | 画像認識方法 | |
Al-Shehri | A simple and novel method for skin detection and face locating and tracking | |
Ruiz-del-Solar et al. | Real-time tracking of multiple persons | |
Hu et al. | Locating head and face boundaries for head–shoulder images | |
Li et al. | Detecting and tracking human faces in videos | |
KR101620556B1 (ko) | 생체 인식 방법 | |
JP2801362B2 (ja) | 個人識別装置 | |
JP6851246B2 (ja) | 物体検出装置 | |
JP3519672B2 (ja) | 動作認識処理装置及び移動物体の動作分析システム | |
JPH08145826A (ja) | 時系列圧力分布画像による動物体属性識別装置 | |
Dileep et al. | Structured connectivity-face model for the recognition of human facial expressions | |
JPH08221549A (ja) | 侵入物体認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20020806 |