JP2012079348A - 人物特定装置、人物特定方法及び人物特定プログラム - Google Patents
人物特定装置、人物特定方法及び人物特定プログラム Download PDFInfo
- Publication number
- JP2012079348A JP2012079348A JP2012011058A JP2012011058A JP2012079348A JP 2012079348 A JP2012079348 A JP 2012079348A JP 2012011058 A JP2012011058 A JP 2012011058A JP 2012011058 A JP2012011058 A JP 2012011058A JP 2012079348 A JP2012079348 A JP 2012079348A
- Authority
- JP
- Japan
- Prior art keywords
- person
- information
- image
- image information
- dimensional model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
【解決手段】画像取得部110は少なくとも3方向から人の画像情報を取得する。3次元モデル生成部120は、画像取得部110が取得した画像情報に基づき、その人を3次元モデルで表した3次元モデル情報を生成して、その人を識別するための情報として3次元モデル情報を3次元モデル記憶部130に記憶させる。その後、画像取得部110は新たに人の画像情報を取得する。人物特定部140は、画像取得部110が新たに取得した画像情報が示す人の姿勢に、3次元モデル記憶部130が記憶した3次元モデル情報の姿勢を変形して、画像情報が示す人と3次元モデル情報とを比較することにより、画像情報が示す人を特定する。
【選択図】図1
Description
例えば、入場者を特定の人物に限定する場合、店舗等の入り口に設置されたカメラで入り口付近を撮影して、撮影された画像に含まれる人物を特定する。そして、特定された人物が入場を許可されている人物でなければ入場を制限する。この場合、入場が許可されていないにもかかわらず悪意を持って入場しようとする者であれば、荷物等でカメラに顔が映らないように顔を隠して入場することも考えられる。また、一般の入場者であっても、横を向きながら入場することも考えられる。したがって、都合よく入場する人の顔の正面画像を取得できるとは限らない。
この発明は、例えば、顔の正面画像が含まれていない画像情報からでも、人物の特定を可能にすることを目的とする。
複数の人の各人について、その人を識別するための情報として、人の全身の骨構造を有する3次元モデル情報であって、その人の関節間の長さを持つ3次元モデル情報を記憶装置に記憶する3次元モデル記憶部と、
撮影装置により人を撮影してその人の画像情報を取得する画像取得部と、
前記画像取得部が取得した人の画像情報の輪郭に合うように、前記3次元モデル記憶部が記憶した3次元モデル情報が有する骨構造の関節を曲げて変形した上で、前記画像情報が示す人の輪郭と、変形した前記3次元モデル情報の輪郭とを比較するとともに、前記画像取得部が取得した人の画像情報から得られるその人の所定の関節間の長さと、前記3次元モデル情報が持つ前記所定の関節間の長さとを比較することにより、前記画像情報が示す人を特定する人物特定部と
を備えることを特徴とする。
前記人物特定部は、前記第1の位置と前記第2の位置と前記人の画像情報とから人の前記関節間の長さを計算する
ことを特徴とする。
人の画像の表面を表現するための複数のテクスチャを記憶装置に記憶するテクスチャ記憶部と、
前記テクスチャ記憶部が記憶した複数のテクスチャから前記人の画像情報を表現するためのテクスチャを処理装置により抽出するテクスチャ抽出部とを備え、
前記人物特定部は、前記テクスチャ抽出部が抽出したテクスチャを前記3次元モデル情報に貼り付けて、テクスチャを貼り付けた3次元モデル情報の輪郭を前記人の画像情報の輪郭と比較することにより、前記画像情報が示す人を特定する
ことを特徴とする。
前記人物特定装置は、さらに、
前記人物特定部が特定した人の姿勢に基づき、その人の動作を処理装置により特定する動作特定部
を備えることを特徴とする。
複数の人の各人について、その人を識別するための情報として、人の全身の骨構造を有する3次元モデル情報であって、その人の関節間の長さを持つ3次元モデル情報を記憶した記憶装置を用いる人物特定方法であり、
撮影装置が、人を撮影してその人の画像情報を取得する画像取得ステップと、
処理装置が、前記画像取得ステップで取得した人の画像情報の輪郭に合うように、前記記憶装置に記憶した3次元モデル情報が有する骨構造の関節を曲げて変形した上で、前記画像情報が示す人の輪郭と、変形した前記3次元モデル情報の輪郭とを比較するとともに、前記画像取得ステップで取得した人の画像情報から得られるその人の所定の関節間の長さと、前記3次元モデル情報が持つ前記所定の関節間の長さとを比較することにより、前記画像情報が示す人を特定する人物特定ステップと
を備えることを特徴とする。
複数の人の各人について、その人を識別するための情報として、人の全身の骨構造を有する3次元モデル情報であって、その人の関節間の長さを持つ3次元モデル情報を記憶した記憶装置を用いる人物特定プログラムであり、
人を撮影してその人の画像情報を取得する画像取得処理と、
前記画像取得処理で取得した人の画像情報の輪郭に合うように、前記記憶装置に記憶した3次元モデル情報が有する骨構造の関節を曲げて変形した上で、前記画像情報が示す人の輪郭と、変形した前記3次元モデル情報の輪郭とを比較するとともに、前記画像取得処理で取得した人の画像情報から得られるその人の所定の関節間の長さと、前記3次元モデル情報が持つ前記所定の関節間の長さとを比較することにより、前記画像情報が示す人を特定する人物特定処理と
をコンピュータに実行させることを特徴とする。
まず、3次元モデル情報の生成処理について説明する。次に、生成した3次元モデル情報に基づく人物特定処理について説明する。
人物特定装置100は、画像取得部110、3次元モデル生成部120、3次元モデル記憶部130(人物情報記憶部)、人物特定部140、テクスチャ抽出部150、テクスチャ記憶部160を備える。
画像取得部110は、カメラ等の撮影装置により人を撮影してその人の画像情報を取得する。
3次元モデル生成部120は、画像取得部110が取得した人の画像情報に基づき、その人の3次元モデル情報を処理装置により生成する。3次元モデル情報は、画像情報からその人の所定の骨(主要な骨)の長さ等を計算して生成された骨モデル情報に、後述するテクスチャ抽出部150が抽出したテクスチャを貼付して、その人を3次元モデルで表した情報である。骨の長さや身体の各部の太さは人毎に異なるため、3次元モデル情報は人毎に異なる情報であり、人を識別可能な情報である。
3次元モデル記憶部130は、3次元モデル生成部120が生成した3次元モデル情報をその人の名前やID等の個人情報とともに記憶装置に記憶する。
人物特定部140は、3次元モデル記憶部130が記憶した3次元モデル情報と、画像取得部110が取得した画像情報(通常は3次元モデル情報を作成する際に使用した画像情報とは異なる画像情報)に含まれる人とを比較して、その人がどの人であるか(誰であるか)を特定する。
テクスチャ抽出部150は、後述するテクスチャ記憶部160が記憶するテクスチャから、画像取得部110が取得した画像情報に含まれる人を表現するためのテクスチャを処理装置により抽出する。
テクスチャ記憶部160は、人の画像の表面を表現するための複数のテクスチャを記憶装置に記憶する。テクスチャ記憶部160は、例えば、人の皮膚等を表した複数のテクスチャを記憶する。ここでは、テクスチャ記憶部160は、複数のパターンの服のテクスチャを3次元モデルとして記憶する。テクスチャとは、3次元コンピュータグラフィックスで、物体の表面の質感を表現するために貼り付ける画像のことである。
撮影してその人の画像情報を取得する。そして、3次元モデル生成部120がその画像情報に基づきその人の3次元モデル情報を生成して、3次元モデル記憶部130が生成した3次元モデル情報を記憶する。
その後、再びその人が来店した場合には、画像取得部110は、店舗の入り口で撮影して画像情報を取得する。そして、人物特定部140は、以前に来店した際に取得した画像情報から生成した3次元モデル情報に基づき、今回来店した人が誰であるか特定する。つまり、人物特定装置100は、以前に来店した際に生成した3次元モデル情報に基づき、来店者が誰であるかを特定することができる。
あるいは、店舗の入り口で取得した画像情報に基づき、3次元モデル情報を生成した後、来店した人が店舗内を移動する。すると、画像取得部110は、店舗内にいる人をカメラにより撮影して新たな画像情報を取得する。人物特定部140は、画像取得部110が新たに取得した画像情報に含まれる人を、3次元モデル記憶部130が記憶した3次元モデル情報に基づき特定する。つまり、人物特定装置100は、店舗の入り口を撮影して取得した画像情報から生成した3次元モデル情報に基づき、店舗内を撮影して取得した画像情報に含まれる人が誰であるか特定することができる。すなわち、人物特定装置100は、3次元モデル情報に基づき、店舗内を移動する人を追跡することができる。
(S11:画像取得ステップ)
画像取得部110は、カメラにより人を撮影して画像情報を取得する。
図3は、画像取得部110が3次元モデル情報作成のために人の画像情報を取得する状況を示す図である。図3に示すように、画像取得部110は、異なる位置に設置された少なくとも3台のカメラにより通過した人を撮影して画像情報を取得する。つまり、画像取得部110は、少なくとも3方向(例えば、前方向、横方向、上方向)から人を撮影して画像情報を取得する。3方向からの画像情報があれば、人を立体(3次元モデル)として表すことができる。カメラは多ければ多いほど精度の高い3次元モデル情報を生成することができる。
また、画像取得部110は、所定の位置にいる人を所定の位置から撮影する。撮影された人の位置と撮影した位置(カメラの位置)とがわかれば、その間の距離がわかり、撮影して取得した画像情報からその人のサイズを計算することができる。つまり、画像情報から人の身長、足の長さ、足の太さ、手の長さ、手の太さ、肩幅、顔の大きさ、顔のパーツの大きさ、顔のパーツの間の距離等を計算することができる。そこで、例えば、店舗の入り口付近に通過センサを設置しておき、通過センサが人が通過したことを検知した場合に、所定の位置に設置された少なくとも3台のカメラで撮影することにより、所定の位置にいる人を撮影することができる。カメラの位置は設置した位置であるから当然に知ることができる。
3次元モデル生成部120は、(S11)で画像取得部110が取得した画像情報に、3次元モデル情報のベースとなるベースモデル(擬似胴体)の形状を処理装置により合わせる。
図4は、ベースモデルの一例を示す図である。図4では、ベースモデルを平面的に示しているが、実際には3次元で表現されている。また、ベースモデルは人間の動きを表すために必要な最低限の骨構造を有しているものとする(図4では簡単のため一部の骨のみ表示している)。したがって、ベースモデルを人間がとるどのような姿勢にも変形することができる。なお、図4では、ベースモデルの顔部分は、顎部分を除き簡単のため省略して示している。また、図4では、線で骨を表し、丸で関節を表している。
3次元モデル生成部120は、ベースモデルを、画像取得部110が取得した画像情報における人の姿勢に変形する。3次元モデル生成部120は、例えば、画像情報から人の
輪郭を抽出して、抽出した輪郭に合うようにベースモデルを変形することで、ベースモデルを画像情報における人の姿勢に変形できる。
3次元モデル生成部120は、(S12)で3次元モデル生成部120が変形したベースモデルのサイズを、(S11)で画像取得部110が取得した画像情報から得られる人のサイズに変更する。
つまり、3次元モデル生成部120は、(S11)で画像取得部110が取得した画像情報からその人の骨の長さと形状とを処理装置により計算する。そして、3次元モデル生成部120は、(S12)で3次元モデル生成部120が変形したベースモデルの骨の長さと形状とを、計算した骨の長さと形状とに処理装置により変更する。これにより、3次元モデル生成部120は、画像情報における人に対応した3次元の骨モデル(骨モデル情報)を生成する。
なお、人は服を着ているため、(S11)で画像取得部110が取得した画像情報から、一部の骨の長さや形状は特定できない虞がある。例えば、人が大きめ(緩め)の服を着ているような場合には、その服に覆われた部分の長さや形状は特定できない虞がある。この場合には、例えば、他の骨の長さや形状からおおよその長さや形状を推測計算してもよいし、長さや太さを特定できない部分については、長さや太さを無視して3次元モデル情報を生成してもよい。
テクスチャ抽出部150は、(S11)で画像取得部110が抽出した画像情報における人を表現するためのテクスチャをテクスチャ記憶部160が記憶した複数のテクスチャから抽出する。
ここでは、テクスチャ抽出部150は、1種類の皮膚のテクスチャと複数の服のテクスチャとを記憶しているとする。図5は、テクスチャ記憶部160が記憶する服のテクスチャの一例を示す図である。図5では、簡単のため、服のテクスチャを平面で示すが、服のテクスチャは3次元モデルである。したがって、テクスチャ記憶部160が記憶した服のテクスチャは、袖部分を曲げる等自由に変形可能である。つまり、服のテクスチャを3次元骨モデル情報に貼り付けて、3次元骨モデルが服を着た状態にした場合、3次元骨モデルの姿勢変更に合わせて服のテクスチャの形状も変更できる。つまり、3次元骨モデルの腕を曲げれば、服のテクスチャの袖も合わせて曲がる。図5に示すように、テクスチャ記憶部160は、例えば、半袖シャツ、長袖シャツ、ジャケット、ジャンパー、長ズボン、スカート等の複数の服のテクスチャを記憶する。テクスチャ記憶部160は、例えば、半袖シャツであっても、襟付、襟なし、細身、標準、太め、クルーネック、Vネック等様々な形状のテクスチャを記憶しているものとする。つまり、テクスチャ記憶部160は、一般的な服であれば、そのシルエットを表現したテクスチャを記憶しているものとする。
そこで、テクスチャ抽出部150は、まず画像情報における人画像の色毎の輪郭等から服と服以外の部分とに処理装置により分離する。そして、テクスチャ抽出部150は、服部分について輪郭等から、画像情報における人が着ている服に対応する服のテクスチャを処理装置により選択して抽出する。また、テクスチャ抽出部150は、皮膚のテクスチャを抽出する。
そして、3次元モデル生成部120は、テクスチャ抽出部150が抽出したテクスチャを(S13)で生成した骨モデル情報に貼付する。なお、テクスチャ抽出部150は、皮膚のテクスチャを該当部分のサイズ(太さ等)に合わせて貼付するとともに、服のテクスチャを画像情報における人の姿勢と服のサイズとに合わせて変形して貼付する。服のテクスチャを貼付するとは、骨モデル情報が示す骨モデルに服のテクスチャが示す服を着せた状態にすることである。これにより、3次元モデル生成部120は、3次元モデル情報を生成する。
図6は、3次元モデル情報の一例を示す図である。図6では、簡単のため顔部分は省略
している。3次元モデル情報は、画像情報における人の姿勢、各パーツ(足、胴体、腕、首等)の長さ、太さ、着ている服のシルエットを3次元モデルとして表現したものである。上述したように、3次元モデル情報は、3次元モデルであり、人間の動きを表すために必要な最低限の骨構造を有するベールモデルに基づき生成したため、人間の取りうる姿勢であればどのような姿勢にでも変形できる。この際、貼付した服のテクスチャも姿勢に合わせて変形する。
そして、3次元モデル記憶部130は、生成された3次元モデル情報を記憶装置に記憶する。また、3次元モデル記憶部130は、その3次元モデル情報が示す人が誰であるか特定された場合には、その人の個人情報をその3次元モデルと対応付けて記憶する。
また、上記説明では、人の全身の3次元モデル情報を生成することを前提に説明した。しかし、これに限らず、人の身体の一部のみの3次元モデル情報を生成するとしてもよい。例えば、人の足の付け根から踵までの3次元モデル情報や顔の3次元モデル情報を生成するとしてもよい。この場合には、(S12)で3次元モデル生成部120は、まず(S11)で画像取得部110が取得した画像情報から3次元モデル情報の生成対象の部分の画像を切り出す必要がある。
また、撮影を複数回実施して、複数の画像情報を取得するとしてもよい。これにより、その人の異なる姿勢の画像情報を得ることができる。異なる姿勢の画像情報を得ることで、各部がどの位置からどの方向へ変形するのかを特定することができる。つまり、変形方向(関節の曲がる方向)と可動軸部(関節の位置)とを特定できる。その結果、各関節がどの関節であるかをより正確に特定できるとともに、各関節間の長さ(各パーツの長さ)をより正確に求めることができる。
(S21:画像取得ステップ)
画像取得部110は、カメラにより人を撮影して画像情報を取得する。ここでは、画像取得部110は、3次元モデル情報を生成する場合とは異なり、1方向から人を撮影して画像情報を取得すればよい。
(S11)と同様に、画像取得部110は、所定の位置にいる人を所定の位置に設置されたカメラにより撮影する。例えば、再び来店した人を、(S11)と同様に通過センサが人が通過したことを検知した場合に、所定の位置に設置されたカメラで撮影する。これにより、撮影された人の位置を知ることができ、取得した画像情報からその人のサイズを計算することができる。また、画像取得部110は、撮影した画像に含まれる他の物の位置から撮影された人の位置を計算するとしてもよい。つまり、店舗内を撮影するカメラにより撮影して取得した画像情報に含まれる人の位置を、その画像情報に含まれる他の物(例えば、机、椅子、植栽等)の位置から計算してもよい。
人物特定部140は、3次元モデル記憶部130が記憶装置に記憶した3次元モデル情報を、(S21)で画像取得部110が取得した画像情報に含まれる人の姿勢に処理装置により変形する。
人物特定部140は、例えば、画像情報に含まれる人の輪郭に、3次元モデル情報の輪郭が一致するように、3次元モデル情報の姿勢を変形することで、3次元モデル情報を画
像情報に含まれる人の姿勢に変形できる。なお、人物特定部140は、この時点で、3次元モデル情報の姿勢を変形しても、画像情報に含まれる人の輪郭に3次元モデル情報の輪郭を一致させられない場合には、画像情報に含まれる人と3次元モデル情報が示す人とは一致しないと判断する。
人物特定部140は、(S21)で画像取得部110が取得した画像情報に含まれる人と、(S22)で変形した3次元モデル情報とを処理装置により比較する。
人物特定部140は、例えば、画像情報に含まれる人と3次元モデル情報とをサイズにより比較する。例えば、画像情報に含まれる人と3次元モデル情報との膝から踝までの長さ(骨の長さ)を比較する。合わせて、他の部分のサイズ、例えば肘から手首までの長さ(骨の長さ)も比較するとしてもよい。骨の長さは人毎に異なるため、画像情報に含まれる人と骨の長さが一致する3次元モデル情報を見つけることにより、その人が誰であるか特定できる。特に、複数の骨の長さが一致する3次元モデルを見つけることにより、特定の精度を高くすることができる。
また、骨の長さでなく、所定の部分の太さで比較してもよい。例えば、膝回りの太さや足首の太さ等で比較してもよい。また、骨の長さと所定の部分の太さとの両方で比較することにより特定精度をより高くすることができる。
さらに、服の部分については、服の形状により比較してもよい。つまり、画像情報に含まれる人が着ている服の輪郭と、3次元モデル情報をその人の姿勢に変形したことに伴い変形された服のテクスチャ(服の3次元モデル情報)の輪郭とを比較してもよい。骨の長さや所定の部分の太さによる比較に加え、服の形状による比較を行うことで特定精度をさらに高くすることができる。なお、来店する度に来店者の服は変わると考えられる。そのため、服の形状による比較は、店舗の入り口を撮影して取得した画像情報から生成した3次元モデル情報に基づき、店舗内を撮影して取得した画像情報に含まれる人が誰であるか特定する場合には有効に機能するが、以前に来店した際に生成した3次元モデル情報に基づき、来店者が誰であるかを特定する場合には有効に機能しない場合がある。
比較の結果、画像情報に含まれる人と3次元モデル情報とが一致すれば、画像情報に含まれる人は、3次元モデル情報が示す人であると特定できる。一方、不一致であれば、画像情報に含まれる人は、3次元モデル情報が示す人でないと特定できる。
特に、人物特定装置100は、従来の顔認識のように、顔のパーツ間の距離や顔のパーツの大きさの比率により比較するのではなく、身体の一部のサイズにより比較する。そのため、人の顔画像により人を特定する場合であっても、人の顔の正面画像でなく、横顔の画像であっても画像情報に含まれる部分のみで比較することが可能である。
また、人物特定装置100は、画像情報が示す人の姿勢に3次元モデル情報を変形して比較するため、人がどのような姿勢であっても人物特定が可能である。また、人物特定装置100は、人物を特定するとともに、その人の姿勢を特定することができる。
3次元モデル記憶部130が多くの3次元モデル情報を記憶している場合に、全ての3次元モデル情報について(S22)と(S23)との処理を行うには多くの時間が必要となる。そこで、3次元モデル記憶部130は、3次元モデル情報とともに、その3次元モデル情報が示す人の特徴を示す情報(特徴情報)を記憶しているとしてもよい。特徴情報とは、例えば、性別、年齢等である。人物特定部140は、画像情報からその人の性別や凡その年齢を特定して、その特定した性別と年齢とにより3次元モデル情報を絞込みする。なお、性別や凡その年齢を特定する方法はどのような方法であってもよい。そして、人物特定部140は、絞込みされた3次元モデル情報についてのみ(S22)と(S23)との処理を行うとしてもよい。
この実施の形態では、3次元モデル情報に基づき、特定の動作をする人物を検出して警告等を行う人物特定装置100について説明する。
動作記憶部170は、所定の動作(所定の骨モデルの動作)を示す情報(スクリプト)を記憶装置に記憶する。
動作特定部180は、画像取得部110が取得した画像情報から動作記憶部170が記憶した動作を処理装置により検出する。そして、動作特定部180は、動作記憶部170が記憶した動作を検出した場合、人物特定装置100の管理者等へ通知する。
(S31:画像取得ステップ)
(S21)と同様に、画像取得部110は、カメラにより人を撮影して画像情報を取得する。
(S32:3次元モデル調整ステップ)
(S22)と同様に、人物特定部140は、3次元モデル記憶部130が記憶装置に記憶した3次元モデル情報を、(S21)で画像取得部110が取得した画像情報に含まれる人の姿勢に処理装置により変形する。これにより、人物特定部140は、画像情報に含まれる人物の姿勢を特定する。
(S33:動作特定ステップ)
動作特定部180は、人物特定部140が特定した画像情報に含まれる人物の姿勢を1時刻前のその人物の姿勢と比較して、1時刻前から現時刻までのその人物の動作を特定する。
そして、(S31)へ戻り、処理を繰り返す。つまり、次の時刻の画像情報の取得、姿勢の特定、動作の特定を繰り返す。これにより、所定の時間におけるその人物の動作を特定することができる。
(S34:動作比較ステップ)
動作特定部180は、(S34)で特定した動作と、動作記憶部170が記憶した情報が示す動作とを比較する。動作特定部180は、比較の結果、(S34)で特定した動作と、動作記憶部170が記憶した情報が示す動作とが一致した場合、つまり、動作記憶部170が記憶した情報が示す動作を検出した場合、人物特定装置100の管理者等へ通知する。動作特定部180は、例えば、人物特定装置100の管理者の端末へ警告メッセージや音・光等を出力させる。
この発明に係る人物特定装置は、例えば、
複数の人の各人について、その人を識別するための情報として、その人の3次元モデル情報を記憶装置に記憶する3次元モデル記憶部と、
撮影装置により人を撮影してその人の画像情報を取得する画像取得部と、
前記画像取得部が取得した人の画像情報と、前記3次元モデル記憶部が記憶した3次元モデル情報とを比較することにより、前記画像情報が示す人を特定する人物特定部と
を備えることを特徴とする。
ことを特徴とする。
前記人物特定部は、前記画像取得部が取得した人の画像情報から人の前記所定の骨の長さを計算して、前記3次元モデル記憶部が記憶した3次元モデル情報が示す骨の長さと比較することにより、前記画像情報が示す人を特定する
ことを特徴とする。
前記人物特定部は、前記第1の位置と前記第2の位置と前記人の画像情報とから人の前記所定の骨の長さを計算する
ことを特徴とする。
人の画像の表面を表現するための複数のテクスチャを記憶装置に記憶するテクスチャ記憶部と、
前記テクスチャ記憶部が記憶した複数のテクスチャから前記人の画像情報を表現するためのテクスチャを処理装置により抽出するテクスチャ抽出部とを備え、
前記人物特定部は、前記テクスチャ抽出部が抽出したテクスチャを前記3次元モデル情報に貼り付けて、テクスチャを貼り付けた3次元モデルと前記人の画像情報とを比較することにより、前記画像情報が示す人を特定する
ことを特徴とする。
前記人物特定部は、前記人の画像情報と前記特定情報とに基づき3次元モデル情報を絞込みするとともに、前記人の画像情報と絞込みされた3次元モデル情報とを比較することにより、前記画像情報が示す人を特定する
ことを特徴とする。
前記人物特定装置は、さらに、
前記人物特定部が特定した人の姿勢に基づき、その人の動作を処理装置により特定する動作特定部
を備えることを特徴とする。
所定の動作を示す情報を記憶装置に記憶した動作記憶部を備え、
前記動作特定部は、特定した動作が前記動作記憶部が記憶した動作である場合、警告を出力する
ことを特徴とする。
撮影装置が、人を撮影してその人の画像情報を取得する画像取得ステップと、
処理装置が、前記画像取得ステップで取得した人の画像情報と、予め記憶装置に記憶した人の3次元モデル情報とを比較することにより、前記画像情報が示す人を特定する人物特定ステップと
を備えることを特徴とする。
人を撮影してその人の画像情報を取得する画像取得処理と、
前記画像取得処理で取得した人の画像情報と、予め記憶装置に記憶した3次元モデル情報とを比較することにより、前記画像情報が示す人を特定する人物特定処理と
をコンピュータに実行させることを特徴とする。
複数の人の各人について、その人を識別するための情報として、その人の所定の部分のサイズを記憶装置に記憶する人物情報記憶部と、
所定の検知装置により人が第1の位置にいることを検知した場合に、第2の位置に設置された撮影装置により前記人を撮影してその人の画像情報を取得する画像取得部と、
前記画像取得部が取得した人の画像情報と前記第1の位置と前記第2の位置とからその人の前記所定の部分のサイズを計算して、前記人物情報記憶部が記憶したサイズと比較することにより、前記画像情報が示す人を特定する人物特定部と
を備えることを特徴とする。
図10は、人物特定装置100のハードウェア構成の一例を示す図である。
図10に示すように、人物特定装置100は、プログラムを実行するCPU911(Central・Processing・Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサともいう)を備えている。CPU911は、バス912を介してROM913、RAM914、LCD901(Liquid Crystal Display)、キーボード902(K/B)、通信ボード915、磁気ディスク装置920と接続され、これらのハードウェアデバイスを制御する。磁気ディスク装置920の代わりに、光ディスク装置、メモリカード読み書き装置などの記憶装置でもよい。
ファイル群924には、上記の説明において「画像情報、」「3次元モデル情報」、「テクスチャ」等が記憶する情報やデータや信号値や変数値やパラメータが、「ファイル」や「データベース」の各項目として記憶される。「ファイル」や「データベース」は、ディスクやメモリなどの記録媒体に記憶される。ディスクやメモリなどの記憶媒体に記憶された情報やデータや信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出され、抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示などのCPU911の動作に用いられる。抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示のCPU911の動作の間、情報やデータや信号値や変数値やパラメータは、メインメモリやキャッシュメモリやバッファメモリに一時的に記憶される。
また、上記の説明において「〜部」として説明するものは、「〜回路」、「〜装置」、「〜機器」、「〜手段」、「〜機能」であってもよく、また、「〜ステップ」、「〜手順」、「〜処理」であってもよい。また、「〜装置」として説明するものは、「〜回路」、「〜装置」、「〜機器」、「〜手段」、「〜機能」であってもよく、また、「〜ステップ」、「〜手順」、「〜処理」であってもよい。さらに、「〜処理」として説明するものは「〜ステップ」であっても構わない。すなわち、「〜部」として説明するものは、ROM913に記憶されたファームウェアで実現されていても構わない。或いは、ソフトウェアのみ、或いは、素子・デバイス・基板・配線などのハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。ファームウェアとソフトウェアは、プログラムとして、ROM913等の記録媒体に記憶される。プログラムはCPU911により読み出され、CPU911により実行される。すなわち、プログラムは、上記で述べた「〜部」としてコンピュータ等を機能させるものである。あるいは、上記で述べた「〜部」の手順や方法をコンピュータ等に実行させるものである。
Claims (6)
- 複数の人の各人について、その人を識別するための情報として、人の全身の骨構造を有する3次元モデル情報であって、その人の関節間の長さを持つ3次元モデル情報を記憶装置に記憶する3次元モデル記憶部と、
撮影装置により人を撮影してその人の画像情報を取得する画像取得部と、
前記画像取得部が取得した人の画像情報の輪郭に合うように、前記3次元モデル記憶部が記憶した3次元モデル情報が有する骨構造の関節を曲げて変形した上で、前記画像情報が示す人の輪郭と、変形した前記3次元モデル情報の輪郭とを比較するとともに、前記画像取得部が取得した人の画像情報から得られるその人の所定の関節間の長さと、前記3次元モデル情報が持つ前記所定の関節間の長さとを比較することにより、前記画像情報が示す人を特定する人物特定部と
を備えることを特徴とする人物特定装置。 - 前記画像取得部は、所定の検知装置により人が第1の位置にいることを検知した場合に、第2の位置に設置された撮影装置により前記人を撮影し、
前記人物特定部は、前記第1の位置と前記第2の位置と前記人の画像情報とから人の前記関節間の長さを計算する
ことを特徴とする請求項1に記載の人物特定装置。 - 前記人物特定装置は、さらに、
人の画像の表面を表現するための複数のテクスチャを記憶装置に記憶するテクスチャ記憶部と、
前記テクスチャ記憶部が記憶した複数のテクスチャから前記人の画像情報を表現するためのテクスチャを処理装置により抽出するテクスチャ抽出部とを備え、
前記人物特定部は、前記テクスチャ抽出部が抽出したテクスチャを前記3次元モデル情報に貼り付けて、テクスチャを貼り付けた3次元モデル情報の輪郭を前記人の画像情報の輪郭と比較することにより、前記画像情報が示す人を特定する
ことを特徴とする請求項1又は2に記載の人物特定装置。 - 前記人物特定部は、前記人の画像情報におけるその人の姿勢に合わせて前記3次元モデル情報を変形することにより、その人の姿勢を特定し、
前記人物特定装置は、さらに、
前記人物特定部が特定した人の姿勢に基づき、その人の動作を処理装置により特定する動作特定部
を備えることを特徴とする請求項1から3までのいずれかに記載の人物特定装置。 - 複数の人の各人について、その人を識別するための情報として、人の全身の骨構造を有する3次元モデル情報であって、その人の関節間の長さを持つ3次元モデル情報を記憶した記憶装置を用いる人物特定方法であり、
撮影装置が、人を撮影してその人の画像情報を取得する画像取得ステップと、
処理装置が、前記画像取得ステップで取得した人の画像情報の輪郭に合うように、前記記憶装置に記憶した3次元モデル情報が有する骨構造の関節を曲げて変形した上で、前記画像情報が示す人の輪郭と、変形した前記3次元モデル情報の輪郭とを比較するとともに、前記画像取得ステップで取得した人の画像情報から得られるその人の所定の関節間の長さと、前記3次元モデル情報が持つ前記所定の関節間の長さとを比較することにより、前記画像情報が示す人を特定する人物特定ステップと
を備えることを特徴とする人物特定方法。 - 複数の人の各人について、その人を識別するための情報として、人の全身の骨構造を有する3次元モデル情報であって、その人の関節間の長さを持つ3次元モデル情報を記憶した記憶装置を用いる人物特定プログラムであり、
人を撮影してその人の画像情報を取得する画像取得処理と、
前記画像取得処理で取得した人の画像情報の輪郭に合うように、前記記憶装置に記憶した3次元モデル情報が有する骨構造の関節を曲げて変形した上で、前記画像情報が示す人の輪郭と、変形した前記3次元モデル情報の輪郭とを比較するとともに、前記画像取得処理で取得した人の画像情報から得られるその人の所定の関節間の長さと、前記3次元モデル情報が持つ前記所定の関節間の長さとを比較することにより、前記画像情報が示す人を特定する人物特定処理と
をコンピュータに実行させることを特徴とする人物特定プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012011058A JP5373128B2 (ja) | 2012-01-23 | 2012-01-23 | 人物特定装置、人物特定方法及び人物特定プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012011058A JP5373128B2 (ja) | 2012-01-23 | 2012-01-23 | 人物特定装置、人物特定方法及び人物特定プログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008277564A Division JP2010108110A (ja) | 2008-10-29 | 2008-10-29 | 人物特定装置、人物特定方法及び人物特定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012079348A true JP2012079348A (ja) | 2012-04-19 |
JP5373128B2 JP5373128B2 (ja) | 2013-12-18 |
Family
ID=46239419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012011058A Expired - Fee Related JP5373128B2 (ja) | 2012-01-23 | 2012-01-23 | 人物特定装置、人物特定方法及び人物特定プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5373128B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019200241A (ja) * | 2018-05-14 | 2019-11-21 | オムロン株式会社 | 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム |
JP2020053840A (ja) * | 2018-09-27 | 2020-04-02 | 株式会社デンソーウェーブ | 監視システムおよびカメラ |
JP2021135592A (ja) * | 2020-02-25 | 2021-09-13 | エヌ・ティ・ティ・コムウェア株式会社 | 個体推定装置、個体推定方法、およびプログラム |
JP2021170307A (ja) * | 2020-04-15 | 2021-10-28 | 株式会社Ridge−i | 情報処理装置、情報処理方法及び情報処理プログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01114986A (ja) * | 1987-10-29 | 1989-05-08 | Nippon Genshiryoku Bougo Syst Kk | 個人識別装置 |
JPH06323821A (ja) * | 1993-05-13 | 1994-11-25 | Matsushita Electric Ind Co Ltd | 骨格形状データ作成装置 |
JPH08257017A (ja) * | 1995-03-24 | 1996-10-08 | Toshiba Corp | 状態監視装置及びその方法 |
JP2002369812A (ja) * | 2001-06-15 | 2002-12-24 | Babcock Hitachi Kk | 頭蓋骨スーパーインポーズ方法と装置 |
JP2003085588A (ja) * | 2001-06-28 | 2003-03-20 | Shiyuusaku Furushima | 三次元形状モデリング方法 |
JP2003162720A (ja) * | 2001-11-27 | 2003-06-06 | Victor Co Of Japan Ltd | モデリングデータの生成方法、肖像権侵害の判定方法、肖像権侵害判定装置、肖像権判定用プログラム、及びモデリングデータの記録媒体 |
-
2012
- 2012-01-23 JP JP2012011058A patent/JP5373128B2/ja not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01114986A (ja) * | 1987-10-29 | 1989-05-08 | Nippon Genshiryoku Bougo Syst Kk | 個人識別装置 |
JPH06323821A (ja) * | 1993-05-13 | 1994-11-25 | Matsushita Electric Ind Co Ltd | 骨格形状データ作成装置 |
JPH08257017A (ja) * | 1995-03-24 | 1996-10-08 | Toshiba Corp | 状態監視装置及びその方法 |
JP2002369812A (ja) * | 2001-06-15 | 2002-12-24 | Babcock Hitachi Kk | 頭蓋骨スーパーインポーズ方法と装置 |
JP2003085588A (ja) * | 2001-06-28 | 2003-03-20 | Shiyuusaku Furushima | 三次元形状モデリング方法 |
JP2003162720A (ja) * | 2001-11-27 | 2003-06-06 | Victor Co Of Japan Ltd | モデリングデータの生成方法、肖像権侵害の判定方法、肖像権侵害判定装置、肖像権判定用プログラム、及びモデリングデータの記録媒体 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019200241A (ja) * | 2018-05-14 | 2019-11-21 | オムロン株式会社 | 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム |
JP7004218B2 (ja) | 2018-05-14 | 2022-01-21 | オムロン株式会社 | 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム |
JP2020053840A (ja) * | 2018-09-27 | 2020-04-02 | 株式会社デンソーウェーブ | 監視システムおよびカメラ |
JP7180243B2 (ja) | 2018-09-27 | 2022-11-30 | 株式会社デンソーウェーブ | 監視システムおよびカメラ |
JP2021135592A (ja) * | 2020-02-25 | 2021-09-13 | エヌ・ティ・ティ・コムウェア株式会社 | 個体推定装置、個体推定方法、およびプログラム |
JP7282704B2 (ja) | 2020-02-25 | 2023-05-29 | エヌ・ティ・ティ・コムウェア株式会社 | 個体推定装置、個体推定方法、およびプログラム |
JP2021170307A (ja) * | 2020-04-15 | 2021-10-28 | 株式会社Ridge−i | 情報処理装置、情報処理方法及び情報処理プログラム |
JP7098180B2 (ja) | 2020-04-15 | 2022-07-11 | 株式会社Ridge-i | 情報処理装置、情報処理方法及び情報処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP5373128B2 (ja) | 2013-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Viswakumar et al. | Human gait analysis using OpenPose | |
Li et al. | Classification of gait anomalies from kinect | |
JP4653606B2 (ja) | 画像認識装置、方法およびプログラム | |
CN110045823B (zh) | 一种基于动作捕捉的动作指导方法和装置 | |
JP5873442B2 (ja) | 物体検出装置および物体検出方法 | |
Poppe et al. | AMAB: Automated measurement and analysis of body motion | |
Ahmed et al. | Gait recognition based on Kinect sensor | |
JP5613741B2 (ja) | 画像処理装置、方法、及びプログラム | |
US10395404B2 (en) | Image processing device for composite images, image processing system and storage medium | |
JP6373026B2 (ja) | 画像処理装置、画像処理システム、画像処理方法、及びプログラム | |
JP2010244089A (ja) | 人物検出装置、人物検出方法、及び人物検出プログラム | |
JP2012123667A (ja) | 姿勢推定装置および姿勢推定方法 | |
JP2008102902A (ja) | 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム | |
KR20150127381A (ko) | 얼굴 특징점 추출 방법 및 이를 수행하는 장치 | |
JP5373128B2 (ja) | 人物特定装置、人物特定方法及び人物特定プログラム | |
CN111488775B (zh) | 注视度判断装置及方法 | |
CN112639875A (zh) | 尺寸测定系统 | |
Li et al. | Posture recognition technology based on kinect | |
Yamauchi et al. | Recognition of walking humans in 3D: Initial results | |
Jatesiktat et al. | Personalized markerless upper-body tracking with a depth camera and wrist-worn inertial measurement units | |
JP5796523B2 (ja) | 生体情報取得装置、生体情報取得方法、生体情報取得制御プログラム | |
JP2010108110A (ja) | 人物特定装置、人物特定方法及び人物特定プログラム | |
US11854214B2 (en) | Information processing apparatus specifying a relationship between a sensor and an object included in image data, and method and non-transitory computer-readable storage medium | |
JP2014225301A (ja) | 画像処理装置、方法、及びプログラム | |
Shah et al. | Gesture recognition technique: a review |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120123 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130827 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130918 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5373128 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |