JP5373128B2 - Person identification device, person identification method, and person identification program - Google Patents

Person identification device, person identification method, and person identification program Download PDF

Info

Publication number
JP5373128B2
JP5373128B2 JP2012011058A JP2012011058A JP5373128B2 JP 5373128 B2 JP5373128 B2 JP 5373128B2 JP 2012011058 A JP2012011058 A JP 2012011058A JP 2012011058 A JP2012011058 A JP 2012011058A JP 5373128 B2 JP5373128 B2 JP 5373128B2
Authority
JP
Japan
Prior art keywords
person
information
image
image information
specifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012011058A
Other languages
Japanese (ja)
Other versions
JP2012079348A (en
Inventor
信行 小林
俊輔 山本
望 中村
努 森垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Information Systems Corp
Original Assignee
Mitsubishi Electric Information Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Information Systems Corp filed Critical Mitsubishi Electric Information Systems Corp
Priority to JP2012011058A priority Critical patent/JP5373128B2/en
Publication of JP2012079348A publication Critical patent/JP2012079348A/en
Application granted granted Critical
Publication of JP5373128B2 publication Critical patent/JP5373128B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

この発明は、例えば、画像情報に含まれる人物を特定する技術に関する。   The present invention relates to a technique for specifying a person included in image information, for example.

従来、画像情報に含まれる人物を特定する技術として、顔認識と呼ばれる技術がある。顔認識とは、画像情報に含まれる人間の顔の位置を特定する技術である。顔認識を応用した人物特定技術がある。この技術では、予め登録された人物の顔画像と、カメラ等により取得した画像情報に含まれる顔画像とを比較して、取得した画像情報に含まれる顔画像が示す人物を特定する。この技術では、顔を形成するパーツ(例えば、目、鼻、口)の間の距離の比率、各パーツの大きさの比率により顔画像を比較する。   Conventionally, there is a technique called face recognition as a technique for identifying a person included in image information. Face recognition is a technique for specifying the position of a human face included in image information. There is a person identification technology using face recognition. In this technique, a face image of a person registered in advance and a face image included in image information acquired by a camera or the like are compared, and a person indicated by the face image included in the acquired image information is specified. In this technique, face images are compared based on a ratio of distances between parts (for example, eyes, nose, mouth) forming a face and a ratio of sizes of the parts.

特開2005−084815号公報Japanese Patent Laid-Open No. 2005-084815 特開2001−283224号公報JP 2001-283224 A 特開2001−273496号公報Japanese Patent Laid-Open No. 2001-27396 特開2007−4767号公報Japanese Unexamined Patent Publication No. 2007-4767 特開2006−284372号公報JP 2006-284372 A 特開平08−257017号公報Japanese Patent Laid-Open No. 08-257017

従来の画像情報に含まれる人物を特定する技術では、画像情報に顔画像が含まれていなければ人物を特定することはできない。特に、画像情報に顔の正面画像が含まれていなければ人物を特定することは難しい。しかし、画像情報に顔画像が含まれているとは限らない。特に、顔の正面画像が含まれているとは限らない。
例えば、入場者を特定の人物に限定する場合、店舗等の入り口に設置されたカメラで入り口付近を撮影して、撮影された画像に含まれる人物を特定する。そして、特定された人物が入場を許可されている人物でなければ入場を制限する。この場合、入場が許可されていないにもかかわらず悪意を持って入場しようとする者であれば、荷物等でカメラに顔が映らないように顔を隠して入場することも考えられる。また、一般の入場者であっても、横を向きながら入場することも考えられる。したがって、都合よく入場する人の顔の正面画像を取得できるとは限らない。
この発明は、例えば、顔の正面画像が含まれていない画像情報からでも、人物の特定を可能にすることを目的とする。
In the conventional technique for specifying a person included in image information, a person cannot be specified unless a face image is included in the image information. In particular, it is difficult to specify a person unless the front image of the face is included in the image information. However, the face information is not always included in the image information. In particular, the front image of the face is not always included.
For example, when the number of visitors is limited to a specific person, the vicinity of the entrance is photographed with a camera installed at the entrance of a store or the like, and the person included in the photographed image is identified. If the specified person is not permitted to enter, the entry is restricted. In this case, if the person is trying to enter maliciously even though entry is not permitted, it may be possible to enter with the face hidden so that the face is not reflected on the camera with luggage or the like. In addition, even general visitors may enter while facing sideways. Therefore, it is not always possible to acquire a front image of the face of a person who enters conveniently.
An object of the present invention is to make it possible to specify a person even from image information that does not include a face front image, for example.

この発明に係る人物特定装置は、例えば、
複数の人の各人について、その人を識別するための情報として、人の全身の骨構造を有する3次元モデル情報であって、その人の関節間の長さを持つ3次元モデル情報を記憶装置に記憶する3次元モデル記憶部と、
撮影装置により人を撮影してその人の画像情報を取得する画像取得部と、
前記画像取得部が取得した人の画像情報の輪郭に合うように、前記3次元モデル記憶部が記憶した3次元モデル情報が有する骨構造の関節を曲げて変形した上で、前記画像情報が示す人の輪郭と、変形した前記3次元モデル情報の輪郭とを比較するとともに、前記画像取得部が取得した人の画像情報から得られるその人の所定の関節間の長さと、前記3次元モデル情報が持つ前記所定の関節間の長さとを比較することにより、前記画像情報が示す人を特定する人物特定部と
を備えることを特徴とする。
The person specifying device according to the present invention is, for example,
As information for identifying each person of a plurality of persons, 3D model information having a bone structure of the whole body of the person and having a length between the joints of the person is stored. A three-dimensional model storage unit stored in the apparatus;
An image acquisition unit that captures an image of the person by photographing the person with the imaging device;
The image information indicates after bending and deforming a joint of a bone structure included in the 3D model information stored in the 3D model storage unit so as to match the contour of the image information of the person acquired by the image acquisition unit. The contour of the person is compared with the contour of the deformed three-dimensional model information, the length between the predetermined joints of the person obtained from the image information of the person acquired by the image acquisition unit, and the three-dimensional model information A person specifying unit that specifies a person indicated by the image information by comparing the length between the predetermined joints of the image information.

前記画像取得部は、所定の検知装置により人が第1の位置にいることを検知した場合に、第2の位置に設置された撮影装置により前記人を撮影し、
前記人物特定部は、前記第1の位置と前記第2の位置と前記人の画像情報とから人の前記関節間の長さを計算する
ことを特徴とする。
When the image acquisition unit detects that the person is in the first position by a predetermined detection device, the image acquisition unit takes an image of the person by an imaging device installed in the second position;
The person specifying unit calculates a length between the joints of the person from the first position, the second position, and the image information of the person.

前記人物特定装置は、さらに、
人の画像の表面を表現するための複数のテクスチャを記憶装置に記憶するテクスチャ記憶部と、
前記テクスチャ記憶部が記憶した複数のテクスチャから前記人の画像情報を表現するためのテクスチャを処理装置により抽出するテクスチャ抽出部とを備え、
前記人物特定部は、前記テクスチャ抽出部が抽出したテクスチャを前記3次元モデル情報に貼り付けて、テクスチャを貼り付けた3次元モデル情報の輪郭を前記人の画像情報の輪郭と比較することにより、前記画像情報が示す人を特定する
ことを特徴とする。
The person identifying device further includes:
A texture storage unit that stores a plurality of textures for representing the surface of a human image in a storage device;
A texture extraction unit that extracts a texture for expressing the image information of the person from a plurality of textures stored in the texture storage unit by a processing device;
The person specifying unit pastes the texture extracted by the texture extracting unit on the three-dimensional model information, and compares the contour of the three-dimensional model information pasted with the texture with the contour of the human image information. A person indicated by the image information is specified.

前記人物特定部は、前記人の画像情報におけるその人の姿勢に合わせて前記3次元モデル情報を変形することにより、その人の姿勢を特定し、
前記人物特定装置は、さらに、
前記人物特定部が特定した人の姿勢に基づき、その人の動作を処理装置により特定する動作特定部
を備えることを特徴とする。
The person specifying unit specifies the person's posture by transforming the three-dimensional model information according to the person's posture in the person's image information,
The person identifying device further includes:
An operation specifying unit is provided that specifies a motion of the person by a processing device based on the posture of the person specified by the person specifying unit.

この発明に係る人物特定方法は、例えば、
複数の人の各人について、その人を識別するための情報として、人の全身の骨構造を有する3次元モデル情報であって、その人の関節間の長さを持つ3次元モデル情報を記憶した記憶装置を用いる人物特定方法であり、
撮影装置が、人を撮影してその人の画像情報を取得する画像取得ステップと、
処理装置が、前記画像取得ステップで取得した人の画像情報の輪郭に合うように、前記記憶装置に記憶した3次元モデル情報が有する骨構造の関節を曲げて変形した上で、前記画像情報が示す人の輪郭と、変形した前記3次元モデル情報の輪郭とを比較するとともに、前記画像取得ステップで取得した人の画像情報から得られるその人の所定の関節間の長さと、前記3次元モデル情報が持つ前記所定の関節間の長さとを比較することにより、前記画像情報が示す人を特定する人物特定ステップと
を備えることを特徴とする。
The person specifying method according to the present invention is, for example,
As information for identifying each person of a plurality of persons, 3D model information having a bone structure of the whole body of the person and having a length between the joints of the person is stored. A person identification method using the storage device
An image acquisition step in which the imaging device captures a person and acquires image information of the person;
The processing apparatus bends and deforms the joint of the bone structure included in the three-dimensional model information stored in the storage device so as to match the contour of the person's image information acquired in the image acquisition step. The contour of the person to be shown is compared with the contour of the deformed three-dimensional model information, the length between the predetermined joints of the person obtained from the image information of the person acquired in the image acquisition step, and the three-dimensional model And a person specifying step of specifying a person indicated by the image information by comparing the length between the predetermined joints of the information.

この発明に係る人物特定プログラムは、例えば、
複数の人の各人について、その人を識別するための情報として、人の全身の骨構造を有する3次元モデル情報であって、その人の関節間の長さを持つ3次元モデル情報を記憶した記憶装置を用いる人物特定プログラムであり、
人を撮影してその人の画像情報を取得する画像取得処理と、
前記画像取得処理で取得した人の画像情報の輪郭に合うように、前記記憶装置に記憶した3次元モデル情報が有する骨構造の関節を曲げて変形した上で、前記画像情報が示す人の輪郭と、変形した前記3次元モデル情報の輪郭とを比較するとともに、前記画像取得処理で取得した人の画像情報から得られるその人の所定の関節間の長さと、前記3次元モデル情報が持つ前記所定の関節間の長さとを比較することにより、前記画像情報が示す人を特定する人物特定処理と
をコンピュータに実行させることを特徴とする。
The person specifying program according to the present invention is, for example,
As information for identifying each person of a plurality of persons, 3D model information having a bone structure of the whole body of the person and having a length between the joints of the person is stored. A person identification program using the storage device
An image acquisition process for photographing a person and acquiring the image information of the person;
The contour of the person indicated by the image information is obtained by bending and deforming a bone structure joint included in the three-dimensional model information stored in the storage device so as to match the contour of the image information of the person acquired by the image acquisition process. And the contour of the deformed 3D model information, the length between the predetermined joints of the person obtained from the image information of the person acquired by the image acquisition process, and the 3D model information By comparing the length between predetermined joints, the computer is caused to execute a person specifying process for specifying a person indicated by the image information.

この発明に係る人物特定装置は、画像情報に含まれる人物の画像と、予め記憶した人の全身の骨構造を有する3次元モデル情報とを比較して人物の特定を行う。したがって、画像情報に顔画像が含まれていない場合であっても人物の特定が可能である。   The person specifying device according to the present invention specifies a person by comparing the image of the person included in the image information with the three-dimensional model information having the bone structure of the whole body of the person stored in advance. Therefore, it is possible to specify a person even when a face image is not included in the image information.

実施の形態1に係る人物特定装置100の機能を示す機能ブロック図。FIG. 3 is a functional block diagram showing functions of the person identification device 100 according to the first embodiment. 3次元モデル情報の生成処理を示すフローチャート。The flowchart which shows the production | generation process of three-dimensional model information. 3次元モデル情報作成のために人の画像情報を取得する状況を示す図。The figure which shows the condition which acquires the person's image information for three-dimensional model information creation. ベースモデルの一例を示す図。The figure which shows an example of a base model. 服のテクスチャの一例を示す図。The figure which shows an example of the texture of clothes. 3次元モデル情報の一例を示す図。The figure which shows an example of three-dimensional model information. マッチング処理を示すフローチャート。The flowchart which shows a matching process. 実施の形態2に係る人物特定装置100の機能を示す機能ブロック図。FIG. 4 is a functional block diagram illustrating functions of a person identification device 100 according to a second embodiment. 動作検出処理を示すフローチャート。The flowchart which shows an operation | movement detection process. 人物特定装置100のハードウェア構成の一例を示す図。The figure which shows an example of the hardware constitutions of the person specific device 100.

実施の形態1.
まず、3次元モデル情報の生成処理について説明する。次に、生成した3次元モデル情報に基づく人物特定処理について説明する。
Embodiment 1 FIG.
First, 3D model information generation processing will be described. Next, a person specifying process based on the generated three-dimensional model information will be described.

図1は、この実施の形態に係る人物特定装置100の機能を示す機能ブロック図である。
人物特定装置100は、画像取得部110、3次元モデル生成部120、3次元モデル記憶部130(人物情報記憶部)、人物特定部140、テクスチャ抽出部150、テクスチャ記憶部160を備える。
画像取得部110は、カメラ等の撮影装置により人を撮影してその人の画像情報を取得する。
3次元モデル生成部120は、画像取得部110が取得した人の画像情報に基づき、その人の3次元モデル情報を処理装置により生成する。3次元モデル情報は、画像情報からその人の所定の骨(主要な骨)の長さ等を計算して生成された骨モデル情報に、後述するテクスチャ抽出部150が抽出したテクスチャを貼付して、その人を3次元モデルで表した情報である。骨の長さや身体の各部の太さは人毎に異なるため、3次元モデル情報は人毎に異なる情報であり、人を識別可能な情報である。
3次元モデル記憶部130は、3次元モデル生成部120が生成した3次元モデル情報をその人の名前やID等の個人情報とともに記憶装置に記憶する。
人物特定部140は、3次元モデル記憶部130が記憶した3次元モデル情報と、画像取得部110が取得した画像情報(通常は3次元モデル情報を作成する際に使用した画像情報とは異なる画像情報)に含まれる人とを比較して、その人がどの人であるか(誰であるか)を特定する。
テクスチャ抽出部150は、後述するテクスチャ記憶部160が記憶するテクスチャから、画像取得部110が取得した画像情報に含まれる人を表現するためのテクスチャを処理装置により抽出する。
テクスチャ記憶部160は、人の画像の表面を表現するための複数のテクスチャを記憶装置に記憶する。テクスチャ記憶部160は、例えば、人の皮膚等を表した複数のテクスチャを記憶する。ここでは、テクスチャ記憶部160は、複数のパターンの服のテクスチャを3次元モデルとして記憶する。テクスチャとは、3次元コンピュータグラフィックスで、物体の表面の質感を表現するために貼り付ける画像のことである。
FIG. 1 is a functional block diagram showing functions of the person identification device 100 according to this embodiment.
The person identification device 100 includes an image acquisition unit 110, a three-dimensional model generation unit 120, a three-dimensional model storage unit 130 (person information storage unit), a person identification unit 140, a texture extraction unit 150, and a texture storage unit 160.
The image acquisition unit 110 captures a person with a photographing device such as a camera and obtains the image information of the person.
Based on the image information of the person acquired by the image acquisition unit 110, the 3D model generation unit 120 generates the 3D model information of the person by the processing device. The three-dimensional model information is obtained by pasting the texture extracted by the texture extracting unit 150 (described later) on the bone model information generated by calculating the length of a predetermined bone (main bone) of the person from the image information. The information represents the person in a three-dimensional model. Since the length of the bone and the thickness of each part of the body are different for each person, the three-dimensional model information is information that is different for each person, and is information that can identify the person.
The 3D model storage unit 130 stores the 3D model information generated by the 3D model generation unit 120 in a storage device together with personal information such as the person's name and ID.
The person specifying unit 140 is configured to store the 3D model information stored in the 3D model storage unit 130 and the image information acquired by the image acquisition unit 110 (usually an image different from the image information used when creating the 3D model information). The person included in the (information) is compared to identify who the person is.
The texture extraction unit 150 extracts a texture for representing a person included in the image information acquired by the image acquisition unit 110 from the texture stored in the texture storage unit 160 described later by the processing device.
The texture storage unit 160 stores a plurality of textures for expressing the surface of a human image in a storage device. The texture storage unit 160 stores, for example, a plurality of textures representing human skin and the like. Here, the texture storage unit 160 stores a plurality of patterns of clothing texture as a three-dimensional model. A texture is an image that is pasted to represent the texture of the surface of an object in three-dimensional computer graphics.

例えば、画像取得部110は、店舗の入り口でカメラにより少なくとも3方向から人を
撮影してその人の画像情報を取得する。そして、3次元モデル生成部120がその画像情報に基づきその人の3次元モデル情報を生成して、3次元モデル記憶部130が生成した3次元モデル情報を記憶する。
その後、再びその人が来店した場合には、画像取得部110は、店舗の入り口で撮影して画像情報を取得する。そして、人物特定部140は、以前に来店した際に取得した画像情報から生成した3次元モデル情報に基づき、今回来店した人が誰であるか特定する。つまり、人物特定装置100は、以前に来店した際に生成した3次元モデル情報に基づき、来店者が誰であるかを特定することができる。
あるいは、店舗の入り口で取得した画像情報に基づき、3次元モデル情報を生成した後、来店した人が店舗内を移動する。すると、画像取得部110は、店舗内にいる人をカメラにより撮影して新たな画像情報を取得する。人物特定部140は、画像取得部110が新たに取得した画像情報に含まれる人を、3次元モデル記憶部130が記憶した3次元モデル情報に基づき特定する。つまり、人物特定装置100は、店舗の入り口を撮影して取得した画像情報から生成した3次元モデル情報に基づき、店舗内を撮影して取得した画像情報に含まれる人が誰であるか特定することができる。すなわち、人物特定装置100は、3次元モデル情報に基づき、店舗内を移動する人を追跡することができる。
For example, the image acquisition unit 110 acquires a person's image information by photographing a person from at least three directions with a camera at the entrance of the store. Then, the 3D model generation unit 120 generates 3D model information of the person based on the image information, and stores the 3D model information generated by the 3D model storage unit 130.
Thereafter, when the person visits the store again, the image acquisition unit 110 acquires the image information by photographing at the entrance of the store. Then, the person specifying unit 140 specifies who is the person who has visited this time based on the three-dimensional model information generated from the image information acquired when the user visited the store before. That is, the person specifying device 100 can specify who the store visitor is based on the three-dimensional model information generated when the store visited previously.
Or after generating 3D model information based on image information acquired at the entrance of a store, the person who visited the store moves in the store. Then, the image acquisition unit 110 acquires a new image information by photographing a person in the store with a camera. The person specifying unit 140 specifies a person included in the image information newly acquired by the image acquisition unit 110 based on the 3D model information stored in the 3D model storage unit 130. That is, the person identifying device 100 identifies who is included in the image information acquired by photographing the inside of the store based on the three-dimensional model information generated from the image information obtained by photographing the entrance of the store. be able to. That is, the person identification device 100 can track a person who moves in the store based on the three-dimensional model information.

まず、3次元モデル情報の生成処理について説明する。図2は、3次元モデル情報の生成処理を示すフローチャートである。
(S11:画像取得ステップ)
画像取得部110は、カメラにより人を撮影して画像情報を取得する。
図3は、画像取得部110が3次元モデル情報作成のために人の画像情報を取得する状況を示す図である。図3に示すように、画像取得部110は、異なる位置に設置された少なくとも3台のカメラにより通過した人を撮影して画像情報を取得する。つまり、画像取得部110は、少なくとも3方向(例えば、前方向、横方向、上方向)から人を撮影して画像情報を取得する。3方向からの画像情報があれば、人を立体(3次元モデル)として表すことができる。カメラは多ければ多いほど精度の高い3次元モデル情報を生成することができる。
また、画像取得部110は、所定の位置にいる人を所定の位置から撮影する。撮影された人の位置と撮影した位置(カメラの位置)とがわかれば、その間の距離がわかり、撮影して取得した画像情報からその人のサイズを計算することができる。つまり、画像情報から人の身長、足の長さ、足の太さ、手の長さ、手の太さ、肩幅、顔の大きさ、顔のパーツの大きさ、顔のパーツの間の距離等を計算することができる。そこで、例えば、店舗の入り口付近に通過センサを設置しておき、通過センサが人が通過したことを検知した場合に、所定の位置に設置された少なくとも3台のカメラで撮影することにより、所定の位置にいる人を撮影することができる。カメラの位置は設置した位置であるから当然に知ることができる。
First, 3D model information generation processing will be described. FIG. 2 is a flowchart showing a process for generating three-dimensional model information.
(S11: Image acquisition step)
The image acquisition unit 110 acquires image information by photographing a person with a camera.
FIG. 3 is a diagram illustrating a situation in which the image acquisition unit 110 acquires human image information for creating three-dimensional model information. As shown in FIG. 3, the image acquisition unit 110 acquires image information by photographing a person who has passed through at least three cameras installed at different positions. That is, the image acquisition unit 110 acquires image information by photographing a person from at least three directions (for example, the front direction, the horizontal direction, and the upward direction). If there is image information from three directions, a person can be represented as a solid (three-dimensional model). The more cameras, the more accurate 3D model information can be generated.
The image acquisition unit 110 captures a person at a predetermined position from a predetermined position. If the position of the photographed person and the photographed position (camera position) are known, the distance between them can be known, and the size of the person can be calculated from the image information obtained by photographing. In other words, from the image information, human height, foot length, foot thickness, hand length, hand thickness, shoulder width, face size, face part size, distance between face parts Etc. can be calculated. Therefore, for example, a passage sensor is installed near the entrance of the store, and when the passage sensor detects that a person has passed, the image is captured by at least three cameras installed at predetermined positions. A person in the position can be photographed. The position of the camera can naturally be known because it is the position where it was installed.

(S12:形状調整ステップ)
3次元モデル生成部120は、(S11)で画像取得部110が取得した画像情報に、3次元モデル情報のベースとなるベースモデル(擬似胴体)の形状を処理装置により合わせる。
図4は、ベースモデルの一例を示す図である。図4では、ベースモデルを平面的に示しているが、実際には3次元で表現されている。また、ベースモデルは人間の動きを表すために必要な最低限の骨構造を有しているものとする(図4では簡単のため一部の骨のみ表示している)。したがって、ベースモデルを人間がとるどのような姿勢にも変形することができる。なお、図4では、ベースモデルの顔部分は、顎部分を除き簡単のため省略して示している。また、図4では、線で骨を表し、丸で関節を表している。
3次元モデル生成部120は、ベースモデルを、画像取得部110が取得した画像情報における人の姿勢に変形する。3次元モデル生成部120は、例えば、画像情報から人の
輪郭を抽出して、抽出した輪郭に合うようにベースモデルを変形することで、ベースモデルを画像情報における人の姿勢に変形できる。
(S12: Shape adjustment step)
The three-dimensional model generation unit 120 matches the shape of the base model (pseudo trunk) serving as the base of the three-dimensional model information with the image information acquired by the image acquisition unit 110 in (S11) using the processing device.
FIG. 4 is a diagram illustrating an example of the base model. In FIG. 4, the base model is shown in a plan view, but is actually expressed in three dimensions. In addition, the base model has a minimum bone structure necessary for representing human movement (in FIG. 4, only a part of bones is shown for simplicity). Therefore, the base model can be transformed into any posture taken by a human. In FIG. 4, the face portion of the base model is omitted for simplicity except for the jaw portion. In FIG. 4, bones are represented by lines, and joints are represented by circles.
The three-dimensional model generation unit 120 transforms the base model into a human posture in the image information acquired by the image acquisition unit 110. The three-dimensional model generation unit 120 can, for example, extract a person's contour from image information and transform the base model to match the extracted contour, thereby transforming the base model into a person's posture in the image information.

(S13:サイズ調整ステップ)
3次元モデル生成部120は、(S12)で3次元モデル生成部120が変形したベースモデルのサイズを、(S11)で画像取得部110が取得した画像情報から得られる人のサイズに変更する。
つまり、3次元モデル生成部120は、(S11)で画像取得部110が取得した画像情報からその人の骨の長さと形状とを処理装置により計算する。そして、3次元モデル生成部120は、(S12)で3次元モデル生成部120が変形したベースモデルの骨の長さと形状とを、計算した骨の長さと形状とに処理装置により変更する。これにより、3次元モデル生成部120は、画像情報における人に対応した3次元の骨モデル(骨モデル情報)を生成する。
なお、人は服を着ているため、(S11)で画像取得部110が取得した画像情報から、一部の骨の長さや形状は特定できない虞がある。例えば、人が大きめ(緩め)の服を着ているような場合には、その服に覆われた部分の長さや形状は特定できない虞がある。この場合には、例えば、他の骨の長さや形状からおおよその長さや形状を推測計算してもよいし、長さや太さを特定できない部分については、長さや太さを無視して3次元モデル情報を生成してもよい。
(S13: Size adjustment step)
The three-dimensional model generation unit 120 changes the size of the base model deformed by the three-dimensional model generation unit 120 in (S12) to the size of a person obtained from the image information acquired by the image acquisition unit 110 in (S11).
That is, the three-dimensional model generation unit 120 calculates the bone length and shape of the person from the image information acquired by the image acquisition unit 110 in (S11). Then, the three-dimensional model generation unit 120 changes the bone length and shape of the base model deformed by the three-dimensional model generation unit 120 in (S12) to the calculated bone length and shape by the processing device. Thereby, the three-dimensional model generation unit 120 generates a three-dimensional bone model (bone model information) corresponding to the person in the image information.
Since people are wearing clothes, the length and shape of some bones may not be specified from the image information acquired by the image acquisition unit 110 in (S11). For example, when a person is wearing large (loose) clothes, the length and shape of the part covered by the clothes may not be specified. In this case, for example, the approximate length or shape may be estimated and calculated from the length or shape of other bones, or the length or thickness of a portion where the length or thickness cannot be specified is ignored and the three-dimensional Model information may be generated.

(S14:テクスチャ貼付ステップ)
テクスチャ抽出部150は、(S11)で画像取得部110が抽出した画像情報における人を表現するためのテクスチャをテクスチャ記憶部160が記憶した複数のテクスチャから抽出する。
ここでは、テクスチャ抽出部150は、1種類の皮膚のテクスチャと複数の服のテクスチャとを記憶しているとする。図5は、テクスチャ記憶部160が記憶する服のテクスチャの一例を示す図である。図5では、簡単のため、服のテクスチャを平面で示すが、服のテクスチャは3次元モデルである。したがって、テクスチャ記憶部160が記憶した服のテクスチャは、袖部分を曲げる等自由に変形可能である。つまり、服のテクスチャを3次元骨モデル情報に貼り付けて、3次元骨モデルが服を着た状態にした場合、3次元骨モデルの姿勢変更に合わせて服のテクスチャの形状も変更できる。つまり、3次元骨モデルの腕を曲げれば、服のテクスチャの袖も合わせて曲がる。図5に示すように、テクスチャ記憶部160は、例えば、半袖シャツ、長袖シャツ、ジャケット、ジャンパー、長ズボン、スカート等の複数の服のテクスチャを記憶する。テクスチャ記憶部160は、例えば、半袖シャツであっても、襟付、襟なし、細身、標準、太め、クルーネック、Vネック等様々な形状のテクスチャを記憶しているものとする。つまり、テクスチャ記憶部160は、一般的な服であれば、そのシルエットを表現したテクスチャを記憶しているものとする。
そこで、テクスチャ抽出部150は、まず画像情報における人画像の色毎の輪郭等から服と服以外の部分とに処理装置により分離する。そして、テクスチャ抽出部150は、服部分について輪郭等から、画像情報における人が着ている服に対応する服のテクスチャを処理装置により選択して抽出する。また、テクスチャ抽出部150は、皮膚のテクスチャを抽出する。
そして、3次元モデル生成部120は、テクスチャ抽出部150が抽出したテクスチャを(S13)で生成した骨モデル情報に貼付する。なお、テクスチャ抽出部150は、皮膚のテクスチャを該当部分のサイズ(太さ等)に合わせて貼付するとともに、服のテクスチャを画像情報における人の姿勢と服のサイズとに合わせて変形して貼付する。服のテクスチャを貼付するとは、骨モデル情報が示す骨モデルに服のテクスチャが示す服を着せた状態にすることである。これにより、3次元モデル生成部120は、3次元モデル情報を生成する。
図6は、3次元モデル情報の一例を示す図である。図6では、簡単のため顔部分は省略
している。3次元モデル情報は、画像情報における人の姿勢、各パーツ(足、胴体、腕、首等)の長さ、太さ、着ている服のシルエットを3次元モデルとして表現したものである。上述したように、3次元モデル情報は、3次元モデルであり、人間の動きを表すために必要な最低限の骨構造を有するベールモデルに基づき生成したため、人間の取りうる姿勢であればどのような姿勢にでも変形できる。この際、貼付した服のテクスチャも姿勢に合わせて変形する。
そして、3次元モデル記憶部130は、生成された3次元モデル情報を記憶装置に記憶する。また、3次元モデル記憶部130は、その3次元モデル情報が示す人が誰であるか特定された場合には、その人の個人情報をその3次元モデルと対応付けて記憶する。
(S14: Texture pasting step)
The texture extraction unit 150 extracts textures for expressing a person in the image information extracted by the image acquisition unit 110 in (S11) from the plurality of textures stored in the texture storage unit 160.
Here, it is assumed that the texture extraction unit 150 stores one type of skin texture and a plurality of clothing textures. FIG. 5 is a diagram illustrating an example of clothing texture stored in the texture storage unit 160. In FIG. 5, for the sake of simplicity, the texture of clothes is shown as a plane, but the texture of clothes is a three-dimensional model. Therefore, the texture of the clothes stored in the texture storage unit 160 can be freely deformed by bending the sleeve portion. That is, when the clothing texture is pasted on the 3D bone model information and the 3D bone model is dressed, the shape of the clothing texture can be changed in accordance with the posture change of the 3D bone model. In other words, if the arm of the 3D bone model is bent, the sleeve of the texture of the clothes will also bend. As shown in FIG. 5, the texture storage unit 160 stores textures of a plurality of clothes such as a short sleeve shirt, a long sleeve shirt, a jacket, a jumper, long pants, and a skirt. The texture storage unit 160 stores, for example, textures of various shapes such as collared, collarless, slender, standard, thick, crew neck, and V-neck even for a short-sleeved shirt. That is, it is assumed that the texture storage unit 160 stores a texture expressing the silhouette of general clothes.
Therefore, the texture extracting unit 150 first separates the clothes and the parts other than the clothes from the contours for each color of the human image in the image information by the processing device. Then, the texture extracting unit 150 selects and extracts the texture of the clothes corresponding to the clothes worn by the person in the image information from the outline or the like of the clothes portion by the processing device. Further, the texture extraction unit 150 extracts skin texture.
Then, the three-dimensional model generation unit 120 attaches the texture extracted by the texture extraction unit 150 to the bone model information generated in (S13). The texture extraction unit 150 applies the skin texture in accordance with the size (thickness, etc.) of the corresponding portion, and deforms and applies the clothing texture according to the posture of the person and the size of the clothing in the image information. To do. The pasting of the texture of clothes means that the clothes indicated by the texture of clothes are put on the bone model indicated by the bone model information. As a result, the three-dimensional model generation unit 120 generates three-dimensional model information.
FIG. 6 is a diagram illustrating an example of the three-dimensional model information. In FIG. 6, the face portion is omitted for simplicity. The three-dimensional model information represents the posture of a person in the image information, the length and thickness of each part (foot, torso, arms, neck, etc.), and the silhouette of the clothes worn as a three-dimensional model. As described above, the three-dimensional model information is a three-dimensional model, and is generated based on a veil model having a minimum bone structure necessary for representing human movement. It can be transformed into any posture. At this time, the texture of the affixed clothes is also deformed according to the posture.
Then, the 3D model storage unit 130 stores the generated 3D model information in the storage device. In addition, when it is specified who the person indicated by the 3D model information is, the 3D model storage unit 130 stores the personal information of the person in association with the 3D model.

なお、(S12)(S13)において、3次元モデル生成部120は、(S11)で画像取得部110が取得した画像情報から特定できる範囲で姿勢、サイズを変更する。つまり、カメラの死角になってしまい画像情報から特定できない部分の姿勢、サイズは無視してもよい。なお、画像情報から特定できる部分であったか否かを3次元モデル情報とともに記憶しておく。後述する人物特定処理で、画像情報から特定できる部分のみに基づきマッチングを行うためである。
また、上記説明では、人の全身の3次元モデル情報を生成することを前提に説明した。しかし、これに限らず、人の身体の一部のみの3次元モデル情報を生成するとしてもよい。例えば、人の足の付け根から踵までの3次元モデル情報や顔の3次元モデル情報を生成するとしてもよい。この場合には、(S12)で3次元モデル生成部120は、まず(S11)で画像取得部110が取得した画像情報から3次元モデル情報の生成対象の部分の画像を切り出す必要がある。
また、撮影を複数回実施して、複数の画像情報を取得するとしてもよい。これにより、その人の異なる姿勢の画像情報を得ることができる。異なる姿勢の画像情報を得ることで、各部がどの位置からどの方向へ変形するのかを特定することができる。つまり、変形方向(関節の曲がる方向)と可動軸部(関節の位置)とを特定できる。その結果、各関節がどの関節であるかをより正確に特定できるとともに、各関節間の長さ(各パーツの長さ)をより正確に求めることができる。
In (S12) and (S13), the three-dimensional model generation unit 120 changes the posture and size within a range that can be specified from the image information acquired by the image acquisition unit 110 in (S11). That is, the posture and size of a portion that becomes a blind spot of the camera and cannot be specified from the image information may be ignored. In addition, it is memorize | stored with 3D model information whether it was the part which can be specified from image information. This is because matching is performed based only on a part that can be specified from the image information in the person specifying process described later.
In the above description, the description has been made on the assumption that three-dimensional model information of the whole body of a person is generated. However, the present invention is not limited to this, and three-dimensional model information of only a part of a human body may be generated. For example, three-dimensional model information from the base of a person to the heel or three-dimensional model information of a face may be generated. In this case, in (S12), the three-dimensional model generation unit 120 first needs to cut out an image of a part to be generated of the three-dimensional model information from the image information acquired by the image acquisition unit 110 in (S11).
Further, a plurality of image information may be acquired by performing photographing a plurality of times. Thereby, the image information of the person's different posture can be obtained. By obtaining image information of different postures, it is possible to specify from which position each part is deformed and in which direction. That is, the deformation direction (direction of bending of the joint) and the movable shaft portion (joint position) can be specified. As a result, it is possible to more accurately identify which joint is each joint, and it is possible to more accurately obtain the length between the joints (the length of each part).

次に、3次元モデル情報を用いた人物特定処理(マッチング処理)について説明する。図7は、マッチング処理を示すフローチャートである。
(S21:画像取得ステップ)
画像取得部110は、カメラにより人を撮影して画像情報を取得する。ここでは、画像取得部110は、3次元モデル情報を生成する場合とは異なり、1方向から人を撮影して画像情報を取得すればよい。
(S11)と同様に、画像取得部110は、所定の位置にいる人を所定の位置に設置されたカメラにより撮影する。例えば、再び来店した人を、(S11)と同様に通過センサが人が通過したことを検知した場合に、所定の位置に設置されたカメラで撮影する。これにより、撮影された人の位置を知ることができ、取得した画像情報からその人のサイズを計算することができる。また、画像取得部110は、撮影した画像に含まれる他の物の位置から撮影された人の位置を計算するとしてもよい。つまり、店舗内を撮影するカメラにより撮影して取得した画像情報に含まれる人の位置を、その画像情報に含まれる他の物(例えば、机、椅子、植栽等)の位置から計算してもよい。
Next, a person specifying process (matching process) using the three-dimensional model information will be described. FIG. 7 is a flowchart showing the matching process.
(S21: Image acquisition step)
The image acquisition unit 110 acquires image information by photographing a person with a camera. Here, unlike the case of generating the three-dimensional model information, the image acquisition unit 110 may acquire the image information by photographing a person from one direction.
Similarly to (S11), the image acquisition unit 110 captures a person at a predetermined position with a camera installed at the predetermined position. For example, a person who visits the store again is photographed with a camera installed at a predetermined position when the passage sensor detects that the person has passed, as in (S11). Thereby, the position of the photographed person can be known, and the size of the person can be calculated from the acquired image information. In addition, the image acquisition unit 110 may calculate the position of a person who is photographed from the position of another object included in the photographed image. In other words, the position of the person included in the image information obtained by photographing with the camera for photographing the inside of the store is calculated from the position of other objects (for example, desks, chairs, planting, etc.) included in the image information. Also good.

(S22:3次元モデル調整ステップ)
人物特定部140は、3次元モデル記憶部130が記憶装置に記憶した3次元モデル情報を、(S21)で画像取得部110が取得した画像情報に含まれる人の姿勢に処理装置により変形する。
人物特定部140は、例えば、画像情報に含まれる人の輪郭に、3次元モデル情報の輪郭が一致するように、3次元モデル情報の姿勢を変形することで、3次元モデル情報を画
像情報に含まれる人の姿勢に変形できる。なお、人物特定部140は、この時点で、3次元モデル情報の姿勢を変形しても、画像情報に含まれる人の輪郭に3次元モデル情報の輪郭を一致させられない場合には、画像情報に含まれる人と3次元モデル情報が示す人とは一致しないと判断する。
(S22: 3D model adjustment step)
The person specifying unit 140 transforms the 3D model information stored in the storage device by the 3D model storage unit 130 into a human posture included in the image information acquired by the image acquisition unit 110 in (S21) by the processing device.
For example, the person identification unit 140 converts the 3D model information into image information by changing the posture of the 3D model information so that the outline of the 3D model information matches the outline of the person included in the image information. It can be transformed into the posture of the person involved. At this point, the person specifying unit 140 may change the orientation of the 3D model information, and if the outline of the 3D model information cannot be matched with the outline of the person included in the image information, the image information It is determined that the person included in the list does not match the person indicated by the 3D model information.

(S23:比較ステップ)
人物特定部140は、(S21)で画像取得部110が取得した画像情報に含まれる人と、(S22)で変形した3次元モデル情報とを処理装置により比較する。
人物特定部140は、例えば、画像情報に含まれる人と3次元モデル情報とをサイズにより比較する。例えば、画像情報に含まれる人と3次元モデル情報との膝から踝までの長さ(骨の長さ)を比較する。合わせて、他の部分のサイズ、例えば肘から手首までの長さ(骨の長さ)も比較するとしてもよい。骨の長さは人毎に異なるため、画像情報に含まれる人と骨の長さが一致する3次元モデル情報を見つけることにより、その人が誰であるか特定できる。特に、複数の骨の長さが一致する3次元モデルを見つけることにより、特定の精度を高くすることができる。
また、骨の長さでなく、所定の部分の太さで比較してもよい。例えば、膝回りの太さや足首の太さ等で比較してもよい。また、骨の長さと所定の部分の太さとの両方で比較することにより特定精度をより高くすることができる。
さらに、服の部分については、服の形状により比較してもよい。つまり、画像情報に含まれる人が着ている服の輪郭と、3次元モデル情報をその人の姿勢に変形したことに伴い変形された服のテクスチャ(服の3次元モデル情報)の輪郭とを比較してもよい。骨の長さや所定の部分の太さによる比較に加え、服の形状による比較を行うことで特定精度をさらに高くすることができる。なお、来店する度に来店者の服は変わると考えられる。そのため、服の形状による比較は、店舗の入り口を撮影して取得した画像情報から生成した3次元モデル情報に基づき、店舗内を撮影して取得した画像情報に含まれる人が誰であるか特定する場合には有効に機能するが、以前に来店した際に生成した3次元モデル情報に基づき、来店者が誰であるかを特定する場合には有効に機能しない場合がある。
比較の結果、画像情報に含まれる人と3次元モデル情報とが一致すれば、画像情報に含まれる人は、3次元モデル情報が示す人であると特定できる。一方、不一致であれば、画像情報に含まれる人は、3次元モデル情報が示す人でないと特定できる。
(S23: Comparison step)
The person identification unit 140 compares the person included in the image information acquired by the image acquisition unit 110 in (S21) with the three-dimensional model information deformed in (S22) by the processing device.
For example, the person specifying unit 140 compares the person included in the image information with the three-dimensional model information based on the size. For example, the length (bone length) from the knee to the heel between the person included in the image information and the three-dimensional model information is compared. In addition, the size of other portions, for example, the length from the elbow to the wrist (bone length) may be compared. Since the length of the bone varies from person to person, it is possible to identify who the person is by finding 3D model information in which the bone length matches that of the person included in the image information. In particular, the specific accuracy can be increased by finding a three-dimensional model in which the lengths of a plurality of bones match.
Moreover, you may compare not with the length of a bone but with the thickness of the predetermined part. For example, the comparison may be made based on the thickness of the knee circumference or the thickness of the ankle. Moreover, the specific accuracy can be further increased by comparing both the length of the bone and the thickness of the predetermined portion.
Furthermore, you may compare about the part of clothes by the shape of clothes. In other words, the outline of the clothes worn by the person included in the image information and the outline of the texture of the clothes (three-dimensional model information of the clothes) deformed as the 3D model information is transformed into the posture of the person. You may compare. In addition to the comparison by the length of the bone and the thickness of the predetermined portion, the specific accuracy can be further increased by performing the comparison by the shape of the clothes. Each visitor's clothes will change. Therefore, the comparison based on the shape of clothes identifies who is included in the image information acquired by photographing the inside of the store based on the three-dimensional model information generated from the image information obtained by photographing the entrance of the store. However, it may not function effectively when identifying who the store visitor is based on the three-dimensional model information generated when the store visited previously.
As a result of the comparison, if the person included in the image information matches the three-dimensional model information, the person included in the image information can be identified as the person indicated by the three-dimensional model information. On the other hand, if they do not match, it is possible to specify that the person included in the image information is not the person indicated by the three-dimensional model information.

以上のように、人物特定装置100は、画像情報に人の顔画像が含まれていない場合であっても、人の身体の他の部分の画像によって人の特定が可能である。もちろん、人の顔画像により人を特定してもよい。
特に、人物特定装置100は、従来の顔認識のように、顔のパーツ間の距離や顔のパーツの大きさの比率により比較するのではなく、身体の一部のサイズにより比較する。そのため、人の顔画像により人を特定する場合であっても、人の顔の正面画像でなく、横顔の画像であっても画像情報に含まれる部分のみで比較することが可能である。
また、人物特定装置100は、画像情報が示す人の姿勢に3次元モデル情報を変形して比較するため、人がどのような姿勢であっても人物特定が可能である。また、人物特定装置100は、人物を特定するとともに、その人の姿勢を特定することができる。
As described above, the person identifying apparatus 100 can identify a person by using an image of another part of the human body even when the human face image is not included in the image information. Of course, the person may be specified by the face image of the person.
In particular, the person identifying apparatus 100 does not perform comparison based on the distance between the facial parts or the size ratio of the facial parts as in the conventional face recognition, but performs comparison based on the size of a part of the body. Therefore, even when a person is specified by a person's face image, it is possible to compare only the portion included in the image information even if it is not a front image of a person's face but a profile image.
Further, since the person specifying device 100 transforms and compares the three-dimensional model information with the posture of the person indicated by the image information, the person can be specified regardless of the posture of the person. In addition, the person specifying device 100 can specify a person and the posture of the person.

また、人物特定装置100は、人がどのような姿勢であっても人物特定が可能であるため、店舗の入り口等で来店者が誰であるか特定して入場制限等を行う場合等に、高精度な入場制限(許可されていない者が入場できてしまうことや、許可されている者が入場を制限されることがない)をすることが可能となる。つまり、荷物等でカメラに顔が映らないように顔を隠して入場する人や、横を向きながら入場する人であっても誰であるか特定でき、高精度に入場制限をすることができる。同様に、店舗内等で移動する人がどのような姿勢であっても誰であるか特定でき、店舗内等を移動する人を高精度に追跡することができる。   In addition, since the person specifying device 100 can specify a person regardless of the posture of the person, the person specifying the person at the entrance of the store or the like is specified to restrict entrance, etc. It is possible to perform high-accuracy admission restrictions (unauthorized persons can enter or admission is not restricted). In other words, it is possible to specify who is hiding his face so that his / her face does not appear on the camera with luggage, etc., or who is entering while facing sideways, and can restrict entry with high accuracy. . Similarly, it is possible to specify who the person moving in the store is in any posture, and the person moving in the store can be tracked with high accuracy.

また、上記説明では、人物特定部140は、画像情報に含まれる人と3次元モデル情報とをサイズにより比較すると説明した。そのため、画像情報に含まれる人の位置と画像情報を取得した撮影装置の位置とを特定する必要があった。しかし、画像情報に含まれる人の位置又は画像情報を取得した撮影装置の位置が特定できない場合には、画像情報に含まれる人と3次元モデル情報とを、骨の長さや所定の部分の太さの比率により比較するとしてもよい。例えば、人物特定部140は、画像情報に含まれる人と3次元モデル情報との膝から踝までの長さと、足の付け根から膝までの長さと、肘から手首までの長さとの比率により比較するとしてもよい。この場合、(S21)で画像取得部110は人のサイズを計算可能な画像情報を取得する必要はない。なお、この場合にも、服の形状による比較を行ってもよい。   In the above description, the person specifying unit 140 has been described as comparing the person included in the image information with the three-dimensional model information based on the size. Therefore, it is necessary to specify the position of the person included in the image information and the position of the photographing apparatus that acquired the image information. However, when the position of the person included in the image information or the position of the photographing apparatus that acquired the image information cannot be specified, the person included in the image information and the three-dimensional model information are connected to the length of the bone or the thickness of a predetermined part. Comparison may be made according to the ratio. For example, the person specifying unit 140 compares the length of the person included in the image information with the three-dimensional model information from the knee to the heel, the length from the base of the foot to the knee, and the length from the elbow to the wrist. You may do that. In this case, in (S21), the image acquisition unit 110 does not need to acquire image information that can calculate the size of a person. In this case as well, a comparison according to the shape of clothes may be performed.

また、上記説明では、(S22)で3次元モデル情報を変形して、(S23)で比較するとした。ここで、3次元モデル記憶部130が複数の3次元モデル情報を記憶している場合に、複数の3次元モデル情報のうちどの3次元モデル情報と一致するか調べる場合には、各3次元モデル情報について(S22)と(S23)との処理を行い一致する3次元モデル情報を見つけることになる。
3次元モデル記憶部130が多くの3次元モデル情報を記憶している場合に、全ての3次元モデル情報について(S22)と(S23)との処理を行うには多くの時間が必要となる。そこで、3次元モデル記憶部130は、3次元モデル情報とともに、その3次元モデル情報が示す人の特徴を示す情報(特徴情報)を記憶しているとしてもよい。特徴情報とは、例えば、性別、年齢等である。人物特定部140は、画像情報からその人の性別や凡その年齢を特定して、その特定した性別と年齢とにより3次元モデル情報を絞込みする。なお、性別や凡その年齢を特定する方法はどのような方法であってもよい。そして、人物特定部140は、絞込みされた3次元モデル情報についてのみ(S22)と(S23)との処理を行うとしてもよい。
In the above description, the three-dimensional model information is transformed in (S22) and compared in (S23). Here, when the 3D model storage unit 130 stores a plurality of pieces of 3D model information, when checking which 3D model information matches among 3D model information, each 3D model is stored. Information (S22) and (S23) are processed to find matching three-dimensional model information.
When the 3D model storage unit 130 stores a large amount of 3D model information, it takes a lot of time to perform the processes (S22) and (S23) for all the 3D model information. Therefore, the three-dimensional model storage unit 130 may store information (feature information) indicating human characteristics indicated by the three-dimensional model information together with the three-dimensional model information. The feature information is, for example, sex, age, and the like. The person identifying unit 140 identifies the person's gender and approximate age from the image information, and narrows down the three-dimensional model information based on the identified gender and age. Note that any method may be used to specify the sex and the approximate age. Then, the person specifying unit 140 may perform the processes (S22) and (S23) only for the narrowed-down three-dimensional model information.

また、3次元モデル生成部120は、来店時に取得した画像情報から来店者が誰であるか特定するとともに、来店時に取得した画像情報に基づき3次元モデル情報を更新するとしてもよい。繰り返し同一人物の画像情報をいろいろな角度から取得することにより、3次元モデル情報をより高精度なものにすることができる。また、成長してサイズが変わった場合や、身体の太さが変わった場合にも来店の度に3次元モデル情報を更新することで、3次元モデル情報をより高精度なものにすることができる。   In addition, the 3D model generation unit 120 may identify who is the store visitor from the image information acquired when visiting the store, and may update the 3D model information based on the image information acquired when visiting the store. By repeatedly acquiring image information of the same person from various angles, the three-dimensional model information can be made more accurate. Also, even when the size changes due to growth or the thickness of the body changes, the 3D model information can be made more accurate by updating the 3D model information each time a visit is made. it can.

実施の形態2.
この実施の形態では、3次元モデル情報に基づき、特定の動作をする人物を検出して警告等を行う人物特定装置100について説明する。
Embodiment 2. FIG.
In this embodiment, a person identifying apparatus 100 that detects a person who performs a specific action and issues a warning based on the three-dimensional model information will be described.

図8は、この実施の形態に係る人物特定装置100の機能を示す機能ブロック図である。この実施の形態に係る人物特定装置100は、実施の形態1に係る人物特定装置100の機能に加え、さらに動作記憶部170、動作特定部180を備える。
動作記憶部170は、所定の動作(所定の骨モデルの動作)を示す情報(スクリプト)を記憶装置に記憶する。
動作特定部180は、画像取得部110が取得した画像情報から動作記憶部170が記憶した動作を処理装置により検出する。そして、動作特定部180は、動作記憶部170が記憶した動作を検出した場合、人物特定装置100の管理者等へ通知する。
FIG. 8 is a functional block diagram showing functions of the person identifying apparatus 100 according to this embodiment. The person identification device 100 according to this embodiment includes an operation storage unit 170 and an operation identification unit 180 in addition to the functions of the person identification device 100 according to the first embodiment.
The motion storage unit 170 stores information (script) indicating a predetermined motion (a motion of a predetermined bone model) in a storage device.
The operation specifying unit 180 detects the operation stored in the operation storage unit 170 from the image information acquired by the image acquisition unit 110 by the processing device. Then, when detecting the operation stored in the operation storage unit 170, the operation specifying unit 180 notifies the administrator or the like of the person specifying device 100.

3次元モデル情報を用いた動作検出処理について説明する。図9は、動作検出処理を示すフローチャートである。
(S31:画像取得ステップ)
(S21)と同様に、画像取得部110は、カメラにより人を撮影して画像情報を取得する。
(S32:3次元モデル調整ステップ)
(S22)と同様に、人物特定部140は、3次元モデル記憶部130が記憶装置に記憶した3次元モデル情報を、(S21)で画像取得部110が取得した画像情報に含まれる人の姿勢に処理装置により変形する。これにより、人物特定部140は、画像情報に含まれる人物の姿勢を特定する。
(S33:動作特定ステップ)
動作特定部180は、人物特定部140が特定した画像情報に含まれる人物の姿勢を1時刻前のその人物の姿勢と比較して、1時刻前から現時刻までのその人物の動作を特定する。
そして、(S31)へ戻り、処理を繰り返す。つまり、次の時刻の画像情報の取得、姿勢の特定、動作の特定を繰り返す。これにより、所定の時間におけるその人物の動作を特定することができる。
(S34:動作比較ステップ)
動作特定部180は、(S34)で特定した動作と、動作記憶部170が記憶した情報が示す動作とを比較する。動作特定部180は、比較の結果、(S34)で特定した動作と、動作記憶部170が記憶した情報が示す動作とが一致した場合、つまり、動作記憶部170が記憶した情報が示す動作を検出した場合、人物特定装置100の管理者等へ通知する。動作特定部180は、例えば、人物特定装置100の管理者の端末へ警告メッセージや音・光等を出力させる。
A motion detection process using the three-dimensional model information will be described. FIG. 9 is a flowchart showing the operation detection process.
(S31: Image acquisition step)
Similarly to (S21), the image acquisition unit 110 acquires image information by photographing a person with a camera.
(S32: 3D model adjustment step)
Similarly to (S22), the person specifying unit 140 uses the 3D model information stored in the storage device by the 3D model storage unit 130 as the posture of the person included in the image information acquired by the image acquisition unit 110 in (S21). It is deformed by the processing device. Thereby, the person specifying unit 140 specifies the posture of the person included in the image information.
(S33: Operation specifying step)
The action specifying unit 180 compares the posture of the person included in the image information specified by the person specifying unit 140 with the posture of the person one hour before, and specifies the action of the person from one hour before to the current time. .
And it returns to (S31) and repeats a process. That is, acquisition of image information at the next time, identification of posture, and identification of motion are repeated. Thereby, the action of the person at a predetermined time can be specified.
(S34: Operation comparison step)
The action specifying unit 180 compares the action specified in (S34) with the action indicated by the information stored in the action storage unit 170. As a result of the comparison, the operation specifying unit 180 matches the operation specified in (S34) with the operation indicated by the information stored in the operation storage unit 170, that is, the operation indicated by the information stored in the operation storage unit 170. If detected, the administrator of the person identifying apparatus 100 is notified. For example, the action specifying unit 180 outputs a warning message, sound, light, or the like to the terminal of the administrator of the person specifying device 100.

つまり、この実施の形態に係る人物特定装置100は、3次元モデルとして人物をとらえているため、3次元モデルにより人物を追尾するとともにその人物の姿勢を特定する。連続して人物の姿勢を特定することにより、その人物の動きを特定する。そして、所定の動きを検出した場合に、例えば、アラームを出力できる。例えば、ピストルを撃とうとした時の動作を検出した場合に警告を出すことができる。また、人物の動きを特定することで、その人物の状況(例えば、精神的な状況)を特定することができる。つまり、イライラしている等の状況を特定できる。   That is, since the person specifying apparatus 100 according to this embodiment views a person as a three-dimensional model, the person is tracked by the three-dimensional model and the posture of the person is specified. The movement of the person is specified by specifying the posture of the person continuously. For example, when a predetermined movement is detected, an alarm can be output. For example, a warning can be issued when an operation when attempting to shoot a pistol is detected. Further, by specifying the movement of the person, it is possible to specify the situation (for example, mental situation) of the person. In other words, it is possible to identify a situation such as frustration.

以上をまとめると、次のようになる。
この発明に係る人物特定装置は、例えば、
複数の人の各人について、その人を識別するための情報として、その人の3次元モデル情報を記憶装置に記憶する3次元モデル記憶部と、
撮影装置により人を撮影してその人の画像情報を取得する画像取得部と、
前記画像取得部が取得した人の画像情報と、前記3次元モデル記憶部が記憶した3次元モデル情報とを比較することにより、前記画像情報が示す人を特定する人物特定部と
を備えることを特徴とする。
The above is summarized as follows.
The person specifying device according to the present invention is, for example,
For each of a plurality of people, as information for identifying the person, a 3D model storage unit that stores the 3D model information of the person in a storage device;
An image acquisition unit that captures an image of the person by photographing the person with the imaging device;
A person specifying unit that specifies a person indicated by the image information by comparing the image information of the person acquired by the image acquiring unit with the 3D model information stored by the 3D model storage unit; Features.

前記人物特定部は、前記人の画像情報におけるその人の姿勢に合わせて前記3次元モデル情報を変形して前記人の画像情報とを比較することにより、前記画像情報が示す人を特定する
ことを特徴とする。
The person specifying unit specifies a person indicated by the image information by transforming the three-dimensional model information in accordance with the posture of the person in the image information of the person and comparing it with the image information of the person. It is characterized by.

前記3次元モデル記憶部は、人の所定の骨の長さの情報を持つ3次元モデル情報を記憶し、
前記人物特定部は、前記画像取得部が取得した人の画像情報から人の前記所定の骨の長さを計算して、前記3次元モデル記憶部が記憶した3次元モデル情報が示す骨の長さと比較することにより、前記画像情報が示す人を特定する
ことを特徴とする。
The 3D model storage unit stores 3D model information having information on a predetermined bone length of a person,
The person specifying unit calculates the length of the predetermined bone of the person from the image information of the person acquired by the image acquisition unit, and the bone length indicated by the 3D model information stored in the 3D model storage unit And the person indicated by the image information is specified.

前記画像取得部は、所定の検知装置により人が第1の位置にいることを検知した場合に、第2の位置に設置された撮影装置により前記人を撮影し、
前記人物特定部は、前記第1の位置と前記第2の位置と前記人の画像情報とから人の前記所定の骨の長さを計算する
ことを特徴とする。
When the image acquisition unit detects that the person is in the first position by a predetermined detection device, the image acquisition unit takes an image of the person by an imaging device installed in the second position;
The person specifying unit calculates a length of the predetermined bone of the person from the first position, the second position, and the image information of the person.

前記人物特定装置は、さらに、
人の画像の表面を表現するための複数のテクスチャを記憶装置に記憶するテクスチャ記憶部と、
前記テクスチャ記憶部が記憶した複数のテクスチャから前記人の画像情報を表現するためのテクスチャを処理装置により抽出するテクスチャ抽出部とを備え、
前記人物特定部は、前記テクスチャ抽出部が抽出したテクスチャを前記3次元モデル情報に貼り付けて、テクスチャを貼り付けた3次元モデルと前記人の画像情報とを比較することにより、前記画像情報が示す人を特定する
ことを特徴とする。
The person identifying device further includes:
A texture storage unit that stores a plurality of textures for representing the surface of a human image in a storage device;
A texture extraction unit that extracts a texture for expressing the image information of the person from a plurality of textures stored in the texture storage unit by a processing device;
The person specifying unit pastes the texture extracted by the texture extracting unit on the three-dimensional model information, and compares the three-dimensional model with the texture pasted with the person's image information to obtain the image information. The person who shows is specified.

前記3次元モデル記憶部は、複数の3次元モデル情報を記憶するとともに、前記複数の3次元モデル情報の各3次元モデルが示す人を特定するための特定情報を記憶し、
前記人物特定部は、前記人の画像情報と前記特定情報とに基づき3次元モデル情報を絞込みするとともに、前記人の画像情報と絞込みされた3次元モデル情報とを比較することにより、前記画像情報が示す人を特定する
ことを特徴とする。
The 3D model storage unit stores a plurality of 3D model information, and stores specific information for specifying a person indicated by each 3D model of the plurality of 3D model information,
The person specifying unit narrows down the three-dimensional model information based on the person's image information and the specific information, and compares the person's image information with the narrowed-down three-dimensional model information. It is characterized in that the person indicated by is identified.

前記人物特定部は、前記人の画像情報におけるその人の姿勢に合わせて前記3次元モデル情報を変形することにより、その人の姿勢を特定し、
前記人物特定装置は、さらに、
前記人物特定部が特定した人の姿勢に基づき、その人の動作を処理装置により特定する動作特定部
を備えることを特徴とする。
The person specifying unit specifies the person's posture by transforming the three-dimensional model information according to the person's posture in the person's image information,
The person identifying device further includes:
An operation specifying unit is provided that specifies a motion of the person by a processing device based on the posture of the person specified by the person specifying unit.

前記人物特定装置は、さらに、
所定の動作を示す情報を記憶装置に記憶した動作記憶部を備え、
前記動作特定部は、特定した動作が前記動作記憶部が記憶した動作である場合、警告を出力する
ことを特徴とする。
The person identifying device further includes:
An operation storage unit storing information indicating a predetermined operation in a storage device;
The operation specifying unit outputs a warning when the specified operation is an operation stored in the operation storage unit.

この発明に係る人物特定方法は、例えば
撮影装置が、人を撮影してその人の画像情報を取得する画像取得ステップと、
処理装置が、前記画像取得ステップで取得した人の画像情報と、予め記憶装置に記憶した人の3次元モデル情報とを比較することにより、前記画像情報が示す人を特定する人物特定ステップと
を備えることを特徴とする。
The person specifying method according to the present invention includes, for example, an image acquisition step in which a photographing apparatus photographs a person and acquires image information of the person;
A processing device that compares the image information of the person acquired in the image acquisition step with the three-dimensional model information of the person stored in advance in the storage device, thereby specifying a person specifying step of specifying the person indicated by the image information; It is characterized by providing.

この発明に係る人物特定プログラムは、例えば、
人を撮影してその人の画像情報を取得する画像取得処理と、
前記画像取得処理で取得した人の画像情報と、予め記憶装置に記憶した3次元モデル情報とを比較することにより、前記画像情報が示す人を特定する人物特定処理と
をコンピュータに実行させることを特徴とする。
The person specifying program according to the present invention is, for example,
An image acquisition process for photographing a person and acquiring the image information of the person;
Causing the computer to execute a person specifying process for specifying the person indicated by the image information by comparing the image information of the person acquired in the image acquiring process with the three-dimensional model information stored in the storage device in advance. Features.

この発明に係る人物特定装置は、例えば、
複数の人の各人について、その人を識別するための情報として、その人の所定の部分のサイズを記憶装置に記憶する人物情報記憶部と、
所定の検知装置により人が第1の位置にいることを検知した場合に、第2の位置に設置された撮影装置により前記人を撮影してその人の画像情報を取得する画像取得部と、
前記画像取得部が取得した人の画像情報と前記第1の位置と前記第2の位置とからその人の前記所定の部分のサイズを計算して、前記人物情報記憶部が記憶したサイズと比較することにより、前記画像情報が示す人を特定する人物特定部と
を備えることを特徴とする。
The person specifying device according to the present invention is, for example,
For each person of a plurality of persons, as information for identifying the person, a person information storage unit that stores the size of a predetermined part of the person in a storage device;
An image acquisition unit that, when a predetermined detection device detects that a person is in the first position, takes an image of the person and acquires image information of the person by an imaging device installed in the second position;
The size of the predetermined portion of the person is calculated from the image information of the person acquired by the image acquisition unit, the first position, and the second position, and compared with the size stored in the person information storage unit And a person specifying unit for specifying a person indicated by the image information.

次に、実施の形態における人物特定装置100のハードウェア構成について説明する。
図10は、人物特定装置100のハードウェア構成の一例を示す図である。
図10に示すように、人物特定装置100は、プログラムを実行するCPU911(Central・Processing・Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサともいう)を備えている。CPU911は、バス912を介してROM913、RAM914、LCD901(Liquid Crystal Display)、キーボード902(K/B)、通信ボード915、磁気ディスク装置920と接続され、これらのハードウェアデバイスを制御する。磁気ディスク装置920の代わりに、光ディスク装置、メモリカード読み書き装置などの記憶装置でもよい。
Next, the hardware configuration of the person identification device 100 in the embodiment will be described.
FIG. 10 is a diagram illustrating an example of a hardware configuration of the person identification device 100.
As shown in FIG. 10, the person identification device 100 includes a CPU 911 (also referred to as a central processing unit, a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, and a processor) that executes a program. The CPU 911 is connected to the ROM 913, the RAM 914, the LCD 901 (Liquid Crystal Display), the keyboard 902 (K / B), the communication board 915, and the magnetic disk device 920 via the bus 912, and controls these hardware devices. Instead of the magnetic disk device 920, a storage device such as an optical disk device or a memory card read / write device may be used.

ROM913、磁気ディスク装置920は、不揮発性メモリの一例である。RAM914は、揮発性メモリの一例である。ROM913とRAM914と磁気ディスク装置920とは、記憶装置(メモリ)の一例である。また、キーボード902、通信ボード915は、入力装置の一例である。また、通信ボード915は、通信装置の一例である。さらに、LCD901は、表示装置の一例である。   The ROM 913 and the magnetic disk device 920 are examples of a nonvolatile memory. The RAM 914 is an example of a volatile memory. The ROM 913, the RAM 914, and the magnetic disk device 920 are examples of a storage device (memory). The keyboard 902 and the communication board 915 are examples of input devices. The communication board 915 is an example of a communication device. Furthermore, the LCD 901 is an example of a display device.

磁気ディスク装置920又はROM913などには、オペレーティングシステム921(OS)、ウィンドウシステム922、プログラム群923、ファイル群924が記憶されている。プログラム群923のプログラムは、CPU911、オペレーティングシステム921、ウィンドウシステム922により実行される。   An operating system 921 (OS), a window system 922, a program group 923, and a file group 924 are stored in the magnetic disk device 920 or the ROM 913. The programs in the program group 923 are executed by the CPU 911, the operating system 921, and the window system 922.

プログラム群923には、上記の説明において「画像取得部110」、「3次元モデル生成部120」、「3次元モデル記憶部130」、「人物特定部140」、「テクスチャ抽出部150」、「テクスチャ記憶部160」、「動作記憶部170」、「動作特定部180」等として説明した機能を実行するソフトウェアやプログラムやその他のプログラムが記憶されている。プログラムは、CPU911により読み出され実行される。
ファイル群924には、上記の説明において「画像情報、」「3次元モデル情報」、「テクスチャ」等が記憶する情報やデータや信号値や変数値やパラメータが、「ファイル」や「データベース」の各項目として記憶される。「ファイル」や「データベース」は、ディスクやメモリなどの記録媒体に記憶される。ディスクやメモリなどの記憶媒体に記憶された情報やデータや信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出され、抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示などのCPU911の動作に用いられる。抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示のCPU911の動作の間、情報やデータや信号値や変数値やパラメータは、メインメモリやキャッシュメモリやバッファメモリに一時的に記憶される。
The program group 923 includes “image acquisition unit 110”, “3D model generation unit 120”, “3D model storage unit 130”, “person identification unit 140”, “texture extraction unit 150”, “ Stored are software, programs, and other programs that execute the functions described as the texture storage unit 160, the operation storage unit 170, the operation specifying unit 180, and the like. The program is read and executed by the CPU 911.
In the file group 924, information, data, signal values, variable values, and parameters stored in “image information”, “3D model information”, “texture”, etc. in the above description are stored in “file” or “database”. Stored as each item. The “file” and “database” are stored in a recording medium such as a disk or a memory. Information, data, signal values, variable values, and parameters stored in a storage medium such as a disk or memory are read out to the main memory or cache memory by the CPU 911 via a read / write circuit, and extracted, searched, referenced, compared, and calculated. Used for the operation of the CPU 911 such as calculation / processing / output / printing / display. Information, data, signal values, variable values, and parameters are temporarily stored in the main memory, cache memory, and buffer memory during the operation of the CPU 911 for extraction, search, reference, comparison, calculation, calculation, processing, output, printing, and display. Is remembered.

また、上記の説明におけるフローチャートの矢印の部分は主としてデータや信号の入出力を示し、データや信号値は、RAM914のメモリ、その他光ディスク等の記録媒体やICチップに記録される。また、データや信号は、バス912や信号線やケーブルその他の伝送媒体や電波によりオンライン伝送される。
また、上記の説明において「〜部」として説明するものは、「〜回路」、「〜装置」、「〜機器」、「〜手段」、「〜機能」であってもよく、また、「〜ステップ」、「〜手順」、「〜処理」であってもよい。また、「〜装置」として説明するものは、「〜回路」、「〜装置」、「〜機器」、「〜手段」、「〜機能」であってもよく、また、「〜ステップ」、「〜手順」、「〜処理」であってもよい。さらに、「〜処理」として説明するものは「〜ステップ」であっても構わない。すなわち、「〜部」として説明するものは、ROM913に記憶されたファームウェアで実現されていても構わない。或いは、ソフトウェアのみ、或いは、素子・デバイス・基板・配線などのハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。ファームウェアとソフトウェアは、プログラムとして、ROM913等の記録媒体に記憶される。プログラムはCPU911により読み出され、CPU911により実行される。すなわち、プログラムは、上記で述べた「〜部」としてコンピュータ等を機能させるものである。あるいは、上記で述べた「〜部」の手順や方法をコンピュータ等に実行させるものである。
In the above description, the arrows in the flowchart mainly indicate input / output of data and signals, and the data and signal values are recorded in a memory of the RAM 914, other recording media such as an optical disk, and an IC chip. Data and signals are transmitted online by a bus 912, signal lines, cables, other transmission media, and radio waves.
In addition, what is described as “to part” in the above description may be “to circuit”, “to device”, “to device”, “to means”, and “to function”. It may be “step”, “˜procedure”, “˜processing”. In addition, what is described as “˜device” may be “˜circuit”, “˜device”, “˜device”, “˜means”, “˜function”, and “˜step”, “ ~ Procedure "," ~ process ". Furthermore, what is described as “to process” may be “to step”. That is, what is described as “˜unit” may be realized by firmware stored in the ROM 913. Alternatively, it may be implemented only by software, or only by hardware such as elements, devices, substrates, and wirings, by a combination of software and hardware, or by a combination of firmware. Firmware and software are stored in a recording medium such as ROM 913 as a program. The program is read by the CPU 911 and executed by the CPU 911. That is, the program causes a computer or the like to function as the “˜unit” described above. Alternatively, the computer or the like is caused to execute the procedures and methods of “to part” described above.

100 人物特定装置、110 画像取得部、120 3次元モデル生成部、130 3次元モデル記憶部、140 人物特定部、150 テクスチャ抽出部、160 テクスチャ記憶部、170 動作記憶部、180 動作特定部。   DESCRIPTION OF SYMBOLS 100 Person specific apparatus, 110 Image acquisition part, 120 3D model production | generation part, 130 3D model memory | storage part, 140 Person specific part, 150 Texture extraction part, 160 Texture memory | storage part, 170 Motion storage part, 180 Motion specification part

Claims (6)

複数の人の各人について、その人を識別するための情報として、人の全身の骨構造を有する3次元モデル情報であって、その人の関節間の長さを持つ3次元モデル情報を記憶装置に記憶する3次元モデル記憶部と、
撮影装置により人を撮影してその人の画像情報を取得する画像取得部と、
前記画像取得部が取得した人の画像情報の輪郭に合うように、前記3次元モデル記憶部が記憶した3次元モデル情報が有する骨構造の関節を曲げて変形した上で、前記画像情報が示す人の輪郭と、変形した前記3次元モデル情報の輪郭とを比較するとともに、前記画像取得部が取得した人の画像情報から得られるその人の所定の関節間の長さと、前記3次元モデル情報が持つ前記所定の関節間の長さとを比較することにより、前記画像情報が示す人を特定する人物特定部と
を備えることを特徴とする人物特定装置。
As information for identifying each person of a plurality of persons, 3D model information having a bone structure of the whole body of the person and having a length between the joints of the person is stored. A three-dimensional model storage unit stored in the apparatus;
An image acquisition unit that captures an image of the person by photographing the person with the imaging device;
The image information indicates after bending and deforming a joint of a bone structure included in the 3D model information stored in the 3D model storage unit so as to match the contour of the image information of the person acquired by the image acquisition unit. The contour of the person is compared with the contour of the deformed three-dimensional model information, the length between the predetermined joints of the person obtained from the image information of the person acquired by the image acquisition unit, and the three-dimensional model information A person specifying apparatus comprising: a person specifying unit that specifies a person indicated by the image information by comparing a length between the predetermined joints of the image information.
前記画像取得部は、所定の検知装置により人が第1の位置にいることを検知した場合に、第2の位置に設置された撮影装置により前記人を撮影し、
前記人物特定部は、前記第1の位置と前記第2の位置と前記人の画像情報とから人の前記関節間の長さを計算する
ことを特徴とする請求項1に記載の人物特定装置。
When the image acquisition unit detects that the person is in the first position by a predetermined detection device, the image acquisition unit takes an image of the person by an imaging device installed in the second position;
The person specifying device according to claim 1, wherein the person specifying unit calculates a length between the joints of the person from the first position, the second position, and the image information of the person. .
前記人物特定装置は、さらに、
人の画像の表面を表現するための複数のテクスチャを記憶装置に記憶するテクスチャ記憶部と、
前記テクスチャ記憶部が記憶した複数のテクスチャから前記人の画像情報を表現するためのテクスチャを処理装置により抽出するテクスチャ抽出部とを備え、
前記人物特定部は、前記テクスチャ抽出部が抽出したテクスチャを前記3次元モデル情報に貼り付けて、テクスチャを貼り付けた3次元モデル情報の輪郭を前記人の画像情報の輪郭と比較することにより、前記画像情報が示す人を特定する
ことを特徴とする請求項1又は2に記載の人物特定装置。
The person identifying device further includes:
A texture storage unit that stores a plurality of textures for representing the surface of a human image in a storage device;
A texture extraction unit that extracts a texture for expressing the image information of the person from a plurality of textures stored in the texture storage unit by a processing device;
The person specifying unit pastes the texture extracted by the texture extracting unit on the three-dimensional model information, and compares the contour of the three-dimensional model information pasted with the texture with the contour of the human image information. The person specifying apparatus according to claim 1, wherein the person specified by the image information is specified.
前記人物特定部は、前記人の画像情報におけるその人の姿勢に合わせて前記3次元モデル情報を変形することにより、その人の姿勢を特定し、
前記人物特定装置は、さらに、
前記人物特定部が特定した人の姿勢に基づき、その人の動作を処理装置により特定する動作特定部
を備えることを特徴とする請求項1から3までのいずれかに記載の人物特定装置。
The person specifying unit specifies the person's posture by transforming the three-dimensional model information according to the person's posture in the person's image information,
The person identifying device further includes:
The person specifying device according to any one of claims 1 to 3, further comprising an action specifying unit that specifies a motion of the person by a processing device based on the posture of the person specified by the person specifying unit.
複数の人の各人について、その人を識別するための情報として、人の全身の骨構造を有する3次元モデル情報であって、その人の関節間の長さを持つ3次元モデル情報を記憶した記憶装置を用いる人物特定方法であり、
撮影装置が、人を撮影してその人の画像情報を取得する画像取得ステップと、
処理装置が、前記画像取得ステップで取得した人の画像情報の輪郭に合うように、前記記憶装置に記憶した3次元モデル情報が有する骨構造の関節を曲げて変形した上で、前記画像情報が示す人の輪郭と、変形した前記3次元モデル情報の輪郭とを比較するとともに、前記画像取得ステップで取得した人の画像情報から得られるその人の所定の関節間の長さと、前記3次元モデル情報が持つ前記所定の関節間の長さとを比較することにより、前記画像情報が示す人を特定する人物特定ステップと
を備えることを特徴とする人物特定方法。
As information for identifying each person of a plurality of persons, 3D model information having a bone structure of the whole body of the person and having a length between the joints of the person is stored. A person identification method using the storage device
An image acquisition step in which the imaging device captures a person and acquires image information of the person;
The processing apparatus bends and deforms the joint of the bone structure included in the three-dimensional model information stored in the storage device so as to match the contour of the person's image information acquired in the image acquisition step. The contour of the person to be shown is compared with the contour of the deformed three-dimensional model information, the length between the predetermined joints of the person obtained from the image information of the person acquired in the image acquisition step, and the three-dimensional model A person specifying method comprising: a person specifying step for specifying a person indicated by the image information by comparing a length between the predetermined joints of the information.
複数の人の各人について、その人を識別するための情報として、人の全身の骨構造を有する3次元モデル情報であって、その人の関節間の長さを持つ3次元モデル情報を記憶した記憶装置を用いる人物特定プログラムであり、
人を撮影してその人の画像情報を取得する画像取得処理と、
前記画像取得処理で取得した人の画像情報の輪郭に合うように、前記記憶装置に記憶した3次元モデル情報が有する骨構造の関節を曲げて変形した上で、前記画像情報が示す人の輪郭と、変形した前記3次元モデル情報の輪郭とを比較するとともに、前記画像取得処理で取得した人の画像情報から得られるその人の所定の関節間の長さと、前記3次元モデル情報が持つ前記所定の関節間の長さとを比較することにより、前記画像情報が示す人を特定する人物特定処理と
をコンピュータに実行させることを特徴とする人物特定プログラム。
As information for identifying each person of a plurality of persons, 3D model information having a bone structure of the whole body of the person and having a length between the joints of the person is stored. A person identification program using the storage device
An image acquisition process for photographing a person and acquiring the image information of the person;
The contour of the person indicated by the image information is obtained by bending and deforming a bone structure joint included in the three-dimensional model information stored in the storage device so as to match the contour of the image information of the person acquired by the image acquisition process. And the contour of the deformed 3D model information, the length between the predetermined joints of the person obtained from the image information of the person acquired by the image acquisition process, and the 3D model information A person specifying program for causing a computer to execute a person specifying process for specifying a person indicated by the image information by comparing a length between predetermined joints.
JP2012011058A 2012-01-23 2012-01-23 Person identification device, person identification method, and person identification program Expired - Fee Related JP5373128B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012011058A JP5373128B2 (en) 2012-01-23 2012-01-23 Person identification device, person identification method, and person identification program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012011058A JP5373128B2 (en) 2012-01-23 2012-01-23 Person identification device, person identification method, and person identification program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008277564A Division JP2010108110A (en) 2008-10-29 2008-10-29 Person specification device, person specification method, and person specification program

Publications (2)

Publication Number Publication Date
JP2012079348A JP2012079348A (en) 2012-04-19
JP5373128B2 true JP5373128B2 (en) 2013-12-18

Family

ID=46239419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012011058A Expired - Fee Related JP5373128B2 (en) 2012-01-23 2012-01-23 Person identification device, person identification method, and person identification program

Country Status (1)

Country Link
JP (1) JP5373128B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7004218B2 (en) * 2018-05-14 2022-01-21 オムロン株式会社 Motion analysis device, motion analysis method, motion analysis program and motion analysis system
JP7180243B2 (en) * 2018-09-27 2022-11-30 株式会社デンソーウェーブ surveillance systems and cameras
JP7282704B2 (en) * 2020-02-25 2023-05-29 エヌ・ティ・ティ・コムウェア株式会社 INDIVIDUAL ESTIMATION DEVICE, INDIVIDUAL ESTIMATION METHOD, AND PROGRAM
JP7098180B2 (en) * 2020-04-15 2022-07-11 株式会社Ridge-i Information processing equipment, information processing methods and information processing programs

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01114986A (en) * 1987-10-29 1989-05-08 Nippon Genshiryoku Bougo Syst Kk Personal identification device
JPH06323821A (en) * 1993-05-13 1994-11-25 Matsushita Electric Ind Co Ltd Skeleton data preparing equipment
JP3697286B2 (en) * 1995-03-24 2005-09-21 株式会社東芝 Condition monitoring device
JP3711038B2 (en) * 2001-06-15 2005-10-26 バブコック日立株式会社 Skull superimposing method and apparatus
JP2003085588A (en) * 2001-06-28 2003-03-20 Shiyuusaku Furushima Method of modeling 3d geometry
JP2003162720A (en) * 2001-11-27 2003-06-06 Victor Co Of Japan Ltd Method for generating modeling data, method and device for judging portrait right violation, its program, and recording medium with modeling data recorded thereon

Also Published As

Publication number Publication date
JP2012079348A (en) 2012-04-19

Similar Documents

Publication Publication Date Title
Viswakumar et al. Human gait analysis using OpenPose
Li et al. Classification of gait anomalies from kinect
JP4653606B2 (en) Image recognition apparatus, method and program
JP5873442B2 (en) Object detection apparatus and object detection method
CN110045823B (en) Motion guidance method and device based on motion capture
JP5203281B2 (en) Person detection device, person detection method, and person detection program
US20150248583A1 (en) Image processing apparatus, image processing system, image processing method, and computer program product
Ahmed et al. Gait recognition based on Kinect sensor
Poppe et al. AMAB: Automated measurement and analysis of body motion
JP5613741B2 (en) Image processing apparatus, method, and program
JP6373026B2 (en) Image processing apparatus, image processing system, image processing method, and program
US10395404B2 (en) Image processing device for composite images, image processing system and storage medium
JP2012123667A (en) Attitude estimation device and attitude estimation method
CN111488775B (en) Device and method for judging degree of visibility
KR20150127381A (en) Method for extracting face feature and apparatus for perforimg the method
JP2000251078A (en) Method and device for estimating three-dimensional posture of person, and method and device for estimating position of elbow of person
JP5373128B2 (en) Person identification device, person identification method, and person identification program
JP6969878B2 (en) Discriminator learning device and discriminator learning method
Li et al. Posture recognition technology based on kinect
CN112639875A (en) Dimension measuring system
Jatesiktat et al. Personalized markerless upper-body tracking with a depth camera and wrist-worn inertial measurement units
Yamauchi et al. Recognition of walking humans in 3D: Initial results
JP5796523B2 (en) Biological information acquisition apparatus, biological information acquisition method, and biological information acquisition control program
CN108885087A (en) Measuring device, measurement method and computer readable recording medium
JP7136344B2 (en) Camera calibration method, camera and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130918

R150 Certificate of patent or registration of utility model

Ref document number: 5373128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees