WO2016031314A1 - 個人識別装置、個人識別方法、及び、個人識別プログラム - Google Patents

個人識別装置、個人識別方法、及び、個人識別プログラム Download PDF

Info

Publication number
WO2016031314A1
WO2016031314A1 PCT/JP2015/064256 JP2015064256W WO2016031314A1 WO 2016031314 A1 WO2016031314 A1 WO 2016031314A1 JP 2015064256 W JP2015064256 W JP 2015064256W WO 2016031314 A1 WO2016031314 A1 WO 2016031314A1
Authority
WO
WIPO (PCT)
Prior art keywords
pedestrian
personal identification
walking
data
depth
Prior art date
Application number
PCT/JP2015/064256
Other languages
English (en)
French (fr)
Inventor
安川 徹
石井 智之
Original Assignee
Nkワークス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nkワークス株式会社 filed Critical Nkワークス株式会社
Publication of WO2016031314A1 publication Critical patent/WO2016031314A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition

Definitions

  • the present invention relates to a personal identification device, a personal identification method, and a personal identification program.
  • Patent Document 1 discloses a personal identification device that uses a moving image capturing a human walking motion to determine who is a person registered in advance as a pedestrian in the moving image. ing. Specifically, the personal identification device analyzes a two-dimensional image acquired by the photographing device and creates a silhouette of a pedestrian that appears in the moving image. And the said personal identification device extracts the feature-value from the outline of the produced silhouette, and identifies the pedestrian reflected in a moving image by comparing the extracted feature-value with the personal information registered previously.
  • Patent Document 2 discloses a person identification device that identifies a person included in videos taken at different times.
  • the person identification device is a pedestrian's hair color, clothing color, body shape, sex, height, and other physical characteristics and stride, speed,
  • the features of walking such as walking posture are extracted as identification elements.
  • the said person identification apparatus identifies the pedestrian who appears in an image based on the extracted identification element.
  • Patent Document 1 when the moving direction of the pedestrian relative to the photographing apparatus changes, the silhouette of the pedestrian changes significantly. Therefore, there is a possibility that such a change cannot be handled and a pedestrian cannot be specified.
  • the values of identification elements such as stride length, leg length, walking posture, body type, gender, and the like are based on the number of pixels (pixels) in the vertical and horizontal directions of a pedestrian captured in a two-dimensional image. It has been calculated. Therefore, when the pedestrian moves in the vertical direction or the oblique direction with respect to the photographing apparatus, it is difficult to calculate the values of these identification elements. Therefore, the person identification device disclosed in Patent Document 2 is configured to invalidate these identification elements when a pedestrian image moves in the Y direction in the image.
  • the present invention is made in consideration of such points, and without being affected by the direction of movement of the pedestrian relative to the imaging device, the pedestrian's walking characteristics reflected in the captured image are analyzed, It aims at providing the technique which makes it possible to specify the said pedestrian.
  • the present invention adopts the following configuration in order to solve the above-described problems.
  • the personal identification device stores personal identification data for identifying an individual, and personal identification data indicating walking characteristics in the real space of the individual for each individual.
  • An image acquisition unit that acquires a captured image including depth data indicating a depth of each pixel in the captured image, the captured image captured by a capturing device installed to capture a pedestrian Extracting a region where the pedestrian appears in the captured image, and analyzing the walking characteristics in the real space of the pedestrian captured in the region based on the depth of each pixel in the captured image indicated by the depth data
  • a gait characteristic analysis unit that acquires analysis data indicating the gait characteristics in the real space of the pedestrian in the photographed image, the gait characteristics indicated by the personal identification data, and the acquired solution By comparing the walking characteristics indicated by the data, it is determined whether or not the acquired analysis data is compatible with the personal identification data, and based on the result of the determination, walking that identifies a pedestrian in the captured image A person identification unit.
  • the captured image acquired for analyzing the walking characteristics of the pedestrian includes depth data indicating the depth of each pixel.
  • the depth of each pixel represents the depth from the photographing apparatus to the subject. Therefore, by using this depth, it is possible to analyze the state of the subject in the real space (three-dimensional space) regardless of the moving direction of the subject with respect to the photographing apparatus. Therefore, according to the above configuration, it is possible to identify the pedestrian by analyzing the walking characteristics of the pedestrian in the captured image without being affected by the moving direction of the pedestrian with respect to the imaging device.
  • the walking characteristics are the properties of the walking movement of the pedestrian, such as height, stride, step ratio, step, toe rise, toe rise ratio, heel rise, Heel up / down ratio, cadence, body tilt, trunk lateral swing, pelvic side tilt, knee joint bending angle, knee joint bending angle left / right ratio, arm swing angle, arm swing angle Items such as right / left ratio and presence / absence of walking aids can be included.
  • the storage unit replaces the identified pedestrian personal identification data with the acquired analysis data, thereby identifying the identified pedestrian personal identification.
  • Data may be updated. Over time, human walking characteristics may change.
  • the personal identification device according to the configuration updates the personal identification data using analysis data that has been successfully identified. Therefore, it is possible to provide a personal identification device that can cope with such changes in walking characteristics over time.
  • the walking characteristic may be composed of a plurality of items.
  • the pedestrian specifying unit compares the walking characteristics indicated by the personal identification data with the walking characteristics indicated by the acquired analysis data for each item, and when there are a predetermined number or more items that can be evaluated if they match.
  • the acquired analysis data may be determined to be suitable for the personal identification data, and the pedestrian in the captured image may be identified as the person indicated by the suitable personal identification data. According to the said structure, since a pedestrian can be specified multifaceted based on a some item, the precision of personal identification can be improved.
  • the walking characteristic analysis unit may further analyze the moving direction of the pedestrian relative to the photographing device. Then, when comparing the walking characteristics indicated by the personal identification data with the walking characteristics indicated by the acquired analysis data, the items selected according to the movement direction of the pedestrian may be preferentially compared. .
  • the walking characteristics may include items that are easy to analyze accurately and items that are difficult to accurately analyze depending on the moving direction of the pedestrian relative to the imaging device.
  • the item to compare preferentially according to the moving direction of a pedestrian is selected. Therefore, according to this configuration, the accuracy of personal identification can be increased.
  • the walking characteristics include, as the plurality of items, a step, a toe-up method, a heel-up method, a body tilt, and a trunk side sway. Further, it may include the lateral inclination of the pelvis, the bending angle of the knee joint, the arm swing angle, and the presence or absence of a walking assist device.
  • the body part related to the gait, the lateral movement of the trunk and the lateral inclination of the pelvis is easily shown in the photographed image, and these items can be analyzed with relatively high accuracy. it can.
  • the body part related to the step is the foot.
  • the body part related to the step, the lateral movement of the trunk, the lateral inclination of the pelvis and the way of raising the heel is easy to appear in the photographed image, and these items are relatively accurate. Can be analyzed well.
  • the side of the pedestrian is easily reflected in the shot image. Therefore, in such a case, the body part related to the body inclination, the knee joint bending angle, and the arm swing angle and the walking assist device are easily shown in the photographed image, and these items are analyzed with relatively high accuracy. be able to.
  • the walking characteristics include items that can be analyzed relatively accurately with respect to a pedestrian moving in various directions with respect to the photographing apparatus. Therefore, it is possible to sufficiently analyze the walking characteristics of the pedestrian and accurately identify the person of the pedestrian.
  • a walk auxiliary device is a device for stabilizing a walk, for example, a walking stick, a walker, and the like.
  • the walking characteristic analysis unit calculates the foreground region of the photographed image from a difference between a background image set as a background of the photographed image and the photographed image. You may extract as an area
  • the foreground area of the photographed image is specified by extracting the difference between the background image and the photographed image. That is, this foreground area is an area where a change has occurred from the background image. Therefore, when a pedestrian is performing a walking motion, the pedestrian performing the walking motion is shown in the foreground area. Therefore, by using this foreground area, it is possible to specify the area where the pedestrian is shown.
  • the process of extracting the foreground region is merely a difference calculation between the background image and the captured image. Therefore, according to the said structure, the area
  • an information processing system that realizes each of the above configurations, an information processing method, or a program may be used. It may be a storage medium that can be read by a computer, other devices, machines, or the like in which such a program is recorded.
  • the computer-readable recording medium is a medium that stores information such as programs by electrical, magnetic, optical, mechanical, or chemical action.
  • the information processing system may be realized by one or a plurality of information processing devices.
  • the personal identification method stores personal identification data for identifying an individual, and personal identification data indicating walking characteristics in the real space of the individual for each individual.
  • a computer having a unit that obtains a photographed image photographed by a photographing device installed to photograph a pedestrian and including depth data indicating a depth of each pixel in the photographed image. Extracting a region in which the pedestrian appears in the photographed image, and walking in the real space of the pedestrian in the region based on the depth of each pixel in the photographed image indicated by the depth data.
  • Analyzing the characteristics obtaining analysis data indicating the walking characteristics in the real space of the pedestrian in the photographed image, and walking indicated by the personal identification data
  • a step of identifying a pedestrian appearing in the information processing method
  • a program stores personal identification data for identifying an individual, and personal identification data indicating walking characteristics in the real space of the individual for each individual.
  • Analyzing the characteristics obtaining analysis data indicating the walking characteristics in the real space of the pedestrian in the photographed image, and indicating the personal identification data
  • the pedestrian can be identified by analyzing the walking characteristics of the pedestrian shown in the photographed image without being affected by the moving direction of the pedestrian relative to the photographing apparatus.
  • FIG. 1 shows an example of a scene where the present invention is applied.
  • FIG. 2 illustrates a hardware configuration of the personal identification device according to the embodiment.
  • FIG. 3 illustrates the relationship between the depth acquired by the camera according to the embodiment and the subject.
  • FIG. 4 illustrates personal identification data according to the embodiment.
  • FIG. 5 illustrates a functional configuration of the personal identification device according to the embodiment.
  • FIG. 6 illustrates analysis data according to the embodiment.
  • FIG. 7 illustrates a processing procedure related to personal identification of the personal identification device according to the embodiment.
  • FIG. 8 illustrates a captured image acquired by the camera according to the embodiment.
  • this embodiment will be described with reference to the drawings.
  • this embodiment described below is only an illustration of the present invention in all respects. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention. That is, in implementing the present invention, a specific configuration according to the embodiment may be adopted as appropriate.
  • data appearing in the present embodiment is described in a natural language, more specifically, it is specified by a pseudo language, a command, a parameter, a machine language, or the like that can be recognized by a computer.
  • FIG. 1 illustrates a scene where the personal identification device 1 according to the present embodiment is used.
  • the personal identification device 1 according to the present embodiment identifies a pedestrian by photographing the pedestrian and analyzing the walking characteristics of the pedestrian captured in the captured image 3 obtained thereby. Therefore, the personal identification device 1 according to the present embodiment can be widely used for scenes that specify pedestrians.
  • the personal identification device 1 photographs a pedestrian with the camera 2.
  • the camera 2 corresponds to the photographing apparatus of the present invention.
  • the camera 2 is installed to photograph a pedestrian. Therefore, the camera 2 may be arranged at any place as long as it can photograph a pedestrian.
  • the camera 2 is configured to be able to acquire the depth corresponding to each pixel in the captured image 3.
  • the camera 2 includes a depth sensor (a depth sensor 21 described later) that measures the depth of the subject so that the depth of each pixel can be acquired.
  • a depth sensor a depth sensor 21 described later
  • the configuration of the camera 2 is not limited to such an example as long as the depth can be acquired, and can be appropriately selected according to the embodiment.
  • the camera 2 may be a stereo camera so that the depth of the subject within the shooting range can be specified. Since the stereo camera shoots the subject within the shooting range from a plurality of different directions, the depth of the subject can be recorded.
  • the camera 2 may be replaced with a single depth sensor as long as the depth of the subject within the shooting range can be specified.
  • the personal identification device 1 acquires a photographed image 3 photographed by such a camera 2 as an information processing device.
  • the captured image 3 includes depth data indicating the depth obtained for each pixel, as illustrated in FIG. 8 described later.
  • the captured image 3 may be data indicating the depth of the subject within the imaging range, and may be data (for example, a depth map) in which the depth of the subject within the imaging range is distributed two-dimensionally.
  • the captured image 3 may include an RGB image together with the depth data. Further, the captured image 3 may be a moving image or a still image.
  • the personal identification device 1 extracts an area in which the pedestrian appears in the acquired photographed image 3 and analyzes the walking characteristics of the pedestrian in the extracted area. At this time, the personal identification device 1 analyzes the state of the pedestrian in the real space using the depth of each pixel in the captured image 3 indicated by the depth data. Thereby, the personal identification device 1 acquires analysis data (analysis data 40 to be described later) indicating walking characteristics in a pedestrian's real space shown in the captured image 3.
  • analysis data analysis data 40 to be described later
  • the personal identification device 1 compares the personal identification data registered in advance (personal identification data 121 described later) with the analysis data to determine whether the acquired analysis data matches the personal identification data. Determine whether. Then, the personal identification device 1 identifies a pedestrian that appears in the captured image 3 based on the result of the determination.
  • the personal identification device 1 acquires depth data indicating the depth of each pixel together with the captured image 3 in order to analyze the walking characteristics of the pedestrian.
  • this depth data is used, as illustrated in FIG. 1, the position of the subject in the captured image in the real space (three-dimensional space) can be specified. Therefore, the personal identification device 1 can analyze the state of the pedestrian in the real space regardless of the moving direction of the pedestrian with respect to the camera 2 by using the depth data. Therefore, according to the present embodiment, the pedestrian can be identified by analyzing the walking characteristics of the pedestrian captured in the captured image 3 without being influenced by the moving direction of the pedestrian with respect to the camera 2.
  • the location of the personal identification device 1 can be appropriately determined according to the embodiment as long as the captured image 3 can be acquired from the camera 2.
  • the personal identification device 1 may be disposed close to the camera 2 as illustrated in FIG.
  • the personal identification device 1 may be connected to the camera 2 via a network, or may be arranged at a place completely different from the camera 2.
  • FIG. 2 illustrates a hardware configuration of the personal identification device 1 according to the present embodiment.
  • the personal identification device 1 stores a control unit 11 including a CPU, a RAM (Random Access Memory), a ROM (Read Only Memory), and the like, a program 5 executed by the control unit 11, and the like.
  • Unit 12 a touch panel display 13 for displaying and inputting images, a speaker 14 for outputting sound, an external interface 15 for connecting to an external device, a communication interface 16 for communicating via a network, and This is a computer to which a drive 17 for reading a program stored in the storage medium 6 is electrically connected.
  • the communication interface and the external interface are described as “communication I / F” and “external I / F”, respectively.
  • the control unit 11 may include a plurality of processors.
  • the touch panel display 13 may be replaced with an input device and a display device that are separately connected independently.
  • the speaker 14 may be omitted.
  • the speaker 14 may be connected to the personal identification device as an external device instead of as an internal device of the personal identification device 1.
  • the personal identification device 1 may incorporate a camera 2.
  • the personal identification device 1 may include a plurality of external interfaces 15 and may be connected to a plurality of external devices.
  • the personal identification device 1 is connected to the camera 2 via the external interface 15.
  • the camera 2 according to the present embodiment is installed for photographing a pedestrian.
  • the camera 2 includes a depth sensor 21 for measuring the depth of the subject.
  • the type and measurement method of the depth sensor 21 may be appropriately selected according to the embodiment.
  • the depth sensor 21 may be a sensor of TOF (TimeFOf Flight) method or the like.
  • an infrared depth sensor that measures the depth based on infrared irradiation may be used as the depth sensor 21 so that the depth can be acquired without being affected by the brightness of the shooting location.
  • relatively inexpensive imaging apparatuses including such an infrared depth sensor include Kinect from Microsoft, Xtion from ASUS, and CARMINE from PrimeSense.
  • FIG. 3 shows an example of a distance that can be handled as the depth according to the present embodiment.
  • the depth represents the depth of the subject.
  • the depth of the subject may be expressed by, for example, a straight line distance A between the camera 2 and the object, or a perpendicular distance B from the horizontal axis with respect to the subject of the camera 2. It may be expressed as
  • the depth according to the present embodiment may be the distance A or the distance B.
  • the distance B is treated as the depth.
  • the distance A and the distance B can be converted into each other by using, for example, the three-square theorem. Therefore, the following description using the distance B can be applied to the distance A as it is.
  • the personal identification device 1 according to the present embodiment analyzes walking characteristics in a pedestrian's real space.
  • the personal identification device 1 stores personal identification data 121 indicating walking characteristics in the real space of the individual in the storage unit 12.
  • the personal identification data 121 will be described with reference to FIG.
  • FIG. 4 illustrates personal identification data 121 according to the present embodiment.
  • the personal identification data 121 is data for identifying an individual.
  • one piece of personal identification data 121 corresponds to one piece of personal data. Therefore, in the present embodiment, the number of pieces of personal identification data 121 corresponding to the number of persons to be identified is held.
  • the personal identification data 121 includes information indicating a data ID, a person name, and walking characteristics.
  • the data ID is an identifier for identifying the individual identification data 121 of each individual.
  • the person name indicates the name of the person identified by the personal identification data 121.
  • the walking characteristic indicates a property of the walking motion of the person identified by the personal identification data 121.
  • the walking characteristics are: step, toe up, heel up, body tilt, trunk side sway, pelvic side tilt, knee joint bending angle, arm swing angle, Includes items such as the presence or absence of walking aids.
  • the step is the width between the left and right legs.
  • the way of raising the toes indicates how the right or / and left toes are raised during the walking motion.
  • the way of raising the heel indicates how the heel of the right foot and / or the left foot is raised during the walking motion.
  • the inclination of the body indicates the angle of the body axis during the walking motion.
  • the lateral shaking of the trunk indicates how the trunk moves outside during walking.
  • the lateral inclination of the pelvis indicates the degree of inclination of the pelvis in the vertical direction during the walking motion.
  • the bending angle of the knee joint indicates the degree of bending of the right knee and / or the left knee during the walking motion.
  • the arm swing angle indicates the degree of bending of the right arm and / or the left arm during the walking motion.
  • the presence / absence of a walking assist device indicates whether the target individual uses the walking assist device.
  • the walking assist device is a device for stabilizing walking, such as a walking stick, a walker
  • Attribute values of each item are given so as to be compatible with the analysis processing described later.
  • the attribute value of an item that is relatively less likely to change over time such as a step, a body tilt, and the presence / absence of a walking aid, may be given as a single numerical value.
  • attribute values such as how to raise the toes, how to raise the heel, lateral movement of the trunk, lateral inclination of the pelvis, bending angle of the knee joint, arm swing angle, etc. are relatively likely to change over time. For example, it changes like a waveform pattern according to the walking cycle.
  • the attribute value of such an item may be given as a maximum value (single numerical value), may be given as an array representing the waveform pattern, or may be given as two numerical values: a period and a maximum value. It may be granted.
  • the format of the attribute value of each item can be appropriately selected according to the embodiment.
  • walking characteristics are not limited to these examples, and can be appropriately selected according to the embodiment.
  • walking characteristics include height, stride, left / right ratio of stride, left / right ratio of how to raise toes, left / right ratio of how to raise heel, cadence, left / right ratio of knee joint bending angle, arm swing Items such as angle ratio can be included.
  • the cadence is also called a walking rate and indicates the number of steps in a unit time.
  • the number of items of walking characteristics can be appropriately selected according to the embodiment.
  • the number of items of walking characteristics may be singular or plural.
  • the personal identification device 1 selects the item used for personal identification from the plurality of items of the walking characteristic from the user. It may be accepted.
  • the data format of the personal identification data 121 is not limited to such an example as long as the walking characteristics of each individual can be stored, and can be appropriately selected according to the embodiment.
  • the personal identification data 121 may be held as one record of a table format database.
  • each attribute value related to the walking characteristics of the personal identification data 121 may be acquired by analyzing a captured image obtained by capturing the walking motion of each individual by a walking characteristics analysis process described later.
  • each attribute value may be directly input by the user, or may be determined by selecting from a plurality of candidates.
  • Such personal identification data 121 may be acquired from another information processing apparatus via a network.
  • the program 5 stored in the storage unit 12 is a program for causing the personal identification device 1 to execute each process related to personal identification described later, and corresponds to the “program” of the present invention.
  • the program 5 may be recorded on the storage medium 6.
  • the storage medium 6 stores information such as a program by an electrical, magnetic, optical, mechanical, or chemical action so that information such as a program recorded by a computer or other device or machine can be read. It is a medium to do.
  • the storage medium 6 corresponds to the “storage medium” of the present invention.
  • 2 illustrates a disk-type storage medium such as a CD (Compact Disk) or a DVD (Digital Versatile Disk) as an example of the storage medium 6.
  • the type of the storage medium 6 is not limited to the disk type and may be other than the disk type. Examples of the storage medium other than the disk type include a semiconductor memory such as a flash memory.
  • the personal identification device 1 for example, a general-purpose device such as a PC (Personal Computer) or a tablet terminal may be used in addition to a device designed exclusively for the service to be provided. Furthermore, the personal identification device 1 may be implemented by one or a plurality of computers.
  • a general-purpose device such as a PC (Personal Computer) or a tablet terminal may be used in addition to a device designed exclusively for the service to be provided.
  • the personal identification device 1 may be implemented by one or a plurality of computers.
  • FIG. 5 illustrates a functional configuration of the personal identification device 1 according to the present embodiment.
  • the control unit 11 of the personal identification device 1 expands the program 5 stored in the storage unit 12 in the RAM.
  • the control part 11 interprets and runs the program 5 expand
  • the personal identification device 1 functions as a computer including the image acquisition unit 31, the walking characteristic analysis unit 32, and the pedestrian identification unit 33.
  • the image acquisition unit 31 acquires a captured image 3 captured by the camera 2.
  • the captured image 3 includes depth data indicating the depth of each pixel. Therefore, the walking characteristic analysis unit 32 extracts an area in which the pedestrian appears in the captured image 3. And based on the depth of each pixel in the picked-up image 3 shown by the depth data, the walk characteristic in the real space of the pedestrian reflected in the extracted area
  • FIG. 6 illustrates analysis data 40 according to this embodiment.
  • the analysis data 40 is obtained based on the result of the analysis by the walking characteristic analysis unit 32, and indicates the walking characteristics in the pedestrian's real space shown in the captured image 3.
  • the analysis data 40 is acquired corresponding to the walking characteristics included in the personal identification data 121.
  • the walking characteristic analysis unit 32 analyzes the walking motion of the pedestrian shown in the captured image 3 with respect to each item of the walking characteristics included in the personal identification data 121. Therefore, the analysis data 40 according to the present embodiment includes the gait characteristics of the pedestrian shown in the captured image 3 as the gait, how to raise the toes, how to raise the heel, body tilt, lateral trunk swing, pelvis This includes items such as the lateral inclination of the knee, the bending angle of the knee joint, the arm swing angle, and the presence / absence of a walking aid.
  • the walking characteristic indicated by the personal identification data 121 and the walking characteristic indicated by the analysis data 40 can be compared, the item of the walking characteristic included in the personal identification data 121 and the item of the walking characteristic included in the analysis data 40 And do not have to match exactly. That is, it is only necessary that the personal identification data 121 and the analysis data 40 include a common walking characteristic item, and a walking characteristic item that is not included in one data may be included in the other data. .
  • the pedestrian specifying unit 33 collates the analysis data 40 acquired in this way with the personal identification data 121 held in the storage unit 12. In other words, the pedestrian specifying unit 33 compares the walking characteristics indicated by the personal identification data 121 with the walking characteristics indicated by the acquired analysis data 40, so that the acquired analysis data 40 matches the personal identification data 121. It is determined whether or not. And the pedestrian specific
  • FIG. 7 illustrates a processing procedure regarding personal identification of the personal identification device 1. Note that the processing procedure related to personal identification described below is merely an example, and each processing may be changed as much as possible. Further, in the processing procedure described below, steps can be omitted, replaced, and added as appropriate according to the embodiment.
  • Step S101 In step S ⁇ b> 101, the control unit 11 functions as the image acquisition unit 31 and acquires the captured image 3 captured by the camera 2. Then, the control part 11 advances a process to following step S102.
  • the camera 2 includes a depth sensor 21. Therefore, the captured image 3 acquired in step S101 includes depth data indicating the depth of each pixel.
  • the control unit 11 acquires the captured image 3 illustrated in FIG. 8 as the captured image 3 including the depth data.
  • FIG. 8 shows an example of a photographed image 3 including depth data.
  • the captured image 3 illustrated in FIG. 8 is an image in which the gray value of each pixel is determined according to the depth of each pixel.
  • a black pixel is closer to the camera 2.
  • a white pixel is farther from the camera 2.
  • the control unit 11 can specify the position of each pixel in the real space. That is, the control unit 11 can specify the position in the three-dimensional space (real space) of the subject captured in each pixel from the coordinates (two-dimensional information) and the depth of each pixel in the captured image 3. .
  • FIG. 8 illustrates the depth data acquired by the camera 2 oriented in the horizontal direction with respect to the floor surface.
  • the orientation of the camera 2 is not limited to such an example, and can be set as appropriate according to the embodiment.
  • a three-dimensional distribution in the real space of the subject shown in the captured image 3 is obtained by performing projective transformation using the roll angle, pitch angle, and yaw angle of the camera 2. Obtainable.
  • the control unit 11 may acquire the captured image 3 in synchronization with the video signal of the camera 2 in order to identify the pedestrian in real time. Then, at the stage where one or a plurality of photographed images 3 are acquired, the control unit 11 can immediately execute the processing from steps S102 to S106 described later on the one or a plurality of photographed images 3 that have been acquired. Good.
  • the personal identification device 1 can realize such real-time image processing by continuously executing such operations continuously, and can identify a pedestrian existing in the shooting range of the camera 2 in real time.
  • Step S102 Returning to FIG. 7, in the next step S ⁇ b> 102, the control unit 11 functions as the walking characteristic analysis unit 32, and extracts a region where a pedestrian appears in the captured image 3 acquired in step S ⁇ b> 101. Then, the control part 11 advances a process to following step S103.
  • an area where a pedestrian appears in the captured image 3 is also referred to as a “person area”.
  • the method for extracting the person area can be appropriately selected according to the embodiment.
  • the control unit 11 may extract a person region in which a pedestrian is captured in the captured image 3 by performing image analysis such as pattern detection and graphic element detection based on the shape of the person.
  • the control part 11 extracts a person area
  • Step S103 In the next step S103, the control unit 11 functions as the walking characteristic analysis unit 32, and based on the depth of each pixel in the captured image 3 indicated by the depth data, the pedestrian's actuality shown in the region extracted in step S102. Analyze walking characteristics in space.
  • control unit 11 can recognize the three-dimensional distribution of the subject by using the depth data. Therefore, the control unit 11 may specify the positional relationship in the real space of each body part of the pedestrian captured in the person area by referring to the depth of the person area extracted in step S102.
  • control part 11 may specify the attribute value which concerns on each item of the said walk characteristic of the said pedestrian from the positional relationship in the real space of each body part. Thereby, the control part 11 can acquire the analysis data 40 which shows the walk characteristic in the pedestrian's real space reflected on the picked-up image 3, and can advance a process to following step S104.
  • the method for specifying the region of each body part in the person region can be appropriately selected according to the embodiment.
  • the region of each body part can be specified in the person region by performing image analysis such as pattern detection and graphic element detection based on the shape of each body part.
  • the analysis method for each item of walking characteristics can be selected as appropriate according to the embodiment. For example, it is possible to identify the attribute value of each item by analyzing the walking characteristics of a pedestrian in the captured image 3 as follows.
  • control unit 11 may calculate the height of the user by measuring the distance from the ground (heel or toe) to the head. Further, for example, the control unit 11 may calculate the user's stride by measuring the distance from the heel of one foot to the toe of the other foot. For example, the control unit 11 may calculate the user's step by measuring the horizontal distance between the left and right ankles.
  • control unit 11 may calculate an attribute value related to how to raise the toes by continuously measuring the distance from at least one toe to the ground. Further, for example, the control unit 11 may calculate an attribute value related to how to raise the heel by continuously measuring the distance from the heel of at least one foot to the ground. For example, the control unit 11 may calculate the cadence by measuring the number of steps per unit time.
  • control unit 11 may calculate the inclination of the body by measuring the inclination of the upper body with respect to a straight line perpendicular to the ground.
  • control unit 11 may calculate an attribute value related to the lateral shaking of the body by continuously measuring the inclination of the body in the left-right direction with respect to a straight line perpendicular to the ground.
  • control unit 11 may calculate the attribute value related to the lateral inclination of the pelvis by measuring the horizontal inclination of the pelvis with respect to a straight line perpendicular to the ground.
  • control unit 11 may calculate the bending angle of the knee joint by measuring an angle with the knee formed between the thigh and the crus in at least one foot as a vertex.
  • control unit 11 may calculate the arm swing angle by measuring the angle of the arm with respect to a straight line perpendicular to the ground.
  • control unit 11 may detect the walking aid by performing image analysis such as pattern detection and graphic element detection in the person area based on the shape of each walking aid.
  • the control unit 11 sets the attribute value related to the presence or absence of the walking assist device in the analysis data 40 so as to indicate that the walking assist device is included.
  • the control unit 11 sets the attribute value related to the presence or absence of the walking assistance device in the analysis data 40 so as to indicate that there is no walking assistance device.
  • the control unit 11 may acquire the attribute value of each right / left ratio by specifying each attribute value separately for the right side and the left side, and obtaining the ratio of the specified attribute values.
  • the control unit 11 treats the item of the walking characteristic for which the attribute value could not be specified as being unanalyzable and excludes it from the object to be compared in the following step S104.
  • Step S102 when a plurality of pedestrians are extracted, in Step S103, the control unit 11 analyzes walking characteristics for each pedestrian. And the control part 11 acquires the analysis data 40 for every pedestrian.
  • Step S104 Returning to FIG. 7, in the next step S ⁇ b> 104, the control unit 11 functions as the pedestrian specifying unit 33, and collates the personal identification data 121 stored in the storage unit 12 with the analysis data 40 acquired in step S ⁇ b> 103. To do. Specifically, the control unit 11 compares the walking characteristic indicated by the personal identification data 121 and the walking characteristic indicated by the analysis data 40 acquired in step S103 for each item.
  • control unit 11 determines that the analysis data 40 acquired in step S103 matches the personal identification data 121 stored in the storage unit 12. To do. Then, the control unit 11 specifies that the pedestrian extracted in step S102 is the person indicated by the appropriate personal identification data 121, and proceeds to the next step S105.
  • control unit 11 determines that the analysis data 40 does not match the personal identification data 121. And the control part 11 treats the pedestrian extracted by step S102 as unidentifiable, and advances a process to following step S105.
  • a method of comparing attribute values can be appropriately selected according to the embodiment. For example, when the attribute value is represented by a single numerical value, when the difference (absolute value) between the attribute value indicated by the analysis data 40 and the attribute value indicated by the personal identification data 121 is within a threshold value, The control unit 11 can evaluate that the attribute values related to the item match in the analysis data 40 and the personal identification data 121.
  • the control unit 11 selects the attribute related to the item in the analysis data 40 and the personal identification data 121. It can be evaluated that the values do not match. Even when the attribute value is represented by an array and when the attribute value is represented by two numerical values of a period and a maximum value (maximum value), the control unit 11 represents the attribute value by a single numerical value. It is possible to process in substantially the same manner as in the case of.
  • the storage unit 12 may store a plurality of pieces of personal identification data 121.
  • the control unit 11 collates a plurality of pieces of personal identification data 121 stored in the storage unit 12 with the analysis data 40 in order, and specifies personal identification data 121 that matches the analysis data 40.
  • the control unit 11 employs the most suitable personal identification data 121 as data that matches the analysis data 40.
  • the control unit 11 treats the pedestrian extracted in step S102 as unidentifiable, and proceeds to the next step S105.
  • step S104 the control unit 11 collates the analysis data 40 with the personal identification data 121 for each pedestrian. Thereby, the control part 11 specifies a person for every pedestrian extracted by step S102.
  • step S105 the control unit 11 determines whether or not a pedestrian can be specified in step S ⁇ b> 104, in other words, whether or not personal identification data 121 that matches the analysis data 40 exists. If a pedestrian can be identified in step S104, the control unit 11 advances the processing to the next step S106. On the other hand, when a pedestrian cannot be specified in step S104, the control unit 11 omits the process of step S106 and ends the process according to this operation example.
  • control unit 11 sets the pedestrian as unidentifiable only in the case of this operation example only when the person cannot be specified for all the extracted pedestrians. This process is terminated.
  • control unit 11 advances the processing to the next step S106 for the pedestrians who can specify the person.
  • Step S106 In step S ⁇ b> 106, the control unit 11 executes an update process for the personal identification data 121. Specifically, the control unit 11 uses each attribute value of the walking characteristic included in the personal identification data 121 of the pedestrian specified in step S104 as each attribute of the walking characteristic included in the analysis data 40 acquired in step S103. Replace with a value. Accordingly, the storage unit 12 updates the pedestrian personal identification data 121 specified in step S104.
  • step S106 When the process of step S106 is completed, the control unit 11 ends the process according to this operation example. When repeating the process related to personal identification, the control unit 11 executes the process from step S101 again. For items that could not be analyzed in step S103, the control unit 11 does not replace the attribute values and maintains the attribute values included in the original personal identification data 121.
  • the personal identification device 1 acquires depth data indicating the depth of each pixel together with the captured image 3 in order to analyze the walking characteristics of a pedestrian.
  • the personal identification device 1 can analyze the state of the pedestrian in the real space regardless of the direction of movement of the pedestrian relative to the camera 2. Therefore, according to the present embodiment, the pedestrian can be identified by analyzing the walking characteristics of the pedestrian in the captured image 3 without being affected by the moving direction of the pedestrian with respect to the camera 2.
  • the personal identification device 1 updates the personal identification data 121 using the matched analysis data 40 in step S106. That is, the control unit 11 updates the personal identification data 121 with the analysis data 40 that has been successfully identified. Therefore, according to the present embodiment, it is possible to provide the personal identification device 1 that can cope with such a change in walking characteristics with time.
  • the walking characteristics are composed of a plurality of items.
  • the control unit 11 compares the personal identification data 121 and the analysis data 40 for each item, and if there are a predetermined number or more items that can be evaluated if they match, the acquired analysis data 40 is stored in the individual. It is determined that it matches the identification data 121. Therefore, according to this embodiment, since a pedestrian can be specified from multiple aspects based on a plurality of items, the accuracy of personal identification can be improved.
  • the items constituting the walking characteristics include the step, toe up, heel up, body tilt, trunk side sway, pelvic side tilt, knee joint bending angle.
  • the arm swing angle and the presence / absence of a walking aid are selected.
  • the front surface of the pedestrian is easily reflected in the captured image 3. Therefore, the body part used for the analysis of the gait, the lateral movement of the trunk, and the lateral inclination of the pelvis is easily shown in the captured image 3, and these attribute values can be specified with relatively high accuracy.
  • the attribute value according to the method can be specified with relatively high accuracy.
  • the side surface of the pedestrian is easily shown in the captured image 3, and the body tilt, the knee joint bending angle, the arm swing angle, and the walking
  • the attribute value related to the presence or absence of the auxiliary device can be specified with relatively high accuracy.
  • the walking characteristics according to the present embodiment include items that can be analyzed relatively accurately for pedestrians moving in various directions with respect to the camera 2. Therefore, according to the present embodiment, it is possible to sufficiently analyze the walking characteristics of the pedestrian shown in the captured image 3 and accurately identify the person of the pedestrian.
  • the personal identification device 1 identifies a pedestrian photographed by the camera 2. Therefore, the processing result of the personal identification device 1 can be used in the following system.
  • the personal identification device 1 may be applied to an electronic lock opening / closing system.
  • the camera 2 is arranged so as to be able to photograph a pedestrian in proximity to a door or the like where an electronic lock is installed.
  • the personal identification data 121 stored in the storage unit 12 includes information indicating whether or not the person indicated by the personal identification data 121 is a target for unlocking the electronic lock.
  • the personal identification device 1 may be configured to unlock the electronic lock when it is determined that the pedestrian close to the door or the like is a person to be unlocked as a result of the pedestrian identification process. Good.
  • the personal identification device 1 may be applied to a suspicious person determination system by detecting a person who is not registered.
  • the camera 2 is arranged so as to be able to photograph a place where a suspicious person is wary of intrusion such as an entrance of a building.
  • personal identification data 121 of each person entering and exiting the building is registered in advance. Then, if the pedestrian cannot be specified as a result of the pedestrian identification process, in other words, the personal identification device 1 is a pedestrian that does not correspond to any person registered in the storage unit 12 in the captured image 3. When it is reflected, the pedestrian may be determined as a suspicious person. Further, in such a case, any notification method may be used to notify that a suspicious person has entered.
  • control unit 11 does not prioritize any item of the walking characteristics in step S104, and the walking characteristics and personal identification indicated by the analysis data 40 Comparison processing with the walking characteristics indicated by the data 121 for use is executed. However, the control unit 11 may execute the comparison process with priority given to any item of walking characteristics.
  • control unit 11 may analyze the moving direction of the pedestrian in step S102.
  • the moving direction of the pedestrian can be specified using, for example, the captured images 3 for several frames.
  • control unit 11 specifies the position of the pedestrian in the real space in each frame using the depth data. Then, by referring to the position of the pedestrian in each frame, the control unit 11 can specify the displacement of the pedestrian in the real space between several frames, that is, the moving direction.
  • step S104 when comparing the walking characteristic indicated by the personal identification data 121 and the walking characteristic indicated by the analysis data 40, the control unit 11 selects an item selected according to the moving direction specified in step S102. You may compare with priority. Specifically, as a result of prioritizing specific items, for example, the control unit 11 may limit the items compared in the analysis data 40 and the personal identification data 121 in step S104 to the prioritized items.
  • the method for selecting the priority item according to the direction of movement of the pedestrian can be set as appropriate according to the embodiment. For example, as described above, when the pedestrian is moving in the direction approaching the camera 2, the attribute values of the step, the trunk side sway, and the pelvic side tilt can be acquired with relatively high accuracy. . Therefore, when it is determined in step S102 that the pedestrian is moving in the direction approaching the camera 2, the control unit 11 determines the step, trunk, among the items of walking characteristics in the comparison process in step S104. Priority may be given to lateral swinging and lateral tilting of the pelvis.
  • step S102 when it is determined in step S102 that the pedestrian is moving in a direction away from the camera 2, the control unit 11 in the comparison process of step S104, the step, You may give priority to the lateral shaking of the trunk, the lateral inclination of the pelvis and the way of raising the heel. If it is determined in step S102 that the pedestrian is moving in a direction crossing the shooting range of the camera 2, the control unit 11 determines whether the pedestrian is included in the walking characteristics in the comparison process in step S104. Priority may be given to body tilt, knee joint bending angle, arm swing angle, and the presence or absence of walking aids.
  • step S103 not all walking characteristics are always analyzable.
  • an item to be preferentially compared is selected according to the moving direction of the pedestrian. For example, among the items included in the walking characteristics, the control unit 11 selects items that are relatively accurately analyzed from the captured image 3 in which the pedestrian facing the moving direction specified in step S102 is captured as described above. Prioritize.
  • the control unit 11 limits the items to be compared to the specific items. That is, the control unit 11 specifies a pedestrian person based on a comparison result of items analyzed with relatively high accuracy. Therefore, according to this configuration, the accuracy of personal identification can be increased.
  • the items to be compared in step S104 need not be limited to the priority items selected according to the moving direction specified in step S102. That is, the items to be compared may include one or more items in addition to the items that are prioritized according to the moving direction of the pedestrian.
  • the control unit 11 (walking characteristic analysis unit 32) extracts a person area where a pedestrian appears from the photographed image 3 by image processing such as pattern detection in step S102. ing.
  • the method of extracting the person region from the captured image 3 is not limited to such an example, and can be appropriately selected according to the embodiment.
  • the control unit 11 may use the foreground area to narrow the range for searching for the person area.
  • step S102 the control unit 11 extracts the foreground region of the captured image 3 from the difference between the background image set as the background of the captured image 3 acquired in step S101 and the captured image 3.
  • the background image is data used for extracting the foreground region, and is set including the depth of the target as the background.
  • the method for creating the background image may be set as appropriate according to the embodiment.
  • the control unit 11 may create the background image by calculating the average of the captured images for several frames obtained when the camera 2 starts shooting. At this time, a background image including the depth data can be created by calculating the average of the captured images including the depth data.
  • the foreground area extracted in this way indicates an area where a change has occurred from the background image. Therefore, when a person (pedestrian) performing a walking motion is shown in the captured image 3, the area where the pedestrian is shown is extracted as the foreground area. Therefore, in step S102, the control unit 11 may extract an area where a pedestrian is shown by executing image analysis such as pattern detection and graphic element detection in the foreground area.
  • the control part 11 personal identification device 1 can narrow down the range which detects a pedestrian, without utilizing an advanced image process. Therefore, according to the modification, the processing load in step S102 can be reduced.
  • the method by which the control unit 11 extracts the foreground region is not limited to the above-described method.
  • the background and the foreground may be separated using a background subtraction method.
  • the background difference method for example, a method of separating the background and the foreground from the difference between the background image and the input image (captured image 3) as described above, and a method of separating the background and the foreground using three different images And a method of separating the background and the foreground by applying a statistical model.
  • the method for extracting the foreground region is not particularly limited, and may be appropriately selected according to the embodiment.

Abstract

 撮影装置に対する歩行者の移動方向に影響を受けることなく、撮影画像内に写る歩行者の歩行特性を解析し、当該歩行者を特定することを可能にする技術を提供する。本発明の一側面に係る個人識別装置は、個人の実空間における歩行特性を示す個人を識別するための個人識別用データを記憶する記憶部と、各画素の深度を示す深度データを含む、歩行者を撮影した撮影画像を取得する画像取得部と、撮影画像内で歩行者の写る領域を抽出し、撮影画像内の各画素の深度に基づいて、当該領域に写る歩行者の実空間における歩行特性を解析することで、歩行者の実空間における歩行特性を示す解析データを取得する歩行特性解析部と、取得した解析データを個人識別用データと比較することにより、取得した解析データが個人識別用データに適合するか否かを判定し、判定の結果に基づいて撮影画像に写る歩行者を特定する歩行者特定部と、を備える。

Description

個人識別装置、個人識別方法、及び、個人識別プログラム
 本発明は、個人識別装置、個人識別方法、及び、個人識別プログラムに関する。
 特許文献1には、人間の歩行動作を捉えた動画像を利用して、動画像内に写る歩行者が予め登録されている人物のうちの誰であるかを判定する個人識別装置が開示されている。具体的には、当該個人識別装置は、撮影装置により取得された二次元画像を解析して、動画像内に写る歩行者のシルエットを作成する。そして、当該個人識別装置は、作成したシルエットの輪郭から特徴量を抽出して、抽出した特徴量と予め登録された個人情報とを比較することによって、動画像内に写る歩行者を識別する。
 また、特許文献2には、異なる時間に撮影された映像に含まれる人物を同定する人物同定装置が開示されている。具体的には、当該人物同定装置は、撮影装置によって取得された二次元画像内に写る歩行者の髪の色、服の色、体型、性別、身長等の身体的特徴と歩幅、歩速、歩行姿勢等の歩行の特徴とを同定要素として抽出する。そして、当該人物同定装置は、抽出した同定要素に基づいて、画像内に写る歩行者の同定を行う。
特開平04-033066号公報 特開2010-239992号公報
 例えば、特許文献1では、撮影装置に対する歩行者の移動方向が変化すると、歩行者のシルエットは大きく変わってしまう。そのため、このような変化に対応できず、歩行者を特定できない可能性があった。また、例えば、特許文献2では、二次元画像内に写る歩行者の縦方向及び横方向の画素数(ピクセル)に基づいて、歩幅、脚長、歩行姿勢、体型、性別等の同定要素の値が算出されている。そのため、撮影装置に対して歩行者が縦方向又は斜め方向に移動した場合には、これらの同定要素の値を算出するのが困難になる。よって、特許文献2に開示される人物同定装置は、画像内のY方向に歩行者の像が移動した場合には、これらの同定要素を無効とするように構成されている。
 すなわち、特許文献1及び2で例示される個人識別方法では、二次元画像を解析することで歩行者の歩行特性を抽出している。そのため、撮影装置に対する歩行者の移動方向によっては、歩行者の歩行特性を十分に抽出できず、画像内に写る歩行者を特定できない可能性があるという問題点があった。
 本発明は、一側面では、このような点を考慮してなされたものであり、撮影装置に対する歩行者の移動方向に影響を受けることなく、撮影画像に写る歩行者の歩行特性を解析し、当該歩行者を特定することを可能にする技術を提供することを目的とする。
 本発明は、上述した課題を解決するために、以下の構成を採用する。
 すなわち、本発明の一側面に係る個人識別装置は、個人を識別するための個人識別用データであって、当該個人の実空間における歩行特性を示す個人識別用データ、を個人毎に記憶する記憶部と、歩行者を撮影するために設置された撮影装置によって撮影された撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像、を取得する画像取得部と、前記撮影画像内で前記歩行者の写る領域を抽出し、前記深度データにより示される前記撮影画像内の各画素の深度に基づいて、当該領域に写る前記歩行者の実空間における歩行特性を解析することで、前記撮影画像に写る前記歩行者の実空間における歩行特性を示す解析データを取得する歩行特性解析部と、前記個人識別用データの示す歩行特性及び取得した前記解析データの示す歩行特性を比較することによって、取得した解析データが前記個人識別用データに適合するか否かを判定し、当該判定の結果に基づいて、前記撮影画像に写る歩行者を特定する歩行者特定部と、を備える。
 上記構成によれば、歩行者の歩行特性を解析するために取得される撮影画像には各画素の深度を示す深度データが含まれている。この各画素の深度は、撮影装置から被写体までの深さを表している。そのため、この深度を利用することで、撮影装置に対する被写体の移動方向とは無関係に、当該被写体の実空間(三次元空間)上の状態を解析することが可能である。したがって、上記構成によれば、撮影装置に対する歩行者の移動方向に影響を受けることなく、撮影画像に写る歩行者の歩行特性を解析し、当該歩行者を特定することができる。
 なお、歩行特性とは、歩行者の歩行動作の有する性質であり、例えば、身長、歩幅、歩幅の左右比、歩隔、つま先の上がり方、つま先の上がり方の左右比、かかとの上がり方、かかとの上がり方の左右比、ケーデンス、身体の傾き、体幹の側方動揺、骨盤の側方傾斜、膝関節の曲がり角度、膝関節の曲がり角度の左右比、腕振り角度、腕振り角度の左右比、歩行補助器具の有無等の項目を含むことができる。
 また、上記一側面に係る個人識別装置の別の形態として、前記記憶部は、前記特定した歩行者の個人識別用データを取得した前記解析データに置き換えることで、前記特定した歩行者の個人識別用データを更新してもよい。時間が経つにつれて、人間の歩行特性は変化する可能性がある。これに対して、当該構成に係る個人識別装置は、個人識別が成功した解析データを利用して、個人識別用データを更新する。そのため、このような時間経過に伴う歩行特性の変化に対応可能な個人識別装置を提供することができる。
 また、上記一側面に係る個人識別装置の別の形態として、前記歩行特性は複数の項目で構成されてもよい。そして、前記歩行者特定部は、前記個人識別用データの示す歩行特性と取得した前記解析データの示す歩行特性とを項目毎に比較し、一致すると評価可能な項目が所定数以上存在する場合に、取得した解析データが前記個人識別用データに適合すると判定し、前記撮影画像に写る歩行者は当該適合する個人識別用データの示す人物であると特定してもよい。当該構成によれば、複数の項目に基づいて多面的に歩行者を特定することができるため、個人識別の精度を高めることができる。
 また、上記一側面に係る個人識別装置の別の形態として、前記歩行特性解析部は、前記撮影装置に対する前記歩行者の移動方向を更に解析してもよい。そして、前記個人識別用データの示す歩行特性と取得した前記解析データの示す歩行特性とを比較する際に、前記歩行者の移動方向に応じて選択される項目を優先的に比較してもよい。
 撮影装置に対する歩行者の移動方向によって、歩行者の身体部位のうち撮影画像に写らない部位が存在しうる。そのため、歩行特性には、撮影装置に対する歩行者の移動方向によっては、正確に解析しやすい項目と正確に解析し難い項目とが含まれ得る。これに対して、当該構成では、歩行者の移動方向に応じて優先的に比較する項目を選択する。そのため、当該構成によれば、個人識別の精度を高めることができる。
 また、上記一側面に係る個人識別装置の別の形態として、前記歩行特性は、前記複数の項目として、歩隔、つま先の上がり方、かかとの上がり方、身体の傾き、体幹の側方動揺、骨盤の側方傾斜、膝関節の曲がり角度、腕振り角度、及び歩行補助器具の有無を含んでもよい。
 撮影装置に近付く方向に歩行者が移動している場合、撮影画像には歩行者の前面が写りやすい。そのため、このような場合には、歩隔、体幹の側方動揺及び骨盤の側方傾斜に関連する身体部位が撮影画像に写りやすく、これらの項目については比較的に精度よく解析することができる。なお、例えば、歩隔に関連する身体部位とは足である。
 また、撮影装置から遠ざかる方向に歩行者が移動している場合、撮影画像には歩行者の背面が写りやすい。そのため、このような場合には、歩隔、体幹の側方動揺、骨盤の側方傾斜及びかかとの上がり方に関連する身体部位が撮影画像に写りやすく、これらの項目については比較的に精度よく解析することができる。
 更に、撮影装置の撮影範囲を横切る方向に歩行者が移動している場合、撮影画像には歩行者の側面が写りやすい。そのため、このような場合には、身体の傾き、膝関節の曲がり角度及び腕振り角度に関連する身体部位並びに歩行補助器具が撮影画像に写りやすく、これらの項目については比較的に精度よく解析することができる。
 したがって、当該構成によれば、歩行特性は、撮影装置に対して様々な方向に移動する歩行者について比較的に精度よく解析することのできる項目を含んでいる。そのため、当該歩行者の歩行特性を十分に解析し、当該歩行者の人物特定を精度よく行うことができる。なお、歩行補助器具とは、歩行を安定されるための器具であり、例えば、杖、歩行器等である。
 また、上記一側面に係る個人識別装置の別の形態として、前記歩行特性解析部は、前記撮影画像の背景として設定された背景画像と前記撮影画像との差分から前記撮影画像の前景領域を前記歩行者の写る領域として抽出してもよい。そして、当該歩行特性解析部は、前記深度データを参照することで当該前景領域内の各画素の深度を特定して、特定した当該前景領域内の各画素の深度に基づいて、当該前景領域に写る前記歩行者の実空間における歩行特性を解析してもよい。
 当該構成によれば、背景画像と撮影画像との差分を抽出することにより、撮影画像の前景領域が特定される。すなわち、この前景領域は、背景画像から変化の生じている領域である。そのため、歩行者が歩行動作を行っている場合には、この前景領域には、当該歩行動作を行う歩行者が写っている。よって、この前景領域を利用することで、歩行者の写る領域を特定することが可能である。ここで、前景領域を抽出する処理は、背景画像と撮影画像との差分算出に過ぎない。したがって、当該構成によれば、簡易な処理で歩行者の写る領域を絞り込むことができる。
 なお、上記各形態に係る個人識別装置の別の形態として、以上の各構成を実現する情報処理システムであってもよいし、情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記録したコンピュータその他装置、機械等が読み取り可能な記憶媒体であってもよい。ここで、コンピュータ等が読み取り可能な記録媒体とは、プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。また、情報処理システムは、1又は複数の情報処理装置によって実現されてもよい。
 例えば、本発明の一側面に係る個人識別方法は、個人を識別するための個人識別用データであって、当該個人の実空間における歩行特性を示す個人識別用データ、を個人毎に記憶する記憶部を備えるコンピュータが、歩行者を撮影するために設置された撮影装置によって撮影された撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像、を取得するステップと、前記撮影画像内で前記歩行者の写る領域を抽出するステップと、前記深度データにより示される前記撮影画像内の各画素の深度に基づいて、当該領域に写る前記歩行者の実空間における歩行特性を解析することで、前記撮影画像に写る前記歩行者の実空間における歩行特性を示す解析データを取得するステップと、前記個人識別用データの示す歩行特性及び取得した前記解析データの示す歩行特性を比較することによって、取得した解析データが前記個人識別用データに適合するか否かを判定するステップと、前記判定の結果に基づいて、前記撮影画像に写る歩行者を特定するステップと、を実行する情報処理方法である。
 また、例えば、本発明の一側面に係るプログラムは、個人を識別するための個人識別用データであって、当該個人の実空間における歩行特性を示す個人識別用データ、を個人毎に記憶する記憶部を備えるコンピュータに、歩行者を撮影するために設置された撮影装置によって撮影された撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像、を取得するステップと、前記撮影画像内で前記歩行者の写る領域を抽出するステップと、前記深度データにより示される前記撮影画像内の各画素の深度に基づいて、当該領域に写る前記歩行者の実空間における歩行特性を解析することで、前記撮影画像に写る前記歩行者の実空間における歩行特性を示す解析データを取得するステップと、前記個人識別用データの示す歩行特性及び取得した前記解析データの示す歩行特性を比較することによって、取得した解析データが前記個人識別用データに適合するか否かを判定するステップと、前記判定の結果に基づいて、前記撮影画像に写る歩行者を特定するステップと、を実行させるための個人識別プログラムである。
 本発明によれば、撮影装置に対する歩行者の移動方向に影響を受けることなく、撮影画像に写る歩行者の歩行特性を解析し、当該歩行者を特定することができる。
図1は、本発明が適用される場面の一例を示す。 図2は、実施の形態に係る個人識別装置のハードウェア構成を例示する。 図3は、実施の形態に係るカメラにより取得される深度と被写体との関係を例示する。 図4は、実施の形態に係る個人識別用データを例示する。 図5は、実施の形態に係る個人識別装置の機能構成を例示する。 図6は、実施の形態に係る解析データを例示する。 図7は、実施の形態に係る個人識別装置の個人識別に関する処理手順を例示する。 図8は、実施の形態に係るカメラにより取得される撮影画像を例示する。
 以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメタ、マシン語等で指定される。
 §1 適用場面
 まず、図1を用いて、本発明が適用される場面について説明する。図1は、本実施形態に係る個人識別装置1が用いられる場面を例示する。本実施形態に係る個人識別装置1は、歩行者を撮影し、それにより得られた撮影画像3に写る歩行者の歩行特性を解析することで、当該歩行者を特定する。そのため、本実施形態に係る個人識別装置1は、歩行者を特定する場面に広く利用可能である。
 具体的には、本実施形態に係る個人識別装置1は、カメラ2によって歩行者を撮影する。カメラ2は、本発明の撮影装置に相当する。当該カメラ2は、歩行者を撮影するために設置される。そのため、カメラ2は、歩行者を撮影可能であれば、いかなる場所に配置されてもよい。
 当該カメラ2は、撮影画像3内の各画素に対応する深度を取得可能に構成される。本実施形態では、カメラ2は、各画素の深度を取得可能なように、被写体の深度を測定する深度センサ(後述する深度センサ21)を含んでいる。ただし、カメラ2の構成は、深度を取得可能であれば、このような例に限定されず、実施の形態に応じて適宜選択可能である。
 例えば、カメラ2は、撮影範囲内の被写体の深度を特定することが可能なように、ステレオカメラであってもよい。ステレオカメラは、撮影範囲内の被写体を複数の異なる方向から撮影するため、当該被写体の深度を記録することができる。また、カメラ2は、撮影範囲内の被写体の深度を特定可能であれば、深度センサ単体に置き換わってもよい。
 本実施形態に係る個人識別装置1は、情報処理装置として、このようなカメラ2により撮影された撮影画像3を取得する。この撮影画像3は、後述する図8に例示されるように、画素毎に得られる深度を示す深度データを含んでいる。撮影画像3は、撮影範囲内の被写体の深度を示すデータであればよく、例えば、撮影範囲内の被写体の深度が二次元状に分布したデータ(例えば、深度マップ)であってもよい。また、撮影画像3は、深度データとともに、RGB画像を含んでもよい。更に、撮影画像3は、動画像であってもよいし、静止画像であってもよい。
 続いて、個人識別装置1は、取得した撮影画像3内において歩行者の写る領域を抽出し、抽出した領域に写る歩行者の歩行特性を解析する。このとき、個人識別装置1は、深度データにより示される撮影画像3内の各画素の深度を利用して、当該歩行者の実空間上の状態を解析する。これにより、個人識別装置1は、撮影画像3に写る歩行者の実空間における歩行特性を示す解析データ(後述する解析データ40)を取得する。
 更に、個人識別装置1は、予め登録されている個人識別用データ(後述する個人識別用データ121)と解析データとを比較することによって、取得した解析データが個人識別用データに適合するか否かを判定する。そして、個人識別装置1は、当該判定の結果に基づいて、撮影画像3に写る歩行者を特定する。
 このように、本実施形態によれば、個人識別装置1は、歩行者の歩行特性を解析するため、各画素の深度を示す深度データを撮影画像3と共に取得する。この深度データを利用すると、図1に例示されるように、撮影画像に写る被写体の実空間(三次元空間)上の位置を特定することができる。そのため、個人識別装置1は、この深度データを利用することにより、カメラ2に対する歩行者の移動方向とは無関係に、当該歩行者の実空間上の状態を解析することができる。よって、本実施形態によれば、カメラ2に対する歩行者の移動方向に影響を受けることなく、撮影画像3内に写る歩行者の歩行特性を解析し、当該歩行者を特定することができる。
 なお、個人識別装置1の配置場所は、カメラ2から撮影画像3を取得可能であれば、実施の形態に応じて適宜決定可能である。例えば、個人識別装置1は、図1に例示されるように、カメラ2に近接するように配置されてもよい。また、個人識別装置1は、ネットワークを介してカメラ2と接続してもよく、当該カメラ2とは全く異なる場所に配置されてもよい。
 §2 構成例
 <ハードウェア構成>
 次に、図2を用いて、個人識別装置1のハードウェア構成を説明する。図2は、本実施形態に係る個人識別装置1のハードウェア構成を例示する。個人識別装置1は、図2に例示されるように、CPU、RAM(Random Access Memory)、ROM(Read Only Memory)等を含む制御部11、制御部11で実行するプログラム5等を記憶する記憶部12、画像の表示と入力を行うためのタッチパネルディスプレイ13、音声を出力するためのスピーカ14、外部装置と接続するための外部インタフェース15、ネットワークを介して通信を行うための通信インタフェース16、及び記憶媒体6に記憶されたプログラムを読み込むためのドライブ17が電気的に接続されたコンピュータである。図2では、通信インタフェース及び外部インタフェースは、それぞれ、「通信I/F」及び「外部I/F」と記載されている。
 なお、個人識別装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換、及び追加が可能である。例えば、制御部11は、複数のプロセッサを含んでもよい。また、例えば、タッチパネルディスプレイ13は、それぞれ別個独立に接続される入力装置及び表示装置に置き換えられてもよい。また、例えば、スピーカ14は省略されてもよい。また、例えば、スピーカ14は、個人識別装置1の内部装置としてではなく、外部装置として個人識別装置に接続されてもよい。また、個人識別装置1はカメラ2を内蔵してもよい。
 個人識別装置1は、複数の外部インタフェース15を備えてもよく、複数の外部装置と接続してもよい。本実施形態では、個人識別装置1は、外部インタフェース15を介してカメラ2と接続している。本実施形態に係るカメラ2は、歩行者を撮影するために設置されている。このカメラ2は、被写体の深度を測定するための深度センサ21を備えている。この深度センサ21の種類及び測定方法は、実施の形態に応じて適宜選択されてよい。例えば、深度センサ21として、TOF(Time Of Flight)方式等のセンサを挙げることができる。
 なお、歩行者を撮影する場所は暗い可能性がある。そこで、撮影場所の明るさに影響されずに深度を取得可能なように、赤外線の照射に基づいて深度を測定する赤外線深度センサを深度センサ21として利用してもよい。このような赤外線深度センサを含む比較的安価な撮影装置として、例えば、マイクロソフト社のKinect、ASUS社のXtion、PrimeSense社のCARMINEを挙げることができる。
 ここで、図3を用いて、本実施形態に係る深度センサ21によって測定される深度を詳細に説明する。図3は、本実施形態に係る深度として扱うことが可能な距離の一例を示す。当該深度は、被写体の深さを表現する。図3で例示されるように、被写体の深さは、例えば、カメラ2と対象物との直線の距離Aで表現されてもよいし、カメラ2の被写体に対する水平軸から下ろした垂線の距離Bで表現されてもよい。
 すなわち、本実施形態に係る深度は、距離Aであってもよいし、距離Bであってもよい。本実施形態では、距離Bを深度として扱うことにする。ただし、距離Aと距離Bとは、例えば、三平方の定理等を用いることで、互いに変換可能である。そのため、距離Bを用いた以降の説明は、そのまま、距離Aに適用することが可能である。このような深度を利用することで、本実施形態に係る個人識別装置1は、歩行者の実空間における歩行特性を解析する。
 また、本実施形態に係る個人識別装置1は、記憶部12において、個人の実空間における歩行特性を示す個人識別用データ121を記憶している。この個人識別用データ121について、図4を用いて説明する。
 図4は、本実施形態に係る個人識別用データ121を例示する。個人識別用データ121は、個人を識別するためのデータである。本実施形態では、1件の個人識別用データ121が1個人のデータに相当する。そのため、本実施形態では、識別対象の人物の数に応じた件数の個人識別用データ121が保持される。
 図4で例示されるように、本実施形態に係る個人識別用データ121は、データID、人物名及び歩行特性を示す情報を含んでいる。データIDは、各個人の個人識別用データ121を識別するための識別子である。人物名は、この個人識別用データ121により識別される人物の名称を示す。
 また、歩行特性は、この個人識別用データ121により識別される人物の歩行動作の有する性質を示す。本実施形態では、この歩行特性は、歩隔、つま先の上がり方、かかとの上がり方、身体の傾き、体幹の側方動揺、骨盤の側方傾斜、膝関節の曲がり角度、腕振り角度、歩行補助器具の有無等の項目を含んでいる。
 歩隔は、両足間の左右の幅を示す。つま先の上がり方は、歩行動作中における右足又は/及び左足のつま先の上がり具合を示す。かかとの上がり方は、歩行動作中における右足又は/及び左足のかかとの上がり具合を示す。身体の傾きは、歩行動作中における身体軸の角度を示す。体幹の側方動揺は、歩行動作中における体幹の外側への動き具合を示す。骨盤の側方傾斜は、歩行動作中における骨盤の上下方向への傾き具合を示す。膝関節の曲がり角度は、歩行動作中における右膝又は/及び左膝の曲がり具合を示す。腕振り角度は、歩行動作中における右腕又は/及び左腕の曲がり具合を示す。歩行補助器具の有無は、対象の個人が歩行補助器具を利用しているか否かを示す。なお、歩行補助器具とは、歩行を安定させるための器具であり、例えば、杖、歩行器等である。
 各項目の属性値は、後述する解析処理に適合するように与えられる。例えば、歩隔、身体の傾き、歩行補助器具の有無等の経時的な変化が比較的に生じ難い項目の属性値は、単一の数値で付与されてもよい。一方、つま先の上がり方、かかとの上がり方、体幹の側方動揺、骨盤の側方傾斜、膝関節の曲がり角度、腕振り角度等の属性値は、比較的に経時的な変化が生じやすく、例えば、歩行周期に合わせて波形パターンのように変化する。そのため、このような項目の属性値は、最大値(単一の数値)で付与されてもよいし、当該波形パターンを表す配列で付与されてもよいし、周期及び最大値の2つの数値で付与されてもよい。各項目の属性値の形式は、実施の形態に応じて適宜選択可能である。
 なお、歩行特性の項目は、これらの例に限定されなくてもよく、実施の形態に応じて適宜選択可能である。例えば、歩行特性は、上述した項目の他、身長、歩幅、歩幅の左右比、つま先の上がり方の左右比、かかとの上がり方の左右比、ケーデンス、膝関節の曲がり角度の左右比、腕振り角度の左右比等の項目を含むことができる。なお、ケーデンスとは、歩行率とも称され、単位時間内の歩数を示す。
 また、歩行特性の項目数についても、実施の形態に応じて適宜選択可能である。歩行特性の項目数は、単数であってもよいし、複数であってもよい。また、個人識別用データ121の示す歩行特性が複数の項目を含んでいる場合には、個人識別装置1は、当該歩行特性の複数の項目の中から個人識別に利用する項目の選択をユーザから受け付けてもよい。
 なお、個人識別用データ121のデータ形式は、各個人の歩行特性を記憶可能であれば、このような例に限定されなくてもよく、実施の形態に応じて適宜選択可能である。例えば、個人識別用データ121は、テーブル形式のデータベースの1レコードとして保持されてもよい。
 また、個人識別用データ121の歩行特性に係る各属性値は、各個人の歩行動作を撮影した撮影画像を後述する歩行特性の解析処理によって解析することで、取得されてもよい。その他、各属性値は、ユーザによって直接入力されてもよいし、複数の候補から選択することで決定されてもよい。このような個人識別用データ121は、ネットワークを介して他の情報処理装置から取得されてもよい。
 なお、記憶部12に記憶されたプログラム5は、個人識別装置1に後述する個人識別に関する各処理を実行させるためのプログラムであり、本発明の「プログラム」に相当する。このプログラム5は記憶媒体6に記録されていてもよい。記憶媒体6は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。記憶媒体6は、本発明の「記憶媒体」に相当する。なお、図2は、記憶媒体6の一例として、CD(Compact Disk)、DVD(Digital Versatile Disk)等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体6の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。
 また、個人識別装置1として、例えば、提供されるサービス専用に設計された装置の他、PC(Personal Computer)、タブレット端末等の汎用の装置が用いられてよい。更に、個人識別装置1は、1又は複数のコンピュータにより実装されてもよい。
 <機能構成例>
 次に、図5を用いて、個人識別装置1の機能構成を説明する。図5は、本実施形態に係る個人識別装置1の機能構成を例示する。本実施形態では、個人識別装置1の制御部11は、記憶部12に記憶されたプログラム5をRAMに展開する。そして、制御部11は、RAMに展開されたプログラム5をCPUにより解釈及び実行して、各構成要素を制御する。これにより、個人識別装置1は、画像取得部31、歩行特性解析部32及び歩行者特定部33を備えるコンピュータとして機能する。
 画像取得部31は、カメラ2によって撮影された撮影画像3を取得する。上記のとおり、この撮影画像3には、各画素の深度を示す深度データが含まれている。そこで、歩行特性解析部32は、撮影画像3内で歩行者の写る領域を抽出する。そして、深度データにより示される撮影画像3内の各画素の深度に基づいて、抽出した領域に写る歩行者の実空間における歩行特性を解析する。これにより、歩行特性解析部32は、図6で例示される解析データ40を取得する。
 図6は、本実施形態に係る解析データ40を例示する。解析データ40は、歩行特性解析部32による解析の結果に基づいて得られ、撮影画像3に写る歩行者の実空間における歩行特性を示す。この解析データ40は、上記個人識別用データ121に含まれる歩行特性に対応して取得される。
 すなわち、歩行特性解析部32は、上記個人識別用データ121に含まれる歩行特性の各項目に関して、撮影画像3に写る歩行者の歩行動作を解析する。そのため、本実施形態に係る解析データ40には、撮影画像3に写る歩行者の歩行特性として、歩隔、つま先の上がり方、かかとの上がり方、身体の傾き、体幹の側方動揺、骨盤の側方傾斜、膝関節の曲がり角度、腕振り角度、歩行補助器具の有無等の項目が含まれる。
 ただし、個人識別用データ121の示す歩行特性と解析データ40の示す歩行特性とを比較可能であれば、個人識別用データ121に含まれる歩行特性の項目と解析データ40に含まれる歩行特性の項目とは完全には一致していなくてもよい。すなわち、個人識別用データ121及び解析データ40は互いに共通する歩行特性の項目を含んでいればよく、一方のデータには含まれていない歩行特性の項目が他方のデータに含まれていてもよい。
 歩行者特定部33は、このように取得される解析データ40と記憶部12に保持されている個人識別用データ121とを照合する。換言すると、歩行者特定部33は、個人識別用データ121の示す歩行特性と取得した解析データ40の示す歩行特性とを比較することによって、取得した解析データ40が個人識別用データ121に適合するか否かを判定する。そして、歩行者特定部33は、当該判定の結果に基づいて撮影画像3に写る歩行者を特定する。
 なお、本実施形態では、これらの機能がいずれも汎用のCPUによって実現される例を説明している。しかしながら、これらの機能の一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、個人識別装置1の機能構成に関して、実施形態に応じて、適宜、機能の省略、置換、及び追加が行われてもよい。各機能に関しては後述する動作例で詳細に説明する。
 §3 動作例
 次に、図7を用いて、個人識別装置1の動作例を説明する。図7は、個人識別装置1の個人識別に関する処理手順を例示する。なお、以下で説明する個人識別に関する処理手順は一例にすぎず、各処理は可能な限り変更されてもよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
 (ステップS101)
 ステップS101では、制御部11は、画像取得部31として機能し、カメラ2により撮影された撮影画像3を取得する。その後、制御部11は、次のステップS102に処理を進める。ここで、本実施形態では、カメラ2は、深度センサ21を備えている。そのため、本ステップS101において取得される撮影画像3には、各画素の深度を示す深度データが含まれる。制御部11は、この深度データを含む撮影画像3として、例えば、図8で例示される撮影画像3を取得する。
 図8は、深度データを含む撮影画像3の一例を示す。図8で例示される撮影画像3は、各画素の濃淡値が当該各画素の深度に応じて定められた画像である。黒色の画素ほど、カメラ2に近いことを示す。一方、白色の画素ほど、カメラ2から遠いことを示す。制御部11は、この深度データに基づいて、各画素の写る対象の実空間での位置を特定することができる。すなわち、制御部11は、撮影画像3内の各画素の座標(二次元情報)と深度とから、当該各画素内に写る被写体の三次元空間(実空間)での位置を特定することができる。
 ここで、図8は、床面に対して水平方向に向けられたカメラ2で取得された深度データを例示している。しかしながら、カメラ2の向きは、このような例に限定される訳ではなく、実施の形態に応じて適宜設定可能である。カメラ2が床面に対して傾いている場合には、カメラ2のロール角、ピッチ角及びヨー角を用いた射影変換を行うことによって、撮影画像3に写る被写体の実空間における三次元分布を得ることができる。
 なお、制御部11は、リアルタイムに歩行者の特定を行うため、カメラ2のビデオ信号に同期させて撮影画像3を取得してもよい。そして、1又は複数枚の撮影画像3を取得した段階で、制御部11は、後述するステップS102~S106までの処理を取得した1又は複数枚の撮影画像3に対して即座に実行してもよい。個人識別装置1は、このような動作を絶え間なく連続して実行することにより、リアルタイム画像処理を実現し、カメラ2の撮影範囲に存在する歩行者の特定をリアルタイムに行うことができる。
 (ステップS102)
 図7に戻り、次のステップS102では、制御部11は、歩行特性解析部32として機能し、ステップS101で取得した撮影画像3内で歩行者の写る領域を抽出する。その後、制御部11は、次のステップS103に処理を進める。なお、以下では、説明の便宜のため、撮影画像3内で歩行者の写る領域を「人物領域」とも称する。
 人物領域を抽出する方法は、実施の形態に応じて適宜選択可能である。例えば、制御部11は、人物の形状に基づいて、パターン検出、図形要素検出等の画像解析を行うことによって、撮影画像3内で歩行者の写る人物領域を抽出してもよい。なお、撮影画像3に複数の歩行者が写っている場合には、制御部11は歩行者毎に人物領域を抽出する。
 (ステップS103)
 次のステップS103では、制御部11は、歩行特性解析部32として機能し、深度データにより示される撮影画像3内の各画素の深度に基づいて、ステップS102で抽出した領域に写る歩行者の実空間における歩行特性を解析する。
 具体的には、制御部11は、深度データを利用することにより、被写体の三次元分布を認識することができる。そこで、制御部11は、ステップS102で抽出した人物領域の深度を参照することにより、当該人物領域に写る歩行者の各身体部位の実空間における位置関係を特定してもよい。
 そして、制御部11は、各身体部位の実空間における位置関係から、当該歩行者の歩行特性の各項目に係る属性値を特定してもよい。これにより、制御部11は、撮影画像3に写る歩行者の実空間における歩行特性を示す解析データ40を取得することができ、次のステップS104に処理を進めることができる。
 なお、人物領域において各身体部位の領域を特定する方法は、実施の形態に応じて適宜選択可能である。例えば、人物領域の抽出と同様に、各身体部位の形状に基づいて、パターン検出、図形要素検出等の画像解析を行うことによって、人物領域において各身体部位の領域を特定することができる。
 また、歩行特性の各項目の解析方法は、実施の形態に応じて適宜選択可能である。例えば、以下のようにして、撮影画像3に写る歩行者の歩行特性を解析し、各項目の属性値を特定することができる。
 例えば、制御部11は、地面(かかと又はつま先)から頭までの距離を測定することで、ユーザの身長を算出してもよい。また、例えば、制御部11は、一方の足のかかとから他方の足のつま先までの距離を測定することで、ユーザの歩幅を算出してもよい。また、例えば、制御部11は、左右の足首間の水平方向の距離を測定することで、ユーザの歩隔を算出してもよい。
 また、例えば、制御部11は、少なくとも一方の足のつま先から地面までの距離を継続的に測定することで、つま先の上がり方に係る属性値を算出してもよい。また、例えば、制御部11は、少なくとも一方の足のかかとから地面までの距離を継続的に測定することで、かかとの上がり方に係る属性値を算出してもよい。また、例えば、制御部11は、単位時間当たりの歩数を測定することで、ケーデンスを算出してもよい。
 また、例えば、制御部11は、地面に垂直な直線に対する上半身の傾きを測定することで、身体の傾きを算出してもよい。また、例えば、制御部11は、地面に垂直な直線に対する身体の左右方向の傾きを継続的に測定することで、体躯の側方動揺に係る属性値を算出してもよい。また、例えば、制御部11は、地面に垂直な直線に対する骨盤の左右方向の傾きを測定することで、骨盤の側方傾斜に係る属性値を算出してもよい。
 また、例えば、制御部11は、少なくとも一方の足における大腿部と下腿部との間にできる膝を頂点とした角度を測定することで、膝関節の曲がり角度を算出してもよい。また、例えば、制御部11は、地面に垂直な直線に対する腕の角度を測定することで、腕振り角度を算出してもよい。
 また、例えば、制御部11は、各歩行補助器具の形状に基づいて、パターン検出、図形要素検出等の画像解析を人物領域において行うことで、歩行補助器具の検知を行ってもよい。歩行補助器具を検知できた場合には、制御部11は、歩行補助器具を有することを示すように、解析データ40の歩行補助器具の有無に係る属性値を設定する。一方、歩行補助器具を検知できなかった場合には、制御部11は、歩行補助器具を有さないことを示すように、解析データ40の歩行補助器具の有無に係る属性値を設定する。また、制御部11は、右側と左側とに分けて各属性値を特定し、特定した各属性値の比を求めることで、各左右比の属性値を取得してもよい。
 なお、歩行特性の解析に利用する身体部位が撮影画像3に写らず、対象の項目に係る属性値を特定できない場合がある。この場合、制御部11は、当該属性値の特定できなかった歩行特性の項目を、解析不能として取り扱い、以下のステップS104で比較する対象から除外する。また、ステップS102において、複数人の歩行者が抽出されている場合には、本ステップS103では、制御部11は、歩行者毎に歩行特性の解析を行う。そして、制御部11は、歩行者毎に解析データ40を取得する。
 (ステップS104)
 図7に戻り、次のステップS104では、制御部11は、歩行者特定部33として機能し、記憶部12に記憶されている個人識別用データ121とステップS103で取得した解析データ40とを照合する。具体的には、制御部11は、個人識別用データ121の示す歩行特性とステップS103で取得した解析データ40の示す歩行特性とを項目毎に比較する。
 この比較において、一致すると評価可能な項目が所定数以上存在する場合に、制御部11は、ステップS103で取得した解析データ40は記憶部12に記憶されている個人識別用データ121に適合すると判定する。そして、制御部11は、ステップS102で抽出した歩行者は当該適当する個人識別用データ121の示す人物であると特定して、次のステップS105に処理を進める。
 一方、歩行特性の比較において、一致すると評価可能な項目が所定数以上存在しない場合には、制御部11は、解析データ40は個人識別用データ121に適合しないと判定する。そして、制御部11は、ステップS102で抽出した歩行者を特定不能として取り扱い、次のステップS105に処理を進める。
 ここで、各項目の比較に関して、属性値を比較する方法は、実施の形態に応じて適宜選択可能である。例えば、属性値が単一の数値で表されている場合には、解析データ40の示す属性値と個人識別用データ121の示す属性値との差(絶対値)が閾値以内であるときに、制御部11は、解析データ40及び個人識別用データ121において当該項目に係る属性値が一致すると評価可能である。
 他方、解析データ40の示す属性値と個人識別用データ121の示す属性値との差が閾値を超えているときには、制御部11は、解析データ40及び個人識別用データ121において当該項目に係る属性値は一致しないと評価可能である。属性値が配列で表現されている場合及び属性値が周期及び最大値(極大値)の2つの数値で表現されている場合についても、制御部11は、属性値が単一の数値で表されている場合とほぼ同様に処理することが可能である。
 なお、記憶部12には、複数件の個人識別用データ121が記憶されている場合がある。この場合、制御部11は、記憶部12に記憶されている複数件の個人識別用データ121を順に解析データ40と照合し、解析データ40に適合する個人識別用データ121を特定する。解析データ40に適合する個人識別用データ121が複数件存在する場合には、制御部11は、最も適合する個人識別用データ121を解析データ40に適合するデータとして採用する。一方、全ての個人識別用データ121が解析データ40と適合しない場合には、制御部11は、ステップS102で抽出した歩行者を特定不能として取り扱い、次のステップS105に処理を進める。
 また、ステップS102において複数人の歩行者が抽出されている場合には、本ステップS104において、制御部11は、解析データ40と個人識別用データ121との照合を歩行者毎に行う。これにより、制御部11は、ステップS102で抽出した歩行者毎に人物の特定を行う。
 (ステップS105)
 ステップS105では、制御部11は、ステップS104において歩行者を特定することができたか否か、換言すると、解析データ40に適合する個人識別用データ121が存在したか否かを判定する。ステップS104において歩行者を特定することができた場合には、制御部11は、次のステップS106に処理を進める。一方、ステップS104において歩行者を特定できなかった場合には、制御部11は、ステップS106の処理を省略して、本動作例に係る処理を終了する。
 なお、ステップS102において歩行者が複数人抽出された場合には、抽出された歩行者全てについて人物を特定できなかったときに限り、制御部11は、歩行者を特定不能として、本動作例に係る処理を終了する。一方、少なくとも一部の歩行者について人物を特定できた場合には、制御部11は、人物を特定できた歩行者について、次のステップS106に処理を進める。
 (ステップS106)
 ステップS106では、制御部11は、個人識別用データ121の更新処理を実行する。具体的には、制御部11は、ステップS104で特定した歩行者の個人識別用データ121に含まれる歩行特性の各属性値を、ステップS103で取得した解析データ40に含まれる歩行特性の各属性値に置き換える。これによって、記憶部12は、ステップS104で特定した歩行者の個人識別用データ121を更新する。
 本ステップS106の処理が完了すると、制御部11は、本動作例に係る処理を終了する。個人識別に係る処理を繰り返す場合には、制御部11は、再度ステップS101から処理を実行する。なお、ステップS103において解析不能であった項目については、制御部11は、属性値の置き換えを行わず、元の個人識別用データ121に含まれる属性値を維持する。
 (作用・効果)
 以上のように、本実施形態に係る個人識別装置1は、歩行者の歩行特性を解析するために、各画素の深度を示す深度データを撮影画像3と共に取得する。そして、この深度データを利用することにより、個人識別装置1は、カメラ2に対する歩行者の移動方向とは無関係に、当該歩行者の実空間上の状態を解析することができる。よって、本実施形態によれば、カメラ2に対する歩行者の移動方向に影響を受けることなく、撮影画像3に写る歩行者の歩行特性を解析し、当該歩行者を特定することができる。
 より詳細には、二次元画像において撮影方向の奥行きを特定するのは困難である。そのため、二次元画像を用いて歩行者の歩行特性を解析する場合に、例えば、歩行者を側面から撮影したときには、歩行者の歩隔を解析するのは困難である。しかしながら、本実施形態によれば、撮影画像3と共に、各画素の深度を示す深度データが取得される。そのため、歩行者を側面から撮影しても、被写体の奥行きを特定可能であり、歩行者の歩隔を解析することができる。したがって、本実施形態によれば、カメラ2の撮影方向によらず、撮影画像3に写る歩行者の実空間における歩行特性を安定して解析することができ、これによって、当該歩行者を特定することができる。
 また、人間の歩行特性は、時間が経過するにつれて変化する可能性がある。これに対して、本実施形態に係る個人識別装置1は、ステップS106において、適合した解析データ40を利用して個人識別用データ121を更新する。すなわち、制御部11は、個人識別の成功した解析データ40によって個人識別用データ121を更新する。そのため、本実施形態によれば、このような時間経過に伴う歩行特性の変化に対応可能な個人識別装置1を提供することができる。
 また、本実施形態では、歩行特性は、複数の項目で構成されている。そして、ステップS104では、制御部11は、個人識別用データ121と解析データ40とを項目毎に比較し、一致すると評価可能な項目が所定数以上存在する場合に、取得した解析データ40が個人識別用データ121に適合すると判定する。そのため、本実施形態によれば、複数の項目に基づいて多面的に歩行者を特定することができるため、個人識別の精度を高めることができる。
 また、本実施形態では、歩行特性を構成する項目として、歩隔、つま先の上がり方、かかとの上がり方、身体の傾き、体幹の側方動揺、骨盤の側方傾斜、膝関節の曲がり角度、腕振り角度、及び歩行補助器具の有無が選択されている。カメラ2に近付く方向に歩行者が移動している場合には、撮影画像3には歩行者の前面が写りやすい。そのため、歩隔、体幹の側方動揺及び骨盤の側方傾斜の解析に利用する身体部位が撮影画像3に写りやすく、これらの属性値を比較的に精度よく特定することができる。
 同様に、カメラ2から遠ざかる方向に歩行者が移動する場合には、撮影画像3には歩行者の背面が写りやすく、歩隔、体幹の側方動揺、骨盤の側方傾斜及びかかとの上がり方に係る属性値を比較的に精度よく特定することができる。また、カメラ2の撮影範囲を横切る方向に歩行者が移動している場合には、撮影画像3には歩行者の側面が写りやすく、身体の傾き、膝関節の曲がり角度、腕振り角度及び歩行補助器具の有無に係る属性値を比較的に精度よく特定することができる。
 したがって、本実施形態に係る歩行特性は、カメラ2に対して様々な方向に移動する歩行者について比較的に精度よく解析することのできる項目を含んでいる。そのため、本実施形態によれば、撮影画像3に写る歩行者の歩行特性を十分に解析し、歩行者の人物特定を精度よく行うことができる。
 なお、本実施形態に係る個人識別装置1はカメラ2により撮影された歩行者を特定する。そのため、個人識別装置1の処理結果を以下のシステムで利用することができる。
 例えば、本実施形態に係る個人識別装置1は、電子錠の開閉システムに適用されてもよい。この場合、カメラ2は、電子錠の設置されるドア等に近接する歩行者を撮影可能なように配置される。また、記憶部12に記憶される個人識別用データ121には、当該個人識別用データ121の示す人物が電子錠を解錠する対象か否かを示す情報が含まれる。そして、個人識別装置1は、歩行者の識別処理の結果、当該ドア等に近接した歩行者が解錠対象の人物であると特定した場合に、電子錠を解錠するように構成されてもよい。
 また、例えば、本実施形態に係る個人識別装置1は、登録外の人物を検知することによる不審者判定システムに適用されてもよい。この場合、カメラ2は、例えば、建物の入り口等、不審者の侵入を警戒する場所を撮影可能なように配置される。また、記憶部12には、当該建物に出入りする各人物の個人識別用データ121が予め登録される。そして、個人識別装置1は、歩行者の識別処理の結果、当該歩行者が特定不能であった場合、換言すると、記憶部12に登録されたどの人物にも該当しない歩行者が撮影画像3に写っている場合に、当該歩行者を不審者と判定してもよい。更に、このような場合に、任意の通知方法を利用して、不審者が侵入したことを通知してもよい。
 §4 変形例
 以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。
 (1)比較項目の選択
 上記実施形態では、制御部11(歩行者特定部33)は、ステップS104において、歩行特性のいずれの項目を優先することなく、解析データ40の示す歩行特性と個人識別用データ121の示す歩行特性との比較処理を実行している。しかしながら、制御部11は、歩行特性のいずれかの項目を優先して当該比較処理を実行してもよい。
 この場合、制御部11は、ステップS102において、歩行者の移動方向を解析してもよい。歩行者の移動方向は、例えば、数フレーム分の撮影画像3を用いて特定することができる。具体的には、制御部11は、深度データを利用し、各フレームにおける歩行者の実空間上の位置を特定する。そして、この各フレームにおける歩行者の位置を参照することで、制御部11は、数フレーム間における歩行者の実空間上の変位、すなわち、移動方向を特定することができる。
 そして、制御部11は、ステップS104において、個人識別用データ121の示す歩行特性と解析データ40の示す歩行特性とを比較する際に、ステップS102で特定した移動方向に応じて選択される項目を優先的に比較してもよい。具体的には、制御部11は、特定の項目を優先する結果として、例えば、ステップS104において解析データ40及び個人識別用データ121で比較する項目を当該優先する項目に限定してもよい。
 歩行者の移動方向に応じて優先する項目を選択する方法は実施の形態に応じて適宜設定可能である。例えば、上記のとおり、カメラ2に近付く方向に歩行者が移動している場合、歩隔、体幹の側方動揺及び骨盤の側方傾斜の属性値が比較的に精度よく取得することができる。そのため、ステップS102において歩行者がカメラ2に近付く方向に移動していると判定された場合には、制御部11は、ステップS104の比較処理において、歩行特性の項目のうち、歩隔、体幹の側方動揺及び骨盤の側方傾斜を優先してもよい。
 同様に、ステップS102において歩行者がカメラ2から遠ざかる方向に移動していると判定された場合には、制御部11は、ステップS104の比較処理において、歩行特性の項目のうち、歩隔、体幹の側方動揺、骨盤の側方傾斜及びかかとの上がり方を優先してもよい。また、ステップS102において歩行者がカメラ2の撮影範囲を横切る方向に歩行者が移動していると判定された場合には、制御部11は、ステップS104の比較処理において、歩行特性の項目のうち、身体の傾き、膝関節の曲がり角度、腕振り角度及び歩行補助器具の有無を優先してもよい。
 カメラ2に対する歩行者の移動方向によっては、歩行者の身体部位のうち撮影画像3に写らない部位が存在しうる。そのため、ステップS103において、全ての歩行特性が常に解析可能とは限らない。これに対して、本変形例では、歩行者の移動方向に応じて優先的に比較する項目を選択する。例えば、制御部11は、歩行特性に含まれる項目のうち、上記のように、ステップS102で特定された移動方向を向いた歩行者の写る撮影画像3から比較的に精度よく解析される項目を優先する。
 この優先の結果、制御部11は、例えば、比較処理の対象とする項目を当該特定の項目に限定する。すなわち、制御部11は、比較的に精度よく解析される項目の比較結果に基づいて、歩行者の人物特定を行うことになる。そのため、当該構成によれば、個人識別の精度を高めることができる。なお、この際、ステップS104の比較処理の対象となる項目は、ステップS102で特定された移動方向により選択された優先する項目のみに限定されなくてもよい。つまり、比較処理の対象となる項目には、歩行者の移動方向に応じて優先される項目の他に、1又は複数の項目が含まれてもよい。
 (2)前景領域の利用
 また、上記実施形態では、制御部11(歩行特性解析部32)は、ステップS102において、パターン検出等の画像処理によって撮影画像3から歩行者の写る人物領域を抽出している。ただし、撮影画像3から人物領域を抽出する方法は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択可能である。例えば、制御部11は、前景領域を利用して、人物領域を検索する範囲を絞ってもよい。
 この場合、制御部11は、上記ステップS102において、ステップS101で取得した撮影画像3の背景として設定された背景画像と撮影画像3との差分から、撮影画像3の前景領域を抽出する。ここで、背景画像は、前景領域を抽出するために利用されるデータであり、背景となる対象の深度を含んで設定される。背景画像を作成する方法は、実施の形態に応じて、適宜、設定されてよい。例えば、制御部11は、カメラ2による撮影を開始したときに得られる数フレーム分の撮影画像の平均を算出することで、背景画像を作成してもよい。このとき、深度データも含んで撮影画像の平均が算出されることで、深度データを含む背景画像を作成することができる。
 このように抽出される前景領域は、背景画像から変化の生じている領域を示す。そのため、撮影画像3に歩行動作を行っている人物(歩行者)が写っている場合には、当該歩行者の写る領域が前景領域として抽出される。そこで、制御部11は、ステップS102において、パターン検出、図形要素検出等の画像解析を前景領域内で実行することによって、歩行者の写る領域を抽出してもよい。
 これにより、歩行者を検出する撮影画像3内の領域を限定することができる。すなわち、パターンマッチング等の画像解析の対象となる領域を、撮影画像3内全域とするのではなく、前景領域内に制限することができる。ここで、前景領域を抽出するための処理は、撮影画像3と背景画像との差分を計算する処理に過ぎない。そのため、本実施形態によれば、制御部11(個人識別装置1)は、高度な画像処理を利用せずに、歩行者を検出する範囲を絞ることができる。よって、当該変形例によれば、ステップS102における処理の負荷を低減することができる。
 なお、制御部11が前景領域を抽出する方法は、上記のような方法に限定されなくてもよく、例えば、背景差分法を用いて背景と前景とを分離してもよい。背景差分法として、例えば、上記のような背景画像と入力画像(撮影画像3)との差分から背景と前景とを分離する方法、異なる3枚の画像を用いて背景と前景とを分離する方法、及び統計的モデルを適用することで背景と前景とを分離する方法を挙げることができる。前景領域を抽出する方法は、特に限定されなくてよく、実施の形態に応じて、適宜、選択されてよい。
 1…個人識別装置、
 2…カメラ、21…深度センサ、
 3…撮影画像、5…プログラム、6…記憶媒体、
11…制御部、12…記憶部、13…タッチパネルディスプレイ、
14…スピーカ、15…外部インタフェース、16…通信インタフェース、
17…ドライブ、
31…画像取得部、32…歩行特性解析部、33…歩行者特定部、
40…解析データ、121…個人識別用データ

Claims (8)

  1.  個人を識別するための個人識別用データであって、当該個人の実空間における歩行特性を示す個人識別用データを個人毎に記憶する記憶部と、
     歩行者を撮影するために設置された撮影装置によって撮影された撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得する画像取得部と
     前記撮影画像内で前記歩行者の写る領域を抽出し、前記深度データにより示される前記撮影画像内の各画素の深度に基づいて、当該領域に写る前記歩行者の実空間における歩行特性を解析することで、前記撮影画像に写る前記歩行者の実空間における歩行特性を示す解析データを取得する歩行特性解析部と、
     前記個人識別用データの示す歩行特性及び取得した前記解析データの示す歩行特性を比較することによって、取得した解析データが前記個人識別用データに適合するか否かを判定し、当該判定の結果に基づいて、前記撮影画像に写る歩行者を特定する歩行者特定部と、
    を備える、
    個人識別装置。
  2.  前記記憶部は、前記特定した歩行者の個人識別用データを取得した前記解析データに置き換えることで、前記特定した歩行者の個人識別用データを更新する、
    請求項1に記載の個人識別装置。
  3.  前記歩行特性は複数の項目で構成され、
     前記歩行者特定部は、前記個人識別用データの示す歩行特性と取得した前記解析データの示す歩行特性とを項目毎に比較し、一致すると評価可能な項目が所定数以上存在する場合に、取得した解析データが前記個人識別用データに適合すると判定し、前記撮影画像に写る歩行者は当該適合する個人識別用データの示す人物であると特定する、
    請求項1又は2に記載の個人識別装置。
  4.  前記歩行特性解析部は、前記撮影装置に対する前記歩行者の移動方向を更に解析し、
     前記歩行者特定部は、前記個人識別用データの示す歩行特性と取得した前記解析データの示す歩行特性とを比較する際に、前記歩行者の移動方向に応じて選択される項目を優先的に比較する、
    請求項3に記載の個人識別装置。
  5.  前記歩行特性は、前記複数の項目として、歩隔、つま先の上がり方、かかとの上がり方、身体の傾き、体幹の側方動揺、骨盤の側方傾斜、膝関節の曲がり角度、腕振り角度、及び歩行補助器具の有無を含む、
    請求項3又は4に記載の個人識別装置。
  6.  前記歩行特性解析部は、前記撮影画像の背景として設定された背景画像と前記撮影画像との差分から前記撮影画像の前景領域を前記歩行者の写る領域として抽出し、前記深度データを参照することで当該前景領域内の各画素の深度を特定し、特定した当該前景領域内の各画素の深度に基づいて、当該前景領域に写る前記歩行者の実空間における歩行特性を解析する、
    請求項1から5のいずれか1項に記載の個人識別装置。
  7.  個人を識別するための個人識別用データであって、当該個人の実空間における歩行特性を示す個人識別用データを個人毎に記憶する記憶部を備えるコンピュータが、
     歩行者を撮影するために設置された撮影装置によって撮影された撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得するステップと、
     前記撮影画像内で前記歩行者の写る領域を抽出するステップと、
     前記深度データにより示される前記撮影画像内の各画素の深度に基づいて、当該領域に写る前記歩行者の実空間における歩行特性を解析することで、前記撮影画像に写る前記歩行者の実空間における歩行特性を示す解析データを取得するステップと、
     前記個人識別用データの示す歩行特性及び取得した前記解析データの示す歩行特性を比較することによって、取得した解析データが前記個人識別用データに適合するか否かを判定するステップと、
     前記判定の結果に基づいて、前記撮影画像に写る歩行者を特定するステップと、
    を実行する個人識別方法。
  8.  個人を識別するための個人識別用データであって、当該個人の実空間における歩行特性を示す個人識別用データを個人毎に記憶する記憶部を備えるコンピュータに、
     歩行者を撮影するために設置された撮影装置によって撮影された撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得するステップと、
     前記撮影画像内で前記歩行者の写る領域を抽出するステップと、
     前記深度データにより示される前記撮影画像内の各画素の深度に基づいて、当該領域に写る前記歩行者の実空間における歩行特性を解析することで、前記撮影画像に写る前記歩行者の実空間における歩行特性を示す解析データを取得するステップと、
     前記個人識別用データの示す歩行特性及び取得した前記解析データの示す歩行特性を比較することによって、取得した解析データが前記個人識別用データに適合するか否かを判定するステップと、
     前記判定の結果に基づいて、前記撮影画像に写る歩行者を特定するステップと、
    を実行させるための個人識別プログラム。
PCT/JP2015/064256 2014-08-25 2015-05-19 個人識別装置、個人識別方法、及び、個人識別プログラム WO2016031314A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-170790 2014-08-25
JP2014170790A JP2017205135A (ja) 2014-08-25 2014-08-25 個人識別装置、個人識別方法、及び、個人識別プログラム

Publications (1)

Publication Number Publication Date
WO2016031314A1 true WO2016031314A1 (ja) 2016-03-03

Family

ID=55399220

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/064256 WO2016031314A1 (ja) 2014-08-25 2015-05-19 個人識別装置、個人識別方法、及び、個人識別プログラム

Country Status (2)

Country Link
JP (1) JP2017205135A (ja)
WO (1) WO2016031314A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019204295A (ja) * 2018-05-23 2019-11-28 トヨタ車体株式会社 車体情報管理システムおよび車体情報管理方法
CN110992397A (zh) * 2019-10-21 2020-04-10 浙江大华技术股份有限公司 人员出入轨迹追踪方法、系统、计算机设备和存储介质
CN113271848A (zh) * 2019-02-05 2021-08-17 株式会社日立制作所 身体健康状态影像分析装置、方法以及系统
WO2021192906A1 (ja) * 2020-03-25 2021-09-30 Necソリューションイノベータ株式会社 算出方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021124868A (ja) * 2020-02-04 2021-08-30 オムロン株式会社 情報処理装置、シルエット抽出方法、プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005074075A (ja) * 2003-09-02 2005-03-24 Matsushita Electric Works Ltd 歩行周期計測装置、周期画像取得装置、移動体輪郭の圧縮処理装置、移動体識別システム
WO2014112635A1 (ja) * 2013-01-18 2014-07-24 株式会社東芝 動作情報処理装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005074075A (ja) * 2003-09-02 2005-03-24 Matsushita Electric Works Ltd 歩行周期計測装置、周期画像取得装置、移動体輪郭の圧縮処理装置、移動体識別システム
WO2014112635A1 (ja) * 2013-01-18 2014-07-24 株式会社東芝 動作情報処理装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019204295A (ja) * 2018-05-23 2019-11-28 トヨタ車体株式会社 車体情報管理システムおよび車体情報管理方法
JP7024604B2 (ja) 2018-05-23 2022-02-24 トヨタ車体株式会社 車体情報管理システムおよび車体情報管理方法
CN113271848A (zh) * 2019-02-05 2021-08-17 株式会社日立制作所 身体健康状态影像分析装置、方法以及系统
CN113271848B (zh) * 2019-02-05 2024-01-02 株式会社日立制作所 身体健康状态影像分析装置、方法以及系统
CN110992397A (zh) * 2019-10-21 2020-04-10 浙江大华技术股份有限公司 人员出入轨迹追踪方法、系统、计算机设备和存储介质
WO2021192906A1 (ja) * 2020-03-25 2021-09-30 Necソリューションイノベータ株式会社 算出方法
JPWO2021192906A1 (ja) * 2020-03-25 2021-09-30

Also Published As

Publication number Publication date
JP2017205135A (ja) 2017-11-24

Similar Documents

Publication Publication Date Title
JP6534499B1 (ja) 監視装置、監視システム、及び、監視方法
Chattopadhyay et al. Pose Depth Volume extraction from RGB-D streams for frontal gait recognition
Dikovski et al. Evaluation of different feature sets for gait recognition using skeletal data from Kinect
JP6125188B2 (ja) 映像処理方法及び装置
KR101870902B1 (ko) 영상 처리 장치 및 영상 처리 방법
WO2016031314A1 (ja) 個人識別装置、個人識別方法、及び、個人識別プログラム
JP6731097B2 (ja) 人体行動分析方法、人体行動分析装置、機器及びコンピュータ可読記憶媒体
WO2016031313A1 (ja) 体調検出装置、体調検出方法及び体調検出プログラム
JP5493108B2 (ja) 距離画像カメラを用いた人体識別方法および人体識別装置
JP6286474B2 (ja) 画像処理装置および領域追跡プログラム
JP5170094B2 (ja) なりすまし検知システム、なりすまし検知方法およびなりすまし検知用プログラム
KR100824757B1 (ko) 걸음걸이를 이용한 생체 인식 방법
JP6868061B2 (ja) 人物追跡方法、装置、機器及び記憶媒体
JP5027741B2 (ja) 画像監視装置
JP2010123019A (ja) 動作認識装置及び方法
WO2013088517A1 (ja) 停立人物の向き推定方法
KR20200134502A (ko) 이미지 인식을 통한 3차원 인체 관절 각도 예측 방법 및 시스템
Madden et al. Height measurement as a session-based biometric for people matching across disjoint camera views
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
WO2016139868A1 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP2008288684A (ja) 人物検出装置及びプログラム
JP4691570B2 (ja) 画像処理装置およびオブジェクト推定プログラム
JP2011209794A (ja) 対象物認識システム及び該システムを利用する監視システム、見守りシステム
JP7426611B2 (ja) 校正方法および校正装置
JP6661082B2 (ja) 画像認識装置、及び画像認識プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15835377

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15835377

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP