JP2012173761A - Information processor, information processing method and program - Google Patents

Information processor, information processing method and program Download PDF

Info

Publication number
JP2012173761A
JP2012173761A JP2011031873A JP2011031873A JP2012173761A JP 2012173761 A JP2012173761 A JP 2012173761A JP 2011031873 A JP2011031873 A JP 2011031873A JP 2011031873 A JP2011031873 A JP 2011031873A JP 2012173761 A JP2012173761 A JP 2012173761A
Authority
JP
Japan
Prior art keywords
person
shape
clothing
gender
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011031873A
Other languages
Japanese (ja)
Inventor
Keizo Okamoto
敬三 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nifty Corp
Original Assignee
Nifty Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nifty Corp filed Critical Nifty Corp
Priority to JP2011031873A priority Critical patent/JP2012173761A/en
Publication of JP2012173761A publication Critical patent/JP2012173761A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology for acquiring information on the sex and clothes of a person included in an image through a simple method.SOLUTION: The information processor comprises: a storing part that stores templates for shapes of persons and shapes of clothes prepared for each type of clothes; and a control part that collates an edge detected in an image captured by a camera with a template, identifies the edge with an edge of a person included in the image, acquires the edge identified with the edge of the person included in the image, for each person, as a shape of the person, estimates the sex of the person related to the shape of the person based on the shape characteristics which is acquired from the shape of the person and enables estimation of the sex, estimates the type of clothes of the person related to the shape of the person by collating the shape of the clothes and the shape of the person, and counts the number of persons in the image for each type of the sex and clothes based on the estimated sex and type of the clothes.

Description

本発明は、カメラを用いて撮像された画像内に含まれる人物の服装に関する情報を取得する技術に関する。   The present invention relates to a technique for acquiring information related to clothes of a person included in an image captured using a camera.

従来、街頭カメラ又は携帯カメラ等により撮像された画像データに含まれる人物を計数する技術が様々提案されている。   Conventionally, various techniques for counting people included in image data captured by a street camera or a portable camera have been proposed.

例えば、特許文献1では、画像データを画像解析して人物の顔画像を抽出することによって人物を計数する技術が開示されている。また、特許文献2では、画像データを画像解析して人物の顔面の特徴を抽出し、性別、年齢別及び人種別にごとの人数を集計する技術が開示されている。   For example, Patent Document 1 discloses a technique for counting people by analyzing image data and extracting a person's face image. Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for extracting the features of a person's face by performing image analysis on image data and totaling the number of persons for each sex, age, and person type.

その他、特許文献3では、移動する監視対象物の情報を継続的に収集する技術が開示されている。   In addition, Patent Document 3 discloses a technique for continuously collecting information on a moving monitoring object.

特開2010−250571号公報JP 2010-250571 A 特開2007−58828号公報JP 2007-58828 A 特開2004−274309号公報JP 2004-274309 A

しかしながら、これらにおいて開示される技術では、画像解析に基づく顔認識によって、街頭カメラ又は携帯端末カメラ等により撮像された画像内に存在する人物の特徴を取得しているため、処理負荷が大きい。これらにおいて開示される技術では、簡易な方法によって、特定の場所、すなわち、街頭カメラ又は携帯端末カメラ等により撮像された領域における通行人の服装、装備等の情報を取得し、提供することはできない。   However, in the techniques disclosed in these, since the feature of a person existing in an image captured by a street camera or a mobile terminal camera is acquired by face recognition based on image analysis, the processing load is large. In the techniques disclosed in these, it is not possible to acquire and provide information such as clothes and equipment of passersby in a specific place, that is, an area imaged by a street camera or a mobile terminal camera, etc. by a simple method. .

本発明は、このような点を考慮してなされたものであり、カメラにより撮像された画像内に存在する人物の性別及び服装に関する情報を、簡易な方法で取得することを可能とする技術を提供することを目的とする。   The present invention has been made in consideration of such points, and is a technique that makes it possible to obtain information on the gender and clothes of a person existing in an image captured by a camera by a simple method. The purpose is to provide.

本発明は、上述した課題を解決するために、以下の構成を採用する。   The present invention employs the following configuration in order to solve the above-described problems.

すなわち、本発明の情報処理装置は、人物形状のひな形と、被服の種類ごとに用意された被服形状と、を格納する記憶部と、カメラを用いて撮像された画像内において検出されるエッジを前記ひな形と照合することにより、該エッジが、該画像内に含まれる人物のエッジか否かを識別し、前記人物ごとに、該画像内に含まれる人物のエッジと識別されたエッジを人物形状として取得し、前記人物形状から把握される、性別を推定可能な形状上の特徴に基づいて、前記人物形状に係る人物の性別を推定し、前記被服の種類ごとに用意された被服形状と前記人物形状とを照合することにより、前記人物形状に係る人物が着用している被服の種類を推定し、前記推定された性別及び被服の種類に基づいて、該性別及び被服の種類別に、前記画像に含まれる人数を集計する制御部と、を備えることを特徴とする。   That is, the information processing apparatus according to the present invention includes a storage unit for storing a human-shaped template and a clothing shape prepared for each type of clothing, and an edge detected in an image captured using a camera. Is compared with the template to determine whether the edge is the edge of a person included in the image, and for each person, the edge identified as the edge of the person included in the image is identified. A clothing shape prepared for each type of clothing, obtained as a human shape and estimating the sex of the person related to the human shape based on the shape characteristics that can be estimated from the human shape By comparing the person shape with the person shape, the type of clothes worn by the person related to the person shape is estimated, and based on the estimated sex and type of clothes, for each sex and type of clothes, Included in the image And a control unit which counts the number of people, characterized by comprising a.

ここで、人物形状とは、人間の身体の形状を指し、該人間の姿勢及び撮像された方向等の状態によって異なりうる。また、被服形状とは、被服の形状を指し、同一の被服であっても、該被服を着用した人物の姿勢及び撮像された方向等の状態によって異なりうる。更に、被服の種類は、例えば、被服の品名や袖の形態等、被服の性質及び形態等により区別される。   Here, the human shape refers to the shape of a human body, and may vary depending on the posture of the human and the imaged direction. The clothing shape refers to the shape of the clothing, and even the same clothing may vary depending on the posture of the person wearing the clothing and the imaged direction. Furthermore, the type of clothing is distinguished by the nature and form of the clothing such as the name of the clothing and the shape of the sleeve.

上記構成によれば、カメラを用いて撮像された画像内に存在する人物の人物形状は、該画像内において検出されるエッジと人物形状のひな形との照合に基づいて、特定される。そして、人物ごとに、人物形状から把握される、性別を推定可能な形状上の特徴に基づいて、人物の性別が推定される。また、人物ごとに、被服の種類ごとに用意された被服形状と人物形状とを照合に基づいて、人物の着用している被服の種類が推定される。更に、推定された性別及び被服の種類に基づいて、該性別及び被服の種類別に、画像に含まれる人数が集計される。つまり、上記構成によれば、カメラを用いて撮像された画像に含まれる形状のみに基づいて、カメラの撮像範囲における性別及び被服の種類別の人数(人物の性別及び服装に関する情報)が集計される。   According to the above configuration, the person shape of the person existing in the image captured using the camera is specified based on the matching between the edge detected in the image and the model of the person shape. Then, for each person, the gender of the person is estimated based on the shape features that can be estimated from the person shape. In addition, for each person, the type of clothes worn by the person is estimated based on the matching between the shape of the clothes prepared for each type of clothes and the shape of the person. Further, based on the estimated sex and type of clothing, the number of people included in the image is aggregated for each sex and type of clothing. In other words, according to the above configuration, the number of persons (gender and clothes information) of the gender and the type of clothing in the imaging range of the camera is tabulated based only on the shape included in the image captured using the camera. The

したがって、上記構成によれば、カメラにより撮像された画像内に存在する人物の性別及び服装に関する情報を、簡易な方法で取得することが可能である。   Therefore, according to the above configuration, it is possible to acquire information on the gender and clothes of a person existing in an image captured by the camera by a simple method.

また、本発明の別の形態として、前記制御部は、前記人物形状から、前記性別を推定可能な形状上の特徴に係る値を算出し、該算出した値を閾値と比較することで前記人物形状に係る人物の性別を推定してもよい。   As another form of the present invention, the control unit calculates a value related to a feature on the shape from which the gender can be estimated from the person shape, and compares the calculated value with a threshold value to calculate the person. The gender of the person related to the shape may be estimated.

また、本発明の別の形態として、前記性別を推定可能な形状上の特徴に係る値は、前記人物形状から計測される長さを2つ用いた比率であってもよい。   As another form of the present invention, the value related to the shape feature capable of estimating the gender may be a ratio using two lengths measured from the person shape.

ここで、人物形状から計測される長さとは、例えば、該人物形状内における身長、頭部幅、肩幅、腕の長さ等の長さである。   Here, the length measured from the human shape is, for example, a length, a head width, a shoulder width, an arm length, or the like in the human shape.

上記構成によれば、人物形状から計測される長さを2つ用いた比率を閾値と比較することで、人物形状に係る人物の性別が推定される。この人物形状から計測される長さを2つ用いた比率は、人物形状から計測される2つの長さの相対関係を示すため、人物形状の大きさに依存しない。   According to the above configuration, the gender of the person related to the person shape is estimated by comparing the ratio using two lengths measured from the person shape with the threshold value. The ratio using the two lengths measured from the person shape indicates a relative relationship between the two lengths measured from the person shape, and thus does not depend on the size of the person shape.

したがって、上記構成によれば、カメラと人物との間の距離によって変動する人物形状の大きさによらず、同一の閾値で該人物形状に係る人物の性別を推定することができる。   Therefore, according to the above configuration, the gender of the person related to the person shape can be estimated with the same threshold value regardless of the size of the person shape that varies depending on the distance between the camera and the person.

また、本発明の別の形態として、前記人物形状のひな形は、前記性別を推定可能な形状上の特徴を含む、性別ごとに異なるひな形であってもよい。そして、前記制御部は、いずれの性別に係るひな形により、前記画像内において検出されるエッジが前記人物形状に係るエッジであると識別されたかを判定することで、前記人物形状に係る人物の性別を推定してもよい。   As another form of the present invention, the human shape template may be a different template for each gender, including a shape feature that allows the gender to be estimated. Then, the control unit determines whether the edge detected in the image is identified as the edge related to the person shape by using a template related to which gender, so that the person related to the person shape is determined. Gender may be estimated.

また、本発明の別の形態として、前記制御部は、前記画像の撮像位置を示す情報により画像の撮像範囲を特定し、該画像の撮像範囲における前記性別及び被服の種類別の人数を集計してもよい。   As another embodiment of the present invention, the control unit specifies an image capturing range based on information indicating an image capturing position of the image, and totals the number of people by sex and type of clothing in the image capturing range. May be.

また、本発明の別の形態として、前記制御部は、前記性別及び被服の種類別に集計した人数と前記性別ごとの人数とに基づいて、前記性別ごとの人数における各種類の被服を着
用している人数の比率を算出してもよい。
As another form of the present invention, the control unit wears each type of clothing in the number of people for each gender based on the number of people counted for each sex and the type of clothing and the number of people for each sex. You may calculate the ratio of the number of people.

上記構成によれば、性別ごとの人数における各種類の被服を着用している人数の比率が算出される。一般的に、ユーザは、何らかの傾向を理解する時、人数そのままの数字よりも、全体の人数に対する該人数の割合の方が理解しやすい。   According to the above configuration, the ratio of the number of people wearing each type of clothing in the number of people for each gender is calculated. In general, when a user understands some tendency, the ratio of the number of people to the total number of people is easier to understand than the number of people as it is.

したがって、上記構成によれば、性別ごとに着用している被服の種類に対する傾向を理解しやすい情報を提供することが可能となる。   Therefore, according to the said structure, it becomes possible to provide the information which is easy to understand the tendency with respect to the kind of clothing worn for every sex.

なお、本発明の別態様としては、以上の各構成を実現する情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記憶媒体であってもよい。また、本発明の別態様として、以上の各構成を実現する複数の装置が通信可能に構成された情報処理システムであってもよい。   As another aspect of the present invention, an information processing method that implements each of the above configurations, a program, or a computer-readable storage medium that records such a program may be used. There may be. Further, as another aspect of the present invention, an information processing system in which a plurality of devices that realize each of the above configurations is configured to be communicable may be used.

本発明によれば、カメラにより撮像された画像内に存在する人物の性別、服装に関する情報を、簡易な方法で取得することを可能とする技術を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the technique which makes it possible to acquire the information regarding the sex of the person who exists in the image imaged with the camera, and the clothing by a simple method can be provided.

実施の形態に係る装置接続を例示する図。The figure which illustrates the apparatus connection which concerns on embodiment. 実施の形態に係る情報処理装置を例示する図。FIG. 3 illustrates an information processing device according to an embodiment. 実施の形態に係る被服テンプレートデータベースのレコードを例示する図。The figure which illustrates the record of the clothing template database which concerns on embodiment. 実施の形態における情報処理装置の処理例を示すフローチャート。6 is a flowchart illustrating a processing example of the information processing apparatus according to the embodiment. 実施の形態に係るカメラにより取得された画像を例示する図。The figure which illustrates the image acquired by the camera which concerns on embodiment. 実施の形態に係るカメラにより取得された画像内において検出されるエッジを例示する図。The figure which illustrates the edge detected in the image acquired by the camera which concerns on embodiment. 実施の形態に係るカメラにより取得された画像内において検出されるエッジと人物形状のひな形との照合結果を例示する図。The figure which illustrates the collation result with the edge detected in the image acquired with the camera which concerns on embodiment, and the model of a person shape. 実施の形態に係る人物の性別推定を例示する図。The figure which illustrates the gender estimation of the person which concerns on embodiment. 実施の形態に係る被服の推定を例示する図。The figure which illustrates the estimation of the clothing which concerns on embodiment. 実施の形態に係る情報処理装置が提供する情報を例示する図。6 is a diagram illustrating information provided by the information processing apparatus according to the embodiment. FIG.

以下、本発明の一側面に係る情報処理装置、情報処理方法及びプログラム等の実施の形態(以下、「本実施形態」とも表記する)を説明する。ただし、本実施形態は例示であり、本発明は本実施形態の構成に限定されない。   Hereinafter, embodiments of an information processing apparatus, an information processing method, a program, and the like according to one aspect of the present invention (hereinafter also referred to as “this embodiment”) will be described. However, the present embodiment is an exemplification, and the present invention is not limited to the configuration of the present embodiment.

なお、本実施形態において登場するデータを自然言語(日本語等)により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメタ、マシン語等で指定される。   Although the data appearing in the present embodiment is described in a natural language (such as Japanese), more specifically, it is specified in a pseudo language, a command, a parameter, a machine language, or the like that can be recognized by a computer.

§1 各装置の接続例
まず、本実施形態に係るネットワークの構成例について説明する。図1は、本実施形態に係る装置の接続例を示す。図1に示されるとおり、情報処理装置1及び画像取得装置4は、インターネット5を介して、それぞれ通信可能となっている。
§1 Connection example of each device First, a configuration example of a network according to the present embodiment will be described. FIG. 1 shows a connection example of apparatuses according to the present embodiment. As shown in FIG. 1, the information processing apparatus 1 and the image acquisition apparatus 4 can communicate with each other via the Internet 5.

情報処理装置1は、カメラ2を用いて撮像された画像内に存在する人物の性別及び人物が着用している被服の種類を推定する。そして、情報処理装置1は、推定した性別及び被服の種類別に画像に含まれる人数を集計する。   The information processing apparatus 1 estimates the gender of a person present in an image captured using the camera 2 and the type of clothes worn by the person. Then, the information processing apparatus 1 adds up the number of people included in the image for each estimated gender and type of clothing.

画像取得装置4は、図1に示されるとおり、カメラ2及び通信部3を有する。また、画像取得装置4は、PC又は携帯電話として周知のハードウェア構成及び機能構成(不図示)を有する。   As shown in FIG. 1, the image acquisition device 4 includes a camera 2 and a communication unit 3. Further, the image acquisition device 4 has a hardware configuration and a functional configuration (not shown) known as a PC or a mobile phone.

カメラ2は、例えば、光学信号である画像を電気に変換する撮像素子を有し、該撮像素子で撮影した画像をデジタルデータとして記録する。カメラ2は、例えば、街頭カメラ又は携帯端末カメラである。   The camera 2 includes, for example, an image sensor that converts an image that is an optical signal into electricity, and records an image captured by the image sensor as digital data. The camera 2 is, for example, a street camera or a mobile terminal camera.

街頭カメラは、街頭に設置されているカメラである。カメラ2が街頭カメラである場合、例えば、画像取得装置4はネットワークカメラ、通信部3は該ネットワークカメラが有する通信機能として実現される。そのほか、例えば、カメラ2が街頭カメラである場合、画像取得装置4はPC、通信部3は該PCが有する通信機能として実現される。   A street camera is a camera installed on the street. When the camera 2 is a street camera, for example, the image acquisition device 4 is realized as a network camera, and the communication unit 3 is realized as a communication function of the network camera. In addition, for example, when the camera 2 is a street camera, the image acquisition device 4 is realized as a PC, and the communication unit 3 is realized as a communication function of the PC.

また、カメラ2が携帯端末カメラである場合、画像取得装置4は携帯電話等、通信部3は該携帯電話等が有する通信機能として実現される。   When the camera 2 is a mobile terminal camera, the image acquisition device 4 is realized as a mobile phone, and the communication unit 3 is realized as a communication function of the mobile phone.

§2 情報処理装置の構成例
図2は、情報処理装置1の構成を例示する。情報処理装置1は、図2に示されるとおり、そのハードウェア構成として、バス13で接続される、記憶部11、制御部12、入出力部14等の既存のハードウェアを有している。
§2 Configuration example of information processing apparatus FIG. 2 illustrates the configuration of the information processing apparatus 1. As shown in FIG. 2, the information processing apparatus 1 has existing hardware such as a storage unit 11, a control unit 12, and an input / output unit 14 connected by a bus 13 as a hardware configuration.

記憶部11は、制御部12で実行される処理で利用される各種データ及びプログラムを記憶する(不図示)。記憶部11は、例えば、ハードディスクによって実現される。記憶部11は、USBメモリ等の記録媒体により実現されてもよい。   The storage unit 11 stores various data and programs used in processing executed by the control unit 12 (not shown). The storage unit 11 is realized by a hard disk, for example. The storage unit 11 may be realized by a recording medium such as a USB memory.

なお、記憶部11に格納される当該各種データ及びプログラムは、CD(Compact Disc)又はDVD(Digital Versatile Disc)等の記録媒体から取得されてもよい。また、記憶部11は、外部記憶装置と呼ばれてもよい。   The various data and programs stored in the storage unit 11 may be obtained from a recording medium such as a CD (Compact Disc) or a DVD (Digital Versatile Disc). The storage unit 11 may be called an external storage device.

制御部12は、マイクロプロセッサ又はCPU(Central Processing Unit)等の1又
は複数のプロセッサと、このプロセッサの処理に利用される周辺回路(ROM(Read Only Memory)、RAM(Random Access Memory)、インタフェース回路等)と、を有する。制御部12は、記憶部11に格納されている各種データ及びプログラムを実行することにより、本実施形態における情報処理装置1の処理を実現する。ROM、RAM等は、制御部12内のプロセッサが取り扱うアドレス空間に配置されているという意味で主記憶装置と呼ばれてもよい。
The control unit 12 includes one or a plurality of processors such as a microprocessor or a CPU (Central Processing Unit), and peripheral circuits (ROM (Read Only Memory), RAM (Random Access Memory), interface circuits) used for processing of the processor. Etc.). The control unit 12 implements the processing of the information processing apparatus 1 in the present embodiment by executing various data and programs stored in the storage unit 11. ROM, RAM, and the like may be referred to as a main storage device in the sense that they are arranged in an address space handled by a processor in the control unit 12.

入出力部14は、情報処理装置1の外部に存在する装置とデータの送受信を行うための1又は複数のインタフェースである。入出力部14は、例えば、LAN(Local Area Network)ケーブルを接続するためのインタフェース、ユーザインタフェースと接続するためのインタフェース、又はUSB(Universal Serial Bus)等、ハードウェアインタフェースとして周知のものである。   The input / output unit 14 is one or a plurality of interfaces for transmitting / receiving data to / from a device existing outside the information processing device 1. The input / output unit 14 is known as a hardware interface such as an interface for connecting a LAN (Local Area Network) cable, an interface for connecting to a user interface, or a USB (Universal Serial Bus).

入出力部14は、インターネット5を介して、画像取得装置4とIP(Internet Protocol)パケット等の送受信を行う。なお、入出力部14は、不図示のユーザインタフェー
ス(キーボード、マウス、ディスプレイ等の入出力装置)と接続してもよい。また、入出力部14は、CDドライブ、DVDドライブ等の着脱可能な記憶媒体の入出力装置、或いはメモリカード等の不揮発性の可搬型の記憶媒体等の入出力装置と接続していてもよい。また、入出力部14は、インターネット接続を行うインタフェースという意味で通信部と呼ばれてもよい。
The input / output unit 14 transmits and receives IP (Internet Protocol) packets and the like to and from the image acquisition device 4 via the Internet 5. The input / output unit 14 may be connected to a user interface (not shown) (input / output devices such as a keyboard, a mouse, and a display). The input / output unit 14 may be connected to an input / output device such as a removable storage medium such as a CD drive or a DVD drive, or an input / output device such as a non-volatile portable storage medium such as a memory card. . Further, the input / output unit 14 may be called a communication unit in the sense of an interface for connecting to the Internet.

なお、情報処理装置1は、PC(Personal Computer)等のような汎用コンピュータで
構成されてもよい。また、情報処理装置1は、不図示のユーザ端末のリクエストに対してサービスを提供する装置という意味で、サーバ(例えば、WEBサーバ)と呼ばれてもよい。
The information processing apparatus 1 may be configured by a general-purpose computer such as a PC (Personal Computer). Further, the information processing apparatus 1 may be called a server (for example, a WEB server) in the meaning of an apparatus that provides a service in response to a request from a user terminal (not shown).

本実施形態では、情報処理装置1は、カメラ2を用いて撮像された画像内に存在する人物の性別及び人物が着用している被服の種類を推定する。そして、情報処理装置1は、推定した性別及び被服の種類別に画像に含まれる人数を集計する。この処理を実現する記憶部11及び制御部12について、以下、説明する。   In the present embodiment, the information processing apparatus 1 estimates the gender of a person present in an image captured using the camera 2 and the type of clothes worn by the person. Then, the information processing apparatus 1 adds up the number of people included in the image for each estimated gender and type of clothing. The storage unit 11 and the control unit 12 that realize this process will be described below.

[記憶部]
図2により示されるとおり、記憶部11は、人物テンプレートデータベース21及び被服テンプレートデータベース22を含む。人物テンプレートデータベース21及び被服テンプレートデータベース22は、例えば、ハードディスクに格納されたデータとして実現される。
[Storage unit]
As shown in FIG. 2, the storage unit 11 includes a person template database 21 and a clothing template database 22. The person template database 21 and the clothing template database 22 are realized, for example, as data stored in a hard disk.

<人物テンプレートデータベース>
人物テンプレートデータベース21は、人物形状のひな形(以下、「人物形状のテンプレート」とも表記)を格納する。人物形状のテンプレートは、カメラ2を用いて撮像された画像内において検出されるエッジのうち、該画像内に存在する人物に係るエッジを特定するためのデータである。人物形状のテンプレートは、例えば、人物形状を示す図形データ、又は、人物形状から算出することができる特徴量によって表現される。該特徴量は、例えば、SIFT(Scale-Invariant Feature Transform)、又は、テクスチャ特徴量で
ある。
<Person template database>
The person template database 21 stores a person-shaped template (hereinafter also referred to as a “person-shaped template”). The person-shaped template is data for specifying an edge relating to a person existing in the image among edges detected in the image captured using the camera 2. The human shape template is expressed by, for example, graphic data indicating a human shape or a feature amount that can be calculated from the human shape. The feature amount is, for example, a SIFT (Scale-Invariant Feature Transform) or a texture feature amount.

なお、これらによって表現される本実施形態における人物形状のテンプレートは、人物を2次元に投影したシルエットである。ここで、人物形状は、該人物の姿勢及び撮像された方向等の状態によって異なりうる。そのため、人物形状のテンプレートは、該人物の状態を反映した2次元のシルエットであってもよい。   It should be noted that the human shape template represented in the present embodiment is a silhouette obtained by projecting a person in two dimensions. Here, the human shape may vary depending on the posture of the person and the state of the imaged direction. Therefore, the person-shaped template may be a two-dimensional silhouette reflecting the state of the person.

なお、人物テンプレートデータベース21に格納されている人物形状のテンプレートは1つであってもよいし、複数であってもよい。また、本実施形態の別の形態において、人物形状のテンプレートは、性別を推定可能な形状上の特徴を含む、性別ごとに異なるデータであってもよい。   Note that the person template database 21 may store one person shape template or a plurality of person shape templates. In another form of the present embodiment, the person-shaped template may be data that differs for each gender, including a shape feature that allows gender estimation.

<被服テンプレートデータベース>
被服テンプレートデータベース22は被服データを格納する。被服データは、被服形状を含むデータであり、被服の種類ごとに用意される。被服形状は、カメラ2を用いて撮像された画像内に存在する人物が着用している被服の種類を推定するためのデータである。被服形状は、上記人物形状のテンプレートと同様に、例えば、被服の形状を示す図形データ、又は、被服の形状から算出することができる特徴量によって表現される。
<Clothing template database>
The clothing template database 22 stores clothing data. The clothing data is data including a clothing shape, and is prepared for each type of clothing. The clothing shape is data for estimating the type of clothing worn by a person present in an image captured using the camera 2. The clothing shape is expressed by, for example, graphic data indicating the shape of the clothing or a feature amount that can be calculated from the clothing shape, like the person-shaped template.

なお、これらによって表現される本実施形態における被服形状は、被服を2次元に投影したシルエットである。また、被服形状は、同一の被服であっても、該被服を着用した人物の姿勢及び撮像された向き等の状態によって異なりうる。そのため、本実施形態における被服形状は、該被服の状態を反映して該被服を2次元に投影したシルエットである。   In addition, the clothing shape in this embodiment expressed by these is a silhouette which projected clothing in two dimensions. Moreover, even if it is the same clothing, the clothing shape may vary depending on the posture of the person wearing the clothing and the imaged orientation. Therefore, the clothing shape in the present embodiment is a silhouette obtained by projecting the clothing in two dimensions reflecting the state of the clothing.

図3は、本実施形態における被服テンプレートデータベース22のレコード例を示す。図3に示されるとおり、本実施形態に係る被服データは、被服テンプレートデータベース
22のレコードの行データとして実現されている。また、本実施形態に係る被服データは、テンプレートIDフィールド、性別フィールド、着用箇所フィールド、袖フィールド、向きフィールド、品名フィールド、図形フィールドを有する。
FIG. 3 shows a record example of the clothing template database 22 in the present embodiment. As shown in FIG. 3, the clothing data according to the present embodiment is realized as row data of records in the clothing template database 22. The clothing data according to the present embodiment includes a template ID field, a gender field, a wearing place field, a sleeve field, an orientation field, an item name field, and a graphic field.

テンプレートIDフィールドには、被服データを区別するための情報が格納される。図3に示されるとおり、被服データを区別するための情報は、例えば、「テンプレート1150」、「テンプレート1151」等と指定される。   The template ID field stores information for distinguishing clothing data. As shown in FIG. 3, the information for distinguishing the clothing data is designated as “template 1150”, “template 1151”, or the like, for example.

性別フィールドには、被服が対象とする性別情報が格納される。被服が対象とする性別情報は、例えば、「男性」、「女性」等と指定される。   The sex field stores the sex information targeted by the clothes. The gender information targeted by the clothing is designated, for example, “male”, “female” or the like.

着用箇所フィールドには、被服を着用する箇所を示す情報が格納される。被服を着用する箇所を示す情報は、例えば、「上半身」、「下半身」等と指定される。   The wear location field stores information indicating a location where the clothing is worn. For example, “upper body”, “lower body”, and the like are designated as the information indicating the location where the clothes are worn.

袖フィールドには、被服の袖に関する情報が格納される。被服の袖に関する情報は、例えば、「長袖」、「半袖」、「袖なし」等と指定される。なお、下半身に着る被服については、被服の丈に関する情報が格納される。被服の丈に関する情報は、例えば、「長」、「短」等と指定される。   The sleeve field stores information on the sleeve of the clothes. For example, “long sleeves”, “short sleeves”, “no sleeves”, and the like are designated as information on the sleeves of the clothes. In addition, about the clothing worn on the lower body, information on the length of the clothing is stored. The information on the length of the clothes is designated as “long”, “short”, or the like, for example.

向きフィールドには、該被服データに含まれる被服の向きを示す情報が格納される。被服の向きを示す情報は、該被服が撮像された向きを示し、例えば、「正面」、「背面」、「側面」等と指定される。   The direction field stores information indicating the direction of clothes included in the clothes data. The information indicating the direction of the clothing indicates the direction in which the clothing is imaged, and is designated, for example, “front”, “back”, “side”, or the like.

品名フィールドには、被服の品名を示す情報が格納される。被服の品名を示す情報は、例えば、「ショートコート」、「ジャンパー」等と指定される。   Information indicating the item name of the clothing is stored in the item name field. The information indicating the article name of the clothing is designated as “short coat”, “jumper”, or the like, for example.

図形フィールドには、被服形状、又は、被服形状を識別するための情報が格納される。上述した通り、被服形状は、例えば、画像データ、又は、特徴量であり、図形フィールドには、被服形状がそのまま格納されていてもよいし、該被服形状を識別するための情報が格納されてもよい。被服形状を識別するための情報とは、例えば、被服形状が格納されている記憶部11の格納領域を示す情報等、当該情報に基づいて該被服形状を取得することを可能とする情報である。   The figure field stores clothing shapes or information for identifying clothing shapes. As described above, the clothing shape is, for example, image data or a feature amount, and the figure field may store the clothing shape as it is, or information for identifying the clothing shape is stored. Also good. The information for identifying the clothing shape is information that makes it possible to acquire the clothing shape based on the information, such as information indicating a storage area of the storage unit 11 in which the clothing shape is stored. .

なお、本実施形態における被服の種類は、被服データの袖フィールドに格納された被服の袖に関する情報及び被服データの品名フィールドに格納された被服の品名を示す情報のうち少なくとも一方を用いることで示される。被服データは、本実施形態で示される被服の袖に関する情報及び被服の品名を示す情報以外に、被服の種類に関する情報を格納するためのフィールドを有してもよい。この場合、被服の種類は、該被服の種類に関する情報の中から任意に示される。   Note that the type of clothing in the present embodiment is indicated by using at least one of the information on the sleeve of the clothing stored in the sleeve field of the clothing data and the information indicating the product name of the clothing stored in the product name field of the clothing data. It is. The clothing data may include a field for storing information on the type of clothing in addition to the information on the sleeve of the clothing and the information indicating the name of the clothing shown in the present embodiment. In this case, the type of clothing is arbitrarily indicated from the information regarding the type of clothing.

[制御部]
図2に示されるとおり、制御部12は、画像データ取得部31、人物形状取得部32、性別推定部33、被服推定部34、及び、被服傾向算出部35を含む。画像データ取得部31、人物形状取得部32、性別推定部33、被服推定部34、及び、被服傾向算出部35は、例えば、記憶部11に格納されたプログラム等が制御部12の周辺回路であるRAM等に転記され、制御部12のプロセッサにより実行されることによって実現される。
[Control unit]
As shown in FIG. 2, the control unit 12 includes an image data acquisition unit 31, a person shape acquisition unit 32, a gender estimation unit 33, a clothing estimation unit 34, and a clothing tendency calculation unit 35. For example, the image data acquisition unit 31, the person shape acquisition unit 32, the gender estimation unit 33, the clothing estimation unit 34, and the clothing trend calculation unit 35 may include a program stored in the storage unit 11 in the peripheral circuit of the control unit 12. It is realized by being transferred to a certain RAM or the like and executed by the processor of the control unit 12.

本実施形態では、制御部12は、カメラ2を用いて撮像された画像内に存在する人物の性別及び人物が着用している被服の種類を推定する。そして、制御部12は、推定した性別及び被服の種類別に画像に含まれる人数を集計する。以下、本実施形態における各構成
の処理について簡略的に説明する。本実施形態における各構成の具体的な処理についての説明は、「§3 動作例」に記載する。
In the present embodiment, the control unit 12 estimates the gender of a person present in an image captured using the camera 2 and the type of clothing worn by the person. And the control part 12 totals the number of persons included in an image according to the estimated sex and the kind of clothing. Hereinafter, processing of each component in the present embodiment will be briefly described. A description of specific processing of each configuration in the present embodiment will be described in “§3 Operation Example”.

<画像データ取得部>
画像データ取得部31は、画像取得装置4からカメラ2を用いて撮像された画像データを取得する。また、画像データ取得部31は、画像の撮像位置を示す情報により画像の撮像範囲を特定する。なお、画像データは、動画像及び静止画像のどちらのデータであってもよい。また、画像データの取得は、情報処理装置1から画像取得装置4へアクセスすることによってなされてもよいし、画像取得装置4から情報処理装置1へアクセスされることによってなされてもよい。
<Image data acquisition unit>
The image data acquisition unit 31 acquires image data captured using the camera 2 from the image acquisition device 4. Further, the image data acquisition unit 31 specifies an image capturing range based on information indicating an image capturing position. Note that the image data may be either moving image data or still image data. The image data may be acquired by accessing the image acquisition device 4 from the information processing device 1 or by accessing the information processing device 1 from the image acquisition device 4.

<人物形状取得部>
人物形状取得部32は、画像データ取得部31が取得した画像内のエッジを検出する。また、人物形状取得部32は、人物テンプレートデータベース21に格納された人物形状のテンプレートと検出したエッジとを照合し、該エッジが、該画像内に含まれる人物のエッジか否かを識別する。そして、人物形状取得部32は、画像内に含まれる人物のエッジと識別されたエッジを人物形状として取得する。
<Human shape acquisition unit>
The person shape acquisition unit 32 detects an edge in the image acquired by the image data acquisition unit 31. Further, the person shape acquisition unit 32 collates the person shape template stored in the person template database 21 with the detected edge, and identifies whether the edge is the edge of the person included in the image. Then, the person shape acquisition unit 32 acquires an edge identified as the edge of the person included in the image as a person shape.

<性別推定部>
性別推定部33は、人物形状取得部32によって取得された人物形状から把握される、性別を推定可能な形状上の特徴に基づいて、該人物形状に係る人物の性別を推定する。
<Gender estimation unit>
The gender estimation unit 33 estimates the gender of the person related to the person shape based on the shape features that can be estimated from the person shape acquired by the person shape acquisition unit 32.

本実施形態では、性別推定部33は、人物形状取得部32によって取得された人物形状から、性別を推定可能な形状上の特徴に係る値を算出する。そして、性別推定部33は、該算出した値を閾値と比較することで該人物形状に係る人物の性別を推定する。   In the present embodiment, the gender estimating unit 33 calculates a value related to the feature on the shape from which the gender can be estimated from the human shape acquired by the human shape acquiring unit 32. And the sex estimation part 33 estimates the sex of the person who concerns on this person shape by comparing this calculated value with a threshold value.

また、本実施形態では、性別を推定可能な形状上の特徴に係る値は、人物形状取得部32によって取得された人物形状から計測される長さを2つ用いた比率である。ここで、人物形状から計測される長さは、例えば、人物形状取得部32によって取得された人物形状における身長に対応する長さ、頭部幅に対応する長さ、肩幅に対応する長さ、腕の長さに対応する長さ等である。   Further, in the present embodiment, the value related to the shape feature for which gender can be estimated is a ratio using two lengths measured from the person shape acquired by the person shape acquisition unit 32. Here, the length measured from the human shape is, for example, a length corresponding to the height in the human shape acquired by the human shape acquisition unit 32, a length corresponding to the head width, a length corresponding to the shoulder width, The length corresponds to the length of the arm.

また、本実施形態では、人物テンプレートデータベース21に格納された人物形状のテンプレートは、性別を推定可能な形状上の特徴を含む、性別ごとに異なるデータであってもよい。この時、性別推定部33は、前記人物形状取得部32において、いずれの性別に係る人物形状のテンプレートにより、画像内において検出されるエッジが該人物形状に係るエッジであると識別されたかを判定することで、該人物形状に係る人物の性別を推定してもよい。   Further, in the present embodiment, the human shape template stored in the human template database 21 may be different data for each gender, including features on the shape for which gender can be estimated. At this time, the gender estimation unit 33 determines in the human shape acquisition unit 32 whether the edge detected in the image is identified as the edge related to the human shape by using the human shape template related to any gender. Thus, the gender of the person related to the person shape may be estimated.

<被服推定部>
被服推定部34は、被服テンプレートデータベース22に格納された被服データに含まれる被服形状と人物形状取得部32によって取得された人物形状とを照合することにより、該人物形状に係る人物が着用している被服の種類を推定する。
<Clothing estimation part>
The clothing estimation unit 34 collates the clothing shape included in the clothing data stored in the clothing template database 22 with the person shape acquired by the person shape acquisition unit 32, so that the person related to the person shape wears it. Estimate the type of clothing you have.

<被服傾向算出部>
被服傾向算出部35は、性別推定部33及び被服推定部34により推定された性別及び被服の種類に基づいて、該性別及び被服の種類別に、画像データ取得部31により取得された画像に含まれる人数を集計する。また、被服傾向算出部35は、該性別及び被服の種類別に集計した人数と性別ごとの人数とに基づいて、該性別ごとの人数における各種類の被服を着用している人数の比率を算出する。
<Clothing trend calculator>
The clothing tendency calculation unit 35 is included in the image acquired by the image data acquisition unit 31 for each sex and type of clothing based on the sex and the type of clothing estimated by the sex estimation unit 33 and the clothing estimation unit 34. Count the number of people. In addition, the clothing tendency calculation unit 35 calculates the ratio of the number of people wearing each type of clothing in the number of people for each gender based on the number of people for each gender and the type of clothing and the number of people for each gender. .

§3 動作例
次に、図4、図5、図6A、図6B、図7、図8、及び、図9を用いて、本実施形態における動作例を説明する。図4のフローチャートは、本実施形態に係る情報処理装置1の処理を例示する。図5は、本実施形態に係るカメラ2により取得された画像を例示する。図6Aは、本実施形態に係る人物形状取得部32において図5に示される画像内のエッジが検出された状態を例示する。図6Bは、本実施形態における図6Aにより示されたエッジと人物形状のテンプレートとの照合結果を例示する。図7は、本実施形態における性別推定部33の動作を例示する。図8は、本実施形態における被服推定部34の動作を例示する。図9は、本実施形態における情報処理装置1が提供する情報を例示する。
§3 Operation Example Next, an operation example in the present embodiment will be described with reference to FIGS. 4, 5, 6A, 6B, 7, 8, and 9. FIG. The flowchart of FIG. 4 illustrates the process of the information processing apparatus 1 according to the present embodiment. FIG. 5 illustrates an image acquired by the camera 2 according to the present embodiment. FIG. 6A illustrates a state where an edge in the image shown in FIG. 5 is detected in the human shape acquisition unit 32 according to the present embodiment. FIG. 6B exemplifies a matching result between the edge shown in FIG. 6A and the person-shaped template in this embodiment. FIG. 7 illustrates the operation of the gender estimation unit 33 in the present embodiment. FIG. 8 illustrates the operation of the clothing estimation unit 34 in the present embodiment. FIG. 9 illustrates information provided by the information processing apparatus 1 in the present embodiment.

<スタート>
まず、図4に示されるとおり、情報処理装置1は、例えば、予め定められた周期で、記憶部11に格納したプログラムを制御部12により実行することにより処理を開始する(S100)。
<Start>
First, as illustrated in FIG. 4, the information processing apparatus 1 starts processing by executing, for example, a program stored in the storage unit 11 by the control unit 12 in a predetermined cycle (S100).

<画像データの取得>
処理が開始されると、画像データ取得部31は、画像取得装置4からカメラ2を用いて画像データを取得する(S101)。図5は、取得される画像データを例示する。また、本動作例では、画像データ取得部31は、取得した画像の撮像範囲及び撮像日時を特定する。カメラ2は、例えば、街頭カメラ又は携帯端末カメラである。
<Acquisition of image data>
When the process is started, the image data acquisition unit 31 acquires image data from the image acquisition device 4 using the camera 2 (S101). FIG. 5 illustrates the acquired image data. In this operation example, the image data acquisition unit 31 specifies the imaging range and imaging date and time of the acquired image. The camera 2 is, for example, a street camera or a mobile terminal camera.

カメラ2が街頭カメラである場合、画像取得装置4は、例えば、ネットワークカメラ又はPCである。画像取得装置4がネットワークカメラ又はPCである場合、画像取得装置4は、画像データ取得部31からの要求又は自発的な動作等に基づいて、通信部3によってインターネット5へアクセスし、カメラ2を用いて撮像した画像データを情報処理装置1へ送信する。   When the camera 2 is a street camera, the image acquisition device 4 is, for example, a network camera or a PC. When the image acquisition device 4 is a network camera or a PC, the image acquisition device 4 accesses the Internet 5 by the communication unit 3 based on a request from the image data acquisition unit 31 or a spontaneous operation, etc. The image data picked up and transmitted is transmitted to the information processing apparatus 1.

画像データ取得部31は、画像取得装置4にアクセスし、画像取得装置4から画像データを受信するまで待機し、又は、画像取得装置4から受信して記憶部11に既に格納されている画像データから、該街頭カメラにより撮像された画像データを取得する。   The image data acquisition unit 31 accesses the image acquisition device 4 and waits until image data is received from the image acquisition device 4, or receives image data from the image acquisition device 4 and is already stored in the storage unit 11. To obtain image data captured by the street camera.

なお、画像取得装置4から情報処理装置1へ送信される、街頭カメラを用いて撮像された画像データには、その属性情報として、該街頭カメラの識別番号が含まれている。   Note that the image data transmitted from the image acquisition apparatus 4 to the information processing apparatus 1 and captured using a street camera includes the identification number of the street camera as its attribute information.

画像データ取得部31は、該街頭カメラの識別番号を用いて、街頭カメラの位置を特定する。例えば、記憶部11は、街頭カメラの識別番号に対応付けられた該街頭カメラの位置を示す情報を格納する。そして、画像データ取得部31は、受信した画像データに含まれる街頭カメラの識別番号を用いて記憶部11に格納されている街頭カメラの位置を示す情報と照合し、受信した画像データを送信した街頭カメラの位置を特定する。   The image data acquisition unit 31 specifies the position of the street camera using the identification number of the street camera. For example, the storage unit 11 stores information indicating the position of the street camera associated with the street camera identification number. And the image data acquisition part 31 collates with the information which shows the position of the street camera stored in the memory | storage part 11 using the identification number of the street camera contained in the received image data, and transmitted the received image data Locate the street camera.

また、画像データ取得部31は、画像取得装置4にアクセスした日時、画像取得装置4から画像データを受信した日時、又は、画像取得装置4から受信した画像データを記憶部11に格納した日時を、該画像データの撮像日時と特定する。   The image data acquisition unit 31 also indicates the date and time when the image acquisition device 4 was accessed, the date and time when the image data was received from the image acquisition device 4, or the date and time when the image data received from the image acquisition device 4 was stored in the storage unit 11. The image data is identified as the imaging date and time.

他方、カメラ2が携帯端末カメラである場合、画像取得装置4は、例えば、携帯電話である。画像取得装置4が携帯電話である場合、通常、画像取得装置4は、該画像取得装置4のユーザによる操作等に基づいて、通信部3によってインターネット5へアクセスし、カメラ2を用いて撮像した画像データを情報処理装置1へ送信する。すなわち、該画像データの送信は、一般的に、該携帯端末カメラのユーザの望む任意のタイミングで行われる
On the other hand, when the camera 2 is a mobile terminal camera, the image acquisition device 4 is, for example, a mobile phone. When the image acquisition device 4 is a mobile phone, the image acquisition device 4 normally accesses the Internet 5 by the communication unit 3 based on an operation by the user of the image acquisition device 4 and takes an image using the camera 2. The image data is transmitted to the information processing apparatus 1. That is, the transmission of the image data is generally performed at an arbitrary timing desired by the user of the mobile terminal camera.

画像データ取得部31は、該任意のタイミングで送信されてくる画像データの受信まで待機し、又は、既に受信して記憶部11に既に格納されている画像データから、該携帯端末カメラにより撮像された画像データを取得する。   The image data acquisition unit 31 waits until reception of image data transmitted at the arbitrary timing, or is captured by the mobile terminal camera from image data that has already been received and stored in the storage unit 11. Acquired image data.

なお、画像取得装置4から情報処理装置1へ送信される、該携帯端末カメラを用いて撮像された画像データには、その属性情報として、携帯端末カメラによる撮像日時及びGPS(Global Positioning System)情報が含まれている。また、携帯端末カメラから情報
処理装置1へ送信される画像データには、その属性情報として、該携帯端末カメラのユーザ名、及び、該携帯端末カメラを操作することにより入力されたコメントが含まれていてもよい。該携帯端末カメラのユーザは、情報処理装置1に対して画像データを提供する者であり、以下、投稿者と呼ぶ。
It should be noted that image data transmitted from the image acquisition device 4 to the information processing device 1 and imaged using the mobile terminal camera includes, as its attribute information, the imaging date and time and GPS (Global Positioning System) information by the mobile terminal camera. It is included. Further, the image data transmitted from the mobile terminal camera to the information processing apparatus 1 includes the user name of the mobile terminal camera and a comment input by operating the mobile terminal camera as the attribute information. It may be. The user of the mobile terminal camera is a person who provides image data to the information processing apparatus 1 and is hereinafter referred to as a contributor.

画像データ取得部31は、画像データに含まれている該GPS情報を用いて、携帯端末カメラの位置を特定する。また、画像データ取得部31は、画像データに含まれている撮像日時を、該画像データの撮像日時と特定する。   The image data acquisition unit 31 specifies the position of the mobile terminal camera using the GPS information included in the image data. Further, the image data acquisition unit 31 specifies the imaging date / time included in the image data as the imaging date / time of the image data.

なお、該街頭カメラの位置を示す情報及びGPS情報は、本発明の画像の撮像位置を示す情報に相当する。   Note that the information indicating the position of the street camera and the GPS information correspond to information indicating the imaging position of the image of the present invention.

画像データ取得部31は、これらの処理によりカメラ2の位置を特定する。そして、情報処理装置1は、特定したカメラ2の位置に基づいて、該カメラ2により撮像された画像の撮像範囲及び撮像日時を特定する。なお、この撮像範囲の特定によって得られる情報は、例えば、「○○通り××一丁目交差点付近」等、大まかな情報でよい。   The image data acquisition unit 31 specifies the position of the camera 2 by these processes. Then, the information processing apparatus 1 specifies the imaging range and imaging date / time of the image captured by the camera 2 based on the identified position of the camera 2. Note that the information obtained by specifying the imaging range may be rough information such as “XX street XX near the 1-chome intersection”, for example.

<エッジの検出>
次に、図4に示されるとおり、画像データが取得されると、人物形状取得部32によって、画像データ取得部31によって取得された画像内のエッジの検出が行われる(S102)。図6Aは、当該処理により検出されるエッジを例示する。
<Edge detection>
Next, as shown in FIG. 4, when the image data is acquired, the human shape acquisition unit 32 detects edges in the image acquired by the image data acquisition unit 31 (S102). FIG. 6A illustrates the edges detected by the processing.

エッジの検出は、よく知られている方法によって行われる。人物形状取得部32は、例えば、ソーベル(Sobel)フィルタ又はプレヴィット(Prewitt)フィルタ等を用いた処理により画像内のエッジを検出する。   Edge detection is performed by a well-known method. The person shape acquisition unit 32 detects an edge in an image by a process using, for example, a Sobel filter or a Prewitt filter.

<人物形状の取得>
次に、図4に示されるとおり、人物形状取得部32は、人物テンプレートデータベース21に格納された人物形状のテンプレートと検出したエッジとを照合し、該エッジが、該画像内に含まれる人物のエッジか否か識別する。そして、人物形状取得部32は、画像内に含まれる人物のエッジと識別されたエッジを人物形状として取得する(S103)。図6Bは、当該処理により検出される人物形状を例示する。
<Acquisition of person shape>
Next, as shown in FIG. 4, the human shape acquisition unit 32 collates the human shape template stored in the human template database 21 with the detected edge, and the edge of the person included in the image is detected. Identify whether it is an edge. Then, the human shape acquisition unit 32 acquires an edge identified as the human edge included in the image as a human shape (S103). FIG. 6B illustrates the human shape detected by the processing.

上述のとおり、人物テンプレートデータベース21に格納された人物形状のテンプレートは、例えば、人物形状を示す図形データ、又は、人物形状から算出することができる特徴量である。   As described above, the human shape template stored in the human template database 21 is, for example, graphic data indicating a human shape or a feature amount that can be calculated from the human shape.

例えば、人物形状のテンプレートが図形データである場合、人物形状取得部32は、該図形データと検出したエッジをパターンマッチングし、該図形データと合致又は近似できるエッジを特定する。   For example, when the human shape template is graphic data, the human shape acquisition unit 32 performs pattern matching between the graphic data and the detected edge, and specifies an edge that can match or approximate the graphic data.

また、人物形状のテンプレートが特徴量である場合、人物形状取得部32は、検出したエッジから特徴量を算出する。当該算出する特徴量は、画像の一部を切り出した特徴量であるという意味で、局所特徴量とも呼ばれる。そして、人物形状取得部32は、エッジから算出した特徴量と人物形状のテンプレート(特徴量)とを比較し、人物形状のテンプレートと合致又は近似できるエッジを特定する。   When the human shape template is a feature amount, the human shape acquisition unit 32 calculates the feature amount from the detected edge. The calculated feature value is also called a local feature value in the sense that it is a feature value obtained by cutting out a part of an image. Then, the human shape acquisition unit 32 compares the feature amount calculated from the edge with the human shape template (feature amount), and specifies an edge that can match or approximate the human shape template.

ここで、画像内に含まれる人物のエッジには、被服の輪郭に該当するエッジと、被服に内在するエッジとが含まれると考えられる。被服に内在するエッジは、ボタン、ファスナー、模様等、被服に備わる器具又はデザイン等のエッジである。   Here, it is considered that the edges of the person included in the image include an edge corresponding to the outline of the clothes and an edge existing in the clothes. The edge inherent in the clothes is an edge of a tool, a design, or the like provided in the clothes such as a button, a fastener, or a pattern.

これに対して、人物形状のテンプレートは、被服に内在するエッジを考慮したデータ、すなわち、人物の輪郭に加えて、ボタン、ファスナー、模様等、被服に備わる器具又はデザイン等までテンプレート化したデータであるとは限らない。   On the other hand, a person-shaped template is data that takes into account the edges inherent in clothes, that is, data that is templated to buttons, fasteners, patterns, and other equipment or designs on clothes, in addition to the outline of a person. Not always.

例えば、人物形状のテンプレートが、被服に内在するエッジを考慮したデータではない場合、上記それぞれの処理によって人物形状のテンプレートと合致又は近似できるとして特定されたエッジには、通常、被服に内在するエッジは含まれない。しかし、この場合でも、上記それぞれの処理によって人物形状のテンプレートと合致又は近似できるとして特定されたエッジには、被服の輪郭に該当するエッジは含まれる。   For example, when the human-shaped template is not data that takes into account the edges inherent in the clothes, the edges specified as being able to match or approximate the human-shaped template by the above-described processes are usually edges existing in the clothes. Is not included. However, even in this case, the edges identified as being able to match or approximate the person-shaped template by the above processes include the edges corresponding to the outline of the clothes.

したがって、まず、人物形状取得部32は、上記それぞれの処理によって人物形状のテンプレートと合致又は近似できるとして特定されたエッジを、被服の輪郭に該当するエッジと特定する。また、人物形状取得部32は、当該被服の輪郭に該当するエッジによって特定される被服の輪郭に内在するエッジを、被服に内在するエッジと特定する。そして、人物形状取得部32は、上記それぞれの処理によって特定されたエッジ、すなわち、被服の輪郭に該当するエッジと被服の輪郭に内在するエッジとを、該画像内に含まれる人物のエッジと識別する。そして、人物形状取得部32は、これらのエッジの集合を人物形状として取得する。   Therefore, first, the person shape acquisition unit 32 specifies the edge specified as being able to match or approximate the person shape template by each of the above processes as the edge corresponding to the outline of the clothing. In addition, the person shape obtaining unit 32 identifies an edge existing in the outline of the clothing specified by the edge corresponding to the outline of the clothing as an edge existing in the clothing. Then, the person shape acquisition unit 32 identifies the edge specified by each of the above processes, that is, the edge corresponding to the outline of the clothes and the edge existing in the outline of the clothes from the edges of the person included in the image. To do. Then, the person shape acquisition unit 32 acquires a set of these edges as a person shape.

他方、人物形状のテンプレートが、被服に内在するエッジを考慮したデータである場合、上記それぞれの処理により人物形状のテンプレートと合致又は近似できるとして特定されたエッジには、被服の輪郭に該当するエッジと、被服に内在するエッジとが含まれる。よって、人物形状取得部32は、これらのエッジを、該画像内に含まれる人物のエッジと識別する。そして、人物形状取得部32は、これらのエッジの集合を人物形状として取得する。   On the other hand, when the person-shaped template is data that takes into account the edges inherent in the clothes, the edges identified as being able to match or approximate the person-shaped template by the above-described processing include edges corresponding to the outline of the clothes And edges inherent in the clothes. Therefore, the person shape acquisition unit 32 identifies these edges as the edges of the person included in the image. Then, the person shape acquisition unit 32 acquires a set of these edges as a person shape.

<人物の性別を推定>
次に、図4に示されるとおり、性別推定部33は、人物形状取得部32によって取得された人物形状から把握される、性別を推定可能な形状上の特徴に基づいて、該人物形状に係る人物の性別を推定する(S104)。
<Estimating the gender of a person>
Next, as shown in FIG. 4, the gender estimation unit 33 relates to the person shape based on the shape features that can be estimated from the person shape acquired by the person shape acquisition unit 32. The gender of the person is estimated (S104).

本実施形態では、性別推定部33は、まず、人物形状取得部32によって取得された人物形状から、性別を推定可能な形状上の特徴に係る値を算出する。該性別を推定可能な形状上の特徴に係る値とは、人物形状取得部32によって取得された人物形状から計測される長さを2つ用いた比率である。ここで、人物形状から計測される長さの例を、図7に示す。人物形状から計測される長さとは、例えば、人物形状に係る身長に対応する長さ(図7における矢印50)、頭部幅に対応する長さ(図7における矢印51)、肩幅に対応する長さ(図7における矢印52)、又は、腕の長さに対応する長さ(図7における矢印53)である。人物形状取得部32は、これら人物形状から計測される長さを少なくとも2つ計測し、計測した少なくとも2つの長さを用いて、例えば、身長に対する肩幅、又は、
肩幅に対する頭部幅等の比率を算出する。
In the present embodiment, the gender estimation unit 33 first calculates a value related to the feature on the shape from which the gender can be estimated from the human shape acquired by the human shape acquisition unit 32. The value related to the shape feature that can estimate the gender is a ratio using two lengths measured from the person shape acquired by the person shape acquisition unit 32. Here, an example of the length measured from the person shape is shown in FIG. The length measured from the human shape corresponds to, for example, a length corresponding to the height related to the human shape (arrow 50 in FIG. 7), a length corresponding to the head width (arrow 51 in FIG. 7), and a shoulder width. It is the length (arrow 52 in FIG. 7) or the length corresponding to the length of the arm (arrow 53 in FIG. 7). The human shape acquisition unit 32 measures at least two lengths measured from these human shapes, and uses, for example, at least two measured lengths, for example, a shoulder width with respect to height, or
Calculate the ratio of head width to shoulder width.

そして、性別推定部33は、該算出した値を閾値と比較することで該人物形状に係る人物の性別を推定する。該閾値は、記憶部11に格納されたプログラム等によって予め設定される。例えば、厚生労働省が実施する国民健康調査によって発表される性別ごとの平均身長等の値を用いて算出することができる、男性の比率の平均値と女性の比率の平均値との中央値等が、該閾値として設定される。   And the sex estimation part 33 estimates the sex of the person who concerns on this person shape by comparing this calculated value with a threshold value. The threshold is set in advance by a program or the like stored in the storage unit 11. For example, the median of the average value of male ratio and the average value of female ratio, etc., which can be calculated using the average height of each gender published by the National Health Survey conducted by the Ministry of Health, Labor and Welfare, etc. Are set as the threshold values.

また、本実施形態では、人物テンプレートデータベース21に格納された人物形状のテンプレートが、性別を推定可能な形状上の特徴を含む、性別ごとに異なるデータである場合がある。この時、性別推定部33は、前記人物形状取得部32において、いずれの性別に係る人物形状のテンプレートにより、画像内において検出されるエッジが該人物形状に係るエッジであると識別されたかを判定することで、該人物形状に係る人物の性別を推定する。   In the present embodiment, the person-shaped template stored in the person template database 21 may be different data for each gender, including features on the shape for which gender can be estimated. At this time, the gender estimation unit 33 determines in the human shape acquisition unit 32 whether the edge detected in the image is identified as the edge related to the human shape by using the human shape template related to any gender. Thus, the gender of the person related to the person shape is estimated.

性別を推定可能な形状上の特徴を含む、性別ごとに異なるデータとは、例えば、男性及び女性それぞれの、平均身長に対する平均肩幅の比率、及び、平均肩幅に対する平均頭部幅の比率を適用した性別ごとに異なる人物形状のテンプレートである。すなわち、本実施形態の別の形態における人物形状のテンプレートは、性別ごとに用意された、性別間で差の出る形状に関する身体的特徴を含むデータである。   For example, the ratio of the average shoulder width to the average height and the ratio of the average head width to the average shoulder width of each male and female is applied to the data that differs by gender, including the shape features that can estimate gender. It is a template with a different person shape for each gender. In other words, the person-shaped template in another form of the present embodiment is data including physical characteristics regarding a shape that is different for each gender and is prepared for each gender.

<人物の服装を推定>
次に、図4に示されるとおり、被服推定部34は、被服テンプレートデータベース22に格納された被服データに含まれる被服形状と人物形状取得部32によって取得された人物形状とを照合することにより、該人物形状に係る人物が着用している被服の種類を推定する(S105)。図8は、当該処理を例示する。
<Estimating the clothes of a person>
Next, as shown in FIG. 4, the clothing estimation unit 34 collates the clothing shape included in the clothing data stored in the clothing template database 22 with the person shape acquired by the person shape acquisition unit 32, The type of clothes worn by the person related to the person shape is estimated (S105). FIG. 8 illustrates the process.

図8に示されるとおり、本実施形態では、被服推定部34は、被服の着用箇所(上半身と下半身)毎に、人物が着用している被服の種類を推定する。したがって、本実施形態では、被服推定部34は、上半身に着用される被服の被服形状と下半身に着用される被服の被服形状とを分けて、人物形状に照合する。   As shown in FIG. 8, in the present embodiment, the clothing estimation unit 34 estimates the type of clothing worn by a person for each place where the clothing is worn (upper body and lower body). Accordingly, in the present embodiment, the clothing estimation unit 34 divides the clothing shape of the clothing worn on the upper body and the clothing shape of the clothing worn on the lower body, and collates them with the person shape.

ここで、各被服形状と人物形状の照合については、人物形状取得部32によって行われる、人物形状のテンプレートと画像内に存在するエッジとの照合と同様に説明可能である。したがって、説明を省略する。他方、人物形状取得部32によって行われる照合とは、上半身と下半身に分けて別のデータが用いられる点において異なる。この異なる点について、以下説明する。   Here, the matching of each clothing shape and the person shape can be explained in the same manner as the matching of the person shape template and the edge existing in the image, which is performed by the person shape acquisition unit 32. Therefore, the description is omitted. On the other hand, the verification performed by the person shape acquisition unit 32 is different in that different data is used for the upper body and the lower body. This difference will be described below.

まず、被服推定部34は、人物形状取得部32によって取得された人物形状それぞれと照合するための被服形状を記憶部11から取得する。この時、性別推定部33の処理(S104)によって、該人物形状に係る人物の性別は推定されている。従って、被服推定部34は、各人物形状に対して推定されている性別と着用箇所に基づいて、被服形状を記憶部11から取得する。   First, the clothing estimation unit 34 acquires from the storage unit 11 a clothing shape for collation with each of the human shapes acquired by the human shape acquisition unit 32. At this time, the gender of the person related to the person shape is estimated by the process of the gender estimation unit 33 (S104). Therefore, the clothing estimation unit 34 acquires the clothing shape from the storage unit 11 based on the gender and the wearing location estimated for each person shape.

例えば、人物形状に係る人物の性別が男性であり、被服推定部34が、当該人物の上半身の服装を推定するとする。この時、被服推定部34は、性別フィールドに「男性」を格納し、着用箇所フィールドに「上半身」を格納した被服データを被服テンプレートデータベース21から取得する。そして、被服推定部34は、取得した被服データに含まれる図形フィールドに格納又は示される被服形状を記憶部11から取得する。   For example, it is assumed that the gender of the person related to the person shape is male, and the clothing estimation unit 34 estimates the clothing of the upper body of the person. At this time, the clothing estimation unit 34 acquires clothing data in which “male” is stored in the gender field and “upper body” is stored in the wearing location field from the clothing template database 21. Then, the clothing estimation unit 34 acquires the clothing shape stored or shown in the graphic field included in the acquired clothing data from the storage unit 11.

次に、被服推定部34は、人物形状に係る人物の性別及び被服の着用箇所別に取得した被服形状と人物形状とを照合し、人物形状と合致又は近似できる被服形状を着用箇所別に特定する。そして、被服推定部34は、着用箇所ごとに、該人物形状に係る人物の着用している被服の種類を、該照合によって特定した被服形状に係る被服データに格納された被服の種類に関する情報により推定する。   Next, the clothing estimation unit 34 compares the clothing shape acquired for each person's gender related to the person's shape and the clothing wear location with the person shape, and identifies a clothing shape that matches or approximates the person shape for each wear location. Then, the clothing estimation unit 34 uses the information on the type of clothing stored in the clothing data related to the clothing shape identified by the collation for the type of clothing worn by the person related to the person shape for each wearing location. presume.

なお、人物形状に対して被服形状を照合する方法は、任意でよい。本実施形態では、図8に示されるとおり、被服推定部34は、人物形状から、人物が上半身に着用している被服に係るエッジと、人物が下半身に着用している被服に係るエッジとを特定する。そして、被服推定部34は、該特定したエッジ(人物形状)と被服形状とを着用箇所別に照合する。これにより、被服推定部34は、上半身に着用している被服に係るエッジと合致又は近似できる被服形状、及び、下半身に着用している被服に係るエッジと合致又は近似できる被服形状を特定する。そして、被服推定部34は、上半身及び下半身において特定した被服形状に係る被服データに格納された被服の種類に関する情報により、該人物形状に係る人物の着用している被服の種類をそれぞれ推定する。   In addition, the method of collating a clothing shape with a person shape may be arbitrary. In the present embodiment, as shown in FIG. 8, the clothing estimation unit 34 determines, from a person shape, an edge related to clothing worn by a person on the upper body and an edge related to clothing worn by a person on the lower body. Identify. And the clothing estimation part 34 collates this specified edge (person shape) and clothing shape for every wear location. Thus, the clothing estimation unit 34 specifies a clothing shape that can match or approximate the edge related to the clothing worn on the upper body and a clothing shape that can match or approximate the edge related to the clothing worn on the lower body. Then, the clothing estimation unit 34 estimates the type of clothing worn by the person related to the person shape based on the information about the type of clothing stored in the clothing data related to the clothing shape specified in the upper body and the lower body.

なお、被服の輪郭は、着用している被服がロングコートである等特別な場合を除いて、上半身と下半身とで分かれている。被服推定部34は、例えば、この上半身と下半身とを分ける被服の輪郭に基づいて、人物形状から、人物が上半身に着用している被服に係るエッジと、人物が下半身に着用している被服に係るエッジとを特定する。   The outline of the clothing is divided into an upper body and a lower body, except in special cases such as when the clothing being worn is a long coat. For example, based on the outline of the clothing that separates the upper body and the lower body, the clothing estimation unit 34 applies an edge relating to the clothing worn by the person to the upper body and the clothing worn by the person on the lower body from the shape of the person. Such an edge is specified.

また、人物形状に対して被服形状を照合する方法の一例として、人物形状の領域に関する割合を用いる方法が考えられる。すなわち、被服推定部34は、人物の頭部側を上部として、人物形状の上端から下端までの長さに対して、人物形状の上部所定の割合の領域を上半身と仮定し、人物形状の下部所定の割合の領域を下半身と仮定して、それぞれの領域に被服形状を照合してもよい。   In addition, as an example of a method for matching the clothing shape against the human shape, a method using a ratio related to the human shape region is conceivable. That is, the clothing estimation unit 34 assumes that the upper part of the person shape is an upper body with respect to the length from the upper end to the lower end of the person shape with the head side of the person as the upper part, and the lower part of the person shape. Assuming a predetermined proportion of the region as the lower body, the clothing shape may be collated with each region.

この時、被服推定部34は、例えば、人物形状取得部32によって取得された人物形状の上部55%の領域を上半身の領域、下部45%の領域を下半身の領域と仮定する。そして、被服推定部34は、上半身に係る被服形状と、上半身と仮定した領域に係る人物形状と、を照合する。また、被服推定部34は、下半身に係る被服形状と、下半身と仮定した領域に係る人物形状と、を照合する。   At this time, for example, the clothing estimation unit 34 assumes that the upper 55% region of the human shape acquired by the human shape acquisition unit 32 is the upper body region and the lower 45% region is the lower body region. Then, the clothing estimation unit 34 collates the clothing shape relating to the upper body with the human shape relating to the region assumed to be the upper body. Also, the clothing estimation unit 34 collates the clothing shape relating to the lower body with the human shape relating to the region assumed to be the lower body.

なお、上半身と仮定された領域と下半身と仮定された領域は完全に分けられた領域でなくてもよい。つまり、上半身と仮定された領域と下半身と仮定された領域とは、重なりあっていてもよい。   Note that the region assumed to be the upper body and the region assumed to be the lower body may not be completely separated. That is, the region assumed to be the upper body and the region assumed to be the lower body may overlap.

また、人物形状に対して被服形状を照合する方法の一例として、人物形状においてあらかじめ定められた位置を着用箇所の基準として人物形状と被服形状とを照合する方法が考えられる。すなわち、被服推定部34は、人物の頭部側を上部として、人物形状のあらかじめ定められた位置を着用箇所の基準として、それぞれの被服形状と人物形状とを照合してもよい。   In addition, as an example of a method for collating the clothing shape with the human shape, a method of collating the human shape with the clothing shape using a predetermined position in the human shape as a reference for the wearing part is conceivable. That is, the clothing estimation unit 34 may collate each clothing shape with the person shape with the head side of the person as the upper part and a predetermined position of the person shape as a reference for the wearing part.

この時、被服推定部34は、例えば、人物形状取得部32によって取得された人物形状の上端から下端までの長さを100%とし、人物形状の上端から該人物形状の割合12%下方の位置を上半身の基準としてもよい。そして、被服推定部34は、上半身に係る被服形状の上端を該基準の位置に合わせて、被服形状と人物形状とを照合してもよい。なお、前記12%という設定値は、人物形状における当該割合に係る領域が人物形状の頭部に該当する領域であることが考慮されて設定された値であり、任意に設定可能である。   At this time, for example, the clothing estimation unit 34 sets the length from the upper end to the lower end of the human shape acquired by the human shape acquisition unit 32 as 100%, and the position below the human shape ratio 12% from the upper end of the human shape. May be used as a reference for the upper body. Then, the clothing estimation unit 34 may collate the clothing shape with the human shape by matching the upper end of the clothing shape of the upper body with the reference position. The set value of 12% is a value set in consideration that the region related to the ratio in the human shape is a region corresponding to the head of the human shape, and can be arbitrarily set.

また、被服推定部34は、例えば、人物形状取得部32によって取得された人物形状の上端から下端までの長さを100%とし、人物形状取得部32によって取得された人物形状の下端から該人物形状の割合5%上方の位置を下半身の基準としてもよい。そして、被服推定部34は、下半身に係る被服形状の下端を該基準の位置に合わせて、被服形状と人物形状とを照合してもよい。なお、前記5%という設定値は、人物形状における当該割合に係る領域が人物形状の下肢のうち足に該当する領域であることが考慮されて設定された値であり、任意に設定可能である。   For example, the clothing estimation unit 34 sets the length from the upper end to the lower end of the human shape acquired by the human shape acquisition unit 32 as 100%, and the person from the lower end of the human shape acquired by the human shape acquisition unit 32. A position that is 5% above the shape ratio may be used as a reference for the lower body. Then, the clothing estimation unit 34 may collate the clothing shape with the human shape by aligning the lower end of the clothing shape relating to the lower body with the reference position. The set value of 5% is a value set in consideration that the area related to the ratio in the human shape is an area corresponding to the foot of the lower limbs of the human shape, and can be arbitrarily set. .

また、人物形状に対して被服形状を照合する方法の一例として、人物形状に対して被服形状を照合する位置をずらしながら繰り返し照合を行う方法が考えられる。すなわち、被服推定部34は、人物の頭部側を上部として、人物形状の上端から所定の間隔ごとに被服形状の上端を下方へずらしながら、被服形状と人物形状とを照合してもよい。   Further, as an example of a method for collating the clothing shape with the human shape, a method of repeatedly performing the collation while shifting the position where the clothing shape is collated with respect to the human shape is conceivable. That is, the clothing estimation unit 34 may collate the clothing shape with the human shape while shifting the upper end of the clothing shape downward at predetermined intervals from the upper end of the human shape with the head side of the person as the upper part.

なお、被服推定部34は、人物の頭部側を上部として、人物形状の下端から所定の間隔ごとに上方へ被服形状の下端をずらしながら、被服形状と人物形状とを照合してもよい。   The clothing estimation unit 34 may collate the clothing shape with the human shape while shifting the lower end of the clothing shape upward at predetermined intervals from the lower end of the human shape with the head side of the person as the upper part.

また、人物形状に対して被服形状を照合する方法の一例として、人物形状に対する領域判定の情報を用いる方法が考えられる。すなわち、人物形状内において、上半身の領域と下半身の領域とが判定されていてもよい。そして、被服推定部34は、当該判定された領域にそれぞれ被服形状を照合してもよい。なお、該人物形状に係る領域の判定は、例えば、人物形状取得部32の処理(S103)時に行われる。   Further, as an example of a method for matching the clothing shape against the human shape, a method using region determination information for the human shape is conceivable. That is, the upper body region and the lower body region may be determined in the person shape. Then, the clothing estimation unit 34 may collate the clothing shapes with the determined areas. The determination of the area related to the person shape is performed, for example, during the process (S103) of the person shape acquisition unit 32.

この時、例えば、人物テンプレートデータベース21に格納された人物形状のテンプレートに上半身の領域と下半身の領域が設定されている。そして、人物形状取得部32は、人物形状のテンプレートと合致又は近似できるエッジを特定した後、該人物形状のテンプレートに設定されている上半身の領域に係るエッジを人物形状内の上半身の領域と判定する。また、人物形状取得部32は、該人物形状のテンプレートに設定されている下半身の領域に係るエッジを人物形状内の下半身の領域と判定する。   At this time, for example, an upper body region and a lower body region are set in a person-shaped template stored in the person template database 21. Then, after identifying an edge that can match or approximate the human shape template, the human shape acquisition unit 32 determines that the edge related to the upper body region set in the human shape template is the upper body region in the human shape. To do. Further, the person shape acquisition unit 32 determines an edge relating to the lower body region set in the human shape template as the lower body region in the person shape.

なお、本実施形態における人物形状のテンプレートは、該人物の姿勢及び撮像された方向等の状態を反映した2次元のシルエットである場合がある。この時、被服推定部33は、人物形状取得部32において、いずれの人物状態を反映した人物形状のテンプレートにより、画像内において検出されるエッジが該人物形状に係るエッジであると識別されたかを判定してもよい。そして、被服推定部33は、当該判定により、該人物形状に係る人物の状態に関する情報を取得してもよい。この人物の状態に関する情報には、該人物形状に係る人物の姿勢及び撮像された方向等の情報が含まれうる。被服推定部33は、被服テンプレートデータベース22から被服データを取得する時、当該情報を用いてもよい。例えば、人物の状態に関する情報に、該人物形状に係る人物の撮像された方向の情報が含まれる場合、被服推定部33は、該人物形状に係る人物の撮像された方向の情報と向きフィールドに格納されている情報とが一致する被服データを被服テンプレートデータベース22からしてもよい。   It should be noted that the person-shaped template in this embodiment may be a two-dimensional silhouette that reflects the state of the person, the captured direction, and the like. At this time, the clothing estimation unit 33 determines whether the edge detected in the image is identified as the edge related to the human shape by the human shape template reflecting any human state in the human shape acquisition unit 32. You may judge. And the clothing estimation part 33 may acquire the information regarding the state of the person who concerns on this person shape by the said determination. The information related to the state of the person can include information such as the posture of the person related to the person shape and the imaged direction. The clothing estimation unit 33 may use the information when obtaining clothing data from the clothing template database 22. For example, when the information on the person's state includes information on the direction in which the person related to the person shape is captured, the clothing estimation unit 33 uses the information on the direction in which the person related to the person shape is captured in the direction field. Clothing data that matches the stored information may be obtained from the clothing template database 22.

<人数の集計>
次に、図4に示されるとおり、被服傾向算出部35は、性別推定部33及び被服推定部34により推定された性別及び被服の種類に基づいて、該性別及び被服の種類別に、画像データ取得部31により取得された画像に含まれる人数を集計する(S106)。
<Total number of people>
Next, as shown in FIG. 4, the clothing trend calculation unit 35 acquires image data for each gender and type of clothing based on the gender and the type of clothing estimated by the gender estimation unit 33 and the clothing estimation unit 34. The number of persons included in the image acquired by the unit 31 is totaled (S106).

なお、被服傾向算出部35は、被服推定部34が人物形状の被服の種類を推定する度にカウントすることで、該性別及び被服の種類別に、画像データ取得部31により取得された画像に含まれる人数を集計してもよい。すなわち、S106の処理は、S105の処理
と並列して実行されてもよい。
The clothing tendency calculation unit 35 counts each time the clothing estimation unit 34 estimates the type of clothing in the shape of a person, so that it is included in the image acquired by the image data acquisition unit 31 for each gender and type of clothing. You may count the number of people. That is, the process of S106 may be executed in parallel with the process of S105.

ここで、本実施形態における被服の種類は、上述のとおり、被服データの袖フィールドに格納された被服の袖に関する情報及び被服データの品名フィールドに格納された被服の品名を示す情報のうち少なくとも一方を用いることで特定される。   Here, as described above, the type of clothing in this embodiment is at least one of the information on the sleeve of the clothing stored in the sleeve field of the clothing data and the information indicating the product name of the clothing stored in the product name field of the clothing data. It is specified by using.

なお、被服傾向算出部35は、複数の「被服の種類」を用意し、各「被服の種類」を別々に、カメラの撮像範囲における性別及び被服の種類別の人数を集計してもよい。例えば、本実施形態では、被服傾向算出部35は、被服の袖に関する情報に基づく集計と、被服の品名を示す情報に基づく集計とを別々に行ってもよい(後述する図9参照)。   The clothing tendency calculation unit 35 may prepare a plurality of “clothing types” and count the number of each “clothing type” separately for each gender and clothing type in the imaging range of the camera. For example, in the present embodiment, the clothing trend calculation unit 35 may separately perform aggregation based on information about clothes sleeves and aggregation based on information indicating the names of clothes (see FIG. 9 described later).

<服装の比率を算出>
次に、被服傾向算出部35は、該性別及び被服の種類別に集計した人数と性別ごとの人数とに基づいて、該性別ごとの人数における各種類の被服を着用している人数の比率を算出する(S107)。
<Calculation ratio>
Next, the clothing trend calculation unit 35 calculates the ratio of the number of people wearing each type of clothing in the number of people for each gender based on the number of people counted for each gender and type of clothing and the number of people for each gender. (S107).

まず、被服傾向算出部35は、画像内の人物であって、人物形状取得部32によって取得された人物形状に係る人物の性別ごとの総数(男性の総数と女性の総数)を求める。   First, the clothing tendency calculation unit 35 obtains the total number (the total number of men and the total number of women) for each gender of the person in the image and related to the person shape acquired by the person shape acquisition unit 32.

例えば、被服傾向算出部35は、性別推定部33による性別の推定に基づいて、性別ごとの人物の総数を求める。なお、この処理は、性別推定部33によって行われてもよい。すなわち、S104の処理において、性別推定部33が、人物形状取得部32によって取得された人物形状に係る人物の性別を推定する度に、男性と推定した人数と、女性と推定した人数と、をカウントすることで、性別ごとの人物の総数を求めてもよい。   For example, the clothing tendency calculation unit 35 obtains the total number of persons for each gender based on gender estimation by the gender estimation unit 33. This process may be performed by the gender estimating unit 33. That is, in the process of S104, each time the gender estimating unit 33 estimates the gender of the person related to the person shape acquired by the person shape acquiring unit 32, the number of persons estimated to be male and the number of persons estimated to be female are By counting, the total number of persons for each gender may be obtained.

そして、被服傾向算出部35は、例えば、S106の処理において求めた、性別及び被服の種類別に集計した人数を、性別ごとの人物の総数で割ることによって、各種類の被服を着用している人数の性別ごとの人数に対する比率を算出する。   And the clothing tendency calculation part 35 is the number of people who wear each kind of clothes, for example by dividing the number of persons totaled according to the sex and the kind of clothes calculated | required in the process of S106 by the total number of the persons for every sex. Calculate the ratio of the number of people for each gender.

なお、当該比率の算出が、複数の被服の種類において行われてもよいことは、上記「<人数の集計>」と同様である。   Note that the calculation of the ratio may be performed for a plurality of clothing types, as in the above “<Total number of people>”.

<エンド>
最後に、制御部12は、例えば、服装傾向算出部35が求めた、性別及び被服の種類別に集計した人数、及び、性別ごとに算出した各種類の被服を着用している人数の比率の情報を画像データに対応付けて記憶部11に保存する。これにより、情報処理装置1は、処理を終了する(S108)。
<End>
Finally, for example, the control unit 12 obtains information on the ratio of the number of people wearing each type of clothing calculated for each gender and the number of people counted by sex and the type of clothing obtained by the clothing trend calculation unit 35. Are stored in the storage unit 11 in association with the image data. Thereby, the information processing apparatus 1 ends the process (S108).

なお、制御部12は、画像データ取得部31が特定した撮像範囲及び撮像日時の情報も画像データに対応付ける。これによって、記憶部11に保存された画像データに対して、撮像範囲及び撮像日時のうち少なくとも一方を指定した検索を行うことが可能となる。そして、ユーザは、撮像範囲及び撮像日時のうち少なくとも一方により特定される画像内に存在する人物についての、性別及び被服の種類別に集計した人数、及び、性別ごとの算出した各種類の被服を着用している人数の比率の情報を知ることが可能となる。なお、以下、当該情報を服装傾向の情報と記載する。   Note that the control unit 12 also associates information on the imaging range and imaging date and time specified by the image data acquisition unit 31 with the image data. Accordingly, it is possible to perform a search for specifying at least one of the imaging range and the imaging date / time for the image data stored in the storage unit 11. And the user wears each type of clothing calculated for each gender and the number of people counted in the gender and the type of clothing in the image specified by at least one of the imaging range and the imaging date and time. It becomes possible to know the information of the ratio of the number of people who are doing. Hereinafter, this information is referred to as clothing trend information.

また、画像データ取得部31が取得した画像データが携帯端末カメラにより撮像された画像データである場合、当該画像データの属性情報にはユーザ名及びコメントが含まれている場合がある。制御部12は、このユーザ名及びコメントの情報をそのまま画像データの属性情報として記憶部11に格納してもよい。これによって、ユーザは、服装傾向の情
報に加えて、投稿者のコメントを知ることが可能となる。
When the image data acquired by the image data acquisition unit 31 is image data captured by a mobile terminal camera, the attribute information of the image data may include a user name and a comment. The control unit 12 may store the user name and comment information as they are in the storage unit 11 as image data attribute information. Thereby, the user can know the comment of the poster in addition to the information on the clothing tendency.

§4 実施の形態に係る作用及び効果
以上によれば、本実施形態に係る情報処理装置1では、まず、画像データ取得部31によってカメラ2を用いて撮像された画像データが撮像範囲及び撮像日時を特定して取得される。そして、人物形状取得部32によって、取得された画像から人物形状が取得される。続いて、性別推定部33によって、人物形状取得部32が取得した人物形状に係る人物の性別が、人物形状から把握される、性別を推定可能な形状上の特徴を用いることで推定される。また、被服推定部34による服装形状と人物形状との照合によって、人物形状取得部32が取得した人物形状に係る人物の着用している被服の種類が推定される。更に、被服傾向算出部35によって、服装傾向(人物の性別及び服装に関する情報)が算出される。
§4 Actions and effects according to the embodiment As described above, in the information processing apparatus 1 according to the present embodiment, first, the image data acquired by the image data acquisition unit 31 using the camera 2 includes the imaging range and the imaging date and time. Is identified and acquired. Then, the human shape acquisition unit 32 acquires a human shape from the acquired image. Subsequently, the gender of the person related to the person shape acquired by the person shape acquisition unit 32 is estimated by the gender estimation unit 33 by using the shape features that can be estimated from the person shape. In addition, the type of clothing worn by the person related to the person shape acquired by the person shape acquisition unit 32 is estimated by collating the clothing shape and the person shape by the clothing estimation unit 34. Furthermore, the clothing tendency calculation unit 35 calculates the clothing tendency (information on the gender and clothes of the person).

したがって、本実施形態では、形状に基づいた照合及び比較のみで服装傾向が算出されるため、簡易な方法で、カメラ2により撮像された画像内に存在する人物の性別及び服装に関する情報を取得することが可能である。   Therefore, in this embodiment, since the clothing tendency is calculated only by collation and comparison based on the shape, information on the gender and clothing of the person existing in the image captured by the camera 2 is acquired by a simple method. It is possible.

§5 変形例
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。
§5 Modifications Embodiments of the present invention have been described in detail above. However, the above description is merely an example of the present invention in all respects and is not intended to limit the scope thereof. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention.

例えば、画像データに対応付けられて記憶部11に保存された服装傾向の情報は、インターネット5を介してユーザ端末に提供されてもよい。   For example, the information on the clothing tendency associated with the image data and stored in the storage unit 11 may be provided to the user terminal via the Internet 5.

この時、ユーザ端末のユーザは、ユーザ端末のインタフェースを介して、場所と日時を指定する。該指定に基づいて、ユーザ端末は、情報処理装置1に対して、場所と日時を指定した、服装傾向の情報の提供を要求する。   At this time, the user of the user terminal designates the location and the date and time via the user terminal interface. Based on the designation, the user terminal requests the information processing apparatus 1 to provide information on the clothing trend specifying the location and the date and time.

情報処理装置1は、この要求を受信すると、指定されている場所及び日時に基づいて、服装傾向の情報を記憶部11から取得する。そして、情報処理装置1は、取得した服装傾向の情報をユーザ端末に返信する。なお、投稿者のユーザ名及びコメントの情報が存在する場合、情報処理装置1は、これらの情報も服装傾向の情報に合わせて返信する。図9は、服装の傾向を受信したユーザ端末に表示される情報の例である。図9に示される例では、撮像範囲、撮像日時、各種類の被服を着用している人数の性別ごとの人数に対する比率(被服の袖に関する情報に基づくもの、及び、被服の品名を示す情報に基づくもの)、投稿者のユーザ名及びコメントが表示されている。   When the information processing apparatus 1 receives this request, the information processing apparatus 1 acquires clothes trend information from the storage unit 11 based on the designated location and date. Then, the information processing apparatus 1 returns the acquired clothes tendency information to the user terminal. In addition, when there is information on the user name and comment of the poster, the information processing apparatus 1 returns these information in accordance with the clothing trend information. FIG. 9 is an example of information displayed on a user terminal that has received a clothing trend. In the example shown in FIG. 9, the imaging range, imaging date and time, the ratio of the number of people wearing each type of clothing to the number of people for each gender (based on information about clothing sleeves, and information indicating the name of clothing) The user name and comment of the poster.

また、例えば、これらの情報は、撮像範囲及び撮像日時が特定されているので、地図情報、公共機関の乗り換え情報、天気予報情報、又は旅行情報等の情報提供サービスと合わせて提供されてもよい。   Further, for example, since the imaging range and the imaging date / time are specified, these pieces of information may be provided together with information providing services such as map information, public institution transfer information, weather forecast information, or travel information. .

これによって、本変形例では、特定地点に行こうとするユーザに対して、該特定地点における服装傾向の情報を提供することができる。また、本変形例では、ユーザは、当該服装傾向の情報を通して、自身の生活を快適にすることが可能となる。   Thereby, in this modification, it is possible to provide information on clothing trends at a specific point to a user who intends to go to the specific point. Moreover, in this modification, the user can make his / her life comfortable through the information on the clothing tendency.

§6 補足
本発明は、特許請求の範囲によってのみその範囲が解釈される。また、当業者は、上記本実施形態の記載から、特許請求の範囲の記載および技術常識に基づいて等価な範囲を実施することができる。また、本明細書において使用される用語は、特に言及しない限り、
当該分野で通常用いられる意味で用いられる。したがって、他に定義されない限り、本明細書中で使用される全ての専門用語および技術用語は、本発明の属する分野の当業者によって一般的に理解される意味と同じ意味を有する。両者が矛盾する場合、本明細書において使用される用語は、本明細書(定義を含めて)に記載された意味において理解される。
§6 Supplement The scope of the present invention is interpreted only by the claims. Moreover, those skilled in the art can implement an equivalent range from the description of the present embodiment based on the description of the claims and the common general technical knowledge. The terms used in this specification are as follows unless otherwise specified.
Used in the meaning normally used in the field. Thus, unless defined otherwise, all technical and technical terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. In the event of a conflict, terms used herein will be understood in the meaning set forth herein (including definitions).

1 情報処理装置
2 カメラ
3 通信部
4 画像取得装置
5 インターネット
11 記憶部
12 制御部
13 バス
14 入出力部
21 人物テンプレートデータベース
22 被服テンプレートデータベース
31 画像データ取得部
32 人物形状取得部
33 性別推定部
34 被服推定部
35 被服傾向算出部
DESCRIPTION OF SYMBOLS 1 Information processing apparatus 2 Camera 3 Communication part 4 Image acquisition apparatus 5 Internet 11 Memory | storage part 12 Control part 13 Bus 14 Input / output part 21 Person template database 22 Clothing template database 31 Image data acquisition part 32 Person shape acquisition part 33 Gender estimation part 34 Clothing estimation unit 35 Clothing tendency calculation unit

Claims (8)

人物形状のひな形と、被服の種類ごとに用意された被服形状と、を格納する記憶部と、
カメラを用いて撮像された画像内において検出されるエッジを前記ひな形と照合することにより、該エッジが、該画像内に含まれる人物のエッジか否かを識別し、
前記人物ごとに、該画像内に含まれる人物のエッジと識別されたエッジを人物形状として取得し、
前記人物形状から把握される、性別を推定可能な形状上の特徴に基づいて、前記人物形状に係る人物の性別を推定し、
前記被服の種類ごとに用意された被服形状と前記人物形状とを照合することにより、前記人物形状に係る人物が着用している被服の種類を推定し、
前記推定された性別及び被服の種類に基づいて、該性別及び被服の種類別に、前記画像に含まれる人数を集計する制御部と、
を備えることを特徴とする情報処理装置。
A storage unit for storing a person-shaped template and a clothing shape prepared for each type of clothing;
Identifying whether the edge is the edge of a person included in the image by matching an edge detected in the image captured using the camera with the template,
For each person, an edge identified as the edge of the person included in the image is acquired as a person shape,
Estimating the gender of the person related to the person shape based on the shape characteristics that can be estimated from the person shape, gender,
By comparing the clothing shape prepared for each type of clothing with the person shape, estimating the type of clothing worn by the person related to the person shape,
Based on the estimated gender and type of clothing, a control unit that counts the number of people included in the image for each gender and type of clothing,
An information processing apparatus comprising:
前記制御部は、前記人物形状から、前記性別を推定可能な形状上の特徴に係る値を算出し、該算出した値を閾値と比較することで前記人物形状に係る人物の性別を推定する請求項1に記載の情報処理装置。   The control unit calculates a value related to a shape feature capable of estimating the sex from the person shape, and estimates the gender of the person related to the person shape by comparing the calculated value with a threshold value. Item 4. The information processing apparatus according to Item 1. 前記性別を推定可能な形状上の特徴に係る値は、前記人物形状から計測される長さを2つ用いた比率であることを特徴とする請求項2に記載の情報処理装置。   The information processing apparatus according to claim 2, wherein the value related to the feature on the shape capable of estimating the gender is a ratio using two lengths measured from the person shape. 前記人物形状のひな形は、前記性別を推定可能な形状上の特徴を含む、性別ごとに異なるひな形であり、
前記制御部は、いずれの性別に係るひな形により、前記画像内において検出されるエッジが前記人物形状に係るエッジであると識別されたかを判定することで、前記人物形状に係る人物の性別を推定することを特徴とする請求項1に記載の情報処理装置。
The human-shaped template is a different template for each gender, including a shape feature that allows the gender to be estimated.
The control unit determines the gender of the person related to the person shape by determining whether the edge detected in the image is identified as the edge related to the person shape by using a template related to which gender. The information processing apparatus according to claim 1, wherein estimation is performed.
前記制御部は、前記画像の撮像位置を示す情報により画像の撮像範囲を特定し、該画像の撮像範囲における前記性別及び被服の種類別の人数を集計することを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。   The control unit identifies an image capturing range based on information indicating an image capturing position of the image, and totals the number of persons according to the sex and the type of clothing in the image capturing range. The information processing apparatus according to any one of the above. 前記制御部は、前記性別及び被服の種類別に集計した人数と前記性別ごとの人数とに基づいて、前記性別ごとの人数における各種類の被服を着用している人数の比率を算出することを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。   The control unit calculates a ratio of the number of people wearing each type of clothing in the number of people for each gender based on the number of people for each sex and the number of people for each sex. The information processing apparatus according to any one of claims 1 to 5. 人物形状のひな形と、被服の種類ごとに用意された被服形状と、を格納する記憶部を備えたコンピュータが、
カメラを用いて撮像された画像内において検出されるエッジを前記ひな形と照合することにより、該エッジが、該画像内に含まれる人物のエッジか否かを識別するステップと、
前記人物ごとに、該画像内に含まれる人物のエッジと識別されたエッジを人物形状として取得するステップと、
前記人物形状から把握される、性別を推定可能な形状上の特徴に基づいて、前記人物形状に係る人物の性別を推定するステップと、
前記被服の種類ごとに用意された被服形状と前記人物形状とを照合することにより、前記人物形状に係る人物が着用している被服の種類を推定するステップと、
前記推定された性別及び被服の種類に基づいて、該性別及び被服の種類別に、前記画像に含まれる人数を集計するステップと、
を実行することを特徴とする情報処理方法。
A computer having a storage unit for storing a figure of a person shape and a clothing shape prepared for each type of clothing,
Identifying whether the edge is the edge of a person included in the image by matching an edge detected in an image captured using a camera with the template;
Obtaining for each person the edge identified as the edge of the person included in the image as a person shape;
Estimating a gender of a person related to the person shape based on a shape feature that can be estimated from the person shape and gender;
Estimating the type of clothing worn by a person related to the person shape by comparing the shape of the clothing prepared for each type of clothing with the person shape;
Based on the estimated gender and type of clothing, totaling the number of people included in the image for each gender and type of clothing;
The information processing method characterized by performing.
人物形状のひな形と、被服の種類ごとに用意された被服形状と、を格納する記憶部を備えたコンピュータに、
カメラを用いて撮像された画像内において検出されるエッジを前記ひな形と照合することにより、該エッジが、該画像内に含まれる人物のエッジか否かを識別するステップと、
前記人物ごとに、該画像内に含まれる人物のエッジと識別されたエッジを人物形状として取得するステップと、
前記人物形状から把握される、性別を推定可能な形状上の特徴に基づいて、前記人物形状に係る人物の性別を推定するステップと、
前記被服の種類ごとに用意された被服形状と前記人物形状とを照合することにより、前記人物形状に係る人物が着用している被服の種類を推定するステップと、
前記推定された性別及び被服の種類に基づいて、該性別及び被服の種類別に、前記画像に含まれる人数を集計するステップと、
を実行させるためのプログラム。
A computer equipped with a storage unit for storing a person-shaped template and a clothing shape prepared for each type of clothing,
Identifying whether the edge is the edge of a person included in the image by matching an edge detected in an image captured using a camera with the template;
Obtaining for each person the edge identified as the edge of the person included in the image as a person shape;
Estimating a gender of a person related to the person shape based on a shape feature that can be estimated from the person shape and gender;
Estimating the type of clothing worn by a person related to the person shape by comparing the shape of the clothing prepared for each type of clothing with the person shape;
Based on the estimated gender and type of clothing, totaling the number of people included in the image for each gender and type of clothing;
A program for running
JP2011031873A 2011-02-17 2011-02-17 Information processor, information processing method and program Withdrawn JP2012173761A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011031873A JP2012173761A (en) 2011-02-17 2011-02-17 Information processor, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011031873A JP2012173761A (en) 2011-02-17 2011-02-17 Information processor, information processing method and program

Publications (1)

Publication Number Publication Date
JP2012173761A true JP2012173761A (en) 2012-09-10

Family

ID=46976650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011031873A Withdrawn JP2012173761A (en) 2011-02-17 2011-02-17 Information processor, information processing method and program

Country Status (1)

Country Link
JP (1) JP2012173761A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103945104A (en) * 2013-01-21 2014-07-23 联想(北京)有限公司 Information processing method and electronic equipment
JP6089157B1 (en) * 2016-06-16 2017-03-01 株式会社オプティム Clothing information providing system, clothing information providing method, and program
WO2017159060A1 (en) * 2016-03-18 2017-09-21 日本電気株式会社 Information processing device, control method, and program
JP2018084890A (en) * 2016-11-22 2018-05-31 サイジニア株式会社 Information processing unit, information processing method, and program
JP2019020085A (en) * 2017-07-20 2019-02-07 関西電力株式会社 Air conditioning control device
JP2019158433A (en) * 2018-03-09 2019-09-19 パナソニック株式会社 Device and method for estimating weather
JP2020510264A (en) * 2017-03-20 2020-04-02 華為技術有限公司Huawei Technologies Co.,Ltd. Method and apparatus for recognizing descriptive attributes of appearance features
WO2021176945A1 (en) * 2020-03-05 2021-09-10 Necソリューションイノベータ株式会社 Authentication device

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103945104B (en) * 2013-01-21 2018-03-23 联想(北京)有限公司 Information processing method and electronic equipment
CN103945104A (en) * 2013-01-21 2014-07-23 联想(北京)有限公司 Information processing method and electronic equipment
US11158068B2 (en) 2016-03-18 2021-10-26 Nec Corporation Information processing apparatus, control method, and program
WO2017159060A1 (en) * 2016-03-18 2017-09-21 日本電気株式会社 Information processing device, control method, and program
JPWO2017159060A1 (en) * 2016-03-18 2019-01-17 日本電気株式会社 Information processing apparatus, control method, and program
US11823398B2 (en) 2016-03-18 2023-11-21 Nec Corporation Information processing apparatus, control method, and program
US11361452B2 (en) 2016-03-18 2022-06-14 Nec Corporation Information processing apparatus, control method, and program
US11205275B2 (en) 2016-03-18 2021-12-21 Nec Corporation Information processing apparatus, control method, and program
US10699422B2 (en) 2016-03-18 2020-06-30 Nec Corporation Information processing apparatus, control method, and program
JP6089157B1 (en) * 2016-06-16 2017-03-01 株式会社オプティム Clothing information providing system, clothing information providing method, and program
WO2017216919A1 (en) * 2016-06-16 2017-12-21 株式会社オプティム Clothing information provision system, clothing information provision method, and program
US10592551B2 (en) 2016-06-16 2020-03-17 Optim Corporation Clothing information providing system, clothing information providing method, and program
JP2018084890A (en) * 2016-11-22 2018-05-31 サイジニア株式会社 Information processing unit, information processing method, and program
JP2020510264A (en) * 2017-03-20 2020-04-02 華為技術有限公司Huawei Technologies Co.,Ltd. Method and apparatus for recognizing descriptive attributes of appearance features
US11410411B2 (en) 2017-03-20 2022-08-09 Huawei Technologies Co., Ltd. Method and apparatus for recognizing descriptive attribute of appearance feature
JP2019020085A (en) * 2017-07-20 2019-02-07 関西電力株式会社 Air conditioning control device
JP2019158433A (en) * 2018-03-09 2019-09-19 パナソニック株式会社 Device and method for estimating weather
JP7094120B2 (en) 2018-03-09 2022-07-01 パナソニックホールディングス株式会社 Weather estimation device and weather estimation method
JPWO2021176945A1 (en) * 2020-03-05 2021-09-10
WO2021176945A1 (en) * 2020-03-05 2021-09-10 Necソリューションイノベータ株式会社 Authentication device
JP7456659B2 (en) 2020-03-05 2024-03-27 Necソリューションイノベータ株式会社 Authentication Device

Similar Documents

Publication Publication Date Title
JP2012173761A (en) Information processor, information processing method and program
US8724845B2 (en) Content determination program and content determination device
US9558398B2 (en) Person behavior analysis device, person behavior analysis system, person behavior analysis method, and monitoring device for detecting a part of interest of a person
US11138420B2 (en) People stream analysis method, people stream analysis apparatus, and people stream analysis system
US9913578B2 (en) Eye gaze detecting device and eye gaze detection method
JP5010937B2 (en) Image processing apparatus, program, and image processing method
JP7251569B2 (en) Store device, store management method, program
KR101827885B1 (en) Apparatus and Method for measuring user`s action using mobile terminal
RU2019136741A (en) LOCATION-BASED WIRELESS AUTHENTICATION
CN104584033A (en) Interactive clothes searching in online stores
JP2018206321A (en) Image processing device, image processing method and image processing program
JP6573311B2 (en) Face recognition system, face recognition server, and face recognition method
WO2017217314A1 (en) Response device, response system, response method, and recording medium
KR102580009B1 (en) Clothes Fitting System And Operation Method of Threof
JP6969878B2 (en) Discriminator learning device and discriminator learning method
CN113474816A (en) Elastic dynamic projection mapping system and method
KR101307984B1 (en) Method of robust main body parts estimation using descriptor and machine learning for pose recognition
US20210042971A1 (en) Information processing device, display method, and program storage medium for monitoring object movement
JP2013073420A (en) Recommendation system, recommendation method, and program
JP2020027496A (en) Monitoring device, monitoring system, and program
CN105955451A (en) Travel prompt method based on user image
JP2022073882A5 (en)
JP2018081654A (en) Searching device, display unit, and searching method
JP5373128B2 (en) Person identification device, person identification method, and person identification program
JP2017130061A (en) Image processing system, image processing method and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513