JP2012173761A - Information processor, information processing method and program - Google Patents
Information processor, information processing method and program Download PDFInfo
- Publication number
- JP2012173761A JP2012173761A JP2011031873A JP2011031873A JP2012173761A JP 2012173761 A JP2012173761 A JP 2012173761A JP 2011031873 A JP2011031873 A JP 2011031873A JP 2011031873 A JP2011031873 A JP 2011031873A JP 2012173761 A JP2012173761 A JP 2012173761A
- Authority
- JP
- Japan
- Prior art keywords
- person
- shape
- clothing
- gender
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、カメラを用いて撮像された画像内に含まれる人物の服装に関する情報を取得する技術に関する。 The present invention relates to a technique for acquiring information related to clothes of a person included in an image captured using a camera.
従来、街頭カメラ又は携帯カメラ等により撮像された画像データに含まれる人物を計数する技術が様々提案されている。 Conventionally, various techniques for counting people included in image data captured by a street camera or a portable camera have been proposed.
例えば、特許文献1では、画像データを画像解析して人物の顔画像を抽出することによって人物を計数する技術が開示されている。また、特許文献2では、画像データを画像解析して人物の顔面の特徴を抽出し、性別、年齢別及び人種別にごとの人数を集計する技術が開示されている。
For example,
その他、特許文献3では、移動する監視対象物の情報を継続的に収集する技術が開示されている。
In addition,
しかしながら、これらにおいて開示される技術では、画像解析に基づく顔認識によって、街頭カメラ又は携帯端末カメラ等により撮像された画像内に存在する人物の特徴を取得しているため、処理負荷が大きい。これらにおいて開示される技術では、簡易な方法によって、特定の場所、すなわち、街頭カメラ又は携帯端末カメラ等により撮像された領域における通行人の服装、装備等の情報を取得し、提供することはできない。 However, in the techniques disclosed in these, since the feature of a person existing in an image captured by a street camera or a mobile terminal camera is acquired by face recognition based on image analysis, the processing load is large. In the techniques disclosed in these, it is not possible to acquire and provide information such as clothes and equipment of passersby in a specific place, that is, an area imaged by a street camera or a mobile terminal camera, etc. by a simple method. .
本発明は、このような点を考慮してなされたものであり、カメラにより撮像された画像内に存在する人物の性別及び服装に関する情報を、簡易な方法で取得することを可能とする技術を提供することを目的とする。 The present invention has been made in consideration of such points, and is a technique that makes it possible to obtain information on the gender and clothes of a person existing in an image captured by a camera by a simple method. The purpose is to provide.
本発明は、上述した課題を解決するために、以下の構成を採用する。 The present invention employs the following configuration in order to solve the above-described problems.
すなわち、本発明の情報処理装置は、人物形状のひな形と、被服の種類ごとに用意された被服形状と、を格納する記憶部と、カメラを用いて撮像された画像内において検出されるエッジを前記ひな形と照合することにより、該エッジが、該画像内に含まれる人物のエッジか否かを識別し、前記人物ごとに、該画像内に含まれる人物のエッジと識別されたエッジを人物形状として取得し、前記人物形状から把握される、性別を推定可能な形状上の特徴に基づいて、前記人物形状に係る人物の性別を推定し、前記被服の種類ごとに用意された被服形状と前記人物形状とを照合することにより、前記人物形状に係る人物が着用している被服の種類を推定し、前記推定された性別及び被服の種類に基づいて、該性別及び被服の種類別に、前記画像に含まれる人数を集計する制御部と、を備えることを特徴とする。 That is, the information processing apparatus according to the present invention includes a storage unit for storing a human-shaped template and a clothing shape prepared for each type of clothing, and an edge detected in an image captured using a camera. Is compared with the template to determine whether the edge is the edge of a person included in the image, and for each person, the edge identified as the edge of the person included in the image is identified. A clothing shape prepared for each type of clothing, obtained as a human shape and estimating the sex of the person related to the human shape based on the shape characteristics that can be estimated from the human shape By comparing the person shape with the person shape, the type of clothes worn by the person related to the person shape is estimated, and based on the estimated sex and type of clothes, for each sex and type of clothes, Included in the image And a control unit which counts the number of people, characterized by comprising a.
ここで、人物形状とは、人間の身体の形状を指し、該人間の姿勢及び撮像された方向等の状態によって異なりうる。また、被服形状とは、被服の形状を指し、同一の被服であっても、該被服を着用した人物の姿勢及び撮像された方向等の状態によって異なりうる。更に、被服の種類は、例えば、被服の品名や袖の形態等、被服の性質及び形態等により区別される。 Here, the human shape refers to the shape of a human body, and may vary depending on the posture of the human and the imaged direction. The clothing shape refers to the shape of the clothing, and even the same clothing may vary depending on the posture of the person wearing the clothing and the imaged direction. Furthermore, the type of clothing is distinguished by the nature and form of the clothing such as the name of the clothing and the shape of the sleeve.
上記構成によれば、カメラを用いて撮像された画像内に存在する人物の人物形状は、該画像内において検出されるエッジと人物形状のひな形との照合に基づいて、特定される。そして、人物ごとに、人物形状から把握される、性別を推定可能な形状上の特徴に基づいて、人物の性別が推定される。また、人物ごとに、被服の種類ごとに用意された被服形状と人物形状とを照合に基づいて、人物の着用している被服の種類が推定される。更に、推定された性別及び被服の種類に基づいて、該性別及び被服の種類別に、画像に含まれる人数が集計される。つまり、上記構成によれば、カメラを用いて撮像された画像に含まれる形状のみに基づいて、カメラの撮像範囲における性別及び被服の種類別の人数(人物の性別及び服装に関する情報)が集計される。 According to the above configuration, the person shape of the person existing in the image captured using the camera is specified based on the matching between the edge detected in the image and the model of the person shape. Then, for each person, the gender of the person is estimated based on the shape features that can be estimated from the person shape. In addition, for each person, the type of clothes worn by the person is estimated based on the matching between the shape of the clothes prepared for each type of clothes and the shape of the person. Further, based on the estimated sex and type of clothing, the number of people included in the image is aggregated for each sex and type of clothing. In other words, according to the above configuration, the number of persons (gender and clothes information) of the gender and the type of clothing in the imaging range of the camera is tabulated based only on the shape included in the image captured using the camera. The
したがって、上記構成によれば、カメラにより撮像された画像内に存在する人物の性別及び服装に関する情報を、簡易な方法で取得することが可能である。 Therefore, according to the above configuration, it is possible to acquire information on the gender and clothes of a person existing in an image captured by the camera by a simple method.
また、本発明の別の形態として、前記制御部は、前記人物形状から、前記性別を推定可能な形状上の特徴に係る値を算出し、該算出した値を閾値と比較することで前記人物形状に係る人物の性別を推定してもよい。 As another form of the present invention, the control unit calculates a value related to a feature on the shape from which the gender can be estimated from the person shape, and compares the calculated value with a threshold value to calculate the person. The gender of the person related to the shape may be estimated.
また、本発明の別の形態として、前記性別を推定可能な形状上の特徴に係る値は、前記人物形状から計測される長さを2つ用いた比率であってもよい。 As another form of the present invention, the value related to the shape feature capable of estimating the gender may be a ratio using two lengths measured from the person shape.
ここで、人物形状から計測される長さとは、例えば、該人物形状内における身長、頭部幅、肩幅、腕の長さ等の長さである。 Here, the length measured from the human shape is, for example, a length, a head width, a shoulder width, an arm length, or the like in the human shape.
上記構成によれば、人物形状から計測される長さを2つ用いた比率を閾値と比較することで、人物形状に係る人物の性別が推定される。この人物形状から計測される長さを2つ用いた比率は、人物形状から計測される2つの長さの相対関係を示すため、人物形状の大きさに依存しない。 According to the above configuration, the gender of the person related to the person shape is estimated by comparing the ratio using two lengths measured from the person shape with the threshold value. The ratio using the two lengths measured from the person shape indicates a relative relationship between the two lengths measured from the person shape, and thus does not depend on the size of the person shape.
したがって、上記構成によれば、カメラと人物との間の距離によって変動する人物形状の大きさによらず、同一の閾値で該人物形状に係る人物の性別を推定することができる。 Therefore, according to the above configuration, the gender of the person related to the person shape can be estimated with the same threshold value regardless of the size of the person shape that varies depending on the distance between the camera and the person.
また、本発明の別の形態として、前記人物形状のひな形は、前記性別を推定可能な形状上の特徴を含む、性別ごとに異なるひな形であってもよい。そして、前記制御部は、いずれの性別に係るひな形により、前記画像内において検出されるエッジが前記人物形状に係るエッジであると識別されたかを判定することで、前記人物形状に係る人物の性別を推定してもよい。 As another form of the present invention, the human shape template may be a different template for each gender, including a shape feature that allows the gender to be estimated. Then, the control unit determines whether the edge detected in the image is identified as the edge related to the person shape by using a template related to which gender, so that the person related to the person shape is determined. Gender may be estimated.
また、本発明の別の形態として、前記制御部は、前記画像の撮像位置を示す情報により画像の撮像範囲を特定し、該画像の撮像範囲における前記性別及び被服の種類別の人数を集計してもよい。 As another embodiment of the present invention, the control unit specifies an image capturing range based on information indicating an image capturing position of the image, and totals the number of people by sex and type of clothing in the image capturing range. May be.
また、本発明の別の形態として、前記制御部は、前記性別及び被服の種類別に集計した人数と前記性別ごとの人数とに基づいて、前記性別ごとの人数における各種類の被服を着
用している人数の比率を算出してもよい。
As another form of the present invention, the control unit wears each type of clothing in the number of people for each gender based on the number of people counted for each sex and the type of clothing and the number of people for each sex. You may calculate the ratio of the number of people.
上記構成によれば、性別ごとの人数における各種類の被服を着用している人数の比率が算出される。一般的に、ユーザは、何らかの傾向を理解する時、人数そのままの数字よりも、全体の人数に対する該人数の割合の方が理解しやすい。 According to the above configuration, the ratio of the number of people wearing each type of clothing in the number of people for each gender is calculated. In general, when a user understands some tendency, the ratio of the number of people to the total number of people is easier to understand than the number of people as it is.
したがって、上記構成によれば、性別ごとに着用している被服の種類に対する傾向を理解しやすい情報を提供することが可能となる。 Therefore, according to the said structure, it becomes possible to provide the information which is easy to understand the tendency with respect to the kind of clothing worn for every sex.
なお、本発明の別態様としては、以上の各構成を実現する情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記憶媒体であってもよい。また、本発明の別態様として、以上の各構成を実現する複数の装置が通信可能に構成された情報処理システムであってもよい。 As another aspect of the present invention, an information processing method that implements each of the above configurations, a program, or a computer-readable storage medium that records such a program may be used. There may be. Further, as another aspect of the present invention, an information processing system in which a plurality of devices that realize each of the above configurations is configured to be communicable may be used.
本発明によれば、カメラにより撮像された画像内に存在する人物の性別、服装に関する情報を、簡易な方法で取得することを可能とする技術を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the technique which makes it possible to acquire the information regarding the sex of the person who exists in the image imaged with the camera, and the clothing by a simple method can be provided.
以下、本発明の一側面に係る情報処理装置、情報処理方法及びプログラム等の実施の形態(以下、「本実施形態」とも表記する)を説明する。ただし、本実施形態は例示であり、本発明は本実施形態の構成に限定されない。 Hereinafter, embodiments of an information processing apparatus, an information processing method, a program, and the like according to one aspect of the present invention (hereinafter also referred to as “this embodiment”) will be described. However, the present embodiment is an exemplification, and the present invention is not limited to the configuration of the present embodiment.
なお、本実施形態において登場するデータを自然言語(日本語等)により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメタ、マシン語等で指定される。 Although the data appearing in the present embodiment is described in a natural language (such as Japanese), more specifically, it is specified in a pseudo language, a command, a parameter, a machine language, or the like that can be recognized by a computer.
§1 各装置の接続例
まず、本実施形態に係るネットワークの構成例について説明する。図1は、本実施形態に係る装置の接続例を示す。図1に示されるとおり、情報処理装置1及び画像取得装置4は、インターネット5を介して、それぞれ通信可能となっている。
§1 Connection example of each device First, a configuration example of a network according to the present embodiment will be described. FIG. 1 shows a connection example of apparatuses according to the present embodiment. As shown in FIG. 1, the
情報処理装置1は、カメラ2を用いて撮像された画像内に存在する人物の性別及び人物が着用している被服の種類を推定する。そして、情報処理装置1は、推定した性別及び被服の種類別に画像に含まれる人数を集計する。
The
画像取得装置4は、図1に示されるとおり、カメラ2及び通信部3を有する。また、画像取得装置4は、PC又は携帯電話として周知のハードウェア構成及び機能構成(不図示)を有する。
As shown in FIG. 1, the
カメラ2は、例えば、光学信号である画像を電気に変換する撮像素子を有し、該撮像素子で撮影した画像をデジタルデータとして記録する。カメラ2は、例えば、街頭カメラ又は携帯端末カメラである。
The
街頭カメラは、街頭に設置されているカメラである。カメラ2が街頭カメラである場合、例えば、画像取得装置4はネットワークカメラ、通信部3は該ネットワークカメラが有する通信機能として実現される。そのほか、例えば、カメラ2が街頭カメラである場合、画像取得装置4はPC、通信部3は該PCが有する通信機能として実現される。
A street camera is a camera installed on the street. When the
また、カメラ2が携帯端末カメラである場合、画像取得装置4は携帯電話等、通信部3は該携帯電話等が有する通信機能として実現される。
When the
§2 情報処理装置の構成例
図2は、情報処理装置1の構成を例示する。情報処理装置1は、図2に示されるとおり、そのハードウェア構成として、バス13で接続される、記憶部11、制御部12、入出力部14等の既存のハードウェアを有している。
§2 Configuration example of information processing apparatus FIG. 2 illustrates the configuration of the
記憶部11は、制御部12で実行される処理で利用される各種データ及びプログラムを記憶する(不図示)。記憶部11は、例えば、ハードディスクによって実現される。記憶部11は、USBメモリ等の記録媒体により実現されてもよい。
The
なお、記憶部11に格納される当該各種データ及びプログラムは、CD(Compact Disc)又はDVD(Digital Versatile Disc)等の記録媒体から取得されてもよい。また、記憶部11は、外部記憶装置と呼ばれてもよい。
The various data and programs stored in the
制御部12は、マイクロプロセッサ又はCPU(Central Processing Unit)等の1又
は複数のプロセッサと、このプロセッサの処理に利用される周辺回路(ROM(Read Only Memory)、RAM(Random Access Memory)、インタフェース回路等)と、を有する。制御部12は、記憶部11に格納されている各種データ及びプログラムを実行することにより、本実施形態における情報処理装置1の処理を実現する。ROM、RAM等は、制御部12内のプロセッサが取り扱うアドレス空間に配置されているという意味で主記憶装置と呼ばれてもよい。
The
入出力部14は、情報処理装置1の外部に存在する装置とデータの送受信を行うための1又は複数のインタフェースである。入出力部14は、例えば、LAN(Local Area Network)ケーブルを接続するためのインタフェース、ユーザインタフェースと接続するためのインタフェース、又はUSB(Universal Serial Bus)等、ハードウェアインタフェースとして周知のものである。
The input /
入出力部14は、インターネット5を介して、画像取得装置4とIP(Internet Protocol)パケット等の送受信を行う。なお、入出力部14は、不図示のユーザインタフェー
ス(キーボード、マウス、ディスプレイ等の入出力装置)と接続してもよい。また、入出力部14は、CDドライブ、DVDドライブ等の着脱可能な記憶媒体の入出力装置、或いはメモリカード等の不揮発性の可搬型の記憶媒体等の入出力装置と接続していてもよい。また、入出力部14は、インターネット接続を行うインタフェースという意味で通信部と呼ばれてもよい。
The input /
なお、情報処理装置1は、PC(Personal Computer)等のような汎用コンピュータで
構成されてもよい。また、情報処理装置1は、不図示のユーザ端末のリクエストに対してサービスを提供する装置という意味で、サーバ(例えば、WEBサーバ)と呼ばれてもよい。
The
本実施形態では、情報処理装置1は、カメラ2を用いて撮像された画像内に存在する人物の性別及び人物が着用している被服の種類を推定する。そして、情報処理装置1は、推定した性別及び被服の種類別に画像に含まれる人数を集計する。この処理を実現する記憶部11及び制御部12について、以下、説明する。
In the present embodiment, the
[記憶部]
図2により示されるとおり、記憶部11は、人物テンプレートデータベース21及び被服テンプレートデータベース22を含む。人物テンプレートデータベース21及び被服テンプレートデータベース22は、例えば、ハードディスクに格納されたデータとして実現される。
[Storage unit]
As shown in FIG. 2, the
<人物テンプレートデータベース>
人物テンプレートデータベース21は、人物形状のひな形(以下、「人物形状のテンプレート」とも表記)を格納する。人物形状のテンプレートは、カメラ2を用いて撮像された画像内において検出されるエッジのうち、該画像内に存在する人物に係るエッジを特定するためのデータである。人物形状のテンプレートは、例えば、人物形状を示す図形データ、又は、人物形状から算出することができる特徴量によって表現される。該特徴量は、例えば、SIFT(Scale-Invariant Feature Transform)、又は、テクスチャ特徴量で
ある。
<Person template database>
The
なお、これらによって表現される本実施形態における人物形状のテンプレートは、人物を2次元に投影したシルエットである。ここで、人物形状は、該人物の姿勢及び撮像された方向等の状態によって異なりうる。そのため、人物形状のテンプレートは、該人物の状態を反映した2次元のシルエットであってもよい。 It should be noted that the human shape template represented in the present embodiment is a silhouette obtained by projecting a person in two dimensions. Here, the human shape may vary depending on the posture of the person and the state of the imaged direction. Therefore, the person-shaped template may be a two-dimensional silhouette reflecting the state of the person.
なお、人物テンプレートデータベース21に格納されている人物形状のテンプレートは1つであってもよいし、複数であってもよい。また、本実施形態の別の形態において、人物形状のテンプレートは、性別を推定可能な形状上の特徴を含む、性別ごとに異なるデータであってもよい。
Note that the
<被服テンプレートデータベース>
被服テンプレートデータベース22は被服データを格納する。被服データは、被服形状を含むデータであり、被服の種類ごとに用意される。被服形状は、カメラ2を用いて撮像された画像内に存在する人物が着用している被服の種類を推定するためのデータである。被服形状は、上記人物形状のテンプレートと同様に、例えば、被服の形状を示す図形データ、又は、被服の形状から算出することができる特徴量によって表現される。
<Clothing template database>
The
なお、これらによって表現される本実施形態における被服形状は、被服を2次元に投影したシルエットである。また、被服形状は、同一の被服であっても、該被服を着用した人物の姿勢及び撮像された向き等の状態によって異なりうる。そのため、本実施形態における被服形状は、該被服の状態を反映して該被服を2次元に投影したシルエットである。 In addition, the clothing shape in this embodiment expressed by these is a silhouette which projected clothing in two dimensions. Moreover, even if it is the same clothing, the clothing shape may vary depending on the posture of the person wearing the clothing and the imaged orientation. Therefore, the clothing shape in the present embodiment is a silhouette obtained by projecting the clothing in two dimensions reflecting the state of the clothing.
図3は、本実施形態における被服テンプレートデータベース22のレコード例を示す。図3に示されるとおり、本実施形態に係る被服データは、被服テンプレートデータベース
22のレコードの行データとして実現されている。また、本実施形態に係る被服データは、テンプレートIDフィールド、性別フィールド、着用箇所フィールド、袖フィールド、向きフィールド、品名フィールド、図形フィールドを有する。
FIG. 3 shows a record example of the
テンプレートIDフィールドには、被服データを区別するための情報が格納される。図3に示されるとおり、被服データを区別するための情報は、例えば、「テンプレート1150」、「テンプレート1151」等と指定される。
The template ID field stores information for distinguishing clothing data. As shown in FIG. 3, the information for distinguishing the clothing data is designated as “
性別フィールドには、被服が対象とする性別情報が格納される。被服が対象とする性別情報は、例えば、「男性」、「女性」等と指定される。 The sex field stores the sex information targeted by the clothes. The gender information targeted by the clothing is designated, for example, “male”, “female” or the like.
着用箇所フィールドには、被服を着用する箇所を示す情報が格納される。被服を着用する箇所を示す情報は、例えば、「上半身」、「下半身」等と指定される。 The wear location field stores information indicating a location where the clothing is worn. For example, “upper body”, “lower body”, and the like are designated as the information indicating the location where the clothes are worn.
袖フィールドには、被服の袖に関する情報が格納される。被服の袖に関する情報は、例えば、「長袖」、「半袖」、「袖なし」等と指定される。なお、下半身に着る被服については、被服の丈に関する情報が格納される。被服の丈に関する情報は、例えば、「長」、「短」等と指定される。 The sleeve field stores information on the sleeve of the clothes. For example, “long sleeves”, “short sleeves”, “no sleeves”, and the like are designated as information on the sleeves of the clothes. In addition, about the clothing worn on the lower body, information on the length of the clothing is stored. The information on the length of the clothes is designated as “long”, “short”, or the like, for example.
向きフィールドには、該被服データに含まれる被服の向きを示す情報が格納される。被服の向きを示す情報は、該被服が撮像された向きを示し、例えば、「正面」、「背面」、「側面」等と指定される。 The direction field stores information indicating the direction of clothes included in the clothes data. The information indicating the direction of the clothing indicates the direction in which the clothing is imaged, and is designated, for example, “front”, “back”, “side”, or the like.
品名フィールドには、被服の品名を示す情報が格納される。被服の品名を示す情報は、例えば、「ショートコート」、「ジャンパー」等と指定される。 Information indicating the item name of the clothing is stored in the item name field. The information indicating the article name of the clothing is designated as “short coat”, “jumper”, or the like, for example.
図形フィールドには、被服形状、又は、被服形状を識別するための情報が格納される。上述した通り、被服形状は、例えば、画像データ、又は、特徴量であり、図形フィールドには、被服形状がそのまま格納されていてもよいし、該被服形状を識別するための情報が格納されてもよい。被服形状を識別するための情報とは、例えば、被服形状が格納されている記憶部11の格納領域を示す情報等、当該情報に基づいて該被服形状を取得することを可能とする情報である。
The figure field stores clothing shapes or information for identifying clothing shapes. As described above, the clothing shape is, for example, image data or a feature amount, and the figure field may store the clothing shape as it is, or information for identifying the clothing shape is stored. Also good. The information for identifying the clothing shape is information that makes it possible to acquire the clothing shape based on the information, such as information indicating a storage area of the
なお、本実施形態における被服の種類は、被服データの袖フィールドに格納された被服の袖に関する情報及び被服データの品名フィールドに格納された被服の品名を示す情報のうち少なくとも一方を用いることで示される。被服データは、本実施形態で示される被服の袖に関する情報及び被服の品名を示す情報以外に、被服の種類に関する情報を格納するためのフィールドを有してもよい。この場合、被服の種類は、該被服の種類に関する情報の中から任意に示される。 Note that the type of clothing in the present embodiment is indicated by using at least one of the information on the sleeve of the clothing stored in the sleeve field of the clothing data and the information indicating the product name of the clothing stored in the product name field of the clothing data. It is. The clothing data may include a field for storing information on the type of clothing in addition to the information on the sleeve of the clothing and the information indicating the name of the clothing shown in the present embodiment. In this case, the type of clothing is arbitrarily indicated from the information regarding the type of clothing.
[制御部]
図2に示されるとおり、制御部12は、画像データ取得部31、人物形状取得部32、性別推定部33、被服推定部34、及び、被服傾向算出部35を含む。画像データ取得部31、人物形状取得部32、性別推定部33、被服推定部34、及び、被服傾向算出部35は、例えば、記憶部11に格納されたプログラム等が制御部12の周辺回路であるRAM等に転記され、制御部12のプロセッサにより実行されることによって実現される。
[Control unit]
As shown in FIG. 2, the
本実施形態では、制御部12は、カメラ2を用いて撮像された画像内に存在する人物の性別及び人物が着用している被服の種類を推定する。そして、制御部12は、推定した性別及び被服の種類別に画像に含まれる人数を集計する。以下、本実施形態における各構成
の処理について簡略的に説明する。本実施形態における各構成の具体的な処理についての説明は、「§3 動作例」に記載する。
In the present embodiment, the
<画像データ取得部>
画像データ取得部31は、画像取得装置4からカメラ2を用いて撮像された画像データを取得する。また、画像データ取得部31は、画像の撮像位置を示す情報により画像の撮像範囲を特定する。なお、画像データは、動画像及び静止画像のどちらのデータであってもよい。また、画像データの取得は、情報処理装置1から画像取得装置4へアクセスすることによってなされてもよいし、画像取得装置4から情報処理装置1へアクセスされることによってなされてもよい。
<Image data acquisition unit>
The image data acquisition unit 31 acquires image data captured using the
<人物形状取得部>
人物形状取得部32は、画像データ取得部31が取得した画像内のエッジを検出する。また、人物形状取得部32は、人物テンプレートデータベース21に格納された人物形状のテンプレートと検出したエッジとを照合し、該エッジが、該画像内に含まれる人物のエッジか否かを識別する。そして、人物形状取得部32は、画像内に含まれる人物のエッジと識別されたエッジを人物形状として取得する。
<Human shape acquisition unit>
The person shape acquisition unit 32 detects an edge in the image acquired by the image data acquisition unit 31. Further, the person shape acquisition unit 32 collates the person shape template stored in the
<性別推定部>
性別推定部33は、人物形状取得部32によって取得された人物形状から把握される、性別を推定可能な形状上の特徴に基づいて、該人物形状に係る人物の性別を推定する。
<Gender estimation unit>
The
本実施形態では、性別推定部33は、人物形状取得部32によって取得された人物形状から、性別を推定可能な形状上の特徴に係る値を算出する。そして、性別推定部33は、該算出した値を閾値と比較することで該人物形状に係る人物の性別を推定する。
In the present embodiment, the
また、本実施形態では、性別を推定可能な形状上の特徴に係る値は、人物形状取得部32によって取得された人物形状から計測される長さを2つ用いた比率である。ここで、人物形状から計測される長さは、例えば、人物形状取得部32によって取得された人物形状における身長に対応する長さ、頭部幅に対応する長さ、肩幅に対応する長さ、腕の長さに対応する長さ等である。 Further, in the present embodiment, the value related to the shape feature for which gender can be estimated is a ratio using two lengths measured from the person shape acquired by the person shape acquisition unit 32. Here, the length measured from the human shape is, for example, a length corresponding to the height in the human shape acquired by the human shape acquisition unit 32, a length corresponding to the head width, a length corresponding to the shoulder width, The length corresponds to the length of the arm.
また、本実施形態では、人物テンプレートデータベース21に格納された人物形状のテンプレートは、性別を推定可能な形状上の特徴を含む、性別ごとに異なるデータであってもよい。この時、性別推定部33は、前記人物形状取得部32において、いずれの性別に係る人物形状のテンプレートにより、画像内において検出されるエッジが該人物形状に係るエッジであると識別されたかを判定することで、該人物形状に係る人物の性別を推定してもよい。
Further, in the present embodiment, the human shape template stored in the
<被服推定部>
被服推定部34は、被服テンプレートデータベース22に格納された被服データに含まれる被服形状と人物形状取得部32によって取得された人物形状とを照合することにより、該人物形状に係る人物が着用している被服の種類を推定する。
<Clothing estimation part>
The
<被服傾向算出部>
被服傾向算出部35は、性別推定部33及び被服推定部34により推定された性別及び被服の種類に基づいて、該性別及び被服の種類別に、画像データ取得部31により取得された画像に含まれる人数を集計する。また、被服傾向算出部35は、該性別及び被服の種類別に集計した人数と性別ごとの人数とに基づいて、該性別ごとの人数における各種類の被服を着用している人数の比率を算出する。
<Clothing trend calculator>
The clothing tendency calculation unit 35 is included in the image acquired by the image data acquisition unit 31 for each sex and type of clothing based on the sex and the type of clothing estimated by the
§3 動作例
次に、図4、図5、図6A、図6B、図7、図8、及び、図9を用いて、本実施形態における動作例を説明する。図4のフローチャートは、本実施形態に係る情報処理装置1の処理を例示する。図5は、本実施形態に係るカメラ2により取得された画像を例示する。図6Aは、本実施形態に係る人物形状取得部32において図5に示される画像内のエッジが検出された状態を例示する。図6Bは、本実施形態における図6Aにより示されたエッジと人物形状のテンプレートとの照合結果を例示する。図7は、本実施形態における性別推定部33の動作を例示する。図8は、本実施形態における被服推定部34の動作を例示する。図9は、本実施形態における情報処理装置1が提供する情報を例示する。
§3 Operation Example Next, an operation example in the present embodiment will be described with reference to FIGS. 4, 5, 6A, 6B, 7, 8, and 9. FIG. The flowchart of FIG. 4 illustrates the process of the
<スタート>
まず、図4に示されるとおり、情報処理装置1は、例えば、予め定められた周期で、記憶部11に格納したプログラムを制御部12により実行することにより処理を開始する(S100)。
<Start>
First, as illustrated in FIG. 4, the
<画像データの取得>
処理が開始されると、画像データ取得部31は、画像取得装置4からカメラ2を用いて画像データを取得する(S101)。図5は、取得される画像データを例示する。また、本動作例では、画像データ取得部31は、取得した画像の撮像範囲及び撮像日時を特定する。カメラ2は、例えば、街頭カメラ又は携帯端末カメラである。
<Acquisition of image data>
When the process is started, the image data acquisition unit 31 acquires image data from the
カメラ2が街頭カメラである場合、画像取得装置4は、例えば、ネットワークカメラ又はPCである。画像取得装置4がネットワークカメラ又はPCである場合、画像取得装置4は、画像データ取得部31からの要求又は自発的な動作等に基づいて、通信部3によってインターネット5へアクセスし、カメラ2を用いて撮像した画像データを情報処理装置1へ送信する。
When the
画像データ取得部31は、画像取得装置4にアクセスし、画像取得装置4から画像データを受信するまで待機し、又は、画像取得装置4から受信して記憶部11に既に格納されている画像データから、該街頭カメラにより撮像された画像データを取得する。
The image data acquisition unit 31 accesses the
なお、画像取得装置4から情報処理装置1へ送信される、街頭カメラを用いて撮像された画像データには、その属性情報として、該街頭カメラの識別番号が含まれている。
Note that the image data transmitted from the
画像データ取得部31は、該街頭カメラの識別番号を用いて、街頭カメラの位置を特定する。例えば、記憶部11は、街頭カメラの識別番号に対応付けられた該街頭カメラの位置を示す情報を格納する。そして、画像データ取得部31は、受信した画像データに含まれる街頭カメラの識別番号を用いて記憶部11に格納されている街頭カメラの位置を示す情報と照合し、受信した画像データを送信した街頭カメラの位置を特定する。
The image data acquisition unit 31 specifies the position of the street camera using the identification number of the street camera. For example, the
また、画像データ取得部31は、画像取得装置4にアクセスした日時、画像取得装置4から画像データを受信した日時、又は、画像取得装置4から受信した画像データを記憶部11に格納した日時を、該画像データの撮像日時と特定する。
The image data acquisition unit 31 also indicates the date and time when the
他方、カメラ2が携帯端末カメラである場合、画像取得装置4は、例えば、携帯電話である。画像取得装置4が携帯電話である場合、通常、画像取得装置4は、該画像取得装置4のユーザによる操作等に基づいて、通信部3によってインターネット5へアクセスし、カメラ2を用いて撮像した画像データを情報処理装置1へ送信する。すなわち、該画像データの送信は、一般的に、該携帯端末カメラのユーザの望む任意のタイミングで行われる
。
On the other hand, when the
画像データ取得部31は、該任意のタイミングで送信されてくる画像データの受信まで待機し、又は、既に受信して記憶部11に既に格納されている画像データから、該携帯端末カメラにより撮像された画像データを取得する。
The image data acquisition unit 31 waits until reception of image data transmitted at the arbitrary timing, or is captured by the mobile terminal camera from image data that has already been received and stored in the
なお、画像取得装置4から情報処理装置1へ送信される、該携帯端末カメラを用いて撮像された画像データには、その属性情報として、携帯端末カメラによる撮像日時及びGPS(Global Positioning System)情報が含まれている。また、携帯端末カメラから情報
処理装置1へ送信される画像データには、その属性情報として、該携帯端末カメラのユーザ名、及び、該携帯端末カメラを操作することにより入力されたコメントが含まれていてもよい。該携帯端末カメラのユーザは、情報処理装置1に対して画像データを提供する者であり、以下、投稿者と呼ぶ。
It should be noted that image data transmitted from the
画像データ取得部31は、画像データに含まれている該GPS情報を用いて、携帯端末カメラの位置を特定する。また、画像データ取得部31は、画像データに含まれている撮像日時を、該画像データの撮像日時と特定する。 The image data acquisition unit 31 specifies the position of the mobile terminal camera using the GPS information included in the image data. Further, the image data acquisition unit 31 specifies the imaging date / time included in the image data as the imaging date / time of the image data.
なお、該街頭カメラの位置を示す情報及びGPS情報は、本発明の画像の撮像位置を示す情報に相当する。 Note that the information indicating the position of the street camera and the GPS information correspond to information indicating the imaging position of the image of the present invention.
画像データ取得部31は、これらの処理によりカメラ2の位置を特定する。そして、情報処理装置1は、特定したカメラ2の位置に基づいて、該カメラ2により撮像された画像の撮像範囲及び撮像日時を特定する。なお、この撮像範囲の特定によって得られる情報は、例えば、「○○通り××一丁目交差点付近」等、大まかな情報でよい。
The image data acquisition unit 31 specifies the position of the
<エッジの検出>
次に、図4に示されるとおり、画像データが取得されると、人物形状取得部32によって、画像データ取得部31によって取得された画像内のエッジの検出が行われる(S102)。図6Aは、当該処理により検出されるエッジを例示する。
<Edge detection>
Next, as shown in FIG. 4, when the image data is acquired, the human shape acquisition unit 32 detects edges in the image acquired by the image data acquisition unit 31 (S102). FIG. 6A illustrates the edges detected by the processing.
エッジの検出は、よく知られている方法によって行われる。人物形状取得部32は、例えば、ソーベル(Sobel)フィルタ又はプレヴィット(Prewitt)フィルタ等を用いた処理により画像内のエッジを検出する。 Edge detection is performed by a well-known method. The person shape acquisition unit 32 detects an edge in an image by a process using, for example, a Sobel filter or a Prewitt filter.
<人物形状の取得>
次に、図4に示されるとおり、人物形状取得部32は、人物テンプレートデータベース21に格納された人物形状のテンプレートと検出したエッジとを照合し、該エッジが、該画像内に含まれる人物のエッジか否か識別する。そして、人物形状取得部32は、画像内に含まれる人物のエッジと識別されたエッジを人物形状として取得する(S103)。図6Bは、当該処理により検出される人物形状を例示する。
<Acquisition of person shape>
Next, as shown in FIG. 4, the human shape acquisition unit 32 collates the human shape template stored in the
上述のとおり、人物テンプレートデータベース21に格納された人物形状のテンプレートは、例えば、人物形状を示す図形データ、又は、人物形状から算出することができる特徴量である。
As described above, the human shape template stored in the
例えば、人物形状のテンプレートが図形データである場合、人物形状取得部32は、該図形データと検出したエッジをパターンマッチングし、該図形データと合致又は近似できるエッジを特定する。 For example, when the human shape template is graphic data, the human shape acquisition unit 32 performs pattern matching between the graphic data and the detected edge, and specifies an edge that can match or approximate the graphic data.
また、人物形状のテンプレートが特徴量である場合、人物形状取得部32は、検出したエッジから特徴量を算出する。当該算出する特徴量は、画像の一部を切り出した特徴量であるという意味で、局所特徴量とも呼ばれる。そして、人物形状取得部32は、エッジから算出した特徴量と人物形状のテンプレート(特徴量)とを比較し、人物形状のテンプレートと合致又は近似できるエッジを特定する。 When the human shape template is a feature amount, the human shape acquisition unit 32 calculates the feature amount from the detected edge. The calculated feature value is also called a local feature value in the sense that it is a feature value obtained by cutting out a part of an image. Then, the human shape acquisition unit 32 compares the feature amount calculated from the edge with the human shape template (feature amount), and specifies an edge that can match or approximate the human shape template.
ここで、画像内に含まれる人物のエッジには、被服の輪郭に該当するエッジと、被服に内在するエッジとが含まれると考えられる。被服に内在するエッジは、ボタン、ファスナー、模様等、被服に備わる器具又はデザイン等のエッジである。 Here, it is considered that the edges of the person included in the image include an edge corresponding to the outline of the clothes and an edge existing in the clothes. The edge inherent in the clothes is an edge of a tool, a design, or the like provided in the clothes such as a button, a fastener, or a pattern.
これに対して、人物形状のテンプレートは、被服に内在するエッジを考慮したデータ、すなわち、人物の輪郭に加えて、ボタン、ファスナー、模様等、被服に備わる器具又はデザイン等までテンプレート化したデータであるとは限らない。 On the other hand, a person-shaped template is data that takes into account the edges inherent in clothes, that is, data that is templated to buttons, fasteners, patterns, and other equipment or designs on clothes, in addition to the outline of a person. Not always.
例えば、人物形状のテンプレートが、被服に内在するエッジを考慮したデータではない場合、上記それぞれの処理によって人物形状のテンプレートと合致又は近似できるとして特定されたエッジには、通常、被服に内在するエッジは含まれない。しかし、この場合でも、上記それぞれの処理によって人物形状のテンプレートと合致又は近似できるとして特定されたエッジには、被服の輪郭に該当するエッジは含まれる。 For example, when the human-shaped template is not data that takes into account the edges inherent in the clothes, the edges specified as being able to match or approximate the human-shaped template by the above-described processes are usually edges existing in the clothes. Is not included. However, even in this case, the edges identified as being able to match or approximate the person-shaped template by the above processes include the edges corresponding to the outline of the clothes.
したがって、まず、人物形状取得部32は、上記それぞれの処理によって人物形状のテンプレートと合致又は近似できるとして特定されたエッジを、被服の輪郭に該当するエッジと特定する。また、人物形状取得部32は、当該被服の輪郭に該当するエッジによって特定される被服の輪郭に内在するエッジを、被服に内在するエッジと特定する。そして、人物形状取得部32は、上記それぞれの処理によって特定されたエッジ、すなわち、被服の輪郭に該当するエッジと被服の輪郭に内在するエッジとを、該画像内に含まれる人物のエッジと識別する。そして、人物形状取得部32は、これらのエッジの集合を人物形状として取得する。 Therefore, first, the person shape acquisition unit 32 specifies the edge specified as being able to match or approximate the person shape template by each of the above processes as the edge corresponding to the outline of the clothing. In addition, the person shape obtaining unit 32 identifies an edge existing in the outline of the clothing specified by the edge corresponding to the outline of the clothing as an edge existing in the clothing. Then, the person shape acquisition unit 32 identifies the edge specified by each of the above processes, that is, the edge corresponding to the outline of the clothes and the edge existing in the outline of the clothes from the edges of the person included in the image. To do. Then, the person shape acquisition unit 32 acquires a set of these edges as a person shape.
他方、人物形状のテンプレートが、被服に内在するエッジを考慮したデータである場合、上記それぞれの処理により人物形状のテンプレートと合致又は近似できるとして特定されたエッジには、被服の輪郭に該当するエッジと、被服に内在するエッジとが含まれる。よって、人物形状取得部32は、これらのエッジを、該画像内に含まれる人物のエッジと識別する。そして、人物形状取得部32は、これらのエッジの集合を人物形状として取得する。 On the other hand, when the person-shaped template is data that takes into account the edges inherent in the clothes, the edges identified as being able to match or approximate the person-shaped template by the above-described processing include edges corresponding to the outline of the clothes And edges inherent in the clothes. Therefore, the person shape acquisition unit 32 identifies these edges as the edges of the person included in the image. Then, the person shape acquisition unit 32 acquires a set of these edges as a person shape.
<人物の性別を推定>
次に、図4に示されるとおり、性別推定部33は、人物形状取得部32によって取得された人物形状から把握される、性別を推定可能な形状上の特徴に基づいて、該人物形状に係る人物の性別を推定する(S104)。
<Estimating the gender of a person>
Next, as shown in FIG. 4, the
本実施形態では、性別推定部33は、まず、人物形状取得部32によって取得された人物形状から、性別を推定可能な形状上の特徴に係る値を算出する。該性別を推定可能な形状上の特徴に係る値とは、人物形状取得部32によって取得された人物形状から計測される長さを2つ用いた比率である。ここで、人物形状から計測される長さの例を、図7に示す。人物形状から計測される長さとは、例えば、人物形状に係る身長に対応する長さ(図7における矢印50)、頭部幅に対応する長さ(図7における矢印51)、肩幅に対応する長さ(図7における矢印52)、又は、腕の長さに対応する長さ(図7における矢印53)である。人物形状取得部32は、これら人物形状から計測される長さを少なくとも2つ計測し、計測した少なくとも2つの長さを用いて、例えば、身長に対する肩幅、又は、
肩幅に対する頭部幅等の比率を算出する。
In the present embodiment, the
Calculate the ratio of head width to shoulder width.
そして、性別推定部33は、該算出した値を閾値と比較することで該人物形状に係る人物の性別を推定する。該閾値は、記憶部11に格納されたプログラム等によって予め設定される。例えば、厚生労働省が実施する国民健康調査によって発表される性別ごとの平均身長等の値を用いて算出することができる、男性の比率の平均値と女性の比率の平均値との中央値等が、該閾値として設定される。
And the
また、本実施形態では、人物テンプレートデータベース21に格納された人物形状のテンプレートが、性別を推定可能な形状上の特徴を含む、性別ごとに異なるデータである場合がある。この時、性別推定部33は、前記人物形状取得部32において、いずれの性別に係る人物形状のテンプレートにより、画像内において検出されるエッジが該人物形状に係るエッジであると識別されたかを判定することで、該人物形状に係る人物の性別を推定する。
In the present embodiment, the person-shaped template stored in the
性別を推定可能な形状上の特徴を含む、性別ごとに異なるデータとは、例えば、男性及び女性それぞれの、平均身長に対する平均肩幅の比率、及び、平均肩幅に対する平均頭部幅の比率を適用した性別ごとに異なる人物形状のテンプレートである。すなわち、本実施形態の別の形態における人物形状のテンプレートは、性別ごとに用意された、性別間で差の出る形状に関する身体的特徴を含むデータである。 For example, the ratio of the average shoulder width to the average height and the ratio of the average head width to the average shoulder width of each male and female is applied to the data that differs by gender, including the shape features that can estimate gender. It is a template with a different person shape for each gender. In other words, the person-shaped template in another form of the present embodiment is data including physical characteristics regarding a shape that is different for each gender and is prepared for each gender.
<人物の服装を推定>
次に、図4に示されるとおり、被服推定部34は、被服テンプレートデータベース22に格納された被服データに含まれる被服形状と人物形状取得部32によって取得された人物形状とを照合することにより、該人物形状に係る人物が着用している被服の種類を推定する(S105)。図8は、当該処理を例示する。
<Estimating the clothes of a person>
Next, as shown in FIG. 4, the
図8に示されるとおり、本実施形態では、被服推定部34は、被服の着用箇所(上半身と下半身)毎に、人物が着用している被服の種類を推定する。したがって、本実施形態では、被服推定部34は、上半身に着用される被服の被服形状と下半身に着用される被服の被服形状とを分けて、人物形状に照合する。
As shown in FIG. 8, in the present embodiment, the
ここで、各被服形状と人物形状の照合については、人物形状取得部32によって行われる、人物形状のテンプレートと画像内に存在するエッジとの照合と同様に説明可能である。したがって、説明を省略する。他方、人物形状取得部32によって行われる照合とは、上半身と下半身に分けて別のデータが用いられる点において異なる。この異なる点について、以下説明する。 Here, the matching of each clothing shape and the person shape can be explained in the same manner as the matching of the person shape template and the edge existing in the image, which is performed by the person shape acquisition unit 32. Therefore, the description is omitted. On the other hand, the verification performed by the person shape acquisition unit 32 is different in that different data is used for the upper body and the lower body. This difference will be described below.
まず、被服推定部34は、人物形状取得部32によって取得された人物形状それぞれと照合するための被服形状を記憶部11から取得する。この時、性別推定部33の処理(S104)によって、該人物形状に係る人物の性別は推定されている。従って、被服推定部34は、各人物形状に対して推定されている性別と着用箇所に基づいて、被服形状を記憶部11から取得する。
First, the
例えば、人物形状に係る人物の性別が男性であり、被服推定部34が、当該人物の上半身の服装を推定するとする。この時、被服推定部34は、性別フィールドに「男性」を格納し、着用箇所フィールドに「上半身」を格納した被服データを被服テンプレートデータベース21から取得する。そして、被服推定部34は、取得した被服データに含まれる図形フィールドに格納又は示される被服形状を記憶部11から取得する。
For example, it is assumed that the gender of the person related to the person shape is male, and the
次に、被服推定部34は、人物形状に係る人物の性別及び被服の着用箇所別に取得した被服形状と人物形状とを照合し、人物形状と合致又は近似できる被服形状を着用箇所別に特定する。そして、被服推定部34は、着用箇所ごとに、該人物形状に係る人物の着用している被服の種類を、該照合によって特定した被服形状に係る被服データに格納された被服の種類に関する情報により推定する。
Next, the
なお、人物形状に対して被服形状を照合する方法は、任意でよい。本実施形態では、図8に示されるとおり、被服推定部34は、人物形状から、人物が上半身に着用している被服に係るエッジと、人物が下半身に着用している被服に係るエッジとを特定する。そして、被服推定部34は、該特定したエッジ(人物形状)と被服形状とを着用箇所別に照合する。これにより、被服推定部34は、上半身に着用している被服に係るエッジと合致又は近似できる被服形状、及び、下半身に着用している被服に係るエッジと合致又は近似できる被服形状を特定する。そして、被服推定部34は、上半身及び下半身において特定した被服形状に係る被服データに格納された被服の種類に関する情報により、該人物形状に係る人物の着用している被服の種類をそれぞれ推定する。
In addition, the method of collating a clothing shape with a person shape may be arbitrary. In the present embodiment, as shown in FIG. 8, the
なお、被服の輪郭は、着用している被服がロングコートである等特別な場合を除いて、上半身と下半身とで分かれている。被服推定部34は、例えば、この上半身と下半身とを分ける被服の輪郭に基づいて、人物形状から、人物が上半身に着用している被服に係るエッジと、人物が下半身に着用している被服に係るエッジとを特定する。
The outline of the clothing is divided into an upper body and a lower body, except in special cases such as when the clothing being worn is a long coat. For example, based on the outline of the clothing that separates the upper body and the lower body, the
また、人物形状に対して被服形状を照合する方法の一例として、人物形状の領域に関する割合を用いる方法が考えられる。すなわち、被服推定部34は、人物の頭部側を上部として、人物形状の上端から下端までの長さに対して、人物形状の上部所定の割合の領域を上半身と仮定し、人物形状の下部所定の割合の領域を下半身と仮定して、それぞれの領域に被服形状を照合してもよい。
In addition, as an example of a method for matching the clothing shape against the human shape, a method using a ratio related to the human shape region is conceivable. That is, the
この時、被服推定部34は、例えば、人物形状取得部32によって取得された人物形状の上部55%の領域を上半身の領域、下部45%の領域を下半身の領域と仮定する。そして、被服推定部34は、上半身に係る被服形状と、上半身と仮定した領域に係る人物形状と、を照合する。また、被服推定部34は、下半身に係る被服形状と、下半身と仮定した領域に係る人物形状と、を照合する。
At this time, for example, the
なお、上半身と仮定された領域と下半身と仮定された領域は完全に分けられた領域でなくてもよい。つまり、上半身と仮定された領域と下半身と仮定された領域とは、重なりあっていてもよい。 Note that the region assumed to be the upper body and the region assumed to be the lower body may not be completely separated. That is, the region assumed to be the upper body and the region assumed to be the lower body may overlap.
また、人物形状に対して被服形状を照合する方法の一例として、人物形状においてあらかじめ定められた位置を着用箇所の基準として人物形状と被服形状とを照合する方法が考えられる。すなわち、被服推定部34は、人物の頭部側を上部として、人物形状のあらかじめ定められた位置を着用箇所の基準として、それぞれの被服形状と人物形状とを照合してもよい。
In addition, as an example of a method for collating the clothing shape with the human shape, a method of collating the human shape with the clothing shape using a predetermined position in the human shape as a reference for the wearing part is conceivable. That is, the
この時、被服推定部34は、例えば、人物形状取得部32によって取得された人物形状の上端から下端までの長さを100%とし、人物形状の上端から該人物形状の割合12%下方の位置を上半身の基準としてもよい。そして、被服推定部34は、上半身に係る被服形状の上端を該基準の位置に合わせて、被服形状と人物形状とを照合してもよい。なお、前記12%という設定値は、人物形状における当該割合に係る領域が人物形状の頭部に該当する領域であることが考慮されて設定された値であり、任意に設定可能である。
At this time, for example, the
また、被服推定部34は、例えば、人物形状取得部32によって取得された人物形状の上端から下端までの長さを100%とし、人物形状取得部32によって取得された人物形状の下端から該人物形状の割合5%上方の位置を下半身の基準としてもよい。そして、被服推定部34は、下半身に係る被服形状の下端を該基準の位置に合わせて、被服形状と人物形状とを照合してもよい。なお、前記5%という設定値は、人物形状における当該割合に係る領域が人物形状の下肢のうち足に該当する領域であることが考慮されて設定された値であり、任意に設定可能である。
For example, the
また、人物形状に対して被服形状を照合する方法の一例として、人物形状に対して被服形状を照合する位置をずらしながら繰り返し照合を行う方法が考えられる。すなわち、被服推定部34は、人物の頭部側を上部として、人物形状の上端から所定の間隔ごとに被服形状の上端を下方へずらしながら、被服形状と人物形状とを照合してもよい。
Further, as an example of a method for collating the clothing shape with the human shape, a method of repeatedly performing the collation while shifting the position where the clothing shape is collated with respect to the human shape is conceivable. That is, the
なお、被服推定部34は、人物の頭部側を上部として、人物形状の下端から所定の間隔ごとに上方へ被服形状の下端をずらしながら、被服形状と人物形状とを照合してもよい。
The
また、人物形状に対して被服形状を照合する方法の一例として、人物形状に対する領域判定の情報を用いる方法が考えられる。すなわち、人物形状内において、上半身の領域と下半身の領域とが判定されていてもよい。そして、被服推定部34は、当該判定された領域にそれぞれ被服形状を照合してもよい。なお、該人物形状に係る領域の判定は、例えば、人物形状取得部32の処理(S103)時に行われる。
Further, as an example of a method for matching the clothing shape against the human shape, a method using region determination information for the human shape is conceivable. That is, the upper body region and the lower body region may be determined in the person shape. Then, the
この時、例えば、人物テンプレートデータベース21に格納された人物形状のテンプレートに上半身の領域と下半身の領域が設定されている。そして、人物形状取得部32は、人物形状のテンプレートと合致又は近似できるエッジを特定した後、該人物形状のテンプレートに設定されている上半身の領域に係るエッジを人物形状内の上半身の領域と判定する。また、人物形状取得部32は、該人物形状のテンプレートに設定されている下半身の領域に係るエッジを人物形状内の下半身の領域と判定する。
At this time, for example, an upper body region and a lower body region are set in a person-shaped template stored in the
なお、本実施形態における人物形状のテンプレートは、該人物の姿勢及び撮像された方向等の状態を反映した2次元のシルエットである場合がある。この時、被服推定部33は、人物形状取得部32において、いずれの人物状態を反映した人物形状のテンプレートにより、画像内において検出されるエッジが該人物形状に係るエッジであると識別されたかを判定してもよい。そして、被服推定部33は、当該判定により、該人物形状に係る人物の状態に関する情報を取得してもよい。この人物の状態に関する情報には、該人物形状に係る人物の姿勢及び撮像された方向等の情報が含まれうる。被服推定部33は、被服テンプレートデータベース22から被服データを取得する時、当該情報を用いてもよい。例えば、人物の状態に関する情報に、該人物形状に係る人物の撮像された方向の情報が含まれる場合、被服推定部33は、該人物形状に係る人物の撮像された方向の情報と向きフィールドに格納されている情報とが一致する被服データを被服テンプレートデータベース22からしてもよい。
It should be noted that the person-shaped template in this embodiment may be a two-dimensional silhouette that reflects the state of the person, the captured direction, and the like. At this time, the
<人数の集計>
次に、図4に示されるとおり、被服傾向算出部35は、性別推定部33及び被服推定部34により推定された性別及び被服の種類に基づいて、該性別及び被服の種類別に、画像データ取得部31により取得された画像に含まれる人数を集計する(S106)。
<Total number of people>
Next, as shown in FIG. 4, the clothing trend calculation unit 35 acquires image data for each gender and type of clothing based on the gender and the type of clothing estimated by the
なお、被服傾向算出部35は、被服推定部34が人物形状の被服の種類を推定する度にカウントすることで、該性別及び被服の種類別に、画像データ取得部31により取得された画像に含まれる人数を集計してもよい。すなわち、S106の処理は、S105の処理
と並列して実行されてもよい。
The clothing tendency calculation unit 35 counts each time the
ここで、本実施形態における被服の種類は、上述のとおり、被服データの袖フィールドに格納された被服の袖に関する情報及び被服データの品名フィールドに格納された被服の品名を示す情報のうち少なくとも一方を用いることで特定される。 Here, as described above, the type of clothing in this embodiment is at least one of the information on the sleeve of the clothing stored in the sleeve field of the clothing data and the information indicating the product name of the clothing stored in the product name field of the clothing data. It is specified by using.
なお、被服傾向算出部35は、複数の「被服の種類」を用意し、各「被服の種類」を別々に、カメラの撮像範囲における性別及び被服の種類別の人数を集計してもよい。例えば、本実施形態では、被服傾向算出部35は、被服の袖に関する情報に基づく集計と、被服の品名を示す情報に基づく集計とを別々に行ってもよい(後述する図9参照)。 The clothing tendency calculation unit 35 may prepare a plurality of “clothing types” and count the number of each “clothing type” separately for each gender and clothing type in the imaging range of the camera. For example, in the present embodiment, the clothing trend calculation unit 35 may separately perform aggregation based on information about clothes sleeves and aggregation based on information indicating the names of clothes (see FIG. 9 described later).
<服装の比率を算出>
次に、被服傾向算出部35は、該性別及び被服の種類別に集計した人数と性別ごとの人数とに基づいて、該性別ごとの人数における各種類の被服を着用している人数の比率を算出する(S107)。
<Calculation ratio>
Next, the clothing trend calculation unit 35 calculates the ratio of the number of people wearing each type of clothing in the number of people for each gender based on the number of people counted for each gender and type of clothing and the number of people for each gender. (S107).
まず、被服傾向算出部35は、画像内の人物であって、人物形状取得部32によって取得された人物形状に係る人物の性別ごとの総数(男性の総数と女性の総数)を求める。 First, the clothing tendency calculation unit 35 obtains the total number (the total number of men and the total number of women) for each gender of the person in the image and related to the person shape acquired by the person shape acquisition unit 32.
例えば、被服傾向算出部35は、性別推定部33による性別の推定に基づいて、性別ごとの人物の総数を求める。なお、この処理は、性別推定部33によって行われてもよい。すなわち、S104の処理において、性別推定部33が、人物形状取得部32によって取得された人物形状に係る人物の性別を推定する度に、男性と推定した人数と、女性と推定した人数と、をカウントすることで、性別ごとの人物の総数を求めてもよい。
For example, the clothing tendency calculation unit 35 obtains the total number of persons for each gender based on gender estimation by the
そして、被服傾向算出部35は、例えば、S106の処理において求めた、性別及び被服の種類別に集計した人数を、性別ごとの人物の総数で割ることによって、各種類の被服を着用している人数の性別ごとの人数に対する比率を算出する。 And the clothing tendency calculation part 35 is the number of people who wear each kind of clothes, for example by dividing the number of persons totaled according to the sex and the kind of clothes calculated | required in the process of S106 by the total number of the persons for every sex. Calculate the ratio of the number of people for each gender.
なお、当該比率の算出が、複数の被服の種類において行われてもよいことは、上記「<人数の集計>」と同様である。 Note that the calculation of the ratio may be performed for a plurality of clothing types, as in the above “<Total number of people>”.
<エンド>
最後に、制御部12は、例えば、服装傾向算出部35が求めた、性別及び被服の種類別に集計した人数、及び、性別ごとに算出した各種類の被服を着用している人数の比率の情報を画像データに対応付けて記憶部11に保存する。これにより、情報処理装置1は、処理を終了する(S108)。
<End>
Finally, for example, the
なお、制御部12は、画像データ取得部31が特定した撮像範囲及び撮像日時の情報も画像データに対応付ける。これによって、記憶部11に保存された画像データに対して、撮像範囲及び撮像日時のうち少なくとも一方を指定した検索を行うことが可能となる。そして、ユーザは、撮像範囲及び撮像日時のうち少なくとも一方により特定される画像内に存在する人物についての、性別及び被服の種類別に集計した人数、及び、性別ごとの算出した各種類の被服を着用している人数の比率の情報を知ることが可能となる。なお、以下、当該情報を服装傾向の情報と記載する。
Note that the
また、画像データ取得部31が取得した画像データが携帯端末カメラにより撮像された画像データである場合、当該画像データの属性情報にはユーザ名及びコメントが含まれている場合がある。制御部12は、このユーザ名及びコメントの情報をそのまま画像データの属性情報として記憶部11に格納してもよい。これによって、ユーザは、服装傾向の情
報に加えて、投稿者のコメントを知ることが可能となる。
When the image data acquired by the image data acquisition unit 31 is image data captured by a mobile terminal camera, the attribute information of the image data may include a user name and a comment. The
§4 実施の形態に係る作用及び効果
以上によれば、本実施形態に係る情報処理装置1では、まず、画像データ取得部31によってカメラ2を用いて撮像された画像データが撮像範囲及び撮像日時を特定して取得される。そして、人物形状取得部32によって、取得された画像から人物形状が取得される。続いて、性別推定部33によって、人物形状取得部32が取得した人物形状に係る人物の性別が、人物形状から把握される、性別を推定可能な形状上の特徴を用いることで推定される。また、被服推定部34による服装形状と人物形状との照合によって、人物形状取得部32が取得した人物形状に係る人物の着用している被服の種類が推定される。更に、被服傾向算出部35によって、服装傾向(人物の性別及び服装に関する情報)が算出される。
§4 Actions and effects according to the embodiment As described above, in the
したがって、本実施形態では、形状に基づいた照合及び比較のみで服装傾向が算出されるため、簡易な方法で、カメラ2により撮像された画像内に存在する人物の性別及び服装に関する情報を取得することが可能である。
Therefore, in this embodiment, since the clothing tendency is calculated only by collation and comparison based on the shape, information on the gender and clothing of the person existing in the image captured by the
§5 変形例
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。
§5 Modifications Embodiments of the present invention have been described in detail above. However, the above description is merely an example of the present invention in all respects and is not intended to limit the scope thereof. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention.
例えば、画像データに対応付けられて記憶部11に保存された服装傾向の情報は、インターネット5を介してユーザ端末に提供されてもよい。
For example, the information on the clothing tendency associated with the image data and stored in the
この時、ユーザ端末のユーザは、ユーザ端末のインタフェースを介して、場所と日時を指定する。該指定に基づいて、ユーザ端末は、情報処理装置1に対して、場所と日時を指定した、服装傾向の情報の提供を要求する。
At this time, the user of the user terminal designates the location and the date and time via the user terminal interface. Based on the designation, the user terminal requests the
情報処理装置1は、この要求を受信すると、指定されている場所及び日時に基づいて、服装傾向の情報を記憶部11から取得する。そして、情報処理装置1は、取得した服装傾向の情報をユーザ端末に返信する。なお、投稿者のユーザ名及びコメントの情報が存在する場合、情報処理装置1は、これらの情報も服装傾向の情報に合わせて返信する。図9は、服装の傾向を受信したユーザ端末に表示される情報の例である。図9に示される例では、撮像範囲、撮像日時、各種類の被服を着用している人数の性別ごとの人数に対する比率(被服の袖に関する情報に基づくもの、及び、被服の品名を示す情報に基づくもの)、投稿者のユーザ名及びコメントが表示されている。
When the
また、例えば、これらの情報は、撮像範囲及び撮像日時が特定されているので、地図情報、公共機関の乗り換え情報、天気予報情報、又は旅行情報等の情報提供サービスと合わせて提供されてもよい。 Further, for example, since the imaging range and the imaging date / time are specified, these pieces of information may be provided together with information providing services such as map information, public institution transfer information, weather forecast information, or travel information. .
これによって、本変形例では、特定地点に行こうとするユーザに対して、該特定地点における服装傾向の情報を提供することができる。また、本変形例では、ユーザは、当該服装傾向の情報を通して、自身の生活を快適にすることが可能となる。 Thereby, in this modification, it is possible to provide information on clothing trends at a specific point to a user who intends to go to the specific point. Moreover, in this modification, the user can make his / her life comfortable through the information on the clothing tendency.
§6 補足
本発明は、特許請求の範囲によってのみその範囲が解釈される。また、当業者は、上記本実施形態の記載から、特許請求の範囲の記載および技術常識に基づいて等価な範囲を実施することができる。また、本明細書において使用される用語は、特に言及しない限り、
当該分野で通常用いられる意味で用いられる。したがって、他に定義されない限り、本明細書中で使用される全ての専門用語および技術用語は、本発明の属する分野の当業者によって一般的に理解される意味と同じ意味を有する。両者が矛盾する場合、本明細書において使用される用語は、本明細書(定義を含めて)に記載された意味において理解される。
§6 Supplement The scope of the present invention is interpreted only by the claims. Moreover, those skilled in the art can implement an equivalent range from the description of the present embodiment based on the description of the claims and the common general technical knowledge. The terms used in this specification are as follows unless otherwise specified.
Used in the meaning normally used in the field. Thus, unless defined otherwise, all technical and technical terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. In the event of a conflict, terms used herein will be understood in the meaning set forth herein (including definitions).
1 情報処理装置
2 カメラ
3 通信部
4 画像取得装置
5 インターネット
11 記憶部
12 制御部
13 バス
14 入出力部
21 人物テンプレートデータベース
22 被服テンプレートデータベース
31 画像データ取得部
32 人物形状取得部
33 性別推定部
34 被服推定部
35 被服傾向算出部
DESCRIPTION OF
Claims (8)
カメラを用いて撮像された画像内において検出されるエッジを前記ひな形と照合することにより、該エッジが、該画像内に含まれる人物のエッジか否かを識別し、
前記人物ごとに、該画像内に含まれる人物のエッジと識別されたエッジを人物形状として取得し、
前記人物形状から把握される、性別を推定可能な形状上の特徴に基づいて、前記人物形状に係る人物の性別を推定し、
前記被服の種類ごとに用意された被服形状と前記人物形状とを照合することにより、前記人物形状に係る人物が着用している被服の種類を推定し、
前記推定された性別及び被服の種類に基づいて、該性別及び被服の種類別に、前記画像に含まれる人数を集計する制御部と、
を備えることを特徴とする情報処理装置。 A storage unit for storing a person-shaped template and a clothing shape prepared for each type of clothing;
Identifying whether the edge is the edge of a person included in the image by matching an edge detected in the image captured using the camera with the template,
For each person, an edge identified as the edge of the person included in the image is acquired as a person shape,
Estimating the gender of the person related to the person shape based on the shape characteristics that can be estimated from the person shape, gender,
By comparing the clothing shape prepared for each type of clothing with the person shape, estimating the type of clothing worn by the person related to the person shape,
Based on the estimated gender and type of clothing, a control unit that counts the number of people included in the image for each gender and type of clothing,
An information processing apparatus comprising:
前記制御部は、いずれの性別に係るひな形により、前記画像内において検出されるエッジが前記人物形状に係るエッジであると識別されたかを判定することで、前記人物形状に係る人物の性別を推定することを特徴とする請求項1に記載の情報処理装置。 The human-shaped template is a different template for each gender, including a shape feature that allows the gender to be estimated.
The control unit determines the gender of the person related to the person shape by determining whether the edge detected in the image is identified as the edge related to the person shape by using a template related to which gender. The information processing apparatus according to claim 1, wherein estimation is performed.
カメラを用いて撮像された画像内において検出されるエッジを前記ひな形と照合することにより、該エッジが、該画像内に含まれる人物のエッジか否かを識別するステップと、
前記人物ごとに、該画像内に含まれる人物のエッジと識別されたエッジを人物形状として取得するステップと、
前記人物形状から把握される、性別を推定可能な形状上の特徴に基づいて、前記人物形状に係る人物の性別を推定するステップと、
前記被服の種類ごとに用意された被服形状と前記人物形状とを照合することにより、前記人物形状に係る人物が着用している被服の種類を推定するステップと、
前記推定された性別及び被服の種類に基づいて、該性別及び被服の種類別に、前記画像に含まれる人数を集計するステップと、
を実行することを特徴とする情報処理方法。 A computer having a storage unit for storing a figure of a person shape and a clothing shape prepared for each type of clothing,
Identifying whether the edge is the edge of a person included in the image by matching an edge detected in an image captured using a camera with the template;
Obtaining for each person the edge identified as the edge of the person included in the image as a person shape;
Estimating a gender of a person related to the person shape based on a shape feature that can be estimated from the person shape and gender;
Estimating the type of clothing worn by a person related to the person shape by comparing the shape of the clothing prepared for each type of clothing with the person shape;
Based on the estimated gender and type of clothing, totaling the number of people included in the image for each gender and type of clothing;
The information processing method characterized by performing.
カメラを用いて撮像された画像内において検出されるエッジを前記ひな形と照合することにより、該エッジが、該画像内に含まれる人物のエッジか否かを識別するステップと、
前記人物ごとに、該画像内に含まれる人物のエッジと識別されたエッジを人物形状として取得するステップと、
前記人物形状から把握される、性別を推定可能な形状上の特徴に基づいて、前記人物形状に係る人物の性別を推定するステップと、
前記被服の種類ごとに用意された被服形状と前記人物形状とを照合することにより、前記人物形状に係る人物が着用している被服の種類を推定するステップと、
前記推定された性別及び被服の種類に基づいて、該性別及び被服の種類別に、前記画像に含まれる人数を集計するステップと、
を実行させるためのプログラム。 A computer equipped with a storage unit for storing a person-shaped template and a clothing shape prepared for each type of clothing,
Identifying whether the edge is the edge of a person included in the image by matching an edge detected in an image captured using a camera with the template;
Obtaining for each person the edge identified as the edge of the person included in the image as a person shape;
Estimating a gender of a person related to the person shape based on a shape feature that can be estimated from the person shape and gender;
Estimating the type of clothing worn by a person related to the person shape by comparing the shape of the clothing prepared for each type of clothing with the person shape;
Based on the estimated gender and type of clothing, totaling the number of people included in the image for each gender and type of clothing;
A program for running
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011031873A JP2012173761A (en) | 2011-02-17 | 2011-02-17 | Information processor, information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011031873A JP2012173761A (en) | 2011-02-17 | 2011-02-17 | Information processor, information processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012173761A true JP2012173761A (en) | 2012-09-10 |
Family
ID=46976650
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011031873A Withdrawn JP2012173761A (en) | 2011-02-17 | 2011-02-17 | Information processor, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012173761A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103945104A (en) * | 2013-01-21 | 2014-07-23 | 联想(北京)有限公司 | Information processing method and electronic equipment |
JP6089157B1 (en) * | 2016-06-16 | 2017-03-01 | 株式会社オプティム | Clothing information providing system, clothing information providing method, and program |
WO2017159060A1 (en) * | 2016-03-18 | 2017-09-21 | 日本電気株式会社 | Information processing device, control method, and program |
JP2018084890A (en) * | 2016-11-22 | 2018-05-31 | サイジニア株式会社 | Information processing unit, information processing method, and program |
JP2019020085A (en) * | 2017-07-20 | 2019-02-07 | 関西電力株式会社 | Air conditioning control device |
JP2019158433A (en) * | 2018-03-09 | 2019-09-19 | パナソニック株式会社 | Device and method for estimating weather |
JP2020510264A (en) * | 2017-03-20 | 2020-04-02 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Method and apparatus for recognizing descriptive attributes of appearance features |
WO2021176945A1 (en) * | 2020-03-05 | 2021-09-10 | Necソリューションイノベータ株式会社 | Authentication device |
-
2011
- 2011-02-17 JP JP2011031873A patent/JP2012173761A/en not_active Withdrawn
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103945104B (en) * | 2013-01-21 | 2018-03-23 | 联想(北京)有限公司 | Information processing method and electronic equipment |
CN103945104A (en) * | 2013-01-21 | 2014-07-23 | 联想(北京)有限公司 | Information processing method and electronic equipment |
US11158068B2 (en) | 2016-03-18 | 2021-10-26 | Nec Corporation | Information processing apparatus, control method, and program |
WO2017159060A1 (en) * | 2016-03-18 | 2017-09-21 | 日本電気株式会社 | Information processing device, control method, and program |
JPWO2017159060A1 (en) * | 2016-03-18 | 2019-01-17 | 日本電気株式会社 | Information processing apparatus, control method, and program |
US11823398B2 (en) | 2016-03-18 | 2023-11-21 | Nec Corporation | Information processing apparatus, control method, and program |
US11361452B2 (en) | 2016-03-18 | 2022-06-14 | Nec Corporation | Information processing apparatus, control method, and program |
US11205275B2 (en) | 2016-03-18 | 2021-12-21 | Nec Corporation | Information processing apparatus, control method, and program |
US10699422B2 (en) | 2016-03-18 | 2020-06-30 | Nec Corporation | Information processing apparatus, control method, and program |
JP6089157B1 (en) * | 2016-06-16 | 2017-03-01 | 株式会社オプティム | Clothing information providing system, clothing information providing method, and program |
WO2017216919A1 (en) * | 2016-06-16 | 2017-12-21 | 株式会社オプティム | Clothing information provision system, clothing information provision method, and program |
US10592551B2 (en) | 2016-06-16 | 2020-03-17 | Optim Corporation | Clothing information providing system, clothing information providing method, and program |
JP2018084890A (en) * | 2016-11-22 | 2018-05-31 | サイジニア株式会社 | Information processing unit, information processing method, and program |
JP2020510264A (en) * | 2017-03-20 | 2020-04-02 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Method and apparatus for recognizing descriptive attributes of appearance features |
US11410411B2 (en) | 2017-03-20 | 2022-08-09 | Huawei Technologies Co., Ltd. | Method and apparatus for recognizing descriptive attribute of appearance feature |
JP2019020085A (en) * | 2017-07-20 | 2019-02-07 | 関西電力株式会社 | Air conditioning control device |
JP2019158433A (en) * | 2018-03-09 | 2019-09-19 | パナソニック株式会社 | Device and method for estimating weather |
JP7094120B2 (en) | 2018-03-09 | 2022-07-01 | パナソニックホールディングス株式会社 | Weather estimation device and weather estimation method |
JPWO2021176945A1 (en) * | 2020-03-05 | 2021-09-10 | ||
WO2021176945A1 (en) * | 2020-03-05 | 2021-09-10 | Necソリューションイノベータ株式会社 | Authentication device |
JP7456659B2 (en) | 2020-03-05 | 2024-03-27 | Necソリューションイノベータ株式会社 | Authentication Device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012173761A (en) | Information processor, information processing method and program | |
US8724845B2 (en) | Content determination program and content determination device | |
US9558398B2 (en) | Person behavior analysis device, person behavior analysis system, person behavior analysis method, and monitoring device for detecting a part of interest of a person | |
US11138420B2 (en) | People stream analysis method, people stream analysis apparatus, and people stream analysis system | |
US9913578B2 (en) | Eye gaze detecting device and eye gaze detection method | |
JP5010937B2 (en) | Image processing apparatus, program, and image processing method | |
JP7251569B2 (en) | Store device, store management method, program | |
KR101827885B1 (en) | Apparatus and Method for measuring user`s action using mobile terminal | |
RU2019136741A (en) | LOCATION-BASED WIRELESS AUTHENTICATION | |
CN104584033A (en) | Interactive clothes searching in online stores | |
JP2018206321A (en) | Image processing device, image processing method and image processing program | |
JP6573311B2 (en) | Face recognition system, face recognition server, and face recognition method | |
WO2017217314A1 (en) | Response device, response system, response method, and recording medium | |
KR102580009B1 (en) | Clothes Fitting System And Operation Method of Threof | |
JP6969878B2 (en) | Discriminator learning device and discriminator learning method | |
CN113474816A (en) | Elastic dynamic projection mapping system and method | |
KR101307984B1 (en) | Method of robust main body parts estimation using descriptor and machine learning for pose recognition | |
US20210042971A1 (en) | Information processing device, display method, and program storage medium for monitoring object movement | |
JP2013073420A (en) | Recommendation system, recommendation method, and program | |
JP2020027496A (en) | Monitoring device, monitoring system, and program | |
CN105955451A (en) | Travel prompt method based on user image | |
JP2022073882A5 (en) | ||
JP2018081654A (en) | Searching device, display unit, and searching method | |
JP5373128B2 (en) | Person identification device, person identification method, and person identification program | |
JP2017130061A (en) | Image processing system, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140513 |