JP6633476B2 - 属性推定装置、属性推定方法および属性推定プログラム - Google Patents

属性推定装置、属性推定方法および属性推定プログラム Download PDF

Info

Publication number
JP6633476B2
JP6633476B2 JP2016166128A JP2016166128A JP6633476B2 JP 6633476 B2 JP6633476 B2 JP 6633476B2 JP 2016166128 A JP2016166128 A JP 2016166128A JP 2016166128 A JP2016166128 A JP 2016166128A JP 6633476 B2 JP6633476 B2 JP 6633476B2
Authority
JP
Japan
Prior art keywords
attribute
input
unit
estimating
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016166128A
Other languages
English (en)
Other versions
JP2018032340A (ja
Inventor
沙那恵 村松
沙那恵 村松
毅晴 江田
毅晴 江田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016166128A priority Critical patent/JP6633476B2/ja
Publication of JP2018032340A publication Critical patent/JP2018032340A/ja
Application granted granted Critical
Publication of JP6633476B2 publication Critical patent/JP6633476B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、属性推定装置、属性推定方法および属性推定プログラムに関する。
従来、画像を分析して、画像に映る対象の属性を推定する技術が知られている。例えば、人物が映った画像を分割し、人物属性推定のためのニューラルネットワークを用いて、当該人物の年齢や性別といった人物属性を推定する技術が知られている。
Jianqing Zhu, Shengcai Liao, Dong Yi, Zhen Lei, Stan Z. Li, "Multi-label CNN Based Pedestrian Attribute Learning for Soft Biometrics"
しかしながら、従来の技術には、少ない学習データでは、精度の高い画像の属性推定を行うことができない場合があるという問題があった。例えば、人物属性推定用のデータセットを大量に用意することは困難であるため、人物属性推定のためのディープニューラルネットワークを十分に学習させることができず、推定の精度を高くできない場合があった。
本発明の属性推定装置は、画像の入力を受け付ける入力部と、前記入力部に入力された入力画像を所定の規則に従い複数の分割画像に分割する領域分割部と、画像を複数のカテゴリのいずれかに分類する、学習済みの、1つのディープニューラルネットワークの一部に、前記複数の分割画像を入力し、前記複数の分割画像のそれぞれに対応した特徴量を抽出する特徴抽出部と、前記特徴量を基に回帰分析を行い、前記入力画像の特定のカテゴリに関する複数の属性を推定する属性推定部と、を有することを特徴とする。
本発明の属性推定方法は、属性推定装置によって実行される属性推定方法であって、画像の入力を受け付ける入力工程と、前記入力工程で入力された入力画像を所定の規則に従い複数の分割画像に分割する領域分割工程と、画像を複数のカテゴリのいずれかに分類する、学習済みの、1つのディープニューラルネットワークの一部に、前記複数の分割画像を入力し、前記複数の分割画像のそれぞれに対応した特徴量を抽出する特徴抽出工程と、前記特徴量を基に回帰分析を行い、前記入力画像の特定のカテゴリに関する複数の属性を推定する属性推定工程と、を含んだことを特徴とする。
本発明によれば、少ない学習データで精度の高い画像の属性推定を行うことができる。
図1は、第1の実施形態に係る属性推定装置の構成の一例を示す図である。 図2は、属性推定装置の処理の概要について説明するための図である。 図3は、画像の分割方法の一例を示す図である。 図4は、画像の分割方法の一例を示す図である。 図5は、DNNの一例を示す図である。 図6は、第1の実施形態に係る属性推定装置の処理の流れを示すフローチャートである。 図7は、プログラムが実行されることにより属性推定装置が実現されるコンピュータの一例を示す図である。
以下に、本願に係る属性推定装置、属性推定方法および属性推定プログラムの実施形態を図面に基づいて詳細に説明する。なお、この実施形態により本発明が限定されるものではない。
[第1の実施形態の構成]
まず、図1を用いて、第1の実施形態に係る属性推定装置の構成について説明する。図1は、第1の実施形態に係る属性推定装置の構成の一例を示す図である。図1に示すように、属性推定装置10は、入力部11、制御部12および出力部13を有する。
入力部11は、画像の入力を受け付ける。入力部11には、例えば、防犯カメラの映像等に基づく、人物が映った画像が入力される。この場合、属性推定装置10は、人物の属性を推定する。人物の属性には、例えば、人物の年齢、性別、服装等がある。本実施形態では、属性推定装置10が人物属性を推定する場合の例について説明する。
制御部12は、属性推定装置10全体を制御する。制御部12は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)等の集積回路である。また、制御部12は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部12は、各種のプログラムが動作することにより各種の処理部として機能する。例えば、制御部12は、領域分割部121、特徴抽出部122および属性推定部123を有する。
ここで、図2を用いて属性推定装置10の処理の概要について説明する。図2は、属性推定装置の処理の概要について説明するための図である。まず、領域分割部121は、入力部11に入力された入力画像を所定の規則に従い複数の分割画像に分割する。図2に示すように、属性推定装置10は、例えば、入力画像を分割画像1〜3に分割する。
領域分割部121によって分割される分割画像の数は3つに限定されず、規則にあわせた任意の数とすることができる。ここで、図3および4を用いて、領域分割部121による画像分割方法について説明する。図3および4は、画像の分割方法の一例を示す図である。
図3に示すように、領域分割部121は、あらかじめ指定された分割サイズおよび分割数に従って、入力画像を等分割することができる。図3の例では、領域分割部121は、入力画像を15個の分割画像に分割している。
また、図4に示すように、領域分割部121は、入力画像に映った人物の部位を検出し、検出した部位に基づいて分割を行うことができる。図4の例では、領域分割部121は、入力画像に映った人物の頭、右腕、胴体、左腕、右足および左足を検出し、入力画像を、検出した部位のそれぞれを含んだ6個の分割画像に分割している。
次に、特徴抽出部122は、複数の分割画像を1つのディープニューラルネットワーク(DNN)であるDNN122aに入力し、複数の分割画像のそれぞれに対応した特徴量を抽出する。ここで、DNN122aは、画像を複数のカテゴリのいずれかに分類する、学習済みの、1つのDNNの一部である。
図5を用いてDNN122aについて説明する。図5は、DNNの一例を示す図である。DNN122aは、DNN122bの一部である。ここで、DNN122bは、一般物体認識、すなわち画像に映った物体を認識し、画像を複数のカテゴリのいずれかに分類するためのDNNである。図5の例では、DNN122bは、入力画像をネコ、机、飛行機といったカテゴリに分類する。
また、DNN122bは、人物属性推定用の画像に限らず、様々なジャンルの画像データセットを用いて学習されていることとする。例えば、DNN122bは、ImageNet(参考URL:http://image-net.org/)等の画像を用いて学習されていてもよい。
また、DNN122aは、DNN122bの一部である。一般的に、画像認識に用いられるDNNでは、下位層ほどエッジや色等の抽象的な特徴を獲得できるフィルタを学習している。そこで、計算量を抑えつつ、より一般的な特徴量を抽出できるようにするため、図5の例では、DNN122bの、下位層である第1層から第3層までをDNN122aとしている。なお、DNN122aは、DNN122bの全部であってもよい。
属性推定部123は、特徴量を基に回帰分析を行い、入力画像の特定のカテゴリに関する複数の属性を推定する。本実施形態では、属性推定部123は、入力画像の人物カテゴリに関する属性、すなわち人物属性を推定する。また、特徴抽出部122は、属性推定部123によって推定された属性を基に、DNN122aの重みを更新してもよい。
図2に示すように、属性推定部123は、各属性に対応した回帰分析を行う。属性推定部123は、複数の分割画像のそれぞれに対応した特徴量のうち、推定する属性のそれぞれに対応した特徴量を用いて回帰分析を行う。このとき、各回帰分析について、どの分割画像の特徴量を入力とするかは事前に定義されていることとする。また、属性推定部123は、全ての分割画像の特徴量を1つの回帰分析の入力としてもよい。属性推定部123は、属性推定の結果として、例えば、入力画像が各属性を有する確率を出力する。
例えば、「赤いシャツを着ている」という人物属性には、入力画像の人物の上半身が映った部分が影響することがわかっている。このため、属性推定部123は、「赤いシャツを着ている」という属性の推定を行う場合、入力画像の上の方に対応する分割画像(例えば、図3の1〜9の番号が付された分割画像)に対応した特徴量を回帰分析の入力とする。
一方、「男女」や「年齢」等の属性には、入力画像のどの部分が直接的に影響するかが不明である。このため、属性推定部123は、「男女」や「年齢」という属性の推定を行う場合、全ての分割画像に対応した特徴量を回帰分析の入力とする。なお、属性推定部123は、DNNを用いた回帰分析を行うこととしてもよい。
ここで、特徴抽出部122によるDNN122aの重みの更新について説明する。まず、DNN122aの重みの初期値は、DNN122bの学習済みの重みである。属性推定部123による属性の推定が行われた後、特徴抽出部122は、推定された属性に基づいてDNN122aおよび回帰分析の重みを誤差逆伝播法で更新する。また、特徴抽出部122は、DNN122aの重みは初期値のままとし、回帰分析の重みを更新するようにしてもよい。なお、回帰分析の重みの初期値は、例えば0を中心とした乱数とすることができる。
[第1の実施形態の処理]
図6を用いて、属性推定装置10の処理の流れについて説明する。図6は、第1の実施形態に係る属性推定装置の処理の流れを示すフローチャートである。図6に示すように、入力部11は、入力画像の入力を受け付ける画像入力処理を行う(ステップS11)。次に、領域分割部121は、入力画像を所定の規則に従って複数の分割画像に分割する領域分割処理を行う(ステップS12)。
そして、特徴抽出部122は、複数の分割画像を1つのDNNに入力し、特徴抽出処理を行う(ステップS13)。次に、属性推定部123は、特徴量を基に回帰分析を行い、入力画像の各属性を推定する属性推定処理を行う(ステップS14)。
[第1の実施形態の効果]
入力部11は、画像の入力を受け付ける。また、領域分割部121は、入力部11に入力された入力画像を所定の規則に従い複数の分割画像に分割する。また、特徴抽出部122は、画像を複数のカテゴリのいずれかに分類する、学習済みの、1つのDNNの一部に、複数の分割画像を入力し、複数の分割画像のそれぞれに対応した特徴量を抽出する。また、属性推定部123は、特徴量を基に回帰分析を行い、入力画像の特定のカテゴリに関する複数の属性を推定する。
これにより、本実施形態によれば、少ない学習データで、精度の高い画像の属性推定を行うことができる。例えば、人物属性推定用のデータセットを大量に用意することができず、DNNの学習が十分に行えない場合であっても、別のカテゴリのデータセットにより学習済みのDNNを用いることで、通算した重みの更新回数を増加させることができ、推定精度を高めることができる。
また、様々なカテゴリ分類に使われたDNNを用いることで、一般的な特徴が抽出できる。抽出された一般的な特徴は、多様な画像に適合することが考えられるため、複数の分割画像のそれぞれに対応したDNNを用意することなく、推定精度を高くすることが可能となる。
また、特徴抽出部122は、別のカテゴリ分類に使われたDNNを特徴抽出器として利用することになるため、DNNの過学習を防ぐことができる。さらに、特徴抽出部122は、複数の分割画像ごとに異なるDNNを用意することなく、1つのDNNを用いて特徴抽出を行うため、省メモリを実現することができる。
また、属性推定部123は、特徴量のうち、推定する属性のそれぞれに対応した特徴量を用いて回帰分析を行ってもよい。このように、本実施形態では、特徴抽出部122に一般的な特徴量の抽出を実行させ、属性推定部123に推定する属性に応じた特徴量を入力することができるため、効率的に属性推定を行うことができるようになる。
また、属性推定部123は、入力画像の人物に関する属性を推定してもよい。人物に関する属性を推定する場合、属性によっては、人物の特定の部位が推定に有効である場合がある。このような属性を推定する場合、属性推定部123は、特定の部位が含まれた分割画像の特徴量のみを用いて属性推定を行うことができる。これにより、本実施形態によれば、効率的に人物に関する属性推定を行うことができるようになる。
また、特徴抽出部122は、属性推定部123によって推定された属性を基に、DNNの重みを誤差逆伝播法で更新してもよい。これにより、属性推定の結果を、個々の属性に関する部分のみに反映させるのではなく、DNN全体に反映させることができるため、マルチタスクによる学習が実現され、推定精度を高めることができる。
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
一実施形態として、属性推定装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の属性推定を実行する属性推定プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の属性推定プログラムを情報処理装置に実行させることにより、情報処理装置を属性推定装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
また、属性推定装置10は、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の属性推定に関するサービスを提供する属性推定サーバ装置として実装することもできる。例えば、属性推定サーバ装置は、画像を入力とし、各属性の推定結果を出力とする属性推定サービスを提供するサーバ装置として実装される。この場合、属性推定サーバ装置は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の属性推定に関するサービスを提供するクラウドとして実装することとしてもかまわない。
図7は、プログラムが実行されることにより属性推定装置が実現されるコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020、GPU1025を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、属性推定装置10の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、属性推定装置10における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSD(Solid State Drive)により代替されてもよい。
また、上述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して実行する。
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093およびプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093およびプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。なお、上述したCPU1020による処理は、GPU1025によって行われてもよい。
10 属性推定装置
11 入力部
12 制御部
13 出力部
121 領域分割部
122 特徴抽出部
123 属性推定部

Claims (6)

  1. 画像の入力を受け付ける入力部と、
    前記入力部に入力された入力画像に映った人物の頭、右腕、胴体、左腕、右足および左足を検出し、入力画像を、検出した部位のそれぞれを含んだ分割画像に分割する領域分割部と、
    画像を複数のカテゴリのいずれかに分類する、学習済みの、1つのディープニューラルネットワークの一部に、前記複数の分割画像を入力し、前記ディープニューラルネットワークの下位層から前記複数の分割画像のそれぞれに対応した特徴量を抽出する特徴抽出部と、
    前記特徴量を基に回帰分析を行い、前記入力画像の特定のカテゴリに関する複数の属性を推定する属性推定部と、
    を有し、
    前記特徴抽出部は、前記属性推定部によって推定された属性に基づいて、前記回帰分析の重みのみを更新する
    ことを特徴とする属性推定装置。
  2. 前記属性推定部は、前記特徴量のうち、推定する属性のそれぞれに対応した特徴量を用いて回帰分析を行うことを特徴とする請求項1に記載の属性推定装置。
  3. 前記特徴抽出部は、前記属性推定部によって推定された属性を基に、前記ディープニューラルネットワークの重みを誤差逆伝播法で更新することを特徴とする請求項1または2に記載の属性推定装置。
  4. 前記属性推定部は、前記入力画像の人物に関する属性を推定することを特徴とする請求項1から3のいずれか1項に記載の属性推定装置。
  5. 属性推定装置によって実行される属性推定方法であって、
    画像の入力を受け付ける入力工程と、
    前記入力工程で入力された入力画像に映った人物の頭、右腕、胴体、左腕、右足および左足を検出し、入力画像を、検出した工程位のそれぞれを含んだ分割画像に分割する領域分割工程と、
    画像を複数のカテゴリのいずれかに分類する、学習済みの、1つのディープニューラルネットワークの一工程に、前記複数の分割画像を入力し、前記ディープニューラルネットワークの下位層から前記複数の分割画像のそれぞれに対応した特徴量を抽出する特徴抽出工程と、
    前記特徴量を基に回帰分析を行い、前記入力画像の特定のカテゴリに関する複数の属性を推定する属性推定工程と、
    を含み、
    前記特徴抽出工程は、前記属性推定工程によって推定された属性に基づいて、前記回帰分析の重みのみを更新する
    ことを特徴とする属性推定方法。
  6. コンピュータを、請求項1から4のいずれか1項に記載の属性推定装置として機能させるための属性推定プログラム。
JP2016166128A 2016-08-26 2016-08-26 属性推定装置、属性推定方法および属性推定プログラム Active JP6633476B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016166128A JP6633476B2 (ja) 2016-08-26 2016-08-26 属性推定装置、属性推定方法および属性推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016166128A JP6633476B2 (ja) 2016-08-26 2016-08-26 属性推定装置、属性推定方法および属性推定プログラム

Publications (2)

Publication Number Publication Date
JP2018032340A JP2018032340A (ja) 2018-03-01
JP6633476B2 true JP6633476B2 (ja) 2020-01-22

Family

ID=61304529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016166128A Active JP6633476B2 (ja) 2016-08-26 2016-08-26 属性推定装置、属性推定方法および属性推定プログラム

Country Status (1)

Country Link
JP (1) JP6633476B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7139749B2 (ja) 2018-07-23 2022-09-21 日本電信電話株式会社 画像認識学習装置、画像認識装置、方法、及びプログラム
JP2020021430A (ja) * 2018-08-03 2020-02-06 Linne株式会社 画像情報表示装置
JP7410370B2 (ja) * 2019-08-27 2024-01-10 株式会社プロギア ショット管理システム及びショット管理方法
JP7352491B2 (ja) * 2020-02-28 2023-09-28 Kddi株式会社 ユーザ周辺データに応じて雑談のような対話を進行させる対話装置、プログラム及び方法
JP7481956B2 (ja) * 2020-08-26 2024-05-13 株式会社東芝 推論装置、方法、プログラムおよび学習装置
WO2023177222A1 (ko) * 2022-03-16 2023-09-21 에스케이텔레콤 주식회사 이미지 내 사람의 속성 추정 방법 및 장치

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6101470B2 (ja) * 2012-07-23 2017-03-22 日本放送協会 顔表情解析装置および顔表情解析プログラム

Also Published As

Publication number Publication date
JP2018032340A (ja) 2018-03-01

Similar Documents

Publication Publication Date Title
JP6633476B2 (ja) 属性推定装置、属性推定方法および属性推定プログラム
US11537884B2 (en) Machine learning model training method and device, and expression image classification method and device
US10726244B2 (en) Method and apparatus detecting a target
US20190279014A1 (en) Method and apparatus for detecting object keypoint, and electronic device
US20210334706A1 (en) Augmentation device, augmentation method, and augmentation program
EP3198373B1 (en) Tracking hand/body pose
US10572072B2 (en) Depth-based touch detection
CN106897746B (zh) 数据分类模型训练方法和装置
CN105765609B (zh) 使用有向无环图的存储器促进
US11341770B2 (en) Facial image identification system, identifier generation device, identification device, image identification system, and identification system
US9613296B1 (en) Selecting a set of exemplar images for use in an automated image object recognition system
US20130071816A1 (en) Methods and systems for building a universal dress style learner
CN107633205A (zh) 嘴唇动作分析方法、装置及存储介质
WO2022213857A1 (zh) 动作识别方法和装置
WO2014180108A1 (en) Systems and methods for matching face shapes
JP6989450B2 (ja) 画像解析装置、画像解析方法及びプログラム
US20210073590A1 (en) Method Apparatus and System for Generating a Neural Network and Storage Medium Storing Instructions
JP2015036939A (ja) 特徴抽出プログラム及び情報処理装置
CN110717407A (zh) 基于唇语密码的人脸识别方法、装置及存储介质
CN111340213A (zh) 神经网络的训练方法、电子设备、存储介质
US20190294924A1 (en) Computer vision training using paired image data
WO2021027329A1 (zh) 基于图像识别的信息推送方法、装置、及计算机设备
WO2018137226A1 (zh) 指纹提取方法及装置
CN107729909B (zh) 一种属性分类器的应用方法及装置
CN109657710B (zh) 数据筛选方法、装置、服务器及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191212

R150 Certificate of patent or registration of utility model

Ref document number: 6633476

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150