JP5930450B2 - アノテーション装置及びアノテーションシステム - Google Patents
アノテーション装置及びアノテーションシステム Download PDFInfo
- Publication number
- JP5930450B2 JP5930450B2 JP2015535228A JP2015535228A JP5930450B2 JP 5930450 B2 JP5930450 B2 JP 5930450B2 JP 2015535228 A JP2015535228 A JP 2015535228A JP 2015535228 A JP2015535228 A JP 2015535228A JP 5930450 B2 JP5930450 B2 JP 5930450B2
- Authority
- JP
- Japan
- Prior art keywords
- annotation
- face image
- attribute
- user interface
- synthesized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
Description
本発明は、アノテーション装置及びアノテーションシステムに関する。
タバコの自動販売機又は銀行のATM等のように本人確認が必要な装置において、ヒトの顔をカメラで撮影して顔画像を取得し、顔画像に年齢及び性別等の属性を付与する装置が提案されている(例えば、特許文献1)。年齢等の属性の付与は、例えば、多数のお手本顔画像情報により機械が学習してモデルを作成し、属性付与対象の顔画像を前記モデルと対比するというモデル学習で実施される。
前記モデル学習では、多数の顔画像に対し、ヒトが年齢等の属性を付与(アノテーション)してモデルを作成することになる。しかしながら、特許文献1に記載の属性付与では、顔画像を加工せずに、個人が特定できる状態のままアノテーター(属性付与者)に提示しており、個人のプライバシー保護上、問題がある。
そこで、本発明は、個人のプライバシーを保護しつつ、顔画像に属性を付与することが可能なアノテーション装置及びアノテーションシステムの提供を目的とする。
前記目的を達成するために、本発明のアノテーション装置は、
使用者端末と通信回線網を介して接続可能であり、
顔画像データベース、合成顔画像生成手段及びアノテーション用ユーザインターフェース作成手段を含み、
前記顔画像データベースには、予め取得された複数人の顔画像が保存されており、
前記合成顔画像生成手段は、前記顔画像データベースに保存された複数人の顔画像を参照して合成顔画像を生成し、
前記アノテーション用ユーザインターフェース作成手段は、前記合成顔画像と、前記使用者端末における使用者の操作により属性を付与させる属性アノテーションを実施可能とする属性アノテーション操作機能とを含むアノテーション用ユーザインターフェースを作成する、
ことを特徴とする。
使用者端末と通信回線網を介して接続可能であり、
顔画像データベース、合成顔画像生成手段及びアノテーション用ユーザインターフェース作成手段を含み、
前記顔画像データベースには、予め取得された複数人の顔画像が保存されており、
前記合成顔画像生成手段は、前記顔画像データベースに保存された複数人の顔画像を参照して合成顔画像を生成し、
前記アノテーション用ユーザインターフェース作成手段は、前記合成顔画像と、前記使用者端末における使用者の操作により属性を付与させる属性アノテーションを実施可能とする属性アノテーション操作機能とを含むアノテーション用ユーザインターフェースを作成する、
ことを特徴とする。
本発明のアノテーションシステムは、
使用者端末及びアノテーション装置を含み、
前記アノテーション装置が、前記本発明のアノテーション装置である、
ことを特徴とする。
使用者端末及びアノテーション装置を含み、
前記アノテーション装置が、前記本発明のアノテーション装置である、
ことを特徴とする。
本発明のアノテーション装置及びアノテーションシステムによれば、個人のプライバシーを保護しつつ、顔画像に属性を付与することが可能である。
本発明のアノテーション装置において、前記合成顔画像生成手段は、前記顔画像データベースに保存された顔画像を、抽出した画像特徴の類似度に基づき複数のクラスタにクラスタリングした後、各クラスタ毎に、前記合成顔画像を生成する、という態様であってもよい。
本発明のアノテーション装置において、前記合成顔画像情報中の特定の個人の情報が占める割合が、33%以下であることが好ましい。前記割合を33%以下とすることで、より好適に個人のプライバシーを保護することが可能となる。
本発明のアノテーション装置において、さらに、合成顔画像データベース及び属性情報データベースを含み、前記アノテーション用ユーザインターフェース作成手段は、作成した前記アノテーション用ユーザインターフェースを前記使用者端末及び前記合成顔画像データベースに送信可能であり、前記合成顔画像データベースは、前記アノテーション用ユーザインターフェース作成手段から受信した前記アノテーション用ユーザインターフェースに含まれる合成顔画像を保存し、前記属性情報データベースは、前記使用者端末から送信された前記使用者の操作による属性アノテーション結果を受信し、前記属性の情報を保存する、という態様であることが好ましい。この態様によれば、前記合成顔画像データベースに前記合成顔画像を、前記属性情報データベースに前記属性の情報を保存(蓄積)することが可能となる。
本発明のアノテーション装置において、さらに、第二の合成顔画像生成手段及び第二のアノテーション用ユーザインターフェース作成手段を含み、前記第二の合成顔画像生成手段は、前記顔画像データベースに保存された複数人の顔画像、前記合成顔画像データベースに保存された前記合成顔画像、及び、前記属性情報データベースに保存された前記属性の情報を参照して第二の合成顔画像を生成し、前記第二のアノテーション用ユーザインターフェース作成手段は、前記第二の合成顔画像と、前記使用者端末における使用者の操作により属性を付与させる属性アノテーションを実施可能とする属性アノテーション操作機能とを含む第二のアノテーション用ユーザインターフェースを作成し、かつ、作成した前記第二のアノテーション用ユーザインターフェースを前記使用者端末及び前記合成顔画像データベースに送信可能であり、前記合成顔画像データベースは、前記第二のアノテーション用ユーザインターフェース作成手段から受信した前記第二のアノテーション用ユーザインターフェースに含まれる前記第二の合成顔画像を保存することでデータを更新し、前記属性情報データベースは、前記使用者端末から送信された前記使用者の操作による属性アノテーション結果を受信し、新たに受信した前記属性の情報を保存することでデータを更新する、という態様であることが好ましい。この態様によれば、前記第二の合成顔画像生成手段が、前記属性情報データベースに保存された前記属性の情報を参照するため、アノテーション対象の属性と相関性の高い画像特徴抽出を実施でき、高品質のアノテーションを実現可能である。
本発明のアノテーション装置において、前記第二の合成顔画像生成手段は、前記顔画像データベースに保存された複数人の顔画像を、抽出した画像特徴の類似度に基づき複数のクラスタにクラスタリングした後、各クラスタ毎に、前記第二の合成顔画像を生成する、という態様であってもよい。
本発明のアノテーション装置において、前記第二の合成顔画像情報中の特定の個人の情報が占める割合が、33%以下であることが好ましい。前記割合を33%以下とすることで、より好適に個人のプライバシーを保護することが可能となる。
つぎに、本発明のアノテーション装置及びアノテーションシステムについて、例をあげて説明する。ただし、本発明は、下記の例に限定されない。なお、図1から図12において、同一部分には同一符号を付している。
[実施形態1]
図1に、本発明のアノテーション装置の一例の概略図を示す。また、図2に、図1に示すアノテーション装置を用いた本発明のアノテーションシステムの一例の概略図を示す。図1に示すとおり、本実施形態のアノテーション装置1は、顔画像データベース(DB)11及びアノテーション用サーバ12を含む。また、図2に示すとおり、アノテーション装置1は、使用者端末2と通信回線網3を介して接続可能である。
図1に、本発明のアノテーション装置の一例の概略図を示す。また、図2に、図1に示すアノテーション装置を用いた本発明のアノテーションシステムの一例の概略図を示す。図1に示すとおり、本実施形態のアノテーション装置1は、顔画像データベース(DB)11及びアノテーション用サーバ12を含む。また、図2に示すとおり、アノテーション装置1は、使用者端末2と通信回線網3を介して接続可能である。
顔画像DB11には、予め取得された複数人の顔画像が保存されている。顔画像DB11は、例えば、インターネット上で公開されている公開DBを用いてもよいし、複数人の顔画像を予め取得することで作製してもよい。
アノテーション用サーバ12は、合成顔画像生成手段及びアノテーション用ユーザインターフェース(UI)作成手段を含む。前記合成顔画像生成手段は、顔画像DB11に保存された複数の顔画像を参照して合成顔画像を生成する。前記アノテーション用UI作成手段は、前記合成顔画像と、使用者端末2における使用者の操作により属性を付与させる属性アノテーションを実施可能とする属性アノテーション操作機能とを含むアノテーション用UIを作成する。
使用者端末2は、特に制限されず、例えば、パーソナルコンピュータ(PC)、携帯電話、スマートフォン等があげられる。
通信回線網3は、有線でも無線でもよく、例えば、インターネット、LAN(Local Area Network)等があげられる。
図3のフローチャートに、本実施形態のアノテーション装置1及びアノテーションシステムによる属性アノテーションの処理の流れの一例を示す。
まず、アノテーション用サーバ12内の前記合成顔画像生成手段を用いて、顔画像DB11に保存された複数人の顔画像を参照して、合成顔画像を生成する(S1)。
図4のフローチャートに、前記合成顔画像生成手段による合成顔画像生成の処理の流れの一例を示す。
まず、顔画像DB11から複数人の顔画像を入力する(S11)。
つぎに、前記複数人の顔画像から画像特徴量を抽出する(S12)。前記画像特徴としては、例えば、RGB特徴、輝度分布、HOG(Histograms of Oriented Gradients)特徴等があげられる。
つぎに、画像特徴量を抽出した全ての顔画像について、次元削減を行う(S13)。この次元削減は、参照する属性情報が無いため、属性情報と無関係に、顔画像の特徴が大きいところを残して、他の部分を削減する教師無し次元削減となる。前記次元削減は、例えば、主成分分析(Principal Component Analysis:PCA)、カーネルPCA、局所性保存射影(Locality Preserving Projection:LPP)等により実施できる。
つぎに、前記次元削減後の顔画像を、画像特徴の類似度に基づき複数のクラスタにクラスタリング(グループ分け)する(S14)。前記クラスタリングは、例えば、k−平均法、ファジィ・クラスタリング等により実施できる。
図5に、前記クラスタリングの一例を示す。図5においては、部分空間100において、24人の顔画像102を、3個のクラスタ101にクラスタリングしている。ただし、図5は、前記クラスタリングの一例を模式的に示したに過ぎず、顔画像102及びクラスタ101の数はこの例に限定されない。
つぎに、各クラスタ毎に、合成顔画像を生成する(図4のS15)。前記合成顔画像の生成にあたっては、S12で抽出した画像特徴を使用する。前記合成顔画像の生成は、例えば、平均顔等の合成により実施できる。前記合成顔画像の生成においては、各クラスタ内の全ての顔画像を使用してもよいし、より特徴の近い一部の顔画像のみを使用してもよい。また、前記合成顔画像の生成は、部分空間上の全てのクラスタについて実施してもよいし、一部のクラスタのみについて実施してもよい。
図6に、前記合成顔画像生成手段における合成顔画像の生成の一例を示す。図6に示す例では、前記部分空間上のあるクラスタ101内の顔画像102の平均顔を合成することで、合成顔画像110を得ている。一方、図6に示すように、合成顔画像110から、クラスタ101内の個人を特定することは不可能である。前述のとおり、前記合成顔画像情報中の特定の個人(例えば、図6に示すクラスタ101の中央の顔画像の人物)の情報が占める割合は、33%以下であることが好ましい。前記割合を33%以下とすることで、より好適に個人のプライバシーを保護することが可能となる。
つぎに、前記合成顔画像を、アノテーション用UI作成手段へと出力し(図4のS16)、前記合成顔画像の生成を終了する。
つぎに、アノテーション用サーバ12内のアノテーション用UI作成手段を用いて、前記合成顔画像と、使用者端末2における使用者の操作により属性を付与させる属性アノテーションを実施可能とする属性アノテーション操作機能とを含むアノテーション用UIを作成する(図3のS21)。
図7に、前記アノテーション用UIの一例を示す。図7に示すとおり、本例のアノテーション用UI200は、合成顔画像110と、使用者端末2における使用者の操作により属性を付与させる属性アノテーションを実施可能とする属性アノテーション操作機能111とを含む。図7に示す例では、属性アノテーション操作機能111は、アノテーション用の質問1(同図では、「性別は?」)及び回答用のアイコン(同図では、「女性」及び「男性」)、アノテーション用の質問2(同図では、「かわいいですか?」)及び回答用のアイコン(同図では、「いいえ」の−2から「はい」の+2の五段階評価)、並びに、合成顔画像1枚毎にアノテーション処理を繰り返すためのボタン(同図では、「登録(次の画像に進む)」)となっている。
作成されたアノテーション用UI200は、通信回線網3を介して使用者端末2に送信され、使用者端末2における使用者の操作により属性アノテーションが実施される(図3のS22)。前記属性アノテーションが実施される属性としては、例えば、顔の印象度(「かわいい」、「明るくさわやか」等の度合い)、性別(「男性」、「女性」)、顔の表情(「笑顔」、「悲しい顔」、「怒っている顔」等)、年齢(「31歳」等)等があげられる。アノテーション用UI200の作成(図3のS21)及び属性アノテーション(図3のS22)は、前記合成顔画像1枚毎に繰り返される。
本実施形態のアノテーション装置1及びアノテーションシステムによれば、アノテーション用UI200に個人を特定することが不可能な合成顔画像110を用いることで、個人のプライバシーを保護しつつ、顔画像に属性を付与することが可能である。
[実施形態2]
図8に、本発明のアノテーション装置のその他の例の概略図を示す。また、図9に、図8に示すアノテーション装置を用いた本発明のアノテーションシステムの一例の概略図を示す。図8及び図9に示すとおり、本実施形態のアノテーション装置1及びアノテーションシステムは、さらに、合成顔画像データベース(DB)13及び属性情報データベース(DB)14を含む点を除き、図1に示す実施形態1のアノテーション装置1及び図2に示す実施形態1のアノテーションシステムと同様である。
図8に、本発明のアノテーション装置のその他の例の概略図を示す。また、図9に、図8に示すアノテーション装置を用いた本発明のアノテーションシステムの一例の概略図を示す。図8及び図9に示すとおり、本実施形態のアノテーション装置1及びアノテーションシステムは、さらに、合成顔画像データベース(DB)13及び属性情報データベース(DB)14を含む点を除き、図1に示す実施形態1のアノテーション装置1及び図2に示す実施形態1のアノテーションシステムと同様である。
本実施形態のアノテーション装置1及びアノテーションシステムにおいて、アノテーション用サーバ12内の前記アノテーション用UI作成手段は、作成したアノテーション用UI200を使用者端末2及び合成顔画像DB13に送信可能である。
合成顔画像DB13は、前記アノテーション用UI作成手段から受信したアノテーション用UI200に含まれる合成顔画像110を保存する。
属性情報DB14は、使用者端末2から送信された前記使用者の操作による属性アノテーション結果を受信し、前記属性の情報を保存する。
図10のフローチャートに、本実施形態のアノテーション装置1及びアノテーションシステムによる属性アノテーションの処理の流れの一例を示す。
まず、実施形態1と同様にして、合成顔画像110の生成(S1)、アノテーション用UI200の作成(S21)及び属性アノテーション(S22)を実施する。
つぎに、アノテーション用サーバ12内のアノテーション用UI作成手段は、作成されたアノテーション用UI200を、合成顔画像DB13に送信する。合成顔画像DB13は、前述のとおり、前記アノテーション用UI作成手段から受信したアノテーション用UI200に含まれる合成顔画像110を保存する(S23)。
つぎに、使用者端末2は、前記使用者の操作による属性アノテーション結果を、属性情報DB14に送信する。属性情報DB14は、前述のとおり、使用者端末2から送信された前記使用者の操作による属性アノテーション結果を受信し、前記属性の情報を保存する(S24)。
本実施形態のアノテーション装置1及びアノテーションシステムによれば、合成顔画像DB13に前記合成顔画像110を、属性情報DB14に前記属性の情報を保存(蓄積)することが可能となる。
[実施形態3]
本実施形態のアノテーション装置1及びアノテーションシステムは、アノテーション用サーバ12が、前記合成顔画像生成手段及び前記アノテーション用UI作成手段に加え、さらに、第二の合成顔画像生成手段及び第二のアノテーション用UI作成手段を含む点を除き、図8に示す実施形態2のアノテーション装置1及び図9に示すアノテーションシステムと同様である。本実施形態のアノテーション装置1及びアノテーションシステムにおいて、前記合成顔画像生成手段とは別に前記第二の合成顔画像生成手段を設けてもよいし、前記合成顔画像生成手段が前記第二の合成顔画像生成手段を兼ねてもよい。また、本実施形態のアノテーション装置1及びアノテーションシステムにおいて、前記アノテーション用UI作成手段とは別に前記第二のアノテーション用UI作成手段を設けてもよいし、前記アノテーション用UI作成手段が前記第二のアノテーション用UI作成手段を兼ねてもよい。
本実施形態のアノテーション装置1及びアノテーションシステムは、アノテーション用サーバ12が、前記合成顔画像生成手段及び前記アノテーション用UI作成手段に加え、さらに、第二の合成顔画像生成手段及び第二のアノテーション用UI作成手段を含む点を除き、図8に示す実施形態2のアノテーション装置1及び図9に示すアノテーションシステムと同様である。本実施形態のアノテーション装置1及びアノテーションシステムにおいて、前記合成顔画像生成手段とは別に前記第二の合成顔画像生成手段を設けてもよいし、前記合成顔画像生成手段が前記第二の合成顔画像生成手段を兼ねてもよい。また、本実施形態のアノテーション装置1及びアノテーションシステムにおいて、前記アノテーション用UI作成手段とは別に前記第二のアノテーション用UI作成手段を設けてもよいし、前記アノテーション用UI作成手段が前記第二のアノテーション用UI作成手段を兼ねてもよい。
前記第二の合成顔画像生成手段は、顔画像DB11に保存された複数人の顔画像、合成顔画像DB13に保存された合成顔画像110、及び、属性情報DB14に保存された前記属性の情報を参照して第二の合成顔画像を生成する。
前記第二のアノテーション用UI作成手段は、前記第二の合成顔画像と、使用者端末2における使用者の操作により属性を付与させる属性アノテーションを実施可能とする属性アノテーション操作機能とを含む第二のアノテーション用UIを作成し、かつ、作成した前記第二のアノテーション用UIを使用者端末2及び合成顔画像DB13に送信可能である。
合成顔画像DB13は、前記第二のアノテーション用UI作成手段から受信した前記第二のアノテーション用UIに含まれる前記第二の合成顔画像を保存することでデータを更新する。
属性情報DB14は、使用者端末2から送信された前記使用者の操作による属性アノテーション結果を受信し、新たに受信した前記属性の情報を保存することでデータを更新する。
図11のフローチャートに、本実施形態のアノテーション装置1及びアノテーションシステムによる属性アノテーションの処理の流れの一例を示す。
まず、実施形態2と同様にして、合成顔画像110の生成(S1)、アノテーション用UI200の作成(S21)、属性アノテーション(S22)、合成顔画像DB13へのアノテーション用UI200に含まれる合成顔画像110の保存(S23)及び属性情報DB14への前記属性の情報の保存(S24)を実施する。
つぎに、アノテーション用サーバ12内の第二の合成顔画像生成手段を用いて、顔画像DB11に保存された複数人の顔画像、合成顔画像DB13に保存された合成顔画像110、及び、属性情報DB14に保存された前記属性の情報を参照して第二の合成顔画像を生成する(S3)。
図12のフローチャートに、前記第二の合成顔画像生成手段による第二の合成顔画像生成の処理の流れの一例を示す。
まず、顔画像DB11から複数人の顔画像を、合成顔画像DB13から合成顔画像110を、属性情報DB14から前記属性の情報を入力する(S31)。
つぎに、前記複数人の顔画像及び合成顔画像110から画像特徴量を抽出する(S32)。
つぎに、前述の図4のS13と同様にして、画像特徴量を抽出した全ての顔画像について、次元削減を行う(S33)。この次元削減は、属性情報と無関係に、顔画像の特徴が大きいところを残して、他の部分を削減する教師無し次元削減とする。
つぎに、S31で入力された前記属性の情報と相関性の高い画像特徴を抽出し、教師付き次元削減を実施する(S34)。なお、本工程では、教師付き次元削減に代えて、若しくは教師付き次元削減に加え、半教師付き次元削減を実施してもよい。前記半教師付き次元削減は、教師データ(属性情報が付与された顔画像)の数が少ない場合に、次元削減が不安定になるのを回避でき、特に有効である。本工程における次元削減は、例えば、正準相関分析(Canonical Correlation Analysis:CCA)、正則化正準相関分析(Regularized Canonical Correlation Analysis:RCCA)、カーネル正準相関分析、半教師付き正準相関分析、線形判別分析(Linear Discriminant Analysis:LDA)等により実施できる。
つぎに、前記次元削減後の顔画像を、画像特徴の類似度に基づき複数のクラスタにクラスタリング(グループ分け)する(S35)。前記クラスタリングは、例えば、k−平均法、ファジィ・クラスタリング等により実施できる。
つぎに、図4のS15の合成顔画像110の生成と同様にして、各クラスタ毎に、第二の合成顔画像を生成する(S36)。前述のとおり、前記第二の合成顔画像情報中の特定の個人の情報が占める割合は、33%以下であることが好ましい。前記割合を33%以下とすることで、より好適に個人のプライバシーを保護することが可能となる。
つぎに、前記第二の合成顔画像を、第二のアノテーション用UI作成手段へと出力し(S37)、前記第二の合成顔画像の生成を終了する。
つぎに、アノテーション用サーバ12内の第二のアノテーション用UI作成手段を用いて、前記第二の合成顔画像と、前記使用者端末における使用者の操作により属性を付与させる属性アノテーションを実施可能とする属性アノテーション操作機能とを含む第二のアノテーション用UIを作成する(図11のS41)。前記第二のアノテーションUIとしては、例えば、図7に示すアノテーション用UI200の合成顔画像110を、前記第二の合成顔画像に置換したもの等があげられる。
作成された前記第二のアノテーション用UIは、通信回線網3を介して使用者端末2に送信され、使用者端末2における使用者の操作により属性アノテーションが実施される(図11のS42)。
つぎに、アノテーション用サーバ12内の第二のアノテーション用UI作成手段は、作成された前記第二のアノテーション用UIを、合成顔画像DB13に送信する。合成顔画像DB13は、前述のとおり、前記第二のアノテーション用UI作成手段から受信した前記第二のアノテーション用UIに含まれる前記第二の合成顔画像を保存することでデータを更新する(S43)。これにより、合成顔画像DB13には、合成顔画像110及び前記第二の合成顔画像が蓄積される。
つぎに、使用者端末2は、前記使用者の操作による属性アノテーション結果を、属性情報DB14に送信する。属性情報DB14は、前述のとおり、使用者端末2から送信された前記使用者の操作による属性アノテーション結果を受信し、新たに受信した前記属性の情報を保存することでデータを更新する(S44)。これにより、属性情報DB14には、S24で保存された前記属性の情報及びS44で保存された前記属性の情報が蓄積される。前記第二の合成顔画像の合成(S3)、前記第二のアノテーションUIの作成(S41)、前記属性アノテーション(S42)、合成顔画像DB13の更新(S43)及び属性情報DB14の更新(S44)は、何回か繰り返される。
本実施形態のアノテーション装置1及びアノテーションシステムによれば、前記第二の合成顔画像生成手段が、属性情報DB14に保存された前記属性の情報を参照するため、アノテーション対象の属性と相関性の高い画像特徴抽出を実施でき、高品質のアノテーションを実現可能である。
つぎに、本発明の実施例について説明する。なお、本発明は、下記の実施例により限定及び制限されない。
図9に示すアノテーションシステムを用いて、図11に示すフローチャートに従って、顔の印象度(かわいい)の属性アノテーションを実施した。
まず、340人の顔画像を収集し、顔画像DB11に保存した。前記顔画像は、全て、下記条件を満たすものとした。
(顔画像条件)
サイズ:64ピクセル×64ピクセル
目、鼻及び口の位置:全ての顔画像において、同じ位置にそろえる(正規化済み)
属性情報:未知
(顔画像条件)
サイズ:64ピクセル×64ピクセル
目、鼻及び口の位置:全ての顔画像において、同じ位置にそろえる(正規化済み)
属性情報:未知
つぎに、図4に示すフローチャートに従って、アノテーション用サーバ12内の合成顔画像生成手段を用いて、合成顔画像を生成した(S1)。
すなわち、まず、前記合成顔画像生成手段に、顔画像DB11から340人の顔画像を入力した(S11)。
つぎに、各顔画像から、RGB成分を画像特徴として、12288(=64×64×3)次元のベクトルを抽出した(S12)。
つぎに、S12で生成されたデータ(340個、12288次元)全てを学習データとして、PCAを行い、100次元まで次元削減したモデルを作成し、このモデルを用いて、S12で生成されたデータ全てを100次元まで次元削減した(S13)。
つぎに、S13で次元削減したデータを、k−平均法により、20個のクラスタ(k=20)にクラスタリング(グループ分け)した(S14)。本例では、RGB成分の画像特徴が近い物同士でグループ分けされているものと解釈できる。
つぎに、S14で生成された各クラスタの中心(データの平均値)により近い10個のデータを選び、それに対応した画像特徴抽出及び次元削減前の元の顔画像全ての各ピクセルの輝度値(S12で算出されたもの)の平均値を取ることで20個の合成顔画像を生成した(S15)。
つぎに、前記合成顔画像を、アノテーション用UI作成手段へと出力し(S16)、前記合成顔画像の生成を終了した。
つぎに、アノテーション用サーバ12内のアノテーション用UI作成手段を用いて、アノテーション用UIを作成した(図11のS21)。前記アノテーションUIは、図7に示すものとした。
つぎに、作成した前記アノテーション用UIを、通信回線網3を介して使用者端末2に送信し、使用者端末2における使用者の操作により属性アノテーションを実施した(S22)。前記アノテーション用UIの作成(S21)及び属性アノテーション(S22)は、前記合成顔画像1枚毎に繰り返した。
つぎに、アノテーション用サーバ12内のアノテーション用UI作成手段により、作成した20個の前記アノテーション用UIを、合成顔画像DB13に送信し、前記アノテーション用UIに含まれる前記合成顔画像を合成顔画像DB13に保存した(S23)。
つぎに、使用者端末2から、前記使用者の操作による属性アノテーション結果を、属性情報DB14に送信し、前記属性の情報を属性情報DB14に保存した(S24)。
つぎに、図12に示すフローチャートに従って、アノテーション用サーバ12内の第二の合成顔画像生成手段を用いて、第二の合成顔画像を生成した(S3)。なお、後述のように、前記第二の合成顔画像の生成は、L回繰り返した。
すなわち、まず、顔画像DB11から340人の顔画像を、合成顔画像DB13から20個の前記合成顔画像を、属性情報DB14から前記属性の情報を入力した(S31)。
つぎに、340人の前記顔画像及び20個の前記合成顔画像から、RGB成分を画像特徴として、12288(=64×64×3)次元のベクトルを抽出した(S32)。
つぎに、図4のS13で生成されたモデルを用いて、S32で生成されたデータ全てを100次元まで次元削減した(S33)。これにより、顔画像DB11に起因する属性情報なしデータ(説明変数100次元、目的変数なし)が340個、合成顔画像DB13に起因する属性情報ありデータ(説明変数1000次元、目的変数1次元)が20×L個(Lは、S3の実施回数=S33の開始数)が生成した。
つぎに、S33で生成した属性情報ありデータ(20×L個)を用いて、正則化正準相関分析により、説明変数と目的変数をそれぞれ1次元まで次元削減したモデルを作成し、このモデルを用いて、S33で生成した属性情報なしデータの説明変数を1次元まで次元削減した(S34)。
つぎに、S34で次元削減した属性情報なしデータを、k−平均法により、20個のクラスタ(k=20)にクラスタリング(グループ分け)した(S35)。本例では、L(S33の開始数)が大きいほど、属性情報が近いもの同士がグループ分けされているものと考えることができる。
つぎに、S35で生成された各クラスタの中心(データの平均値)により近い10個のデータを選び、それに対応した画像特徴抽出及び次元削減前の元の顔画像全ての各ピクセルの輝度値(S32で算出されたもの)の平均値を取ることで20個の第二の合成顔画像を生成した(S36)。
つぎに、前記第二の合成顔画像を、第二のアノテーション用UI作成手段へと出力し(S37)、前記第二の合成顔画像の生成を終了した。
つぎに、アノテーション用サーバ12内の第二のアノテーション用UI作成手段を用いて、第二のアノテーション用UIを作成した(図11のS41)。前記第二のアノテーションUIは、図7に示すアノテーション用UI200の合成顔画像110を、前記第二の合成顔画像に置換したものとした。
つぎに、作成した前記第二のアノテーション用UIを、通信回線網3を介して使用者端末2に送信し、使用者端末2における使用者の操作により属性アノテーションを実施した(S42)。前記第二のアノテーション用UIの作成(S41)及び属性アノテーション(S42)は、前記第二の合成顔画像1枚毎に繰り返した。
つぎに、アノテーション用サーバ12内の第二のアノテーション用UI作成手段により、作成した20個の前記第二のアノテーション用UIを、合成顔画像DB13に送信し、前記第二のアノテーション用UI作成手段から受信した前記第二のアノテーション用UIに含まれる前記第二の合成顔画像を保存することでデータを更新した(S43)。
つぎに、使用者端末2から、前記使用者の操作による属性アノテーション結果を、属性情報DB14に送信し、新たに受信した前記属性の情報を保存することでデータを更新した(S44)。前記第二の合成顔画像の合成(S3)、前記第二のアノテーションUIの作成(S41)、前記属性アノテーション(S42)、合成顔画像DB13の更新(S43)及び属性情報DB14の更新(S44)は、L回繰り返した。
以上、実施形態及び実施例を参照して本発明を説明したが、本発明は上記実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
本発明は、年齢、性別、顔の印象度等の属性を顔画像から推定する分野に広く用いられ、その用途は制限されない。
Claims (8)
- 使用者端末と通信回線網を介して接続可能であり、
顔画像データベース、合成顔画像生成手段及びアノテーション用ユーザインターフェース作成手段を含み、
前記顔画像データベースには、予め取得された複数人の顔画像が保存されており、
前記合成顔画像生成手段は、前記顔画像データベースに保存された複数人の顔画像を参照して合成顔画像を生成し、
前記アノテーション用ユーザインターフェース作成手段は、前記合成顔画像と、前記使用者端末における使用者の操作により属性を付与させる属性アノテーションを実施可能とする属性アノテーション操作機能とを含むアノテーション用ユーザインターフェースを作成する、
ことを特徴とするアノテーション装置。 - 前記合成顔画像生成手段は、前記顔画像データベースに保存された複数人の顔画像を、抽出した画像特徴の類似度に基づき複数のクラスタにクラスタリングした後、各クラスタ毎に、前記合成顔画像を生成する、
ことを特徴とする請求項1記載のアノテーション装置。 - 前記合成顔画像情報中の特定の個人の情報が占める割合が、33%以下である、
ことを特徴とする請求項1又は2記載のアノテーション装置。 - さらに、合成顔画像データベース及び属性情報データベースを含み、
前記アノテーション用ユーザインターフェース作成手段は、作成した前記アノテーション用ユーザインターフェースを前記使用者端末及び前記合成顔画像データベースに送信可能であり、
前記合成顔画像データベースは、前記アノテーション用ユーザインターフェース作成手段から受信した前記アノテーション用ユーザインターフェースに含まれる前記合成顔画像を保存し、
前記属性情報データベースは、前記使用者端末から送信された前記使用者の操作による属性アノテーション結果を受信し、前記属性の情報を保存する、
ことを特徴とする請求項1から3のいずれか一項に記載のアノテーション装置。 - さらに、第二の合成顔画像生成手段及び第二のアノテーション用ユーザインターフェース作成手段を含み、
前記第二の合成顔画像生成手段は、前記顔画像データベースに保存された複数人の顔画像、前記合成顔画像データベースに保存された前記合成顔画像、及び、前記属性情報データベースに保存された前記属性の情報を参照して第二の合成顔画像を生成し、
前記第二のアノテーション用ユーザインターフェース作成手段は、前記第二の合成顔画像と、前記使用者端末における使用者の操作により属性を付与させる属性アノテーションを実施可能とする属性アノテーション操作機能とを含む第二のアノテーション用ユーザインターフェースを作成し、かつ、作成した前記第二のアノテーション用ユーザインターフェースを前記使用者端末及び前記合成顔画像データベースに送信可能であり、
前記合成顔画像データベースは、前記第二のアノテーション用ユーザインターフェース作成手段から受信した前記第二のアノテーション用ユーザインターフェースに含まれる前記第二の合成顔画像を保存することでデータを更新し、
前記属性情報データベースは、前記使用者端末から送信された前記使用者の操作による属性アノテーション結果を受信し、新たに受信した前記属性の情報を保存することでデータを更新する、
ことを特徴とする請求項4記載のアノテーション装置。 - 前記第二の合成顔画像生成手段は、前記顔画像データベースに保存された複数人の顔画像を、抽出した画像特徴の類似度に基づき複数のクラスタにクラスタリングした後、各クラスタ毎に、前記第二の合成顔画像を生成する、
ことを特徴とする請求項5記載のアノテーション装置。 - 前記第二の合成顔画像情報中の特定の個人の情報が占める割合が、33%以下である、
ことを特徴とする請求項5又は6記載のアノテーション装置。 - 使用者端末及びアノテーション装置を含み、
前記アノテーション装置が、請求項1から7のいずれか一項に記載のアノテーション装置である、
ことを特徴とするアノテーションシステム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2013/074039 WO2015033431A1 (ja) | 2013-09-06 | 2013-09-06 | アノテーション装置及びアノテーションシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5930450B2 true JP5930450B2 (ja) | 2016-06-08 |
JPWO2015033431A1 JPWO2015033431A1 (ja) | 2017-03-02 |
Family
ID=52627938
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015535228A Active JP5930450B2 (ja) | 2013-09-06 | 2013-09-06 | アノテーション装置及びアノテーションシステム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5930450B2 (ja) |
WO (1) | WO2015033431A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6671992B2 (ja) * | 2015-04-24 | 2020-03-25 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 画像タグ付け装置 |
JP6911866B2 (ja) * | 2016-10-26 | 2021-07-28 | ソニーグループ株式会社 | 情報処理装置および情報処理方法 |
KR102002863B1 (ko) * | 2018-04-13 | 2019-07-24 | 라인플러스 주식회사 | 사람의 얼굴을 이용한 동물 형상의 아바타를 생성하는 방법 및 시스템 |
US20220015629A1 (en) * | 2018-11-21 | 2022-01-20 | Magic Leap, Inc. | System and method for retina template matching in teleophthalmology |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010041377A1 (ja) * | 2008-10-06 | 2010-04-15 | パナソニック株式会社 | 代表画像表示装置及び代表画像選択方法 |
-
2013
- 2013-09-06 WO PCT/JP2013/074039 patent/WO2015033431A1/ja active Application Filing
- 2013-09-06 JP JP2015535228A patent/JP5930450B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010041377A1 (ja) * | 2008-10-06 | 2010-04-15 | パナソニック株式会社 | 代表画像表示装置及び代表画像選択方法 |
Non-Patent Citations (2)
Title |
---|
JPN6016012808; '"広告企画 専門分野で活躍するMacintosh"' 日経MAC 第38号, 19960515, p.192-193, 日経BP社 * |
JPN6016012810; 末永高志,外2名: '"分布の構造に着目した特徴空間の可視化-クラスタ判別法-"' 電子情報通信学会技術研究報告 Vol.101,No.204, 20010711, p.39-46, 社団法人電子情報通信学会 * |
Also Published As
Publication number | Publication date |
---|---|
JPWO2015033431A1 (ja) | 2017-03-02 |
WO2015033431A1 (ja) | 2015-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11861936B2 (en) | Face reenactment | |
WO2020168468A1 (zh) | 基于表情识别的呼救方法、装置、电子设备及存储介质 | |
Lee et al. | Two-dimensional canonical correlation analysis | |
CN108182714B (zh) | 图像处理方法及装置、存储介质 | |
CN110135257A (zh) | 业务推荐数据生成、装置、计算机设备和存储介质 | |
WO2021114814A1 (zh) | 人体属性识别方法、装置、电子设备以及存储介质 | |
US11727717B2 (en) | Data-driven, photorealistic social face-trait encoding, prediction, and manipulation using deep neural networks | |
CN111353546B (zh) | 图像处理模型的训练方法、装置、计算机设备和存储介质 | |
JP5930450B2 (ja) | アノテーション装置及びアノテーションシステム | |
WO2020252911A1 (zh) | 失踪人脸识别方法、装置、计算机设备和存储介质 | |
WO2022151655A1 (zh) | 数据集生成、伪造检测方法、装置、设备、介质和程序 | |
Parde et al. | Face and image representation in deep CNN features | |
WO2020211396A1 (zh) | 静默式活体图片识别方法、装置、计算机设备和存储介质 | |
Tan et al. | Emmn: Emotional motion memory network for audio-driven emotional talking face generation | |
CN115147261A (zh) | 图像处理方法、装置、存储介质、设备及产品 | |
CN110910512A (zh) | 虚拟物体自适应调整方法、装置、计算机设备和存储介质 | |
US11812183B2 (en) | Information processing device and program | |
CN112669244A (zh) | 人脸图像增强方法、装置、计算机设备以及可读存储介质 | |
CN116110100B (zh) | 一种人脸识别方法、装置、计算机设备及存储介质 | |
CN111274447A (zh) | 基于视频的目标表情生成方法、装置、介质、电子设备 | |
CN114627211A (zh) | 视频名片生成方法、装置、计算机设备和存储介质 | |
CN112818820A (zh) | 图像生成模型训练方法、图像生成方法、装置及电子设备 | |
KR20210052866A (ko) | 이미지 분석 기반 매칭 서비스 제공 방법 및 장치 | |
US20240045992A1 (en) | Method and electronic device for removing sensitive information from image data | |
CN113658088B (zh) | 一种基于多判别器的人脸合成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160401 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160421 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Ref document number: 5930450 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |