JP2012181646A - データ処理装置、データ処理システム、及びプログラム - Google Patents

データ処理装置、データ処理システム、及びプログラム Download PDF

Info

Publication number
JP2012181646A
JP2012181646A JP2011043705A JP2011043705A JP2012181646A JP 2012181646 A JP2012181646 A JP 2012181646A JP 2011043705 A JP2011043705 A JP 2011043705A JP 2011043705 A JP2011043705 A JP 2011043705A JP 2012181646 A JP2012181646 A JP 2012181646A
Authority
JP
Japan
Prior art keywords
face
image
person
unit
data processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011043705A
Other languages
English (en)
Other versions
JP5555193B2 (ja
Inventor
Taizo Umezaki
太造 梅崎
Motoyasu Tanaka
基康 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2011043705A priority Critical patent/JP5555193B2/ja
Priority to PCT/JP2012/054171 priority patent/WO2012117901A1/ja
Priority to US14/002,591 priority patent/US9230156B2/en
Publication of JP2012181646A publication Critical patent/JP2012181646A/ja
Application granted granted Critical
Publication of JP5555193B2 publication Critical patent/JP5555193B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2137Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

【課題】特徴点に基づいて顔の向きを判定する場合と比較して、処理負荷を軽減できるとともに、顔の向きの判定精度を向上することが可能な、データ処理装置を得る。
【解決手段】データ処理装置は、人物の顔を撮影した画像を取得する取得部31と、取得部31が取得したその人物の顔の画像に基づいて、その人物が複数の方向を向いた際の各方向における顔の画像を並べた顔方向マップ40を作成する作成部33と、顔方向マップ40と、取得部31が取得したその人物の顔の動画像とに基づいて、その人物の顔の動作を判定する判定部34と、を備える。
【選択図】図3

Description

本発明は、データ処理装置、データ処理システム、及びプログラムに関し、特に、人物の顔を撮影した画像に基づいてその人物の顔の動作を判定する、データ処理装置、データ処理システム、及びプログラムに関する。
例えば下記特許文献1には、人物の顔を撮影した画像から、目、鼻、口などの顔の特徴点を抽出し、これらの特徴点の位置関係に基づいてその人物の顔の向きを判定する技術が開示されている。
特開2004−236186号公報
しかしながら、特徴点の位置関係に基づいて人物の顔の向きを判定する手法によると、演算量が膨大となって処理負荷が増大するとともに、顔が真横を向いた場合などには特徴点を正確に抽出できないため、顔の向きを誤って判定してしまう場合がある。
本発明はかかる問題を解決するために成されたものであり、特徴点に基づいて顔の向きを判定する場合と比較して、処理負荷を軽減できるとともに、顔の向きの判定精度を向上することが可能な、データ処理装置、データ処理システム、及びプログラムを得ることを目的とするものである。
本発明の第1の態様に係るデータ処理装置は、人物の顔を撮影した画像を取得する取得手段と、前記取得手段が取得したその人物の顔の画像に基づいて、その人物が複数の方向を向いた際の各方向における顔の画像を並べた顔方向マップを作成する作成手段と、前記顔方向マップと、前記取得手段が取得したその人物の顔の動画像とに基づいて、その人物の顔の動作を判定する判定手段と、を備えることを特徴とするものである。
第1の態様に係るデータ処理装置によれば、取得手段は、人物の顔の画像を撮影した画像を取得し、作成手段は、取得手段が取得した人物の顔の画像に基づいて顔方向マップを作成する。そして、判定手段は、顔方向マップと、取得手段が取得したその人物の顔の動画像とに基づいて、その人物の顔の動作を判定する。このように、人物の顔方向マップを予め作成しておくことにより、判定手段は、撮影画像と顔方向マップ内の画像とのマッチングなどの簡易な処理によって顔の動作を判定できる。そのため、特徴点に基づいて顔の向きを判定する場合と比較して、処理負荷を軽減することが可能となる。また、顔方向マップには横顔も登録できるため、人物が真横を向いた場合であってもそれが横顔であることを正確に判定できる。従って、特徴点に基づいて顔の向きを判定する場合と比較して、顔の向きの判定精度を向上することが可能となる。
本発明の第2の態様に係るデータ処理装置は、第1の態様に係るデータ処理装置において特に、前記作成手段は、前記取得手段が取得したその人物の顔の二次元画像に基づいてその人物の顔の三次元画像を推定し、その三次元画像に基づいて前記顔方向マップを作成することを特徴とするものである。
第2の態様に係るデータ処理装置によれば、作成手段は、取得手段が取得した人物の顔の二次元画像に基づいてその人物の顔の三次元画像を推定し、その三次元画像に基づいて顔方向マップを作成する。従って、その人物の顔の三次元画像を撮影するための専用の装置は不要であり、二次元画像を撮影する一般的なCCDカメラなどがあれば足りるため、装置構成を簡略化できるとともに、製品コストを低減することが可能となる。また、顔方向マップの作成のために複数の方向の顔画像を撮影する必要がないため、ユーザの利便性を向上することが可能となる。
本発明の第3の態様に係るデータ処理装置は、第2の態様に係るデータ処理装置において特に、前記作成手段は、ニューラルネットワークを用いて前記三次元画像を推定することを特徴とするものである。
第3の態様に係るデータ処理装置によれば、作成手段は、ニューラルネットワークを用いて二次元画像から三次元画像を推定する。これにより、三次元画像の推定を簡易に行うことが可能となる。
本発明の第4の態様に係るデータ処理装置は、第1の態様に係るデータ処理装置において特に、前記作成手段は、前記取得手段が取得したその人物の顔の三次元画像に基づいて前記顔方向マップを作成することを特徴とするものである。
第4の態様に係るデータ処理装置によれば、作成手段は、取得手段が取得した人物の顔の三次元画像に基づいて顔方向マップを作成する。このように、人物の三次元映像を撮影してその人物に関する顔方向マップを作成することにより、二次元画像から三次元画像を推定する場合と比較して精度を向上することが可能となる。また、顔方向マップの作成のために複数の方向の顔画像を撮影する必要がないため、ユーザの利便性を向上することが可能となる。
本発明の第5の態様に係るデータ処理装置は、第2〜第4のいずれか一つの態様に係るデータ処理装置において特に、前記作成手段は、前記三次元画像を複数の方向に段階的に回転することによって、各方向におけるその人物の顔の画像を作成することを特徴とするものである。
第5の態様に係るデータ処理装置によれば、作成手段は、三次元画像を複数の方向に段階的に回転することによって、各方向における人物の顔の画像を作成する。これにより、顔方向マップを簡易に作成することが可能となる。
本発明の第6の態様に係るデータ処理装置は、第2〜第4のいずれか一つの態様に係るデータ処理装置において特に、前記作成手段は、前記三次元画像を複数の特定方向に回転することによって、各特定方向におけるその人物の顔の画像を作成し、複数の特定方向における複数の画像間の中間画像を、ニューラルネットワークを用いて作成することを特徴とするものである。
第6の態様に係るデータ処理装置によれば、作成手段は、三次元画像を複数の特定方向に回転することによって、各特定方向における人物の顔の画像を作成し、複数の特定方向における複数の画像間の中間画像を、ニューラルネットワークを用いて作成する。これにより、顔方向マップを簡易に作成することが可能となる。
本発明の第7の態様に係るデータ処理システムは、撮影装置と、データ処理装置と、を備え、前記データ処理装置は、人物の顔を撮影した画像を前記撮影装置から取得する取得手段と、前記取得手段が取得したその人物の顔の画像に基づいて、その人物が複数の方向を向いた際の各方向における顔の画像を並べた顔方向マップを作成する作成手段と、前記顔方向マップと、前記取得手段が前記撮影装置から取得したその人物の顔の動画像とに基づいて、その人物の顔の動作を判定する判定手段と、を有することを特徴とするものである。
第7の態様に係るデータ処理システムによれば、取得手段は、人物の顔の画像を撮影した画像を撮影装置から取得し、作成手段は、取得手段が取得したその人物の顔の画像に基づいて顔方向マップを作成する。そして、判定手段は、顔方向マップと、取得手段が取得したその人物の顔の動画像とに基づいて、その人物の顔の動作を判定する。このように、人物の顔方向マップを予め作成しておくことにより、判定手段は、撮影画像と顔方向マップ内の画像とのマッチングなどの簡易な処理によって顔の動作を判定できる。そのため、特徴点に基づいて顔の向きを判定する場合と比較して、処理負荷を軽減することが可能となる。また、顔方向マップには横顔も登録できるため、人物が真横を向いた場合であってもそれが横顔であることを正確に判定できる。従って、特徴点に基づいて顔の向きを判定する場合と比較して、顔の向きの判定精度を向上することが可能となる。
本発明の第8の態様に係るプログラムは、データ処理装置に搭載されるコンピュータを、人物の顔を撮影した画像を取得する取得手段と、前記取得手段が取得したその人物の顔の画像に基づいて、その人物が複数の方向を向いた際の各方向における顔の画像を並べた顔方向マップを作成する作成手段と、前記顔方向マップと、前記取得手段が取得したその人物の顔の動画像とに基づいて、その人物の顔の動作を判定する判定手段と、として機能させるためのプログラムである。
第8の態様に係るプログラムによれば、取得手段は、人物の顔の画像を撮影した画像を取得し、作成手段は、取得手段が取得した人物の顔の画像に基づいて顔方向マップを作成する。そして、判定手段は、顔方向マップと、取得手段が取得したその人物の顔の動画像とに基づいて、その人物の顔の動作を判定する。このように、人物の顔方向マップを予め作成しておくことにより、判定手段は、撮影画像と顔方向マップ内の画像とのマッチングなどの簡易な処理によって顔の動作を判定できる。そのため、特徴点に基づいて顔の向きを判定する場合と比較して、処理負荷を軽減することが可能となる。また、顔方向マップには横顔も登録できるため、人物が真横を向いた場合であってもそれが横顔であることを正確に判定できる。従って、特徴点に基づいて顔の向きを判定する場合と比較して、顔の向きの判定精度を向上することが可能となる。
本発明によれば、特徴点に基づいて顔の向きを判定する場合と比較して、処理負荷を軽減できるとともに、顔の向きの判定精度を向上することが可能となる。
本発明の実施の形態に係るデータ処理システムの一例として、ノートブック型のパソコンを示す模式図である。 パソコンのハードウェア構成を示す図である。 プログラムを実行することによってデータ処理部に実現される機能を示すブロック図である。 作成部の構成を示す図である。 顔方向マップの一例を示す図である。 作成部の第1の変形例を示す図である。 作成部の第2の変形例を示す図である。 作成部の第3の変形例を示す図である。
以下、本発明の実施の形態について、図面を用いて詳細に説明する。なお、異なる図面において同一の符号を付した要素は、同一又は相応する要素を示すものとする。
図1は、本発明の実施の形態に係るデータ処理システムの一例として、ノートブック型のパソコン1を示す模式図である。また、図2は、パソコン1のハードウェア構成を示す図である。図1,2に示すようにパソコン1は、CCDカメラ等の撮影部11と、CPU等のデータ処理部12と、IPネットワーク等と通信を行う通信部13と、ハードディスク及び半導体メモリ等の記憶部14と、液晶表示画面等の表示部15と、キーボード及びマウス等の入力部16とを備えて構成されている。これらの装置は、バス11を介して接続されている。記憶部14には、プログラム20が記憶されている。
図3は、プログラム20を実行することによってデータ処理部12に実現される機能を示すブロック図である。図3に示すようにデータ処理部12は、取得部31、抽出部32、作成部33、判定部34、及び画像処理部35を有している。換言すれば、プログラム20は、データ処理装置としてのデータ処理部12を、取得部31、抽出部32、作成部33、判定部34、及び画像処理部35として機能させるためのプログラムである。
撮影部11は、ユーザの顔を含む二次元画像を撮影する。
取得部31には、ユーザの顔を含む画像データD1が、撮影部11から入力される。画像データD1は、例えば、撮影部11によってユーザの顔を正面から撮影することによって得られる画像データである。
抽出部32には、画像データD1が取得部31から入力される。抽出部32は、二値化、エッジ抽出、及びアフィン変換等の周知の手法を用いることにより、画像データD1の中からユーザの顔を抽出する。また、抽出部32は、抽出した顔の画像をニューラルネットワークに対する入力画像として使用できるように、当該顔の画像を所定サイズに圧縮することによって画像データD2を生成する。
作成部33には、ユーザの顔の画像データD2が、抽出部32から入力される。作成部33は、画像データD2に基づいて、そのユーザに関する顔方向マップ40を作成する。顔方向マップ40は、ユーザが複数の方向を向いた際の各方向における顔の画像を並べたものである。つまり、顔方向マップ40には、複数の方向から眺めたユーザの顔の画像が含まれる。
図4は、作成部33の構成を示す図である。図4に示すように作成部33は、階層型ニューラルネットワーク51、回転部52、及びコホーネン型ニューラルネットワーク53を有している。
階層型ニューラルネットワーク51には、ユーザの顔の二次元画像である画像データD2が、抽出部32から入力される。階層型ニューラルネットワーク51は、画像データD2に基づいて三次元画像を推定することにより、そのユーザの顔の三次元画像である画像データD10を生成する。階層型ニューラルネットワーク51は、複数の入力ユニットを含む入力層と、複数の中間ユニットを含む中間層と、複数の出力ユニットを含む出力層とを備えている。各入力ユニットと各中間ユニットとの間の重み付け値、及び各中間ユニットと各出力ユニットとの間の重み付け値は、事前の学習によってそれぞれ適切な値に設定されている。この学習においては、例えば、人物の顔をCCDカメラで撮影して二次元画像を取得するとともに、レーザーレンジファインダによってその人物の顔の距離画像を取得する。そして、CCDカメラによって撮影した二次元画像を入力画像として用い、レーザーレンジファインダによって取得した距離画像を教師信号として用いる。様々な人物の顔を用いて複数回の学習を行うことにより、任意の顔の二次元画像から適切な三次元画像が得られるように、上記各ユニット間の重み付け値がそれぞれ設定される。
回転部52には、画像データD10が階層型ニューラルネットワーク51から入力される。回転部52は、ユーザの顔の三次元画像を回転することにより、特定方向から眺めたユーザの顔の二次元画像(以下「特定方向画像」と称す)を複数作成する。例えば、正面、右向き、左向き、上向き、下向き、右上向き、左上向き、右下向き、及び左下向きの特定方向画像を作成する。
コホーネン型ニューラルネットワーク53には、回転部52によって作成された複数の特定方向画像の画像データD11が入力される。コホーネン型ニューラルネットワーク53は、画像データD11に基づいて顔方向マップ40を作成する。コホーネン型ニューラルネットワーク53は、複数の入力ユニットを含む入力層と、複数の出力ユニットを含む出力層とを備えている。特定方向画像は入力層に入力される。ある特定方向画像が入力層に入力されると、全ての出力ユニットのうちのある特定の出力ユニットと、その出力ユニットを中心とする所定の学習半径内の複数の出力ユニットとに、その特定方向画像が登録される。別の特定方向画像が入力層に入力されると、別の特定の出力ユニットと、その出力ユニットを中心とする学習半径内の複数の出力ユニットとに、その特定方向画像が登録される。この処理を全ての特定方向画像に関して行う。複数の特定方向画像の登録領域同士が重複する箇所においては、これら複数の特定方向画像同士が互いに融合した(混ざり合った)中間画像が登録される。例えば、正面と右向きとで登録領域の一部同士が重複する箇所においては、正面の顔画像と右向きの顔画像との中間画像(やや右向きの画像)が登録される。このようにコホーネン型ニューラルネットワーク53は、複数の特定方向画像間の中間画像を作成することにより、自己組織化マップである顔方向マップ40を作成する。
図5は、顔方向マップ40の一例を示す図である。顔方向マップ40は、コホーネン型ニューラルネットワーク53の複数の出力ユニット100の集合として構成されており、各出力ユニット100にユーザの顔画像が一つ表れる。領域R1,R2,R3,R4,R5,R6,R7,R8,R9には、右上向き、上向き、左上向き、右向き、正面、左向き、右下向き、下向き、及び左下向きのユーザの顔画像がそれぞれ登録される。顔方向マップ40においては、マップの上側ほど上向きの度合いが強く、下側ほど下向きの度合いが強く、左側ほど右向きの度合いが強く、右側ほど左向きの度合いが強くなる。
図3を参照して、作成部33は、上記のようにして作成した顔方向マップ40を記憶部14に記憶する。
さて次に、顔方向マップ40の作成が完了した後の動作について説明する。以下では一例として、ユーザがパソコン1を用いてインターネットにアクセスすることにより、アバターチャットを行う場合について説明する。アバターチャットでは、アバターと称されるキャラクタが各ユーザに設定されており、ユーザがパソコン1を用いて文書を入力すると、アバターが吹き出し等を用いてその文書を発言することにより、仮想空間内でアバター同士が会話をするという演出が行われる。
ユーザがアバターチャットを行っている間、撮影部11は、ユーザの顔を含む二次元の動画像を撮影する。取得部31には、ユーザの顔を含む動画像データD4が、撮影部11から入力される。抽出部32には、動画像データD4が取得部31から入力される。抽出部32は、二値化、エッジ抽出、及びアフィン変換等の周知の手法を用いることにより、動画像データD4の中からユーザの顔を抽出する。
判定部34には、ユーザの顔の動画像データD5が、抽出部32から入力される。判定部34は、記憶部14から読み出した顔方向マップ40と、抽出部32から入力された動画像データD5とに基づいて、ユーザの顔の動作(うなずき、首振り)を判定する。具体的に、判定部34は、動画像データD5の各フレームの顔画像に関して、顔方向マップ40に含まれる全ての顔画像の中で類似度が最も高い顔画像を、パターンマッチング等によって探索する。そして、類似度が最も高い顔画像として特定された箇所の軌跡が、領域R5→R8→R5である場合は、ユーザの顔の動作はうなずきであると判定する。また、類似度が最も高い顔画像として特定された箇所の軌跡が、領域R5→R6→R5→R4→R5又は領域R5→R4→R5→R6→R5)である場合は、ユーザの顔の動作は首振りであると判定する。
画像処理部35には、ユーザの顔の動作を示すデータD6が、判定部34から入力される。画像処理部35は、ユーザの顔の動作がうなずきである場合には、うなずき動作を行うアバターを表す画像データD7を出力し、ユーザの顔の動作が首振りである場合には、首振り動作を行うアバターを表す画像データD7を出力する。画像データD7は表示部15に入力され、表示部15においてアバター動作の演出が行われる。また、画像データD7は図2に示した通信部13を介してチャット相手に送信され、チャット相手の表示画面においてアバター動作の演出が行われる。なお、ユーザの顔の動作としては、うなずき及び首振りのみならず、傾げ等の他の動作を検出して、アバターの演出に反映させてもよい。
図6は、作成部33の第1の変形例を示す図である。本変形例に係る作成部33は、階層型ニューラルネットワーク51と回転部52とを有している。
階層型ニューラルネットワーク51は、上記実施の形態と同様の方法によって、ユーザの顔の三次元画像である画像データD10を生成する。
回転部52には、画像データD10が階層型ニューラルネットワーク51から入力される。回転部52は、三次元画像を所定の角度単位(例えば数度単位)で上下左右方向に段階的に回転することにより、各回転位置におけるユーザの顔の二次元画像を作成する。そして、作成した複数の二次元画像をマップ上に並べることにより、顔方向マップ40を作成する。
図7は、作成部33の第2の変形例を示す図である。本変形例に係る作成部33は、回転部52とコホーネン型ニューラルネットワーク53とを有している。
回転部52には、ユーザの顔の三次元画像である画像データD10が入力される。ユーザの顔の三次元画像は、任意の三次元計測技術を用いて作成することができ、取得部31によって取得される。
例えば、色毎に位相をずらした赤・青・緑の縦縞のカラーパターンを、ユーザに向けて正面から照射し、ユーザ上に投影されたカラーパターンを、ユーザの斜め前方に配置されたカラーカメラによって撮影する。カラーパターンはユーザの顔の凹凸に応じて変形するため、その変形具合を解析することによって、ユーザの顔の三次元画像を作成することができる。
また例えば、TOF(Time Of Flight)カメラを用いてユーザの前方から赤外線を照射し、ユーザによって反射された赤外線を、TOFカメラのセンサによって検出する。TOFカメラから照射した赤外線がユーザによって反射されてTOFカメラに戻ってくるまでの時間(飛行時間)は、ユーザの顔の凹凸に応じて異なるため、その飛行時間の分布を解析することによって、ユーザの顔の三次元画像を作成することができる。
また例えば、ステレオカメラによってユーザを撮影することによって、ユーザの顔の三次元画像を作成することができる。
回転部52は、上記実施の形態と同様の方法によって、複数の特定方向画像の画像データD11を生成する。
コホーネン型ニューラルネットワーク53は、上記実施の形態と同様の方法によって、画像データD11に基づいて顔方向マップ40を作成する。
図8は、作成部33の第3の変形例を示す図である。本変形例に係る作成部33は、回転部52を有している。
回転部52には、ユーザの顔の三次元画像である画像データD10が入力される。画像データD10は、上記第2の変形例と同様に任意の三次元計測技術を用いて作成された画像データである。回転部52は、上記第1の変形例と同様の方法によって顔方向マップ40を作成する。
なお、以上の説明では、ユーザの顔の動作を検出してそれをアバターの動作に反映させる例について述べたが、本発明の利用態様はこの例に限定されるものではない。例えば、ユーザと対話を行う対話型ロボットにが、ユーザの顔の動作を検出し、その検出結果に基づいて「はい」や「いいえ」等のユーザの意思を解釈するといった利用態様が考えられる。
このように本実施の形態に係るデータ処理装置によれば、取得部31は、人物の顔の画像を撮影した画像を取得し、作成部33は、取得部31が取得した人物の顔の画像に基づいて顔方向マップ40を作成する。そして、判定部34は、顔方向マップ40と、取得部31が取得したその人物の顔の動画像とに基づいて、その人物の顔の動作を判定する。このように、人物の顔方向マップ40を予め作成しておくことにより、判定部34は、撮影画像と顔方向マップ40内の画像とのマッチングなどの簡易な処理によって顔の動作を判定できる。そのため、特徴点に基づいて顔の向きを判定する場合と比較して、処理負荷を軽減することが可能となる。また、顔方向マップには横顔も登録できるため、人物が真横を向いた場合であってもそれが横顔であることを正確に判定できる。従って、特徴点に基づいて顔の向きを判定する場合と比較して、顔の向きの判定精度を向上することが可能となる。
また、本実施の形態に係るデータ処理装置によれば、作成部33は、取得部31が取得した人物の顔の二次元画像に基づいてその人物の顔の三次元画像を推定し、その三次元画像に基づいて顔方向マップ40を作成する。従って、その人物の顔の三次元画像を撮影するための専用の装置は不要であり、二次元画像を撮影する一般的なCCDカメラなどがあれば足りるため、装置構成を簡略化できるとともに、製品コストを低減することが可能となる。また、顔方向マップ40の作成のために複数の方向の顔画像を撮影する必要がないため、ユーザの利便性を向上することが可能となる。
また、本実施の形態に係るデータ処理装置によれば、図4,6に示した作成部33は、階層型ニューラルネットワーク51を用いて二次元画像から三次元画像を推定する。これにより、三次元画像の推定を簡易に行うことが可能となる。
また、本実施の形態に係るデータ処理装置によれば、図7,8に示した作成部33は、取得部31が取得した人物の顔の三次元画像に基づいて顔方向マップ40を作成する。このように、人物の三次元映像を撮影してその人物に関する顔方向マップ40を作成することにより、二次元画像から三次元画像を推定する場合と比較して精度を向上することが可能となる。また、顔方向マップ40の作成のために複数の方向の顔画像を撮影する必要がないため、ユーザの利便性を向上することが可能となる。
また、本実施の形態に係るデータ処理装置によれば、図6,8に示した作成部33は、三次元画像を複数の方向に段階的に回転することによって、各方向における人物の顔の画像を作成する。これにより、顔方向マップ40を簡易に作成することが可能となる。
また、本実施の形態に係るデータ処理装置によれば、図4,7に示した作成部33は、三次元画像を複数の特定方向に回転することによって、各特定方向における人物の顔の画像を作成し、複数の特定方向画像間の中間画像を、コホーネン型ニューラルネットワーク53を用いて作成する。これにより、顔方向マップ40を簡易に作成することが可能となる。
1 パソコン
11 撮影部
12 データ処理部
14 記憶部
20 プログラム
31 取得部
33 作成部
34 判定部
40 顔方向マップ
51 階層型ニューラルネットワーク
53 コホーネン型ニューラルネットワーク

Claims (8)

  1. 人物の顔を撮影した画像を取得する取得手段と、
    前記取得手段が取得したその人物の顔の画像に基づいて、その人物が複数の方向を向いた際の各方向における顔の画像を並べた顔方向マップを作成する作成手段と、
    前記顔方向マップと、前記取得手段が取得したその人物の顔の動画像とに基づいて、その人物の顔の動作を判定する判定手段と、
    を備える、データ処理装置。
  2. 前記作成手段は、前記取得手段が取得したその人物の顔の二次元画像に基づいてその人物の顔の三次元画像を推定し、その三次元画像に基づいて前記顔方向マップを作成する、請求項1に記載のデータ処理装置。
  3. 前記作成手段は、ニューラルネットワークを用いて前記三次元画像を推定する、請求項2に記載のデータ処理装置。
  4. 前記作成手段は、前記取得手段が取得したその人物の顔の三次元画像に基づいて前記顔方向マップを作成する、請求項1に記載のデータ処理装置。
  5. 前記作成手段は、前記三次元画像を複数の方向に段階的に回転することによって、各方向におけるその人物の顔の画像を作成する、請求項2〜4のいずれか一つに記載のデータ処理装置。
  6. 前記作成手段は、前記三次元画像を複数の特定方向に回転することによって、各特定方向におけるその人物の顔の画像を作成し、複数の特定方向における複数の画像間の中間画像を、ニューラルネットワークを用いて作成する、請求項2〜4のいずれか一つに記載のデータ処理装置。
  7. 撮影装置と、
    データ処理装置と、
    を備え、
    前記データ処理装置は、
    人物の顔を撮影した画像を前記撮影装置から取得する取得手段と、
    前記取得手段が取得したその人物の顔の画像に基づいて、その人物が複数の方向を向いた際の各方向における顔の画像を並べた顔方向マップを作成する作成手段と、
    前記顔方向マップと、前記取得手段が前記撮影装置から取得したその人物の顔の動画像とに基づいて、その人物の顔の動作を判定する判定手段と、
    を有する、データ処理システム。
  8. データ処理装置に搭載されるコンピュータを、
    人物の顔を撮影した画像を取得する取得手段と、
    前記取得手段が取得したその人物の顔の画像に基づいて、その人物が複数の方向を向いた際の各方向における顔の画像を並べた顔方向マップを作成する作成手段と、
    前記顔方向マップと、前記取得手段が取得したその人物の顔の動画像とに基づいて、その人物の顔の動作を判定する判定手段と、
    として機能させるためのプログラム。
JP2011043705A 2011-03-01 2011-03-01 データ処理装置、データ処理システム、及びプログラム Expired - Fee Related JP5555193B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011043705A JP5555193B2 (ja) 2011-03-01 2011-03-01 データ処理装置、データ処理システム、及びプログラム
PCT/JP2012/054171 WO2012117901A1 (ja) 2011-03-01 2012-02-21 データ処理装置、データ処理システム、及びプログラム
US14/002,591 US9230156B2 (en) 2011-03-01 2012-02-21 Data processor, data processing system, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011043705A JP5555193B2 (ja) 2011-03-01 2011-03-01 データ処理装置、データ処理システム、及びプログラム

Publications (2)

Publication Number Publication Date
JP2012181646A true JP2012181646A (ja) 2012-09-20
JP5555193B2 JP5555193B2 (ja) 2014-07-23

Family

ID=46757840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011043705A Expired - Fee Related JP5555193B2 (ja) 2011-03-01 2011-03-01 データ処理装置、データ処理システム、及びプログラム

Country Status (3)

Country Link
US (1) US9230156B2 (ja)
JP (1) JP5555193B2 (ja)
WO (1) WO2012117901A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019528826A (ja) * 2016-09-23 2019-10-17 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 画像再構成による加齢黄斑変性症を予測するための方法、実行可能プログラムを記憶するコンピュータ可読メモリ、および装置
US11055853B2 (en) 2018-04-18 2021-07-06 Fujitsu Limited Motion determining apparatus, method for motion determination, and non-transitory computer-readable storage medium for storing program

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6628494B2 (ja) * 2015-04-17 2020-01-08 Kddi株式会社 実空間情報によって学習する識別器を用いて物体を追跡する装置、プログラム及び方法
US10540768B2 (en) * 2015-09-30 2020-01-21 Samsung Electronics Co., Ltd. Apparatus and method to segment object from image
US10860887B2 (en) * 2015-11-16 2020-12-08 Samsung Electronics Co., Ltd. Method and apparatus for recognizing object, and method and apparatus for training recognition model
CN105975960B (zh) * 2016-06-16 2019-03-15 湖北润宏科技股份有限公司 基于纹理方向能量特征的虹膜识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06214970A (ja) * 1992-02-04 1994-08-05 Fuji Photo Film Co Ltd パターン学習方法
JP2004236186A (ja) * 2003-01-31 2004-08-19 Ntt Docomo Inc 顔情報送信システム、顔情報送信方法、顔情報送信プログラム、及びコンピュータ読取可能な記録媒体
JP2006146479A (ja) * 2004-11-18 2006-06-08 Yasuhiro Fukui 入力装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6108440A (en) * 1996-06-28 2000-08-22 Sony Corporation Image data converting method
JP4526639B2 (ja) * 2000-03-02 2010-08-18 本田技研工業株式会社 顔認識装置およびその方法
US7221809B2 (en) * 2001-12-17 2007-05-22 Genex Technologies, Inc. Face recognition system and method
WO2004004320A1 (en) * 2002-07-01 2004-01-08 The Regents Of The University Of California Digital processing of video images
US7492924B2 (en) * 2003-07-18 2009-02-17 Intel Corporation Face tracking
JP4824411B2 (ja) * 2005-01-20 2011-11-30 パナソニック株式会社 顔抽出装置、半導体集積回路
JP4516516B2 (ja) * 2005-12-07 2010-08-04 本田技研工業株式会社 人物検出装置、人物検出方法及び人物検出プログラム
JP4655235B2 (ja) * 2008-03-14 2011-03-23 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8306267B1 (en) * 2011-05-09 2012-11-06 Google Inc. Object tracking

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06214970A (ja) * 1992-02-04 1994-08-05 Fuji Photo Film Co Ltd パターン学習方法
JP2004236186A (ja) * 2003-01-31 2004-08-19 Ntt Docomo Inc 顔情報送信システム、顔情報送信方法、顔情報送信プログラム、及びコンピュータ読取可能な記録媒体
JP2006146479A (ja) * 2004-11-18 2006-06-08 Yasuhiro Fukui 入力装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CSNG200700415009; 須藤一郎, 外4名: '"SOMクラスタ中心を用いた画像の低次元表現方法"' 電子情報通信学会技術研究報告 第106巻, 第469号, 20070111, p.61-66, 社団法人電子情報通信学会 *
CSNG200701377006; 湯野智己, 外3名: '"自己組織化マップ回路による動画像中からの顔認証に関する研究"' 電子情報通信学会技術研究報告 第107巻, 第410号, 20071215, p.43-48, 社団法人電子情報通信学会 *
JPN6014006810; 湯野智己, 外3名: '"自己組織化マップ回路による動画像中からの顔認証に関する研究"' 電子情報通信学会技術研究報告 第107巻, 第410号, 20071215, p.43-48, 社団法人電子情報通信学会 *
JPN6014006812; 須藤一郎, 外4名: '"SOMクラスタ中心を用いた画像の低次元表現方法"' 電子情報通信学会技術研究報告 第106巻, 第469号, 20070111, p.61-66, 社団法人電子情報通信学会 *
JPN7014000581; 服部公央亮, 外2名: '"自己組織化マップを用いた顔方向の認識 - 中間姿勢画像の補間による高精度な姿勢推定 -"' 日本顔学会誌 第10巻, 第1号, 20100924, p.29-36 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019528826A (ja) * 2016-09-23 2019-10-17 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 画像再構成による加齢黄斑変性症を予測するための方法、実行可能プログラムを記憶するコンピュータ可読メモリ、および装置
US11055853B2 (en) 2018-04-18 2021-07-06 Fujitsu Limited Motion determining apparatus, method for motion determination, and non-transitory computer-readable storage medium for storing program

Also Published As

Publication number Publication date
US20140003664A1 (en) 2014-01-02
US9230156B2 (en) 2016-01-05
JP5555193B2 (ja) 2014-07-23
WO2012117901A1 (ja) 2012-09-07

Similar Documents

Publication Publication Date Title
KR102036978B1 (ko) 라이브니스 검출 방법 및 디바이스, 및 아이덴티티 인증 방법 및 디바이스
CN107251096B (zh) 图像捕获装置和方法
US9129155B2 (en) Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US9092665B2 (en) Systems and methods for initializing motion tracking of human hands
US9111135B2 (en) Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US8401225B2 (en) Moving object segmentation using depth images
US8660362B2 (en) Combined depth filtering and super resolution
JP5773944B2 (ja) 情報処理装置および情報処理方法
JP5555193B2 (ja) データ処理装置、データ処理システム、及びプログラム
CN104246793A (zh) 移动设备的三维脸部识别
Boutellaa et al. On the use of Kinect depth data for identity, gender and ethnicity classification from facial images
WO2016107638A1 (en) An image face processing method and apparatus
US9727776B2 (en) Object orientation estimation
EP2996067A1 (en) Method and device for generating motion signature on the basis of motion signature information
KR20170092533A (ko) 얼굴 포즈 교정 방법 및 장치
CN113474816A (zh) 弹性动态投影映射系统和方法
Hernandez et al. Near laser-scan quality 3-D face reconstruction from a low-quality depth stream
Luna et al. Fast heuristic method to detect people in frontal depth images
JP5416489B2 (ja) 三次元指先位置検出方法、三次元指先位置検出装置、およびプログラム
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
US20150063631A1 (en) Dynamic image analyzing system and operating method thereof
CN112016495A (zh) 人脸识别的方法、装置和电子设备
JP2021022185A (ja) 画像処理装置、画像処理プログラム、及び画像処理方法
Mikhisor 3D Face Tracking Using Stereo Cameras with Whole Body View
Shen et al. Depth Sensor-Based Facial and Body Animation Control

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140530

R150 Certificate of patent or registration of utility model

Ref document number: 5555193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees