JP2023063154A - 判定プログラム、判定方法及び判定装置 - Google Patents

判定プログラム、判定方法及び判定装置 Download PDF

Info

Publication number
JP2023063154A
JP2023063154A JP2021173488A JP2021173488A JP2023063154A JP 2023063154 A JP2023063154 A JP 2023063154A JP 2021173488 A JP2021173488 A JP 2021173488A JP 2021173488 A JP2021173488 A JP 2021173488A JP 2023063154 A JP2023063154 A JP 2023063154A
Authority
JP
Japan
Prior art keywords
marker
image
intensity
determination
positional relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021173488A
Other languages
English (en)
Inventor
昭嘉 内田
Akiyoshi Uchida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2021173488A priority Critical patent/JP2023063154A/ja
Priority to US17/866,563 priority patent/US20230130397A1/en
Publication of JP2023063154A publication Critical patent/JP2023063154A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】表情推定のための訓練データを生成すること。【解決手段】判定プログラムは、第1のマーカと第2のマーカとを付した顔を含む画像を取得し、画像に含まれる第1のマーカの第1の位置と第2のマーカの第2の位置とを特定し、第1の位置と第1のマーカの基準位置との差と、第1の位置と第2の位置との位置関係と第1のマーカと第2のマーカとの基準位置関係との差とに基づいて、顔における特定の表情の発生強度を判定し、画像と関連付けて、判定された特定の表情の発生強度を出力する、処理をコンピュータに実行させる。【選択図】図3

Description

本発明は、判定技術に関する。
ノンバーバルコミュニケーションにおいて、表情は重要な役割を果たしている。人を理解し、センシングするためには、表情推定技術は重要である。表情推定のためのツールとしてAU(Action Unit:アクションユニット)と呼ばれる手法が知られている。AUは、表情を顔の部位と表情筋に基づいて分解して定量化する手法である。
AU推定エンジンは、大量の訓練データに基づく機械学習がベースにあり、訓練データとして、顔表情の画像データと、各AUのOccurrence(発生の有無)やIntensity(発生強度)が用いられる。また、訓練データのOccurrenceやIntensityは、Coder(コーダ)と呼ばれる専門家によりAnnotation(アノテーション)される。
米国特許出願公開第2019/0294868号明細書 米国特許出願公開第2017/0286759号明細書 特開2020-160792号公報
しかしながら、従来の手法には、表情推定のための訓練データを生成することが困難な場合があるという問題がある。例えば、コーダによるアノテーションでは、費用及び時間のコストがかかるため、データを大量に作成することが困難である。また、顔画像の画像処理による顔の各部位の移動計測では、小さな変化を正確に捉えるのが困難であり、コンピュータが人の判断を介さずに顔画像からAUの判定を行うことは難しい。したがって、コンピュータが人の判断を介さずに顔画像にAUのラベルを付した訓練データを生成することは困難である。
1つの側面では、表情推定のための訓練データを生成できる判定プログラム、判定方法及び判定装置を提供することを目的とする。
一態様にかかる判定プログラムは、第1のマーカと第2のマーカとを付した顔を含む画像を取得し、前記画像に含まれる前記第1のマーカの第1の位置と前記第2のマーカの第2の位置とを特定し、前記第1の位置と前記第1のマーカの基準位置との差と、前記第1の位置と第2の位置との位置関係と前記第1のマーカと前記第2のマーカとの基準位置関係との差とに基づいて、前記顔における特定の表情の発生強度を判定し、前記画像と関連付けて、判定された前記特定の表情の発生強度を出力する、処理をコンピュータに実行させる。
一実施形態によれば、表情推定のための訓練データを生成できる。
図1は、機械学習システムの構成例を示す図である。 図2は、カメラの配置例を示す図である。 図3は、判定装置の機能構成例を示すブロック図である。 図4は、マーカの移動の一例について説明する図である。 図5は、発生強度の判定方法の一例を説明する図である。 図6は、発生強度の判定方法の一例を説明する図である。 図7は、AU4規定ベクトルの一例を示す図である。 図8Aは、マーカ位置の一例を示す図である。 図8Bは、マーカ位置の一例を示す図である。 図8Cは、マーカ位置の一例を示す図である。 図9は、マーカの移動量の一例を示す図である。 図10は、マーカの移動量の一例を示す図である。 図11は、AUの発生強度の推定値の一例を示す図である。 図12は、AUの発生強度の推定値の一例を示す図である。 図13は、マスク画像の作成方法の一例を説明する図である。 図14は、マーカの削除方法の一例を説明する図である。 図15は、発生強度の判定処理の手順を示すフローチャートである。 図16は、訓練データの生成処理の手順を示すフローチャートである。 図17は、ハードウェア構成例を示す図である。
以下、添付図面を参照して本願に係る判定プログラム、判定方法及び判定装置の実施例について説明する。各実施例には、あくまで1つの例や側面を示すに過ぎず、このような例示により数値や機能の範囲、利用シーンなどは限定されない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
図1を用いて、実施例に係る機械学習システムの構成例を説明する。図1は、機械学習システムの構成例を示す図である。図1に示すように、機械学習システム1は、RGB(Red、Green、Blue)カメラ31、IR(infrared:赤外線)カメラ32、判定装置10、生成装置20及び機械学習装置50を有する。
図1に示すように、RGBカメラ31及びIRカメラ32は、マーカが付された人物の顔に向けた状態で配置され得る。例えば、RGBカメラ31は一般的なデジタルカメラであり、可視光を受光し画像を生成する。また、例えば、IRカメラ32は、赤外線を感知する。また、マーカは、例えばIR反射(再帰性反射)マーカである。IRカメラ32は、マーカによるIR反射を利用してモーションキャプチャを行うことができる。また、以降の説明では、撮像対象の人物を被験者と呼ぶ。
判定装置10は、RGBカメラ31によって撮像された画像110及びIRカメラ32によるモーションキャプチャの結果120を取得する。そして、判定装置10は、AUごとに当該AUに割り当てられたマーカの移動量に基づいてAUの発生強度121を判定する。その上で、判定装置10は、RGBカメラ31によって撮像された画像110に関連付けて、AUの発生強度121を生成装置20へ出力する。
ここで言う「発生強度」は、あくまで一例として、各AUが発生している強度をAからEの5段階評価で表現し、「AU1:2、AU2:5、AU4:1、…」のようにアノテーションが行われたデータであってよい。なお、発生強度は、5段階評価で表現されるものに限られるものではなく、例えば2段階評価(発生の有無)によって表現されても良い。この場合、あくまで一例として、5段階評価のうち評価が2以上である場合、「有」と表現される一方で、評価が2未満である場合、「無」と表現されることとしてもよい。
生成装置20は、判定装置10により出力されたRGBカメラ31の画像110及びAUの発生強度121を取得する。そして、生成装置20は、RGBカメラ31によって撮像された画像110から画像処理によりマーカが削除された画像111を生成する。さらに、生成装置20は、マーカ削除済みの画像111と、正解ラベルとするAUの発生強度121とが対応付けられた訓練データTRを含むデータセットを生成する。その上で、生成装置20は、訓練データTRのデータセットを機械学習装置50へ出力する。
機械学習装置50は、生成装置20から出力された訓練データTRのデータセットを用いて機械学習を実行する。例えば、機械学習装置50は、マーカ削除済みの画像111を機械学習モデルmの説明変数とし、正解ラベルとするAUの発生強度121を機械学習モデルmの目的変数とし、ディープラーニング等の機械学習のアルゴリズムに従って機械学習モデルmを訓練する。これにより、画像からAUの発生強度を推定するための機械学習モデルMが生成される。
次に、図2を用いて、カメラの配置について説明する。図2は、カメラの配置例を示す図である。図2に示すように、複数のIRカメラ32がマーカトラッキングシステムを構成していてもよい。その場合、マーカトラッキングシステムは、ステレオ撮影によりIR反射マーカの位置を検出することができる。また、複数のIRカメラ32のそれぞれの間の相対位置関係は、カメラキャリブレーションによりあらかじめ補正されているものとする。
また、撮像される被験者の顔には、対象とするAU(例:AU1からAU28)をカバーするように、複数のマーカが付される。マーカの位置は、被験者の表情の変化に応じて変化する。例えば、マーカ401は、眉の根元付近に配置される。また、マーカ402及びマーカ403は、豊麗線の付近に配置される。マーカは、1つ以上のAU及び表情筋の動きに対応した皮膚の上に配置されてもよい。また、マーカは、しわの寄り等により、テクスチャ変化が大きくなる皮膚の上を避けて配置されてもよい。
さらに、被験者は、基準点マーカが付された器具40を装着する。被験者の表情が変化しても、器具40に付された基準点マーカの位置は変化しないものとする。このため、判定装置10は、基準点マーカからの相対的な位置の変化により、顔に付されたマーカの位置の変化を検出することができる。また、基準マーカの数を3つ以上にすることで、判定装置10は、3次元空間におけるマーカの位置を特定することができる。
器具40は、例えばヘッドバンドであり、顔の輪郭外に基準点マーカを配置する。また、器具40は、VRヘッドセット及び固い素材のマスク等であってもよい。その場合、判定装置10は、器具40のリジッド表面を基準点マーカとして利用することができる。
次に、図3を用いて、判定装置10の機能構成例を説明する。図3は、判定装置10の機能構成例を示すブロック図である。図3に示すように、判定装置10は、通信制御部11、記憶部13及び制御部14を有する。なお、判定装置10は、図3に示す機能部以外にも生成装置20や機械学習装置50が有する機能部、例えば訓練データを生成する機能や機械学習を実行する機能などをさらに有することとしてもよい。
通信制御部11は、他の装置、例えばカメラ類や生成装置20などとの間で通信制御を行う機能部である。例えば、通信制御部11は、LAN(Local Area Network)カードなどのネットワークインタフェイスカードにより実現され得る。1つの側面として、通信制御部11は、RGBカメラ31により撮像された画像110を受け付けたり、あるいはIRカメラ32によるモーションキャプチャの結果120を受け付けたりする。他の側面として、通信制御部11は、AUの発生強度121が関連付けられたRGBカメラ31の画像110を生成装置20へ出力する。
記憶部13は、各種のデータを記憶する機能部である。あくまで一例として、記憶部13は、ストレージ、例えば内部、外部または補助のストレージにより実現される。例えば、記憶部13は、AUの発生強度が関連付けられたRGBカメラ31の画像131を記憶する。このような画像131以外にも、記憶部13は、マーカとAUの対応関係を表す対応関係情報などの各種のデータを記憶することができる。
制御部14は、判定装置10の全体制御を行う処理部である。例えば、制御部14は、ハードウェアプロセッサにより実現される。この他、制御部14は、ハードワイヤードロジックにより実現されてもよい。図3に示すように、制御部14は、取得部141と、特定部142と、判定部143とを有する。
取得部141は、顔を含む撮像画像を取得する。例えば、取得部141は、複数のAUに対応する複数の位置に複数のマーカを付した顔を含む撮像画像を取得する。取得部141は、RGBカメラ31によって撮像された画像を取得する。
ここで、IRカメラ32及びRGBカメラ31による撮影が行われる際、被験者は表情を変化させていく。これにより、判定装置10は、時系列に沿って表情が変化していく様子を画像として取得することができる。また、RGBカメラ31は、動画を撮像してもよい。動画は、時系列に並べられた複数の静止画とみなすことができる。また、被験者は、自由に表情を変化させてもよいし、あらかじめ定められたシナリオに沿って表情を変化させてもよい。
特定部142は、撮像画像に含まれるマーカの位置を特定する。特定部142は、撮像画像に含まれる複数のマーカのそれぞれの位置を特定する。さらに、時系列に沿って複数の画像が取得された場合、特定部142は、各画像についてマーカの位置を特定する。また、特定部142は、器具40に付された基準マーカとの位置関係を基に、各マーカの平面上又は空間上の座標を特定することができる。なお、特定部142は、マーカの位置を、基準座標系から定めてもよいし、基準面の投影位置から定めてもよい。
判定部143は、AUの判定基準と複数のマーカの位置とに基づいて、複数のAUのそれぞれの発生の有無を判定する。判定部143は、複数のAUのうち発生している1以上のAUについて、発生強度を判定する。このとき、判定部143は、複数のAUのうちマーカに対応するAUが、判定基準とマーカの位置とに基づいて発生していると判定された場合に、当該マーカに対応するAUを選択することができる。
例えば、判定部143は、判定基準に含まれる第1のAUに対応付けられた第1のマーカの基準位置と、特定部142によって特定された第1のマーカの位置との距離に基づいて算出した第1のマーカの移動量を基に、第1のAUの発生強度を判定する。なお、第1のマーカは、特定のAUに対応する1つ、あるいは複数マーカということができる。
AUの判定基準は、例えば、複数のマーカのうち、AU毎にAUの発生強度を判定するために使用される1又は複数のマーカを示す。AUの判定基準は、複数のマーカの基準位置を含んでもよい。AUの判定基準は、複数のAUのそれぞれについて、発生強度の判定に使用されるマーカの移動量と発生強度との関係(換算ルール)を含んでもよい。なお、マーカの基準位置は、被験者が無表情な状態(いずれのAUも発生していない)の撮像画像における複数のマーカの各位置に応じて定められてもよい。
ここで、図4を用いて、マーカの移動について説明する。図4は、マーカの移動の一例について説明する図である。図4の符号41~符号43は、RGBカメラ31によって撮像された画像である。また、画像は、符号41、符号42、符号43の順で撮像されたものとする。例えば、画像41は、被験者が無表情であるときの画像である。判定装置10は、画像41のマーカの位置を、移動量が0の基準位置とみなすことができる。
図4に示すように、被験者は、眉を寄せるような表情を取っている。このとき、表情の変化に従い、マーカ401の位置は下方向に移動している。その際、マーカ401の位置と、器具40に付された基準マーカとの間の距離は大きくなっている。
また、マーカ401の基準マーカからのX方向及びY方向の距離の変動値は、図5のように表される。図5は、発生強度の判定方法の一例を説明する図である。図5に示すように、判定部143は、変動値を発生強度に換算することができる。なお、発生強度は、FACS(Facial Action Coding System)に準じて5段階に量子化されたものであってもよいし、変動量に基づく連続量として定義されたものであってもよい。
判定部143が変動量を発生強度に換算するルールとしては、様々なものが考えられる。判定部143は、あらかじめ定められた1つのルールに従って換算を行ってもよいし、複数のルールで換算を行い、最も発生強度が大きいものを採用するようにしてもよい。
例えば、判定部143は、被験者が最大限表情を変化させたときの変動量である最大変動量をあらかじめ取得しておき、変動量の最大変動量に対する割合に基づいて発生強度を換算してもよい。また、判定部143は、従来手法によりコーダがタグ付けしたデータを用いて最大変動量を定めておいてもよい。また、判定部143は、変動量を発生強度にリニアに換算してもよい。また、判定部143は、複数の被験者の事前測定から作成された近似式を用いて換算を行ってもよい。
また、例えば、判定部143は、判定基準としてあらかじめ設定された位置と、特定部142によって特定された第1のマーカの位置とに基づいて算出した第1のマーカの移動ベクトルを基に発生強度を判定することができる。この場合、判定部143は、第1のマーカの移動ベクトルと、第1のAUに対してあらかじめ規定された規定ベクトルとの合致度合いを基に、第1のAUの発生強度を判定する。また、判定部143は、既存のAU推定エンジンを使って、ベクトルの大きさと発生強度の対応を補正してもよい。
図6は、発生強度の判定方法の一例を説明する図である。例えば、AU4に対応するAU4規定ベクトルが(-2mm,-6mm)のようにあらかじめ定められているものとする。このとき、判定部143は、マーカ401の移動ベクトルとAU4規定ベクトルの内積を計算し、AU4規定ベクトルの大きさで規格化する。ここで、内積がAU4規定ベクトルの大きさと一致すれば、判定部143は、AU4の発生強度を5段階中の5と判定する。一方、内積がAU4規定ベクトルの半分であれば、例えば、前述のリニアな換算ルールの場合は、判定部143は、AU4の発生強度を5段階中の3と判定する。
図7は、AU4規定ベクトルの一例を示す図である。図7には、AU4に対応するAU4規定ベクトル(-2mm,-6mm)が太線で示されている。さらに、図7には、AU4に対応するマーカ401の個人別の移動ベクトルが細線で示されると共に、個人別の移動ベクトルが分散し得る範囲がハッチングで示されている。図7にハッチングで示すように、各個人のAU4の移動ベクトルには分散があるが、単一のAU4規定ベクトルに対して内積を計算することで、AU4規定ベクトル成分のみを抽出することができる。さらに、個人差の分散角度は小さいので、AU4規定ベクトルの設定精度が高くなくともAU4の発生強度の判定精度に影響が少ない。
また、例えば、図6に示すように、AU11に対応するAU11規定ベクトルの大きさが3mmのようにあらかじめ定められているものとする。このとき、判定部143は、マーカ402とマーカ403の間の距離の変動量がAU11ベクトルの大きさと一致すれば、判定部143は、AU11の発生強度を5段階中の5と判定する。一方、距離の変動量がAU4規定ベクトルの半分であれば、例えば、前述のリニアな換算ルールの場合は、判定部143は、AU11の発生強度を5段階中の3と判定する。このように、判定部143は、特定部142によって特定された第1のマーカの位置及び第2のマーカの位置との間の距離の変化を基に、発生強度を判定することができる。
このように、無表情時のマーカの位置を基準とする基準位置からのマーカの移動量変化に基づいてAUの発生強度を判定する判定方法の他、判定部143は、特定のAUを対象にして異なるAUの発生強度の判定方法を適用することができる。
例えば、特定のAUでは、特定のAUが単独で発現する場合と、特定のAUが他のAUと同時に発現する場合とでマーカの移動量変化の現れ方に差がある場合がある。図8A~図8Cは、マーカ位置の一例を示す図である。図8A~図8Cには、あくまで一例として、AU15の観測に用いるマーカ405の位置が示されている。図8Aには、被験者の表情がニュートラルである無表情時のマーカ405の位置が示されている。図8Bには、AU15が単独で発現する場合のマーカ405の位置が示されている。図8Cには、AU15がAU17と同時に発現する場合のマーカ405の位置が示されている。図9及び図10は、マーカの移動量の一例を示す図である。図9及び図10には、AU15観測用のマーカ405の移動量が示されている。図9及び図10には、無表情時におけるマーカ405のシルエットが破線で示される一方で、AU15の発現時におけるマーカ405のシルエットを実線で示されている。図9及び図10には、AU15の発現時におけるマーカ405の動きが実線矢印で示されると共に、図10には、AU17の発現時におけるマーカ405の動きが破線矢印で示されている。
図8A~図8Cに示すように、AU15の推定には、口横に付されたマーカ405が用いられる。例えば、AU15が単独で発現する場合、AU15観測用のマーカ405は、図8Aに示されたマーカ405の基準位置から図8Bに示すマーカ405の位置へ移動する。すなわち、図9に示すように、AU15観測用のマーカ405は、AU15の発現に伴って現れるマーカ405の動きにより下方向へ移動するので、無表情時の基準位置からY軸のマイナス方向へ変位がマーカ405の移動量として観測される。一方、AU15及びAU17が同時に発現する場合、AU15観測用のマーカ405は、図8Aに示されたマーカ405の基準位置から図8Cに示すマーカ405の位置へ遷移する。この場合、図10に示すように、AU15の発現に伴って現れるマーカ405の動き(実線矢印)がAU17の発現に伴う動き(破線矢印)の影響を受け、Y軸のマイナス方向へ変位を移動量として観測するのが困難な場合がある。
この場合、AU15に対応するAU15規定ベクトル(0mm,-1mm)と、AU15観測用のマーカ405の移動ベクトルとの類似度、例えば内積を計算したとしても、AU15及びAU17の同時発現時の類似度が低くなる場合がある。
このことから、AU15を含む特定のマーカの発生強度を判定する場合、判定部143は、無表情時における複数のマーカの相対位置関係を基準とし、当該相対位置関係の変化量に基づいて特定のマーカの発生強度を判定する。
以下、特定のAUのあくまで一例として、AU15を例に挙げる。例えば、AU15の発生強度の判定には、第1のマーカの例として、口横に付されたマーカ405が用いられると共に、第2のマーカの例として、下唇に付されたマーカ406が用いられる。なお、ここでは、2つのマーカが用いられる例を挙げるが、3つ以上のマーカが用いられることとしてもよい。
上記の相対位置関係は、任意の次元数で定義できる。例えば、マーカの位置が3次元で表現される場合、相対位置関係は、最大で3次元で定義することができるが、これに限らず、1次元、あるいは2次元に絞り込んで定義することもできる。あくまで一例として、相対位置関係には、特定のAUごとに異なる次元数を設定することができ、相対位置関係を定義する次元数は、AUの規定ベクトルに含まれる成分別の大きさに基づいて絞り込むことができる。例えば、下記の式(1)に示すAU15規定ベクトルの場合、AU15規定ベクトルのX成分<AU15規定ベクトルのY成分であるので、Y方向の1次元に絞り込むことができる。この場合、相対位置関係は、下記の式(2)に示す通り、口横のマーカ405のY座標と下唇のマーカ406のY座標との差により定義できる。なお、ここでは、AU規定ベクトルの成分間で大きさが最大である成分に次元数を絞り込む例を挙げたが、大きさが閾値以上である成分に次元数を絞り込むこととしてもよいし、大きさが閾値以下である成分を除外することもできる。
AU15規定ベクトル:(0,-1)・・・(1)
相対位置関係:Y[口横-下唇]・・・(2)
このような相対位置関係の定義の下、判定部143は、無表情時および判定時の間における相対位置関係の変化量に基づいてAU15規定ベクトルとの類似度、例えば内積を計算する。つまり、下記の式(3)に示す通り、相対位置関係の変化量と、AU15規定ベクトルとの内積を計算することにより、AU15の発生強度を判定する。例えば、下記の式(3)に従えば、相対位置関係の変化量ΔYは、次のように算出される。例えば、変化量ΔYは、口横のマーカ405の基準位置からのY方向の移動量、すなわち口横のマーカ405のY方向の変位と、下唇のマーカ406の基準位置からのY方向の移動量、すなわち下唇のマーカ406のY方向の変位との差により算出できる。
ΔY[口横-下唇]・(0,-1)・・・(3)
これにより、AU15がAU17と同時に発現する場合でも、AU15の発生強度を判定できる。例えば、AU15が単独で発現する場合、口横のマーカ405及び下唇のマーカ406は、図8Aに示す位置から図8Bに示す位置へ変化する。この場合、口横のマーカ405のY軸のマイナス方向への変位が観測される一方で、下唇のマーカ406の変位は観測されない。このため、AU15単独の発現時には、下記の式(4)に示す内積計算が実行される。この場合、相対位置関係の変化量ΔYとして、Y軸のマイナス方向への変位が内積計算に用いられるので、内積はゼロよりも大きくなる結果、AU15の発現の検知漏れは発生せず、AU15の発生強度を判定できる。一方、AU15がAU17と同時に発現する場合、口横のマーカ405及び下唇のマーカ406は、図8Aに示す位置から図8Cに示す位置へ変化する。この場合、口横のマーカ405の変位は観測されない一方で、下唇のマーカ406のY軸のプラス方向への変位は観測される。このため、AU15及びAU17の同時発現時には、下記の式(5)に示す内積計算が実行される。この場合も、相対位置関係の変化量ΔYとして、Y軸のマイナス方向への変位が内積計算に用いられるので、内積はゼロよりも大きくなる結果、AU15の発現の検知漏れは発生せず、AU15の発生強度を判定できる。
ΔY[口横]・(0,-1)・・・(4)
ΔY[口横-下唇]・(0,-1)・・・(5)
図11及び図12は、AUの発生強度の推定値の一例を示す図である。これら図11及び図12では、被験者がAU15を発生強度「小」、発生強度「中」、発生強度「大」の順に繰り返す様子がRGBカメラ31及びIRカメラ32により撮影される場合のAUの発生強度の推定値が示されている。図11及び図12には、横軸を時刻とし、縦軸をAUの発生強度とするグラフが示されている。図11に示すグラフg1及び図12に示すグラフG1には、リファレンスとして、正解のAU15の発生強度が矩形状のマークでプロットされている。
図11に示すグラフg1には、口横のマーカ405の移動ベクトルと、AU15規定ベクトル(0,-1)との内積に基づいてAU15の発生強度を判定する場合のAU15の発生強度の推定値が示されている。図11に示すグラフg1によれば、AU15の発生強度が「小」および「中」である場合、リファレンスのAU15の発生強度と、AU15の発生強度の推定値とが略一致しているので、口横のマーカ405単独でもAU15の発生強度を推定できることがわかる。その一方で、AU15の発生強度が「大」である場合、リファレンスのAU15の発生強度と、AU15の発生強度の推定値とが乖離している。すなわち、AU15の発生強度の推定値は、リファレンスのAU15の発生強度に比べて低く、AU15の発現の検知漏れが発生している。さらに、図11に示すグラフg2には、AU17の発生強度の推定値が示されている。図11に示すグラフg1及びグラフg2を比較すると、AU15の発生強度が「大」である時間帯と、AU17が発現している時間帯とが同期していることが明らかである。これは、AU15の発生強度が「大」である場合、AU17の発現が伴い易いことを意味する。これらのことから、口横のマーカ405単独では、AU15及びAU17の同時発現時にAU15の発生強度の推定が困難であることを推定できる。
図12に示すグラフG1には、口横のマーカ405及び下唇のマーカ406の相対位置関係の変化量に基づいてAU15の発生強度を判定する場合のAU15の発生強度の推定値が示されている。図12に示すグラフG1によれば、AU15の発生強度が「小」、「中」および「大」のいずれである場合でも、リファレンスのAU15の発生強度と、AU15の発生強度の推定値とが略一致している。このため、AU15及びAU17の同時発現時においてもAU15の発生強度を判定できることが明らかであると言える。
以上のように判定されたAUの発生強度は、RGBカメラ31により撮像された画像に関連付けて生成装置20へ出力される。この他、判定装置10は、判定部143により判定されたAUの発生強度が関連付けられたRGBカメラ31の撮像画像を発生強度付きの画像131として記憶部13へ保存することもできる。
次に、生成装置20により実行される訓練データの生成について説明する。生成装置20は、マスク画像を用いてマーカを削除することができる。図13は、マスク画像の作成方法の一例を説明する図である。図13の符号110は、RGBカメラ31によって撮像された画像である。まず、生成装置20は、あらかじめ意図的に付けられたマーカの色を抽出して代表色として定義する。そして、図13に示す符号110Bのように、生成装置20は、代表色近傍の色の領域画像を生成する。さらに、図7に示す符号110Cのように、生成装置20は、代表色近傍の色の領域に対し収縮、膨張等の処理を行い、マーカ削除用のマスク画像を生成する。また、マーカの色を顔の色としては存在しにくい色に設定しておくことで、マーカの色の抽出精度を向上させてもよい。
図14は、マーカの削除方法の一例を説明する図である。図14に示すように、まず、生成装置20は、動画から取得した静止画に対し、マスク画像を適用する。さらに、生成装置20は、マスク画像を適用した画像を例えばニューラルネットワークに入力し、処理済みの画像を得る。なお、ニューラルネットワークは、被験者のマスクありの画像及びマスクなしの画像等を用いて学習済みであるものとする。なお、動画から静止画を取得することにより、表情変化の途中データが得られることや、短時間で大量のデータが得られることがメリットとして生じる。また、生成装置20は、ニューラルネットワークとして、GMCNN(Generative Multi-column Convolutional Neural Networks)やGAN(Generative Adversarial Networks)を用いてもよい。
なお、生成装置20がマーカを削除する方法は、上記のものに限られない。例えば、生成装置20は、あらかじめ定められたマーカの形状を基にマーカの位置を検出し、マスク画像を生成してもよい。また、IRカメラ32とRGBカメラ31の相対位置のキャリブレーションを事前に行うようにしてもよい。この場合、生成装置20は、IRカメラ32によるマーカトラッキングの情報からマーカの位置を検出することができる。
また、生成装置20は、マーカにより異なる検出方法を採用してもよい。例えば、鼻上のマーカは動きが少なく、形状を認識しやすいため、生成装置20は、形状認識により位置を検出してもよい。また、口横のマーカは動きが大きく、形状を認識しにくいため、生成装置20は、代表色を抽出する方法で位置を検出してもよい。
このようにマーカが削除された後、生成装置20は、生成された画像に第1のAUに関する情報を付与することによって機械学習用の訓練データを生成する。例えば、生成装置20は、生成された画像に、判定部143によって判定されたAUの発生強度を付与することによって機械学習用の訓練データを生成する。また、機械学習装置50は、生成装置20によって生成された訓練データを既存の訓練データに加えて機械学習を実行してもよい。
例えば、訓練データは、画像を入力として、発生しているAUを推定する推定モデルの機械学習に使用できる。また、推定モデルは各AUに特化したモデルであってもよい。推定モデルが特定のAUに特化したものである場合、生成装置20は、生成した訓練データを、当該特定のAUに関する情報のみを教師ラベルとする訓練データに変更してもよい。つまり、生成装置20は、特定のAUと異なる他のAUが発生している画像に関しては、他のAUに関する情報を削除して、当該特定のAUは発生していない旨の情報を教師ラベルとして付加することができる。
本実施例によれば、必要な訓練データの見積もりを行うことができる。一般に、機械学習を実施するためには、膨大な計算コストがかかる。計算コストには、時間やGPU等の使用量が含まれる。
データセットの質及び量が改善すると、機械学習によって得られるモデルの精度は改善する。そのため、事前に目標精度に対して必要なデータセットの質及び量の大まかな見積もりができれば、計算コストが削減される。ここで、例えば、データセットの質は、マーカの削除率及び削除精度である。また、例えば、データセットの量は、データセット数及び被験者の人数である。
AUの組み合わせ中には、互いの相関が高い組み合わせがある。このため、あるAUに対して行った見積りは、当該AUと相関が高い他のAUに適用できると考えられる。例えば、AU18とAU22の相関は高いことが知られており、対応するマーカが共通する場合がある。このため、AU18の推定精度が目標に達する程度のデータセットの質及び量の見積もりができれば、AU22の推定精度が目標に達する程度のデータセットの質及び量の大まかな見積もりが可能になる。
機械学習装置50により生成された機械学習モデルMは、AUの発生強度の推定を実行する推定装置(不図示)へ提供され得る。推定装置は、機械学習装置50によって生成された機械学習モデルMを用いて、実際に推定を行う。推定装置は、人物の顔が写った画像であって、各AUの発生強度が未知である画像を取得し、取得された画像を機械学習モデルMへ入力することにより機械学習モデルMが出力するAUの発生強度をAUの推定結果として任意の出力先へ出力できる。このような出力先は、あくまで一例として、AUの発生強度を用いて顔の表情を推定したり、あるいは理解度や満足度を算出したりする装置、プログラム、あるいはサービスなどであってよい。
次に、判定装置10の処理の流れを説明する。図15は、発生強度の判定処理の手順を示すフローチャートである。図15に示すように、まず、判定装置10は、被験者の顔の撮像画像を取得する(ステップS101)。次に、判定装置10は、ステップS101で取得された撮像画像に含まれるマーカの位置を特定する(ステップS102)。
そして、判定装置10は、AUの個数Kに対応する回数の分、ステップS102からステップS107までの処理を繰り返すループ処理1を実行する。
例えば、判定装置10は、AUを1つ選択する(ステップS103)。このとき、選択中のAUが特定のAUでない場合(ステップS104No)、判定装置10は、次のような処理を実行する。すなわち、判定装置10は、ステップS102で特定したマーカの位置のうち、選択中のAUの推定に割り当てられたマーカの位置と基準位置を基に、マーカの移動ベクトルを計算する(ステップS105)。そして、判定装置10は、移動ベクトルを基にAUの発生強度を判定する(ステップS106)。
一方、選択中のAUが特定のAUである場合(ステップS104Yes)、判定装置10は、次のような処理を実行する。すなわち、判定装置10は、ステップS102で特定したマーカの位置のうち、特定のAUの推定に割り当てられた複数のマーカの各々の位置に基づいて、複数のマーカの相対位置関係の変化量を計算する(ステップS107)。続いて、判定装置10は、ステップS107で計算された相対位置関係の変化量と、特定のAUの規定ベクトルとの内積に基づいて特定のAUの発生強度を判定する(ステップS108)。
このようなループ処理1が繰り返されることにより、AUごとに発生強度を判定できる。なお、図15に示すフローチャートでは、上記のステップS103から上記のステップS108までの処理がループ処理として実行される例を挙げたが、これに限定されず、AUごとに並列して実行されることとしてもよい。
次に、生成装置20の処理の流れを説明する。図16は、訓練データの生成処理の手順を示すフローチャートである。図16に示すように、まず、生成装置20は、撮像画像のマーカの位置を特定する(ステップS301)。生成装置20は、画像からマーカを削除する(ステップS302)。そして、生成装置20は、AUの発生強度をマーカが削除された画像に付与する(ステップS303)。
上述してきたように、本実施例に係る判定装置10は、無表情時における複数のマーカの相対位置関係を基準とし、判定実行時点における相対位置関係の変化量に基づいて特定AUの発生強度を判定する。したがって、本実施例に係る判定装置10によれば、特定AUと他のAUの同時発現時に特定AUの発生強度を判定できる。
なお、上記の実施例では、判定装置10、生成装置20及び機械学習装置50の各々が個別の装置とされる場合を例示したが、判定装置10が生成装置20の機能、あるいは生成装置20及び機械学習装置50の両方の機能を併せ持つこととしてもよい。
なお、上記の実施例では、判定部143が、マーカの移動量を基にAUの発生強度を判定するものとして説明した。一方で、マーカが動かなかったことも、判定部143による発生強度の判定基準になり得る。
また、マーカの周囲には、検出しやすい色が配置されていてもよい。例えば、中央にIRマーカを置いた丸い緑色の粘着シールを被験者に付してもよい。この場合、生成装置20は、撮像画像から緑色の丸い領域を検出し、当該領域をIRマーカごと削除することができる。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値等は、あくまで一例であり、任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
図17は、ハードウェア構成例を説明する図である。図17に示すように、判定装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図17に示した各部は、バス等で相互に接続される。
通信インタフェース10aは、ネットワークインタフェイスカード等であり、他のサーバとの通信を行う。HDD10bは、図3に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図3に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図3等で説明した各機能を実行するプロセスを動作させるハードウェア回路である。すなわち、このプロセスは、判定装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、取得部141、特定部142及び判定部143と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、取得部141、特定部142及び判定部143等と同様の処理を実行するプロセスを実行する。
このように判定装置10は、プログラムを読み出して実行することで判定方法を実行する情報処理装置として動作する。また、判定装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、判定装置10によって実行されることに限定されるものではない。例えば、他のコンピュータ又はサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネット等のネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)第1のマーカと第2のマーカとを付した顔を含む画像を取得し、
前記画像に含まれる前記第1のマーカの第1の位置と前記第2のマーカの第2の位置とを特定し、
前記第1の位置と前記第1のマーカの基準位置との差と、前記第1の位置と第2の位置との位置関係と前記第1のマーカと前記第2のマーカとの基準位置関係との差とに基づいて、前記顔における特定の表情の発生強度を判定し、
前記画像と関連付けて、判定された前記特定の表情の発生強度を出力する、
処理をコンピュータに実行させることを特徴とする判定プログラム。
(付記2)前記基準位置は、前記顔の表情がニュートラルな状態である無表情時における前記第1のマーカの位置に対応する、
ことを特徴とする付記1に記載の判定プログラム。
(付記3)前記位置関係と前記基準位置関係との前記差は、前記第1のマーカの基準位置からの移動量と、前記第2のマーカの基準位置からの移動量との差に対応する、
ことを特徴とする付記2に記載の判定プログラム。
(付記4)前記判定する処理で判定した前記特定の表情の発生強度を正解ラベルとして、前記画像から前記第1のマーカ及び前記第2のマーカを削除した画像に付与することにより、機械学習モデルの訓練に用いる訓練データを生成する処理を前記コンピュータにさらに実行させる、
ことを特徴とする付記1に記載の判定プログラム。
(付記5)前記訓練データに含まれる前記画像を前記機械学習モデルの説明変数とし、前記訓練データに含まれる前記正解ラベルを前記機械学習モデルの目的変数とする機械学習を実行する処理を前記コンピュータにさらに実行させる、
ことを特徴とする付記4に記載の判定プログラム。
(付記6)第1のマーカと第2のマーカとを付した顔を含む画像を取得し、
前記画像に含まれる前記第1のマーカの第1の位置と前記第2のマーカの第2の位置とを特定し、
前記第1の位置と前記第1のマーカの基準位置との差と、前記第1の位置と第2の位置との位置関係と前記第1のマーカと前記第2のマーカとの基準位置関係との差とに基づいて、前記顔における特定の表情の発生強度を判定し、
前記画像と関連付けて、判定された前記特定の表情の発生強度を出力する、
処理をコンピュータが実行することを特徴とする判定方法。
(付記7)前記基準位置は、前記顔の表情がニュートラルな状態である無表情時における前記第1のマーカの位置に対応する、
ことを特徴とする付記6に記載の判定方法。
(付記8)前記位置関係と前記基準位置関係との前記差は、前記第1のマーカの基準位置からの移動量と、前記第2のマーカの基準位置からの移動量との差に対応する、
ことを特徴とする付記7に記載の判定方法。
(付記9)前記判定する処理で判定した前記特定の表情の発生強度を正解ラベルとして、前記画像から前記第1のマーカ及び前記第2のマーカを削除した画像に付与することにより、機械学習モデルの訓練に用いる訓練データを生成する処理を前記コンピュータがさらに実行する、
ことを特徴とする付記6に記載の判定方法。
(付記10)前記訓練データに含まれる前記画像を前記機械学習モデルの説明変数とし、前記訓練データに含まれる前記正解ラベルを前記機械学習モデルの目的変数とする機械学習を実行する処理を前記コンピュータがさらに実行する、
ことを特徴とする付記9に記載の判定方法。
(付記11)第1のマーカと第2のマーカとを付した顔を含む画像を取得し、
前記画像に含まれる前記第1のマーカの第1の位置と前記第2のマーカの第2の位置とを特定し、
前記第1の位置と前記第1のマーカの基準位置との差と、前記第1の位置と第2の位置との位置関係と前記第1のマーカと前記第2のマーカとの基準位置関係との差とに基づいて、前記顔における特定の表情の発生強度を判定し、
前記画像と関連付けて、判定された前記特定の表情の発生強度を出力する、
処理を実行する制御部を含む判定装置。
(付記12)前記基準位置は、前記顔の表情がニュートラルな状態である無表情時における前記第1のマーカの位置に対応する、
ことを特徴とする付記11に記載の判定装置。
(付記13)前記位置関係と前記基準位置関係との前記差は、前記第1のマーカの基準位置からの移動量と、前記第2のマーカの基準位置からの移動量との差に対応する、
ことを特徴とする付記12に記載の判定装置。
(付記14)前記判定する処理で判定した前記特定の表情の発生強度を正解ラベルとして、前記画像から前記第1のマーカ及び前記第2のマーカを削除した画像に付与することにより、機械学習モデルの訓練に用いる訓練データを生成する処理を前記制御部がさらに実行する、
ことを特徴とする付記11に記載の判定装置。
(付記15)前記訓練データに含まれる前記画像を前記機械学習モデルの説明変数とし、前記訓練データに含まれる前記正解ラベルを前記機械学習モデルの目的変数とする機械学習を実行する処理を前記制御部がさらに実行する、
ことを特徴とする付記14に記載の判定装置。
1 機械学習システム
10 判定装置
11 通信制御部
13 記憶部
131 発生強度付き画像
14 制御部
141 取得部
142 特定部
143 判定部
20 生成装置
50 機械学習装置

Claims (7)

  1. 第1のマーカと第2のマーカとを付した顔を含む画像を取得し、
    前記画像に含まれる前記第1のマーカの第1の位置と前記第2のマーカの第2の位置とを特定し、
    前記第1の位置と前記第1のマーカの基準位置との差と、前記第1の位置と第2の位置との位置関係と前記第1のマーカと前記第2のマーカとの基準位置関係との差とに基づいて、前記顔における特定の表情の発生強度を判定し、
    前記画像と関連付けて、判定された前記特定の表情の発生強度を出力する、
    処理をコンピュータに実行させることを特徴とする判定プログラム。
  2. 前記基準位置は、前記顔の表情がニュートラルな状態である無表情時における前記第1のマーカの位置に対応する、
    ことを特徴とする請求項1に記載の判定プログラム。
  3. 前記位置関係と前記基準位置関係との前記差は、前記第1のマーカの基準位置からの移動量と、前記第2のマーカの基準位置からの移動量との差に対応する、
    ことを特徴とする請求項2に記載の判定プログラム。
  4. 前記判定する処理で判定した前記特定の表情の発生強度を正解ラベルとして、前記画像から前記第1のマーカ及び前記第2のマーカを削除した画像に付与することにより、機械学習モデルの訓練に用いる訓練データを生成する処理を前記コンピュータにさらに実行させる、
    ことを特徴とする請求項1~3のいずれか1つに記載の判定プログラム。
  5. 前記訓練データに含まれる前記画像を前記機械学習モデルの説明変数とし、前記訓練データに含まれる前記正解ラベルを前記機械学習モデルの目的変数とする機械学習を実行する処理を前記コンピュータにさらに実行させる、
    ことを特徴とする請求項4に記載の判定プログラム。
  6. 第1のマーカと第2のマーカとを付した顔を含む画像を取得し、
    前記画像に含まれる前記第1のマーカの第1の位置と前記第2のマーカの第2の位置とを特定し、
    前記第1の位置と前記第1のマーカの基準位置との差と、前記第1の位置と第2の位置との位置関係と前記第1のマーカと前記第2のマーカとの基準位置関係との差とに基づいて、前記顔における特定の表情の発生強度を判定し、
    前記画像と関連付けて、判定された前記特定の表情の発生強度を出力する、
    処理をコンピュータが実行することを特徴とする判定方法。
  7. 第1のマーカと第2のマーカとを付した顔を含む画像を取得し、
    前記画像に含まれる前記第1のマーカの第1の位置と前記第2のマーカの第2の位置とを特定し、
    前記第1の位置と前記第1のマーカの基準位置との差と、前記第1の位置と第2の位置との位置関係と前記第1のマーカと前記第2のマーカとの基準位置関係との差とに基づいて、前記顔における特定の表情の発生強度を判定し、
    前記画像と関連付けて、判定された前記特定の表情の発生強度を出力する、
    処理を実行する制御部を含む判定装置。
JP2021173488A 2021-10-22 2021-10-22 判定プログラム、判定方法及び判定装置 Pending JP2023063154A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021173488A JP2023063154A (ja) 2021-10-22 2021-10-22 判定プログラム、判定方法及び判定装置
US17/866,563 US20230130397A1 (en) 2021-10-22 2022-07-18 Determination method and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021173488A JP2023063154A (ja) 2021-10-22 2021-10-22 判定プログラム、判定方法及び判定装置

Publications (1)

Publication Number Publication Date
JP2023063154A true JP2023063154A (ja) 2023-05-09

Family

ID=86057072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021173488A Pending JP2023063154A (ja) 2021-10-22 2021-10-22 判定プログラム、判定方法及び判定装置

Country Status (2)

Country Link
US (1) US20230130397A1 (ja)
JP (1) JP2023063154A (ja)

Also Published As

Publication number Publication date
US20230130397A1 (en) 2023-04-27

Similar Documents

Publication Publication Date Title
JP7452016B2 (ja) 学習データ生成プログラム、及び学習データ生成方法
US8355529B2 (en) Motion capture apparatus and method, and motion capture program
Shreve et al. Macro-and micro-expression spotting in long videos using spatio-temporal strain
KR20110013200A (ko) 인체 자세 식별 방법 및 장치
JP2009020761A (ja) 画像処理装置及びその方法
CN113449570A (zh) 图像处理方法和装置
JP2019079487A (ja) パラメータ最適化装置、パラメータ最適化方法、プログラム
JP7379065B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2013125307A (ja) 計測対象抽出装置、顔形状推定装置、計測対象抽出方法および顔形状推定方法
US20230368409A1 (en) Storage medium, model training method, and model training device
US20230046705A1 (en) Storage medium, determination device, and determination method
WO2020261403A1 (ja) 身長推定装置、身長推定方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JP2023063154A (ja) 判定プログラム、判定方法及び判定装置
JP2021047538A (ja) 画像処理装置、画像処理方法、及びプログラム
WO2019156241A1 (ja) 学習装置、推定装置、学習方法、推定方法及びコンピュータプログラム
JP7452015B2 (ja) 判定プログラム、判定方法、判定装置
JP5276454B2 (ja) 表情測定方法、表情測定プログラムならびに表情測定装置
JP7311046B2 (ja) 判定プログラム、判定装置、および判定方法
JP2022190954A (ja) 表情判定プログラム、表情判定装置、および表情判定方法
JP7152651B2 (ja) プログラム、情報処理装置、及び情報処理方法
WO2021084687A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラムが格納された非一時的なコンピュータ可読媒体
JP2021196899A (ja) 画像処理装置、画像処理方法、及びプログラム
JP4942197B2 (ja) テンプレート作成装置及び表情認識装置並びにその方法、プログラム及び記録媒体
JP6282121B2 (ja) 画像認識装置、画像認識方法およびプログラム
Majerník Reconstruction of Human Motion Trajectories to Support Human Gait Analysis in Free Moving Subjects