JP2019105729A - 人物評価装置、プログラム、及び、方法 - Google Patents

人物評価装置、プログラム、及び、方法 Download PDF

Info

Publication number
JP2019105729A
JP2019105729A JP2017237950A JP2017237950A JP2019105729A JP 2019105729 A JP2019105729 A JP 2019105729A JP 2017237950 A JP2017237950 A JP 2017237950A JP 2017237950 A JP2017237950 A JP 2017237950A JP 2019105729 A JP2019105729 A JP 2019105729A
Authority
JP
Japan
Prior art keywords
subject
voice
evaluation
face
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017237950A
Other languages
English (en)
Other versions
JP6927495B2 (ja
Inventor
武士 阿野
Takeshi Ano
武士 阿野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colorchips Co Ltd
Take&see Co Ltd
Original Assignee
Colorchips Co Ltd
Take&see Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colorchips Co Ltd, Take&see Co Ltd filed Critical Colorchips Co Ltd
Priority to JP2017237950A priority Critical patent/JP6927495B2/ja
Publication of JP2019105729A publication Critical patent/JP2019105729A/ja
Application granted granted Critical
Publication of JP6927495B2 publication Critical patent/JP6927495B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

【課題】人物評価の対象となる被検者の音声に基づいて、あるいは、被検者の動画像及び音声に基づいて、被検者の人物評価を行う際に参考となる情報を提供できる人物評価装置を提供する。【解決手段】この人物評価装置は、被検者の音声を収録して得られる音声データを単位時間当りのデータブロック毎にフーリエ変換し、データブロック毎に複数の周波数帯域における音圧分布を表す声紋データを生成する音声処理部と、複数の周波数帯域における音圧の大きさ及び広がりに応じてデータブロックを分類し、所定数のデータブロックの分類結果に基づいて被検者の音声に関する評価を行う音声解析部とを備える。【選択図】図1

Description

本発明は、人物を評価するために用いられる人物評価装置、並びに、そのような人物評価装置において用いられる人物評価プログラム及び人物評価方法等に関する。
例えば、企業が新たな社員を採用する際には、多数の応募者の人物評価を行って採用すべき応募者を選考するために、採用担当者が多大な労力と時間を費やしている。また、採用担当者によって評価基準が異なることもあり、応募者の人物評価のために客観的な評価基準を設けることが要望されている。そこで、応募者の人物評価を行う際に参考となる情報が応募者の音声又は動画像に基づいて得られれば、採用担当者の選考業務が効率化されると共に、評価基準の客観性を向上させることができる。
一方、電話やインターネットを介して不特定多数の人とコミュニケーションをとる場合においても、コミュニケーションの相手が信頼できるか否かを判断できるツールが求められている。関連する技術として、特許文献1には、コミュニケーションの相手が信頼できるか否かを判断できる仕組みのないコミュニティーにおいて、利用者が安心してコミュニケーションを行うための人物評価装置が開示されている。
この人物評価装置は、統一された評価尺度に準じた評価内容ごとに、学習用データに含まれる特徴語と該特徴語に対するスコアとが対応付けられた辞書を構築する辞書構築手段と、学習用データを構成する複数のユーザーのデータ(例えば、記事)及び上記辞書を参照することにより、複数のユーザーの識別情報及び基礎値に基づくユーザー単位の評価を行う評価手段とを備えている。
辞書には、統一された評価尺度を用いて、学習用データ中の特徴語と、その出現頻度に応じたスコアとが、評価内容ごとに登録されている。また、学習用データを構成するデータに対する評価は、上記辞書を参照しながら、ユーザーの識別情報に基づいて行われる。従って、特許文献1によれば、ユーザーが入力するデータが集まるインターネットコミュニティーの利用者に関して、データ単位のみならず人単位で高精度な評価を行うことができる。
特開2006−190196号公報(段落0002−0008、図1)
特許文献1において人物評価を行うためには、複数のユーザーが作成した記事等が必要となる。しかしながら、例えば、ユーザーが作成した記事にユーザー本来の思想や思考が反映されていない場合や、ユーザーが記事を作成する際に他人の記事を盗用したような場合には、正確な人物評価を行うことができない。
そこで、上記の点に鑑み、本発明の第1の目的は、人物評価の対象となる被検者の音声に基づいて、あるいは、被検者の動画像及び音声に基づいて、被検者の人物評価を行う際に参考となる情報を提供できる人物評価装置を提供することである。さらに、本発明の第2の目的は、そのような人物評価装置において用いられる人物評価プログラム及び人物評価方法等を提供することである。
以上の課題の少なくとも一部を解決するため、本発明の第1の観点に係る人物評価装置は、被検者の音声を収録して得られる音声データを単位時間当りのデータブロック毎にフーリエ変換し、データブロック毎に複数の周波数帯域における音圧分布を表す声紋データを生成する音声処理部と、複数の周波数帯域における音圧の大きさ及び広がりに応じてデータブロックを分類し、所定数のデータブロックの分類結果に基づいて被検者の音声に関する評価を行う音声解析部とを備える。
また、本発明の第1の観点に係る人物評価プログラムは、被検者の音声を収録して得られる音声データを単位時間当りのデータブロック毎にフーリエ変換し、データブロック毎に複数の周波数帯域における音圧分布を表す声紋データを生成する手順(a)と、複数の周波数帯域における音圧の大きさ及び広がりに応じてデータブロックを分類し、所定数のデータブロックの分類結果に基づいて被検者の音声に関する評価を行う手順(b)とをCPUに実行させる。
また、本発明の第1の観点に係る人物評価方法は、被検者の音声を収録して得られる音声データを単位時間当りのデータブロック毎にフーリエ変換し、データブロック毎に複数の周波数帯域における音圧分布を表す声紋データを生成するステップ(a)と、複数の周波数帯域における音圧の大きさ及び広がりに応じてデータブロックを分類し、所定数のデータブロックの分類結果に基づいて被検者の音声に関する評価を行うステップ(b)とを備える。
本発明の第1の観点によれば、被検者の音声を収録して得られる音声データからデータブロック毎に複数の周波数帯域における音圧分布を表す声紋データを生成して、複数の周波数帯域における音圧の大きさ及び広がりに応じてデータブロックを分類し、所定数のデータブロックの分類結果に基づいて被検者の音声に関する評価を行うことにより、人物評価の対象となる被検者の音声に基づいて、被検者の人物評価を行う際に参考となる情報を提供することができる。
本発明の第2の観点に係る人物評価装置は、本発明の第1の観点に係る人物評価装置において、被検者の顔を撮像して得られる動画像データに対してフレーム毎に顔認識処理を施すことにより、被検者の顔において認識される複数の特徴点を抽出し、複数の特徴点の座標を求める画像処理部と、所定数のフレームにおける複数の特徴点の座標に基づいて被検者の顔の動き量を算出し、評価期間における被検者の顔の動き量の統計処理に基づいて被検者の視覚的な評価を行う画像解析部と、音声解析部による評価結果と画像解析部による評価結果とに基づいて被検者の人物評価を行う総合評価部とをさらに備える。
また、本発明の第2の観点に係る人物評価プログラムは、本発明の第1の観点に係る人物評価プログラムにおいて、被検者の顔を撮像して得られる動画像データに対してフレーム毎に顔認識処理を施すことにより、被検者の顔において認識される複数の特徴点を抽出し、複数の特徴点の座標を求める手順(c)と、所定数のフレームにおける複数の特徴点の座標に基づいて被検者の顔の動き量を算出し、評価期間における被検者の顔の動き量の統計処理に基づいて被検者の視覚的な評価を行う手順(d)と、手順(b)における評価結果と手順(d)における評価結果とに基づいて被検者の人物評価を行う手順(e)とをさらにCPUに実行させる。
また、本発明の第2の観点に係る人物評価方法は、本発明の第1の観点に係る人物評価方法において、被検者の顔を撮像して得られる動画像データに対してフレーム毎に顔認識処理を施すことにより、被検者の顔において認識される複数の特徴点を抽出し、複数の特徴点の座標を求めるステップ(c)と、所定数のフレームにおける複数の特徴点の座標に基づいて被検者の顔の動き量を算出し、評価期間における被検者の顔の動き量の統計処理に基づいて被検者の視覚的な評価を行うステップ(d)と、ステップ(b)における評価結果とステップ(d)における評価結果とに基づいて被検者の人物評価を行うステップ(e)とをさらに備える。
本発明の第2の観点によれば、被検者の顔を撮像して得られる動画像データから被検者の顔において認識される複数の特徴点の座標を求めて、所定数のフレームにおける複数の特徴点の座標に基づいて被検者の顔の動き量を算出し、評価期間における被検者の顔の動き量の統計処理に基づいて被検者の視覚的な評価を行うことにより、人物評価の対象となる被検者の動画像及び音声に基づいて、被検者の人物評価を行う際に参考となる情報を提供することができる。
本発明の一実施形態に係る人物評価装置の構成例を示すブロック図。 音声データによって表される音声波形の例を示す図。 声紋データによって表される音圧分布の例を示す図。 声紋データに基づく音声の評価例を説明するための図。 第1の軸を回転中心とする被検者の顔の動き量を算出するために用いられる画像の例を示す図。 第1の軸を回転中心とする被検者の顔の動きによる第1の三角形と第2の三角形との高さの比の変化を説明するための図。 第2の軸を回転中心とする被検者の顔の動き量を算出するために用いられる画像の例を示す図。 第2の軸を回転中心とする被検者の顔の動きによる第1の三角形と第2の三角形との面積比の変化を説明するための図。 第3の軸を回転中心とする被検者の顔の動き量を算出するために用いられる画像の例を示す図。 評価期間における被検者の顔の向きを表す量の分散値の確率分布の例を示す図。 被検者の人物評価を行うために用いられるマッピングエリアの例を示す図。 本発明の一実施形態に係る人物評価方法を示すフローチャート。 動画像データの処理フローの例を示すフローチャート(前半)。 動画像データの処理フローの例を示すフローチャート(後半)。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。なお、同一の構成要素には同一の参照符号を付して、重複する説明を省略する。
<人物評価装置>
図1は、本発明の一実施形態に係る人物評価装置の構成例を示すブロック図である。人物評価装置としては、例えば、パーソナルコンピューター、タブレット端末、又は、スマートフォン等を使用することができる。以下においては、一例として、人物評価装置としてパーソナルコンピューターを使用する場合について説明する。
図1に示すように、この人物評価装置は、操作部10と、表示部20と、入出力インターフェース30と、ネットワークインターフェース40と、CPU(中央演算装置)50と、メモリー60と、格納部70とを含んでいる。入出力インターフェース30〜格納部70は、バスラインを介して互いに接続されている。なお、図1に示す構成要素の一部を省略又は変更しても良いし、あるいは、図1に示す構成要素に他の構成要素を付加しても良い。
操作部10は、キーボードやマウス等で構成され、各種の命令やデータを入力するために用いられる。表示部20は、例えば、LCD(液晶表示装置)等を含み、操作画面や評価画面等を表示する。入出力インターフェース30は、操作部10及び表示部20に接続されており、操作部10を用いて入力される各種の命令やデータをCPU50又はメモリー60に供給し、CPU50によって生成される表示データを表示部20に供給する。
また、入出力インターフェース30は、外部から音声データ又は動画像データを入力したり、USB(ユニバーサルシリアルバス)メモリー等の周辺機器との間でデータのシリアル転送を行うことが可能である。さらに、入出力インターフェース30は、アナログの音声信号又は画像信号をデジタルの音声データ又は動画像データに変換するアナログ/デジタル変換器を含んでも良い。
ネットワークインターフェース40は、CPU50をLAN又はインターネット等のネットワークに接続する。CPU50は、格納部70に格納されているソフトウェアに従って、各種の演算やデータ処理を行う。メモリー60は、入出力インターフェース30から供給される各種の命令やデータ、ネットワークインターフェース40から供給されるデータ、及び、CPU50によって生成又は処理されるデータ等を一時的に記憶する。
格納部70は、各種のデータや、CPU50に動作を行わせるための各種のソフトウェア等を記録媒体に格納する。記録媒体としては、内蔵のハードディスクの他に、外付けハードディスク、フレキシブルディスク、MO、MT、CD−ROM、DVD−ROM、又は、各種のメモリー等を用いることができる。
ここで、CPU50とソフトウェア(人物評価プログラムを含む)とによって、音声処理部51と、音声解析部52と、画像処理部53と、画像解析部54と、総合評価部55とが、機能ブロックとして構成される。
図1に示す人物評価装置には、人物評価の対象となる被検者の音声を収録して得られる音声データが供給される。あるいは、被検者の顔を撮像して得られる動画像データが音声データと共に供給される。その場合には、動画像データと音声データとが結合されていても良い。あるいは、入出力インターフェース30のアナログ/デジタル変換器が、人物評価装置に供給されるアナログの音声信号又は画像信号をデジタルの音声データ又は動画像データに変換しても良い。
例えば、マイクロフォン、携帯電話機(スマートフォン等)、タブレット端末、ビデオカメラ、又は、スカイプ(Skype)等を用いて得られる音声データ又は動画像データ等が、リアルタイムで人物評価装置に供給されても良い。あるいは、音声レコーダー又はビデオムービー等に予め記録された音声データ又は動画像データ等が、バッチ処理で人物評価装置に供給されても良い。
<音声処理>
入出力インターフェース30又はネットワークインターフェース40等から供給される音声データ又は動画像データは、生データ格納部71に格納される。音声処理部51は、生データ格納部71から音声データを読み出して音声データを取得する。
図2は、音声データによって表される音声波形の例を示す図である。図2において、横軸は、時間[秒]を表しており、縦軸は、音声波形の振幅を表している。例えば、音声評価のために、収録開始後5秒〜35秒の30秒間の評価期間における音声を表す音声データが用いられる。なお、音声データにおける音声波形の振幅は、ピーク値等に基づいて正規化されても良い。
図1に示す音声処理部51は、人物評価の対象となる被検者の音声を収録して得られる音声データを単位時間(例えば、約0.07秒)当りのデータブロック毎にフーリエ変換し、データブロック毎に複数の周波数帯域における音圧分布を表す声紋データを生成する。なお、音声データのデータブロックは、一般的には、音声データのフレームに相当するものであるが、本願においては、画像データのフレームと区別するために、音声データについてはデータブロックという用語が用いられる。
図3は、声紋データによって表される音圧分布の例を示す図である。図3において、横軸は、2×時間[秒]を表す時間軸であり、縦軸は、周波数を対数表示で表す周波数軸である。図3においては、各々の周波数領域における明度が音圧[dB]を表しており、音圧が高い周波数領域ほど白に近く表示されている。あるいは、時間軸及び周波数軸に直交する音圧軸が音圧[dB]を表す3次元表示が用いられても良い。
ここで、音声データに基づいて声紋データを生成する手法の一例について説明する。図1に示す音声処理部51は、音声データによって表される音声波形にハミング窓をかけることにより、時系列の音声データを所定の時間毎に区切って、時間軸に沿った複数のデータブロックを作成する。例えば、サンプリング周波数が約44kHzである場合に、1つのデータブロックが、2048サンプルの音声データを含んでいる。なお、連続する2つのデータブロックの各々が、オーバーラップする複数のサンプルを含んでも良い。
次に、音声処理部51は、データブロック毎に音声データをフーリエ変換することにより、複数の周波数成分を抽出する。例えば、音声処理部51は、音声データに高速フーリエ変換(FFT)処理を施しても良い。フーリエ変換によって求められる周波数成分は複素数であるので、音声処理部51は、各々の周波数成分の絶対値を求める。
音声処理部51は、それらの周波数成分の絶対値に、オクターブ毎の周波数領域の窓、又は、メル尺度(音高の知覚的尺度)に基づいて定められた周波数領域の窓をかけて積分することにより、各窓の周波数帯域における積分値を求め、さらに、積分値の対数をとって音圧[dB]を求める。それにより、周波数領域の窓が20個であれば、20個の周波数帯域における音圧が得られる。
<音声解析>
音声処理部51は、このようにして生成された声紋データを声紋データ格納部72に格納する。音声解析部52は、声紋データ格納部72から声紋データを読み出して、複数の周波数帯域における音圧の大きさ及び広がりに応じてデータブロックを分類し、所定数のデータブロックの分類結果に基づいて被検者の音声に関する評価を行う。
例えば、音声解析部52は、いずれかの周波数領域において音圧が閾値を超えるか否かに応じてデータブロックを分類し、さらに、いずれかの周波数領域において音圧が閾値を超えるデータブロックを、音圧が閾値を超えて極大となる周波数帯域の数に応じて分類する。
図4は、声紋データに基づく音声の評価例を説明するための図である。図4(A)〜図4(D)は、4種類の声紋データによって表される音圧分布の例を示している。図3及び図4において、各データブロックにおける黒い周波数領域は、音圧が閾値(例えば、15dB)以下の周波数領域であり、その周波数成分が無声又はノイズであると判定される。
図4(A)及び図4(B)に示すように、被検者が流暢に話して音声の途切れが少ない場合には、いずれかの周波数領域において音圧が閾値を超えるデータブロックの割合が大きくなる。特に、図4(A)に示すように、被検者の音声において倍音の伸びが豊かで声紋の縞模様が多く、輪郭がはっきりして明るく良く通る声質の場合には、音圧が閾値を超えて極大となる周波数帯域が多くなる。
一方、図4(C)及び図4(D)に示すように、被検者が言葉に詰まって音声が途切れがちな場合には、全ての周波数領域において音圧が閾値以下であるデータブロックの割合が大きくなる。特に、図4(D)に示すように、被検者の音声において倍音の伸びが不足して声紋の縞模様が少なく、輪郭がぼけたような暗くてこもった声質の場合には、音圧が閾値を超えて極大となる周波数帯域が少なくなる。
そこで、音声解析部52は、全ての周波数領域において音圧が閾値以下であるデータブロックに対して得点S0を与え、いずれかの周波数領域において音圧が閾値を超えるデータブロックに対して、全ての周波数領域において音圧が閾値以下であるデータブロックの得点S0よりも高い得点を与える。
さらに、音声解析部52は、いずれかの周波数領域において音圧が閾値を超えるデータブロックについて、音圧が閾値を超えて極大となる周波数帯域の数を求める。図3及び図4を参照すると、各データブロックにおいて、ある周波数領域の明るさがその上下両側の周波数領域の明るさよりも明るい場合には、その周波数領域において音圧が極大となっている。
あるいは、時間軸及び周波数軸に直交する音圧軸が音圧[dB]を表す3次元表示が用いられる場合に、各データブロックにおいて、ある周波数領域の音圧がその上下両側の周波数領域の音圧よりも高く、音圧が高音圧側に凸である場合には、その周波数領域において音圧が極大となっている。
音声解析部52は、いずれかの周波数領域において音圧が閾値を超えるデータブロックの内で、音圧が閾値を超えて極大となる周波数帯域の数が所定の値以下であるデータブロックに対して得点S1を与え、音圧が閾値を超えて極大となる周波数帯域の数が所定の値を超えるデータブロックに対して得点S1よりも高い得点S2を与える。
次に、音声解析部52は、所定数のデータブロックの得点の合計値又は平均値に基づいて被検者の音声に関するランクを判定する。例えば、得点S0のデータブロックの数N0と、得点S1のデータブロックの数N1と、得点S2のデータブロックの数N2とを用いて、所定数(N個)のデータブロックの得点の平均値AVEが、次式(1)によって表される。
AVE=(S0×N0+S1×N1+S2×N2)/N ・・・(1)
ここで、N0〜N2はゼロ以上の整数であり、Nは3以上の整数であって、次式(2)が成立する。
N=N0+N1+N2 ・・・(2)
例えば、式(1)において、S0=0、S1=1、S2=3〜5としても良い。
音声解析部52は、所定数のデータブロックの得点の合計値又は平均値を、予め設定された少なくとも1つの基準値と比較して、被検者の音声に関するランクを判定しても良い。そのために、学習データ格納部73には、例えば、インターシップ応募者等の疑似被検者の音声を収録して得られた音声データと、実際に評価者がその音声を評価して判定したランク等を表す評価データとが、判定学習データとして予め格納されている。音声解析部52は、判定学習データを用いて機械学習を行うAI(人工知能)として機能することにより、判定学習データに近い判定結果が得られるように少なくとも1つの基準値を設定して、被検者の音声に関するランクを判定しても良い。
例えば、音声解析部52は、被検者の音声を4段階で評価する場合に、平均値AVEを第1〜第3の基準値と比較する。音声解析部52は、平均値AVEが第1の基準値以下の場合に、その被検者の音声をランクRA0(極めて悪い音声)と判定し、平均値AVEが第1の基準値よりも大きく第2の基準値以下の場合に、その被検者の音声をランクRA1(悪い音声)と判定する。また、音声解析部52は、平均値AVEが第2の基準値よりも大きく第3の基準値以下の場合に、その被検者の音声をランクRA2(普通の音声)と判定し、平均値AVEが第3の基準値よりも大きい場合に、その被検者の音声をランクRA3(良い音声)と判定する。
なお、評価期間に相当する音声データにおいて音声が収録されている期間が一定の期間(例えば15秒)に達しないような場合には、音声解析部52は、その被検者の音声をランクRA0と判定しても良い。音声解析部52は、このようにして得られた音声評価結果を表す音声評価データを評価データ格納部74に格納する。
<画像処理>
生データ格納部71に動画像データが格納された場合には、画像処理部53が、生データ格納部71から動画像データを読み出して動画像データを取得する。例えば、動画像データは、1秒間に24フレームの画像を表しており、視覚的評価のために、撮像開始後5秒〜60秒の55秒間の評価期間における画像を表す動画像データが用いられる。
画像処理部53は、被検者の顔を撮像して得られる動画像データに対してフレーム毎に顔認識処理を施すことにより、被検者の顔において認識される複数の特徴点を抽出し、複数の特徴点の座標を求める。ここで、画像処理の一種である顔認識処理の一例について説明する。
まず、画像処理部53は、1フレームの動画像データによって表される画像(以下においては、「入力画像」ともいう)における被検者の顔の位置を検出する。例えば、画像処理部53は、OpenCV等のソフトウェアを用いて、被検者の顔の位置や領域等を検出することができる。
次に、画像処理部53は、1フレームの動画像データと、学習データ格納部73に予め格納されている顔認識学習データとを用いて、入力画像における被検者の顔を認識する。この顔認識処理においては、例えば、アクティブ・アピアランス・モデル(AAM)が用いられる。その後、画像処理部53は、被検者の顔を認識できたか否かを判定する。
被検者の顔を認識できた場合に、画像処理部53は、被検者の顔において認識される複数の特徴点を抽出し、入力画像における複数の特徴点の座標を求める。さらに、画像処理部53は、複数の特徴点の座標を、フレーム番号と共に座標データ格納部75に格納する。なお、画像処理部53は、入力画像における複数の特徴点の座標をピクセル番号として求めても良い。
<顔認識処理の詳細>
学習データ格納部73には、例えば、標準的な人間の顔又はその模型等を用いて予め撮影された画像を表す画像データと、その画像において設定された複数の特徴点の座標とが、顔認識学習データとして予め格納されている。画像処理部53は、顔認識学習データに基づいて、被検者の顔を撮像して得られる画像データに顔認識処理を施すことにより、被検者の顔から複数の特徴点を抽出し、それらの特徴点の座標を求める。
上記の顔認識処理において用いることができるアクティブ・アピアランス・モデルとは、対象となる物体の画像を形状(shape)とテクスチャー(appearance)とに分けて、それぞれを主成分分析(principal component analysis)によって次元圧縮することにより、少ないパラメーターで対象の形状の変化とテクスチャーの変化とを表現できるようにしたモデルである。形状及びテクスチャーの情報は、低次元のパラメーターで表現することができる。
アクティブ・アピアランス・モデルにおいて、全特徴点を並べた形状ベクトルxは、予め顔認識学習データから求められた平均形状ベクトルuと、平均形状ベクトルuからの偏差を主成分分析して得られる固有ベクトル行列Pとを用いて、次式(3)によって表される。
x=u+P ・・・(3)
ここで、bは、パラメーターベクトルであり、形状パラメーターと呼ばれる。
また、正規化されたテクスチャーの輝度値を並べたアピアランスベクトルgは、予め顔認識学習データから求められた平均アピアランスベクトルvと、平均アピアランスベクトルvからの偏差を主成分分析して得られる固有ベクトル行列Pとを用いて、次式(4)によって表される。
g=v+P ・・・(4)
ここで、bは、パラメーターベクトルであり、アピアランスパラメーターと呼ばれる。形状パラメーターb及びアピアランスパラメーターbは、平均からの変化を表すパラメーターであり、これらを変化させることによって、形状及びアピアランスを変化させることができる。
また、形状とアピアランスとの間に相関があることから、形状パラメーターb及びアピアランスパラメーターbをさらに主成分分析することにより、形状とアピアランスとの両方を制御する低次元のパラメーターベクトル(以下においては、「結合パラメーター」ともいう)cを用いて、形状ベクトルx(c)及びテクスチャーベクトルg(c)が、次式(5)及び(6)によって表される。
x(c)=u+P −1c ・・・(5)
g(c)=v+Pc ・・・(6)
ここで、Wは、形状ベクトルとアピアランスベクトルとの単位の違いを正規化する行列であり、Qは、形状に関する固有ベクトル行列であり、Qは、アピアランスに関する固有ベクトル行列である。このようにして、結合パラメーターcを制御することによって、形状とアピアランスとを同時に扱い、対象の変化を表現することが可能となる。
次に、対象が、画像中のどこに、どんなサイズで、どんな向きで存在するかという広域的な変化に関するパラメーター(以下においては、「姿勢パラメーター」ともいう)qを考慮する。姿勢パラメーターqは、次式(7)によって表される。
q=[roll scale trans_x trans_y] ・・・(7)
ここで、rollは、画像平面に対するモデルの回転角度を表し、scaleは、モデルのサイズを表し、trans_x及びtrans_yは、それぞれx軸方向及びy軸方向におけるモデルの平行移動量を表している。
アクティブ・アピアランス・モデルにおいて、モデルの探索とは、モデルを結合パラメーターc及び姿勢パラメーターqによって局所的及び広域的に変化させて対象の画像を生成し、生成された画像と入力画像とを比較して、誤差が最小となるような結合パラメーターc及び姿勢パラメーターqを求めることである。アクティブ・アピアランス・モデルによれば、対象の方向の変化に対して頑健かつ高速に特徴点を抽出することが可能である。
具体的には、ある結合パラメーターc'及び姿勢パラメーターq'に対して、結合パラメーターc'から得られる形状パラメーターb'と姿勢パラメーターq'とによって形状Xを変形する関数をW(X;q',b')とする。また、入力画像Imgと形状Xとが与えられたときに形状X内の輝度値を求める関数をI(Img,X)とすると、モデルの探索における誤差値Erは、次式(8)によって表される。
Er=[(v+Pc')−I(Img,W(X;q',b'))]
・・・(8)
例えば、被検者の顔を構成するK個の形状X(1)、X(2)、・・・、X(K)についてそれぞれの誤差値が求められる場合に(Kは自然数)、それぞれの誤差値をEr(1)、Er(2)、・・・、Er(K)とすると、顔認識処理における認識誤差を表す指標であるフィット率Frは、次式(9)によって表される。
Fr=(Er(1)+Er(2)+・・・+Er(K))/K ・・・(9)
従って、誤差値Er又はフィット率Frが小さくなるような結合パラメーターc及び姿勢パラメーターqを決定することにより、高精度な顔認識処理を行うことができる。
次に、画像処理部53は、入力画像における顔認識の結果として求められた被検者の顔のフィット率が予め設定された閾値以下であるか否かを判定する。画像処理部53は、フィット率が閾値以下である場合に、被検者の顔を認識できたと判定し、フィット率が閾値を超えた場合に、被検者の顔を認識できなかったと判定する。
<画像解析>
画像解析部54は、座標データ格納部75から所定数のフレームにおける複数の特徴点の座標を読み出して、所定数のフレームにおける複数の特徴点の座標に基づいて被検者の顔の動き量を算出し、評価期間における被検者の顔の動き量の統計処理に基づいて被検者の視覚的な評価を行う。動画像データが1秒間に24フレームの画像を表す場合に、所定数のフレームは、1秒間に相当する24フレームでも良い。
例えば、画像解析部54は、動画像データによって表される被検者の画像における特定の部位の位置に基づいて定められる第1の軸、第1の軸に略直交する第2の軸、又は、第1及び第2の軸に略直交する第3の軸を回転中心とする被検者の顔の動き量を算出しても良い。その場合に、被検者の顔の動き量は、所定数のフレームにおける被検者の顔の向きの変化に基づいて算出される。
図5は、第1の軸を回転中心とする被検者の顔の動き量を算出するために用いられる画像の例を示す図である。この例において、第1の軸は、被検者の右目頭と左目頭とを結ぶ線(図中のX軸)に平行な軸である。例えば、第1の軸を回転中心とする被検者の顔の動き量を算出するために、被検者の右目頭と左目頭との中点に位置する特徴点P0と、被検者の鼻の右端に位置する特徴点P1と、被検者の鼻の左端に位置する特徴点P2と、被検者の右口角と左口角との中点に位置する特徴点P3とが用いられる。
図5に示すように、特徴点P0〜P2によって図中上側の第1の三角形が形成され、特徴点P1〜P3によって図中下側の第2の三角形が形成される。ビデオカメラ等の撮像素子から見た第1の三角形と第2の三角形との面積又は高さの比の値が、第1の軸を回転中心とする動きにおける被検者の顔の向きを表す量として用いられる。
図6は、第1の軸を回転中心とする被検者の顔の動きによる第1の三角形と第2の三角形との高さの比の変化を説明するための図である。図6の左側に示すように、被検者がビデオカメラ等の撮像素子の前面に顔を向けている場合に、撮像素子から見た第1の三角形の高さH1と第2の三角形の高さH2との比の値H1/H2がAであるものとする。
一方、図6の右側に示すように、被検者がうなずく等してビデオカメラ等の撮像素子の前面よりも下側に顔を向けている場合には、第2の三角形が第1の三角形よりも撮像素子の前面から遠くなると共に角度が変化するので、撮像素子から見た第1の三角形の高さH1'と第2の三角形の高さH2'との比の値H1'/H2'がA'(A'>A)になる。なお、画像解析部54は、第1の三角形及び第2の三角形の高さ等をピクセル数として求めても良い。それにより、距離の算出が簡単になる。
図7は、第2の軸を回転中心とする被検者の顔の動き量を算出するために用いられる画像の例を示す図である。この例において、第2の軸は、被検者の右目頭と左目頭との中点と右口角と左口角との中点とを結ぶ線(図中のY軸)に平行な軸である。例えば、第2の軸を回転中心とする被検者の顔の動き量を算出するために、被検者の鼻の右端に位置する特徴点P1と、被検者の鼻の左端に位置する特徴点P2と、被検者の右口角に位置する特徴点P4と、被検者の左口角に位置する特徴点P5と、被検者の右目頭に位置する特徴点P6と、被検者の左目頭に位置する特徴点P7とが用いられる。
図7に示すように、特徴点P1、P4、P6によって図中左側の第1の三角形が形成され、特徴点P2、P5、P7によって図中右側の第2の三角形が形成される。ビデオカメラ等の撮像素子から見た第1の三角形と第2の三角形との面積の比の値が、第2の軸を回転中心とする動きにおける被検者の顔の向きを表す量として用いられる。
図8は、第2の軸を回転中心とする被検者の顔の動きによる第1の三角形と第2の三角形との面積比の変化を説明するための図である。図8の左側に示すように、被検者がビデオカメラ等の撮像素子の前面に顔を向けている場合に、撮像素子から見た第1の三角形の面積S1と第2の三角形の面積S2との比の値S1/S2がBであるものとする。
一方、図8の右側に示すように、被検者がビデオカメラ等の撮像素子の前面よりも右側に顔を向けている場合には、第1の三角形が第2の三角形よりも撮像素子の前面から遠くなると共に角度が変化するので、撮像素子から見た第1の三角形の面積S1'と第2の三角形の面積S2'との比の値S1'/S2'がB'(B'<B)になる。
図9は、第3の軸を回転中心とする被検者の顔の動き量を算出するために用いられる画像の例を示す図である。この例において、第3の軸は、図中のX軸及びY軸に直交するZ軸に平行な軸である。例えば、第3の軸を回転中心とする被検者の顔の動き量を算出するために、被検者の右目頭に位置する特徴点P6と、被検者の左目頭に位置する特徴点P7とが用いられる。
図9に示すように、被検者の右目頭に位置する特徴点P6と左目頭に位置する特徴点P7とを結ぶ線(図中の実線)と、X軸に平行な線(図中の破線)とがなす角度θ、又は、角度θの三角関数値(sinθ、cosθ、tanθ等)が、第3の軸を回転中心とする動きにおける被検者の顔の向きを表す量として用いられる。
再び図1を参照すると、画像解析部54は、所定数のフレームにおける被検者の顔の向きを表す量の分散値を被検者の顔の動き量として算出し、評価期間における分散値の確率分布に基づいて被検者の視覚的評価に関するランクを判定する。例えば、1つの分散値を算出するために24フレームを1ブロックとして扱う場合に、連続する2つのブロックの各々が、オーバーラップする12フレームを含んでも良い。
所定数(L個)のフレームについて、X軸に平行な第1の軸を回転中心とする動きにおける被検者の顔の向きを表す量X(i)の分散値Vは、次式(10)で定義される(Lは2以上の整数)。
=(1/L)Σ(X(i)−E ・・・(10)
ここで、i=1〜Lであり、Eは、L個のフレームにおけるX(i)の平均値である。
例えば、評価期間における24×55フレームの動画像データに基づいて、複数の分散値Vが得られる。画像解析部54は、評価期間における複数の分散値Vを、その大きさに応じてM個の階級に分類することにより(Mは2以上の整数)、第j番目の階級に属する分散値V(j)の存在確率P(j)を求める(j=1〜M)。
同様に、L個のフレームについて、Y軸に平行な第2の軸を回転中心とする動きにおける被検者の顔の向きを表す量Y(i)の分散値Vは、次式(11)で定義される。
=(1/L)Σ(Y(i)−E ・・・(11)
ここで、i=1〜Lであり、Eは、L個のフレームにおけるY(i)の平均値である。画像解析部54は、評価期間における複数の分散値Vを、その大きさに応じてM個の階級に分類することにより、第j番目の階級に属する分散値V(j)の存在確率P(j)を求める(j=1〜M)。
また、L個のフレームについて、Z軸に平行な第3の軸を回転中心とする動きにおける被検者の顔の向きを表す量Z(i)の分散値Vは、次式(12)で定義される。
=(1/L)Σ(Z(i)−E ・・・(12)
ここで、i=1〜Lであり、Eは、L個のフレームにおけるZ(i)の平均値である。画像解析部54は、評価期間における複数の分散値Vを、その大きさに応じてM個の階級に分類することにより、第j番目の階級に属する分散値V(j)の存在確率P(j)を求める(j=1〜M)。
図10は、評価期間における被検者の顔の向きを表す量の分散値の確率分布の例を示す図である。図10において、横軸は、3種類の分散値V(j)、V(j)、V(j)を階級値50刻みで表しており、縦軸は、その存在確率P(j)、P(j)、P(j)を表している。なお、3種類の分散値を1つの図に表示するために、3種類の分散値は位置をずらして表示されている。それらの内の少なくとも1種類の分散値が、被検者の顔の動き量として用いられる。
図1に示す画像解析部54は、例えば、評価期間に相当する動画像データにおいて被検者の顔の特徴点の座標を求めることができた割合が一定の割合(例えば60%)に達しない場合に、その被検者の画像をランクRV0(未評価)と判定する。一方、画像解析部54は、被検者の顔の特徴点の座標を求めることができた割合が一定の割合以上である場合に、被検者の顔の動き量に応じて、その被検者の画像をランクRV1以上の複数のランクのいずれかに分類する。
一般に、被検者が言葉に詰まって考えながら話す場合には、顔の動きが止まりがちになり、被検者が説得力を持って流暢に話す場合には、顔の動きが活発になる。そこで、画像解析部54は、被検者の顔の動き量が所定の基準量よりも総体的に小さければ、その被検者の画像をランクRV1(小さい動き)と判定し、被検者の顔の動き量が基準量よりも総体的に大きければ、その被検者の画像をランクRV2(大きい動き)と判定しても良い。
例えば、画像解析部54は、少なくとも1種類の分散値の確率分布を、予め設定された基準量の確率分布と比較して、被検者の視覚的評価に関するランクを判定しても良い。そのために、学習データ格納部73には、例えば、インターシップ応募者等の疑似被検者の顔を撮像して得られた動画像データと、実際に評価者がその画像を評価して判定したランク等を表す評価データとが、判定学習データとして予め格納されている。画像解析部54は、判定学習データを用いて機械学習を行うAI(人工知能)として機能することにより、判定学習データに近い判定結果が得られるように基準量の確率分布や比較方法を設定して、被検者の視覚的評価に関するランクを判定しても良い。
あるいは、画像解析部54は、少なくとも1つの階級に属する分散値V(j)、V(j)、V(j)の合計値又は平均値を被検者の顔の動き量として求め、被検者の顔の動き量が所定の基準量よりも小さければ、その被検者の画像をランクRV1(小さい動き)と判定し、被検者の顔の動き量が基準量よりも大きければ、その被検者の画像をランクRV2(大きい動き)と判定しても良い。
なお、評価期間に相当する動画像データにおいて被検者の顔が録画されている期間が一定の期間(例えば15秒)に達しないような場合には、画像解析部54は、その被検者の画像をランクRV0と判定しても良い。画像解析部54は、このようにして得られた視覚的評価結果を表す視覚的評価データを評価データ格納部74に格納する。
<総合評価>
同一被検者の音声評価データ及び視覚的評価データが評価データ格納部74に格納された場合に、総合評価部55は、評価データ格納部74から音声評価データ及び視覚的評価データを読み出して、音声解析部52による評価結果と画像解析部54による評価結果とに基づいて被検者の人物評価を行う。例えば、総合評価部55は、音声評価における複数のランクと視覚的評価における複数のランクとに基づいて2次元状に配列された複数のマッピングエリアを用いて被検者の人物評価を行う。
図11は、被検者の人物評価を行うために用いられるマッピングエリアの例を示す図である。図11に示すように、音声評価は、ランクRA0(極めて悪い音声)と、ランクRA1(悪い音声)と、ランクRA2(普通の音声)と、ランクRA3(良い音声)とに分かれている。一方、視覚的評価は、ランクRV0(未評価)と、ランクRV1(小さい動き)と、ランクRV2(大きい動き)とに分かれている。
例えば、音声評価がランクRA0又はRA1であるエリア0〜5と、音声評価がランクRA2であって視覚的評価がランクRV1であるエリア7とが、不合格エリアに設定される。なお、音声評価がランクRA2であっても視覚的評価がランクRV0であるエリア6は、さらなる人間チェックが必要とされる人間チェックエリアに設定される。一方、音声評価がランクRA2であって視覚的評価がランクRV2であるエリア8と、音声評価がランクRA3であるエリア9〜11とは、合格エリアに設定される。
図1に示す総合評価部55は、音声評価データによって表される被検者の音声に関するランクと、視覚的評価データによって表される被検者の視覚的評価に関するランクとに基づいて、図11に示すエリア0〜11の内の1つを選択することにより、被検者の人物評価を行う。総合評価部55は、このようにして得られた人物評価結果を表す人物評価データを評価データ格納部74に格納する。
<人物評価方法>
次に、本発明の一実施形態に係る人物評価装置において用いられる人物評価方法について、図1〜図12を参照しながら説明する。図12は、本発明の一実施形態に係る人物評価方法を示すフローチャートである。なお、互いに独立な処理については、それらを並列に行っても良い。
図12に示すステップS11において、音声処理部51が、被検者の音声を収録して得られる音声データを単位時間当りのデータブロック毎にフーリエ変換し、データブロック毎に複数の周波数帯域における音圧分布を表す声紋データを生成する。
ステップS12において、音声解析部52が、複数の周波数帯域における音圧の大きさ及び広がりに応じてデータブロックを分類し、所定数のデータブロックの分類結果に基づいて被検者の音声に関する評価を行う。それにより、被検者の音声に関するランクが判定される。
ステップS13において、画像処理部53が、被検者の顔を撮像して得られる動画像データに対してフレーム毎に顔認識処理を施すことにより、被検者の顔において認識される複数の特徴点を抽出し、複数の特徴点の座標を求める。
ステップS14において、画像解析部54が、所定数のフレームにおける複数の特徴点の座標に基づいて被検者の顔の動き量を算出し、評価期間における被検者の顔の動き量の統計処理に基づいて被検者の視覚的な評価を行う。それにより、被検者の視覚的評価に関するランクが判定される。
ステップS15において、総合評価部55が、ステップS12における評価結果とステップS14における評価結果とに基づいて被検者の人物評価を行う。その際に、総合評価部55は、例えば、図11に示すようなマッピングエリアを用いて、被検者の音声に関するランクと被検者の視覚的評価に関するランクとに基づいて被検者の人物評価を行う。
<動画像データの処理フロー>
図13及び図14は、動画像データの処理フローの例を示すフローチャートである。この例において、動画像データは、1秒間に24フレームの画像を表している。
図13に示すステップS21において、画像処理部53が、被検者の視覚的評価のために人物評価装置に供給される動画像データを格納する生データ格納部71から、撮像開始後5秒〜60秒の55秒間の評価期間における画像を表す動画像データを取得して、フレーム番号nを1に設定する。
ステップS22において、画像処理部53が、第nフレームの動画像データに対して顔認識処理を施すことにより、被検者の顔において認識される複数の特徴点を抽出し、それらの特徴点の座標を求める。さらに、ステップS23において、画像処理部53が、複数の特徴点の座標を、フレーム番号と共に座標データ格納部75に格納する。
ステップS24において、画像処理部53が、フレーム番号nが1320(=24×55)であるか、又は、第nフレームが動画像データの最終フレームであるか否かを判定する。フレーム番号nが1320よりも小さく、第nフレームが動画像データの最終フレームでない場合には、画像処理部53が、フレーム番号nをインクリメントして(n+1)とし、処理がステップS22に戻る。一方、フレーム番号nが1320であるか、又は、第nフレームが動画像データの最終フレームである場合には、処理がステップS25〜S27のいずれかに移行する。あるいは、ステップS25〜S27が順次処理されても良いし、並列処理されても良い。
ステップS25において、画像解析部54が、座標データ格納部75から各フレームにおける複数の特徴点の座標を読み出して、第1の軸を回転中心とする被検者の顔の動き量を算出するために必要な第1の三角形及び第2の三角形の面積又は高さをフレーム毎に求める。その後、処理がステップS28(図14)に移行する。
ステップS26において、画像解析部54が、座標データ格納部75から各フレームにおける複数の特徴点の座標を読み出して、第2の軸を回転中心とする被検者の顔の動き量を算出するために必要な第1の三角形及び第2の三角形の面積をフレーム毎に求める。その後、処理がステップS28(図14)に移行する。
ステップS27において、画像解析部54が、座標データ格納部75から各フレームにおける複数の特徴点の座標を読み出して、第3の軸を回転中心とする被検者の顔の動き量を算出するために、被検者の顔の向きを表す量として、左右の目頭を結ぶ線の角度等をフレーム毎に求める。その後、処理がステップS29(図14)に移行する。
図14に示すステップS28において、画像解析部54が、被検者の顔の向きを表す量として、第1の三角形と第2の三角形との面積又は高さの比の値をフレーム毎に求める。その後、処理がステップS29に移行する。
ステップS29において、画像解析部54が、24フレーム(1秒間)における被検者の顔の向きを表す量の分散値を被検者の顔の動き量として算出する。さらに、ステップS30において、画像解析部54が、評価期間(55秒間)において得られる複数の分散値を、その大きさに応じて複数の階級に分類することにより、各々の分散値の存在確率を求める。
ステップS31において、画像解析部54が、評価期間における分散値の確率分布に基づいて被検者の視覚的評価に関するランクを判定する。それにより、評価期間に相当する動画像データにおいて被検者の顔の特徴点の座標を求めることができた割合が一定の割合以上である場合に、被検者の顔の動き量に応じて、その被検者の画像が複数のランクのいずれかに分類される。
以上説明したように、本発明の一実施形態によれば、被検者の音声を収録して得られる音声データからデータブロック毎に複数の周波数帯域における音圧分布を表す声紋データを生成して、複数の周波数帯域における音圧の大きさ及び広がりに応じてデータブロックを分類し、所定数のデータブロックの分類結果に基づいて被検者の音声に関する評価を行うことにより、人物評価の対象となる被検者の音声に基づいて、被検者の人物評価を行う際に参考となる情報を提供することができる。
さらに、被検者の顔を撮像して得られる動画像データから被検者の顔において認識される複数の特徴点の座標を求めて、所定数のフレームにおける複数の特徴点の座標に基づいて被検者の顔の動き量を算出し、評価期間における被検者の顔の動き量の統計処理に基づいて被検者の視覚的な評価を行うことにより、人物評価の対象となる被検者の動画像及び音声に基づいて、被検者の人物評価を行う際に参考となる情報を提供することができる。
以上説明した実施形態における判定方法は一例である。本発明は、それらの実施形態に限定されるものではなく、当該技術分野において通常の知識を有する者によって、本発明の技術的思想内で多くの変形が可能である。
本発明は、人物を評価するために用いられる人物評価装置等において利用することが可能である。
10…操作部、20…表示部、30…入出力インターフェース、40…ネットワークインターフェース、50…CPU、51…音声処理部、52…音声解析部、53…画像処理部、54…画像解析部、55…総合評価部、60…メモリー、70…格納部、71…生データ格納部、72…声紋データ格納部、73…学習データ格納部、74…評価データ格納部、75…座標データ格納部

Claims (11)

  1. 被検者の音声を収録して得られる音声データを単位時間当りのデータブロック毎にフーリエ変換し、データブロック毎に複数の周波数帯域における音圧分布を表す声紋データを生成する音声処理部と、
    前記複数の周波数帯域における音圧の大きさ及び広がりに応じてデータブロックを分類し、所定数のデータブロックの分類結果に基づいて前記被検者の音声に関する評価を行う音声解析部と、
    を備える人物評価装置。
  2. 前記音声解析部が、いずれかの周波数領域において音圧が閾値を超えるか否かに応じてデータブロックを分類し、さらに、いずれかの周波数領域において音圧が閾値を超えるデータブロックを、音圧が閾値を超えて極大となる周波数帯域の数に応じて分類する、請求項1記載の人物評価装置。
  3. 前記音声解析部が、いずれかの周波数領域において音圧が閾値を超えるデータブロックに対して、全ての周波数領域において音圧が閾値以下であるデータブロックの得点よりも高い得点を与え、音圧が閾値を超えて極大となる周波数帯域の数が所定の値を超えるデータブロックに対して、音圧が閾値を超えて極大となる周波数帯域の数が所定の値以下であるデータブロックの得点よりも高い得点を与えて、所定数のデータブロックの得点の合計値又は平均値に基づいて前記被検者の音声に関するランクを判定する、請求項1又は2記載の人物評価装置。
  4. 前記被検者の顔を撮像して得られる動画像データに対してフレーム毎に顔認識処理を施すことにより、前記被検者の顔において認識される複数の特徴点を抽出し、前記複数の特徴点の座標を求める画像処理部と、
    所定数のフレームにおける前記複数の特徴点の座標に基づいて前記被検者の顔の動き量を算出し、評価期間における前記被検者の顔の動き量の統計処理に基づいて前記被検者の視覚的な評価を行う画像解析部と、
    をさらに備える、請求項1〜3のいずれか1項記載の人物評価装置。
  5. 前記画像解析部が、前記動画像データによって表される前記被検者の画像における特定の部位の位置に基づいて定められる第1の軸、前記第1の軸に略直交する第2の軸、又は、前記第1及び第2の軸に略直交する第3の軸を回転中心とする前記被検者の顔の動き量を算出する、請求項4記載の人物評価装置。
  6. 前記画像解析部が、前記所定数のフレームにおける前記被検者の顔の向きを表す量の分散値を前記被検者の顔の動き量として算出し、前記評価期間における前記分散値の確率分布に基づいて前記被検者の視覚的評価に関するランクを判定する、請求項4又は5記載の人物評価装置。
  7. 前記音声解析部による評価結果と前記画像解析部による評価結果とに基づいて前記被検者の人物評価を行う総合評価部をさらに備える、請求項4〜6のいずれか1項記載の人物評価装置。
  8. 被検者の音声を収録して得られる音声データを単位時間当りのデータブロック毎にフーリエ変換し、データブロック毎に複数の周波数帯域における音圧分布を表す声紋データを生成する手順(a)と、
    前記複数の周波数帯域における音圧の大きさ及び広がりに応じてデータブロックを分類し、所定数のデータブロックの分類結果に基づいて前記被検者の音声に関する評価を行う手順(b)と、
    をCPUに実行させる人物評価プログラム。
  9. 前記被検者の顔を撮像して得られる動画像データに対してフレーム毎に顔認識処理を施すことにより、前記被検者の顔において認識される複数の特徴点を抽出し、前記複数の特徴点の座標を求める手順(c)と、
    所定数のフレームにおける前記複数の特徴点の座標に基づいて前記被検者の顔の動き量を算出し、評価期間における前記被検者の顔の動き量の統計処理に基づいて前記被検者の視覚的な評価を行う手順(d)と、
    手順(b)における評価結果と手順(d)における評価結果とに基づいて前記被検者の人物評価を行う手順(e)と、
    をさらにCPUに実行させる、請求項8記載の人物評価プログラム。
  10. 被検者の音声を収録して得られる音声データを単位時間当りのデータブロック毎にフーリエ変換し、データブロック毎に複数の周波数帯域における音圧分布を表す声紋データを生成するステップ(a)と、
    前記複数の周波数帯域における音圧の大きさ及び広がりに応じてデータブロックを分類し、所定数のデータブロックの分類結果に基づいて前記被検者の音声に関する評価を行うステップ(b)と、
    を備える人物評価方法。
  11. 前記被検者の顔を撮像して得られる動画像データに対してフレーム毎に顔認識処理を施すことにより、前記被検者の顔において認識される複数の特徴点を抽出し、前記複数の特徴点の座標を求めるステップ(c)と、
    所定数のフレームにおける前記複数の特徴点の座標に基づいて前記被検者の顔の動き量を算出し、評価期間における前記被検者の顔の動き量の統計処理に基づいて前記被検者の視覚的な評価を行うステップ(d)と、
    ステップ(b)における評価結果とステップ(d)における評価結果とに基づいて前記被検者の人物評価を行うステップ(e)と、
    をさらに備える、請求項10記載の人物評価方法。
JP2017237950A 2017-12-12 2017-12-12 人物評価装置、プログラム、及び、方法 Active JP6927495B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017237950A JP6927495B2 (ja) 2017-12-12 2017-12-12 人物評価装置、プログラム、及び、方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017237950A JP6927495B2 (ja) 2017-12-12 2017-12-12 人物評価装置、プログラム、及び、方法

Publications (2)

Publication Number Publication Date
JP2019105729A true JP2019105729A (ja) 2019-06-27
JP6927495B2 JP6927495B2 (ja) 2021-09-01

Family

ID=67061237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017237950A Active JP6927495B2 (ja) 2017-12-12 2017-12-12 人物評価装置、プログラム、及び、方法

Country Status (1)

Country Link
JP (1) JP6927495B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110930781A (zh) * 2019-12-04 2020-03-27 广州云蝶科技有限公司 录播系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09147119A (ja) * 1995-11-28 1997-06-06 Toshiba Corp 人物注目方向検出方式
JPH10301594A (ja) * 1997-05-01 1998-11-13 Fujitsu Ltd 有音検出装置
JP2005107088A (ja) * 2003-09-30 2005-04-21 Yamaha Corp 歌唱音声評価装置、カラオケ採点装置及びそのプログラム
JP2005242567A (ja) * 2004-02-25 2005-09-08 Canon Inc 動作評価装置及び方法
JP2006079533A (ja) * 2004-09-13 2006-03-23 Fuji Xerox Co Ltd 情報処理装置及び情報処理方法、並びにコンピュータ・プログラム
JP2006154213A (ja) * 2004-11-29 2006-06-15 Ntt Advanced Technology Corp 声の響きの評価方法および評価装置
WO2009091029A1 (ja) * 2008-01-16 2009-07-23 Asahi Kasei Kabushiki Kaisha 顔姿勢推定装置、顔姿勢推定方法、及び、顔姿勢推定プログラム
JP2010256391A (ja) * 2009-04-21 2010-11-11 Takeshi Hanamura 音声情報処理装置
JP6042015B1 (ja) * 2016-06-07 2016-12-14 株式会社採用と育成研究社 オンライン面接評価装置、方法およびプログラム
JP2017151694A (ja) * 2016-02-24 2017-08-31 株式会社デンソー 安全確認診断システム及び安全確認診断方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09147119A (ja) * 1995-11-28 1997-06-06 Toshiba Corp 人物注目方向検出方式
JPH10301594A (ja) * 1997-05-01 1998-11-13 Fujitsu Ltd 有音検出装置
JP2005107088A (ja) * 2003-09-30 2005-04-21 Yamaha Corp 歌唱音声評価装置、カラオケ採点装置及びそのプログラム
JP2005242567A (ja) * 2004-02-25 2005-09-08 Canon Inc 動作評価装置及び方法
JP2006079533A (ja) * 2004-09-13 2006-03-23 Fuji Xerox Co Ltd 情報処理装置及び情報処理方法、並びにコンピュータ・プログラム
JP2006154213A (ja) * 2004-11-29 2006-06-15 Ntt Advanced Technology Corp 声の響きの評価方法および評価装置
WO2009091029A1 (ja) * 2008-01-16 2009-07-23 Asahi Kasei Kabushiki Kaisha 顔姿勢推定装置、顔姿勢推定方法、及び、顔姿勢推定プログラム
JP2010256391A (ja) * 2009-04-21 2010-11-11 Takeshi Hanamura 音声情報処理装置
JP2017151694A (ja) * 2016-02-24 2017-08-31 株式会社デンソー 安全確認診断システム及び安全確認診断方法
JP6042015B1 (ja) * 2016-06-07 2016-12-14 株式会社採用と育成研究社 オンライン面接評価装置、方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110930781A (zh) * 2019-12-04 2020-03-27 广州云蝶科技有限公司 录播系统
CN110930781B (zh) * 2019-12-04 2022-11-22 广州云蝶科技有限公司 录播系统

Also Published As

Publication number Publication date
JP6927495B2 (ja) 2021-09-01

Similar Documents

Publication Publication Date Title
US11216784B2 (en) Systems and methods for automating validation and quantification of interview question responses
US10504268B1 (en) Systems and methods for generating facial expressions in a user interface
US20210174072A1 (en) Microexpression-based image recognition method and apparatus, and related device
CN108717663B (zh) 基于微表情的面签欺诈判断方法、装置、设备及介质
CN112543936B (zh) 用于动作识别的动作结构自注意力图卷积网络模型
US20210125149A1 (en) Adaptability job vacancies matching system and method
US10592733B1 (en) Computer-implemented systems and methods for evaluating speech dialog system engagement via video
CN110428399A (zh) 用于检测图像的方法、装置、设备和存储介质
CN108877787A (zh) 语音识别方法、装置、服务器及存储介质
CN112418166B (zh) 一种基于多模态信息的情感分布学习方法
Sun et al. Personality assessment based on multimodal attention network learning with category-based mean square error
JP6927495B2 (ja) 人物評価装置、プログラム、及び、方法
CN110705523B (zh) 一种基于神经网络的创业者路演能力测评方法及其测评系统
CN112990105B (zh) 对用户评价的方法、装置、电子设备和存储介质
CN110991294A (zh) 一种快速构建的人脸动作单元识别方法及系统
CN116244474A (zh) 一种基于多模态情感特征融合的学习者学习状态获取方法
CN111507139A (zh) 图像效果生成方法、装置和电子设备
JP6855737B2 (ja) 情報処理装置、評価システムおよびプログラム
CN112633136B (zh) 视频分析方法、装置、电子设备及存储介质
CN112365340A (zh) 一种多模态个人贷款风险预测方法
CN113704552A (zh) 一种基于跨模态自动对齐和预训练语言模型的情感分析方法、系统及设备
CN116935478B (zh) 一种智能手表的情感识别方法及系统
CN117688344B (zh) 一种基于大模型的多模态细粒度倾向分析方法及系统
CN112733649B (zh) 基于视频图像识别用户意图的方法及相关设备
Ibrahim A novel lip geometry approach for audio-visual speech recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210726

R150 Certificate of patent or registration of utility model

Ref document number: 6927495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350