JP7110568B2 - 行動推定装置及び行動推定プログラム - Google Patents

行動推定装置及び行動推定プログラム Download PDF

Info

Publication number
JP7110568B2
JP7110568B2 JP2017178664A JP2017178664A JP7110568B2 JP 7110568 B2 JP7110568 B2 JP 7110568B2 JP 2017178664 A JP2017178664 A JP 2017178664A JP 2017178664 A JP2017178664 A JP 2017178664A JP 7110568 B2 JP7110568 B2 JP 7110568B2
Authority
JP
Japan
Prior art keywords
behavior
information
subject
state
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017178664A
Other languages
English (en)
Other versions
JP2019053647A (ja
Inventor
透 布施
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2017178664A priority Critical patent/JP7110568B2/ja
Publication of JP2019053647A publication Critical patent/JP2019053647A/ja
Application granted granted Critical
Publication of JP7110568B2 publication Critical patent/JP7110568B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、行動推定装置及び行動推定プログラムに関する。
特許文献1には、複数の対象者の各々において行動として表れる行動情報に基づいて複数の対象者の各々の行動の特徴を表す特徴情報を導出し、特徴情報に基づいて指定対象者の感情要素を表す要素情報を求めて、要素情報に基づいて指定対象者の心理状態を表す心理情報を求めて提示する情報提供装置が提案されている。
特開2011-201121号公報
行動として表れる行動情報を用いて心理情報を提示することや、人の動作を検出することまではできるが、会議や、授業、講義などの予め定めた場面における対象者の行動を推定することはできなかった。そこで、本発明は、予め定めた場面における対象者の行動を推定可能な行動推定装置及び行動推定プログラムを提供することを目的とする。
請求項1に記載の行動推定装置は、1以上の対象者の動作情報を取得する取得部と、前記取得部によって取得した前記動作情報を用いて、予め定めた場面における予め定めた行動のうち、対象者に対応する行動を推定する推定部と、を備え、前記推定部が、対象者の上半身の状態と、対象者の下半身の状態との2軸の領域において、対象者の状態に対応する予め定めた行動が前記領域上で2以上の重なり部分を有するように予め分類し、前記動作情報から前記上半身の状態及び前記下半身の状態の各々を推定することにより、予め分類した予め定めた行動のうち、対象者の状態に対応する行動を、対象者の予め定めた場面における行動として推定し、前記上半身の状態及び前記下半身の状態とは異なる予め定めた特定の要素の有無を、前記重なり部分の行動を判定する条件として前記領域上の重なり部分の行動を推定する。
請求項2に記載の発明は、請求項1に記載の発明において、前記推定部は、複数の動きの組み合わせを含む予め定めた場面における行動のうち、対象者に対応する行動を推定する。
請求項に記載の発明は、請求項1又は請求項2に記載の発明において、前記推定部は、前記動作情報から予め定めた時間区間毎の対象者の動作の頻度及び対象者の動作の維持時間の少なくとも一方の対象者特有動作情報を求め、該対象者特有動作情報を更に用いて対象者の予め定めた場面における行動を推定する。
請求項に記載の発明は、請求項1~の何れか1項に記載の発明において、前記推定部が、予め定めた時間区間毎に対象者の行動を推定し、前記推定部によって推定された前記時間区間毎の対象者の行動を記憶する記憶部を更に備える。
請求項に記載の発明は、請求項に記載の発明において、前記記憶部は、前記動作情報以外の前記予め定めた場面における検出情報を前記時間区間毎に更に記憶する。
請求項に記載の発明は、請求項に記載の発明において、前記検出情報は、前記時間区間毎の音声情報及び前記時間区間毎の撮影情報の少なくとも一方を含む情報である。
請求項に記載の発明は、請求項の何れか1項に記載の発明において、前記時間区間は、対象者の動作速度に応じて予め定めた時間に変更する。
請求項に記載の行動推定プログラムは、コンピュータを、請求項1~の何れか1項に記載の行動推定装置の各部として機能させる。
請求項1に記載の行動推定装置によれば、予め定めた場面における対象者の行動を推定可能な行動推定装置を提供できる。
請求項2に記載の発明によれば、複数の動きの組み合わせを含む予め定めた場面における行動を推定することが可能となる。
請求項に記載の発明によれば、対象者特有動作を考慮しない場合に比べて、正確に行動を推定することが可能となる。
請求項に記載の発明によれば、行動をキーワードにして時間区間毎の検索が可能となる。
請求項に記載の発明によれば、行動だけでなく、行動に関係する情報の時間区間毎の検索が可能となる。
請求項に記載の発明によれば、行動をキーワードとして、行動に対応する時間区間における音声情報及び撮影情報の少なくとも一方の情報の検索も可能となる。
請求項に記載の発明によれば、時間区間を固定の時間とした場合に比べて、正確に行動を推定することが可能となる。
請求項に記載の発明によれば、予め定めた場面における対象者の行動を推定可能な行動推定プログラムを提供できる。
本実施形態に係る行動推定装置の概略構成を示すブロック図である。 本実施形態に係る行動推定装置が設けられた会議室の一例を示す図である。 本実施形態に係る行動推定装置の制御装置の機能を示す機能ブロック図である。 (A)は人体の回折部25点の一例を示す図であり、(B)は回折部の位置と変位の一例を示す図である。 人物Aがジェスチャと共に人物Bへ話をし、人物Cが記録をしている場合の各人物の上半身の動きと下半身の動きの一例を示す図である。 (A)は上半身の状態テーブルの一例を示す図であり、(B)は下半身の状態テーブルの一例を示す図である。 対象者の上半身の状態と、対象者の下半身の状態との2軸の領域に予め定めた行動を予め分類した例を示す図である。 行動毎の特定の要素の一例を示す図である。 特定の要素と重なり部分との関係の一例を示す図である。 立ち上がって、ホワイトボード装置へ移動後、板書しながら説明する場合の赤外線カメラ、マイク、及びカメラの情報を用いた動作解析の一例を説明するための図である。 本実施形態に係る行動推定装置の制御装置で行われる行動推定処理の流れの一例を示すフローチャートである。 深度情報解析処理の流れの一例を示すフローチャートである。 重なり判定処理の流れの一例を示すフローチャートである。 重なり領域R1の重なり判定処理の流れを示すフローチャートである。 重なり領域R2の重なり判定処理の流れを示すフローチャートである。 重なり領域R3の重なり判定処理の流れを示すフローチャートである。 重なり領域R4の重なり判定処理の流れを示すフローチャートである。 重なり領域R5の重なり判定処理の流れを示すフローチャートである。 重なり領域R6の重なり判定処理の流れを示すフローチャートである。 重なり領域R7の重なり判定処理の流れを示すフローチャートである。
以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。図1は、本実施形態に係る行動推定装置10の概略構成を示すブロック図である。また、図2は、本実施形態に係る行動推定装置10が設けられた会議室の一例を示す図である。
本実施形態に係る行動推定装置10は、図2に示す会議室や、講堂、教室などの予め定めた空間で行われる会議や、打ち合わせ、講義、授業等の予め定めた場面に参加した対象者の行動を推定する。ここで、本実施形態における対象者の行動とは、人の単純な動き(視線移動や、頭の動き、手腕の動き、脚の動きなど)ではなく、複数の動きの組み合わせを含む予め定めた場面における行動であり、一例として、本実施形態では、会議中における人の行動を推定する。推定する会議中の人の行動は、具体的には、本実施形態では、「説明」、「質問/意見」、「プレゼン」、「深慮・黙考」、「ノート・内職」、及び「アピール」の6種類に分類して何れの行動であるかを推定する。
行動推定装置10は、各種情報を取得し、対象者の行動を推定する推定部としての制御装置20を備えている。
制御装置20は、CPU(Central Processing Unit)20A、ROM(Read Only Memory)20B、RAM(Random Access Memory)20C、及び入出力ポート20Dがそれぞれバス20Eに接続されたマイクロコンピュータで構成されている。
ROM20Bには、会議に参加した対象者の行動を推定するための行動推定プログラム等の各種プログラムが記憶されている。ROM20Bに記憶されたプログラムをRAM20Cに展開してCPU20Aが実行することにより、対象者の行動の推定が行われる。あるいは、HDD(Hard Disc Drive)20Fに予め格納したプログラムを、RAM20Cに展開して、CPU20Aが実行することにより、対象者の行動の推定を行なってもよい。
入出力ポート20Dには、赤外線カメラ12、カメラ14、マイク16、記憶部としてのデータベースDB18、表示装置22、ホワイトボード装置24、及び手元操作機器26が接続されている。
赤外線カメラ12、カメラ14、及びマイク16は、例えば、図2に示すように、会議室に設けられている。
赤外線カメラ12は、例えば、会議室の天井や壁等に設けられて、赤外線領域の光を撮影することにより、会議中の様子を撮影することによって得られる深度情報を制御装置20に出力する。
カメラ14は、赤外線カメラ12と同様に、例えば、会議室の天井や壁等に設けられて、会議中の様子を撮影することによって得られる撮影画像情報を制御装置20に出力する。
マイク16は、例えば、会議室の机や壁面等に設けられ、会議室内の会議中の音声を音声情報として取得して制御装置20に出力する。
データベースDB18は、赤外線カメラ12の深度情報、カメラ14の撮影画像情報、及びマイク16の音声情報等の各種情報がそれぞれ時間情報と共に記憶される。
表示装置22は、例えば、プロジェクタ装置等の表示装置が適用され、会議中の資料を表示し、表示装置22の表示状態を時間情報と共に資料提示情報として制御装置20に出力する。
ホワイトボード装置24は、会議中の板書情報を検出して、検出結果を時間情報と共に板書情報として制御装置20に出力する。
手元操作機器26は、例えば、電子ペンやユーザ登録されたコンピュータやタブレット等の機器が適用され、操作状態を検出して検出結果を時間情報と共に手元操作情報として制御装置20に出力する。
そして、制御装置20は、取得した情報に基づいて、会議に参加した対象者の行動を推定して、推定した行動を時間情報と共に、データベースDB18に記憶し、後から会議中の撮影画像などを検索可能にしている。
図3は、本実施形態に係る行動推定装置10の制御装置20の機能を示す機能ブロック図である。
行動推定装置10は、図3に示すように、取得部30及び推定部としての行動推定部40を機能として備えている。
取得部30は、赤外線カメラ12から得られる深度情報を1以上の対象者の動作情報として取得すると共に、カメラ14から得られる撮影画像情報、及びマイク16から得られる音声情報を取得する。また、取得部30は、表示装置22、ホワイトボード装置24、及び手元操作機器26などからも情報を取得する。
また、取得部30は、資料提示検出部32、板書検出部34、発話検出部36、及び手元操作検出部38を含んでいる。資料提示検出部32は、表示装置22から表示情報を取得することにより、会議中の資料提示を検出する。また、板書検出部34は、ホワイトボード装置24の情報やカメラ14の撮影画像などから会議中の板書を検出する。また、発話検出部36は、マイク16の音声情報から会議中の発話(音声)を検出する。また、手元操作検出部38は、手元操作機器26の情報に基づいて会議中の手元操作を検出する。そして、取得部30は、各部の検出結果をデータベースDBa18Aに格納する。
行動推定部40は、メディア記録部42、動作状態推定部44、行動分類部46、及び重なり判定部48の機能を含んでおり、会議に参加した対象者の行動を推定して、データベースDBb18Bに推定した行動情報を格納する。
メディア記録部42は、取得部30が取得した、深度情報、撮影画像情報、及び音声情報の各々を時間情報と共に、データベースDBb18Bに格納する。
動作状態推定部44は、取得部30が取得した、深度情報を用いて、1以上の対象者の動作を検出し、検出した動作から対象者の状態を推定する。対象者の動作は、OpenCV(Open Source Computer Vision)など、赤外線カメラ12から得られる深度情報を使って人物の動き(動作、姿勢、移動等)を計測する周知技術を用いて検出する。例えば、Microsoft社の製品、Kinect(商標)for Windows(登録商標)では、図4(A)に示すように、人体の回折部25点を特定し、図4(B)に示すように、その位置と変位(例えば、図4(B)中のθ等)が計測されるので、これを用いて人物の動きを検出する。より具体的には、無数の赤外線パターンを照射し、赤外線カメラで被写体に照射されたパターンを観測する。パターンの投影位置から、被写体までの奥行きを計測し人物領域を検出する。その後、事前に学習した膨大な人物姿勢パターンと観測した人物領域を比較し、各身体部位の3次元位置を正確に測定する。また、会議中の人物は、例えば、人物Aがジェスチャと共に人物Bへ話をし、人物Cが記録をしている場合、図5に示すように、上半身(図5では顔の向きa、発話b、及び腕、手の動きc)及び下半身(図5では姿勢変更d、歩行e)の各々の動きがある。そこで、動作状態推定部44は、深度情報に基づいて検出した動きから上半身の状態、及び下半身の状態を推定する。推定する状態としては、例えば、図6(A)に示すように、上半身の状態として、静止、手元を動かす、頭部を動かす、腕を動かす、歩行等の状態を一例として推定する。また、図6(B)に示すように、下半身の状態として、静止、姿勢変更、中腰、及び歩行等の状態を一例として推定する。具体的には、深度情報から求めた各関節の動きに基づいて認識したポーズと変位量を用いて図6(A)に示す上半身の状態テーブル及び図6(B)に示す下半身の状態テーブルを生成することにより状態を推定する。なお、図6に示す状態テーブルのVuX、VlXには予め定めた範囲の値が入力される。また、本実施形態では、手元を動かしながらうなずく等の複数の状態の推定は行わず、手元を動かすまたはうなずくなどの単一の状態を推定するものとし、図6の状態テーブルには何れか1つの状態のみに動き(数値)が入る場合を説明する。
行動分類部46は、動作状態推定部44の推定結果を用いて、対象者の行動を分類する。例えば、図7に示すように、対象者の上半身の状態と、対象者の下半身の状態との2軸の領域において予め定めた行動を予め分類し、推定した対象者の状態から対象者の行動を推定する。図7の例では、上半身の状態を縦軸とし、下半身の状態を横軸としている。そして、「説明」、「質問/意見」、「プレゼン」、「深慮・黙考」、「ノート・内職」、及び「アピール」の6種類の行動に領域を分類し、推定した対象者の状態から行動を推定する。
重なり判定部48は、行動分類部46で行動を推定する際に、各行動の重なり部分(図7のR1~R7)について行動を判定する。本実施形態では、予め定めた特定の要素の有無を条件として、重なり部分の行動を判定する。特定の要素としては、本実施形態では、取得部30が取得した情報から検出した、資料提示、板書、音声、及び手元操作の有無を条件として重なり部分について判定する。例えば、図8に示すように、「説明」の行動には、特定の要素として、板書及び音声がある。「質問/意見」の行動では、特定の要素として、音声がある。「プレゼン」の行動では、特定の要素として、音声、資料提示、及び板書がある。「深慮、黙考」の行動では、特定の要素がない。「ノート・内職」の行動では、特定の要素として、手元操作がある。「アピール」の行動では、特定の要素として、音声がある。そこで、図9に示す特定の要素と重なり部分との関係に基づいて、各要素(C1~C4)の有無を条件としてR1~R7の重なり部分について行動を判定する。
また、行動推定部40では、会議中の行動を元に撮影画像の検索等を行えるように、推定した行動を時間情報と共に、データベースDBb18Bに格納する。ここで、行動推定部40は、赤外線カメラ12、マイク16、及びカメラ14によって対象者の状態に関する情報がそれぞれ検出されるので、これらを用いると共に、行動分類部46及び重なり判定部48により予め定めた時間区間毎に動作解析を行って対象者の行動を推定してもよい。例えば、立ち上がって(起立動作)、ホワイトボード装置24へ移動後(歩行移動)、板書しながら説明する(板書)場合には、図10に示すように、時間区間毎に、赤外線カメラ12、マイク16、及びカメラ14の情報が得られるので、それぞれを用いて時間区間毎に動作解析を行って対象者の行動を推定する。そして、推定した行動を時間情報と共にデータベースDBb18Bに格納する。図10の例では、Δt1、Δt3、Δt4はそれぞれノイズ、Δt2は「質問・意見」、Δt5及びΔt6はそれぞれ「説明」として行動が推定された例を示す。
また、行動推定部40は、動作情報から予め定めた時間区間毎の対象者の動作の頻度及び対象者の動作の維持時間の少なくとも一方の対象者特有動作を求め、該対象者特有動作を更に用いて対象者の予め定めた場面における行動を推定してもよい。例えば、対象者の癖などを考慮するために、対象者の動作の頻度や、動作の継続時間を対象者特有動作として求めて、行動の推定に利用してもよい。具体的には、頻繁にうなずく人は、状態を推定する際に、「質問・意見」の行動や、「ノート・内職」の行動とは異なるうなずき状態の場合があるので、うなずいている状態と判断しない等のように行動を推定する際の状態の推定に利用してもよい。
なお、行動を推定する予め定めた時間区間は、予め定めた固定の時間区間としてもよいし、予め定めた条件に従って変動する時間区間としてもよい。例えば、変動の時間区間を適用する場合には、対象者の動作速度に応じて時間を変更してもよい。具体的には、対象者の動作速度が遅いほど行動を推定するためには長い時間が必要となるので、対象者の動作速度が遅いほど長い時間区間とし、対象者の動作速度が速いほど短い時間区間とする。
続いて、上述のように構成された本実施形態に係る行動推定装置10の制御装置20で行われる具体的な処理について説明する。図11は、本実施形態に係る行動推定装置10の制御装置20で行われる行動推定処理の流れの一例を示すフローチャートである。
まず、ステップ100では、取得部30が、各種情報を取得してステップ102へ移行する。すなわち、赤外線カメラ12から得られる深度情報、カメラ14の撮影画像、マイク16の音声情報、表示装置22の表示状態、ホワイトボード装置24の板書情報、及び手元操作機器26の操作状態の各々を取得する。
ステップ102では、取得部30が、取得した情報が赤外線カメラ12の深度情報であるか否を判定する。該判定が否定された場合にはステップ104へ移行し、肯定された場合にはステップ108へ移行する。
ステップ104では、板書検出部34がカメラ14の撮影画像や、ホワイトボード装置24の板書情報などから板書情報を検出すると共に、発話検出部36がカメラ14の撮影画像中の音声情報やマイク16の音声情報から発話情報を検出してステップ106へ移行する。
ステップ106では、取得部30が、検出した検出情報を対応する時間情報と共に、データベースDBa18Aに記録してステップ100に戻って上述の処理を繰り返す。
一方、ステップ108では、動作状態推定部44が、深度情報の解析処理を行ってステップ110へ移行する。ここで、深度情報解析処理について説明する。図12は、深度情報解析処理の流れの一例を示すフローチャートである。
深度情報解析処理に移行すると、ステップ200では、動作状態推定部44が、変位がある関節座標群を抽出してステップ202へ移行する。
ステップ202では、動作状態推定部44が、任意の隣接する2関節の座標をベクトルとしてスカラーと内積を計算してステップ204へ移行する。
ステップ204では、動作状態推定部44が、変位がある2関節の変位量としての角度θを計算してステップ206へ移行する。
ステップ206では、動作状態推定部44が、カウンタ及びタイマを更新してステップ208へ移行する。
ステップ208では、動作状態推定部44が、所定回数または所定時間が経過したか否か判定する。該判定が否定された場合にはステップ200に戻って上述の処理を繰り返し、判定が肯定された場合にはステップ210へ移行する。なお、所定時間としては、上述した、予め定めた時間区間を適用する。すなわち、所定時間は、予め定めた固定の時間を適用してもよいし、予め定めた条件に従って変動する時間を適用してもよい。また、同様に、所定回数についても予め定めた固定の回数を適用してもよいし、予め定めた条件に従って変動する回数を適用してもよい。例えば、対象者の動作速度が遅いほど多い回数とし、対象者の動作速度が速いほど少ない回数に変動してもよい。
ステップ210では、動作状態推定部44が、計算したθの変位より人物のポーズ(状態)を認識してステップ212へ移行する。
ステップ212では、動作状態推定部44が、認識したポーズと計算した変位量θとを出力して図11のステップ110へ移行する。
続いて、ステップ110では、動作状態推定部44が、深度情報解析処理によって得られたポーズと変位量に基づいて、上半身及び下半身の各々の状態テーブルを作成し、状態を推定してステップ112へ移行する。すなわち、深度情報から検出した人物の動きから、図6(A)、(B)に示す状態テーブルを作成する。なお、状態テーブルは、本実施形態では、単一の状態に対応する部分のみに動きがある場合の状態テーブルを作成する。複数の状態に対して動きがある場合は、状態テーブルを再作成するものとする。
ステップ112では、行動分類部46が、対象者の行動を推定してステップ114へ移行する。具体的には、作成した状態テーブルに基づいて、図7に示すように、対象者の上半身の状態と、対象者の下半身の状態との2軸に予め定めた行動を予め分類し、推定した対象者の状態から対象者の行動を推定する。
ステップ114では、重なり判定部48が、重なり領域の行動であるか否かを判定する。該判定は、上半身及び下半身の状態が、図7の重なり領域(R1~R7)に対応するか否かを判定する。該判定が否定された場合にはステップ118へ移行し、肯定された場合にはステップ116へ移行する。
ステップ116では、重なり判定部48が、重なり判定処理を行ってステップ118へ移行する。ここで、重なり判定処理について詳細に説明する。図13は、重なり判定処理の流れの一例を示すフローチャートである。
ステップ300では、重なり判定部48が、重なり発生時刻の検出情報をDBa18Aから取得する。すなわち、重なり領域の上半身及び下半身の状態を検出した時刻における検出情報(ステップ106において取得部30が取得してDBa18Aに記録した情報)をデータベースDBa18Aから取得する。取得する検出情報は、会議中の資料提示、会議中の板書、会議中の発話、及び会議中の手元操作のそれぞれの検出情報を取得する。
ステップ302では、重なり判定部48が、重なり領域R1~R7の何れの領域であるか分類してステップ304へ移行する。
ステップ304では、重なり判定部48が、重なり領域毎の重なり判定処理を行って図11のステップ118へ移行する。ここで、重なり領域毎の重なり判定処理について詳細に説明する。重なり領域毎の重なり判定は、重なり領域によって異なる処理が行われ、図8、9に示す予め定めた特定の要素の有無を条件として、重なり領域の行動を判定する。図14~図20は重なり領域R1~R7のそれぞれにおける重なり判定処理の流れを示すフローチャートである。
まず、重なり領域がR1の場合は、ステップ310において、重なり判定部48が、ステップ300において取得した情報に基づいて、特定の要素が板書C2及び音声C3であるか否か判定する。該判定が肯定された場合にはステップ312へ移行し、否定された場合にはステップ314へ移行する。
ステップ312では、重なり判定部48が、重なり領域の行動が「説明」であると判定する。
一方、ステップ314では、重なり判定部48が、ステップ300において取得した情報に基づいて、特定の要素が音声C3のみであるか否か判定する。該判定が肯定された場合にはステップ316へ移行し、否定された場合にはステップ318へ移行する。
ステップ316では、重なり判定部48が、重なり領域の行動が「質問・意見」であると判定する。
ステップ318では、重なり判定部48が、重なり領域の行動が特定なしと判定する。
次に、重なり領域がR2の場合は、ステップ320において、重なり判定部48が、ステップ300において取得した情報に基づいて、特定の要素が資料提示C1、板書C2、及び音声C3であるか否か判定する。該判定が肯定された場合にはステップ322へ移行し、否定された場合にはステップ324へ移行する。
ステップ322では、重なり判定部48が、重なり領域の行動が「プレゼン」であると判定する。
一方、ステップ324では、重なり判定部48が、ステップ300において取得した情報に基づいて、特定の要素が音声C3のみであるか否か判定する。該判定が肯定された場合にはステップ326へ移行し、否定された場合にはステップ328へ移行する。
ステップ326では、重なり判定部48が、重なり領域の行動が「質問・意見」であると判定する。
ステップ328では、重なり判定部48が、重なり領域の行動が特定なしと判定する。
次に、重なり領域がR3の場合は、ステップ330において、重なり判定部48が、ステップ300において取得した情報に基づいて、特定の要素が板書C2及び音声C3であるか否か判定する。該判定が肯定された場合にはステップ332へ移行し、否定された場合にはステップ334へ移行する。
ステップ332では、重なり判定部48が、重なり領域の行動が「説明」であると判定する。
一方、ステップ334では、重なり判定部48が、ステップ300において取得した情報に基づいて、特定の要素が検出情報なしであるか否かを判定する。該判定が肯定された場合にはステップ336へ移行し、否定された場合にはステップ338へ移行する。
ステップ336では、重なり判定部48が、重なり領域の行動が「深慮・黙考」であると判定する。
ステップ338では、重なり判定部48が、重なり領域の行動が特定なしと判定する。
次に、重なり領域がR4の場合は、ステップ340において、重なり判定部48が、ステップ300において取得した情報に基づいて、特定の要素が音声C3のみであるか否か判定する。該判定が肯定された場合にはステップ342へ移行し、否定された場合にはステップ344へ移行する。
ステップ342では、重なり判定部48が、重なり領域の行動が「質問・意見」であると判定する。
一方、ステップ344では、重なり判定部48が、ステップ300において取得した情報に基づいて、特定の要素が手元操作C4のみであるか否かを判定する。該判定が肯定された場合にはステップ346へ移行し、否定された場合にはステップ348へ移行する。
ステップ346では、重なり判定部48が、重なり領域の行動が「ノート・内職」であると判定する。
ステップ348では、重なり判定部48が、重なり領域の行動が特定なしと判定する。
次に、重なり領域がR5の場合は、ステップ350において、重なり判定部48が、ステップ300において取得した情報に基づいて、特定の要素が資料提示C1、板書C2、及び音声C3であるか否か判定する。該判定が肯定された場合にはステップ352へ移行し、否定された場合にはステップ354へ移行する。
ステップ352では、重なり判定部48が、重なり領域の行動が「プレゼン」であると判定する。
一方、ステップ354では、重なり判定部48が、ステップ300において取得した情報に基づいて、特定の要素が音声C3のみであるか否か判定する。該判定が肯定された場合にはステップ356へ移行し、否定された場合にはステップ358へ移行する。
ステップ356では、重なり判定部48が、重なり領域の行動が「アピール」であると判定する。
ステップ358では、重なり判定部48が、重なり領域の行動が特定なしと判定する。
次に、重なり領域がR6の場合は、ステップ360において、重なり判定部48が、ステップ300において取得した情報に基づいて、特定の要素が検出情報なしであるか否かを判定する。該判定が肯定された場合にはステップ362へ移行し、否定された場合にはステップ364へ移行する。
ステップ362では、重なり判定部48が、重なり領域の行動が「深慮・黙考」であると判定する。
一方、ステップ364では、重なり判定部48が、ステップ300において取得した情報に基づいて、特定の要素が手元操作C4のみであるか否かを判定する。該判定が肯定された場合にはステップ366へ移行し、否定された場合にはステップ368へ移行する。
ステップ366では、重なり判定部48が、重なり領域の行動が「ノート・内職」であると判定する。
ステップ368では、重なり判定部48が、重なり領域の行動が特定なしと判定する。
次に、重なり領域がR7の場合は、ステップ370において、重なり判定部48が、ステップ300において取得した情報に基づいて、特定の要素が手元操作C4のみであるか否かを判定する。該判定が肯定された場合にはステップ372へ移行し、否定された場合にはステップ374へ移行する。
ステップ372では、重なり判定部48が、重なり領域の行動が「ノート・内職」であると判定する。
一方、ステップ374では、重なり判定部48が、ステップ300において取得した情報に基づいて、特定の要素が音声C3のみであるか否か判定する。該判定が肯定された場合にはステップ376へ移行し、否定された場合にはステップ378へ移行する。
ステップ376では、重なり判定部48が、重なり領域の行動が「アピール」であると判定する。
ステップ378では、重なり判定部48が、重なり領域の行動が特定なしと判定する。
そして、以上の何れかにより、重なり領域別の重なり判定処理が行われると、図13の処理をリターンして図11のステップ118へ移行する。
ステップ118では、行動推定部40が、推定した行動を時間情報と共に、データベースDBb18Bに記録してステップ100に戻って上述の処理を繰り返す。これにより、データベースDB18には、時間情報と共に、推定した行動が記録される共に、撮影画像情報及び音声情報などの会議に関する情報が格納される。
このように推定した会議中の対象者の行動は、会議の進行中にリアルタイムで会議参加者の行動を分析し、議論の停滞を検出(例えば、相対的に長いノイズ区間の検出等)して議論が停滞した際に、その時点までの分析結果を提示して次のアクションを促すために使用してもよい。
また、会議参加者の行動を、会議の全記録時間を対象として事後に分析し、ノイズ区間の除去と、行動分類とによりコミュニケーション構造を可視化して提示するために使用してもよい。
また、会議参加者の行動を、会議の全記録時間を対象として事後に分析し、例えば、「板書」などの行動を表すキーワードを使い、データベースDB18に記録された会議の情報を検索するために使用してもよい。例えば、あの会議での板書を検索し、この板書に至った議論の記録の検索などに使用する。
なお、上記の実施形態では、図6の状態テーブルには何れか1つの状態のみに動き(数値)が入るものとして説明したが、これに限るものではない。例えば、動作情報から図6に示す状態テーブルを生成した際に、複数の状態の各々に動き(数値)が入る場合を適用してもよい。この場合には、例えば、最も動きが大きい状態を採用して状態を推定してもよい。
また、上記の実施形態では、図7に示すように、2軸の領域において2つの行動が重なるように分類した例を説明したが、3以上の行動が重なるように分類してもよい。
また、上記の実施形態に係る行動推定装置10の制御装置20で行われる処理(図11~20)は、ソフトウエアで行われる処理としてもよいし、ハードウエアで行われる処理としてもよいし、双方を組み合わせた処理としてもよい。また、制御装置20の各部で行われる処理は、プログラムとして記憶媒体に記憶して流通させるようにしてもよい。
また、本発明は、上記に限定されるものでなく、上記以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。
10 行動推定装置
12 赤外線カメラ
14 カメラ
16 マイク
18 データベースDB
18A データベースDBa
18B データベースDBb
20 制御装置
30 取得部
32 資料提示検出部
34 板書検出部
36 発話検出部
38 手元操作検出部
40 行動推定部
42 メディア記録部
44 動作状態推定部
46 行動分類部
48 重なり判定部

Claims (8)

  1. 1以上の対象者の動作情報を取得する取得部と、
    前記取得部によって取得した前記動作情報を用いて、予め定めた場面における予め定めた行動のうち、対象者に対応する行動を推定する推定部と、
    を備え、
    前記推定部が、対象者の上半身の状態と、対象者の下半身の状態との2軸の領域において、対象者の状態に対応する予め定めた行動が前記領域上で2以上の重なり部分を有するように予め分類し、前記動作情報から前記上半身の状態及び前記下半身の状態の各々を推定することにより、予め分類した予め定めた行動のうち、対象者の状態に対応する行動を、対象者の予め定めた場面における行動として推定し、
    前記上半身の状態及び前記下半身の状態とは異なる予め定めた特定の要素の有無を、前記重なり部分の行動を判定する条件として前記領域上の重なり部分の行動を推定する行動推定装置。
  2. 前記推定部は、複数の動きの組み合わせを含む予め定めた場面における行動のうち、対象者に対応する行動を推定する請求項1に記載の行動推定装置。
  3. 前記推定部は、前記動作情報から予め定めた時間区間毎の対象者の動作の頻度及び対象者の動作の維持時間の少なくとも一方の対象者特有動作情報を求め、該対象者特有動作情報を更に用いて対象者の予め定めた場面における行動を推定する請求項1又は請求項2に記載の行動推定装置。
  4. 前記推定部が、予め定めた時間区間毎に対象者の行動を推定し、前記推定部によって推定された前記時間区間毎の対象者の行動を記憶する記憶部を更に備えた請求項1~3の何れか1項に記載の行動推定装置。
  5. 前記記憶部は、前記動作情報以外の前記予め定めた場面における検出情報を前記時間区間毎に更に記憶する請求項4に記載の行動推定装置。
  6. 前記検出情報は、前記時間区間毎の音声情報及び前記時間区間毎の撮影情報の少なくとも一方を含む情報である請求項5に記載の行動推定装置。
  7. 前記時間区間は、対象者の動作速度に応じて予め定めた時間に変更する請求項3~6の何れか1項に記載の行動推定装置。
  8. コンピュータを、請求項1~7の何れか1項に記載の行動推定装置の各部として機能させるための行動推定プログラム。
JP2017178664A 2017-09-19 2017-09-19 行動推定装置及び行動推定プログラム Active JP7110568B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017178664A JP7110568B2 (ja) 2017-09-19 2017-09-19 行動推定装置及び行動推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017178664A JP7110568B2 (ja) 2017-09-19 2017-09-19 行動推定装置及び行動推定プログラム

Publications (2)

Publication Number Publication Date
JP2019053647A JP2019053647A (ja) 2019-04-04
JP7110568B2 true JP7110568B2 (ja) 2022-08-02

Family

ID=66014943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017178664A Active JP7110568B2 (ja) 2017-09-19 2017-09-19 行動推定装置及び行動推定プログラム

Country Status (1)

Country Link
JP (1) JP7110568B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021243561A1 (zh) * 2020-06-02 2021-12-09 中国科学院深圳先进技术研究院 行为识别装置及方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005258830A (ja) 2004-03-11 2005-09-22 Yamaguchi Univ 人物行動理解システム
JP2010125296A (ja) 2008-12-01 2010-06-10 Tokyo Metropolitan Univ 起立及び移動動作支援装置、起立及び移動動作支援プログラム、並びに起立及び移動動作支援方法
JP2010244194A (ja) 2009-04-02 2010-10-28 Toyota Motor Corp 物体識別装置
WO2012172629A1 (ja) 2011-06-13 2012-12-20 トヨタ自動車株式会社 歩行者動作予測装置
US20150092007A1 (en) 2013-10-02 2015-04-02 Fuji Xerox Co., Ltd. Information processing apparatus, information processing method, and non-transitory computer readable medium
JP2016097228A (ja) 2014-11-26 2016-05-30 株式会社日立システムズ 行動分類システム、行動分類装置及び行動分類方法
WO2017022852A1 (ja) 2015-08-06 2017-02-09 株式会社ニコン 電子制御装置、及び電子制御プログラム
JP2017073076A (ja) 2015-10-09 2017-04-13 株式会社東芝 行動判定装置及び行動判定方法
JP2017123149A (ja) 2015-10-30 2017-07-13 コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド ユーザー状態検出による集団相互作用の方法及びシステム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005258830A (ja) 2004-03-11 2005-09-22 Yamaguchi Univ 人物行動理解システム
JP2010125296A (ja) 2008-12-01 2010-06-10 Tokyo Metropolitan Univ 起立及び移動動作支援装置、起立及び移動動作支援プログラム、並びに起立及び移動動作支援方法
JP2010244194A (ja) 2009-04-02 2010-10-28 Toyota Motor Corp 物体識別装置
WO2012172629A1 (ja) 2011-06-13 2012-12-20 トヨタ自動車株式会社 歩行者動作予測装置
US20150092007A1 (en) 2013-10-02 2015-04-02 Fuji Xerox Co., Ltd. Information processing apparatus, information processing method, and non-transitory computer readable medium
JP2015073198A (ja) 2013-10-02 2015-04-16 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2016097228A (ja) 2014-11-26 2016-05-30 株式会社日立システムズ 行動分類システム、行動分類装置及び行動分類方法
WO2017022852A1 (ja) 2015-08-06 2017-02-09 株式会社ニコン 電子制御装置、及び電子制御プログラム
JP2017073076A (ja) 2015-10-09 2017-04-13 株式会社東芝 行動判定装置及び行動判定方法
JP2017123149A (ja) 2015-10-30 2017-07-13 コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド ユーザー状態検出による集団相互作用の方法及びシステム

Also Published As

Publication number Publication date
JP2019053647A (ja) 2019-04-04

Similar Documents

Publication Publication Date Title
US11650659B2 (en) User input processing with eye tracking
KR101688355B1 (ko) 다수의 지각 감지 입력의 상호작용
JP5317415B2 (ja) 画像出力装置、画像出力方法、および画像出力プログラム
US10275021B2 (en) Display apparatus of front-of-the-eye mounted type
JP2014165660A (ja) バーチャルキーボードの入力方法、プログラム、記憶媒体、及びバーチャルキーボードシステム
Bosch et al. Quantifying classroom instructor dynamics with computer vision
US9710708B1 (en) Method and apparatus for autonomously recognizing at least one object in an image
JP2020122958A (ja) 時間的視覚的な顔の特徴に基づく認知及び発話障害検出のための方法、サーバ及びプログラム
JP7110568B2 (ja) 行動推定装置及び行動推定プログラム
Nakano et al. Generating robot gaze on the basis of participation roles and dominance estimation in multiparty interaction
MacRitchie et al. Efficient tracking of pianists’ finger movements
JP2021043839A (ja) 学習システム、分析システム、学習方法、分析方法、プログラム、及び記憶媒体
CN106547339B (zh) 计算机设备的控制方法和装置
Yang et al. Early childhood education by hand gesture recognition using a smartphone based robot
US20090110237A1 (en) Method for positioning a non-structural object in a series of continuing images
JP6396813B2 (ja) 学習映像からその学習に費やされた学習項目を推定するプログラム、装置及び方法
Criss et al. Video assessment of finger tapping for Parkinson's disease and other movement disorders
JP6875028B1 (ja) 手洗い評価装置および手洗い評価プログラム
JP2004280673A (ja) 情報提供装置
Baatar et al. Comparing sensor based and vision based techniques for dynamic gesture recognition
Bahrin et al. Tactile graphics exploration studies using fingertip tracking based on colour markers detection for visually impaired people
Yun et al. Automatic engagement level estimation of kids in a learning environment
KR20140046197A (ko) 동작인식 장치 및 방법, 그리고 프로그램을 저장한 컴퓨터로 판독 가능한 기록매체
US20230027320A1 (en) Movement Disorder Diagnostics from Video Data Using Body Landmark Tracking
Munir et al. Real time eye tracking using Kalman extended spatio-temporal context learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220704

R150 Certificate of patent or registration of utility model

Ref document number: 7110568

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150