JP2019012965A - 映像制御方法、映像制御装置、及び映像制御プログラム - Google Patents

映像制御方法、映像制御装置、及び映像制御プログラム Download PDF

Info

Publication number
JP2019012965A
JP2019012965A JP2017129474A JP2017129474A JP2019012965A JP 2019012965 A JP2019012965 A JP 2019012965A JP 2017129474 A JP2017129474 A JP 2017129474A JP 2017129474 A JP2017129474 A JP 2017129474A JP 2019012965 A JP2019012965 A JP 2019012965A
Authority
JP
Japan
Prior art keywords
user
video
model
movement
joint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017129474A
Other languages
English (en)
Inventor
康 洲鎌
Yasushi Sukama
康 洲鎌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017129474A priority Critical patent/JP2019012965A/ja
Publication of JP2019012965A publication Critical patent/JP2019012965A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】ユーザを撮像中の映像をリアルタイムに表示する際に、ユーザの動きの手本を表す手本映像を同期させて表示する。
【解決手段】映像制御装置16は、ユーザが映るユーザ映像を逐次取得する。そして、映像制御装置16は、逐次取得されたユーザ映像に映るユーザの動きを逐次検出する。そして、映像制御装置16は、逐次検出されたユーザの動きに応じて、動きの手本を表す手本映像の再生開始及び再生速度を制御し、制御された手本映像と、ユーザ映像とが表示装置30に表示されるように制御する。
【選択図】図1

Description

開示の技術は、映像制御方法、映像制御装置、及び映像制御プログラムに関する。
従来、練習者が熟練者の手や体の動きを真似する状態を客観的に視認、認識でき、習熟の度合いを明確に把握することが可能な画像練習装置が知られている。この画像練習装置の撮像手段は模範画像を真似した練習者の練習画像を撮像し、撮像した練習者の練習画像を送出する。そして、画像練習装置の画像処理手段は、模範画像と、撮像手段により撮像した練習画像とを分割状態に合成処理し表示手段に送る。画像練習装置の表示手段は、画像処理手段により合成した模範画像と練習画像とを画面上に分割表示する。これにより、練習者は画面上に分割表示される模範画像と自身の練習画像とを同時に視認でき、自身の習熟の度合いを客観的に把握できる。
また、動きに関する教材映像を通して動きを学習する動き学習支援装置が知られている。この動き学習支援装置は、時間方向に区分された、動きに関する教材映像の各区分教材映像と、撮像部で撮影される、各区分教材映像の動きを真似る学習者の練習画像とを区分毎に交互にモニタに表示する。
また、各動き要素を学習する手順学習と一連の動きを追従する学習とを段階的に行うよう支援するようにして、短時間かつ効果的に、正しい動きを習得するための動き学習支援装置が知られている。この動き学習支援装置は、モニタと、内視鏡カメラと、鉗子による結紮縫合処置の各動き要素映像を個別にモニタに表示する。動き学習支援装置は、当該動き要素映像の表示に続いて内視鏡カメラの撮像映像をモニタに表示する手順学習映像表示処理部と、モニタに、結紮縫合処置の一連の動きの映像と内視鏡カメラの撮像映像とを時分割表示する追従学習映像表示処理部とを備えている。
特開平8‐251577号公報 国際公開第2015/097825号 特開2014‐71443号公報
特定の動きを習得したいユーザが、正しい動きを習得するためには、ユーザの映像に同期された手本の映像がリアルタイムに表示されることが好ましい。例えば、ユーザが、スポーツの動きを習得する際には、リアルタイムに撮像されたユーザの映像に合わせて手本の映像が表示されると、ユーザは正しい動きを効果的に習得することができると考えられる。
しかし、ユーザの動きに同期させて手本の映像を表示するためには、ユーザの動きの開始から終了までの時間と手本の映像の再生時間とを合わせるように、手本の映像の再生速度を制御する必要がある。このため、リアルタイムに撮像されたユーザの映像に手本の映像を同期させることは、ユーザの動きの終了点が未知であるため難しい。
一つの側面では、開示の技術は、ユーザを撮像中の映像をリアルタイムに表示する際に、ユーザの動きの手本を表す手本映像を同期させて表示することが目的である。
開示の技術は、一つの実施態様では、映像制御方法は、ユーザが映るユーザ映像を逐次取得し、逐次取得された前記ユーザ映像に映る前記ユーザの動きを逐次検出する。そして、映像制御方法は、逐次検出された前記ユーザの動きに応じて、動きの手本を表す手本映像の再生開始及び再生速度を制御する。そして、映像制御方法は、前記制御された前記手本映像と、前記ユーザ映像とが表示装置に表示されるように制御する。
一つの側面として、ユーザを撮像中の映像をリアルタイムに表示する際に、ユーザの動きの手本を表す手本映像を同期させて表示することができる、という効果を有する。
第1の実施形態に係る映像表示システムの概略ブロック図である。 第1の実施形態に係る映像表示システムの具体的な構成例を示す図である。 映像記憶部に格納されるテーブルの一例を示す図である。 手本映像を説明するための説明図である。 関節位置記憶部に格納されるテーブルの一例を示す図である。 ユーザ映像に対する手本映像の重畳表示を説明するための説明図である。 第1の実施形態に係る映像制御装置として機能するコンピュータの概略構成を示すブロック図である。 第1の実施形態の映像制御処理ルーチンの一例を示すフローチャートである。 第2の実施形態に係る映像表示システムの概略ブロック図である。 第2の実施形態の映像表示システムの具体的な構成例を示す図である。 第2の実施形態に係る映像制御装置として機能するコンピュータの概略構成を示すブロック図である。 第2の実施形態の映像制御処理ルーチンの一例を示すフローチャートである。 第3の実施形態に係る映像表示システムの概略ブロック図である。 第3の実施形態に係る映像制御装置として機能するコンピュータの概略構成を示すブロック図である。 第3の実施形態の映像制御処理ルーチンの一例を示すフローチャートである。
以下、図面を参照して開示の技術の実施形態の一例を詳細に説明する。
<第1の実施形態>
図1に、映像表示システム10の機能的な構成例を示す。図1に示されるように、第1の実施形態に係る映像表示システム10は、カメラ12と、距離センサ14と、映像制御装置16と、表示装置30とを備えている。
また、図2に、映像表示システム10の具体的な構成例を示す。図2に示されるように、映像表示システム10は、カメラ12によって逐次撮像されたユーザUが映るユーザ映像UAを表示装置30へ表示する。また、映像表示システム10は、ユーザUの動きの手本を表す手本映像MAを表示装置30へ表示する。なお、映像表示システム10は、図2に示されるように、ユーザ映像に対して手本映像が重畳表示されるように表示装置30を制御する。映像表示システム10について、以下具体的に説明する。
カメラ12は、ユーザが映るユーザ映像を逐次撮像する。カメラ12は、例えば図2に示されるように、ユーザUの全体像が映るような位置に設置される。
距離センサ14は、3次元点群データを逐次取得する。距離センサ14は、例えば図2に示されるように、ユーザUの全体像に対応する3次元点群データが取得されるような位置に設置される。
映像制御装置16は、図1に示されるように、取得部18と、映像記憶部20と、動作検出部22と、関節位置記憶部24と、動作速度検出部26と、表示制御部28とを備えている。動作検出部22と動作速度検出部26とは、開示の技術の検出部の一例である。
取得部18は、カメラ12によって撮像されたユーザ映像を逐次取得する。
映像記憶部20には、ユーザの動きの手本を表す手本映像に関する情報が格納される。具体的には、映像記憶部20には、動きの手本を表す手本映像と、手本映像に映る動きの手本を表す手本モデルの関節の位置を示す3次元座標の各々と、手本モデルの各関節の3次元座標の平均の座標が格納される。手本映像に関する情報は、例えば、図3に示されるように、テーブルの形式で格納される。図3に示すテーブルには、時刻tと、手本映像MAの各時刻のフレームの画像と、手本モデルの各関節の3次元座標の各々と、手本モデルの関節の3次元座標の各々の平均の座標とが対応付けられて格納される。図3に示される例では、例えば、時刻t1と、手本映像MAの時刻t1のフレームの画像M1と、フレームの画像M1に映る手本モデルの関節の3次元座標(E,E,…)と、平均の座標Eとが対応付けられて格納される。
図4に、手本映像を説明するための説明図を示す。図4に示されるように、手本映像MAには、動きの手本を表す手本モデルMTが映っている。また、手本モデルMTには、手本モデルMTの関節の位置を表す関節モデルMKが含まれている。関節モデルMKの各関節の位置を表す3次元座標の各々が、手本モデルMTの関節の位置を示す3次元座標の各々として映像記憶部20に格納される。
動作検出部22は、距離センサ14によって計測された3次元点群データに基づいて、ユーザの各関節の位置を示す3次元座標を逐次取得する。動作検出部22は、ユーザの各関節の位置を示す3次元座標を関節位置記憶部24へ格納する。そして、動作検出部22は、ユーザの関節の位置を示す3次元座標と、映像記憶部20に格納された手本映像に映る手本モデルの関節の位置を示す3次元座標との間の距離が、予め定められた閾値以下である場合に、ユーザの動きの開始点を検出する。
具体的には、まず、動作検出部22は、距離センサ14によって計測される3次元点群データから、ユーザの各関節iの位置を示す3次元座標Aを取得する。i(=0〜N−1)は関節を識別するための番号である。なお、3次元点群データから関節の位置を示す3次元座標の取得方法は、従来既知の手法を用いることができる。
次に、動作検出部22は、ユーザの各関節iの3次元座標Aと、手本映像に映る手本モデルの各関節iの3次元座標Eとの間の差分二乗和Cを最小にするスケーリング係数Sを算出する。スケーリング係数Sは、ユーザと手本映像に映る手本モデルとの間の体格差を調整する為の係数であり、以下の式(1)示される値Xが最小となるように求められる。

(1)
次に、動作検出部22は、取得部18によって取得されたユーザ映像に映るユーザの大きさと、映像記憶部20に格納された手本映像に映る手本モデルの大きさとが対応するように、スケーリング係数Sに応じて、手本映像を拡大又は縮小させる。
そして、動作検出部22は、ユーザの各関節iの3次元座標Aと手本映像に映る手本モデルの各関節iの3次元座標Eとの間の差分二乗和Cが閾値Tc以下になった場合、ユーザが動きの開始姿勢を取ったと判定する。
具体的には、まず、動作検出部22は、ユーザの各関節iの3次元座標Aから、ユーザの各関節iの平均の座標Aを算出する。また、動作検出部22は、映像記憶部20に格納された、手本モデルの関節iの3次元座標Eの各々と、手本モデルの各関節iの平均の座標Eとを取得する。そして、動作検出部22は、以下の式(2)に従って、ユーザの各関節iの3次元座標Aと、手本映像に映る手本モデルの各関節iの3次元座標Eとの間の差分二乗和Cを算出する。

(2)
なお、上記式(2)におけるMは手本映像の3次元座標系からユーザの3次元座標系へ変換する為の変換行列であり、事前にカメラ12のキャリブレーションを行うことにより求められる。また、||・||はベクトルのノルムを表す。
そして、動作検出部22は、上記式(2)によって算出された差分二乗和Cが閾値Tc以下である場合、ユーザの動きの開始点を検出する。
関節位置記憶部24には、動作検出部22によって取得されたユーザの各関節iの位置を示す3次元座標Aと各関節iの3次元座標Aの平均の座標とが格納される。なお、ユーザの各関節iの3次元座標と平均の座標とは、ユーザ映像の各時刻のフレームに対応して格納される。ユーザの各関節iの3次元座標Aと平均の座標とは、例えば、図5に示されるように、テーブルの形式で格納される。図5に示すテーブルには、関節の位置を示す3次元座標が取得された時刻と、関節の位置を示す3次元座標と、平均の座標とが対応付けられて格納される。
動作速度検出部26は、関節位置記憶部24に格納された、現時刻のフレームのユーザの各関節iの3次元座標Aと、前時刻のフレームのユーザの各関節iの3次元座標A’との間の差に基づき、ユーザの動き関節の移動距離和Vを算出する。具体的には、動作速度検出部26は、以下の式(3)に従って、ユーザの動き関節の移動距離和Vを算出する。ユーザの動きの速度は、ユーザ映像内のユーザのフレーム間の関節の移動距離和Vとして表される。

(3)
なお、上記式(3)における重み係数Wは、関節i毎に予め設定される。例えば、手の動きが重要な動きの場合は、手の関節の寄与が高くなるように、手の関節に対応する重み係数Wが大きくなるように予め設定することができる。また、手の関節とは異なる脚の関節等に対応する重み係数Wが小さくなるように設定することができる。
また、動作速度検出部26は、現時刻に表示する予定のフレームの手本モデルの各関節iの3次元座標Eと、前時刻に表示したフレームの手本モデルの各関節iの3次元座標E’との間の差とに基づき、手本モデルの関節の移動距離和Vを算出する。現時刻に表示する予定のフレームとは、前時刻に表示したフレームと、前時刻に決定された手本映像の更新時間(詳細は後述)と、ユーザ映像の更新時間とに基づいて定まるフレームである。例えば、時刻tのフレームをフレームFtとし、前時刻に表示したフレームがフレームF0、前時刻に決定された手本映像の更新時間が10[ms]、ユーザ映像の更新時間が10[ms]であるとする。この場合、現時刻に表示する予定のフレームは、フレームF0の次時刻のフレームであるフレームF1となる。また、前時刻に決定された手本映像の更新時間20[ms]の場合、現時刻に表示する予定のフレームは、前時刻に表示したフレームF0のままである。また、前時刻に決定された手本映像の更新時間5[ms]の場合、現時刻に表示する予定のフレームは、前時刻に表示したフレームF0の2フレーム後のフレームF2となる。また、3次元座標E及びE’は、映像記憶部20に格納された情報を用いる。具体的には、動作速度検出部26は、以下の式(4)に従って、手本モデルの関節の移動距離和Vを算出する。手本モデルの動きの速度は、手本映像内の手本モデルのフレーム間の関節の移動距離和Vとして表される。

(4)
表示制御部28は、取得部18によって取得されたユーザ映像を逐次取得する。次に、表示制御部28は、動作検出部22によって算出されたスケーリング係数Sに応じて、ユーザ映像に映るユーザの大きさと手本映像に映る手本モデルとの大きさとが対応するように、手本映像を拡大又は縮小する。
また、表示制御部28は、動作検出部22によって検出されたユーザの動きの開始点に応じて、映像記憶部20に格納された手本映像の再生を開始するように制御する。例えば、表示制御部28は、ユーザの動きの開始点が検出された場合、図6に示されるように、ユーザ映像UAに対して手本映像MAを重畳するように表示させる。
また、表示制御部28は、動作速度検出部26によって逐次検出されたユーザの動きの速度に応じて、手本映像の再生速度を制御して、手本映像とユーザ映像とが同期して表示されるように表示装置30を制御する。なお、表示制御部28は、ユーザ映像に対して、再生速度が制御された手本映像が重畳表示されるように表示装置30を制御する。
具体的には、表示制御部28は、上記式(3)によって得られたユーザの動きの速度Vと、上記式(4)によって得られた手本モデルの動きの速度Vとに応じて、以下の式(5)に従って、手本映像の再生速度としての手本映像の更新時間Tを決定する。

(5)
上記式(5)におけるtは、再生速度を変更しない場合の手本映像の更新時間を表す。手本映像の1秒当たりのフレーム数が100[fps]であれば、手本映像の更新時間はt=10[ms]となる。
例えば、手本映像の1秒当たりのフレーム数が100[fps](10[ms]ごとに更新)であり、かつ上記式(5)におけるV/V=2.0である場合、表示制御部28は、手本映像のフレームの表示間隔を20[ms]に更新する。なお、表示装置30は可変フレームレートに対応している必要は無く、表示用のメモリデータを20[ms]後に更新すれば良い。
また、表示制御部28は、ユーザ映像に映るユーザの位置と手本映像に映る手本モデルの位置とが対応するように、手本映像の表示位置を制御する。
具体的には、まず、表示制御部28は、ユーザの複数の関節iの各々のうち、前時刻のフレームのユーザの関節の3次元座標と、現時刻のフレームのユーザの関節の3次元座標との間の移動量が、最も小さい関節である基準関節sを特定する。
そして、表示制御部28は、ユーザ映像の基準関節sの位置と、手本モデルの対応する基準関節sの位置とが対応するように、手本映像の表示位置を制御する。
より詳細には、表示制御部28は、ユーザの基準関節sの3次元座標Asと、手本モデルの基準関節sの3次元座標Esとに基づいて、以下の式(6)に従って、平行移動量Pを算出する。そして、表示制御部28は、平行移動量Pに応じて手本映像を平行移動させて、ユーザ映像に対して重畳表示する。

(6)
表示装置30には、表示制御部28の制御に応じて、ユーザ画像に対して手本画像が重畳表示される。
映像制御装置16は、例えば、図7に示すコンピュータ50で実現することができる。コンピュータ50はCPU51、一時記憶領域としてのメモリ52、及び不揮発性の記憶部53を備える。また、コンピュータ50は、カメラ12、距離センサ14、及び表示装置30が接続される入出力interface(I/F)54、並びに記録媒体59に対するデータの読み込み及び書き込みを制御するread/write(R/W)部55を備える。また、コンピュータ50は、インターネット等のネットワークに接続されるネットワークI/F56を備える。CPU51、メモリ52、記憶部53、入出力I/F54、R/W部55、及びネットワークI/F56は、バス57を介して互いに接続される。
記憶部53は、Hard Disk Drive(HDD)、Solid State Drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部53には、コンピュータ50を映像制御装置16として機能させるための映像制御プログラム60が記憶されている。映像制御プログラム60は、取得プロセス61と、動作検出プロセス62と、動作速度検出プロセス63と、表示制御プロセス64とを有する。情報記憶領域65には、関節位置記憶部24を構成する情報と、映像記憶部20を構成する情報とが記憶される。
CPU51は、映像制御プログラム60を記憶部53から読み出してメモリ52に展開し、映像制御プログラム60が有するプロセスを順次実行する。CPU51は、取得プロセス61を実行することで、図1に示す取得部18として動作する。CPU51は、動作検出プロセス62を実行することで、図1に示す動作検出部22として動作する。また、CPU51は、動作速度検出プロセス63を実行することで、図1に示す動作速度検出部26として動作する。また、CPU51は、表示制御プロセス64を実行することで、図1に示す表示制御部28として動作する。また、CPU51は、情報記憶領域65から情報を読み出して、関節位置記憶部24をメモリ52に展開する。また、CPU51は、情報記憶領域65から情報を読み出して、映像記憶部20をメモリ52に展開する。これにより、映像制御プログラム60を実行したコンピュータ50が、映像制御装置16として機能することになる。ソフトウェアである映像制御プログラム60を実行するCPU51はハードウェアである。
なお、映像制御プログラム60により実現される機能は、例えば半導体集積回路、より詳しくはApplication Specific Integrated Circuit(ASIC)等で実現することも可能である。
次に、第1の実施形態に係る映像制御装置16の作用について説明する。映像表示システム10のカメラ12によってユーザの撮像が開始され、かつ距離センサ14によって3次元点群データの取得が開始されると、映像制御装置16は、図8に示す映像制御処理ルーチンを実行する。
ステップS100において、表示制御部28は、手本映像を再生するための映像再生フラグFLを0に設定する。
ステップS102において、動作検出部22は、映像記憶部20に格納された、手本モデルの各関節iの位置を示す3次元座標Eと、手本モデルの各関節の平均の座標Eとを取得する。
ステップS104において、取得部18は、カメラ12によって撮像されたユーザ映像を取得する。また、表示制御部28は、ユーザ映像を表示装置30へ表示するように制御する。
ステップS106において、動作検出部22は、距離センサ14によって計測された3次元点群データを取得する。
ステップS108において、動作検出部22は、上記ステップS106で取得された3次元点群データに基づいて、ユーザの各関節iの位置を示す3次元座標Aを取得する。また、動作検出部22は、ユーザの各関節iの位置を示す3次元座標Aに基づいて、ユーザの各関節の位置の平均の座標Aを取得する。そして、動作検出部22は、ユーザの各関節iの位置を示す3次元座標A及び平均の座標Aを、時刻と対応付けて関節位置記憶部24へ格納する。
ステップS110において、動作検出部22は、映像再生フラグが1であるか否かを判定する。映像再生フラグが1である場合には、ステップS118へ進む。一方、映像再生フラグが0である場合には、ステップS112へ進む。
ステップS112において、動作検出部22は、ステップS102で得られた手本モデルの各関節の3次元座標E及び平均の座標Eと、ステップS108で得られたユーザの各関節の3次元座標A及び平均の座標Aとに基づき、スケーリング係数Sを算出する。具体的には、動作検出部22は、上記式(1)のXが最小となるように、スケーリング係数Sを算出する。
ステップS113において、動作検出部22は、上記ステップS112で算出されたスケーリング係数Sと、ステップS102で得られた3次元座標と、ステップS108で得られた3次元座標とに基づいて、上記式(2)に従って、差分二乗和Cを算出する。
ステップS114において、動作検出部22は、上記ステップS113で算出された差分二乗和Cが閾値Tcよりも小さいか否かを判定する。差分二乗和Cが閾値Tcよりも小さい場合には、ステップS116へ進む。一方、差分二乗和Cが閾値Tc以上である場合には、ステップS104へ戻る。
ステップS116において、表示制御部28は、映像再生フラグFLを1に設定する。
ステップS118において、動作速度検出部26は、関節位置記憶部24に格納された、現時刻のフレームのユーザの関節の3次元座標Aと、前時刻のフレームのユーザの関節の3次元座標A’とを取得する。そして、動作速度検出部26は、上記式(3)に従って、ユーザの動きの速度Vを算出する。
ステップS119において、動作速度検出部26は、映像記憶部20に格納された、現時刻のフレームの手本モデルの関節の3次元座標Eと、前時刻のフレームの手本モデルの関節の3次元座標E’とを取得する。そして、動作速度検出部26は、上記式(4)に従って、手本モデルの動きの速度Vを算出する。
ステップS120において、表示制御部28は、上記ステップS118で得られたユーザの動きの速度Vと、上記ステップS119で得られた手本モデルの動きの速度Vとに応じて、上記式(5)に従って、手本映像の更新時間Tを決定する。なお、ステップS116を経由して本ステップに至った場合、すなわち、ユーザの動きの開始点が検出されたフレームについては、手本モデルの前時刻のフレームが存在せず、Vが算出できないため、更新時間Tは初期値に決定すればよい。
ステップS122において、表示制御部28は、ユーザの複数の関節iの各々のうち、前時刻のフレームのユーザの関節の3次元座標と、現時刻のフレームのユーザの関節の3次元座標との間の移動量が、最も小さい関節である基準関節sを特定する。
ステップS124において、表示制御部28は、ユーザの基準関節sの3次元座標Asと、手本モデルの基準関節sの3次元座標Esとに基づいて、上記式(6)に従って、平行移動量Pを算出する。
ステップS126において、表示制御部28は、上記ステップS120で決定された更新時間Tによって手本映像が更新されるよう手本映像を制御する。そして、表示制御部28は、更新時間が制御された手本映像を上記ステップS104で表示装置30に表示されたユーザ映像に対して重畳表示するように、表示装置30を制御する。また、表示制御部28は、上記ステップS124で得られた平行移動量Pに応じて手本映像を平行移動させるように制御して、上記ステップS104で表示装置30に表示されたユーザ映像に対して重畳表示するように、表示装置30を制御する。
以上説明したように、本実施形態に係る映像制御装置は、ユーザ映像に映るユーザの動きを逐次検出し、逐次検出されたユーザの動きに応じて、動きの手本を表す手本映像の再生開始及び再生速度を制御する。そして、映像制御装置は、制御された手本映像と、ユーザ映像とが表示装置に表示されるように制御する。これにより、ユーザを撮像中の映像をリアルタイムに表示する際に、ユーザの動きの手本を表す手本映像を同期させて表示することができる。また、ユーザの動きに同期した手本映像がリアルタイムに重畳表示されるため、ユーザは正しい動きを効果的に習得することができる。
また、ユーザの動きの開始点に合わせて手本映像の再生を開始し、手本映像の開始後のユーザの動きの速度に合わせて、ユーザ映像に対し手本映像をリアルタイムに重畳表示することができる。
<第2の実施形態>
次に、第2の実施形態について説明する。第2の実施形態では、予め生成された学習済みモデルを用いてユーザの各関節の位置及びユーザの動きの開始点を検出し、ユーザの関節間の角度を用いてユーザの動きの速度を算出する点が第1の実施形態と異なる。また、第2の実施形態では、距離センサを用いずに、カメラ12によって撮像されたユーザ映像のみから、ユーザの各関節の位置、ユーザの動きの開始点、及びユーザの動きの速度を算出する。なお、第1の実施形態と同様の構成となる部分については、同一符号を付して説明を省略する。
図9に、第2の実施形態の映像表示システム210の機能的な構成例を示す。図9に示されるように、第2の実施形態に係る映像表示システム210は、カメラ12と、映像制御装置216と、表示装置30とを備えている。
また、図10に、第2の実施形態の映像表示システム210の具体的な構成例を示す。図10に示されるように、第2の実施形態の映像表示システム210では、表示装置30がヘッドマウントディスプレイによって実現される。表示装置30であるヘッドマウントディスプレイには、ユーザ映像に対して手本映像が重畳表示された映像SAが表示される。第2の実施形態の映像表示システム210では、距離センサによってユーザの関節の位置を検出することなく、カメラ12によって撮像されるユーザ映像からユーザの関節の位置を検出する。第2の実施形態の映像表示システム210について、以下具体的に説明する。
映像制御装置216は、図9に示されるように、取得部18と、映像記憶部20と、動作検出部222と、第1学習済みモデル記憶部217と、第2学習済みモデル記憶部319と、関節位置記憶部24と、動作速度検出部226と、表示制御部28とを備えている。
第1学習済みモデル記憶部217には、ユーザ映像から、ユーザの各関節の位置を検出するための関節検出用学習済みモデルが格納される。関節検出用学習済みモデルは、学習用のユーザが映る学習用ユーザ映像及び学習用のユーザの関節の位置から予め学習される。
第2学習済みモデル記憶部219には、ユーザの関節の位置から、ユーザの動きの開始点を検出するための動作検出用学習済みモデルが格納される。動作検出用学習済みモデルは、学習用のユーザが映る学習用ユーザ映像の学習用のユーザの関節の位置及び学習用のユーザの動きの開始点から予め学習される。
動作検出部222は、取得部18によって逐次取得されたユーザ映像を逐次取得する。次に、動作検出部222は、第1学習済みモデル記憶部217に格納された関節検出用学習済みモデルを読み出す。動作検出部222は、ユーザ映像と関節検出用学習済みモデルとに基づいて、ユーザ映像の各時刻のフレームを関節検出用学習済みモデルへ入力し、ユーザ映像に映るユーザの各関節iの位置を示す3次元座標Aを検出する。
また、動作検出部222は、第2学習済みモデル記憶部219に格納された動作検出用学習済みモデルを読み出す。次に、動作検出部222は、関節検出用学習済みモデルによって得られたユーザの関節の位置と動作検出用学習済みモデルとに基づいて、ユーザの各関節iの位置を示す3次元座標Aを動作検出用学習済みモデルへ入力し、ユーザの動きの開始点を検出する。
動作速度検出部226は、現時刻のフレームのユーザの関節の各々の間の角度と、前時刻のフレームのユーザの関節の各々の間の角度との間の差に基づいて、ユーザの動きの速度を算出する。
具体的には、まず、動作速度検出部226は、現時刻のフレームのユーザの各関節iの3次元座標Aに基づき、現時刻のフレームの関節iの各々についての、特定の関節と隣接する一方の関節と、特定の関節と隣接する他方の関節との間の角度θiを算出する。次に、動作速度検出部226は、前時刻のフレームのユーザの各関節iの3次元座標Aに基づき、前時刻のフレームの関節iの各々についての、特定の関節と隣接する一方の関節と、特定の関節と隣接する他方の関節との間の角度θi’を算出する。そして、動作速度検出部226は、以下の式(7)に従って、ユーザの動きの速度Vを算出する。

(7)
また、動作速度検出部226は、映像記憶部20に格納された現時刻のフレームの手本モデルの各関節iの3次元座標Eの各々と、前時刻のフレームの手本モデルの各関節iの3次元座標E’の各々とを読み出す。次に、動作速度検出部226は、現時刻のフレームの手本モデルの各関節iの3次元座標Eに基づき、現時刻のフレームの関節iの各々についての、特定の関節と隣接する一方の関節と、特定の関節と隣接する他方の関節との間の角度φiを算出する。次に、動作速度検出部226は、前時刻のフレームのユーザの各関節iの3次元座標Aに基づき、前時刻のフレームの関節iの各々についての、特定の関節と隣接する一方の関節と、特定の関節と隣接する他方の関節との間の角度φi’を算出する。そして、動作速度検出部226は、以下の式(8)に従って、手本モデルの動きの速度Vを算出する。

(8)
映像制御装置216は、例えば、図11に示すコンピュータ50で実現することができる。コンピュータ50はCPU51、一時記憶領域としてのメモリ52、及び不揮発性の記憶部53を備える。また、コンピュータ50は、カメラ12及び表示装置30が接続される入出力I/F54、並びに記録媒体59に対するデータの読み込み及び書き込みを制御するR/W部55を備える。また、コンピュータ50は、インターネット等のネットワークに接続されるネットワークI/F56を備える。CPU51、メモリ52、記憶部53、入出力I/F54、R/W部55、及びネットワークI/F56は、バス57を介して互いに接続される。
記憶部53は、HDD、SSD、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部53には、コンピュータ50を映像制御装置16として機能させるための映像制御プログラム260が記憶されている。映像制御プログラム260は、取得プロセス61と、動作検出プロセス262と、動作速度検出プロセス263と、表示制御プロセス64とを有する。情報記憶領域265には、映像記憶部20を構成する情報と、関節位置記憶部24を構成する情報と、第1学習済みモデル記憶部217を構成する情報と、第2学習済みモデル記憶部219を構成する情報とが記憶される。
CPU51は、映像制御プログラム260を記憶部53から読み出してメモリ52に展開し、映像制御プログラム260が有するプロセスを順次実行する。CPU51は、取得プロセス61を実行することで、図9に示す取得部18として動作する。また、CPU51は、動作検出プロセス262を実行することで、図9に示す動作検出部222として動作する。また、CPU51は、動作速度検出プロセス263を実行することで、図9に示す動作速度検出部226として動作する。また、CPU51は、表示制御プロセス64を実行することで、図9に示す表示制御部28として動作する。また、CPU51は、情報記憶領域65から情報を読み出して、映像記憶部20をメモリ52に展開する。また、CPU51は、情報記憶領域265から情報を読み出して、関節位置記憶部24をメモリ52に展開する。また、CPU51は、情報記憶領域265から情報を読み出して、第1学習済みモデル記憶部217をメモリ52に展開する。また、CPU51は、情報記憶領域265から情報を読み出して、第2学習済みモデル記憶部219をメモリ52に展開する。これにより、映像制御プログラム260を実行したコンピュータ50が、映像制御装置16として機能することになる。ソフトウェアである映像制御プログラム260を実行するCPU51はハードウェアである。
なお、映像制御プログラム260により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。
次に、第2の実施形態に係る映像制御装置216の作用について説明する。映像表示システム10のカメラ12によってユーザの撮像が開始されると、映像制御装置216は、図12に示す映像制御処理ルーチンを実行する。
ステップS100、ステップS104、ステップS110、ステップS116、及びステップS120〜ステップS126の処理は、第1の実施形態と同様に実行される。
ステップS202において、動作検出部222は、映像記憶部20に格納された、手本モデルの各関節iの位置を示す3次元座標Eを取得する。
ステップS208において、動作検出部222は、第1学習済みモデル記憶部217に格納された関節検出用学習済みモデルを読み出す。そして、動作検出部222は、ステップS104で取得されたユーザ映像と関節検出用学習済みモデルとに基づいて、ユーザ映像の各時刻のフレームを関節検出用学習済みモデルへ入力し、ユーザ映像に映るユーザの各関節iの位置を示す3次元座標Aを検出する。
ステップS212において、動作検出部222は、第2学習済みモデル記憶部219に格納された動作検出用学習済みモデルを読み出す。そして、動作検出部222は、上記ステップS208で得られたユーザの各関節iの3次元座標Aと動作検出用学習済みモデルとに基づいて、ユーザの各関節iの位置を示す3次元座標Aを動作検出用学習済みモデルへ入力し、ユーザの動きの開始点を検出する。
ステップS214において、動作検出部222は、上記ステップS212の検出結果に基づいて、ユーザの動きの開始点が検出されたか否かを判定する。ユーザの動きの開始点が検出された場合には、ステップS116へ進む。一方、ユーザの動きの開始点が検出されなかった場合は、ステップS104へ戻る。
ステップS218において、動作速度検出部226は、現時刻のフレームのユーザの各関節iの3次元座標Aに基づき、現時刻のフレームの関節iの各々についての角度θiを算出する。次に、動作速度検出部226は、前時刻のフレームの関節iの各々についての角度θi’を算出する。そして、動作速度検出部226は、角度θiと角度θi’とに基づいて、上記式(7)に従って、ユーザの動きの速度Vを算出する。
ステップS219において、動作速度検出部226は、映像記憶部20に格納された現時刻のフレームの手本モデルの各関節iの3次元座標Eの各々と、前時刻のフレームの手本モデルの各関節iの3次元座標E’の各々とを読み出す。次に、動作速度検出部226は、現時刻のフレームの手本モデルの各関節iの3次元座標Eに基づき、現時刻のフレームの関節iの各々についての角度φiを算出する。次に、動作速度検出部226は、前時刻のフレームのユーザの各関節iの3次元座標Aに基づき、前時刻のフレームの関節iの各々についての角度φi’を算出する。そして、動作速度検出部226は、角度φiと角度φi’とに基づき、上記式(8)に従って、手本モデルの動きの速度Vを算出する。
以上説明したように、第2の実施形態に係る映像制御装置は、ユーザ映像と、関節検出用学習済みモデルとに基づいて、ユーザ映像に映るユーザの関節の位置を検出する。また、映像制御装置は、ユーザの関節の位置と動作検出用学習済みモデルとに基づいて、ユーザの動きの開始点を検出する。そして、映像制御装置は、ユーザの動きの開始点とユーザの動きの速度とに応じて、手本映像の再生開始を制御する。これにより、距離センサを用いることなく、リアルタイムに撮像されるユーザ映像に対する手本映像を同期させて表示することができる。
<第3の実施形態>
次に、第3の実施形態について説明する。第3の実施形態では、ユーザに取り付けられた加速度センサによって検出された加速度に基づきユーザの動きの速度を検出し、ユーザ映像からユーザの動きの開始点を検出する点が第1又は第2の実施形態と異なる。なお、第3の実施形態について、第1又は第2の実施形態と同様の構成となる部分については、同一符号を付して説明を省略する。
図13に、第3の実施形態の映像表示システム310の機能的な構成例を示す。図13に示されるように、第3の実施形態に係る映像表示システム310は、カメラ12と、加速度センサ315と、映像制御装置216と、表示装置30とを備えている。
加速度センサ315は、ユーザに取り付けられる。例えば、加速度センサ315は、ユーザの所定の関節へ設置される。そして、加速度センサ315は、ユーザの動きに応じた加速度を逐次検出する。
映像制御装置316は、図13に示されるように、取得部18と、映像記憶部20と、動作検出部322と、第1学習済みモデル記憶部317とを備えている。また、映像制御装置316は、第2学習済みモデル記憶部319と、動作速度検出部326と、表示制御部328とを備えている。
第1学習済みモデル記憶部317には、カメラ12によって撮像されたユーザ映像から、ユーザの領域を表す人物領域を検出するための人物検出用学習済みモデルが格納される。人物検出用学習済みモデルは、学習用のユーザが映る学習用ユーザ映像及び学習用のユーザの人物領域から予め学習される。
第2学習済みモデル記憶部319には、人物領域から、ユーザの動きの開始点を検出するための動作検出用学習済みモデルが格納される。動作検出用学習済みモデルは、学習用のユーザが映る人物領域及び学習用のユーザの動きの開始点から予め学習される。
動作検出部322は、取得部18によって逐次取得されたユーザ映像を逐次取得する。次に、動作検出部322は、第1学習済みモデル記憶部317に格納された人物検出用学習済みモデルを読み出す。動作検出部322は、ユーザ映像と人物検出用学習済みモデルとに基づいて、ユーザ映像の各時刻のフレームを人物検出用学習済みモデルへ入力し、ユーザ映像に映るユーザの人物領域を検出する。
また、動作検出部322は、第2学習済みモデル記憶部319に格納された動作検出用学習済みモデルを読み出す。次に、動作検出部322は、人物検出用学習済みモデルによって得られたユーザの人物領域と動作検出用学習済みモデルとに基づいて、ユーザの人物領域を動作検出用学習済みモデルへ入力し、ユーザの動きの開始点を検出する。
動作速度検出部326は、加速度センサ315によって逐次検出されたユーザの加速度を取得する。そして、動作速度検出部326は、ユーザの加速度に基づいて、ユーザの動きの速度Vを算出する。
表示制御部328は、動作検出部322によって検出されたユーザの人物領域と、映像記憶部17に格納された手本モデルとが一致するように、手本モデルが映る手本映像を平行移動させて、ユーザ映像に対して手本映像を重畳表示する。
映像制御装置316は、例えば、図14に示すコンピュータ50で実現することができる。コンピュータ50はCPU51、一時記憶領域としてのメモリ52、及び不揮発性の記憶部53を備える。また、コンピュータ50は、カメラ12、加速度センサ315、及び表示装置30が接続される入出力I/F54、並びに記録媒体59に対するデータの読み込み及び書き込みを制御するR/W部55を備える。また、コンピュータ50は、インターネット等のネットワークに接続されるネットワークI/F56を備える。CPU51、メモリ52、記憶部53、入出力I/F54、R/W部55、及びネットワークI/F56は、バス57を介して互いに接続される。
記憶部53は、HDD、SSD、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部53には、コンピュータ50を映像制御装置316として機能させるための映像制御プログラム360が記憶されている。映像制御プログラム360は、取得プロセス61と、動作検出プロセス362と、動作速度検出プロセス363と、表示制御プロセス64とを有する。情報記憶領域365には、映像記憶部20を構成する情報と、関節位置記憶部24を構成する情報と、第1学習済みモデル記憶部317を構成する情報と、第2学習済みモデル記憶部319を構成する情報とが記憶される。
CPU51は、映像制御プログラム360を記憶部53から読み出してメモリ52に展開し、映像制御プログラム360が有するプロセスを順次実行する。CPU51は、取得プロセス61を実行することで、図13に示す取得部18として動作する。また、CPU51は、動作検出プロセス362を実行することで、図13に示す動作検出部322として動作する。また、CPU51は、動作速度検出プロセス363を実行することで、図13に示す動作速度検出部326として動作する。また、CPU51は、表示制御プロセス64を実行することで、図13に示す表示制御部28として動作する。また、CPU51は、情報記憶領域365から情報を読み出して、映像記憶部20をメモリ52に展開する。また、CPU51は、情報記憶領域365から情報を読み出して、第1学習済みモデル記憶部317をメモリ52に展開する。また、CPU51は、情報記憶領域365から情報を読み出して、第2学習済みモデル記憶部319をメモリ52に展開する。これにより、映像制御プログラム360を実行したコンピュータ50が、映像制御装置316として機能することになる。ソフトウェアである映像制御プログラム360を実行するCPU51はハードウェアである。
なお、映像制御プログラム360により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。
次に、第3の実施形態に係る映像制御装置316の作用について説明する。映像表示システム10のカメラ12によってユーザの撮像が開始されると、映像制御装置316は、図15に示す映像制御処理ルーチンを実行する。
ステップS100、ステップS104、ステップS110、ステップS116、ステップS120、及びステップS126の処理は、第1の実施形態と同様に実行される。また、ステップS214及びステップS219の処理は、第2の実施形態と同様に実行される。
ステップS308において、動作検出部322は、第1学習済みモデル記憶部317に格納された人物検出用学習済みモデルを読み出す。そして、動作検出部322は、ステップS104で取得されたユーザ映像のフレームを人物検出用学習済みモデルへ入力し、ユーザ映像に映るユーザの人物領域を検出する。
ステップS312において、動作検出部322は、第2学習済みモデル記憶部319に格納された動作検出用学習済みモデルを読み出す。そして、動作検出部322は、上記ステップS308で得られたユーザの人物領域を動作検出用学習済みモデルへ入力し、ユーザの動きの開始点を検出する。
ステップS318において、動作速度検出部326は、加速度センサ315によって逐次検出されたユーザの加速度を取得する。そして、動作速度検出部326は、ユーザの加速度に基づいて、ユーザの動きの速度Vを検出する。
ステップS324において、表示制御部328は、上記ステップS308で検出されたユーザの人物領域と、映像記憶部17に格納された手本モデルとが一致するように、手本モデルが映る手本映像を平行移動させる。
以上説明したように、第3の実施形態に係る映像制御装置は、ユーザに取り付けられた加速度センサによって検出された加速度に基づいて、ユーザの動きの速度を検出する。また、映像制御装置は、ユーザ映像からユーザの領域を表す人物領域を検出し、人物領域と動作検出用学習済みモデルとに基づいて、ユーザの動きの開始点を検出する。そして、映像制御装置は、ユーザの動きの開始点とユーザの動きの速度とに応じて、手本映像の再生開始を制御する。これにより、ユーザの関節の位置を検出することなく、リアルタイムに撮像されるユーザ映像に対する手本映像を同期させて表示することができる。
なお、上記では、各プログラムが記憶部に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD−ROM、DVD−ROM、USBメモリ等の記録媒体に記録された形態で提供することも可能である。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
次に、各実施形態の変形例を説明する。
上記各実施形態では、ユーザの動きの開始点を検出し、開始点に応じて手本映像の再生を開始し、手本映像の再生開始後のユーザの動きの速度に応じて手本映像の再生速度を制御する場合を例に説明したが、これに限定されるものではない。例えば、ユーザの動きの速度がマイナス方向の場合、手本映像に映る手本モデルの動きを巻き戻して表示するようにしてもよい。
また、上記各実施形態では、ユーザ映像に対して手本映像を重畳表示させる場合を例に説明したが、これに限定されるものではない。例えば、ユーザ映像と手本映像とを並べて表示させるようにしてもよい。これにより、ユーザは、ユーザ映像と手本映像とを見比べることにより、手本の動きを効果的に習得することができる。
また、上記各実施形態では、手本映像が1種類である場合を例に説明したが、これに限定されるものではない。例えば、手本映像が複数種類存在する場合、動作検出部22は、ユーザの動きの開始点を検出する際に、ユーザの動きの開始点と最も類似する手本モデルが映る手本映像を選択するようにしてもよい。例えば、ユーザの動きの開始点と手本モデルとが類似するか否かについては、予め定めた閾値を用いて判定するようにしてもよい。
また、映像制御装置を外部サーバとしてもよい。この場合には、各センサによって得られたセンサ情報が通信手段を介して映像制御装置へ送信される。映像制御装置は、センサ情報に応じて制御信号を生成し、通信手段を介して表示装置へ制御信号を送信する。
以上の各実施形態に関し、更に以下の付記を開示する。
(付記1)
ユーザが映るユーザ映像を逐次取得し、
逐次取得された前記ユーザ映像に映る前記ユーザの動きを逐次検出し、
逐次検出された前記ユーザの動きに応じて、動きの手本を表す手本映像の再生開始及び再生速度を制御し、
前記制御された前記手本映像と、前記ユーザ映像とが表示装置に表示されるように制御する、
処理をコンピュータが実行する映像制御方法。
(付記2)
前記ユーザ映像に対して、前記制御された前記手本映像が重畳表示されるように前記表示装置を制御する、
付記1に記載の映像制御方法。
(付記3)
前記手本映像には、前記動きの手本を表す手本モデルが映っており、
距離センサによって検出された前記ユーザの関節の位置と、前記手本映像に映る前記手本モデルの関節の位置との間の距離が、予め定められた閾値以下である場合に、前記ユーザの動きの開始点を検出し、
前記ユーザの動きの開始点に応じて、前記手本映像の再生開始を制御する、
付記1又は付記2に記載の映像制御方法。
(付記4)
前記手本映像には、前記動きの手本を表す手本モデルが映っており、
前記ユーザ映像と、学習用のユーザが映る学習用ユーザ映像及び前記学習用のユーザの関節の位置とから予め学習された関節検出用学習済みモデルとに基づいて、前記ユーザ映像に映る前記ユーザの関節の位置を検出し、
前記ユーザ映像に映る前記ユーザの関節の位置と、前記学習用ユーザ映像に映る前記学習用のユーザの関節の位置及び前記学習用のユーザの動きの開始点から予め学習された動き検出用学習済みモデルとに基づいて、前記ユーザの動きの開始点を検出し、
前記ユーザの動きの開始点に応じて、前記手本映像の再生開始を制御する、
付記1又は付記2に記載の映像制御方法。
(付記5)
前記ユーザ映像から、前記ユーザの領域を表す人物領域を検出し、
前記人物領域と、学習用のユーザが映る前記人物領域及び前記学習用のユーザの動きの開始点から予め学習された動き検出用学習済みモデルとに基づいて、前記ユーザの動きの開始点を検出し、
前記ユーザの動きの開始点に応じて、前記手本映像の再生開始を制御する、
付記1又は付記2に記載の映像制御方法。
(付記6)
現フレームの前記ユーザの関節の位置と、前フレームの前記ユーザの関節の位置との間の差に基づいて、前記ユーザの動きの速度を検出し、
前記ユーザの動きの速度に応じて、前記手本映像の再生速度を制御する、
付記3又は付記4に記載の映像制御方法。
(付記7)
現フレームの前記ユーザの関節の各々の間の角度と、前フレームの前記ユーザの関節の各々の間の角度との間の差に基づいて、前記ユーザの動きの速度を検出し、
前記ユーザの動きの速度に応じて、前記手本映像の再生速度を制御する、
付記3又は付記4に記載の映像制御方法。
(付記8)
前記ユーザに取り付けられた加速度センサによって検出された加速度に基づいて、前記ユーザの動きの速度を検出し、
前記ユーザの動きの速度に応じて、前記手本映像の再生速度を制御する、
付記3又は付記4に記載の映像制御方法。
(付記9)
前記ユーザ映像に映る前記ユーザの大きさと、前記手本映像に映る動きの手本を表す手本モデルとの大きさとが対応するように、前記手本映像を拡大又は縮小し、
前記ユーザ映像に映る前記ユーザの位置と前記手本モデルの位置とが対応するように、前記手本映像の表示位置を制御する、
付記3〜付記8の何れか1項に記載の映像制御方法。
(付記10)
ユーザが映るユーザ映像を逐次取得する取得部と、
逐次取得された前記ユーザ映像に映る前記ユーザの動きを逐次検出する検出部と、
逐次検出された前記ユーザの動きに応じて、動きの手本を表す手本映像の再生開始及び再生速度を制御し、前記制御された前記手本映像と、前記ユーザ映像とが表示装置に表示されるように制御する表示制御部、
を含む映像制御装置。
(付記11)
前記ユーザ映像に対して、前記制御された前記手本映像が重畳表示されるように前記表示装置を制御する、
付記10に記載の映像制御装置。
(付記12)
前記手本映像には、前記動きの手本を表す手本モデルが映っており、
距離センサによって検出された前記ユーザの関節の位置と、前記手本映像に映る前記手本モデルの関節の位置との間の距離が、予め定められた閾値以下である場合に、前記ユーザの動きの開始点を検出し、
前記ユーザの動きの開始点に応じて、前記手本映像の再生開始を制御する、
付記10又は付記11に記載の映像制御装置。
(付記13)
前記手本映像には、前記動きの手本を表す手本モデルが映っており、
前記ユーザ映像と、学習用のユーザが映る学習用ユーザ映像及び前記学習用のユーザの関節の位置とから予め学習された関節検出用学習済みモデルとに基づいて、前記ユーザ映像に映る前記ユーザの関節の位置を検出し、
前記ユーザ映像に映る前記ユーザの関節の位置と、前記学習用ユーザ映像に映る前記学習用のユーザの関節の位置及び前記学習用のユーザの動きの開始点から予め学習された動き検出用学習済みモデルとに基づいて、前記ユーザの動きの開始点を検出し、
前記ユーザの動きの開始点に応じて、前記手本映像の再生開始を制御する、
付記10又は付記11に記載の映像制御装置。
(付記14)
前記ユーザ映像から、前記ユーザの領域を表す人物領域を検出し、
前記人物領域と、学習用のユーザが映る前記人物領域及び前記学習用のユーザの動きの開始点から予め学習された動き検出用学習済みモデルとに基づいて、前記ユーザの動きの開始点を検出し、
前記ユーザの動きの開始点に応じて、前記手本映像の再生開始を制御する、
付記10又は付記11に記載の映像制御装置。
(付記15)
現フレームの前記ユーザの関節の位置と、前フレームの前記ユーザの関節の位置との間の差に基づいて、前記ユーザの動きの速度を検出し、
前記ユーザの動きの速度に応じて、前記手本映像の再生速度を制御する、
付記12又は付記13に記載の映像制御装置。
(付記16)
ユーザが映るユーザ映像を逐次取得し、
逐次取得された前記ユーザ映像に映る前記ユーザの動きを逐次検出し、
逐次検出された前記ユーザの動きに応じて、動きの手本を表す手本映像の再生開始及び再生速度を制御し、
前記制御された前記手本映像と、前記ユーザ映像とが表示装置に表示されるように制御する、
処理をコンピュータに実行させるための映像制御プログラム。
(付記17)
前記ユーザ映像に対して、前記制御された前記手本映像が重畳表示されるように前記表示装置を制御する、
付記16に記載の映像制御プログラム。
(付記18)
前記手本映像には、前記動きの手本を表す手本モデルが映っており、
距離センサによって検出された前記ユーザの関節の位置と、前記手本映像に映る前記手本モデルの関節の位置との間の距離が、予め定められた閾値以下である場合に、前記ユーザの動きの開始点を検出し、
前記ユーザの動きの開始点に応じて、前記手本映像の再生開始を制御する、
付記16又は付記17に記載の映像制御プログラム。
(付記19)
前記手本映像には、前記動きの手本を表す手本モデルが映っており、
前記ユーザ映像と、学習用のユーザが映る学習用ユーザ映像及び前記学習用のユーザの関節の位置とから予め学習された関節検出用学習済みモデルとに基づいて、前記ユーザ映像に映る前記ユーザの関節の位置を検出し、
前記ユーザ映像に映る前記ユーザの関節の位置と、前記学習用ユーザ映像に映る前記学習用のユーザの関節の位置及び前記学習用のユーザの動きの開始点から予め学習された動き検出用学習済みモデルとに基づいて、前記ユーザの動きの開始点を検出し、
前記ユーザの動きの開始点に応じて、前記手本映像の再生開始を制御する、
付記16又は付記17に記載の映像制御プログラム。
(付記20)
ユーザが映るユーザ映像を逐次取得し、
逐次取得された前記ユーザ映像に映る前記ユーザの動きを逐次検出し、
逐次検出された前記ユーザの動きに応じて、動きの手本を表す手本映像の再生開始及び再生速度を制御し、
前記制御された前記手本映像と、前記ユーザ映像とが表示装置に表示されるように制御する、
処理をコンピュータに実行させるための映像制御プログラムを記憶した記憶媒体。
10,210,310 映像表示システム
12 カメラ
14 距離センサ
16,216,316 映像制御装置
17 映像記憶部
18 取得部
20 映像記憶部
22,222,322 動作検出部
24 関節位置記憶部
26,226,326 動作速度検出部
28,328 表示制御部
30 表示装置
217,317 第1学習済みモデル記憶部
219,319 第2学習済みモデル記憶部
315 加速度センサ
50 コンピュータ
51 CPU
52 メモリ
53 記憶部
59 記録媒体
60,260,360 映像制御プログラム

Claims (11)

  1. ユーザが映るユーザ映像を逐次取得し、
    逐次取得された前記ユーザ映像に映る前記ユーザの動きを逐次検出し、
    逐次検出された前記ユーザの動きに応じて、動きの手本を表す手本映像の再生開始及び再生速度を制御し、
    前記制御された前記手本映像と、前記ユーザ映像とが表示装置に表示されるように制御する、
    処理をコンピュータが実行する映像制御方法。
  2. 前記ユーザ映像に対して、前記制御された前記手本映像が重畳表示されるように前記表示装置を制御する、
    請求項1に記載の映像制御方法。
  3. 前記手本映像には、前記動きの手本を表す手本モデルが映っており、
    距離センサによって検出された前記ユーザの関節の位置と、前記手本映像に映る前記手本モデルの関節の位置との間の距離が、予め定められた閾値以下である場合に、前記ユーザの動きの開始点を検出し、
    前記ユーザの動きの開始点に応じて、前記手本映像の再生開始を制御する、
    請求項1又は請求項2に記載の映像制御方法。
  4. 前記手本映像には、前記動きの手本を表す手本モデルが映っており、
    前記ユーザ映像と、学習用のユーザが映る学習用ユーザ映像及び前記学習用のユーザの関節の位置とから予め学習された関節検出用学習済みモデルとに基づいて、前記ユーザ映像に映る前記ユーザの関節の位置を検出し、
    前記ユーザ映像に映る前記ユーザの関節の位置と、前記学習用ユーザ映像に映る前記学習用のユーザの関節の位置及び前記学習用のユーザの動きの開始点から予め学習された動き検出用学習済みモデルとに基づいて、前記ユーザの動きの開始点を検出し、
    前記ユーザの動きの開始点に応じて、前記手本映像の再生開始を制御する、
    請求項1又は請求項2に記載の映像制御方法。
  5. 前記ユーザ映像から、前記ユーザの領域を表す人物領域を検出し、
    前記人物領域と、学習用のユーザが映る前記人物領域及び前記学習用のユーザの動きの開始点から予め学習された動き検出用学習済みモデルとに基づいて、前記ユーザの動きの開始点を検出し、
    前記ユーザの動きの開始点に応じて、前記手本映像の再生開始を制御する、
    請求項1又は請求項2に記載の映像制御方法。
  6. 現フレームの前記ユーザの関節の位置と、前フレームの前記ユーザの関節の位置との間の差に基づいて、前記ユーザの動きの速度を検出し、
    前記ユーザの動きの速度に応じて、前記手本映像の再生速度を制御する、
    請求項3又は請求項4に記載の映像制御方法。
  7. 現フレームの前記ユーザの関節の各々の間の角度と、前フレームの前記ユーザの関節の各々の間の角度との間の差に基づいて、前記ユーザの動きの速度を検出し、
    前記ユーザの動きの速度に応じて、前記手本映像の再生速度を制御する、
    請求項3又は請求項4に記載の映像制御方法。
  8. 前記ユーザに取り付けられた加速度センサによって検出された加速度に基づいて、前記ユーザの動きの速度を検出し、
    前記ユーザの動きの速度に応じて、前記手本映像の再生速度を制御する、
    請求項3又は請求項4に記載の映像制御方法。
  9. 前記ユーザ映像に映る前記ユーザの大きさと、前記手本映像に映る動きの手本を表す手本モデルとの大きさとが対応するように、前記手本映像を拡大又は縮小し、
    前記ユーザ映像に映る前記ユーザの位置と前記手本モデルの位置とが対応するように、前記手本映像の表示位置を制御する、
    請求項3〜請求項8の何れか1項に記載の映像制御方法。
  10. ユーザが映るユーザ映像を逐次取得する取得部と、
    逐次取得された前記ユーザ映像に映る前記ユーザの動きを逐次検出する検出部と、
    逐次検出された前記ユーザの動きに応じて、動きの手本を表す手本映像の再生開始及び再生速度を制御し、前記制御された前記手本映像と、前記ユーザ映像とが表示装置に表示されるように制御する表示制御部、
    を含む映像制御装置。
  11. ユーザが映るユーザ映像を逐次取得し、
    逐次取得された前記ユーザ映像に映る前記ユーザの動きを逐次検出し、
    逐次検出された前記ユーザの動きに応じて、動きの手本を表す手本映像の再生開始及び再生速度を制御し、
    前記制御された前記手本映像と、前記ユーザ映像とが表示装置に表示されるように制御する、
    処理をコンピュータに実行させるための映像制御プログラム。
JP2017129474A 2017-06-30 2017-06-30 映像制御方法、映像制御装置、及び映像制御プログラム Pending JP2019012965A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017129474A JP2019012965A (ja) 2017-06-30 2017-06-30 映像制御方法、映像制御装置、及び映像制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017129474A JP2019012965A (ja) 2017-06-30 2017-06-30 映像制御方法、映像制御装置、及び映像制御プログラム

Publications (1)

Publication Number Publication Date
JP2019012965A true JP2019012965A (ja) 2019-01-24

Family

ID=65227389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017129474A Pending JP2019012965A (ja) 2017-06-30 2017-06-30 映像制御方法、映像制御装置、及び映像制御プログラム

Country Status (1)

Country Link
JP (1) JP2019012965A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111523517A (zh) * 2020-05-26 2020-08-11 北京奇艺世纪科技有限公司 动作评分方法、装置、电子设备及可读存储介质
WO2020179128A1 (ja) * 2019-03-06 2020-09-10 株式会社日立製作所 学習支援システム、学習支援装置及びプログラム
JP6780131B1 (ja) * 2019-05-31 2020-11-04 日本電信電話株式会社 身体運動フィードバック装置、身体運動フィードバック方法、プログラム
JP2021026527A (ja) * 2019-08-06 2021-02-22 株式会社エクサウィザーズ 情報処理装置及びプログラム
JP2021142345A (ja) * 2019-05-31 2021-09-24 イマクリエイト株式会社 身体活動支援システム、方法、及び、プログラム
US11273342B2 (en) 2019-10-22 2022-03-15 International Business Machines Corporation Viewer feedback based motion video playback
JP2022533911A (ja) * 2020-04-28 2022-07-27 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド マルチメディアインタラクティブ方法、装置、機器及び記憶媒体
JP2022536439A (ja) * 2020-06-01 2022-08-17 深▲せん▼華鵲景医療科技有限公司 上肢機能評価装置と方法及び上肢リハビリトレーニングシステムと方法
WO2023242981A1 (ja) * 2022-06-15 2023-12-21 マクセル株式会社 ヘッドマウントディスプレイ、ヘッドマウントディスプレイシステム、および、ヘッドマウントディスプレイの表示方法
JP7486860B1 (ja) 2023-08-04 2024-05-20 株式会社計数技研 映像合成装置、映像合成方法、及びプログラム
JP7523765B2 (ja) 2020-04-22 2024-07-29 株式会社ジョリーグッド 練習支援装置、練習支援方法、プログラム及び練習支援システム

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7116696B2 (ja) 2019-03-06 2022-08-10 株式会社日立製作所 学習支援システム及びプログラム
WO2020179128A1 (ja) * 2019-03-06 2020-09-10 株式会社日立製作所 学習支援システム、学習支援装置及びプログラム
JP2020144233A (ja) * 2019-03-06 2020-09-10 株式会社日立製作所 学習支援システム、学習支援装置及びプログラム
JP7054276B2 (ja) 2019-05-31 2022-04-13 イマクリエイト株式会社 身体活動支援システム、方法、及び、プログラム
JP6780131B1 (ja) * 2019-05-31 2020-11-04 日本電信電話株式会社 身体運動フィードバック装置、身体運動フィードバック方法、プログラム
JP2021142345A (ja) * 2019-05-31 2021-09-24 イマクリエイト株式会社 身体活動支援システム、方法、及び、プログラム
WO2020240821A1 (ja) * 2019-05-31 2020-12-03 日本電信電話株式会社 身体運動フィードバック装置、身体運動フィードバック方法、プログラム
JP2021026527A (ja) * 2019-08-06 2021-02-22 株式会社エクサウィザーズ 情報処理装置及びプログラム
US11273342B2 (en) 2019-10-22 2022-03-15 International Business Machines Corporation Viewer feedback based motion video playback
JP7523765B2 (ja) 2020-04-22 2024-07-29 株式会社ジョリーグッド 練習支援装置、練習支援方法、プログラム及び練習支援システム
JP2022533911A (ja) * 2020-04-28 2022-07-27 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド マルチメディアインタラクティブ方法、装置、機器及び記憶媒体
CN111523517A (zh) * 2020-05-26 2020-08-11 北京奇艺世纪科技有限公司 动作评分方法、装置、电子设备及可读存储介质
CN111523517B (zh) * 2020-05-26 2023-08-04 北京奇艺世纪科技有限公司 动作评分方法、装置、电子设备及可读存储介质
JP2022536439A (ja) * 2020-06-01 2022-08-17 深▲せん▼華鵲景医療科技有限公司 上肢機能評価装置と方法及び上肢リハビリトレーニングシステムと方法
JP7382415B2 (ja) 2020-06-01 2023-11-16 深▲せん▼華鵲景医療科技有限公司 上肢機能評価装置と方法及び上肢リハビリトレーニングシステムと方法
WO2023242981A1 (ja) * 2022-06-15 2023-12-21 マクセル株式会社 ヘッドマウントディスプレイ、ヘッドマウントディスプレイシステム、および、ヘッドマウントディスプレイの表示方法
JP7486860B1 (ja) 2023-08-04 2024-05-20 株式会社計数技研 映像合成装置、映像合成方法、及びプログラム

Similar Documents

Publication Publication Date Title
JP2019012965A (ja) 映像制御方法、映像制御装置、及び映像制御プログラム
JP2020511718A (ja) 拡張現実データを記録するための手法
TWI520576B (zh) 將二維影像轉換爲三維影像的方法與系統及電腦可讀媒體
KR20160096473A (ko) 동작 평가 시스템 및 방법
JP2012253483A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2012252437A (ja) 画像処理装置、画像処理方法、およびプログラム
EP3528024B1 (en) Information processing device, information processing method, and program
KR20110065388A (ko) 의료 훈련 시뮬레이션 시스템 및 방법
EP4141844A1 (en) Surgical skill training system and machine learning-based surgical guide system using three-dimensional imaging
JP2015181314A (ja) 画像処理装置、画像処理方法、およびプログラム
JP6723720B2 (ja) 表示システム、情報処理方法及びプログラム
CN112237735A (zh) 记录介质、物体检测装置、物体检测方法及物体检测系统
US10582190B2 (en) Virtual training system
JP6949475B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2009087161A (ja) 画像処理装置、画像処理方法
JP2009048237A (ja) 画像処理装置、画像処理方法
JP7318814B2 (ja) データ生成方法、データ生成プログラムおよび情報処理装置
RU2011109181A (ru) Ультразвуковая визуализация
JP2002032788A (ja) 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体
US20230410499A1 (en) Visibility metrics in multi-view medical activity recognition systems and methods
JP2004233201A (ja) 位置姿勢計測方法
JP6975347B2 (ja) トラッカーのキャリブレーション装置、トラッカーのキャリブレーション方法及びプログラム
JP2010224207A (ja) 視覚刺激付与装置、及び生体情報計測システム
KR20230112636A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
US20210390750A1 (en) Skeleton model update apparatus, skeleton model update method, and program