JP7486860B1 - 映像合成装置、映像合成方法、及びプログラム - Google Patents

映像合成装置、映像合成方法、及びプログラム Download PDF

Info

Publication number
JP7486860B1
JP7486860B1 JP2023127489A JP2023127489A JP7486860B1 JP 7486860 B1 JP7486860 B1 JP 7486860B1 JP 2023127489 A JP2023127489 A JP 2023127489A JP 2023127489 A JP2023127489 A JP 2023127489A JP 7486860 B1 JP7486860 B1 JP 7486860B1
Authority
JP
Japan
Prior art keywords
image
guide
target
self
imitated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023127489A
Other languages
English (en)
Inventor
直広 早石
英由樹 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KEISUUGIKEN CORPORATION
Original Assignee
KEISUUGIKEN CORPORATION
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KEISUUGIKEN CORPORATION filed Critical KEISUUGIKEN CORPORATION
Priority to JP2023127489A priority Critical patent/JP7486860B1/ja
Application granted granted Critical
Publication of JP7486860B1 publication Critical patent/JP7486860B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】ユーザが動作させる動作対象を、参照映像に含まれる模倣対象に追従させるための支援を行うことができる映像合成装置を提供する。【解決手段】映像合成装置1は、ユーザが動作を模倣する対象である模倣対象の動作の映像である参照映像が記憶される記憶部11と、ユーザが動作させる対象である動作対象の動作の映像である自己映像を取得する映像取得部12と、参照映像と自己映像とを合成した合成映像を生成する合成部13と、参照映像に含まれる模倣対象、及び自己映像に含まれる動作対象に基づいて、動作対象を模倣対象に追従させるためのガイドを生成するガイド生成部14と、合成映像とガイドとを出力する出力部15とを備える。【選択図】図1

Description

本発明は、模倣対象の映像である参照映像と、ユーザによって動作される動作対象の映像である自己映像とを合成して出力する映像合成装置等に関する。
従来、手術などの動きの学習のために、学習者が模倣する対象となる模倣対象の動作の映像である参照映像と、学習者の動作の映像である自己映像とを表示する学習支援装置が知られている(例えば、特許文献1参照)。このような表示を参照することにより、学習者は、模倣対象の動作と同じ動作を行うためのトレーニングを行うことができる。
特開2014-071443号公報
しかしながら、学習者が初心者である場合には、自分が動作させている動作対象を、参照映像に含まれる模倣対象の動作に適切に追従させることができず、学習の効果が低下することがあり得る。
本発明は、上記課題を解決するためになされたものであり、ユーザが動作させる動作対象を、参照映像に含まれる模倣対象に追従させるための支援を行うことができる映像合成装置等を提供することを目的とする。
上記目的を達成するため、本発明の一態様による映像合成装置は、ユーザが動作を模倣する対象である模倣対象の動作の映像である参照映像が記憶される記憶部と、ユーザが動作させる対象である動作対象の動作の映像である自己映像を取得する映像取得部と、参照映像と自己映像とを合成した合成映像を生成する合成部と、参照映像に含まれる模倣対象、及び自己映像に含まれる動作対象に基づいて、動作対象を模倣対象に追従させるためのガイドを生成するガイド生成部と、合成映像とガイドとを出力する出力部と、を備えたものである。
このような構成により、動作対象を模倣対象に追従させるためのガイドを出力することによって、ユーザが動作させる動作対象を、参照映像に含まれる模倣対象に追従させるための支援を行うことができる。ユーザは、そのガイドを参考にすることによって、より容易に動作対象を模倣対象に追従させることができ、学習の効果を高めることができる。
また、本発明の一態様による映像合成装置では、ガイド生成部は、参照映像における模倣対象の大きさと、自己映像における動作対象の大きさとの関係に応じて、ユーザを基準とした前後方向における追従方向を示すガイドを生成してもよい。
このような構成により、ユーザは、ガイドを参考にすることによって、ユーザを基準とした前後方向について、動作対象を模倣対象に追従させることができるようになる。
また、本発明の一態様による映像合成装置では、ガイド生成部は、参照映像における模倣対象の代表位置と、自己映像における動作対象の代表位置との位置関係に応じて、ユーザを基準とした上下方向及び左右方向における追従方向を示すガイドを生成してもよい。
このような構成により、ユーザは、ガイドを参考にすることによって、ユーザを基準とした上下方向及び左右方向について、動作対象を模倣対象に追従させることができるようになる。
また、本発明の一態様による映像合成装置では、ガイド生成部は、参照映像における模倣対象の複数の特徴点を用いて、模倣対象と参照映像を撮影したカメラとの第1の相対的な位置関係を取得し、自己映像における動作対象の複数の特徴点を用いて、動作対象と自己映像を撮影したカメラとの第2の相対的な位置関係を取得し、第1及び第2の相対的な位置関係を用いて、模倣対象と動作対象との第3の相対的な位置関係を取得し、第3の相対的な位置関係を用いてガイドを生成してもよい。
このような構成により、より正確なガイドを生成することができるようになる。
また、本発明の一態様による映像合成装置では、模倣対象及び動作対象は、形状が変化するものであり、ガイド生成部は、参照映像に含まれる模倣対象の形状と、自己映像に含まれる動作対象の形状とを用いて、動作対象の形状を模倣対象の形状に追従させるためのガイドを生成してもよい。
このような構成により、ユーザは、ガイドを参考にすることによって、動作対象の形状を模倣対象の形状に追従させることができるようになる。
また、本発明の一態様による映像合成装置では、ガイド生成部は、ガイドであるガイド図形を生成し、合成部は、ガイド図形を含む合成映像を生成し、出力部は、ガイド図形を含む合成映像を出力してもよい。
このような構成により、ユーザは、合成映像に含まれるガイド図形を参照することによって、動作対象を模倣対象に追従させることができるようになる。
また、本発明の一態様による映像合成方法は、ユーザが動作を模倣する対象である模倣対象の動作の映像である参照映像が記憶される記憶部と、映像取得部と、合成部と、ガイド生成部と、出力部とを用いて処理される映像合成方法であって、映像取得部が、ユーザが動作させる対象である動作対象の動作の映像である自己映像を取得するステップと、合成部が、参照映像と自己映像とを合成した合成映像を生成するステップと、ガイド生成部が、参照映像に含まれる模倣対象、及び自己映像に含まれる動作対象に基づいて、動作対象を模倣対象に追従させるためのガイドを生成するステップと、出力部が、合成映像とガイドとを出力するステップと、を備えたものである。
本発明の一態様による映像合成装置等によれば、ユーザが動作させる動作対象を、参照映像に含まれる模倣対象に追従させるための支援を行うことができる。
本発明の実施の形態による映像合成装置の構成を示すブロック図 同実施の形態による映像合成装置の使用状況の一例を示す図 同実施の形態における参照映像の一例を示す図 同実施の形態における自己映像の一例を示す図 同実施の形態におけるガイド図形を含む合成映像の一例を示す図 同実施の形態におけるガイド図形を含む合成映像の一例を示す図 同実施の形態における自己映像の一例を示す図 同実施の形態における参照映像の一例を示す図 同実施の形態による映像合成装置の動作を示すフローチャート 同実施の形態におけるコンピュータの構成の一例を示す図
以下、本発明による映像合成装置、及び映像合成方法について、実施の形態を用いて説明する。なお、以下の実施の形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。本実施の形態による映像合成装置は、ユーザが動作させる動作対象を、参照映像に含まれる模倣対象に追従させるためのガイドを生成するものである。
図1は、本実施の形態による映像合成装置1の構成を示すブロック図である。図2は、学習者であるユーザ30が、映像合成装置1を用いて模倣対象の動作を学習している状況を示す図である。本実施の形態による映像合成装置1は、記憶部11と、映像取得部12と、合成部13と、ガイド生成部14と、出力部15とを備える。なお、映像合成装置1は、一例として、後述する図10で示されるようにコンピュータ900によって実現されてもよく、専用のハードウェアによって実現されてもよい。本実施の形態では、前者の場合について主に説明する。なお、図2で示されるように、表示デバイス902を正視しているユーザ30を基準とした前後方向、上下方向、左右方向を、以下の説明においてそれぞれ前後方向、上下方向、左右方向とすることがある。
記憶部11では、ユーザ30が動作を模倣する対象である模倣対象の動作の映像である参照映像が記憶される。ユーザ30は、参照映像を参照しながら動作を学習する学習者である。ユーザ30が学習する動作は、例えば、手術などの動作であってもよく、工場における作業の動作であってもよく、介護やホテルなどにおける業務の動作であってもよく、料理などの動作であってもよく、工芸品等の作品の作成のための動作であってもよく、スポーツなどの動作であってもよく、習字などの動作であってもよく、ロープ結びの動作であってもよく、その他の動作であってもよい。模倣対象は、例えば、被模倣者の身体の一部であってもよく、被模倣者によって動作される対象物であってもよい。被模倣者は、例えば、学習者であるユーザ30の先生役であり、学習者が学習する対象となる動作に熟練している者であってもよい。また、被模倣者の身体の一部は、例えば、被模倣者の手を含んでいてもよい。また、被模倣者によって動作される対象物は、例えば、被模倣者が有している鉗子やメス、ピンセット、ハサミ、筆などの道具であってもよい。また、参照映像は、例えば、鉗子等の模倣対象が手術ロボットによって操作されている状況の映像であってもよい。参照映像は、通常、カメラによって撮影された映像であるが、カメラによって撮影された映像に相当するCG(Computer Graphics)映像であってもよい。
参照映像は、一例として、模倣対象を動作させる被模倣者の視点からの映像、すなわち被模倣者の一人称視点の映像であってもよい。この場合には、参照映像は、一例として、被模倣者の頭部付近に配置されたカメラで撮影された映像であってもよい。そのカメラは、一例として、ヘッドマウントカメラであってもよい。本実施の形態では、被模倣者が使う鉗子である模倣対象41を含む、図3で示される参照映像が記憶部11で記憶されている場合について主に説明する。
記憶部11では、例えば、参照映像の全体が記憶されてもよく、または、参照映像の一部が記憶されてもよい。一例として、映像合成装置1が、外部から参照映像を受信しながら表示する場合には、参照映像の一部である受信された最新の参照映像の部分が記憶部11で記憶され、それが読み出されて表示されると共に、順次、上書きされてもよい。記憶部11には、参照映像以外の情報が記憶されてもよい。例えば、映像取得部12によって取得された自己映像が記憶部11で記憶されてもよい。
記憶部11に情報が記憶される過程は問わない。例えば、記録媒体を介して情報が記憶部11で記憶されるようになってもよく、通信回線等を介して送信された情報が記憶部11で記憶されるようになってもよく、または、カメラなどのデバイスを介して入力された情報が記憶部11で記憶されるようになってもよい。記憶部11は、不揮発性の記録媒体によって実現されることが好適であるが、揮発性の記録媒体によって実現されてもよい。記録媒体は、例えば、半導体メモリや磁気ディスクなどであってもよい。
映像取得部12は、ユーザ30が動作させる対象である動作対象の動作の映像である自己映像を取得する。映像取得部12は、例えば、映像を撮影するカメラ等の光学機器であってもよく、カメラ等の光学機器によって撮影された映像を取得するものであってもよい。本実施の形態では、映像取得部12が、カメラスタンド951に取り付けられたカメラ901によって撮影された映像を受け付ける場合について主に説明する。自己映像を撮影するカメラ901は、例えば、カメラスタンド951などの支持部によって撮影環境に設置されるカメラであってもよく、ヘッドマウントカメラなどのように、ユーザ30に装着されるカメラであってもよい。動作対象は、模倣対象に対応するものである。通常、動作対象と模倣対象は同種類のものである。そのため、動作対象は、例えば、ユーザ30の身体の一部であってもよく、ユーザ30によって動作される対象物であってもよい。ユーザ30の身体の一部は、例えば、ユーザ30の手を含んでいてもよい。また、ユーザ30によって動作される対象物は、例えば、ユーザ30が有している鉗子やメス、ピンセット、ハサミ、筆などの道具であってもよい。例えば、模倣対象が鉗子である場合には、動作対象も鉗子であることが好適である。模倣対象及び動作対象が、被模倣者やユーザ30によって動作される対象物である場合には、模倣対象及び動作対象は、例えば、同一のものであってもよい。同一の模倣対象及び動作対象は、例えば、同じ種類であり、サイズ等も同じであることが好適である。
自己映像は、一例として、動作対象を動作させるユーザ30の視点からの映像、すなわちユーザ30の一人称視点の映像であってもよい。この場合には、自己映像は、例えば、図2で示されるように、ユーザ30の頭部付近に配置されたカメラ901で撮影された映像であってもよい。カメラ901の光軸は、動作対象を向いていることが好適である。本実施の形態では、ユーザ30が使う鉗子である動作対象51を含む、図4で示される自己映像が映像取得部12によって取得される場合について主に説明する。なお、自己映像は、通常、カメラによって撮影された映像であるが、カメラによって撮影された映像に相当するCG映像であってもよい。一例として、参照映像が、鉗子等の模倣対象が手術ロボットによって操作されている状況の映像である場合に、自己映像は、ユーザ30の操作に応じて鉗子等の動作対象が手術ロボットによって操作されている状況のリアルの映像や、その映像に相当するCG映像であってもよい。後者の場合には、ユーザ30の操作に応じて、鉗子等の動作対象が手術ロボットによって操作されている状況のCG映像である自己映像がリアルタイムで生成されてもよい。
なお、参照映像を撮影する参照映像用カメラと模倣対象との相対的な位置関係と、自己映像を撮影する自己映像用カメラと動作対象との相対的な位置関係とは同じであるか、または近いことが好適である。また、参照映像に含まれる各フレームと、自己映像に含まれる各フレームとは、例えば、それぞれ同じ大きさであることが好適である。フレームが同じ大きさであるとは、フレームの縦方向のピクセル数と、横方向のピクセル数とがそれぞれ同じであることであってもよい。
合成部13は、参照映像と自己映像とを合成して合成映像を生成する。合成部13は、例えば、参照映像と自己映像との合成の割合が、所定の割合となるように両映像を合成した合成映像を生成してもよい。一例として、合成部13は、参照映像の手前側、すなわち上側に所定の不透明度の自己映像を合成してもよい。この場合に、自己映像の不透明度を50%にすることによって、参照映像と自己映像とを50%ずつの割合で合成することができる。合成の割合は、例えば、ユーザ30からの指示に応じて変更されてもよい。また、合成部13は、参照映像と自己映像との合成の割合が時間に沿って連続的に繰り返して変化するように両映像を合成してもよい。この場合には、例えば、合成の割合が正弦波や三角波、ノコギリ波のように周期的に変化してもよい。合成の割合の変化は、例えば、一方の映像の不透明度であってもよい。一例として、合成部13は、図5、図6で示されるように、参照映像と自己映像とを合成した合成映像を生成してもよい。図5、図6では、模倣対象41と動作対象51とを区別可能にするため、動作対象51を破線で示している。なお、図5、図6のガイド図形61,62については後述する。また、合成部13は、例えば、両映像を時分割で切り替えながら表示する合成映像を生成してもよい。より具体的には、合成部13は、第1の時間だけ参照映像を表示し、次の第2の時間だけ第2の自己映像を表示することを繰り返す合成映像を生成してもよい。
また、合成部13は、ガイド生成部14によってガイド図形や文字列などの表示対象となるガイドが生成された場合には、ガイド生成部14によって生成されたガイド図形や文字列などの表示対象を含む合成映像を生成してもよい。この場合には、ガイドは参照映像、自己映像と共に表示されることになる。本実施の形態では、ガイド生成部14によって生成されたガイド図形を含む合成映像が生成される場合について主に説明する。
ガイド生成部14は、参照映像に含まれる模倣対象、及び自己映像に含まれる動作対象に基づいて、動作対象を模倣対象に追従させるためのガイドを生成する。このガイドは、例えば、ガイド図形や文字列などの表示対象となるガイドであってもよく、音声などの音出力の対象となるガイドであってもよく、動作対象を模倣対象に追従させるためのその他のガイドであってもよい。本実施の形態では、(1)模倣対象及び動作対象の大きさを用いた追従方向を示すガイドの生成、(2)模倣対象及び動作対象の位置を用いた追従方向を示すガイドの生成、(3)模倣対象及び動作対象の形状を用いた、形状の追従のためのガイドの生成、(4)カメラと模倣対象及び動作対象との相対的な位置関係を用いた追従方向を示すガイドの生成についてそれぞれ説明する。ガイド生成部14は、例えば、(1)~(4)のいずれかのガイドの生成を行ってもよく、(1)~(4)の2以上のガイドの生成を行ってもよい。一例として、ガイド生成部14は、(1)、(2)のガイドの生成を行ってもよく、(1)~(3)のガイドの生成を行ってもよく、(3)、(4)のガイドの生成を行ってもよい。
(1)模倣対象及び動作対象の大きさを用いた追従方向を示すガイドの生成
ガイド生成部14は、参照映像における模倣対象の大きさと、自己映像における動作対象の大きさとの関係に応じて、ユーザ30を基準とした前後方向における追従方向を示すガイドを生成してもよい。追従方向とは、例えば、動作対象を模倣対象に追従させるための移動方向であってもよい。参照映像における模倣対象に、自己映像における動作対象が適切に追従できている追従状態にある場合には、両者の大きさは同程度になると考えられる。追従状態とは、例えば、合成映像において模倣対象と動作対象とが重なるように表示されている場合であってもよい。一方、動作対象が追従状態よりも後ろ側に位置する場合には、動作対象の大きさが、模倣対象の大きさよりも大きくなる。反対に、動作対象が追従状態よりも前側に位置する場合には、動作対象の大きさが、模倣対象の大きさよりも小さくなる。したがって、ガイド生成部14は、模倣対象の大きさと動作対象の大きさとの関係、すなわち両者の大小関係に応じて、動作対象の位置を模倣対象の位置に近づけるためには、動作対象を、ユーザ30を基準とした前後方向のどちら側に移動させなければならないのかを特定することができ、その特定結果に応じてガイドを生成することができる。例えば、動作対象の大きさが模倣対象の大きさよりも大きい場合には、ガイド生成部14は、動作対象を、ユーザ30を基準とした前方側、すなわちユーザ30の奥側に移動させるためのガイドを生成してもよい。また、例えば、動作対象の大きさが模倣対象の大きさよりも小さい場合には、ガイド生成部14は、動作対象を、ユーザ30を基準とした後方側、すなわちユーザ30の手前側に移動させるためのガイドを生成してもよい。
なお、ガイド生成部14は、参照映像における模倣対象の領域や、自己映像における動作対象の領域を、例えば、セグメンテーションや、テンプレートマッチングなどによって特定してもよい。例えば、模倣対象や動作対象が鉗子である場合には、鉗子の領域がセグメンテーションやテンプレートマッチングによって特定されてもよい。セグメンテーションが行われる場合には、例えば、あらかじめ鉗子に分類された領域が模倣対象や動作対象の領域であると設定されていてもよく、または、動きのある領域が模倣対象や動作対象の領域とされてもよい。なお、模倣対象や動作対象の領域は、例えば、それらの全体の領域であってもよく、一部の領域であってもよい。ガイド生成部14は、そのようにして特定した模倣対象や動作対象の領域の大きさを用いて、上記のようにガイドを生成してもよく、特定した模倣対象や動作対象の領域における、あらかじめ決められた特徴点によって構成される領域を用いて、上記のようにガイドを生成してもよい。後者の場合には、ガイド生成部14は、例えば、図3で示されるように、参照映像において模倣対象41の領域を特定し、その特定した領域において、支点P41と、一方の把持部の先端P42と、他方の把持部の先端P43とを頂点とする三角形の領域D41を特定すると共に、図4で示されるように、自己映像においても同様に、動作対象51の領域を特定し、その特定した領域において、支点P51と、一方の把持部の先端P52と、他方の把持部の先端P53とを頂点とする三角形の領域D51を特定してもよい。そして、ガイド生成部14は、領域D41,D51の大きさを比較し、領域D51の方が大きい場合には、ユーザ30を基準とした前方側に動作対象51を移動させるためのガイドを生成し、領域D41の方が大きい場合には、ユーザ30を基準とした後方側に動作対象51を移動させるためのガイドを生成してもよい。なお、領域D41,D51の大きさは、例えば、面積で比較されてもよく、三角形の最も長い辺の長さで比較されてもよい。
ガイド生成部14がガイド図形を生成する場合には、例えば、図5で示される矢印のガイド図形61が生成されてもよい。ガイド図形61は、ユーザ30を基準とした前方向に動作対象51を移動させるためのガイドである。ガイド図形は、例えば、合成映像において、模倣対象や動作対象と重ならない位置に追加されてもよい。ガイドを生成する際に模倣対象や動作対象の領域や位置等を特定している場合には、ガイド生成部14は、特定した模倣対象や動作対象の領域から離れた位置にガイド図形が追加されるように、合成部13に指示してもよい。なお、文字列のガイドや音声のガイドが生成される場合には、例えば、「手前側」や「奥側」などの動作対象の移動方向を示す文字列や音声のガイドが生成されてもよい。また、模倣対象と動作対象の大きさが一致している場合には、例えば、(1)のガイドの生成は行われなくてもよい。一例として、両者の大きさが十分近い場合にも、両者の大きさが一致していると判断されてもよい。
(2)模倣対象及び動作対象の位置を用いた追従方向を示すガイドの生成
ガイド生成部14は、参照映像における模倣対象の代表位置と、自己映像における動作対象の代表位置との位置関係に応じて、ユーザ30を基準とした上下方向及び左右方向における追従方向を示すガイドを生成してもよい。ここで、模倣対象や動作対象の代表位置は、例えば、模倣対象や動作対象の領域の重心の位置であってもよく、模倣対象や動作対象のあらかじめ決められた位置であってもよい。模倣対象や動作対象の領域は、例えば、それらの全体の領域であってもよく、一部の領域であってもよい。その領域は、例えば、上記した領域D41,D51ように特定されてもよい。あらかじめ決められた位置は、一例として、図3、図4で示される支点P41,P51の位置であってもよい。
参照映像における模倣対象に自己映像における動作対象が適切に追従できている追従状態にある場合には、模倣対象の代表位置と動作対象の代表位置とは同じになると考えられる。なお、例えば、両代表位置が十分近い場合にも、両代表位置が同じであると判断されてもよい。一方、動作対象が模倣対象に対して、ユーザ30を基準とした上下左右の少なくともいずれかの方向に離れた位置に存在する場合には、それに応じて動作対象の代表位置が模倣対象の代表位置から離れた位置に存在することになる。したがって、ガイド生成部14は、模倣対象の代表位置と動作対象の代表位置との位置関係に応じて、動作対象の位置を模倣対象の位置に近づけるためには、動作対象を、ユーザ30を基準とした上下方向及び左右方向におけるどの方向に移動させなければならないのかを特定し、その特定結果に応じてガイドを生成してもよい。その位置関係は、例えば、動作対象の代表位置から模倣対象の代表位置に向かうベクトルであってもよい。両代表位置の位置関係は、例えば、両代表位置を合成映像の座標系などの同じ座標系に配置した場合における位置関係であってもよい。
ガイド生成部14は、模倣対象の代表位置と動作対象の代表位置との位置関係に応じたガイドとして、例えば、動作対象の代表位置から模倣対象の代表位置に向かうベクトルの方向を示すガイドを生成してもよい。また、ガイド生成部14は、例えば、そのベクトルの大きさに応じた移動の程度、すなわちより多く移動しなければならないのか、より少ない移動でよいのかをも示すガイドを生成してもよい。ガイドがガイド図形である場合には、ガイド生成部14は、例えば、そのベクトルの方向を示す矢印の図形であるガイド図形を生成してもよく、そのベクトルの大きさをも示す矢印の図形であるガイド図形を生成してもよい。なお、文字列のガイドや音声のガイドが生成される場合には、例えば、「上側」や「右側」などの動作対象の移動方向を示す文字列や音声のガイドが生成されてもよい。
例えば、動作対象の代表位置から模倣対象の代表位置に向かうベクトルが、映像における左向きのベクトルであり、ガイドがガイド図形である場合には、ガイド生成部14は、図6で示される矢印のガイド図形62を生成してもよい。ガイド図形62は、ユーザ30を基準とした左方向に動作対象51を移動させるためのガイドである。なお、模倣対象と動作対象の代表位置が一致している場合には、例えば、(2)のガイドの生成は行われなくてもよい。一例として、両者の代表位置が十分近い場合にも、両者の代表位置が一致していると判断されてもよい。
なお、(1)及び(2)のガイドを生成する場合には、ガイド生成部14は、例えば、まず(1)のガイドを生成し、そのガイドに応じてユーザ30の前後方向における模倣対象と動作対象との位置合わせが終了した後に、(2)のガイドを生成してもよく、または、(1)及び(2)のガイドを一緒に生成してもよい。本実施の形態では、前者の場合について主に説明する。なお、(1)及び(2)のガイドを一緒に生成する場合には、ガイド生成部14は、上記したように、映像における模倣対象及び動作対象の大きさの関係に応じて前後方向における追従方向を示すガイドを生成すると共に、映像における模倣対象及び動作対象の代表位置の位置関係に応じて上下方向及び左右方向における追従方向を示すガイドを生成してもよい。この場合に、例えば、2個の独立したガイド(例えば、2個の矢印など)が生成されてもよく、または、1個のガイド(例えば、前後方向、並びに上下方向及び左右方向における追従方向を示す1個の矢印など)が生成されてもよい。
(3)模倣対象及び動作対象の形状を用いた、形状の追従のためのガイドの生成
模倣対象や動作対象が、形状が変化するものである場合には、ガイド生成部14は、参照映像に含まれる模倣対象の形状と、自己映像に含まれる動作対象の形状とを用いて、動作対象の形状を模倣対象の形状に追従させるためのガイドを生成してもよい。形状が変化する模倣対象や動作対象は、例えば、被模倣者やユーザ30の操作に応じて形状が変化するものであってもよい。形状が変化する模倣対象や動作対象は、例えば、ハサミ、鉗子、ピンセット、トングなどのように、開閉部を有しており、その開閉部が開状態と閉状態との間で形状が変化するものであってもよい。
ガイド生成部14は、例えば、学習済みの学習モデルやテンプレートマッチングなどを用いて、模倣対象や動作対象の形状を特定してもよい。例えば、模倣対象や動作対象が鉗子などのように開閉するものである場合には、開状態の形状と、閉状態の形状とが特定されてもよく、両者の間の形状も特定されてもよい。開状態と閉状態との間の形状は、例えば、開状態の割合や、閉状態の割合によって示される形状であってもよい。開状態の割合は、例えば、開状態では100%となり、閉状態では0%となり、開状態に近づくほど100%に近くなる割合であってもよい。学習済みの学習モデルやテンプレートマッチングを用いて形状を特定する場合には、例えば、映像に開状態の形状の模倣対象や動作対象が含まれるのか、または、閉状態の形状の模倣対象や動作対象が含まれるのかを物体認識と同様の手法によって特定してもよい。また、例えば、開状態の割合によって示される形状を特定する場合には、その割合も含めた物体認識が行われてもよい。
参照映像における模倣対象に自己映像における動作対象が適切に追従できている追従状態にある場合には、模倣対象の形状と動作対象の形状とは同じになる。一方、ユーザ30が動作対象の形状を模倣対象の形状に追従させることができていない場合には、両形状が異なることになる。模倣対象の形状と、動作対象の形状とが一致していないと判断した場合には、ガイド生成部14は、模倣対象の形状と、動作対象の形状とを用いて、動作対象の形状を模倣対象の形状に追従させるために必要な形状の変化を特定し、それに応じてガイドを生成してもよい。例えば、模倣対象41の形状が、図3で示されるように開状態であり、動作対象51の形状が、図7で示されるように閉状態であり、両形状が一致しない場合には、ガイド生成部14は、動作対象51の形状を、模倣対象41について特定した形状(例えば、図3では開状態)にする旨のガイドを生成してもよい。このガイドも、例えば、ガイド図形であってもよい。開状態の動作対象を閉状態にすることを示すガイド図形は、例えば、左右方向において先端が対向するように配置された2個の矢印の図形であってもよく、閉状態の動作対象を開状態にすることを示すガイド図形は、例えば、左右方向に配置された両矢印の図形であってもよい。なお、文字列のガイドや音声のガイドが生成される場合には、例えば、「開ける」や「閉じる」などの動作対象の形状の変化を示す文字列や音声のガイドが生成されてもよい。また、模倣対象と動作対象の形状が一致している場合には、例えば、(3)のガイドの生成は行われなくてもよい。
(4)カメラと模倣対象及び動作対象との位置関係を用いた追従方向を示すガイドの生成
上記(1)、(2)において説明したガイドの生成では、映像に含まれる模倣対象や動作対象の角度によっては、正確なガイドを生成できないこともある。したがって、より正確なガイドを生成するため、カメラと模倣対象及び動作対象との相対的な位置関係を用いてもよい。この場合には、ガイド生成部14は、参照映像における模倣対象の複数の特徴点を用いて、模倣対象と参照映像を撮影したカメラとの第1の相対的な位置関係を取得し、自己映像における動作対象の複数の特徴点を用いて、動作対象と自己映像を撮影したカメラとの第2の相対的な位置関係を取得し、第1及び第2の相対的な位置関係を用いて、模倣対象と動作対象との第3の相対的な位置関係を取得し、その第3の相対的な位置関係を用いてガイドを生成してもよい。
模倣対象や動作対象の特徴点は、一例として、図8で示されるように、鉗子である模倣対象41を構成する、支点で交差されている2個の部材における一方の部材の所定の頂点に対応する特徴点P44,P45、及び、その部材の把持部の先端に対応する特徴点P46であってもよい。模倣対象や動作対象が、形状が変化するものであっても、複数の特徴点の位置関係は、その形状の変化に応じて変化しないことが好適である。また、相対的な位置関係の取得に用いられる複数の特徴点の個数は、3個以上であることが好適であり、その複数の特徴点は、一直線上に存在しないことが好適である。また、複数の特徴点における2個の特徴点間の距離は、既知であることが好適である。また、相対的な位置関係は、一例として、同次変換行列によって示されてもよい。例えば、模倣対象と、参照映像を撮影したカメラとの第1の相対的な位置関係は、模倣対象のローカル座標系と、参照映像を撮影したカメラのローカル座標系との間の変換を示す同次変換行列であってもよい。他の相対的な位置関係についても同様である。なお、撮影画像に含まれる、上記した3個以上の特徴点を有する対象物のローカル座標系と、カメラのローカル座標系との間の変換を示す同次変換行列を取得する方法はすでに公知であり、その詳細な説明を省略する。また、模倣対象の複数の特徴点と、動作対象の複数の特徴点とは、通常、同じ特徴点であるが、そうでなくてもよい。後者の場合には、模倣対象と、動作対象とで異なる特徴点が用いられてもよい。
また、参照映像を撮影したカメラのローカル座標系と、自己映像を撮影したカメラのローカル座標系とが一致しているとした場合には、第1及び第2の相対的な位置関係を用いて、模倣対象と動作対象との第3の相対的な位置関係を取得できる。なお、参照映像と自己映像とを合成した合成映像では、両カメラのローカル座標系は一致していると考えることができる。そのため、相対的な位置関係が同次変換行列である場合には、例えば、第1及び第2の相対的な位置関係にそれぞれ対応する2個の同次変換行列について、一方の同次変換行列の逆行列と他方の同次変換行列とを乗算することによって、第3の相対的な位置関係に対応する同次変換行列を生成することができる。
第3の相対的な位置関係によって、例えば、模倣対象のローカル座標系と、動作対象のローカル座標系との位置関係について知ることができる。また、第1の相対的な位置関係、または、第2の相対的な位置関係によって、カメラのローカル座標系であるカメラ座標系と、模倣対象のローカル座標系、または、動作対象のローカル座標系との位置関係について知ることができる。したがって、ガイド生成部14は、第1及び第3の相対的な位置関係、または、第2及び第3の相対的な位置関係を用いることによって、カメラ座標系において、動作対象のローカル座標系が模倣対象のローカル座標系に一致するために必要な移動及び回転の程度について特定ことができる。ガイド生成部14は、その特定結果を用いて、ガイドを生成してもよい。なお、動作対象のローカル座標系が模倣対象のローカル座標系に一致するとは、追従状態になることを意味している。
例えば、ガイド生成部14は、動作対象のローカル座標系が、模倣対象のローカル座標系に一致するための動作対象の移動方向及び移動の程度を示すベクトルを、カメラ座標系において特定してもよい。カメラ座標系のz軸方向が、カメラの光軸方向であるとすると、特定したベクトルのz軸方向の向きに応じて、ガイド生成部14は、動作対象を模倣対象に追従させるために、動作対象をz軸方向のどちら向きに移動させなければならないのかについて特定することができる。そして、ガイド生成部14は、その特定結果に応じて、ユーザ30を基準とした前後方向における追従方向を示すガイドを生成してもよい。ガイド生成部14は、例えば、z軸方向において、動作対象をカメラに近づく向きに移動させなければならない場合には、ユーザ30を基準とした後方側に動作対象を移動させる旨のガイドを生成してもよい。
また、カメラ座標系のx軸方向が映像の左右方向であり、カメラ座標系のy軸方向が映像の上下方向である場合には、特定したベクトルのx軸方向及びy軸方向の向きに応じて、ガイド生成部14は、動作対象を模倣対象に追従させるために、動作対象をx軸方向及びy軸方向ののどちら向きに移動させなければならないのかについて特定することができる。そして、ガイド生成部14は、その特定結果に応じて、ユーザ30を基準とした上下方向及び左右方向における追従方向を示すガイドを生成してもよい。ガイド生成部14は、例えば、x軸方向において、動作対象を映像の右向きに移動させなければならない場合には、ユーザ30を基準とした右方向に動作対象を移動させる旨のガイドを生成し、y軸方向において、動作対象を映像の上向きに移動させなければならない場合には、ユーザ30を基準とした上方向に動作対象を移動させる旨のガイドを生成してもよい。
相対的な位置関係を取得する場合には、模倣対象と動作対象との平行移動のみでなく、回転も含めた相対的な位置関係について取得することができる。したがって、ガイド生成部14は、例えば、動作対象の移動方向のみでなく、動作対象の回転方向も示すガイドを生成してもよい。
なお、模倣対象や動作対象が鉗子などのように細長い場合には、直線上に存在しない3個の特徴点を設定することが難しいこともある。このような場合には、例えば、模倣対象や動作対象に特徴点を特定するためのマーカを取り付け、そのマーカを用いて特徴点を特定してもよい。マーカは、例えば、四角形などの多角形状のマーカであってもよい。この場合には、マーカの各頂点が特徴点となってもよい。
また、模倣対象や動作対象の向きは映像において変化するため、同じ特徴点をいつでも用いることができるとは限らない。例えば、模倣対象や動作対象が回転されることなどによって、映像においてあらかじめ決められた特徴点を特定できなくなることもある。そのため、模倣対象及び動作対象の特徴点は、例えば、参照映像の期間ごとに変更されてもよい。この場合には、例えば、あらかじめ参照映像の複数の期間ごとに、その期間に用いる特徴点が設定されていてもよい。その設定は、例えば、手作業で行われてもよく、または、学習モデルなどを用いて自動的に行われてもよい。
また、ガイド生成部14は、模倣対象や動作対象の領域や代表位置、特徴点の位置などを特定する場合に、参照映像を用いて模倣対象の領域等を特定し、自己映像を用いて動作対象の領域等を特定してもよい。この場合に、ガイド生成部14は、例えば、両映像において同じ座標系を用いて領域や位置等を特定してもよい。同じ座標系とは、例えば、両映像が合成された際に同じ位置になる両映像の位置が、同じ座標値になる座標系であってもよい。
出力部15は、合成映像とガイドとを出力する。ガイドであるガイド図形やガイドの文字列が合成映像に含まれている場合には、出力部15は、そのガイド図形やガイドの文字列を含む合成映像を出力してもよい。この場合には、ガイド図形等を含む合成映像の出力によって、ガイドも出力されたことになる。一方、合成映像にガイドが含まれていない場合、例えば、ガイドが音声である場合には、出力部15は、合成映像とガイドとをそれぞれ出力してもよい。
ここで、この出力は、例えば、表示デバイス(例えば、液晶ディスプレイや有機ELディスプレイなど)への表示でもよく、所定の機器への通信回線を介した送信でもよく、スピーカによる音出力でもよく、記録媒体への蓄積でもよく、他の構成要素への引き渡しでもよい。一例として、ガイドが音声である場合には、出力部15は、合成映像を表示するとともに、音声であるガイドをスピーカから音出力してもよい。なお、出力部15は、出力を行うデバイス(例えば、表示デバイスや通信デバイス、スピーカなど)を含んでもよく、または含まなくてもよい。また、出力部15は、ハードウェアによって実現されてもよく、または、それらのデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。
次に、映像合成装置1の動作について図9のフローチャートを用いて説明する。
(ステップS101)合成部13は、参照映像と自己映像との合成を行うかどうか判断する。そして、合成を行う場合には、ステップS102に進み、そうでない場合には、合成を行うと判断するまで、ステップS101の処理を繰り返す。なお、合成部13は、各映像に含まれるフレームの表示間隔ごとに、合成を行うと判断してもよい。例えば、フレームレートがA(fps)である場合には、合成部13は、1/A(秒)ごとに、合成を行うと判断してもよい。
(ステップS102)合成部13は、記憶部11から合成対象の参照映像のフレームを読み出す。なお、合成の処理が開始されてからT秒後に読み出す対象となる参照映像のフレームは、例えば、先頭からT秒の位置のフレームであってもよい。
(ステップS103)映像取得部12は、自己映像のフレームを取得する。映像取得部12は、例えば、カメラ901から最新の自己映像のフレームを取得してもよい。
(ステップS104)ガイド生成部14は、ステップS102で読み出された参照映像のフレームと、ステップS103で取得された自己映像のフレームとを用いて、ガイドを生成する。
(ステップS105)合成部13は、ステップS102で読み出した参照映像のフレームと、ステップS103で取得された自己映像のフレームとを合成することによって、合成映像のフレームを生成する。なお、生成されたガイドがガイド図形である場合には、合成部13は、ガイド図形も含む合成映像のフレームを生成してもよい。
(ステップS106)出力部15は、ステップS105で生成された合成映像と、ステップS104で生成されたガイドとを出力する。例えば、ガイド図形を含む合成映像が生成された場合には、出力部15は、その合成映像を出力してもよい。そして、ステップS101に戻る。このように、参照映像及び自己映像の各フレームが合成され、生成されたガイドと共に出力されることにより、両映像の合成が行われると共に、動作対象を模倣対象に追従させるためのガイドも提供されることになる。
なお、図9のフローチャートにおける処理の順序は一例であり、同様の結果を得られるのであれば、各ステップの順序を変更してもよい。また、図9のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
次に、本実施の形態による映像合成装置1の動作について、具体例を用いて説明する。本具体例において、参照映像は、鉗子である模倣対象41が熟練者によって使用されている状況の映像であるとする。参照映像は、例えば、図3で示される映像である。また、図2で示されるように、ユーザ30がカメラ901を用いて、ユーザ30が使用している鉗子である動作対象51の自己映像が撮影されるものとする。自己映像は、例えば、図4で示される映像である。
まず、ユーザ30が、映像合成装置1を操作して、参照映像と自己映像との合成の処理を開始させると、合成部13は、記憶部11で記憶されている参照映像の1番目のフレームを読み出す(ステップS101,S102)。また、映像取得部12は、カメラ901によって撮影された自己映像のフレームを、有線または無線を介して受け付ける(ステップS103)。また、ガイド生成部14は、その時点のガイドを生成する(ステップS104)。本具体例では、図3の参照映像、及び図4の自己映像を用いて、ユーザ30の前方側に動作対象を移動させるためのガイド図形が生成され、合成部13に渡されたとする。
ガイド図形を受け取ると、合成部13は、参照映像の手前側に、不透明度が50%である自己映像を合成すると共に、ガイド図形を追加した合成映像のフレームを生成して出力部15に渡す(ステップS105)。ガイド図形を含む合成映像のフレームを受け取ると、出力部15は、その受け取った合成映像のフレームを表示デバイス902に出力する(ステップS106)。このようにして、ユーザ30は、図5で示される合成映像を見ることができるようになる。図5では、動作対象51をユーザ30の前方側に移動することを示すガイド図形61が表示されている。したがって、ユーザ30は、そのガイド図形61に応じて、動作対象51をユーザ30の前方側に移動させればよいことになる。
ガイド図形を含む合成映像の表示が繰り返されることにより、映像における模倣対象41と動作対象51との大きさが同程度になり、ユーザ30の前後方向に関するガイドを出す必要がなくなったとする。すると、新たな参照映像及び自己映像のフレームが取得された際に(ステップS101~S103)、ガイド生成部14は、ユーザ30の上下方向及び左右方向に動作対象51を移動させるためのガイド図形を生成する(ステップS104)。そして、そのガイド図形を含む合成映像のフレームが生成されて、出力される(ステップS105、S106)。その合成映像のフレームは、図6で示されるものであるとする。図6では、動作対象51をユーザ30の左側に移動することを示すガイド図形62が表示されている。したがって、ユーザ30は、そのガイド図形62に応じて、動作対象51をユーザ30の左側に移動させればよいことになる。このように、ガイド図形を含む合成映像が出力されることによって、ユーザ30は、そのガイドに応じて動作対象51を移動させることによって、動作対象51を模倣対象41に追従させることができるようになる。
以上のように、本実施の形態による映像合成装置1によれば、参照映像や自己映像がステレオ映像のように奥行き方向の情報を持っていない2次元の映像である場合であっても、動作対象を模倣対象に追従させるためのガイドを出力することができ、ユーザ30が動作させる動作対象を、模倣対象に追従させるための支援を行うことができる。ユーザ30は、そのガイドを参考にすることによって、より容易に動作対象を模倣対象に追従させることができる。そのため、ユーザ30が、参照映像を用いた学習の初心者であっても、学習の効果を高めることができる。
また、模倣対象や動作対象の大きさに応じて、ユーザ30の前後方向における追従方向を示すガイドを生成することによって、ユーザ30の前後方向における模倣対象と動作対象との位置合わせを容易に行うことができるようになる。また、模倣対象や動作対象の代表位置を用いて、ユーザ30の上下方向及び左右方向における追従方向を示すガイドを生成することによって、ユーザ30の上下方向及び左右方向における模倣対象と動作対象との位置合わせを容易に行うことができるようになる。また、模倣対象や動作対象の形状に応じて、動作対象の形状を模倣対象の形状に追従させるためのガイドを生成することによって、動作対象の形状を模倣対象の形状に容易に合わせることができるようになる。さらに、模倣対象や動作対象とカメラとの相対的な位置関係を用いて取得した模倣対象と動作対象との相対的な位置関係を用いることによって、より正確なガイドを生成することができるようになる。
また、ガイドがガイド図形である場合には、ユーザ30は、出力された合成映像に含まれるガイド図形を参照することにより、動作対象をどのように動かせばよいのかについて、容易に把握することができるようになる。
なお、上記実施の形態では、映像合成装置1がスタンドアロンである場合について主に説明したが、映像合成装置1は、スタンドアロンの装置であってもよく、サーバ・クライアントシステムにおけるサーバ装置であってもよい。後者の場合には、取得部や出力部は、通信回線を介して情報を取得したり、情報を出力したりしてもよい。
また、上記実施の形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、または、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。
また、上記実施の形態において、各構成要素間で行われる情報の受け渡しは、例えば、その情報の受け渡しを行う2個の構成要素が物理的に異なるものである場合には、一方の構成要素による情報の出力と、他方の構成要素による情報の受け付けとによって行われてもよく、または、その情報の受け渡しを行う2個の構成要素が物理的に同じものである場合には、一方の構成要素に対応する処理のフェーズから、他方の構成要素に対応する処理のフェーズに移ることによって行われてもよい。
また、上記実施の形態において、各構成要素が実行する処理に関係する情報、例えば、各構成要素が受け付けたり、取得したり、選択したり、生成したり、送信したり、受信したりした情報や、各構成要素が処理で用いる閾値や数式、アドレス等の情報等は、上記説明で明記していなくても、図示しない記録媒体において、一時的に、または長期にわたって保持されていてもよい。また、その図示しない記録媒体への情報の蓄積を、各構成要素、または、図示しない蓄積部が行ってもよい。また、その図示しない記録媒体からの情報の読み出しを、各構成要素、または、図示しない読み出し部が行ってもよい。
また、上記実施の形態において、各構成要素等で用いられる情報、例えば、各構成要素が処理で用いる閾値やアドレス、各種の設定値等の情報がユーザによって変更されてもよい場合には、上記説明で明記していなくても、ユーザが適宜、それらの情報を変更できるようにしてもよく、または、そうでなくてもよい。それらの情報をユーザが変更可能な場合には、その変更は、例えば、ユーザからの変更指示を受け付ける図示しない受付部と、その変更指示に応じて情報を変更する図示しない変更部とによって実現されてもよい。その図示しない受付部による変更指示の受け付けは、例えば、入力デバイスからの受け付けでもよく、通信回線を介して送信された情報の受信でもよく、所定の記録媒体から読み出された情報の受け付けでもよい。
また、上記実施の形態において、映像合成装置1に含まれる2以上の構成要素が通信デバイスや入力デバイス等を有する場合に、2以上の構成要素が物理的に単一のデバイスを有してもよく、または、別々のデバイスを有してもよい。
また、上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、または、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。その実行時に、プログラム実行部は、記憶部や記録媒体にアクセスしながらプログラムを実行してもよい。なお、上記実施の形態における映像合成装置1を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、ユーザが動作を模倣する対象である模倣対象の動作の映像である参照映像が記憶される記憶部にアクセス可能なコンピュータを、ユーザが動作させる対象である動作対象の動作の映像である自己映像を取得する映像取得部、参照映像と自己映像とを合成した合成映像を生成する合成部、参照映像に含まれる模倣対象、及び自己映像に含まれる動作対象に基づいて、動作対象を模倣対象に追従させるためのガイドを生成するガイド生成部、合成映像とガイドとを出力する出力部として機能させるためのプログラムであってもよい。
なお、上記プログラムにおいて、上記プログラムが実現する機能には、ハードウェアでしか実現できない機能は含まれない。例えば、情報を取得する取得部や、情報を出力する出力部などにおけるモデムやインターフェースカードなどのハードウェアでしか実現できない機能は、上記プログラムが実現する機能には少なくとも含まれない。
また、このプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD-ROMなどの光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。また、このプログラムは、プログラムプロダクトを構成するプログラムとして用いられてもよい。
また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、または分散処理を行ってもよい。
図10は、上記プログラムを実行して、上記実施の形態による映像合成装置1を実現するコンピュータ900の構成の一例を示す図である。図10において、コンピュータ900は、MPU(Micro Processing Unit)911と、ブートアッププログラム等のプログラムを記憶するためのROM912と、MPU911に接続され、アプリケーションプログラムの命令を一時的に記憶すると共に、一時記憶空間を提供するRAM913と、アプリケーションプログラム、システムプログラム、及びデータを記憶する記憶部914と、LANやWAN等への接続を提供する通信モジュール915とを備える。なお、MPU911、ROM912等は、カメラ901、表示デバイス902、キーボード903、及びタッチパッドやマウスなどのポインティングデバイス904と共に、バスによって相互に接続されていてもよい。また、記憶部914は、例えば、ハードディスクやSSD(Solid State Drive)などであってもよい。また、カメラ901、表示デバイス902、キーボード903、ポインティングデバイス904などは、例えば、外付けのデバイスであってもよく、または、コンピュータ900に内蔵されているデバイスであってもよい。
コンピュータ900に、上記実施の形態による映像合成装置1の機能を実行させるプログラムは、実行の際にRAM913にロードされてもよい。なお、プログラムは、例えば、記憶部914、またはネットワークから直接、ロードされてもよい。
プログラムは、コンピュータ900に、上記実施の形態による映像合成装置1の機能を実行させるオペレーティングシステム(OS)、またはサードパーティプログラム等を必ずしも含んでいなくてもよい。プログラムは、制御された態様で適切な機能やモジュールを呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいてもよい。コンピュータ900がどのように動作するのかについては周知であり、詳細な説明は省略する。
また、以上の実施の形態は、本発明を具体的に実施するための例示であって、本発明の技術的範囲を制限するものではない。本発明の技術的範囲は、実施の形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲の文言上の範囲及び均等の意味の範囲内での変更が含まれることが意図される。
1 映像合成装置
11 記憶部
12 映像取得部
13 合成部
14 ガイド生成部
15 出力部
30 ユーザ
41 模倣対象
51 動作対象
61、62 ガイド図形

Claims (7)

  1. ユーザが動作を模倣する対象である模倣対象の動作の映像である参照映像が記憶される記憶部と、
    前記ユーザが動作させる対象である動作対象の動作の映像である自己映像を取得する映像取得部と、
    前記参照映像と前記自己映像とを合成した合成映像を生成する合成部と、
    前記参照映像における前記模倣対象の複数の特徴点を用いて、前記模倣対象のローカル座標系と前記参照映像を撮影したカメラのローカル座標系との第1の相対的な位置関係を取得し、前記自己映像における前記動作対象の複数の特徴点を用いて、前記動作対象のローカル座標系と前記自己映像を撮影したカメラのローカル座標系との第2の相対的な位置関係を取得し、前記第1及び第2の相対的な位置関係を用いて、前記模倣対象のローカル座標系と前記動作対象のローカル座標系との第3の相対的な位置関係を取得し、当該第3の相対的な位置関係を用いて、前記動作対象を前記模倣対象に追従させるためのガイドを生成するガイド生成部と、
    前記合成映像と前記ガイドとを出力する出力部と、を備えた映像合成装置。
  2. ユーザが動作を模倣する対象である模倣対象の動作の映像である参照映像が記憶される記憶部と、
    前記ユーザが動作させる対象である動作対象の動作の映像である自己映像を取得する映像取得部と、
    前記参照映像と前記自己映像とを合成した合成映像を生成する合成部と、
    前記参照映像に含まれる前記模倣対象、及び前記自己映像に含まれる前記動作対象に基づいて、前記動作対象を前記模倣対象に追従させるためのガイドを生成するガイド生成部と、
    前記合成映像と前記ガイドとを出力する出力部と、を備え、
    前記模倣対象及び前記動作対象は、形状が変化するものであり、
    前記ガイド生成部は、前記参照映像に含まれる前記模倣対象の形状と、前記自己映像に含まれる前記動作対象の形状とを特定し、特定した両形状が一致していない場合に、前記動作対象の形状を前記模倣対象の形状に追従させるために必要な形状の変化を特定し、特定した形状の変化に応じたガイドを生成する、映像合成装置。
  3. 前記ガイド生成部は、前記ガイドであるガイド図形を生成し、
    前記合成部は、前記ガイド図形を含む合成映像を生成し、
    前記出力部は、前記ガイド図形を含む前記合成映像を出力する、請求項1または請求項記載の映像合成装置。
  4. ユーザが動作を模倣する対象である模倣対象の動作の映像である参照映像が記憶される記憶部と、映像取得部と、合成部と、ガイド生成部と、出力部とを用いて処理される映像合成方法であって、
    前記映像取得部が、前記ユーザが動作させる対象である動作対象の動作の映像である自己映像を取得するステップと、
    前記合成部が、前記参照映像と前記自己映像とを合成した合成映像を生成するステップと、
    前記ガイド生成部が、前記参照映像における前記模倣対象の複数の特徴点を用いて、前記模倣対象のローカル座標系と前記参照映像を撮影したカメラのローカル座標系との第1の相対的な位置関係を取得し、前記自己映像における前記動作対象の複数の特徴点を用いて、前記動作対象のローカル座標系と前記自己映像を撮影したカメラのローカル座標系との第2の相対的な位置関係を取得し、前記第1及び第2の相対的な位置関係を用いて、前記模倣対象のローカル座標系と前記動作対象のローカル座標系との第3の相対的な位置関係を取得し、当該第3の相対的な位置関係を用いて、前記動作対象を前記模倣対象に追従させるためのガイドを生成するステップと、
    前記出力部が、前記合成映像と前記ガイドとを出力するステップと、を備えた映像合成方法。
  5. ユーザが動作を模倣する対象である模倣対象の動作の映像である参照映像が記憶される記憶部と、映像取得部と、合成部と、ガイド生成部と、出力部とを用いて処理される映像合成方法であって、
    前記映像取得部が、前記ユーザが動作させる対象である動作対象の動作の映像である自己映像を取得するステップと、
    前記合成部が、前記参照映像と前記自己映像とを合成した合成映像を生成するステップと、
    前記ガイド生成部が、前記参照映像に含まれる前記模倣対象、及び前記自己映像に含まれる前記動作対象に基づいて、前記動作対象を前記模倣対象に追従させるためのガイドを生成するステップと、
    前記出力部が、前記合成映像と前記ガイドとを出力するステップと、を備え、
    前記模倣対象及び前記動作対象は、形状が変化するものであり、
    前記ガイドを生成するステップでは、前記参照映像に含まれる前記模倣対象の形状と、前記自己映像に含まれる前記動作対象の形状とを特定し、特定した両形状が一致していない場合に、前記動作対象の形状を前記模倣対象の形状に追従させるために必要な形状の変化を特定し、特定した形状の変化に応じたガイドを生成する、映像合成方法。
  6. ユーザが動作を模倣する対象である模倣対象の動作の映像である参照映像が記憶される記憶部にアクセス可能なコンピュータを、
    前記ユーザが動作させる対象である動作対象の動作の映像である自己映像を取得する映像取得部、
    前記参照映像と前記自己映像とを合成した合成映像を生成する合成部、
    前記参照映像における前記模倣対象の複数の特徴点を用いて、前記模倣対象のローカル座標系と前記参照映像を撮影したカメラのローカル座標系との第1の相対的な位置関係を取得し、前記自己映像における前記動作対象の複数の特徴点を用いて、前記動作対象のローカル座標系と前記自己映像を撮影したカメラのローカル座標系との第2の相対的な位置関係を取得し、前記第1及び第2の相対的な位置関係を用いて、前記模倣対象のローカル座標系と前記動作対象のローカル座標系との第3の相対的な位置関係を取得し、当該第3の相対的な位置関係を用いて、前記動作対象を前記模倣対象に追従させるためのガイドを生成するガイド生成部、
    前記合成映像と前記ガイドとを出力する出力部として機能させるためのプログラム。
  7. ユーザが動作を模倣する対象である模倣対象の動作の映像である参照映像が記憶される記憶部にアクセス可能なコンピュータを、
    前記ユーザが動作させる対象である動作対象の動作の映像である自己映像を取得する映像取得部、
    前記参照映像と前記自己映像とを合成した合成映像を生成する合成部、
    前記参照映像に含まれる前記模倣対象、及び前記自己映像に含まれる前記動作対象に基づいて、前記動作対象を前記模倣対象に追従させるためのガイドを生成するガイド生成部、
    前記合成映像と前記ガイドとを出力する出力部として機能させ、
    前記模倣対象及び前記動作対象は、形状が変化するものであり、
    前記ガイド生成部は、前記参照映像に含まれる前記模倣対象の形状と、前記自己映像に含まれる前記動作対象の形状とを特定し、特定した両形状が一致していない場合に、前記動作対象の形状を前記模倣対象の形状に追従させるために必要な形状の変化を特定し、特定した形状の変化に応じたガイドを生成する、プログラム。
JP2023127489A 2023-08-04 2023-08-04 映像合成装置、映像合成方法、及びプログラム Active JP7486860B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023127489A JP7486860B1 (ja) 2023-08-04 2023-08-04 映像合成装置、映像合成方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023127489A JP7486860B1 (ja) 2023-08-04 2023-08-04 映像合成装置、映像合成方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP7486860B1 true JP7486860B1 (ja) 2024-05-20

Family

ID=91082783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023127489A Active JP7486860B1 (ja) 2023-08-04 2023-08-04 映像合成装置、映像合成方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7486860B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015097825A1 (ja) 2013-12-26 2015-07-02 独立行政法人科学技術振興機構 動き学習支援装置及び動き学習支援方法
JP2019012965A (ja) 2017-06-30 2019-01-24 富士通株式会社 映像制御方法、映像制御装置、及び映像制御プログラム
WO2020179128A1 (ja) 2019-03-06 2020-09-10 株式会社日立製作所 学習支援システム、学習支援装置及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015097825A1 (ja) 2013-12-26 2015-07-02 独立行政法人科学技術振興機構 動き学習支援装置及び動き学習支援方法
JP2019012965A (ja) 2017-06-30 2019-01-24 富士通株式会社 映像制御方法、映像制御装置、及び映像制御プログラム
WO2020179128A1 (ja) 2019-03-06 2020-09-10 株式会社日立製作所 学習支援システム、学習支援装置及びプログラム

Similar Documents

Publication Publication Date Title
US20220108450A1 (en) Surgical simulator providing labeled data
US11893670B2 (en) Animation generation method, apparatus and system, and storage medium
JP2021193599A (ja) 仮想オブジェクトのフィギュア合成方法、装置、電子機器、記憶媒体
CN107274464A (zh) 一种实时交互3d动画的方法、装置和系统
US11836294B2 (en) Spatially consistent representation of hand motion
KR102103939B1 (ko) 머리 회전을 갖는 아바타 얼굴 표정 애니메이션
EP2629265A1 (en) Method and system for driving simulated virtual environments with real data
US9786202B2 (en) Robot assisted surgical training
CN107274466A (zh) 一种实时全身动作捕捉的方法、装置和系统
WO2020197621A1 (en) Spatially consistent representation of hand motion
CN109151540A (zh) 视频图像的交互处理方法及装置
Jota et al. Constructing virtual 3D models with physical building blocks
US20220172447A1 (en) Image processing device, image processing method, and program
JP7486860B1 (ja) 映像合成装置、映像合成方法、及びプログラム
LIU et al. A preliminary study of kinect-based real-time hand gesture interaction systems for touchless visualizations of hepatic structures in surgery
WO2002033660A1 (fr) Dispositif de production d'informations video
WO2023075682A2 (zh) 图像处理方法、装置、电子设备和计算机可读存储介质
Nguyen et al. Automatic generation of a 3D sign language avatar on AR glasses given 2D videos of human signers
JP7412826B1 (ja) 映像合成装置、映像合成方法、及びプログラム
Kaswan et al. AI‐Based AR/VR Models in Biomedical Sustainable Industry 4.0
Ruttkay et al. Facial animation by synthesis of captured and artificial data
Sela et al. Real-time incision simulation using discontinuous free form deformation
Akinjala et al. Animating human movement & gestures on an agent using Microsoft kinect
JP2022024189A (ja) 学習用データ作成方法、学習用データ作成装置及びプログラム
Zhuang et al. A modern approach to intelligent animation: theory and practice

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230804

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240426

R150 Certificate of patent or registration of utility model

Ref document number: 7486860

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150