JP7432275B1 - Video display device, video display method, and program - Google Patents
Video display device, video display method, and program Download PDFInfo
- Publication number
- JP7432275B1 JP7432275B1 JP2023123183A JP2023123183A JP7432275B1 JP 7432275 B1 JP7432275 B1 JP 7432275B1 JP 2023123183 A JP2023123183 A JP 2023123183A JP 2023123183 A JP2023123183 A JP 2023123183A JP 7432275 B1 JP7432275 B1 JP 7432275B1
- Authority
- JP
- Japan
- Prior art keywords
- video
- image
- self
- user
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 15
- 230000033001 locomotion Effects 0.000 claims abstract description 41
- 230000009471 action Effects 0.000 claims description 20
- 230000003287 optical effect Effects 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 9
- 238000010586 diagram Methods 0.000 abstract description 16
- 230000008859 change Effects 0.000 description 26
- 210000003811 finger Anatomy 0.000 description 12
- 210000000707 wrist Anatomy 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 210000003813 thumb Anatomy 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000009877 rendering Methods 0.000 description 6
- 210000004932 little finger Anatomy 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000001356 surgical procedure Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】参照映像と同様の撮影環境を用意しなくても、参照映像と比較可能な自己映像を表示することができる映像表示装置を提供する。【解決手段】映像表示装置1は、ユーザが動作を模倣する対象となる模倣対象の動作の映像である参照映像が記憶される記憶部11と、ユーザの動作の映像である第1の自己映像を取得する映像取得部12と、第1の自己映像のユーザの骨格認識を行う骨格認識部13と、ユーザの動作に応じて動く3次元オブジェクトの映像である第2の自己映像を、骨格認識の結果を用いて、参照映像を撮影する参照映像用カメラと模倣対象との相対的な位置関係と、3次元オブジェクトの映像の視点と3次元オブジェクトとの相対的な位置関係とが同じになるように生成する生成部14と、参照映像及び第2の自己映像を表示する表示部15とを備える。【選択図】図1The present invention provides a video display device that can display a self-image that can be compared with a reference video without preparing a shooting environment similar to that of the reference video. A video display device 1 includes a storage unit 11 that stores a reference video that is a video of an imitation target whose motion is to be imitated by a user, and a first self-video that is a video of the user's motion. a skeleton recognition unit 13 that performs skeletal recognition of the user's first self-image, and a skeletal recognition unit 13 that performs skeletal recognition of the second self-image, which is an image of a three-dimensional object that moves according to the user's movements. Using the results of , the relative positional relationship between the reference video camera that shoots the reference video and the imitation target becomes the same as the relative positional relationship between the video viewpoint of the 3D object and the 3D object. The display unit 15 includes a generation unit 14 that generates a reference video and a second self-video. [Selection diagram] Figure 1
Description
本発明は、ユーザが動作を模倣する対象となる模倣対象の動作の映像と、ユーザの動作に応じた映像とを表示する映像表示装置等に関する。 The present invention relates to a video display device and the like that displays a video of a motion to be imitated whose motion is to be imitated by a user, and a video corresponding to the user's motion.
従来、手術などの動きの学習のために、学習者が模倣する対象となる模倣対象の動作の映像である参照映像と、学習者の動作の映像である自己映像とを合成して表示する学習支援装置が知られている(例えば、特許文献1参照)。このような表示を参照することにより、学習者は、模倣対象の動作と同じ動作を行うためのトレーニングを行うことができる。 Conventionally, in order to learn movements such as those in surgery, learning involves combining and displaying a reference video, which is a video of the movement of the target to be imitated by the learner, and a self-video, which is a video of the learner's movements. Support devices are known (for example, see Patent Document 1). By referring to such a display, the learner can train to perform the same motion as the motion to be imitated.
しかしながら、従来の学習支援装置では、参照映像と自己映像とを比較可能な映像にするため、両映像について、撮影を行うカメラと撮影対象との相対的な位置関係が同じになるようにする必要があった。例えば、参照映像が、模倣対象の動作を行う教師役が装着しているヘッドマウントカメラで撮影された一人称映像である場合には、自己映像も学習者が装着しているヘッドマウントカメラで撮影された一人称映像とする必要があった。このように、学習者も、参照映像と同様の撮影環境を用意する必要があり、そのためのコストや時間がかかるという問題があった。 However, in conventional learning support devices, in order to make the reference video and self-video comparable, it is necessary to ensure that the relative positional relationship between the camera that is shooting and the subject is the same for both videos. was there. For example, if the reference video is a first-person video shot with a head-mounted camera worn by the teacher performing the action to be imitated, the self-video is also shot with a head-mounted camera worn by the learner. It needed to be a first-person video. In this way, the learner also needs to prepare a shooting environment similar to that of the reference video, which poses the problem of cost and time.
本発明は、上記課題を解決するためになされたものであり、参照映像と同様の撮影環境を用意しなくても、参照映像と比較可能な自己映像を表示することができる映像表示装置等を提供することを目的とする。 The present invention has been made to solve the above problems, and provides a video display device etc. that can display a self-image that can be compared with a reference video without having to prepare a shooting environment similar to that of the reference video. The purpose is to provide.
上記目的を達成するため、本発明の一態様による映像表示装置は、ユーザが動作を模倣する対象となる模倣対象の動作の映像である参照映像が記憶される記憶部と、ユーザの動作の映像である第1の自己映像を取得する映像取得部と、第1の自己映像に含まれるユーザの骨格認識を行う骨格認識部と、模倣対象に対応する3次元オブジェクトであり、ユーザの動作に応じて動く3次元オブジェクトの映像である第2の自己映像を、骨格認識部による骨格認識の結果を用いて、参照映像を撮影する参照映像用カメラと模倣対象との相対的な位置関係と、3次元オブジェクトの映像の視点と3次元オブジェクトとの相対的な位置関係とが同じになるように生成する生成部と、参照映像及び第2の自己映像を表示する表示部と、を備え、参照映像用カメラと模倣対象との相対的な位置関係と、第1の自己映像を撮影する自己映像用カメラと模倣対象に対応するユーザの部分との相対的な位置関係とは異なる、ものである。 In order to achieve the above object, a video display device according to one aspect of the present invention includes a storage unit that stores a reference video that is a video of an action to be imitated whose action is to be imitated by a user; an image acquisition unit that acquires a first self-image, a skeleton recognition unit that recognizes the user's skeleton included in the first self-image, and a three-dimensional object that corresponds to the imitation target and that responds to the user's movements. 3. The second self-image, which is an image of a three-dimensional object that moves, is determined using the results of skeleton recognition by the skeleton recognition unit, and the relative positional relationship between the reference image camera that shoots the reference image and the imitation target; A generation unit that generates a video so that the viewpoint of the video of the dimensional object and the relative positional relationship with the three-dimensional object is the same, and a display unit that displays the reference video and the second self-video. The relative positional relationship between the user camera and the imitation target is different from the relative positional relationship between the self-image camera that captures the first self-image and the part of the user corresponding to the imitation target.
このような構成により、参照映像と同様の撮影環境を用意しなくても、参照映像と比較可能な第2の自己映像を表示することができる。例えば、ノートパソコンやタブレット端末、スマートフォンなどのユーザに対面するカメラによって撮影された第1の自己映像から、ユーザの一人称視点の第2の自己映像を生成して表示することができるようになる。 With such a configuration, it is possible to display a second self-image that can be compared with the reference image without preparing a shooting environment similar to that of the reference image. For example, it becomes possible to generate and display a second self-image from the user's first-person perspective from a first self-image taken by a camera facing the user, such as a laptop computer, a tablet terminal, or a smartphone.
また、本発明の一態様による映像表示装置では、生成部は、骨格認識部による骨格認識の結果の視線方向を、設定されている角度だけ変化させた第2の自己映像を生成してもよい。 Further, in the video display device according to one aspect of the present invention, the generation unit may generate a second self-image in which the line of sight direction as a result of skeleton recognition by the skeleton recognition unit is changed by a set angle. .
このような構成により、例えば、ユーザに対面するカメラによって撮影された第1の自己映像から、ユーザの一人称視点の第2の自己映像を生成することができる。 With such a configuration, for example, it is possible to generate a second self-image from a first-person viewpoint of the user from a first self-image taken by a camera facing the user.
また、本発明の一態様による映像表示装置では、参照映像は、模倣対象を動作させる被模倣者の視点からの映像であり、生成部は、ユーザの視点からの映像である第2の自己映像を生成してもよい。 Further, in the video display device according to one aspect of the present invention, the reference video is a video from the viewpoint of the imitator who moves the imitation target, and the generation unit generates a second self-video that is the video from the user's viewpoint. may be generated.
このような構成により、第1の自己映像を撮影する自己映像用カメラとユーザとの相対的な位置関係に関わらず、一人称視点の第2の自己映像を生成することができる。 With such a configuration, it is possible to generate a second self-image from a first-person viewpoint, regardless of the relative positional relationship between the user and the self-image camera that captures the first self-image.
また、本発明の一態様による映像表示装置では、模倣対象は、形状が変化する操作対象物を含み、第1の自己映像は、ユーザの手を含んでおり、生成部は、第1の自己映像に含まれるユーザの手のジェスチャに応じて形状が変化する操作対象物の3次元オブジェクトを含む第2の自己映像を生成してもよい。 Further, in the video display device according to one aspect of the present invention, the imitation target includes an operation target whose shape changes, the first self-image includes the user's hand, and the generation unit A second self-image may be generated that includes a three-dimensional object as an operation target whose shape changes according to the user's hand gesture included in the image.
このような構成により、コントローラなどを用いることなく、ジェスチャによって操作対象物の3次元オブジェクトを操作することができる。 With such a configuration, the three-dimensional object to be manipulated can be manipulated by gestures without using a controller or the like.
また、本発明の一態様による映像表示装置では、模倣対象は、形状が変化する操作対象物を含み、ユーザによって操作されるコントローラからの指示を受け付ける受付部をさらに備え、生成部は、受付部によって受け付けられた指示に応じて形状が変化する操作対象物の3次元オブジェクトを含む第2の自己映像を生成してもよい。 Further, in the video display device according to one aspect of the present invention, the imitation target includes an operation target whose shape changes, and the generation unit further includes a reception unit that receives an instruction from a controller operated by a user. A second self-image including a three-dimensional object of an operation target whose shape changes according to an instruction received by the user may be generated.
このような構成により、コントローラを用いることによって、操作対象物の3次元オブジェクトを操作することができる。そのため、例えば、参照映像が手術ロボットの映像である場合に、その手術ロボットの操作で用いられるコントローラと同様のコントローラを用いてユーザが操作対象物の3次元オブジェクトを操作するようにすることもでき、ユーザは、実環境の手術ロボットと同様な環境で3次元オブジェクトを操作することができるようになる。 With such a configuration, the three-dimensional object to be manipulated can be manipulated by using the controller. Therefore, for example, if the reference image is an image of a surgical robot, the user can operate the three-dimensional object to be operated using a controller similar to the controller used to operate the surgical robot. , the user will be able to manipulate three-dimensional objects in an environment similar to a real-world surgical robot.
また、本発明の一態様による映像表示装置では、表示部は、参照映像と第2の自己映像とを合成して表示してもよい。 Further, in the video display device according to one aspect of the present invention, the display unit may combine the reference video and the second self-video and display the composite image.
このような構成により、参照映像と第2の自己映像とを容易に比較することができ、ユーザは、自らの動作が、参照映像の模倣対象の動作と同様になるように学習することができる。 With such a configuration, the reference video and the second self-video can be easily compared, and the user can learn to make his/her own actions similar to the actions to be imitated in the reference video. .
また、本発明の一態様による映像表示装置では、自己映像用カメラと、参照映像と第2の自己映像とが表示される表示デバイスとは、光軸方向における自己映像用カメラから撮影対象への向きと、表示デバイスを正視する視線の向きとが逆になるように配置されていてもよい。 Further, in the image display device according to one aspect of the present invention, the self-image camera and the display device on which the reference image and the second self-image are displayed are configured to move from the self-image camera to the object to be photographed in the optical axis direction. The display device may be arranged so that the direction and the direction of the line of sight looking directly at the display device are opposite to each other.
このような構成により、例えば、ノートパソコンやタブレット端末、スマートフォンなどのユーザに対面するカメラによって撮影された第1の自己映像から、第2の自己映像を生成し、その第2の自己映像と参照映像とをユーザに対して表示することができるようになる。 With such a configuration, for example, a second self-image is generated from a first self-image taken by a camera facing the user such as a laptop computer, a tablet terminal, or a smartphone, and the second self-image and the reference The video can now be displayed to the user.
また、本発明の一態様による映像表示方法は、ユーザが動作を模倣する対象となる模倣対象の動作の映像である参照映像が記憶される記憶部と、映像取得部と、骨格認識部と、生成部と、表示部とを用いて処理される映像表示方法であって、映像取得部が、ユーザの動作の映像である第1の自己映像を取得するステップと、骨格認識部が、第1の自己映像に含まれるユーザの骨格認識を行うステップと、生成部が、模倣対象に対応する3次元オブジェクトであり、ユーザの動作に応じて動く3次元オブジェクトの映像である第2の自己映像を、骨格認識の結果を用いて、参照映像を撮影する参照映像用カメラと模倣対象との相対的な位置関係と、3次元オブジェクトの映像の視点と3次元オブジェクトとの相対的な位置関係とが同じになるように生成するステップと、表示部が、参照映像及び第2の自己映像を表示するステップと、を備え、参照映像用カメラと模倣対象との相対的な位置関係と、第1の自己映像を撮影する自己映像用カメラと模倣対象に対応するユーザの部分との相対的な位置関係とは異なる、ものである。 Further, a video display method according to one aspect of the present invention includes: a storage unit that stores a reference video that is a video of an action to be imitated whose action is to be imitated by a user; a video acquisition unit; a skeleton recognition unit; A video display method that is processed using a generation unit and a display unit, the video acquisition unit acquiring a first self-image that is an image of a user's movement; a second self-image, which is a three-dimensional object corresponding to the imitation target and which is an image of a three-dimensional object that moves in response to the user's movements; Using the results of skeleton recognition, the relative positional relationship between the reference video camera that shoots the reference video and the imitation target, and the relative positional relationship between the video viewpoint of the 3D object and the 3D object are determined. and a step in which the display unit displays the reference video and the second self-video, and the display unit displays the relative positional relationship between the reference video camera and the imitation target, and the first self-video. The relative positional relationship between the self-image camera that photographs the self-image and the part of the user corresponding to the imitation target is different.
本発明の一態様による映像表示装置等によれば、参照映像と同様の撮影環境を用意しなくても、参照映像と比較可能な自己映像を表示することができるようになる。 According to a video display device or the like according to one aspect of the present invention, it becomes possible to display a self-image that can be compared with a reference video without preparing a shooting environment similar to that of the reference video.
以下、本発明による映像表示装置、及び映像表示方法について、実施の形態を用いて説明する。なお、以下の実施の形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。本実施の形態による映像表示装置は、ユーザが動作を模倣する対象となる模倣対象の動作の映像である参照映像とは異なる撮影環境で撮影された第1の自己映像を用いて、視点と3次元オブジェクトとの相対的な位置関係が参照映像の撮影環境と同様になるように3次元オブジェクトの第2の自己映像を生成し、参照映像と第2の自己映像とを表示するものである。 Hereinafter, a video display device and a video display method according to the present invention will be described using embodiments. Note that in the following embodiments, components and steps denoted by the same reference numerals are the same or equivalent, and a repeated explanation may be omitted. The video display device according to the present embodiment uses a first self-video shot in a different shooting environment from a reference video, which is a video of the motion of the imitation target whose motion is to be imitated by the user. A second self-image of the three-dimensional object is generated so that the relative positional relationship with the dimensional object is similar to the shooting environment of the reference image, and the reference image and the second self-image are displayed.
図1は、本実施の形態による映像表示装置1の構成を示すブロック図である。本実施の形態による映像表示装置1は、記憶部11と、映像取得部12と、骨格認識部13と、生成部14と、表示部15とを備える。なお、映像表示装置1は、一例として、図2等で示されるようにコンピュータ900によって実現されてもよい。本実施の形態では、この場合について主に説明する。
FIG. 1 is a block diagram showing the configuration of a
記憶部11では、ユーザが動作を模倣する対象となる模倣対象の動作の映像である参照映像が記憶される。ユーザは、参照映像を参照しながら動作を学習する学習者である。ユーザが学習する動作は、例えば、手術などの動作であってもよく、工場における作業の動作であってもよく、介護やホテルなどにおける業務の動作であってもよく、料理などの動作であってもよく、工芸品等の作品の作成のための動作であってもよく、スポーツなどの動作であってもよく、習字などの動作であってもよく、ロープ結びの動作であってもよく、その他の動作であってもよい。模倣対象は、例えば、被模倣者の身体の一部であってもよく、被模倣者によって動作される対象物であってもよい。被模倣者は、例えば、学習者であるユーザの先生役であり、学習者が学習する対象となる動作に熟練している者であってもよい。また、被模倣者の身体の一部は、例えば、被模倣者の手を含んでいてもよい。また、被模倣者によって動作される対象物は、例えば、手術ロボットの手先や鉗子などであってもよく、被模倣者が有している鉗子やメス、ピンセット、ハサミ、筆などの道具であってもよい。参照映像は、通常、カメラによって撮影された映像であるが、カメラによって撮影された映像に相当するCG(Computer Graphics)映像であってもよい。参照映像は、一例として、模倣対象を動作させる被模倣者の視点からの映像、すなわち被模倣者の一人称視点の映像であってもよい。この場合には、参照映像は、一例として、被模倣者が装着しているヘッドマウントカメラで撮影された映像であってもよい。本実施の形態では、図3で示されるように、手術ロボットの鉗子である模倣対象21を含む参照映像が記憶部11で記憶されている場合について主に説明する。
The
記憶部11では、例えば、参照映像の全体が記憶されてもよく、または、参照映像の一部が記憶されてもよい。一例として、映像表示装置1が、外部から参照映像を受信しながら表示する場合には、参照映像の一部である受信された最新の参照映像の部分が記憶部11で記憶され、それが読み出されて表示されると共に、順次、上書きされてもよい。記憶部11には、参照映像以外の情報が記憶されてもよい。例えば、3次元オブジェクトの情報が記憶部11で記憶されてもよく、生成部14によって生成された第2の自己映像が記憶部11で記憶されてもよく、映像取得部12によって取得された第1の自己映像が記憶部11で記憶されてもよい。
In the
記憶部11に情報が記憶される過程は問わない。例えば、記録媒体を介して情報が記憶部11で記憶されるようになってもよく、通信回線等を介して送信された情報が記憶部11で記憶されるようになってもよく、または、カメラなどのデバイスを介して入力された情報が記憶部11で記憶されるようになってもよい。記憶部11は、不揮発性の記録媒体によって実現されることが好適であるが、揮発性の記録媒体によって実現されてもよい。記録媒体は、例えば、半導体メモリや磁気ディスクなどであってもよい。
The process by which information is stored in the
映像取得部12は、ユーザの動作の映像である第1の自己映像を取得する。映像取得部12は、例えば、映像を撮影するカメラ等の光学機器であってもよく、カメラ等の光学機器によって撮影された映像を取得するものであってもよい。本実施の形態では、映像取得部12が自己映像用カメラであるカメラ901によって撮影された映像を受け付ける場合について主に説明する。第1の自己映像は、一例として、ユーザの手の動作の映像であってもよい。第1の自己映像は、例えば、ユーザの手のひらの映像であってもよく、ユーザの手首から肘までの腕をも含む映像であってもよく、ユーザの肘から肩までの腕をも含む映像であってもよく、さらに、ユーザの肩や胴体をも含む映像であってもよい。視線方向が設定された角度だけ変化されることによって第2の自己映像が生成される場合には、第1の自己映像は、あらかじめ決められたように撮影されることが好適である。例えば、第1の自己映像は、自己映像用カメラとユーザとが対向した状態で撮影されてもよい。また、ユーザの視点からの第2の自己映像が生成される場合には、ユーザの視線方向が分かる第1の自己映像、例えば、ユーザの頭部をも含む第1の自己映像が取得されることが好適である。
The
なお、参照映像を撮影する参照映像用カメラと模倣対象との相対的な位置関係と、第1の自己映像を撮影する自己映像用カメラと模倣対象に対応するユーザの部分との相対的な位置関係とは異なっているものとする。模倣対象に対応するユーザの部分は、特に限定されないが、例えば、ユーザの手のひらや、ユーザの肘から先の手の部分などであってもよい。一例として、参照映像は、被模倣者の一人称視点の映像であり、第1の自己映像は、図2で示されるように、ユーザ30に対向するカメラ901によって撮影された映像であってもよい。本実施の形態では、主にこの場合について説明する。また、本実施の形態では、一例として、図2で示されるように、カメラ901と、参照映像及び第2の自己映像が表示される表示デバイス902とが、光軸方向におけるカメラ901から撮影対象であるユーザ30への向きと、表示デバイス902を正視するユーザ30の視線の向きとが逆になるように配置されている場合、すなわち、カメラ付きのノートパソコンや、カメラ付きのタブレット端末、カメラ付きのスマートフォンなどで第1の自己映像の撮影や、参照映像及び第2の自己映像の表示などを行う場合について主に説明する。なお、カメラ901は、例えば、コンピュータ900の内蔵カメラであってもよい。コンピュータ900の内蔵カメラは、例えば、ノートパソコンの対面カメラや、タブレット端末、スマートフォンのインカメラであってもよい。
In addition, the relative positional relationship between the reference video camera that shoots the reference video and the imitation target, and the relative position between the self-image camera that shoots the first self-video and the part of the user corresponding to the imitation target. It shall be different from the relationship. The part of the user that corresponds to the imitation target is not particularly limited, but may be, for example, the user's palm or the part of the user's hand from the elbow. As an example, the reference video may be a first-person perspective video of the person to be imitated, and the first self-video may be a video captured by a
骨格認識部13は、第1の自己映像に含まれるユーザの骨格認識を行う。骨格認識部13は、例えば、第1の自己映像のあるフレームにおいて人または人の一部の検出を行い、検出した人や人の一部について骨格認識を行ってもよい。また、骨格認識部13は、その処理を、第1の自己映像に含まれる複数のフレームのそれぞれについて行ってもよい。すなわち、骨格認識の処理が繰り返して行われてもよい。なお、第1の自己映像のすべてのフレームについて骨格認識が行われてもよく、飛び飛びのフレームについて骨格認識が行われてもよい。人の一部は、例えば、人の上半身であってもよく、人の手のひらを含む腕の部分であってもよく、人の手のひらの部分であってもよい。生成部14において、ユーザの視点からの第2の自己映像が生成される場合には、ユーザの頭部を含む骨格認識が行われることが好適である。この骨格認識の方法については、すでに公知であり、その詳細な説明を省略する。骨格認識部13は、例えば、図4で示されるように、第1の自己映像に含まれるユーザ30を特定し、そのユーザ30の骨格31を認識してもよい。骨格31は、一例として、図4で示されるように、関節、並びに指先及び頭部などの身体の端部に対応する丸形状などのノード図形と、それらを繋ぐ腕などの体の部位に対応する直線状のリンク図形とを含んでいてもよい。図5は、ユーザ30の手32について認識された骨格31を示す図である。本実施の形態では、骨格認識部13によって認識された手32の骨格31を用いて3次元オブジェクトが操作される場合について主に説明する。
The
生成部14は、模倣対象に対応する3次元オブジェクトであり、ユーザの動作に応じて動く3次元オブジェクトの映像である第2の自己映像を、骨格認識部13による骨格認識の結果を用いて生成する。模倣対象に対応する3次元オブジェクトは、模倣対象に似ている形状の3次元オブジェクトであることが好適であるが、例えば、模倣対象の形状等を簡略化した形状の3次元オブジェクトであってもよい。第2の自己映像に含まれる3次元オブジェクトの位置や姿勢は、例えば、模倣対象に対応するユーザの部分の骨格の認識結果に応じた位置及び姿勢であってもよく、また、模倣対象に対応するユーザの部分の骨格の認識結果の時系列に応じた変化に応じて動いてもよい。また、生成部14は、参照映像を撮影する参照映像用カメラと模倣対象との相対的な位置関係と、3次元オブジェクトの映像の視点と3次元オブジェクトとの相対的な位置関係とが同じになるように、第2の自己映像を生成するものとする。3次元オブジェクトの映像の視点は、例えば、3次元仮想空間に配置された3次元オブジェクトを2次元の映像にレンダリングする際の視点であってもよい。また、参照映像用カメラの光軸の方向と模倣対象との相対的な位置関係と、3次元オブジェクトの映像の視線の方向と3次元オブジェクトとの相対的な位置関係とも同じになるように第2の自己映像が生成されてもよい。このようにすることで、第1の自己映像を、参照映像と同様の撮影環境で撮影された第2の自己映像に変換することができる。例えば、参照映像が一人称視点の映像である場合には、図2のようにユーザ30に対面するカメラ901で撮影された第1の自己映像から、一人称視点の映像である第2の自己映像を生成することができる。なお、視点や視線の方向が同じであるとは、例えば、両者が厳密に同じであることであってもよく、両者が所定の誤差の範囲内で同じであることであってもよい。
The
骨格認識の結果によって示されるのは、2次元の画像において認識された骨格であるが、人間の身体は、肩から肘までの長さ、肘から手首までの長さ、手首から各指の付け根までの長さ、各指の長さ、手の幅などのように各部分の長さが概ね決まっており、また、各関節における可動域も決まっている。したがって、それらを考慮することにより、生成部14は、骨格認識部13による骨格認識の結果に基づいて、第1の自己映像に含まれるユーザ30の骨格の3次元における位置や姿勢を推定することができる。例えば、生成部14は、骨格認識の結果に基づいて、3次元空間における、第1の自己映像を撮影した自己映像用カメラの位置及び光軸方向と、ユーザの骨格31とを特定してもよい。
The results of skeletal recognition show the skeletal structure recognized in a two-dimensional image, but the length of the human body is measured from the shoulder to the elbow, from the elbow to the wrist, and from the wrist to the base of each finger. The length of each part is roughly determined, such as the length of the head, the length of each finger, and the width of the hand, and the range of motion of each joint is also determined. Therefore, by considering them, the
例えば、図5で示される手32の骨格31では、手32が矢印B1の方向に回転したとしても、両矢印A1の長さは変化せず、手32が矢印B2の方向に回転したとしても、両矢印A2の長さは変化しない。なお、両矢印A1は、人差し指の付け根の関節と、小指の付け根の関節とを両端点とする両矢印であり、両矢印A2は、手首の関節と、中指の付け根の関節とを両端点とする両矢印である。したがって、生成部14は、骨格認識の結果において、手32の両矢印A1,A2の長さや、その長さの変化に応じて、矢印B1,B2方向における手の角度や、その角度の変化について知ることができる。
For example, in the
矢印B1の方向におけるどちら側に回転したのかについては、例えば、各指の関節間の距離の変化に応じて判断してもよい。例えば、矢印B1の方向に回転した際に、手首に近い側の関節間の距離が大きくなったのに対して、指先に近い側の関節間の距離が小さくなった場合には、手首側がカメラに近づく方向に回転したと判断され、手首に近い側の関節間の距離が小さくなったのに対して、指先に近い側の関節間の距離が大きくなった場合には、指先側がカメラに近づく方向に回転したと判断されてもよい。矢印B2の方向におけるどちら側に回転した除けについても、同様にして判断してもよい。例えば、矢印B2の方向に回転した際に、小指の関節間の距離が大きくなったのに対して、親指の関節間の距離が小さくなった場合には、小指側がカメラに近づく方向に回転したと判断され、小指の関節間の距離が小さくなったのに対して、親指の関節間の距離が大きくなった場合には、親指側がカメラに近づく方向に回転したと判断されてもよい。 The direction of rotation in the direction of arrow B1 may be determined based on, for example, a change in the distance between the joints of each finger. For example, when rotating in the direction of arrow B1, if the distance between the joints on the side closer to the wrist increases, but the distance between the joints on the side closer to the fingertips decreases, the wrist side becomes the camera. If the distance between the joints on the side closer to the wrist becomes smaller, whereas the distance between the joints on the side closer to the fingertips increases, the fingertips will move closer to the camera. It may be determined that the object has rotated in the direction. The determination may be made in the same manner for the blade rotated to either side in the direction of arrow B2. For example, when rotating in the direction of arrow B2, the distance between the joints of the little finger becomes larger, but if the distance between the joints of the thumb becomes smaller, the little finger side rotates in the direction closer to the camera. If it is determined that the distance between the joints of the little finger has become smaller while the distance between the joints of the thumb has become larger, it may be determined that the thumb side has rotated in a direction closer to the camera.
また、図4などで示される骨格認識の結果において、例えば、カメラの光軸方向に垂直な平面方向における肩や肘、手首の位置は、第1の自己映像における肩や肘、手首の位置に応じて特定することができる。また、肩に対する肘や手首のカメラの光軸方向における位置については、例えば、第1の自己映像において、肩から肘までの長さが肩から肘までの本来の長さと比較して短い場合には、それに応じて肘がカメラ側に近づいていると推定することができる。また、肘から手首についても同様である。このようにして、生成部14は、ユーザ30の腕や手のひらの骨格の3次元における位置や姿勢を推定してもよい。
In addition, in the skeleton recognition results shown in FIG. 4, for example, the positions of the shoulders, elbows, and wrists in the plane direction perpendicular to the optical axis direction of the camera are the same as the positions of the shoulders, elbows, and wrists in the first self-image. It can be specified accordingly. Regarding the position of the elbow and wrist relative to the shoulder in the optical axis direction of the camera, for example, in the first self-image, if the length from the shoulder to the elbow is shorter than the original length from the shoulder to the elbow, It can be estimated that the elbow is moving closer to the camera side accordingly. The same applies to the elbow to wrist. In this way, the
生成部14は、このようにして推定したユーザ30の骨格31の3次元における位置や姿勢を用いて、第2の自己映像を生成してもよい。生成部14は、例えば、骨格認識部13による骨格認識の結果の視線方向を、設定されている角度だけ変化させた第2の自己映像を生成してもよい。具体的には、生成部14は、骨格認識の結果に基づいて、3次元仮想空間における、自己映像用カメラの位置及び光軸方向に相当する視点及び視線方向と、ユーザの骨格31とを特定し、視点及び視線方向をあらかじめ決められているように変更してもよい。このように、生成部14は、視線方向を変化させると共に、視点も変化させてもよい。より具体的には、生成部14は、図4で示される第1の自己映像のように、ユーザ30の手先から肩に向かう視線方向を、ユーザ30の肩から手先に向かう視線方向に変化させた第2の自己映像、すなわち一人称視点の第2の自己映像を生成してもよい。なお、視点及び視線方向と、骨格31との位置関係は相対的なものであるため、生成部14は、3次元仮想空間において、例えば、視線方向を変化させる代わりに、ユーザ30の骨格を変化させてもよい。ユーザ30の骨格の変化は、一例として、ユーザ30の骨格の回転であってもよく、さらに移動を含んでいてもよい。このように、例えば、3次元仮想空間において骨格の角度などを変化させた場合にも、視線方向を変化させたと考えてもよい。
The
また、生成部14は、例えば、3次元仮想空間において、ユーザ30の骨格の位置及び姿勢に基づいて3次元オブジェクトを配置してもよい。生成部14は、例えば、3次元仮想空間において、ユーザ30の肘から手先までの骨格を用いて、長手方向がユーザ30の肘から手首までの方向に沿っており、先端がユーザ30の手のひらの位置となるように鉗子の3次元オブジェクトを配置してもよい。また、生成部14は、例えば、ユーザ30の手のひらの骨格を用いて、長手方向が図5の矢印A2の方向に沿っており、長手方向を中心とした角度が図5の矢印A1の方向に応じて変化し、先端がユーザ30の中指の先端の位置となるように鉗子の3次元オブジェクトを配置してもよい。この3次元オブジェクトは、例えば、記憶部11で記憶されており、それが読み出されて用いられてもよい。3次元オブジェクトは、例えば、模倣対象に対応したものであり、例えば、鉗子やメスなどの道具であってもよく、手を含んでいてもよい。3次元オブジェクトが手を含んでいる場合には、生成部14は、骨格認識の結果によって示される手の骨格に応じた形状の手の3次元オブジェクトを3次元仮想空間に配置してもよい。
Further, the
なお、ここでは、ユーザ30の骨格と視点や視線方向との相対的な位置関係を変化させた後に、ユーザ30の骨格に応じて3次元オブジェクトを配置する場合について説明したが、その順序は逆であってもよい。例えば、ユーザ30の骨格に応じて3次元オブジェクトを配置してから、その3次元オブジェクトと視点や視線方向との相対的な位置関係を変化させてもよい。
Note that here, a case has been described in which a three-dimensional object is arranged according to the user's 30 skeleton after changing the relative positional relationship between the user's 30's skeleton and the viewpoint or line of sight direction, but the order is reversed. It may be. For example, after arranging a three-dimensional object according to the skeleton of the
また、生成部14は、例えば、ユーザ30の視点からの映像である第2の自己映像を生成してもよい。この場合には、生成部14は、例えば、骨格認識の結果に基づいて、3次元仮想空間における、ユーザ30の頭部の位置を含むユーザの骨格31を特定し、ユーザ30の頭部の位置を視点とし、その視点からユーザ30の手先に向かう方向を視線方向として特定してもよい。そして、上記説明と同様に、生成部14は、3次元仮想空間において、ユーザ30の骨格の位置及び姿勢に基づいて3次元オブジェクトを配置してもよい。
Furthermore, the
3次元仮想空間には、例えば、ユーザ30の右手に対応する3次元オブジェクトと、ユーザ30の左手に対応する3次元オブジェクトとが配置されてもよい。この場合には、ユーザ30の右手に関する骨格認識の結果に基づいて、右手に対応する3次元オブジェクトが配置され、ユーザの左手に関する骨格認識の結果に基づいて、左手に対応する3次元オブジェクトが配置されてもよい。図6は、そのようにして生成された3次元オブジェクト33a,33bを含む第2の自己映像の一例を示す図である。3次元オブジェクト33a,33bはそれぞれ、ユーザ30の右手及び左手に対応したものであってもよい。なお、3次元オブジェクト33a,33bを特に区別しない場合には、3次元オブジェクト33と呼ぶこともある。また、第2の自己映像において、3次元オブジェクト33a,33b以外の領域は、例えば、透明であってもよい。
For example, a three-dimensional object corresponding to the right hand of the
生成部14は、3次元仮想空間において、視点及び視線方向に基づいて3次元オブジェクト33をレンダリングすることによって2次元画像を生成してもよい。この2次元画像は、3次元仮想空間において、視点から視線方向に3次元オブジェクト33を見た2次元画像となる。生成部14は、例えば、骨格認識部13によって繰り返して行われる骨格認識の結果に応じて3次元仮想空間における3次元オブジェクト33の位置や姿勢を変化させ、その変化後の3次元オブジェクト33のレンダリングの結果である2次元画像を繰り返して生成してもよい。第2の自己映像は、例えば、そのようにして生成された複数の2次元画像によって構成されてもよい。
The
なお、3次元仮想空間における3次元オブジェクトの大きさ、視点から3次元オブジェクトまでの距離、及びレンダリング時の画角などに応じて、第2の自己映像に含まれる3次元オブジェクト33の大きさが決まることになる。一例として、3次元仮想空間における3次元オブジェクトの大きさ、及びレンダリング時の画角などは、あらかじめ決められた値であり、視点から3次元オブジェクトまでの距離は、自己映像用カメラから、模倣対象に対応するユーザの部分までの距離に応じて決まってもよい。自己映像用カメラから、模倣対象に対応するユーザの部分までの距離は、例えば、第1の自己映像に含まれる、模倣対象に対応するユーザの部分の大きさに応じて決まってもよい。この場合には、ユーザは、例えば、自己映像用カメラとユーザとの距離を変えることによって、第2の自己映像に含まれる3次元オブジェクト33の大きさを調整することができる。また、ユーザは、例えば、あらかじめ決められた値を調整できてもよい。また、一例として、第2の自己映像に含まれる3次元オブジェクト33の大きさと、参照映像に含まれる模倣対象との大きさが同じになるように、生成部14によって、3次元仮想空間における3次元オブジェクトの大きさ、及びレンダリング時の画角などが自動的に調整されてもよい。この自動的な調整は、例えば、第2の自己映像の生成の開始時点に1回だけ行われてもよく、第2の自動映像の生成時に繰り返して行われてもよい。3次元オブジェクト33の大きさと模倣対象との大きさが同じであるとは、例えば、厳密に同じであることであってもよく、所定の誤差の範囲内で同じであることであってもよい。また、参照映像に含まれる模倣対象の領域は、例えば、パターンマッチングや、セグメンテーションなどによって特定されてもよい。
Note that the size of the three-
表示部15は、記憶部11で記憶されている参照映像と、生成部14によって生成された第2の自己映像とを表示する。表示部15は、両映像を比較することができるように両映像を表示することが好適である。表示部15は、例えば、参照映像と第2の自己映像とを合成して表示してもよい。この場合には、例えば、図7で示されるように、模倣対象21と、3次元オブジェクト33a,33bとが一緒に表示されてもよい。なお、図7では、模倣対象21と、3次元オブジェクト33a,33bとを区別可能にするため、3次元オブジェクト33a,33bを破線で示している。また、例えば、参照映像の手前側、すなわち上側に、第2の自己映像を合成してもよい。上記したように、参照映像に合成される第2の自己映像は、3次元オブジェクト33以外の領域は透明であってもよい。また、参照映像に合成される第2の自己映像における3次元オブジェクト33の領域の不透明度は、例えば、100%であってもよく、100%未満であってもよい。第2の自己映像の不透明度が0%より大きく、100%未満である場合、すなわち第2の自己映像が半透明である場合には、ユーザは、仮に3次元オブジェクト33と模倣対象21が重なっていたとしても、両方を見ることができるようになる。
The
なお、表示部15は、例えば、両映像を時分割で切り替えながら表示してもよい。より具体的には、表示部15は、第1の時間だけ参照映像を表示し、次の第2の時間だけ第2の自己映像を表示することを繰り返してもよい。この場合には、表示部15は、第1の時間ごとに分割された参照映像を、第2の時間の第2の自己映像の表示を挟みながら順番に表示してもよい。第1及び第2の時間は特に限定されないが、例えば、それぞれ0.1秒から1秒の範囲内の時間であってもよい。この場合でも、ユーザは、両方の映像を見ることができるようになる。なお、参照映像と第2の自己映像との切り替えながらの表示は、参照映像の手前側に合成した第2の自己映像の不透明度を、第1の時間だけ0%にして表示した後に、第2の時間だけ100%にして表示することを繰り返していると考えることもできる。この場合には、第2の自己映像において、3次元オブジェクト33以外の領域は不透明(例えば、白色などの単色など)であってもよい。また、この場合に、0%と100%との間で不透明度を切り替えるのではなく、不透明度を0%から100%まで連続して変化させてもよい。例えば、不透明度を、正弦波やノコギリ波、三角波などのように0%から100%までの範囲内で連続的に変化させてもよい。
Note that the
なお、表示部15は、それらの表示を行う表示デバイス(例えば、液晶ディスプレイや有機ELディスプレイなど)を含んでもよく、または含まなくてもよい。また、表示対象の表示は、別の装置においてなされてもよい。その場合には、表示部15は、装置の外部に対して表示対象の映像を送信するものであってもよい。また、表示部15は、ハードウェアによって実現されてもよく、または表示デバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。
Note that the
また、模倣対象が、形状が変化する操作対象物を含む場合には、生成部14は、例えば、その操作対象物の3次元オブジェクトを含む第2の自己映像を生成してもよい。形状が変化する操作対象物は、操作者の操作に応じて形状が変化するものである。この操作対象物は、例えば、ハサミ、鉗子、ピンセット、トングなどのように、開閉部を有しており、その開閉部が開状態と閉状態との間で形状が変化するものであってもよい。この場合には、第1の自己映像にユーザ30の手32が含まれていてもよい。そして、生成部14は、第1の自己映像に含まれるユーザ30の手32のジェスチャに応じて形状が変化する操作対象物の3次元オブジェクトを含む第2の自己映像を生成してもよい。ジェスチャは、例えば、ユーザ30の手32の形状であってもよく、手32の形状の動きであってもよい。前者のジェスチャは静的なものであり、後者のジェスチャは動的なものである。生成部14は、例えば、第1の自己映像そのものから、ユーザ30の手32のジェスチャを特定してもよく、第1の自己映像における骨格認識の結果を用いて、ユーザ30の手32のジェスチャを特定してもよい。動的なジェスチャは、例えば、第1の自己映像における手32の形状の変化や、骨格31の形状の変化を用いて特定されてもよい。
Further, when the imitation target includes an operation target whose shape changes, the
操作対象物が開閉部を有している鉗子であり、静的なジェスチャが特定される場合には、生成部14は、例えば、図8Aで示されるように、手32が開いているとき、特に手32の人差し指の先端と親指の先端とが離れているときに、開閉部が開いている鉗子の3次元オブジェクト33を含む第2の自己映像を生成し、図8Bで示されるように、手32の人差し指の先端と親指の先端とが接しているときに、開閉部が閉じている鉗子の3次元オブジェクト33を含む第2の自己映像を生成してもよい。なお、ジェスチャに応じて、鉗子の3次元オブジェクト33の開閉部が、2個の状態、すなわち開いている状態と閉じている状態とに変化してもよく、さらに開閉部の開いている程度も含めて変化してもよい。後者の場合には、生成部14は、例えば、第1の自己映像における骨格認識の結果を用いて、手32の人差し指の先端と親指の先端とが、開いている状態(図8A)に近いのか、閉じている状態(図8B)に近いのかの程度を取得し、その程度に応じて、3次元オブジェクト33の開閉部の開いている程度を変化させてもよい。この場合には、例えば、手32の人差し指の先端と親指の先端とが閉じている状態に近くなるほど、3次元オブジェクト33の開閉部が閉じている状態に近くなるように、その開閉の程度が変化されてもよい。また、操作対象物が開閉部を有している鉗子であり、動的なジェスチャが特定される場合には、生成部14は、例えば、手32が開いている状態から人差し指の先端と親指の先端とが接している状態に変化したときに、開閉部が開いた状態から閉じた状態に変化した鉗子の3次元オブジェクト33を含む第2の自己映像を生成し、手32の人差し指の先端と親指の先端とが接している状態から、両先端が離れた状態に変化したときに、開閉部が閉じた状態から開いた状態に変化した鉗子の3次元オブジェクト33を含む第2の自己映像を生成してもよい。このようにすることで、コントローラなどを用いることなく、ユーザ30の手32のジェスチャを用いて、第2の自己映像に含まれる3次元オブジェクト33の形状を変化させることができる。なお、3次元オブジェクト33の位置や姿勢は、骨格認識部13による骨格認識の結果、例えば、手32の位置や姿勢に応じて変化されてもよい。
When the object to be operated is a forceps having an opening/closing part and a static gesture is specified, the
次に、映像表示装置1の動作について図9のフローチャートを用いて説明する。
Next, the operation of the
(ステップS101)表示部15は、記憶部11で記憶されている参照映像の表示を開始する。この後、表示部15による参照映像の表示は、継続して行われるものとする。
(Step S101) The
(ステップS102)映像取得部12は、第1の自己映像を取得するかどうか判断する。そして、第1の自己映像を取得する場合にはステップS103に進み、そうでない場合には、第1の自己映像を取得すると判断するまでステップS102の処理を繰り返す。なお、映像取得部12は、例えば、第1の自己映像を取得すると定期的に判断してもよい。
(Step S102) The
(ステップS103)映像取得部12は、第1の自己映像を取得する。なお、この第1の自己映像の取得は、例えば、第1の自己映像を構成する1つのフレームの取得であってもよい。映像取得部12は、一例として、カメラ901から第1の自己映像を受け取ってもよい。
(Step S103) The
(ステップS104)骨格認識部13は、第1の自己映像に含まれるユーザ30の骨格認識を行う。この骨格認識は、例えば、第1の自己映像を構成する1つのフレームについて行われてもよい。
(Step S104) The
(ステップS105)生成部14は、第1の自己映像、または骨格認識の結果を用いて、ユーザ30の手32のジェスチャを特定する。静的なジェスチャの特定は、例えば、1つのフレーム、または1つのフレームについて行われた骨格認識の結果を用いて行われてもよい。動的なジェスチャの特定は、例えば、複数の連続したフレーム、または、複数の連続したフレームについて行われた骨格認識の結果を用いて行われてもよい。
(Step S105) The
(ステップS106)生成部14は、骨格認識の結果と、ユーザ30の手32のジェスチャの特定結果とを用いて、3次元オブジェクト33を含む第2の自己映像を生成する。この第2の自己映像の生成は、例えば、第2の自己映像を構成する1つのフレームの生成であってもよい。また、第2の自己映像に含まれる3次元オブジェクト33の形状は、特定されたユーザ30の手32のジェスチャに応じたものであってもよい。また、この第2の自己映像は、参照映像用カメラと模倣対象との相対的な位置関係と、第2の自己映像の視点と3次元オブジェクト33との相対的な位置関係とが同じになるように生成されてもよい。
(Step S106) The
(ステップS107)表示部15は、生成された第2の自己映像を、参照映像と一緒に表示する。例えば、第2の自己映像と参照映像とが合成されて表示されてもよい。このようにして、ユーザ30は、参照映像と第2の自己映像との両方を見ることができるようになる。そして、ステップS102に戻る。
(Step S107) The
なお、図9のフローチャートにおける処理の順序は一例であり、同様の結果を得られるのであれば、各ステップの順序を変更してもよい。また、図9のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 Note that the order of processing in the flowchart of FIG. 9 is an example, and the order of each step may be changed as long as the same result can be obtained. Further, in the flowchart of FIG. 9, the process is terminated by turning off the power or by an interrupt to terminate the process.
次に、本実施の形態による映像表示装置1の動作について、具体例を用いて説明する。本具体例において、参照映像は、図3で示されるように、鉗子である模倣対象21が手術ロボットによって操作されている状況の映像であるとする。また、図2で示されるように、映像表示装置1がノートパソコンであるコンピュータ900によって実現されており、そのコンピュータ900に内蔵されているカメラ901を用いて、ユーザ30の手32を含む第1の自己映像が撮影されるものとする。
Next, the operation of the
まず、ユーザ30が、コンピュータ900を操作して、参照映像、及び第2の自己映像を表示する旨の指示を入力したとする。すると、その指示に応じて、表示部15は、記憶部11で記憶されている参照映像の表示デバイス902への表示を開始する(ステップS101)。また、映像取得部12は、カメラ901によって撮影されたユーザ30の第1の自己映像を取得して、それを骨格認識部13に渡す(ステップS102、S103)。骨格認識部13は、図4で示されるように、ユーザ30に対面するカメラ901によって撮影された第1の自己映像において、ユーザ30の骨格31を認識して、その認識した骨格31を生成部14に渡す(ステップS104)。認識結果の骨格31を受け取ると、生成部14は、その骨格31の手の部分の形状を用いて、ユーザ30の手のジェスチャを特定する(ステップS105)。また、生成部14は、骨格認識の結果、及びジェスチャの特定結果を用いて、3次元仮想空間において、ユーザ30の骨格31に応じた位置及び姿勢となるように、特定されたジェスチャに応じた形状の3次元オブジェクト33a,33bを配置し、その3次元オブジェクト33a,33bを、ユーザ30の一人称視点の映像となるようにレンダリングすることによって第2の自己映像を生成して表示部15に渡す(ステップS106)。例えば、図6のような第2の自己映像が生成されることになる。第2の自己映像を受け取ると、表示部15は、参照映像に第2の自己映像を合成して表示する(ステップS107)。その結果、ユーザ30は、図2で示されるように、コンピュータ900の表示デバイス902に表示された参照映像と第2の自己映像とを見ることができるようになる。このように、第1の自己映像の取得や、骨格の認識、ジェスチャの特定、それらに基づいた第2の自己映像の生成、参照映像と第2の自己映像との表示が繰り返されることによって、ユーザ30は、参照映像に含まれる鉗子の動作に沿うように、自らの手の動作に応じて鉗子の3次元オブジェクト33a,33bを動作させることができる。そして、ユーザ30は、参照映像に含まれる模倣対象と同様に3次元オブジェクト33a,33bを動作させるためのトレーニングを行うことができる。
First, assume that the
以上のように、本実施の形態による映像表示装置1によれば、参照映像の撮影時と同様の撮影環境を用意しなくても、参照映像と比較することができる第2の自己映像を生成して表示することができるようになる。そのため、ユーザ30は、参照映像と第2の自己映像とを比較しながら、模倣対象の動作と同じ動作をするためのトレーニングを行うことができる。例えば、参照映像が一人称視点の映像であっても、ユーザ30は、自らの映像をノートパソコンやタブレット端末、スマートフォンなどの対面カメラを用いて撮影することができるようになり、ヘッドマウントカメラなどを用意しなくてもよくなるため、そのためのコストや時間を低減することができるというメリットがある。また、ユーザ30の手のジェスチャに応じて操作対象物の3次元オブジェクト33の形状を変化させる場合には、3次元オブジェクト33の形状を変化のためのコントローラなどを用いなくてもよいことになり、簡易な構成でトレーニングを行うことができるようになる。
As described above, the
なお、本実施の形態では、ユーザ30の手32のジェスチャを用いて、3次元オブジェクト33の形状を変化させる場合について説明したが、そうでなくてもよい。ユーザ30は、コントローラを操作することによって、3次元オブジェクト33の形状を変化させてもよい。この場合には、映像表示装置1は、図10で示されるように、ユーザ30によって操作されるコントローラ4からの指示を受け付ける受付部16をさらに備えていてもよい。受付部16は、例えば、コントローラ4からの指示を有線または無線によって受信してもよい。なお、受付部16は、受け付けを行うためのデバイス(例えば、通信デバイスなど)を含んでもよく、または含まなくてもよい。また、受付部16は、ハードウェアによって実現されてもよく、または所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。
Note that in this embodiment, a case has been described in which the shape of the three-
ユーザ30によって操作されるコントローラ4は、例えば、図11で示されるものであってもよい。図11で示されるコントローラ4は、ボタン4aを有しており、ユーザ30がボタン4aを押下している際に、例えば、3次元オブジェクト33の開閉部を閉じる旨の指示が映像表示装置1に送信されてもよい。この場合には、生成部14は、例えば、受付部16によって受け付けられた指示に応じて形状が変化する操作対象物の3次元オブジェクトを含む第2の自己映像を生成してもよい。より具体的には、ユーザ30がボタン4aを押下している際に、生成部14は、受付部16によって受け付けられた開閉部を閉じる旨の指示に応じて、開閉部が閉じた形状の3次元オブジェクト33を含む第2の自己映像を生成してもよい。なお、ユーザ30がボタン4aを押下していない場合には、開閉部が開いた形状の3次元オブジェクト33を含む第2の自己映像が生成されてもよい。このようにすることで、コントローラ4を用いて、操作対象物の3次元オブジェクト33を操作することができる。そのため、例えば、参照映像が手術ロボットの映像である場合に、その手術ロボットの操作で用いられるコントローラと同様のコントローラ4を用いてユーザ30が操作対象物の3次元オブジェクト33を操作するようにすることもでき、ユーザ30は、実環境の手術ロボットと同様な環境で3次元オブジェクト33を操作することができるようになる。
The controller 4 operated by the
また、本実施の形態では、本実施の形態による映像表示装置1がカメラ付きのノートパソコンやカメラ付きのタブレット端末などによって実現される場合について主に説明したが、そうでなくてもよい。例えば、外付けのカメラの接続されたデスクトップパソコンなどによって本実施の形態による映像表示装置1が実現されてもよい。近年、ウェブミーティングなどのために、デスクトップパソコンのディスプレイの周囲に、ディスプレイを見るユーザと対向するようにカメラが配置されていることがあるが、そのカメラが自己映像用カメラとして用いられ、そのディスプレイが、参照映像及び第2の自己映像を表示するためのディスプレイとして用いられてもよい。
Further, in the present embodiment, the case where the
また、本実施の形態において、3次元オブジェクトを変更できるようにしてもよい。例えば、参照映像において、模倣対象が変更されることもある。具体的には、模倣対象が鉗子からメスに変更されることも考えられる。このような場合に、第2の自己映像においても、参照映像における模倣対象の変更に応じて、3次元オブジェクトが変更されてもよい。この変更は、例えば、手動で行われてもよい。手動で3次元オブジェクトが変更される場合に、例えば、ユーザは、手のジェスチャによって、3次元オブジェクトを変更できてもよい。この場合には、例えば、ユーザが手を払うジェスチャを行うことによって、3次元オブジェクトが変更されてもよい。また、3次元オブジェクトの変更は、自動的に行われてもよい。この場合には、例えば、生成部14が、参照映像に含まれる模倣対象の種類を特定し、その特定した種類に応じた3次元オブジェクトを3次元仮想空間に配置するようにしてもよい。模倣対象の種類の特定は、例えば、パターンマッチングや、物体認識などによって行われてもよい。
Further, in this embodiment, the three-dimensional object may be changed. For example, the imitation target may be changed in the reference video. Specifically, it is conceivable that the imitation target is changed from forceps to a scalpel. In such a case, the three-dimensional object may also be changed in the second self-image in accordance with the change in the imitation target in the reference image. This change may be made manually, for example. When a three-dimensional object is changed manually, for example, the user may be able to change the three-dimensional object by a hand gesture. In this case, the three-dimensional object may be changed, for example, by the user performing a hand-sweeping gesture. Further, the change of the three-dimensional object may be performed automatically. In this case, for example, the
また、上記実施の形態では、映像表示装置1がスタンドアロンである場合について説明したが、映像表示装置1は、スタンドアロンの装置であってもよく、サーバ・クライアントシステムにおけるサーバ装置であってもよい。後者の場合には、映像取得部や表示部は、通信回線を介して映像を取得したり、映像を表示したりしてもよい。
Further, in the above embodiment, the case where the
また、上記実施の形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、または、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。 Furthermore, in the above embodiments, each process or each function may be realized by being centrally processed by a single device or a single system, or may be realized by being distributedly processed by multiple devices or multiple systems. This may be realized by
また、上記実施の形態において、各構成要素間で行われる情報の受け渡しは、例えば、その情報の受け渡しを行う2個の構成要素が物理的に異なるものである場合には、一方の構成要素による情報の出力と、他方の構成要素による情報の受け付けとによって行われてもよく、または、その情報の受け渡しを行う2個の構成要素が物理的に同じものである場合には、一方の構成要素に対応する処理のフェーズから、他方の構成要素に対応する処理のフェーズに移ることによって行われてもよい。 In addition, in the above embodiment, the information exchange performed between each component is performed by one component, for example, when the two components that exchange the information are physically different. This may be done by outputting information and receiving the information by another component, or by one component if the two components passing that information are physically the same. This may be performed by moving from a phase of processing corresponding to the component to a phase of processing corresponding to the other component.
また、上記実施の形態において、各構成要素が実行する処理に関係する情報、例えば、各構成要素が受け付けたり、取得したり、選択したり、生成したり、送信したり、受信したりした情報や、各構成要素が処理で用いる閾値や数式、アドレス等の情報等は、上記説明で明記していなくても、図示しない記録媒体において、一時的に、または長期にわたって保持されていてもよい。また、その図示しない記録媒体への情報の蓄積を、各構成要素、または、図示しない蓄積部が行ってもよい。また、その図示しない記録媒体からの情報の読み出しを、各構成要素、または、図示しない読み出し部が行ってもよい。 In the above embodiments, information related to processing executed by each component, for example, information accepted, acquired, selected, generated, transmitted, or received by each component. Information such as threshold values, formulas, addresses, etc. used by each component in processing may be held temporarily or for a long period of time in a recording medium (not shown), even if not specified in the above description. Further, the information may be stored in the recording medium (not shown) by each component or by a storage unit (not shown). Further, each component or a reading unit (not shown) may read information from the recording medium (not shown).
また、上記実施の形態において、各構成要素等で用いられる情報、例えば、各構成要素が処理で用いる閾値やアドレス、各種の設定値等の情報がユーザによって変更されてもよい場合には、上記説明で明記していなくても、ユーザが適宜、それらの情報を変更できるようにしてもよく、または、そうでなくてもよい。それらの情報をユーザが変更可能な場合には、その変更は、例えば、ユーザからの変更指示を受け付ける図示しない受付部と、その変更指示に応じて情報を変更する図示しない変更部とによって実現されてもよい。その図示しない受付部による変更指示の受け付けは、例えば、入力デバイスからの受け付けでもよく、通信回線を介して送信された情報の受信でもよく、所定の記録媒体から読み出された情報の受け付けでもよい。 In addition, in the above-described embodiment, if the information used in each component, for example, information such as threshold values, addresses, various setting values, etc. used by each component in processing, may be changed by the user, the above-mentioned Even if it is not specified in the description, the user may or may not be able to change the information as appropriate. If the information can be changed by the user, the change is realized by, for example, a reception unit (not shown) that receives change instructions from the user, and a change unit (not shown) that changes the information in accordance with the change instruction. You can. The acceptance of the change instruction by the reception unit (not shown) may be, for example, acceptance from an input device, information transmitted via a communication line, or information read from a predetermined recording medium. .
また、上記実施の形態において、映像表示装置1に含まれる2以上の構成要素が通信デバイスや入力デバイス等を有する場合に、2以上の構成要素が物理的に単一のデバイスを有してもよく、または、別々のデバイスを有してもよい。
Further, in the above embodiment, when two or more components included in the
また、上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、または、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。その実行時に、プログラム実行部は、記憶部や記録媒体にアクセスしながらプログラムを実行してもよい。なお、上記実施の形態における映像表示装置1を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、ユーザが動作を模倣する対象となる模倣対象の動作の映像である参照映像が記憶される記憶部にアクセス可能なコンピュータを、ユーザの動作の映像である第1の自己映像を取得する映像取得部、第1の自己映像に含まれるユーザの骨格認識を行う骨格認識部、模倣対象に対応する3次元オブジェクトであり、ユーザの動作に応じて動く3次元オブジェクトの映像である第2の自己映像を、骨格認識部による骨格認識の結果を用いて、参照映像を撮影する参照映像用カメラと模倣対象との相対的な位置関係と、3次元オブジェクトの映像の視点と3次元オブジェクトとの相対的な位置関係とが同じになるように生成する生成部、参照映像及び第2の自己映像を表示する表示部として機能させ、参照映像用カメラと模倣対象との相対的な位置関係と、第1の自己映像を撮影する自己映像用カメラと模倣対象に対応するユーザの部分との相対的な位置関係とは異なる、プログラムである。
Furthermore, in the embodiments described above, each component may be configured by dedicated hardware, or components that can be realized by software may be realized by executing a program. For example, each component can be realized by a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory. At the time of execution, the program execution section may execute the program while accessing the storage section or recording medium. Note that the software that implements the
なお、上記プログラムにおいて、上記プログラムが実現する機能には、ハードウェアでしか実現できない機能は含まれない。例えば、情報を取得する取得部や、情報を表示する表示部などにおけるインターフェースカードなどのハードウェアでしか実現できない機能は、上記プログラムが実現する機能には少なくとも含まれない。 Note that in the above program, the functions realized by the program do not include functions that can only be realized by hardware. For example, functions that can only be realized by hardware such as an interface card in an acquisition unit that acquires information, a display unit that displays information, etc. are not included in the functions that are realized by the program.
また、このプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD-ROMなどの光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。また、このプログラムは、プログラムプロダクトを構成するプログラムとして用いられてもよい。 Further, this program may be executed by being downloaded from a server or the like, and the program recorded on a predetermined recording medium (for example, an optical disk such as a CD-ROM, a magnetic disk, a semiconductor memory, etc.) is read out. It may be executed by Further, this program may be used as a program constituting a program product.
また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、または分散処理を行ってもよい。 Further, the number of computers that execute this program may be one or more. That is, centralized processing or distributed processing may be performed.
図12は、上記プログラムを実行して、上記実施の形態による映像表示装置1を実現するコンピュータ900の構成の一例を示す図である。図12において、コンピュータ900は、カメラ901と、表示デバイス902と、キーボード903と、タッチパッドやマウスなどのポインティングデバイス904と、MPU(Micro Processing Unit)911と、ブートアッププログラム等のプログラムを記憶するためのROM912と、MPU911に接続され、アプリケーションプログラムの命令を一時的に記憶すると共に、一時記憶空間を提供するRAM913と、アプリケーションプログラム、システムプログラム、及びデータを記憶する記憶部914と、LANやWAN等への接続を提供する通信モジュール915とを備える。なお、MPU911、ROM912等はバスによって相互に接続されていてもよい。また、記憶部914は、例えば、ハードディスクやSSD(Solid State Drive)などであってもよい。また、カメラ901、表示デバイス902、キーボード903、ポインティングデバイス904などは、例えば、コンピュータ900に内蔵されているデバイスであってもよく、外付けのデバイスであってもよい。
FIG. 12 is a diagram showing an example of the configuration of a
コンピュータ900に、上記実施の形態による映像表示装置1の機能を実行させるプログラムは、実行の際にRAM913にロードされてもよい。なお、プログラムは、例えば、記憶部914、またはネットワークから直接、ロードされてもよい。
A program that causes the
プログラムは、コンピュータ900に、上記実施の形態による映像表示装置1の機能を実行させるオペレーティングシステム(OS)、またはサードパーティプログラム等を必ずしも含んでいなくてもよい。プログラムは、制御された態様で適切な機能やモジュールを呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいてもよい。コンピュータ900がどのように動作するのかについては周知であり、詳細な説明は省略する。
The program does not necessarily need to include an operating system (OS) that causes
また、以上の実施の形態は、本発明を具体的に実施するための例示であって、本発明の技術的範囲を制限するものではない。本発明の技術的範囲は、実施の形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲の文言上の範囲及び均等の意味の範囲内での変更が含まれることが意図される。 Further, the above embodiments are illustrative examples for concretely implementing the present invention, and do not limit the technical scope of the present invention. The technical scope of the present invention is indicated by the claims, not the description of the embodiments, and includes changes within the literal scope and equivalent meaning of the claims. is intended.
1 映像表示装置
11 記憶部
12 映像取得部
13 骨格認識部
14 生成部
15 表示部
16 受付部
1
Claims (9)
ユーザの動作の映像である第1の自己映像を取得する映像取得部と、
前記第1の自己映像に含まれるユーザの骨格認識を行う骨格認識部と、
前記模倣対象に対応する3次元オブジェクトであり、前記ユーザの動作に応じて動く3次元オブジェクトの映像である第2の自己映像を、前記骨格認識部による骨格認識の結果を用いて、前記参照映像を撮影する参照映像用カメラと前記模倣対象との相対的な位置関係と、前記3次元オブジェクトの映像の視点と前記3次元オブジェクトとの相対的な位置関係とが同じになるように生成する生成部と、
前記参照映像及び前記第2の自己映像を表示する表示部と、を備え、
前記参照映像の表示中に前記第1の自己映像が取得され、
前記参照映像は、カメラによって撮影された映像、またはカメラによって撮影された映像に相当するCG映像であり、
前記参照映像用カメラと前記模倣対象との相対的な位置関係と、前記第1の自己映像を撮影する自己映像用カメラと前記模倣対象に対応する前記ユーザの部分との相対的な位置関係とは異なる、映像表示装置。 a storage unit that stores a reference video that is a video of an action to be imitated whose action is to be imitated by the user;
a video acquisition unit that acquires a first self-video that is a video of the user's actions;
a skeleton recognition unit that recognizes the user's skeleton included in the first self-image;
A second self-image, which is an image of a three-dimensional object that corresponds to the imitation target and moves in response to the user's movements, is converted into the reference image using the result of skeleton recognition by the skeleton recognition unit. generation so that the relative positional relationship between a reference video camera that shoots the image and the imitation target is the same as the relative positional relationship between the viewpoint of the video of the three-dimensional object and the three-dimensional object; Department and
a display unit that displays the reference video and the second self-video;
the first self-image is acquired while displaying the reference image;
The reference video is a video taken by a camera or a CG video corresponding to a video taken by a camera,
a relative positional relationship between the reference video camera and the imitation target; a relative positional relationship between the self-image camera that captures the first self-image and a portion of the user corresponding to the imitation target; is a different video display device.
前記生成部は、前記ユーザの視点からの映像である第2の自己映像を生成する、請求項1記載の映像表示装置。 The reference video is a video from the perspective of an imitator who moves the imitation target,
The video display device according to claim 1, wherein the generation unit generates a second self-video that is a video from the user's viewpoint.
前記第1の自己映像は、前記ユーザの手を含んでおり、
前記生成部は、前記第1の自己映像に含まれる前記ユーザの手のジェスチャに応じて形状が変化する操作対象物の3次元オブジェクトを含む第2の自己映像を生成する、請求項1記載の映像表示装置。 The imitation target includes an operation target whose shape changes,
The first self-image includes the user's hand,
The generation unit generates a second self-image including a three-dimensional object of an operation target whose shape changes according to a hand gesture of the user included in the first self-image. Video display device.
前記ユーザによって操作されるコントローラからの指示を受け付ける受付部をさらに備え、
前記生成部は、前記受付部によって受け付けられた指示に応じて形状が変化する操作対象物の3次元オブジェクトを含む第2の自己映像を生成する、請求項1記載の映像表示装置。 The imitation target includes an operation target whose shape changes,
further comprising a reception unit that receives instructions from a controller operated by the user,
The video display device according to claim 1, wherein the generation unit generates a second self-image including a three-dimensional object of an operation target whose shape changes according to an instruction received by the reception unit.
前記映像取得部が、ユーザの動作の映像である第1の自己映像を取得するステップと、
前記骨格認識部が、前記第1の自己映像に含まれるユーザの骨格認識を行うステップと、
前記生成部が、前記模倣対象に対応する3次元オブジェクトであり、前記ユーザの動作に応じて動く3次元オブジェクトの映像である第2の自己映像を、前記骨格認識の結果を用いて、前記参照映像を撮影する参照映像用カメラと前記模倣対象との相対的な位置関係と、前記3次元オブジェクトの映像の視点と前記3次元オブジェクトとの相対的な位置関係とが同じになるように生成するステップと、
前記表示部が、前記参照映像及び前記第2の自己映像を表示するステップと、を備え、
前記参照映像の表示中に前記第1の自己映像が取得され、
前記参照映像は、カメラによって撮影された映像、またはカメラによって撮影された映像に相当するCG映像であり、
前記参照映像用カメラと前記模倣対象との相対的な位置関係と、前記第1の自己映像を撮影する自己映像用カメラと前記模倣対象に対応する前記ユーザの部分との相対的な位置関係とは異なる、映像表示方法。 Processed using a storage unit in which a reference video, which is a video of an imitation target motion whose motion is to be imitated by a user, is stored, a video acquisition unit, a skeleton recognition unit, a generation unit, and a display unit. A video display method,
a step in which the video acquisition unit acquires a first self-video that is a video of the user's actions;
a step in which the skeleton recognition unit recognizes the skeleton of the user included in the first self-image;
The generation unit generates a second self-image, which is an image of a three-dimensional object that corresponds to the imitation target and moves according to the user's motion, using the result of the skeleton recognition, The relative positional relationship between the reference video camera that shoots the video and the imitation target is the same as the relative positional relationship between the viewpoint of the video of the three-dimensional object and the three-dimensional object. step and
The display unit displays the reference video and the second self-video,
the first self-image is acquired while displaying the reference image;
The reference video is a video taken by a camera or a CG video corresponding to a video taken by a camera,
a relative positional relationship between the reference video camera and the imitation target; a relative positional relationship between the self-image camera that captures the first self-image and a portion of the user corresponding to the imitation target; The image display method is different.
ユーザの動作の映像である第1の自己映像を取得する映像取得部、
前記第1の自己映像に含まれるユーザの骨格認識を行う骨格認識部、
前記模倣対象に対応する3次元オブジェクトであり、前記ユーザの動作に応じて動く3次元オブジェクトの映像である第2の自己映像を、前記骨格認識部による骨格認識の結果を用いて、前記参照映像を撮影する参照映像用カメラと前記模倣対象との相対的な位置関係と、前記3次元オブジェクトの映像の視点と前記3次元オブジェクトとの相対的な位置関係とが同じになるように生成する生成部、
前記参照映像及び前記第2の自己映像を表示する表示部として機能させ、
前記参照映像の表示中に前記第1の自己映像が取得され、
前記参照映像は、カメラによって撮影された映像、またはカメラによって撮影された映像に相当するCG映像であり、
前記参照映像用カメラと前記模倣対象との相対的な位置関係と、前記第1の自己映像を撮影する自己映像用カメラと前記模倣対象に対応する前記ユーザの部分との相対的な位置関係とは異なる、プログラム。 A computer that can access a storage unit that stores a reference video that is a video of the motion of the imitation target whose motion is to be imitated by the user,
a video acquisition unit that acquires a first self-video that is a video of the user's actions;
a skeleton recognition unit that recognizes the user's skeleton included in the first self-image;
A second self-image, which is an image of a three-dimensional object that corresponds to the imitation target and moves in response to the user's movements, is converted into the reference image using the result of skeleton recognition by the skeleton recognition unit. generation so that the relative positional relationship between a reference video camera that shoots the image and the imitation target is the same as the relative positional relationship between the viewpoint of the video of the three-dimensional object and the three-dimensional object; Department,
functioning as a display unit that displays the reference video and the second self-video;
the first self-image is acquired while displaying the reference image;
The reference video is a video taken by a camera or a CG video corresponding to a video taken by a camera,
a relative positional relationship between the reference video camera and the imitation target; a relative positional relationship between the self-image camera that captures the first self-image and a portion of the user corresponding to the imitation target; is a different program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023123183A JP7432275B1 (en) | 2023-07-28 | 2023-07-28 | Video display device, video display method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023123183A JP7432275B1 (en) | 2023-07-28 | 2023-07-28 | Video display device, video display method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7432275B1 true JP7432275B1 (en) | 2024-02-16 |
Family
ID=89852802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023123183A Active JP7432275B1 (en) | 2023-07-28 | 2023-07-28 | Video display device, video display method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7432275B1 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000504854A (en) | 1996-02-13 | 2000-04-18 | マサチューセッツ・インスティテュート・オブ・テクノロジー | Human motion trajectory learning device in virtual environment |
JP2004348095A (en) | 2003-03-26 | 2004-12-09 | National Institute Of Advanced Industrial & Technology | Training system |
JP2005237494A (en) | 2004-02-24 | 2005-09-08 | Nihon Knowledge Kk | Actual action analysis system and program |
JP2015229052A (en) | 2014-06-06 | 2015-12-21 | セイコーエプソン株式会社 | Head mounted display device, control method for the same, and computer program |
JP2020144233A (en) | 2019-03-06 | 2020-09-10 | 株式会社日立製作所 | Learning assisting system, learning assisting device, and program |
JP2021006977A (en) | 2019-06-28 | 2021-01-21 | 株式会社ドワンゴ | Content control system, content control method, and content control program |
JP2021026527A (en) | 2019-08-06 | 2021-02-22 | 株式会社エクサウィザーズ | Information processing device and program |
JP2022022664A (en) | 2020-06-30 | 2022-02-07 | 東芝システムテクノロジー株式会社 | Education assisting system, method and program |
-
2023
- 2023-07-28 JP JP2023123183A patent/JP7432275B1/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000504854A (en) | 1996-02-13 | 2000-04-18 | マサチューセッツ・インスティテュート・オブ・テクノロジー | Human motion trajectory learning device in virtual environment |
JP2004348095A (en) | 2003-03-26 | 2004-12-09 | National Institute Of Advanced Industrial & Technology | Training system |
JP2005237494A (en) | 2004-02-24 | 2005-09-08 | Nihon Knowledge Kk | Actual action analysis system and program |
JP2015229052A (en) | 2014-06-06 | 2015-12-21 | セイコーエプソン株式会社 | Head mounted display device, control method for the same, and computer program |
JP2020144233A (en) | 2019-03-06 | 2020-09-10 | 株式会社日立製作所 | Learning assisting system, learning assisting device, and program |
JP2021006977A (en) | 2019-06-28 | 2021-01-21 | 株式会社ドワンゴ | Content control system, content control method, and content control program |
JP2021026527A (en) | 2019-08-06 | 2021-02-22 | 株式会社エクサウィザーズ | Information processing device and program |
JP2022022664A (en) | 2020-06-30 | 2022-02-07 | 東芝システムテクノロジー株式会社 | Education assisting system, method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7273880B2 (en) | Virtual object driving method, device, electronic device and readable storage medium | |
US11751957B2 (en) | Surgical system with training or assist functions | |
US20200401232A1 (en) | Systems and methods of interacting with a robotic tool using free-form gestures | |
US20210177124A1 (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
Lu et al. | Immersive manipulation of virtual objects through glove-based hand gesture interaction | |
Billinghurst et al. | Hands in space: Gesture interaction with augmented-reality interfaces | |
US20200132474A1 (en) | SIMULTANEOUS LOCALIZATION AND MAPPING (SLAM) COMPENSATION FOR GESTURE RECOGNITION IN VIRTUAL, AUGMENTED, AND MIXED REALITY (xR) APPLICATIONS | |
Aristidou | Hand tracking with physiological constraints | |
Lilija et al. | Augmented reality views for occluded interaction | |
Fang et al. | Head-mounted display augmented reality in manufacturing: A systematic review | |
KR102546945B1 (en) | A Mixed Reality Telepresence System for Dissimilar Spaces Using Full-Body Avatar | |
JP6506443B1 (en) | Image generation apparatus and image generation program | |
LIU et al. | A preliminary study of kinect-based real-time hand gesture interaction systems for touchless visualizations of hepatic structures in surgery | |
Park et al. | Hand tracking with a near-range depth camera for virtual object manipulation in an wearable augmented reality | |
JP7432275B1 (en) | Video display device, video display method, and program | |
Lu et al. | Dynamic hand gesture tracking and recognition for real-time immersive virtual object manipulation | |
CN110363841B (en) | Hand motion tracking method in virtual driving environment | |
Venkatakrishnan et al. | Give me a hand: Improving the effectiveness of near-field augmented reality interactions by avatarizing users' end effectors | |
Ahmed et al. | Interaction techniques in mobile Augmented Reality: State-of-the-art | |
US20230410499A1 (en) | Visibility metrics in multi-view medical activity recognition systems and methods | |
KR20150044243A (en) | Electronic learning apparatus and method for controlling contents by hand avatar | |
TW201619754A (en) | Medical image object-oriented interface auxiliary explanation control system and method thereof | |
Bai et al. | Poster: Markerless fingertip-based 3D interaction for handheld augmented reality in a small workspace | |
JP7248271B2 (en) | Information processing device, robot hand control system, and robot hand control program | |
US11508121B2 (en) | Method for annotating points on a hand image to create training dataset for machine learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230728 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7432275 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |