JP7412826B1 - Video compositing device, video compositing method, and program - Google Patents
Video compositing device, video compositing method, and program Download PDFInfo
- Publication number
- JP7412826B1 JP7412826B1 JP2023123184A JP2023123184A JP7412826B1 JP 7412826 B1 JP7412826 B1 JP 7412826B1 JP 2023123184 A JP2023123184 A JP 2023123184A JP 2023123184 A JP2023123184 A JP 2023123184A JP 7412826 B1 JP7412826 B1 JP 7412826B1
- Authority
- JP
- Japan
- Prior art keywords
- video
- image
- self
- unit
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 24
- 230000033001 locomotion Effects 0.000 claims abstract description 72
- 239000002131 composite material Substances 0.000 claims abstract description 65
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 61
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 61
- 239000000203 mixture Substances 0.000 claims abstract description 26
- 230000002194 synthesizing effect Effects 0.000 claims description 11
- 238000001308 synthesis method Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 abstract description 20
- 230000006870 function Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 5
- 230000000737 periodic effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000001356 surgical procedure Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】参照映像と自己映像とが融合したように感じられることを防止でき、学習者であるユーザが模倣対象の動作に容易に追従することができる映像合成装置を提供する。【解決手段】映像合成装置1は、ユーザが動作を模倣する対象である模倣対象の動作の映像である参照映像が記憶される記憶部11と、ユーザが動作させる対象である動作対象の動作の映像である自己映像を取得する映像取得部12と、参照映像と自己映像とを合成して合成映像を生成する合成部13と、合成映像を出力する映像出力部14と、を備え、合成部13は、参照映像と自己映像との合成の割合が時間に沿って連続的に繰り返して変化するように両映像を合成する。【選択図】図1An object of the present invention is to provide a video synthesis device that can prevent a reference video and a self-video from appearing to be fused, and allows a user who is a learner to easily follow the motion of an imitation target. A video synthesis device 1 includes a storage unit 11 that stores a reference video that is a video of an imitation target whose motion is to be imitated by a user, and a storage unit 11 that stores a reference video that is a video of a motion of an imitation target whose motion is to be imitated by a user; The composition unit includes a video acquisition unit 12 that acquires a self-image that is a video, a composition unit 13 that combines the reference video and the self-video to generate a composite video, and a video output unit 14 that outputs the composite video. Step 13 combines the reference video and self-video so that the ratio of the combination of both images changes continuously and repeatedly over time. [Selection diagram] Figure 1
Description
本発明は、模倣対象の動作の映像である参照映像と、ユーザの動作対象の動作の映像である自己映像とを合成して出力する映像合成装置等に関する。 The present invention relates to a video synthesis device and the like that combines and outputs a reference video that is a video of an action to be imitated and a self-video that is a video of a user's action to be performed.
従来、手術などの動きの学習のために、学習者が模倣する対象となる模倣対象の動作の映像である参照映像と、学習者の動作の映像である自己映像とを交互に切り替えて表示する学習支援装置が知られている(例えば、特許文献1参照)。このような表示を参照することにより、学習者は、模倣対象の動作と同じ動作を行うためのトレーニングを行うことができる。 Conventionally, in order to learn movements such as those for surgery, a reference video, which is a video of the movement of the imitation target that the learner is imitating, and a self-video, which is a video of the learner's movements, are alternately displayed. Learning support devices are known (for example, see Patent Document 1). By referring to such a display, the learner can train to perform the same motion as the motion to be imitated.
しかしながら、参照映像と自己映像とを交互に切り替えて表示する場合には、両映像が融合したように感じられることになる。そのため、学習者が参照映像に含まれる模倣対象の動作に適切に追従できていれば問題ないが、そうでない場合には、参照映像と自己映像との区別がはっきりしなくなり、学習者が模倣対象の動作に追従することが困難になるという問題がある。例えば、学習者が、自己映像がどちらであるのかを容易に把握することが難しくなることがある。 However, when the reference video and the self-video are alternately switched and displayed, it feels like the two videos are fused. Therefore, there is no problem if the learner can properly follow the movements of the imitation target included in the reference video, but if this is not the case, the distinction between the reference video and the self-image becomes unclear, and the learner is unable to follow the imitation target's movements. There is a problem in that it becomes difficult to follow the movements of For example, it may be difficult for the learner to easily understand which self-image is.
本発明は、上記課題を解決するためになされたものであり、参照映像と自己映像とが融合したように感じられることを防止でき、学習者であるユーザが模倣対象の動作に容易に追従できるようにするための映像合成装置等を提供することを目的とする。 The present invention has been made in order to solve the above-mentioned problems, and can prevent the reference video and self-video from feeling like they are fused, and allows the user, who is a learner, to easily follow the behavior of the imitator. The purpose of the present invention is to provide a video compositing device and the like for the purpose of the present invention.
上記目的を達成するため、本発明の一態様による映像合成装置は、ユーザが動作を模倣する対象である模倣対象の動作の映像である参照映像が記憶される記憶部と、ユーザが動作させる対象である動作対象の動作の映像である自己映像を取得する映像取得部と、参照映像と自己映像とを合成して合成映像を生成する合成部と、合成映像を出力する映像出力部と、を備え、合成部は、参照映像と自己映像との合成の割合が時間に沿って連続的に繰り返して変化するように両映像を合成する、ものである。 In order to achieve the above object, a video synthesis device according to one aspect of the present invention includes a storage unit that stores a reference video that is a video of an action to be imitated whose action is to be imitated by a user, and an object to be moved by the user. a video acquisition unit that acquires a self-video that is a video of an action target; a synthesis unit that combines the reference video and the self-video to generate a composite video; and a video output unit that outputs the composite video. The combining unit combines the reference video and the self-video so that the combination ratio of the reference video and self-video continuously and repeatedly changes over time.
このような構成により、参照映像と自己映像との合成の割合が時間に沿って連続的に繰り返して変化するように両映像を合成することができる。このように、参照映像と自己映像とを交互に切り替えて表示するのではないため、ユーザが、参照映像と自己映像とが融合したように感じることを防止でき、自己映像を容易に把握することができるようになり、その結果として、模倣対象の動作に容易に追従することができるようになる。 With such a configuration, it is possible to synthesize the reference image and the own image such that the ratio of synthesis between the reference image and the own image changes continuously and repeatedly over time. In this way, since the reference image and the self-image are not alternately displayed, it is possible to prevent the user from feeling as if the reference image and the self-image have been fused, and it is possible to easily understand the self-image. As a result, it becomes possible to easily follow the movements of the imitator.
また、本発明の一態様による映像合成装置では、合成部は、参照映像と自己映像との合成の割合の時間に沿った変化が正弦波となるように両映像を合成してもよい。 Further, in the video composition device according to one aspect of the present invention, the composition unit may compose the reference video and the own video so that the change in the composition ratio of the reference video and the own video over time becomes a sine wave.
このような構成により、例えば、一方の映像の割合が0~100%の間で変化するように合成が行われる場合に、一方の映像のみが主に表示される期間がそれぞれあると共に、両映像が重なって表示される期間もあるため、ユーザは、両映像を容易に区別することができると共に、自分が動作させている動作対象を模倣対象の動作に容易に合わせることができるようになる。 With such a configuration, for example, when compositing is performed such that the ratio of one video changes between 0 and 100%, there are periods in which only one video is mainly displayed, and both videos are Since there are periods in which the images are displayed overlapping, the user can easily distinguish between the two images, and can easily match the motion object that he or she is moving to the motion of the imitation target.
また、本発明の一態様による映像合成装置では、合成映像における模倣対象と動作対象との距離を取得する距離取得部をさらに備え、合成部は、距離が遠いほど、自己映像がより多く表示されるように合成を行ってもよい。 Further, the video synthesis device according to one aspect of the present invention further includes a distance acquisition unit that acquires the distance between the imitation target and the motion target in the composite video, and the composition unit determines that the farther the distance is, the more self-image is displayed. The synthesis may be performed as follows.
このような構成により、模倣対象と動作対象の距離が大きい場合には、自己映像がより多く表示されることによって、両者の距離が小さくなるように動作対象を移動させることができる。また、両者の距離が小さい場合には、模倣対象がより多く表示されることによって、模倣対象の動作をより詳細に確認することができるようになる。 With such a configuration, when the distance between the imitation target and the action target is large, more self-images are displayed, thereby making it possible to move the action target so that the distance between them becomes smaller. Furthermore, when the distance between the two is small, more imitation targets are displayed, making it possible to confirm the movements of the imitation targets in more detail.
また、本発明の一態様による映像合成装置では、参照映像及び自己映像の少なくとも一方である変更対象の映像について、背景領域を透明またはあらかじめ決められた単色に変更する背景変更部をさらに備え、合成部は、変更対象の映像については、背景変更部による変更後の映像を合成してもよい。 Further, the video synthesis device according to one aspect of the present invention further includes a background changing unit that changes the background area of the video to be changed, which is at least one of the reference video and the self-video, to transparent or a predetermined monochrome color, and The unit may synthesize the image changed by the background changing unit with respect to the image to be changed.
このような構成により、合成映像において、模倣対象や動作対象がより見えやすくなるようにすることができる。背景をそれぞれ含む参照映像及び自己映像が合成された合成映像では、例えば、模倣対象が自己映像の背景領域と重なっていたり、動作対象が参照映像の背景領域と重なっていたりする場合に、模倣対象や動作対象の位置や状態を把握しにくくなるが、少なくとも一方の映像の背景領域が透明や単色に変更されることによって、そのような状況が改善されることになる。 With such a configuration, it is possible to make the imitation target and the motion target more visible in the composite video. In a composite video in which a reference video and a self-video, each including a background, are combined, for example, if the imitation target overlaps the background area of the self-video, or the motion target overlaps the background area of the reference video, the imitation target overlaps with the background area of the reference video. However, such situations can be improved by changing the background area of at least one of the images to transparent or monochrome.
また、本発明の一態様による映像合成装置では、参照映像及び自己映像の少なくとも一方である特定対象の映像について、注目箇所を特定する特定部と、特定対象の映像について特定された注目箇所以外の領域をぼかす処理を行うぼかし処理部と、をさらに備え、合成部は、特定対象の映像については、ぼかし処理部によるぼかし処理後の映像を合成してもよい。 In addition, in the video synthesis device according to one aspect of the present invention, a specifying unit that identifies a point of interest in a specific target video that is at least one of a reference video and a self-video; The image forming apparatus may further include a blurring processing section that performs a process of blurring an area, and the compositing section may synthesize the video after the blurring processing performed by the blurring processing section for the specific target video.
このような構成により、注目箇所以外についてぼかし処理が行われるため、注目箇所がより注目されやすいようにすることができる。 With this configuration, the blurring process is performed on areas other than the points of interest, so it is possible to make the points of interest more likely to attract attention.
また、本発明の一態様による映像合成装置では、特定部は、動きのある箇所である注目箇所を特定してもよい。 Furthermore, in the video synthesis device according to one aspect of the present invention, the identifying unit may identify a point of interest that is a moving point.
このような構成により、注目箇所を自動的に特定することができるようになる。 With such a configuration, it becomes possible to automatically specify a point of interest.
また、本発明の一態様による映像合成装置では、ユーザから注目箇所を示す注目箇所情報を受け付ける受付部をさらに備え、特定部は、受付部によって受け付けられた注目箇所情報に応じて注目箇所を特定してもよい。 The video synthesis device according to one aspect of the present invention further includes a reception unit that receives point-of-interest information indicating a point of interest from a user, and the identification unit specifies the point of interest according to the point-of-interest information received by the reception unit. You may.
このような構成により、ユーザが注目箇所を指定することができるようになる。 Such a configuration allows the user to specify a point of interest.
また、本発明の一態様による映像合成方法は、ユーザが動作を模倣する対象である模倣対象の動作の映像である参照映像が記憶される記憶部と、映像取得部と、合成部と、映像出力部とを用いて処理される映像合成方法であって、映像取得部が、ユーザが動作させる対象である動作対象の動作の映像である自己映像を取得するステップと、合成部が、参照映像と自己映像とを合成して合成映像を生成するステップと、映像出力部が、合成映像を出力するステップと、を備え、合成映像を生成するステップでは、参照映像と自己映像との合成の割合が時間に沿って連続的に繰り返して変化するように両映像を合成する、ものである。 Further, a video synthesis method according to an aspect of the present invention includes: a storage unit that stores a reference video that is a video of an action to be imitated whose action is to be imitated by a user; a video acquisition unit; a synthesis unit; The video synthesis method includes a step in which the video acquisition section acquires a self-image that is a video of an operation target that is an object to be operated by a user; and a step of generating a composite video by combining the reference video and the self-video, and a step of outputting the composite video by the video output unit, and in the step of generating the composite video, the ratio of the combination of the reference video and the self-video is determined. The two images are combined in such a way that the images change continuously and repeatedly over time.
本発明の一態様による映像合成装置等によれば、参照映像と自己映像とが融合したように感じられることを防止することができ、学習者であるユーザが模倣対象の動作に容易に追従することができるようになる。 According to the video synthesis device or the like according to one aspect of the present invention, it is possible to prevent the reference video and the self-video from appearing to be fused, and the user, who is a learner, can easily follow the motion to be imitated. Be able to do things.
以下、本発明による映像合成装置、及び映像合成方法について、実施の形態を用いて説明する。なお、以下の実施の形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。本実施の形態による映像合成装置は、参照映像と自己映像との合成の割合が時間に沿って連続的に繰り返して変化するように両映像を合成するものである。 DESCRIPTION OF THE PREFERRED EMBODIMENTS A video synthesis device and a video synthesis method according to the present invention will be described below using embodiments. Note that in the following embodiments, components and steps denoted by the same reference numerals are the same or equivalent, and a repeated explanation may be omitted. The video compositing device according to the present embodiment combines the reference video and the own video such that the ratio of the combination of the two images continuously and repeatedly changes over time.
図1は、本実施の形態による映像合成装置1の構成を示すブロック図である。図2は、学習者であるユーザ30が、映像合成装置1を用いて模倣対象の動作を学習している状況を示す図である。本実施の形態による映像合成装置1は、記憶部11と、映像取得部12と、合成部13と、映像出力部14とを備える。なお、映像合成装置1は、一例として、後述する図13等で示されるようにコンピュータ900によって実現されてもよく、専用のハードウェアによって実現されてもよい。本実施の形態では、前者の場合について主に説明する。
FIG. 1 is a block diagram showing the configuration of a
記憶部11では、ユーザが動作を模倣する対象である模倣対象の動作の映像である参照映像が記憶される。ユーザは、参照映像を参照しながら動作を学習する学習者である。ユーザが学習する動作は、例えば、手術などの動作であってもよく、工場における作業の動作であってもよく、介護やホテルなどにおける業務の動作であってもよく、料理などの動作であってもよく、工芸品等の作品の作成のための動作であってもよく、スポーツなどの動作であってもよく、習字などの動作であってもよく、ロープ結びの動作であってもよく、その他の動作であってもよい。模倣対象は、例えば、被模倣者の身体の一部であってもよく、被模倣者によって動作される対象物であってもよい。被模倣者は、例えば、学習者であるユーザの先生役であり、学習者が学習する対象となる動作に熟練している者であってもよい。また、被模倣者の身体の一部は、例えば、被模倣者の手を含んでいてもよい。また、被模倣者によって動作される対象物は、例えば、被模倣者が有している鉗子やメス、ピンセット、ハサミ、筆などの道具であってもよい。参照映像は、通常、カメラによって撮影された映像であるが、カメラによって撮影された映像に相当するCG(Computer Graphics)映像であってもよい。
The
参照映像は、一例として、模倣対象を動作させる被模倣者の視点からの映像、すなわち被模倣者の一人称視点の映像であってもよい。この場合には、参照映像は、一例として、被模倣者が装着しているヘッドマウントカメラで撮影された映像であってもよい。本実施の形態では、被模倣者が使う鉗子である模倣対象41を含む、図3で示される参照映像が記憶部11で記憶されている場合について主に説明する。
The reference video may be, for example, a video from the viewpoint of the imitator who moves the imitation target, that is, a video from the first-person viewpoint of the imitator. In this case, the reference video may be, for example, a video shot with a head-mounted camera worn by the imitator. In the present embodiment, a case will be mainly described in which the reference video shown in FIG. 3 including the
記憶部11では、例えば、参照映像の全体が記憶されてもよく、または、参照映像の一部が記憶されてもよい。一例として、映像合成装置1が、外部から参照映像を受信しながら表示する場合には、参照映像の一部である受信された最新の参照映像の部分が記憶部11で記憶され、それが読み出されて表示されると共に、順次、上書きされてもよい。記憶部11には、参照映像以外の情報が記憶されてもよい。例えば、映像取得部12によって取得された自己映像が記憶部11で記憶されてもよい。
In the
記憶部11に情報が記憶される過程は問わない。例えば、記録媒体を介して情報が記憶部11で記憶されるようになってもよく、通信回線等を介して送信された情報が記憶部11で記憶されるようになってもよく、または、カメラなどのデバイスを介して入力された情報が記憶部11で記憶されるようになってもよい。記憶部11は、不揮発性の記録媒体によって実現されることが好適であるが、揮発性の記録媒体によって実現されてもよい。記録媒体は、例えば、半導体メモリや磁気ディスクなどであってもよい。
The process by which information is stored in the
映像取得部12は、ユーザが動作させる対象である動作対象の動作の映像である自己映像を取得する。映像取得部12は、例えば、映像を撮影するカメラ等の光学機器であってもよく、カメラ等の光学機器によって撮影された映像を取得するものであってもよい。本実施の形態では、映像取得部12がカメラ901によって撮影された映像を受け付ける場合について主に説明する。自己映像を撮影するカメラ901は、例えば、ヘッドマウントカメラなどのように、ユーザ30に装着されるカメラであってもよく、三脚などの支持部によって撮影環境に設置されるカメラであってもよい。動作対象は、模倣対象に対応するものである。通常、動作対象と模倣対象は同種類のものである。そのため、動作対象は、例えば、ユーザの身体の一部であってもよく、ユーザによって動作される対象物であってもよい。ユーザの身体の一部は、例えば、ユーザの手を含んでいてもよい。また、ユーザによって動作される対象物は、例えば、ユーザが有している鉗子やメス、ピンセット、ハサミ、筆などの道具であってもよい。例えば、模倣対象が鉗子である場合には、動作対象も鉗子であることが好適である。
The
自己映像は、一例として、動作対象を動作させるユーザの視点からの映像、すなわちユーザの一人称視点の映像であってもよい。この場合には、自己映像は、例えば、図2で示されるように、ユーザ30が頭部に装着しているカメラ901で撮影された映像であってもよい。カメラ901の光軸は、動作対象を向いていることが好適である。本実施の形態では、ユーザ30が使う鉗子である動作対象51を含む、図4で示される自己映像が映像取得部12によって取得される場合について主に説明する。なお、参照映像を撮影する参照映像用カメラと模倣対象との相対的な位置関係と、自己映像を撮影する自己映像用カメラと動作対象との相対的な位置関係とは同じであるか、または近いことが好適である。また、参照映像に含まれる各フレームと、自己映像に含まれる各フレームとは、例えば、それぞれ同じ大きさであることが好適である。フレームが同じ大きさであるとは、フレームの縦方向のピクセル数と、横方向のピクセル数とがそれぞれ同じであることであってもよい。
The self-video may be, for example, a video from the viewpoint of the user who operates the action object, that is, a video from the user's first-person viewpoint. In this case, the self-image may be, for example, an image taken by a
合成部13は、参照映像と自己映像とを合成して合成映像を生成する。この合成の際に、合成部13は、参照映像と自己映像との合成の割合が時間に沿って連続的に繰り返して変化するように両映像を合成する。参照映像と自己映像との合成の割合とは、合成映像で表示される参照映像や自己映像の表示の割合であってもよい。この割合は、例えば、一方の映像の不透明度または透明度であってもよい。本実施の形態では、参照映像と自己映像との合成の割合が、自己映像の不透明度の割合である場合について主に説明する。この場合には、参照映像の手前側、すなわち上側に自己映像を合成してもよい。両映像の合成の割合が時間方向に沿って連続的に変化するとは、例えば、合成の割合の時間方向における全体において、合成の割合の変化が連続していることであってもよく(例えば、図5A、図5B参照)、合成の割合の時間方向における少なくとも一部において、合成の割合の変化が連続していることであってもよい(例えば、図5C参照)。また、時間方向における合成の割合の繰り返しは、例えば、周期的な繰り返しであってもよく、または、周期的ではない繰り返しであってもよい。周期的に変化する合成の割合の変化の周期は特に限定されないが、例えば、0.5秒から3秒程度であってもよい。模倣対象の動きが早いほど、周期が短いことが好適である。また、参照映像と自己映像との合成の割合は、一例として、100:0から0:100までの間で変化してもよく、または、95:5から5:95までの間などのように、合成映像が一方の映像となる期間がないように変化してもよい。本実施の形態では、前者の場合について主に説明する。また、時間方向における合成の割合の連続的な変化は、滑らかな変化であってもよく、または、そうでなくてもよい。前者の場合には、合成の割合の時間変化は、時間微分可能であってもよい。
The combining
合成部13は、一例として、参照映像と自己映像との合成の割合の時間に沿った変化が正弦波となるように両映像を合成してもよい。この場合には、参照映像の手前側に合成される自己映像の不透明度(すなわち、合成の割合)は、図5Aで示されるように時系列に沿って変化してもよい。この場合には、合成映像において参照映像がメインとなる期間(自己映像の不透明度が0%付近の期間)、及び合成映像において自己映像がメインとなる期間(自己映像の不透明度が100%付近の期間)がそれぞれ存在しているため、ユーザは、参照映像のみを見ることもでき、自己映像のみを見ることもできる。したがって、ユーザは、参照映像に含まれる模倣対象と、自己映像に含まれる動作対象とをそれぞれ区別して把握することが容易になる。一方、それ以外の期間では、合成映像に参照映像及び自己映像の両方が含まれることになるため、ユーザは、参照映像に含まれる模倣対象と、自己映像に含まれる動作対象とを一緒に見ることもできる。したがって、ユーザは、自己映像に含まれる動作対象を、参照映像に含まれる模倣対象の動作に合わせて動作させることが容易になる。すなわち、ユーザが、模倣対象の動作に追従して動作対象を動作させることができる。
For example, the synthesizing
合成部13は、例えば、合成を行う際の参照映像と自己映像との合成の割合を特定し、その測定した割合で、参照映像と自己映像とを合成してもよい。例えば、参照映像と自己映像との合成の割合の時間に沿った変化が図5Aで示される場合には、合成部13は、時間tに両映像を合成する際に、時間tに対応する自己映像の不透明度を特定し、時間tに対応する参照映像の手前側に合成する自己映像の不透明度が、その特定した値となるように両映像を合成してもよい。参照映像と自己映像との合成の割合の時間変化は、例えば、グラフや、テーブル、関数等によって示され、合成部13は、それらを用いて合成を行う際の参照映像と自己映像との合成の割合を特定してもよい。合成の割合が図5Aで示される場合には、時間tにおける自己映像の不透明度(%)の示す関数は、例えば、次式で示されるものであってもよい。次式において、Pは不透明度の周期である。
自己映像の不透明度(%)=50×(sin(2πt/P-π/2)+1)
For example, the combining
Opacity of self-image (%) = 50 x (sin (2πt/P-π/2) + 1)
図6、図7は、合成映像の一例を示す図である。図6は、図5Aにおける時間T1の不透明度で生成された合成映像であり、図7は、図5Aにおける時間T2の不透明度で生成された合成映像である。図6で示される合成映像では、自己映像の不透明度が50%より低いため、模倣対象41の方が、動作対象51よりもはっきりと表示されることになる。一方、図7で示される合成映像では、自己映像の不透明度が50%より高いため、動作対象51の方が、模倣対象41よりもはっきりと表示されることになる。
6 and 7 are diagrams showing an example of a composite video. 6 is a composite image generated with opacity at time T1 in FIG. 5A, and FIG. 7 is a composite image generated with opacity at time T2 in FIG. 5A. In the composite image shown in FIG. 6, since the opacity of the self image is lower than 50%, the
また、合成部13は、例えば、参照映像と自己映像との合成の割合の時間に沿った変化が正弦波以外となるように両映像を合成してもよい。例えば、合成部13は、参照映像と自己映像との合成の割合の時間に沿った変化が、図5Bで示されるように三角波となるように両映像を合成してもよく、図5Cで示されるようにノコギリ波となるように両映像を合成してもよい。また、合成部13は、例えば、参照映像に含まれる各フレームと、自己映像に含まれる各フレームとの大きさが異なる場合に、一方の映像の大きさを他方の映像の大きさに合わせて合成を行ってもよい。
Further, the combining
映像出力部14は、合成部13によって生成された合成映像を出力する。ここで、この出力は、例えば、表示デバイス(例えば、液晶ディスプレイや有機ELディスプレイなど)への表示でもよく、合成映像を表示する機器への通信回線を介した送信でもよい。なお、映像出力部14は、出力を行うデバイス(例えば、表示デバイスや通信デバイスなど)を含んでもよく、または含まなくてもよい。映像出力部14によって出力された映像が表示される表示デバイスは、例えば、図2で示されるように、ユーザ30のいる環境に配置されたディスプレイであってもよく、ユーザ30が装着しているヘッドマウントディスプレイであってもよい。また、映像出力部14は、ハードウェアによって実現されてもよく、または、それらのデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。
The
次に、映像合成装置1の動作について図8のフローチャートを用いて説明する。
(ステップS101)合成部13は、参照映像と自己映像との合成を行うかどうか判断する。そして、合成を行う場合には、ステップS102に進み、そうでない場合には、合成を行うと判断するまで、ステップS101の処理を繰り返す。なお、合成部13は、各映像に含まれるフレームの表示間隔ごとに、合成を行うと判断してもよい。例えば、フレームレートがA(fps)である場合には、合成部13は、1/A(秒)ごとに、合成を行うと判断してもよい。
Next, the operation of the
(Step S101) The
(ステップS102)合成部13は、記憶部11から合成対象の参照映像のフレームを読み出す。なお、合成の処理が開始されてからT秒後に読み出す対象となる参照映像のフレームは、例えば、先頭からT秒の位置のフレームであってもよい。
(Step S102) The
(ステップS103)映像取得部12は、自己映像のフレームを取得する。映像取得部12は、例えば、カメラ901から最新の自己映像のフレームを取得してもよい。
(Step S103) The
(ステップS104)合成部13は、参照映像と合成映像との合成の割合を特定する。例えば、図5Aで示されるように合成の割合が時間方向に変化する場合であって、合成の処理が開始されてからT秒が経過している場合には、合成部13は、T秒に対応する合成の割合を特定してもよい。
(Step S104) The combining
(ステップS105)合成部13は、ステップS102で読み出した参照映像のフレームと、ステップS103で取得された自己映像のフレームとを、ステップS104で特定した割合で合成することによって、合成映像のフレームを生成する。
(Step S105) The
(ステップS106)映像出力部14は、ステップS105で生成された合成映像のフレームを出力する。そして、ステップS101に戻る。このように、参照映像及び自己映像の各フレームが合成されて出力されることにより、両映像の合成が行われる。
(Step S106) The
なお、図8のフローチャートにおける処理の順序は一例であり、同様の結果を得られるのであれば、各ステップの順序を変更してもよい。例えば、ステップS102~S104の各処理は、図8で示される以外の順序で実行されてもよい。また、図8のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 Note that the order of processing in the flowchart of FIG. 8 is an example, and the order of each step may be changed as long as the same result can be obtained. For example, each process of steps S102 to S104 may be executed in an order other than that shown in FIG. 8. Further, in the flowchart of FIG. 8, the process is terminated by turning off the power or by an interrupt to terminate the process.
次に、本実施の形態による映像合成装置1の動作について、具体例を用いて説明する。本具体例において、参照映像は、鉗子である模倣対象41が熟練者によって使用されている状況の映像であるとする。参照映像は、例えば、図3で示される映像である。また、図2で示されるように、ユーザ30が頭部に装着しているカメラ901を用いて、ユーザ30が使用している鉗子である動作対象51の自己映像が撮影されるものとする。自己映像は、例えば、図4で示される映像である。
Next, the operation of the
まず、ユーザ30が、映像合成装置1を操作して、参照映像と自己映像との合成の処理を開始させると、合成部13は、記憶部11で記憶されている参照映像の1番目のフレームを読み出す(ステップS101,S102)。また、映像取得部12は、カメラ901によって撮影された自己映像のフレームを、有線または無線を介して受け付ける(ステップS103)。また、合成部13は、その時点の合成の割合を特定する(ステップS104)。本具体例では、図5Aで示される自己映像の不透明度を用いて、参照映像の手前側に自己映像が合成されるものとする。なお、合成処理の開始時点では、自己映像の不透明度が0%であったとする。すると、合成部13は、参照映像の手前側に、不透明度が0%である自己映像を合成した合成映像のフレームを生成して映像出力部14に渡す(ステップS105)。すなわち、参照映像のみが含まれる合成映像のフレームが生成されることになる。合成映像のフレームを受け取ると、映像出力部14は、その受け取った合成映像のフレームを表示デバイス902に出力する(ステップS106)。このようにして、ユーザ30は、合成映像を見ることができるようになる。
First, when the
なお、参照映像と自己映像との合成の割合は、図5Aで示されるように変化することになる。したがって、合成映像において、徐々に自己映像の割合が増加することになり、時間T1には、図6で示される合成映像が表示され、時間T2には、図7で示される合成映像が表示されることになる。また、自己映像のみが含まれる合成映像が表示された後に、合成映像において、徐々に自己映像の割合が減少することになる。このように、合成映像における自己映像の割合は、正弦波に応じて、0%から100%までの範囲内で周期的に変化することになる。ユーザ30は、表示デバイス902に表示された合成映像を見ながら、模倣対象の動作と同様の動作となるように、動作対象を動作させることによって学習を行うことができる。
Note that the ratio of compositing the reference video and the self video changes as shown in FIG. 5A. Therefore, in the composite image, the proportion of self-image gradually increases, and at time T1, the composite image shown in FIG. 6 is displayed, and at time T2, the composite image shown in FIG. 7 is displayed. That will happen. Furthermore, after a composite image containing only self-images is displayed, the proportion of self-images in the composite image gradually decreases. In this way, the proportion of the self-image in the composite image changes periodically within the range from 0% to 100% according to the sine wave. The
以上のように、本実施の形態による映像合成装置1によれば、参照映像と自己映像との合成の割合が時間に沿って連続的に繰り返して変化するように両映像を合成することができる。したがって、参照映像と自己映像とを交互に切り替えて表示しないため、ユーザが、参照映像と自己映像とが融合したように感じることを防止できる。その結果、合成映像を見るユーザは、参照映像における模倣対象41と、自己映像における動作対象51とを容易に区別することができるようになり、模倣対象の動作に追従するように動作対象を動作させることができ、参照映像を用いた学習の効果を高めることができる。また、両映像の合成の割合が周期的に繰り返して変化される場合には、参照映像がメインに表示される時点や自己映像がメインに表示される時点を容易に予測することができ、結果として、合成映像において、模倣対象や動作対象を特定しやすくなる。
As described above, according to the
なお、本実施の形態による映像合成装置1は、例えば、図9で示されるように、合成映像における模倣対象と動作対象との距離を取得する距離取得部21をさらに備え、合成部13は、例えば、距離取得部21によって取得された距離が遠いほど、自己映像がより多く表示されるように合成を行ってもよい。合成映像における模倣対象と動作対象との距離とは、仮に、ある時点に読み出された参照映像と、その時点に取得された自己映像とを合成して合成映像を生成したとした場合に、その合成映像における模倣対象と動作対象との距離である。この距離は、例えば、直前に合成された合成映像のフレームにおける模倣対象と動作対象との距離であってもよく、この距離の取得のために、合成時点の参照映像のフレームと自己映像のフレームとを合成した合成映像のフレームにおける模倣対象と動作対象との距離であってもよく、合成時点の参照映像のフレームにおける模倣対象の位置と、最新の自己映像のフレームにおける動作対象の位置との距離であってもよい。
Note that the
映像のフレームにおける模倣対象や動作対象の領域は、例えば、フレームにおける物体検出や、セグメンテーション、パターンマッチングなどによって特定されてもよい。また、模倣対象の位置や、動作対象の位置は、例えば、フレームにおいて特定された模倣対象や動作対象の領域の代表位置であってもよい。ある領域の代表位置は、一例として、その領域の重心の位置であってもよく、その領域を囲むバウンディングボックスの中心の位置であってもよい。 The imitation target or action target area in a video frame may be specified by, for example, object detection in the frame, segmentation, pattern matching, or the like. Further, the position of the imitation target or the position of the motion target may be, for example, a representative position of a region of the imitation target or motion target specified in the frame. The representative position of a certain area may be, for example, the position of the center of gravity of the area, or the position of the center of a bounding box surrounding the area.
合成部13は、例えば、取得された距離が閾値THより大きい場合には、取得された距離が閾値THより小さい場合よりも、自己映像がより多く表示されるように参照映像と自己映像とを合成してもよい。なお、合成部13は、例えば、取得された距離が閾値THと等しい場合には、取得された距離が閾値THより小さい場合よりも、自己映像がより多く表示されるように参照映像と自己映像とを合成してもよく、または、そうでなくてもよい。自己映像がより多く表示されるように合成するとは、例えば、合成映像における自己映像の割合の時間方向における所定の期間の平均値が、より大きくなるように合成することであってもよい。合成の割合が周期的に変化する場合には、所定の期間は、合成の割合の1周期の整数倍に相当する期間であってもよい。この場合には、取得された距離が閾値THより大きいときには、取得された距離が閾値THより小さいときよりも、合成映像が表示された際に、自己映像の方がより多く表示されることになる。一例として、取得された距離が閾値THより大きい場合には、合成映像における自己映像の割合の平均値が、50%を超えるように合成が行われてもよい。模倣対象と動作対象との距離が大きい場合には、通常、動作対象の動作を模倣対象の動作に合わせるよりは、動作対象の位置が、模倣対象の位置に近づくように動作対象が移動されることになる。そのため、模倣対象と動作対象との距離が小さい場合よりも、動作対象がより多く表示されるように合成が行われることによって、その移動を容易に行うことができるようになる。一方、模倣対象と動作対象との距離が小さい場合には、通常、動作対象の動作を模倣対象の動作に合わせるように動作対象が動作されることになる。そのため、模倣対象と動作対象との距離が大きい場合よりも、模倣対象がより多く表示されるように合成が行われることによって、その動作の模倣を容易に行うことができるようになる。
For example, the combining
一例として、合成部13は、取得された距離が閾値THより大きい場合には、図5Dで示されるように時間的に変化する自己映像の不透明度に応じて、参照映像と自己映像との合成を行ってもよい。また、合成部13は、取得された距離が閾値THより小さい場合には、図5Aで示されるように時間的に変化する自己映像の不透明度に応じて、参照映像と自己映像との合成を行ってもよい。このようにすることで、取得された距離が閾値THより大きい場合に、取得された距離が閾値THより小さい場合よりも、自己映像がより多く表示されるように参照映像と自己映像とを合成することができるようになる。
For example, if the acquired distance is greater than the threshold TH, the combining
また、本実施の形態による映像合成装置1は、例えば、図10で示されるように、参照映像及び自己映像の少なくとも一方である変更対象の映像について、背景領域を透明またはあらかじめ決められた単色に変更する背景変更部22をさらに備え、合成部13は、変更対象の映像については、背景変更部22による変更後の映像を合成してもよい。変更対象の映像は、例えば、参照映像のみであってもよく、自己映像のみであってもよく、両映像であってもよい。変更対象の映像が参照映像のみである場合には、合成部13によって、背景の変更後の参照映像と、背景の変更が行われていない自己映像とが合成されてもよい。また、変更対象の映像が自己映像のみである場合には、合成部13によって、背景の変更が行われていない参照映像と、背景の変更後の自己映像とが合成されてもよい。また、変更対象の映像が参照映像及び自己映像である場合には、合成部13によって、背景の変更後の参照映像と、背景の変更後の自己映像とが合成されてもよい。
Furthermore, as shown in FIG. 10, for example, the
背景変更部22は、例えば、模倣対象や動作対象の領域を特定し、その特定した領域以外の領域を背景領域として特定してもよい。模倣対象や動作対象の領域の特定は、上記したように行われてもよい。なお、模倣対象や動作対象によって所定の処理(例えば、鉗子である模倣対象や動作対象によって行われる縫合処理など)の対象となる物(例えば、臓器や模擬臓器など)の領域も、背景以外としてもよい。そして、背景変更部22は、特定した背景領域を、例えば、透明にしてもよく、あらかじめ決められた単色に変更してもよい。なお、参照映像及び自己映像の両方が変更対象の映像である場合であって、両映像の背景領域が単色に変更される場合には、参照映像の背景の色と、自己映像の背景の色とは異なっていてもよい。このようにすることで、合成映像が表示される際に、どちらの映像がメインに表示されているのかを、その背景の色を用いて容易に把握することができるようになる。また、画像の背景領域を透明にしたり、特定の単色にしたりするソフトウェアは公知である。背景変更部22は、そのようなソフトウェアを用いて、変更対象の映像の各フレームにおいて、背景領域を透明や単色に変更してもよい。
The
このように、少なくとも一方の映像の背景領域が透明または単色に変更されることによって、合成映像において、模倣対象や動作対象をより見えやすくすることができる。例えば、模倣対象の領域に自己映像の透明または単色の背景領域が表示されたり、動作対象の領域に参照映像の透明または単色の背景領域が表示されたりすることによって、ユーザが、模倣対象や動作対象を容易に特定することができるようになる。 In this way, by changing the background area of at least one of the images to be transparent or monochrome, it is possible to make the imitation target or the action target more visible in the composite image. For example, by displaying a transparent or monochrome background area of the self-image in the area to be imitated, or by displaying a transparent or monochrome background area of the reference image in the area to be imitated, the user can You will be able to easily identify the target.
また、本実施の形態による映像合成装置1は、例えば、図11で示されるように、ユーザから注目箇所を示す注目箇所情報を受け付ける受付部23と、参照映像及び自己映像の少なくとも一方である特定対象の映像について、注目箇所を特定する特定部24と、特定対象の映像について特定された注目箇所以外の領域をぼかす処理を行うぼかし処理部25とをさらに備え、合成部13は、特定対象の映像については、ぼかし処理部25によるぼかし処理後の映像を合成してもよい。特定対象の映像は、例えば、参照映像のみであってもよく、自己映像のみであってもよく、両映像であってもよい。
Furthermore, as shown in FIG. 11, the
受付部23は、例えば、図12で示されるように、映像のフレームにおけるあらかじめ決められた領域61~65をそれぞれ識別する複数の領域識別子の少なくともいずれかである注目箇所情報を受け付けてもよい。この場合には、注目箇所情報である領域識別子によって識別される領域が、注目箇所であってもよい。領域識別子は、例えば、領域61~65をそれぞれ識別する「中央」「左上」「右上」「左下」「右下」であってもよい。また、受付部23は、一例として、音声認識の結果である注目箇所情報を受け付けてもよい。この場合には、ユーザは、音声によって注目箇所を指定することができるようになる。なお、映像において特定することができる注目箇所の個数や位置は、図12で示される以外であってもよいことは言うまでもない。
For example, as shown in FIG. 12, the
受付部23は、例えば、入力デバイス(例えば、キーボードやマウス、タッチパネルなど)から入力された情報を受け付けてもよく、有線または無線の通信回線を介して送信された情報を受信してもよい。なお、受付部23は、受け付けを行うためのデバイス(例えば、入力デバイスや通信デバイスなど)を含んでもよく、または含まなくてもよい。また、受付部23は、ハードウェアによって実現されてもよく、または所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。
For example, the
特定部24は、例えば、受付部23によって受け付けられた注目箇所情報に応じて注目箇所を特定してもよい。この場合には、特定部24は、例えば、受付部23によって受け付けられた注目箇所情報である領域識別子によって識別される領域である注目箇所を特定してもよい。具体的には、領域識別子「中央」である注目箇所情報が受け付けられた場合には、特定部24は、領域識別子「中央」で識別される領域61を、注目箇所として特定してもよい。注目箇所情報が受け付けられる場合であって、特定対象の映像が参照映像と自己映像との両方である場合には、例えば、両映像における注目箇所は同じであってもよく、または異なっていてもよい。後者の場合には、例えば、映像ごとに注目箇所情報が受け付けられてもよい。
The specifying
また、特定部24は、受け付けられた注目箇所情報を用いないで注目箇所を特定してもよい。この場合には、特定部24は、例えば、特定対象の映像において動きのある箇所である注目箇所を特定してもよい。映像において動きのある箇所である注目箇所は、例えば、映像の所定の時間間隔だけ離れた2個のフレームにおいてそれぞれ特徴点を抽出し、その2個のフレームにおいて対応する特徴点の単位時間あたりの位置の変化、すなわち距離が閾値を超える箇所であってもよい。一例として、映像におけるオプティカルフローのベクトルの大きさが所定の閾値を超える箇所を、映像において動きのある箇所である注目箇所としてもよい。この閾値は、例えば、模倣対象や動作対象が注目箇所に含まれるように設定されてもよい。なお、注目箇所の形状は、例えば、矩形状、楕円形状などのようにあらかじめ決まっていてもよい。また、例えば、注目箇所の大きさもあらかじめ決まっていてもよい。この場合には、特定部24は、例えば、特定対象の映像において動きのある箇所を含む所定の大きさの所定の形状の領域である注目箇所を特定してもよい。注目箇所情報を用いないで注目箇所が特定される場合であって、特定対象の映像が参照映像と自己映像との両方である場合には、例えば、両映像における注目箇所は異なっていてもよい。受け付けられた注目箇所情報を用いないで注目箇所を特定する場合には、映像合成装置1は、受付部23を有していなくてもよい。
Further, the specifying
ぼかし処理部25は、特定対象の映像について、特定部24によって特定された注目箇所以外の領域をぼかす処理を行う。一例として、特定部24は、特定対象の映像と、その映像における注目箇所を示す領域とをぼかし処理部25に渡し、ぼかし処理部25は、その受け取った映像及び注目箇所を用いて、注目箇所以外の領域をぼかす処理を行ってもよい。ぼかし処理部25によって行われる処理は、例えば、画像処理ソフトウェアにおけるぼかし加工処理として知られている処理であってもよい。この処理は、一例として、あるピクセルの色を、そのピクセルを中心とした所定の範囲の周囲の色の平均値に置き換える処理であってもよい。
The blurring
このように、注目箇所以外の領域についてぼかし処理が行われることによって、ユーザが、注目箇所に注目しやすいようにすることができる。例えば、ぼかし処理の行われていない参照映像と自己映像とが合成され、合成映像に両映像が含まれている場合には、模倣対象の領域に自己映像の背景が表示されたり、動作対象の領域に参照映像の背景が表示されたりすることもあり、そのような状況では、ユーザが、模倣対象や動作対象を容易に特定することが困難になることもある。それに対して、少なくとも一方の映像の注目箇所以外の領域についてぼかし処理が行われる場合には、例えば、模倣対象の領域に自己映像のぼかし処理の行われた領域が表示されたり、動作対象の領域に参照映像のぼかし処理の行われた領域が表示されたりすることによって、ユーザが、模倣対象や動作対象を容易に特定することができるようになる。 In this way, by performing the blurring process on areas other than the point of interest, it is possible to make it easier for the user to focus on the point of interest. For example, if a reference video that has not been blurred and a self-video are combined, and both videos are included in the composite video, the background of the self-video may be displayed in the area to be imitated, or the background of the self-video may be displayed in the area to be imitated. The background of the reference video may be displayed in the area, and in such a situation, it may be difficult for the user to easily identify the imitation target or action target. On the other hand, if blurring is performed on an area other than the point of interest in at least one of the videos, for example, the blurred area of the self-image is displayed in the area to be imitated, or the area where the action is targeted is displayed. By displaying the blurred area of the reference video on the screen, the user can easily identify the imitation target or action target.
また、本実施の形態では、参照映像や自己映像、合成映像が2次元の単数の映像である場合について主に説明したが、それらの映像は、ステレオ映像であってもよい。この場合には、映像出力部14は、ユーザ30が装着しているヘッドマウントディスプレイにステレオ映像である合成映像を出力してもよい。
Further, in this embodiment, the case where the reference video, self-video, and composite video are two-dimensional single videos has been mainly described, but these videos may be stereo videos. In this case, the
また、上記実施の形態では、映像合成装置1がスタンドアロンである場合について説明したが、映像合成装置1は、スタンドアロンの装置であってもよく、サーバ・クライアントシステムにおけるサーバ装置であってもよい。後者の場合には、受付部や取得部、出力部は、通信回線を介して入力を受け付けたり、情報を取得したり、情報を出力したりしてもよい。
Further, in the above embodiment, the case where the
また、上記実施の形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、または、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。 Furthermore, in the above embodiments, each process or each function may be realized by being centrally processed by a single device or a single system, or may be realized by being distributedly processed by multiple devices or multiple systems. This may be realized by
また、上記実施の形態において、各構成要素間で行われる情報の受け渡しは、例えば、その情報の受け渡しを行う2個の構成要素が物理的に異なるものである場合には、一方の構成要素による情報の出力と、他方の構成要素による情報の受け付けとによって行われてもよく、または、その情報の受け渡しを行う2個の構成要素が物理的に同じものである場合には、一方の構成要素に対応する処理のフェーズから、他方の構成要素に対応する処理のフェーズに移ることによって行われてもよい。 In addition, in the above embodiment, the information exchange performed between each component is performed by one component, for example, when the two components that exchange the information are physically different. This may be done by outputting information and receiving the information by another component, or by one component if the two components passing that information are physically the same. This may be performed by moving from a phase of processing corresponding to the component to a phase of processing corresponding to the other component.
また、上記実施の形態において、各構成要素が実行する処理に関係する情報、例えば、各構成要素が受け付けたり、取得したり、選択したり、生成したり、送信したり、受信したりした情報や、各構成要素が処理で用いる閾値や数式、アドレス等の情報等は、上記説明で明記していなくても、図示しない記録媒体において、一時的に、または長期にわたって保持されていてもよい。また、その図示しない記録媒体への情報の蓄積を、各構成要素、または、図示しない蓄積部が行ってもよい。また、その図示しない記録媒体からの情報の読み出しを、各構成要素、または、図示しない読み出し部が行ってもよい。 In the above embodiments, information related to processing executed by each component, for example, information accepted, acquired, selected, generated, transmitted, or received by each component. Information such as threshold values, formulas, addresses, etc. used by each component in processing may be held temporarily or for a long period of time in a recording medium (not shown), even if not specified in the above description. Further, the information may be stored in the recording medium (not shown) by each component or by a storage unit (not shown). Further, each component or a reading unit (not shown) may read information from the recording medium (not shown).
また、上記実施の形態において、各構成要素等で用いられる情報、例えば、各構成要素が処理で用いる閾値やアドレス、各種の設定値等の情報がユーザによって変更されてもよい場合には、上記説明で明記していなくても、ユーザが適宜、それらの情報を変更できるようにしてもよく、または、そうでなくてもよい。それらの情報をユーザが変更可能な場合には、その変更は、例えば、ユーザからの変更指示を受け付ける図示しない受付部と、その変更指示に応じて情報を変更する図示しない変更部とによって実現されてもよい。その図示しない受付部による変更指示の受け付けは、例えば、入力デバイスからの受け付けでもよく、通信回線を介して送信された情報の受信でもよく、所定の記録媒体から読み出された情報の受け付けでもよい。 In addition, in the above-described embodiment, if the information used in each component, for example, information such as threshold values, addresses, various setting values, etc. used by each component in processing, may be changed by the user, the above-mentioned Even if it is not specified in the description, the user may or may not be able to change the information as appropriate. If the information can be changed by the user, the change is realized by, for example, a reception unit (not shown) that receives change instructions from the user, and a change unit (not shown) that changes the information in accordance with the change instruction. You can. The acceptance of the change instruction by the reception unit (not shown) may be, for example, acceptance from an input device, information transmitted via a communication line, or information read from a predetermined recording medium. .
また、上記実施の形態において、映像合成装置1に含まれる2以上の構成要素が通信デバイスや入力デバイス等を有する場合に、2以上の構成要素が物理的に単一のデバイスを有してもよく、または、別々のデバイスを有してもよい。
Further, in the above embodiment, when two or more components included in the
また、上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、または、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。その実行時に、プログラム実行部は、記憶部や記録媒体にアクセスしながらプログラムを実行してもよい。なお、上記実施の形態における映像合成装置1を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、ユーザが動作を模倣する対象である模倣対象の動作の映像である参照映像が記憶される記憶部にアクセス可能なコンピュータを、ユーザが動作させる対象である動作対象の動作の映像である自己映像を取得する映像取得部、参照映像と自己映像とを合成して合成映像を生成する合成部、合成映像を出力する映像出力部として機能させ、合成部は、参照映像と自己映像との合成の割合が時間に沿って連続的に繰り返して変化するように両映像を合成する、プログラムでもよい。
Furthermore, in the embodiments described above, each component may be configured by dedicated hardware, or components that can be realized by software may be realized by executing a program. For example, each component can be realized by a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory. At the time of execution, the program execution section may execute the program while accessing the storage section or recording medium. Note that the software that implements the
なお、上記プログラムにおいて、上記プログラムが実現する機能には、ハードウェアでしか実現できない機能は含まれない。例えば、情報を取得する取得部や、情報を出力する出力部などにおけるモデムやインターフェースカードなどのハードウェアでしか実現できない機能は、上記プログラムが実現する機能には少なくとも含まれない。 Note that in the above program, the functions realized by the program do not include functions that can only be realized by hardware. For example, functions that can only be realized by hardware such as a modem or an interface card in an acquisition unit that acquires information, an output unit that outputs information, etc. are not included in the functions that are realized by the program.
また、このプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD-ROMなどの光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。また、このプログラムは、プログラムプロダクトを構成するプログラムとして用いられてもよい。 Further, this program may be executed by being downloaded from a server or the like, and the program recorded on a predetermined recording medium (for example, an optical disk such as a CD-ROM, a magnetic disk, a semiconductor memory, etc.) is read out. It may be executed by Further, this program may be used as a program constituting a program product.
また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、または分散処理を行ってもよい。 Further, the number of computers that execute this program may be one or more. That is, centralized processing or distributed processing may be performed.
図13は、上記プログラムを実行して、上記実施の形態による映像合成装置1を実現するコンピュータ900の構成の一例を示す図である。図13において、コンピュータ900は、MPU(Micro Processing Unit)911と、ブートアッププログラム等のプログラムを記憶するためのROM912と、MPU911に接続され、アプリケーションプログラムの命令を一時的に記憶すると共に、一時記憶空間を提供するRAM913と、アプリケーションプログラム、システムプログラム、及びデータを記憶する記憶部914と、LANやWAN等への接続を提供する通信モジュール915とを備える。なお、MPU911、ROM912等は、カメラ901、表示デバイス902、キーボード903、及びタッチパッドやマウスなどのポインティングデバイス904と共に、バスによって相互に接続されていてもよい。また、記憶部914は、例えば、ハードディスクやSSD(Solid State Drive)などであってもよい。また、カメラ901、表示デバイス902、キーボード903、ポインティングデバイス904などは、例えば、外付けのデバイスであってもよく、または、コンピュータ900に内蔵されているデバイスであってもよい。
FIG. 13 is a diagram illustrating an example of the configuration of a
コンピュータ900に、上記実施の形態による映像合成装置1の機能を実行させるプログラムは、実行の際にRAM913にロードされてもよい。なお、プログラムは、例えば、記憶部914、またはネットワークから直接、ロードされてもよい。
A program that causes the
プログラムは、コンピュータ900に、上記実施の形態による映像合成装置1の機能を実行させるオペレーティングシステム(OS)、またはサードパーティプログラム等を必ずしも含んでいなくてもよい。プログラムは、制御された態様で適切な機能やモジュールを呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいてもよい。コンピュータ900がどのように動作するのかについては周知であり、詳細な説明は省略する。
The program does not necessarily need to include an operating system (OS) or a third party program that causes the
また、以上の実施の形態は、本発明を具体的に実施するための例示であって、本発明の技術的範囲を制限するものではない。本発明の技術的範囲は、実施の形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲の文言上の範囲及び均等の意味の範囲内での変更が含まれることが意図される。 Further, the above embodiments are illustrative examples for concretely implementing the present invention, and do not limit the technical scope of the present invention. The technical scope of the present invention is indicated by the claims, not the description of the embodiments, and includes changes within the literal scope and equivalent meaning of the claims. is intended.
1 映像合成装置
11 記憶部
12 映像取得部
13 合成部
14 映像出力部
21 距離取得部
22 背景変更部
23 受付部
24 特定部
25 処理部
1
Claims (9)
ユーザが動作させる対象である動作対象の動作の映像である自己映像を取得する映像取得部と、
前記参照映像と前記自己映像とを合成して合成映像を生成する合成部と、
前記合成映像を出力する映像出力部と、を備え、
前記合成部は、前記参照映像と前記自己映像との合成の割合が時間に沿って連続的に繰り返して変化するように両映像を合成する、映像合成装置。 a storage unit that stores a reference video that is a video of an action to be imitated whose action is to be imitated by the user;
a video acquisition unit that acquires a self-image that is a video of the action of an action target that is an object to be operated by the user;
a synthesizing unit that synthesizes the reference image and the self-image to generate a composite image;
a video output unit that outputs the composite video,
The combining unit is a video combining device that combines the reference video and the own video such that a combination ratio of the reference video and the own video continuously and repeatedly changes over time.
前記合成部は、前記距離が遠いほど、前記自己映像がより多く表示されるように合成を行う、請求項1記載の映像合成装置。 further comprising a distance acquisition unit that acquires a distance between the imitation target and the motion target in the composite video,
The image synthesizing device according to claim 1, wherein the synthesizing unit performs the synthesizing so that the greater the distance, the more of the self-image is displayed.
前記合成部は、前記変更対象の映像については、前記背景変更部による変更後の映像を合成する、請求項1または請求項2記載の映像合成装置。 further comprising a background changing unit that changes a background area of the video to be changed, which is at least one of the reference video and the self-video, to transparent or a predetermined monochromatic color;
3. The video compositing device according to claim 1, wherein the compositing unit combines the video changed by the background changing unit with respect to the video to be changed.
前記特定対象の映像について特定された注目箇所以外の領域をぼかす処理を行うぼかし処理部と、をさらに備え、
前記合成部は、前記特定対象の映像については、前記ぼかし処理部によるぼかし処理後の映像を合成する、請求項1または請求項2記載の映像合成装置。 a specifying unit that specifies a point of interest in a specific target video that is at least one of the reference video and the self-video;
further comprising a blurring processing unit that performs processing to blur an area other than the specified point of interest in the specific target video,
The image synthesis apparatus according to claim 1 or 2, wherein the synthesis section synthesizes the image subjected to blurring processing by the blurring processing section for the specific target image.
前記特定部は、前記受付部によって受け付けられた注目箇所情報に応じて注目箇所を特定する、請求項5記載の映像合成装置。 Further comprising a reception unit that receives attention point information indicating attention points from the user,
6. The video synthesis apparatus according to claim 5, wherein the specifying section specifies the point of interest according to point of interest information received by the receiving section.
前記映像取得部が、ユーザが動作させる対象である動作対象の動作の映像である自己映像を取得するステップと、
前記合成部が、前記参照映像と前記自己映像とを合成して合成映像を生成するステップと、
前記映像出力部が、前記合成映像を出力するステップと、を備え、
前記合成映像を生成するステップでは、前記参照映像と前記自己映像との合成の割合が時間に沿って連続的に繰り返して変化するように両映像を合成する、映像合成方法。 A video synthesis method in which processing is performed using a storage unit storing a reference video that is a video of an action to be imitated whose action is to be imitated by a user, a video acquisition unit, a compositing unit, and a video output unit. There it is,
a step in which the image acquisition unit acquires a self-image that is an image of an operation target that is an object to be operated by the user;
the combining unit combining the reference video and the self-video to generate a composite video;
the video output unit outputting the composite video,
In the step of generating the composite video, the video compositing method comprises composing the reference video and the self-video so that the ratio of composition of the reference video and the self-video continuously and repeatedly changes over time.
ユーザが動作させる対象である動作対象の動作の映像である自己映像を取得する映像取得部、
前記参照映像と前記自己映像とを合成して合成映像を生成する合成部、
前記合成映像を出力する映像出力部として機能させ、
前記合成部は、前記参照映像と前記自己映像との合成の割合が時間に沿って連続的に繰り返して変化するように両映像を合成する、プログラム。 A computer capable of accessing a storage unit in which a reference image, which is an image of the movement of the imitation target whose movement is to be imitated by the user, is stored;
a video acquisition unit that acquires a self-image that is a video of the action of an action target that is to be operated by the user;
a synthesizing unit that synthesizes the reference image and the self-image to generate a composite image;
Function as a video output unit that outputs the composite video,
The combining unit is a program that combines the reference video and the self-video so that a combination ratio between the reference video and the self-video continuously and repeatedly changes over time.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023123184A JP7412826B1 (en) | 2023-07-28 | 2023-07-28 | Video compositing device, video compositing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023123184A JP7412826B1 (en) | 2023-07-28 | 2023-07-28 | Video compositing device, video compositing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7412826B1 true JP7412826B1 (en) | 2024-01-15 |
Family
ID=89534215
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023123184A Active JP7412826B1 (en) | 2023-07-28 | 2023-07-28 | Video compositing device, video compositing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7412826B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018031882A (en) | 2016-08-24 | 2018-03-01 | 花王株式会社 | Perfume change display method and information processing apparatus |
JP2020144233A (en) | 2019-03-06 | 2020-09-10 | 株式会社日立製作所 | Learning assisting system, learning assisting device, and program |
JP2023059137A (en) | 2021-10-14 | 2023-04-26 | 株式会社計数技研 | Image composite device, image composite method, and program |
-
2023
- 2023-07-28 JP JP2023123184A patent/JP7412826B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018031882A (en) | 2016-08-24 | 2018-03-01 | 花王株式会社 | Perfume change display method and information processing apparatus |
JP2020144233A (en) | 2019-03-06 | 2020-09-10 | 株式会社日立製作所 | Learning assisting system, learning assisting device, and program |
JP2023059137A (en) | 2021-10-14 | 2023-04-26 | 株式会社計数技研 | Image composite device, image composite method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10859840B2 (en) | Graphics rendering method and apparatus of virtual reality | |
US10922865B2 (en) | Information processing apparatus, information processing method, and program | |
US7116330B2 (en) | Approximating motion using a three-dimensional model | |
CN106170083B (en) | Image processing for head mounted display device | |
US10916044B2 (en) | Information processing apparatus, information processing method, and program | |
CN109479114A (en) | Light-field capture | |
US11995784B2 (en) | Image processing device and image processing method | |
KR20170012384A (en) | Avatar facial expression animations with head rotation | |
JP2010033367A (en) | Information processor and information processing method | |
CN108416832B (en) | Media information display method, device and storage medium | |
CN109151540A (en) | The interaction processing method and device of video image | |
US20170316576A1 (en) | Method for Tracking Subject Head Position from Monocular-Source Image Sequence | |
JP2006285609A (en) | Image processing method, image processor | |
CN113286138A (en) | Panoramic video display method and display equipment | |
JP2017111719A (en) | Video processing device, video processing method and video processing program | |
JP6672414B1 (en) | Drawing program, recording medium, drawing control device, drawing control method | |
KR101212223B1 (en) | Device taking a picture and method to generating the image with depth information | |
JP2007234033A (en) | Three-dimensional game apparatus and information storage medium | |
JP7412826B1 (en) | Video compositing device, video compositing method, and program | |
JP7427786B2 (en) | Display methods, devices, storage media and program products based on augmented reality | |
JP2009521759A (en) | Eye movement data replacement in motion capture | |
JP6371547B2 (en) | Image processing apparatus, method, and program | |
Beimler et al. | Smurvebox: A smart multi-user real-time virtual environment for generating character animations | |
JP7486860B1 (en) | Image synthesis device, image synthesis method, and program | |
US6633291B1 (en) | Method and apparatus for displaying an image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230728 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7412826 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |