JP2015154429A - System for giving video substance - Google Patents

System for giving video substance Download PDF

Info

Publication number
JP2015154429A
JP2015154429A JP2014029071A JP2014029071A JP2015154429A JP 2015154429 A JP2015154429 A JP 2015154429A JP 2014029071 A JP2014029071 A JP 2014029071A JP 2014029071 A JP2014029071 A JP 2014029071A JP 2015154429 A JP2015154429 A JP 2015154429A
Authority
JP
Japan
Prior art keywords
video
subject
materialization
entity
mentioned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014029071A
Other languages
Japanese (ja)
Other versions
JP6044047B2 (en
Inventor
直美 山下
Naomi Yamashita
直美 山下
英之 中西
Hideyuki Nakanishi
英之 中西
一晶 田中
Kazuaki Tanaka
一晶 田中
裕也 大西
Yuya Onishi
裕也 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Osaka University NUC
Original Assignee
Nippon Telegraph and Telephone Corp
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Osaka University NUC filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014029071A priority Critical patent/JP6044047B2/en
Publication of JP2015154429A publication Critical patent/JP2015154429A/en
Application granted granted Critical
Publication of JP6044047B2 publication Critical patent/JP6044047B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To make a part of an object in video substantial.SOLUTION: A video acquisition unit 10 captures video image including at least one subject and at least one target which is to be made to be substantial, the target being visible in a state of being connected to the subject. An information acquisition unit 12 acquires motion information including a variation in a position of a contact between the subject and the target which is to be made to be substantial. A video reproduction unit 20 deletes the target which is to be made to be substantial from the video and reproduces it on a screen. A substance reproduction unit 22 controls, on the basis of the motion information, a position of an object 26 obtained by making substantial the target which is to be made to be substantial so that the object 26 becomes visible in the state of being connected to the subject in the video.

Description

この発明は、映像上の物体の一部を実体化する映像実体化技術に関する。   The present invention relates to a video materialization technique for materializing a part of an object on a video.

通信技術の向上によって、ビデオ会議やテレビ電話のようなビデオチャットを用いて、遠隔地にいる人間が映像と音声により相互にコミュニケーションを取ることが可能となっている。遠隔地間で作業テーブル上の状態を共有するビデオチャット技術として、例えば、非特許文献1に記載された技術が挙げられる。   Improvements in communication technology have made it possible for people in remote locations to communicate with each other by video and audio using video chat such as video conferencing and videophone. As a video chat technique for sharing a state on a work table between remote locations, for example, a technique described in Non-Patent Document 1 can be cited.

山下直美、梶克彦、葛岡英明、平田圭二、青柳滋巳、”遠隔ユーザのジェスチャの可視性を向上させる手法の提案と評価”、情報処理学会論文誌、Vol. 52、No. 1、pp. 97-108、2011年1月Naomi Yamashita, Katsuhiko Tsuji, Hideaki Kuzuoka, Junji Hirata, Shigetoshi Aoyagi, “Proposal and Evaluation of a Method for Improving Gesture Visibility of Remote Users”, IPSJ Transactions, Vol. 52, No. 1, pp. 97 -108, January 2011

非特許文献1に記載されたような従来のビデオチャット技術では、ビデオ映像を用いて遠隔地の人間や物体の動きを伝達することができる。しかしながら、従来のビデオチャット技術では、映像内の人間や物体の動きを三次元的に眺めることや、それらに触れることはできない。3Dディスプレイ等の立体視技術を用いれば、ある程度、遠隔地の物体を三次元的に眺めることはできるが、依然としてそれに触れることはできない。映像内の人間や物体の動きを実体化すれば、それらの状態をより正確に把握することができ、コミュニケーションを円滑化することが期待できる。   In the conventional video chat technique as described in Non-Patent Document 1, it is possible to transmit the motion of a remote person or object using video images. However, with the conventional video chat technology, it is impossible to view or touch the movement of a person or an object in the image in three dimensions. If a stereoscopic technique such as a 3D display is used, a remote object can be viewed three-dimensionally to some extent, but it cannot be touched yet. If the movements of humans and objects in the video are materialized, it is possible to grasp their states more accurately and to expect smooth communication.

この発明の目的は、ビデオチャットによるコミュニケーションにおいて、映像中の人物や物体を実体化することでコミュニケーションを円滑にすることである。   An object of the present invention is to facilitate communication in a video chat communication by materializing a person or object in a video.

上記の課題を解決するために、この発明の映像実体化システムは、送信装置と受信装置を含む。送信装置は、少なくとも一つの被写体及び被写体と連続して視認可能な少なくとも一つの実体化対象を含む映像を撮影する映像取得部と、少なくとも映像における実体化対象と被写体との接点の位置の変化を含む動作情報を取得する実体情報取得部と、を含む。受信装置は、実体化対象を実体化したオブジェクトと、映像から実体化対象を消去して画面に再生する映像再生部と、動作情報に基づいて、オブジェクトと映像中の被写体とが連続して視認可能となるようにオブジェクトの位置を制御する実体再現部と、を含む。   In order to solve the above problems, a video materialization system of the present invention includes a transmission device and a reception device. The transmission device includes a video acquisition unit that captures an image including at least one subject and at least one materialization target that is continuously visible to the subject, and at least a change in a position of a contact point between the materialization target and the subject in the video. And an entity information acquisition unit for acquiring the operation information. The receiving device continuously recognizes the object and the subject in the video based on the operation information, the object in which the materialization target is materialized, the video playback unit that erases the materialization target from the video and reproduces it on the screen. An entity reproduction unit that controls the position of the object so as to be possible.

この発明の映像実体化技術によれば、映像上の人物や物体の一部を実体化することができるため、遠隔地の人間や物体の動きを把握することが容易になる。したがって、コミュニケーションを円滑にすることができる。   According to the video materialization technology of the present invention, it is possible to materialize a part of a person or an object on the video, so that it is easy to grasp the movement of a remote person or object. Therefore, communication can be facilitated.

図1は、映像実体化システムの機能構成を例示する図である。FIG. 1 is a diagram illustrating a functional configuration of a video materialization system. 図2は、映像実体化方法の処理フローを例示する図である。FIG. 2 is a diagram illustrating a processing flow of the video materialization method. 図3は、実体再現部の具体的な構成例を説明するための図である。FIG. 3 is a diagram for explaining a specific configuration example of the entity reproduction unit. 図4は、実体再現部の具体的な構成例を説明するための図である。FIG. 4 is a diagram for explaining a specific configuration example of the entity reproduction unit. 図5は、実体再現部の具体的な構成例を説明するための図である。FIG. 5 is a diagram for explaining a specific configuration example of the entity reproduction unit.

この発明の映像実体化技術は、ロボット技術、モーショントラッキング技術、映像合成技術を用いて、映像上の人間や物体の一部を物理的な実体に置き換えて画面から飛び出させ、映像に合わせて画面上を動くことを可能にするものである。   The video materialization technology of the present invention uses robot technology, motion tracking technology, and video composition technology to replace a part of a person or object on the video with a physical entity and jump out of the screen. It makes it possible to move on top.

この発明の実施形態に係る映像実体化システムは、ロボットアーム、位置決め機構、モーショントラッキング装置及びソフト、映像合成ソフト、ビデオ会議端末によって構成される。映像実体化システムは、映像内の人間や物体の一部をロボット等で実体化して映像から飛び出させ、モーショントラッキング技術及び映像合成技術によって、映像内の人間や物体の動きに合わせて実体化したオブジェクトを動作させる。   The video materialization system according to the embodiment of the present invention includes a robot arm, a positioning mechanism, a motion tracking device and software, video composition software, and a video conference terminal. In the video materialization system, a part of a person or object in a video is instantiated by a robot or the like and popped out from the video, and is instantiated according to the movement of a human or object in the video by motion tracking technology and video composition technology. Move the object.

以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail. In addition, the same number is attached | subjected to the component which has the same function in drawing, and duplication description is abbreviate | omitted.

図1を参照して、実施形態に係る映像実体化システムの構成例を説明する。映像実体化システムは送信装置1及び受信装置2を含む。送信装置1及び受信装置2は通信網9に接続される。通信網9は、送信装置1と受信装置2とが相互に通信可能なように構成されていればよく、例えば、アナログもしくはデジタルの公衆電話網もしくは構内電話網などの回線交換方式の通信網、又はインターネットやLAN(Local Area Network)、WAN(Wide Area Network)などのパケット交換方式の通信網で構成することができる。   A configuration example of a video materialization system according to an embodiment will be described with reference to FIG. The video materialization system includes a transmission device 1 and a reception device 2. The transmission device 1 and the reception device 2 are connected to the communication network 9. The communication network 9 only needs to be configured so that the transmission device 1 and the reception device 2 can communicate with each other. For example, a circuit-switching communication network such as an analog or digital public telephone network or a private telephone network, Alternatively, it can be configured by a packet switching communication network such as the Internet, a LAN (Local Area Network), and a WAN (Wide Area Network).

送信装置1は、映像取得部10、実体情報取得部12、カメラ14及びセンサ16を含む。送信装置1は、例えば、中央演算処理装置(Central Processing Unit、CPU)、主記憶装置(Random Access Memory、RAM)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。送信装置1は、例えば、中央演算処理装置の制御のもとで各処理を実行する。送信装置1に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて読み出されて他の処理に利用される。   The transmission device 1 includes a video acquisition unit 10, an entity information acquisition unit 12, a camera 14, and a sensor 16. The transmission device 1 is a special configuration in which a special program is read into a known or dedicated computer having a central processing unit (CPU), a main storage device (Random Access Memory, RAM), and the like. Device. For example, the transmission device 1 executes each process under the control of the central processing unit. The data input to the transmission device 1 and the data obtained in each process are stored in, for example, a main storage device, and the data stored in the main storage device is read out as needed and used for other processing. The

カメラ14は、例えば、被写体とする人間や物体の映像を撮影するビデオカメラである。例えば、撮影可能な解像度や映像の記録媒体、マイクロフォンの有無、デジタルアナログの別など、カメラ14の備えるべき機能には制限はなく、一般的に動画が撮影可能なビデオカメラであれば任意のものを利用することができる。   The camera 14 is, for example, a video camera that captures images of a person or an object as a subject. For example, there are no restrictions on the functions that the camera 14 should have, such as the resolution that can be taken, the recording medium of the video, the presence / absence of a microphone, and whether it is a digital analog or the like. Can be used.

センサ16は、例えば、対象物の三次元座標を逐次的に収集するモーションキャプチャセンサである。センサ16により映像の被写体の三次元座標を収集することで、被写体の位置とその位置の変化を取得することができる。センサ16として利用できるモーションキャプチャセンサは、例えば、「日本マイクロソフト株式会社、“Xbox 360 - Kinect”、[online]、[平成26年1月27日検索]、インターネット<URL:http://www.xbox.com/ja-JP/kinect>(参考文献1)」に記載されている。   The sensor 16 is, for example, a motion capture sensor that sequentially collects three-dimensional coordinates of an object. By collecting the three-dimensional coordinates of the subject of the image by the sensor 16, the position of the subject and the change in the position can be acquired. Motion capture sensors that can be used as the sensor 16 are, for example, “Japan Microsoft Corporation,“ Xbox 360-Kinect ”, [online], [Search January 27, 2014], Internet <URL: http: // www. xbox.com/ja-JP/kinect> (Reference 1) ”.

カメラ14及びセンサ16は、図1に示すように、送信装置1に接続される外部の周辺機器であってもよいし、送信装置1の筺体内に内蔵されていてもよい。また、カメラ14とセンサ16は、図1に示すように、別個の機器として構成してもよいし、カメラ14とセンサ16を一つの筺体内に組み込んだ一つの機器として構成してもよい。   As shown in FIG. 1, the camera 14 and the sensor 16 may be external peripheral devices connected to the transmission device 1 or may be incorporated in the housing of the transmission device 1. Further, as shown in FIG. 1, the camera 14 and the sensor 16 may be configured as separate devices, or may be configured as one device in which the camera 14 and the sensor 16 are incorporated in one casing.

受信装置2は、映像再生部20、実体再現部22、ディスプレイ24及びオブジェクト26を含む。受信装置2は、例えば、中央演算処理装置(Central Processing Unit、CPU)、主記憶装置(Random Access Memory、RAM)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。受信装置2は、例えば、中央演算処理装置の制御のもとで各処理を実行する。受信装置2に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて読み出されて他の処理に利用される。   The receiving device 2 includes a video reproduction unit 20, an entity reproduction unit 22, a display 24 and an object 26. The receiving device 2 is a special device configured by reading a special program into a known or dedicated computer having a central processing unit (CPU), a main storage device (Random Access Memory, RAM), and the like. Device. For example, the receiving device 2 executes each process under the control of the central processing unit. The data input to the receiving device 2 and the data obtained in each process are stored in, for example, the main storage device, and the data stored in the main storage device is read out as necessary and used for other processing. The

ディスプレイ24は、例えば、送信装置1のカメラ14で撮影した映像を再生する画面を有する大型液晶ディスプレイである。ディスプレイ24は、図1に示すように、受信装置2に接続される外部の周辺機器であってもよいし、受信装置2の一平面に組み込まれていてもよい。例えば、表示可能な解像度やスピーカーの有無、デジタルアナログの別など、ディスプレイ24の備えるべき機能には制限はなく、カメラ14で撮影された映像が再生可能なディスプレイであれば任意のものを利用することができる。   The display 24 is, for example, a large liquid crystal display having a screen for playing back video captured by the camera 14 of the transmission apparatus 1. As shown in FIG. 1, the display 24 may be an external peripheral device connected to the receiving device 2, or may be incorporated in one plane of the receiving device 2. For example, there are no restrictions on the functions that the display 24 should have, such as displayable resolution, presence / absence of speakers, and whether it is digital / analog, and any display can be used as long as the video captured by the camera 14 can be reproduced. be able to.

オブジェクト26は、映像中の実体化対象を実体化した物体である。オブジェクト26は、ディスプレイ24の画面表面上を移動可能なように構成する。実体化対象は映像に撮影される可能性があれば、どのような物体でもよい。例えば、映像の被写体を一人の人間とし、実体化対象を人間の腕の肘から先の部分として構成するのであれば、オブジェクト26はロボットアームのような人間の腕を模した器具とすればよい。また、例えば、映像の被写体を手に指示棒のような物体を握った人間とし、実体化対象を指示棒として構成するのであれば、オブジェクト26はその指示棒と同一形状の物体とすればよい。   The object 26 is an object that materializes the materialization target in the video. The object 26 is configured to be movable on the screen surface of the display 24. The materialization target may be any object as long as there is a possibility of being captured in a video. For example, if the subject of the image is a single person and the materialization target is configured as the part from the elbow of the human arm, the object 26 may be a device that imitates the human arm, such as a robot arm. . Further, for example, if the subject of the video is a human holding an object such as a pointing stick in his hand and the materialization target is configured as a pointing stick, the object 26 may be an object having the same shape as the pointing stick. .

図2を参照しながら、実施形態に係る映像実体化システムが実行する映像実体化方法の処理フローの一例を、手続きの順に従って説明する。   With reference to FIG. 2, an example of the processing flow of the video materialization method executed by the video materialization system according to the embodiment will be described in the order of procedures.

ステップS10において、送信装置1の映像取得部10は、送信装置1のカメラ14を用いて、少なくとも一つの被写体及びその被写体と連続して視認可能な少なくとも一つの実体化対象を含む映像を撮影する。撮影した映像は、通信網9を介して、受信装置2へ送信される。撮影した映像は送信に際して、転送効率を高めるために適切なデータフォーマットで符号化し圧縮しても構わない。   In step S <b> 10, the video acquisition unit 10 of the transmission device 1 uses the camera 14 of the transmission device 1 to capture a video including at least one subject and at least one materialization target that can be viewed continuously with the subject. . The captured video is transmitted to the receiving device 2 via the communication network 9. The captured video may be encoded and compressed in an appropriate data format in order to increase the transfer efficiency during transmission.

ステップS12において、送信装置1の実体情報取得部12は、送信装置1のセンサ16を用いて、映像における実体化対象と被写体との接点の位置の変化を取得する。取得する情報は、実体化対象と被写体との接点の位置の変化のみならず、被写体及び実体化対象の向きや角度など詳細な動作情報を取得してもよい。取得した情報は、通信網9を介して、受信装置2へ送信される。   In step S <b> 12, the entity information acquisition unit 12 of the transmission device 1 uses the sensor 16 of the transmission device 1 to acquire a change in the position of the contact point between the materialization target and the subject in the video. As the information to be acquired, not only the change in the position of the contact point between the materialization target and the subject but also detailed operation information such as the direction and angle of the subject and the materialization target may be acquired. The acquired information is transmitted to the receiving device 2 via the communication network 9.

ステップS20において、受信装置2の映像再生部10は、送信装置1から受信した映像から実体化対象を消去して受信装置2のディスプレイ24に再生する。映像から実体化対象を消去する方法は、クロマキー合成等の既存の映像合成技術を用いればよい。   In step S <b> 20, the video reproduction unit 10 of the reception device 2 deletes the materialization target from the video received from the transmission device 1 and reproduces it on the display 24 of the reception device 2. As a method for deleting the materialization object from the video, an existing video synthesis technique such as chroma key synthesis may be used.

ステップS22において、受信装置2の実体再現部22は、送信装置1から受信した動作情報に基づいて、オブジェクト26と映像中の被写体とが連続して視認可能となるようにオブジェクト26の位置を制御する。より詳しくは、オブジェクト26における接点の位置と、ディスプレイ24の画面に再生される映像中の被写体における接点の位置とが一致するようにオブジェクト26の位置を制御する。さらに、被写体及び実体化対象の向きや角度などを取得している場合には、被写体と実体化対象の輪郭が一致するように、オブジェクト26の向きや角度を調節する。   In step S <b> 22, the entity reproduction unit 22 of the reception device 2 controls the position of the object 26 based on the motion information received from the transmission device 1 so that the object 26 and the subject in the video can be visually recognized continuously. To do. More specifically, the position of the object 26 is controlled so that the position of the contact point in the object 26 and the position of the contact point in the subject in the video reproduced on the screen of the display 24 match. Further, when the orientation and angle of the subject and the materialization target are acquired, the direction and angle of the object 26 are adjusted so that the contour of the subject and the materialization target match.

図3を参照して、オブジェクト26の位置を制御する方法について、より詳細に説明する。図3は、遠隔地にいる人間の肘から先の部分をロボットアームで実体化した例である。ディスプレイ24から飛び出した実体化部分であるオブジェクト26(図3の例では、ロボットアーム)は、ディスプレイ24を設置したテーブル221の下に設置した位置決め機構222〜226を介して固定する。図3の例では、オブジェクト26はアクリル板等の透明な板222の先端に固定されており、アクリル板222を、水平方向に固定されたレール223に沿って移動する回転軸224と、鉛直方向に固定されたレール225に沿って移動する回転軸226とからなる二軸直動機構によって位置決めを行うことで、ロボットアーム26はディスプレイ24の画面表面上を移動することができる。   The method for controlling the position of the object 26 will be described in more detail with reference to FIG. FIG. 3 shows an example in which a part from the elbow of a human being in a remote place is materialized with a robot arm. An object 26 (a robot arm in the example of FIG. 3) that is a materialized portion that has jumped out of the display 24 is fixed via positioning mechanisms 222 to 226 installed under the table 221 on which the display 24 is installed. In the example of FIG. 3, the object 26 is fixed to the front end of a transparent plate 222 such as an acrylic plate, and the rotation axis 224 that moves the acrylic plate 222 along the rail 223 fixed in the horizontal direction, and the vertical direction The robot arm 26 can move on the screen surface of the display 24 by positioning with a biaxial linear motion mechanism comprising a rotary shaft 226 that moves along a rail 225 fixed to the rail 225.

ディスプレイ24から飛び出した実体化部分であるオブジェクト26は、ディスプレイ24の画面表面上を並行移動するだけではなく、回転機構などにより、視覚的に映像と自然に繋がるように角度を調整してもよい。映像内の人間の肩から肘までの部分とロボットアーム26とが一直線になるように、図4(A)の例では、ロボットアーム26の水平方向の角度を調整し、図4(B)の例では、ロボットアーム26の鉛直方向の角度を調整している。   The object 26, which is a materialized portion that protrudes from the display 24, may not only move in parallel on the screen surface of the display 24, but may also be adjusted in angle so as to be visually connected to the image visually by a rotation mechanism or the like. . In the example of FIG. 4A, the horizontal angle of the robot arm 26 is adjusted so that the portion from the human shoulder to the elbow in the image and the robot arm 26 are in a straight line. In the example, the vertical angle of the robot arm 26 is adjusted.

オブジェクト26は、実体化対象の移動に応じてサイズを変化させることもできる。図5を参照して、実体化対象を被写体の腕とした場合に、実体化したロボットアームの長さを変化させる例を説明する。ロボットアーム26は、ロボットハンド265と、ロボットハンド265を先端に取り付けた円筒形をした第一の腕部264と、第一の腕部264を挿入可能な円筒形をした第二の腕部263と、第一の腕部264とワイヤで接続された巻き取り機構261及び262とからなる。ロボットアーム26は、図3に示すように、アクリル板222の上方の端に固定されている。ワイヤは目立たないようにアクリル板222の淵に沿わせるようにし、巻き取り機構261及び262はアクリル板222の下方の端に設置する。巻き取り機構261及び262を操作することで、第一の腕部264が第二の腕部263の中をスライドするように構成される。図5(A)はロボットアーム26を伸ばした状態の例である。巻き取り機構261を緩め、巻き取り機構262を巻き上げることで第一の腕部264が第二の腕部263からせり出し、ロボットアーム26の全長を伸ばすことができる。図5(B)はロボットアーム26を縮めた状態の例である。巻き取り機構262を緩め、巻き取り機構261を巻き上げることで第一の腕部264が第二の腕部263の中へ引き込まれ、ロボットアーム26の全長を縮めることができる。例えば、映像中の被写体が腕を前方へ突き出した場合にはロボットアームの全長を伸ばし、腕を後方へ引っ込めた場合にはロボットアームの全長を縮めることで、より実体化対象の再現性を高めることができる。   The size of the object 26 can be changed according to the movement of the materialization target. With reference to FIG. 5, an example of changing the length of the materialized robot arm when the materialized object is the subject's arm will be described. The robot arm 26 includes a robot hand 265, a cylindrical first arm portion 264 with the robot hand 265 attached to the tip thereof, and a cylindrical second arm portion 263 into which the first arm portion 264 can be inserted, The first arm portion 264 and a winding mechanism 261 and 262 connected by wires. As shown in FIG. 3, the robot arm 26 is fixed to the upper end of the acrylic plate 222. The wires are made not to stand out along the ridges of the acrylic plate 222, and the winding mechanisms 261 and 262 are installed at the lower end of the acrylic plate 222. By operating the winding mechanisms 261 and 262, the first arm portion 264 is configured to slide in the second arm portion 263. FIG. 5A shows an example in which the robot arm 26 is extended. By loosening the winding mechanism 261 and winding up the winding mechanism 262, the first arm 264 protrudes from the second arm 263, and the entire length of the robot arm 26 can be extended. FIG. 5B shows an example in which the robot arm 26 is contracted. By loosening the winding mechanism 262 and winding up the winding mechanism 261, the first arm 264 is drawn into the second arm 263, and the overall length of the robot arm 26 can be reduced. For example, if the subject in the video protrudes the arm forward, the robot arm's overall length is extended, and if the arm is retracted backward, the robot arm's overall length is shortened to further improve the reproducibility of the materialized object. be able to.

この発明の映像実体化技術によれば、映像内の物体の一部を実体化して飛び出させることで、平面の映像では分かりにくい三次元的な動きが把握しやすくなる。図3及び図4に示した例では、遠隔地の人間の腕を実体化することで、遠隔地の人間が何を指しているのかを把握しやすくなっている。また、この発明の映像実体化技術によれば、遠隔地間の人間が実体化部分を介して互いに接触することも可能になる。例えば、互いに実体化した手(例えば、ロボットハンド)を握ることで握手をすることができる。   According to the video materialization technology of the present invention, a part of an object in a video is materialized and popped out, thereby making it easy to grasp a three-dimensional movement that is difficult to understand in a planar video. In the example shown in FIG. 3 and FIG. 4, it is easy to grasp what a remote person is pointing to by materializing a remote person's arm. In addition, according to the video materialization technology of the present invention, it is possible for persons between remote locations to come into contact with each other via the materialization part. For example, it is possible to perform a handshake by grasping hands (for example, robot hands) that are materialized from each other.

この発明は上述の実施形態に限定されるものではなく、この発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。上記実施形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。   The present invention is not limited to the above-described embodiment, and it goes without saying that modifications can be made as appropriate without departing from the spirit of the present invention. The various processes described in the above embodiment may be executed not only in time series according to the order of description, but also in parallel or individually as required by the processing capability of the apparatus that executes the processes or as necessary.

[プログラム、記録媒体]
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
[Program, recording medium]
When various processing functions in each device described in the above embodiment are realized by a computer, the processing contents of the functions that each device should have are described by a program. Then, by executing this program on a computer, various processing functions in each of the above devices are realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。   The program describing the processing contents can be recorded on a computer-readable recording medium. As the computer-readable recording medium, for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。   A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, the computer reads a program stored in its own recording medium and executes a process according to the read program. As another execution form of the program, the computer may directly read the program from a portable recording medium and execute processing according to the program, and the program is transferred from the server computer to the computer. Each time, the processing according to the received program may be executed sequentially. Also, the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition. It is good. Note that the program in this embodiment includes information that is used for processing by an electronic computer and that conforms to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).

また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。   In this embodiment, the present apparatus is configured by executing a predetermined program on a computer. However, at least a part of these processing contents may be realized by hardware.

1 送信装置
2 受信装置
9 通信網
10 映像取得装置
12 実体情報取得部
14 カメラ
16 センサ
20 映像再生部
22 実体再現部
24 ディスプレイ
26 オブジェクト
DESCRIPTION OF SYMBOLS 1 Transmission apparatus 2 Reception apparatus 9 Communication network 10 Image | video acquisition apparatus 12 Entity information acquisition part 14 Camera 16 Sensor 20 Image | video reproduction | regeneration part 22 Entity reproduction part 24 Display 26 Object

Claims (6)

送信装置及び受信装置を含む映像実体化システムであって、
上記送信装置は、
少なくとも一つの被写体及び上記被写体と連続して視認可能な少なくとも一つの実体化対象を含む映像を撮影する映像取得部と、
少なくとも上記映像における上記実体化対象と上記被写体との接点の位置の変化を含む動作情報を取得する実体情報取得部と、
を含み、
上記受信装置は、
上記実体化対象を実体化したオブジェクトと、
上記映像から上記実体化対象を消去して画面に再生する映像再生部と、
上記動作情報に基づいて、上記オブジェクトと上記映像中の被写体とが連続して視認可能となるように上記オブジェクトの位置を制御する実体再現部と、
を含む映像実体化システム。
A video materialization system including a transmission device and a reception device,
The transmitter is
A video acquisition unit that captures a video including at least one subject and at least one materialization object that is continuously visible with the subject;
An entity information acquisition unit that acquires at least operation information including a change in position of a contact point between the object to be materialized and the subject in the video;
Including
The receiving device is
An object that materializes the above materialization target;
A video playback unit for deleting the materialization object from the video and playing it on the screen;
An entity reproduction unit that controls the position of the object so that the object and the subject in the video are continuously visible based on the motion information;
Video materialization system including
請求項1に記載の映像実体化システムであって、
上記実体再現部は、上記オブジェクトにおける接点の位置と、上記画面に再生される上記映像中の被写体における接点の位置とが一致するように上記オブジェクトの位置を制御するものである
映像実体化システム。
The video materialization system according to claim 1,
The video materialization system, wherein the entity reproduction unit controls the position of the object so that the position of the contact point on the object matches the position of the contact point on the subject in the video reproduced on the screen.
請求項1又は2に記載の映像実体化システムであって、
上記実体再現部は、上記映像中の被写体の動作に追随して、上記オブジェクトが上記被写体の一部に見えるように上記オブジェクトの位置を制御するものである
映像実体化システム。
The video materialization system according to claim 1 or 2,
The entity reproducing unit controls the position of the object so that the object can be seen as a part of the subject following the movement of the subject in the image.
請求項1から3のいずれかに記載の映像実体化システムであって、
上記実体再現部は、上記映像中の被写体の動作に応じて、上記オブジェクトの大きさを変化させるものである
映像実体化システム。
The video materialization system according to any one of claims 1 to 3,
The above-mentioned substance reproduction part changes the size of the above-mentioned object according to the operation of the subject in the above-mentioned picture.
請求項1から4のいずれかに記載の映像実体化システムであって、
上記被写体は、一人の人間の少なくとも片方の腕を含む部分であり、
上記実体化対象は、上記片方の腕の肘から先の部分であり、
上記接点は、上記肘であり、
上記実体再現部は、上記片方の腕の肘から先の動きを再現するように上記オブジェクトの位置を制御するものである
映像実体化システム。
The video materialization system according to any one of claims 1 to 4,
The subject is a portion including at least one arm of one person,
The materialization object is a portion of the one arm from the elbow,
The contact is the elbow;
The entity reproduction unit controls the position of the object so as to reproduce the movement from the elbow of the one arm.
請求項1から4のいずれかに記載の映像実体化システムであって、
上記被写体は、手に物体を握る一人の人間の少なくとも上記物体を握る手を含む部分であり、
上記実体化対象は、上記物体であり、
上記接点は、上記物体を握る手であり、
上記実体再現部は、上記物体が上記手に握られて動いているように上記オブジェクトの位置を制御するものである
映像実体化システム。
The video materialization system according to any one of claims 1 to 4,
The subject is a portion including at least the hand that grasps the object of one person who grasps the object in the hand,
The materialization object is the object,
The contact is a hand holding the object,
The above-mentioned substance reproduction part controls the position of the above-mentioned object so that the above-mentioned object may be grasped and moved by the above-mentioned hand.
JP2014029071A 2014-02-19 2014-02-19 Video materialization system Active JP6044047B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014029071A JP6044047B2 (en) 2014-02-19 2014-02-19 Video materialization system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014029071A JP6044047B2 (en) 2014-02-19 2014-02-19 Video materialization system

Publications (2)

Publication Number Publication Date
JP2015154429A true JP2015154429A (en) 2015-08-24
JP6044047B2 JP6044047B2 (en) 2016-12-14

Family

ID=53896226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014029071A Active JP6044047B2 (en) 2014-02-19 2014-02-19 Video materialization system

Country Status (1)

Country Link
JP (1) JP6044047B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023063159A1 (en) * 2021-10-13 2023-04-20 ソニーグループ株式会社 Information processing device and information processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007018111A1 (en) * 2005-08-05 2007-02-15 Pioneer Corporation Image display device
JP2008237586A (en) * 2007-03-27 2008-10-09 Samii Kk Game machine

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007018111A1 (en) * 2005-08-05 2007-02-15 Pioneer Corporation Image display device
JP2008237586A (en) * 2007-03-27 2008-10-09 Samii Kk Game machine

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6016040341; 和田ほか: '遠隔握手の方法がソーシャルプレゼンスに与える影響' 情報処理学会 研究報告 ヒューマンコンピュータインタラクション(HCI)2013-HCI-154,[o , 20130729 *
JPN6016040342; 和田ほか: '遠隔握手用ロボットハンドによる会話相手の存在感の向上' 2012年度人工知能学会全国大会(第26回)論文集 , 20120622, 3L2-R-12-2 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023063159A1 (en) * 2021-10-13 2023-04-20 ソニーグループ株式会社 Information processing device and information processing method

Also Published As

Publication number Publication date
JP6044047B2 (en) 2016-12-14

Similar Documents

Publication Publication Date Title
KR102469263B1 (en) Spherical video editing
CA2997034C (en) Method and apparatus for playing video content from any location and any time
US11297366B2 (en) Methods, systems, and media for object grouping and manipulation in immersive environments
CN103634559B (en) Mobile device and method for the video calling service based on Messenger
CN103631768B (en) Collaboration data editor and processing system
JP5340709B2 (en) Method, system and computer program for rendering real world objects and interactions in a virtual world
CN104081319B (en) Message processing device and information processing method
NL2004670C2 (en) METHOD FOR MULTIMODAL REMOTE CONTROL.
WO2014073345A1 (en) Information processing device, information processing method and computer-readable recording medium
JP2013165366A (en) Image processing device, image processing method, and program
CN109154862B (en) Apparatus, method, and computer-readable medium for processing virtual reality content
US10074216B2 (en) Information processing to display information based on position of the real object in the image
CN108027936A (en) For method, system and the medium of interactive elements to be presented in video content
JP2015225400A (en) Communication system, transfer control device, communication method, and program
JP6044047B2 (en) Video materialization system
US11040278B2 (en) Server device distributing video data and replay data and storage medium used in same
EP3190503B1 (en) An apparatus and associated methods
CN107102754A (en) Terminal control method and device, storage medium
WO2019104533A1 (en) Video playing method and apparatus
US20180160133A1 (en) Realtime recording of gestures and/or voice to modify animations
WO2017134868A1 (en) Information processing device, information processing method and program
JP2024512171A (en) Methods of interaction between display devices and terminal devices, storage media, and electronic devices
JP2016218830A (en) Tactile sensation presentation system, tactile sensation presentation method, and program
WO2024057650A1 (en) Electronic device
JP2024029642A (en) Information processing apparatus, display method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20151124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161028

R150 Certificate of patent or registration of utility model

Ref document number: 6044047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250