JP2013207454A - Receiving device, transmitting device, receiving method, receiving program, and recording medium storing receiving program - Google Patents

Receiving device, transmitting device, receiving method, receiving program, and recording medium storing receiving program Download PDF

Info

Publication number
JP2013207454A
JP2013207454A JP2012072858A JP2012072858A JP2013207454A JP 2013207454 A JP2013207454 A JP 2013207454A JP 2012072858 A JP2012072858 A JP 2012072858A JP 2012072858 A JP2012072858 A JP 2012072858A JP 2013207454 A JP2013207454 A JP 2013207454A
Authority
JP
Japan
Prior art keywords
information
unit
receiving
display
userobject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012072858A
Other languages
Japanese (ja)
Inventor
Gakuji Uesaka
岳治 植坂
Taro Aiura
太郎 相浦
Kengo Asai
健吾 淺井
Takeshi Iwaki
剛 岩城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2012072858A priority Critical patent/JP2013207454A/en
Publication of JP2013207454A publication Critical patent/JP2013207454A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a receiving device which can display image information such as a three-dimensional image operable on the receiving side by superposing it on broadcast video information and a receiving method, a receiving program and a recording medium storing the receiving program therein, as well as provide a transmitting device which can give a broadcast allowing image information to be synthesized by the receiving device without performing spatial recognition processing.SOLUTION: In a receiving device 10, a caption-ARDecoder 15 acquires information on the position and posture of UserObject from a received DRCS (Dynamically Re-definable Character Set), a 3DMapper 18 reads out UserObject from a UserObject storage unit 16 and disposes it on the basis of the acquired information on the position and posture of UserObject, and a VideoDecoder 13 outputs decoded video information after superposing the disposed UserObject on it.

Description

本発明は、放送される映像コンテンツを受信することができる受信装置、送信装置、受信方法、受信プログラムおよび受信プログラムを格納した記録媒体と、映像コンテンツを放送する送信装置に関する。   The present invention relates to a receiving apparatus, a transmitting apparatus, a receiving method, a receiving program and a recording medium storing the receiving program, and a transmitting apparatus that broadcasts the video content.

近年、拡張現実技術(Augmented Reality、以下AR技術とも称する)の一環として、カメラなどで撮影された画像等に3次元画像等の仮想的なデジタル情報を重畳して表示させることが行われている。   In recent years, as part of augmented reality technology (also referred to as AR technology), virtual digital information such as a three-dimensional image is superimposed and displayed on an image taken by a camera or the like. .

例えば、特許文献1には、撮像画像(実空間情報)に対して仮想的なデジタル情報を重畳させる際に、位置情報や姿勢情報だけでなく、重力情報も反映して仮想的なデジタル情報に実空間上の物体と同様の動きを与えることが記載されている。   For example, in Patent Document 1, when virtual digital information is superimposed on a captured image (real space information), not only position information and posture information but also gravity information is reflected in the virtual digital information. It is described that the same movement as an object in real space is given.

特開2011−197777号公報JP 2011-197777 A

ゲーム等においては、特許文献1などに記載されている技術を応用して、ゲーム画面等に3次元画像等を重畳して表示することが行われているが、テレビ放送などの放送される映像コンテンツにおいては、従来は視聴者が単に視聴するのみであり、基本的に一方通行なメディアであった。   In games and the like, a technique described in Patent Document 1 is applied to display a 3D image or the like superimposed on a game screen or the like. Conventionally, content is only viewed by a viewer, and is basically a one-way medium.

近年、例えば、地上デジタル放送などではデータ放送などを利用して視聴者が参加できるようにした番組(映像コンテンツ)も放送されている。これは、基本的に文字情報等を表示させ、視聴者側でそれをリモートコントローラ(リモコン)等で選択操作するものであり映像コンテンツに対する没入感は乏しかった。   In recent years, for example, in terrestrial digital broadcasting and the like, programs (video contents) that allow viewers to participate by using data broadcasting have been broadcast. This is basically displaying character information and the like, and selecting and operating it on the viewer side with a remote controller (remote controller) or the like, and the sense of immersion in the video content was poor.

そこで、画像情報として3次元画像をテレビ画面に表示させたとしても、テレビ等の受信装置のリモコンでは複雑な操作は困難であり、仮にリモコンで3次元画像を操作ができるようにしたとしても、操作方法を覚えるのは煩わしいと感じてしまう可能性がある。   Therefore, even if a three-dimensional image is displayed on the television screen as image information, a complicated operation is difficult with a remote control of a receiving device such as a television. Even if a three-dimensional image can be operated with the remote control, It may feel annoying to learn how to operate.

そこで、本発明は、上記問題に鑑みてなされたものであり、例えば、放送される映像情報に受信側で動作させることが可能な3次元画像などの画像情報を重畳して表示させることができる受信装置、受信方法、受信プログラムおよび受信プログラムを格納した記録媒体と、受信装置で空間認識処理を行わずに画像情報を合成することができる放送を行うことができる送信装置を提供することを課題とする。   Therefore, the present invention has been made in view of the above problems, and for example, image information such as a three-dimensional image that can be operated on the reception side can be displayed superimposed on video information to be broadcast. PROBLEM TO BE SOLVED: To provide a receiving device, a receiving method, a receiving program and a recording medium storing the receiving program, and a transmitting device capable of performing broadcasting capable of synthesizing image information without performing space recognition processing in the receiving device. And

上記課題を解決するために、請求項1に記載の受信装置は、映像情報を含む放送信号を受信する受信部を備えた受信装置において、物体の動きを認識する動き認識部と、前記物体の動きに連動して動作する画像情報を取得する画像情報取得部と、前記画像情報取得部が取得した前記画像情報を、前記動き認識部が認識した動きに連動して動作させ、前記受信部が受信した放送信号に含まれる映像情報に重畳させて、表示部に表示させる表示制御部と、を備えていることを特徴としている。   In order to solve the above-described problem, a receiving apparatus according to claim 1 is a receiving apparatus including a receiving unit that receives a broadcast signal including video information, a motion recognition unit that recognizes the movement of an object, An image information acquisition unit that acquires image information that operates in conjunction with movement, and the image information acquired by the image information acquisition unit operates in conjunction with movement recognized by the motion recognition unit, and the reception unit And a display control unit that is superimposed on video information included in the received broadcast signal and displayed on the display unit.

請求項6に記載の送信装置は、映像情報を含む放送信号を送信する送信部を備えた送信装置において、前記放送信号に前記映像情報とは異なる画像情報を重畳して表示させるための情報である表示情報を取得する表示情報取得部を備え、前記送信部が、前記表示情報取得部が取得した前記表示情報を前記放送信号に含めて送信する、ことを特徴としている。   The transmission device according to claim 6 is information for displaying image information different from the video information in a superimposed manner on the broadcast signal in a transmission device including a transmission unit that transmits a broadcast signal including video information. A display information acquisition unit that acquires certain display information is provided, and the transmission unit includes the display information acquired by the display information acquisition unit and transmits the broadcast information.

請求項7に記載の受信方法は、映像情報を含む放送信号を受信する受信部を備えた受信装置の受信方法において、物体の動きを認識する動き認識工程と、前記物体の動きに連動して動作する画像情報を取得する画像情報取得工程と、前記画像情報取得工程で取得した前記画像情報を、前記受信部が受信した放送信号に含まれる映像情報に重畳させて、表示部に表示させる表示制御工程と、を含むことを特徴としている。   The receiving method according to claim 7 is a receiving method of a receiving device including a receiving unit that receives a broadcast signal including video information, and a motion recognition step for recognizing the motion of the object, and in conjunction with the motion of the object. An image information acquisition step for acquiring operating image information, and a display for displaying the image information acquired in the image information acquisition step on the display unit by superimposing the image information on the broadcast signal received by the reception unit And a control process.

本発明の一実施例にかかる受信装置および送信装置のブロックである。1 is a block diagram of a receiving device and a transmitting device according to an embodiment of the present invention. DRCSのデータフィールドの説明図である。It is explanatory drawing of the data field of DRCS. 図1に示された送信装置の送信動作を示したフローチャートである。3 is a flowchart illustrating a transmission operation of the transmission device illustrated in FIG. 1. 図1に示された受信装置の受信動作を示したフローチャートである。3 is a flowchart illustrating a reception operation of the reception device illustrated in FIG. 1. 図1に示された受信装置の動き検出動作を示したフローチャートである。3 is a flowchart illustrating a motion detection operation of the receiving apparatus illustrated in FIG. 1. 映像情報にUserObjectを重畳することを示した説明図である。It is explanatory drawing which showed superimposing UserObject on video information.

以下、本発明の一実施形態にかかる受信装置を説明する。本発明の一実施形態にかかる受信装置は、動き認識部で人物等の物体の動きを認識し、表示制御部で、画像情報取得部が取得した画像情報を、動き認識部が認識した動きに連動して動作させているので、テレビ放送等による放送される映像コンテンツに対して、人物等(視聴者)の動きに連動した画像情報を重畳して表示することができる。そのため、視聴者は放送されるコンテンツにより没入して楽しむことができる。   Hereinafter, a receiving apparatus according to an embodiment of the present invention will be described. A receiving apparatus according to an embodiment of the present invention recognizes the movement of an object such as a person in a motion recognition unit, and converts the image information acquired by the image information acquisition unit into a movement recognized by the motion recognition unit in a display control unit. Since they are operated in conjunction with each other, it is possible to superimpose and display image information linked to the movement of a person or the like (viewer) on video content broadcast by television broadcasting or the like. Therefore, the viewer can be immersed and enjoyed with the broadcast content.

また、放送信号に含まれている画像情報の表示情報を抽出する表示情報抽出部を更に備え、表示制御部は、表示情報抽出部が抽出した表示情報に基づいて、画像情報を映像情報に重畳させて表示部に表示させてもよい。従来のテレビ放送などの放送される映像コンテンツでは受信装置で重畳する画像情報は当然考慮されていない。そのために画像情報を表示する位置等の情報は受信装置で生成する必要があり、この処理に負荷がかかってしまうことがあった。そこで、放送信号に画像情報の表示情報を含め、表示情報抽出部で抽出することで、受信装置で、画像情報の表示位置等の情報を生成する必要がなく、受信装置の処理を軽減することができる。   Further, the display control unit further includes a display information extraction unit that extracts display information of the image information included in the broadcast signal, and the display control unit superimposes the image information on the video information based on the display information extracted by the display information extraction unit. You may make it display on a display part. Naturally, image information to be superimposed by the receiving device is not taken into consideration in the video content to be broadcast such as conventional television broadcasting. For this reason, it is necessary to generate information such as a position where image information is displayed in the receiving apparatus, and this processing may be burdened. Therefore, by including the display information of the image information in the broadcast signal and extracting it by the display information extraction unit, it is not necessary for the receiving device to generate information such as the display position of the image information, and the processing of the receiving device is reduced. Can do.

また、表示情報が、画像情報を表示情報に表示される際の位置と姿勢を示す情報であってもよい。このようにすることにより、画像情報が3次元の画像情報である場合に、当該画像情報が表示される映像内で配置される位置や姿勢を定めることができ、受信装置内で空間認識処理により位置と姿勢を算出する必要がなくなるので、リアルタイムに映像が変化するテレビ放送などでも負荷がかからずに画像情報を合成することができる。   Further, the display information may be information indicating the position and orientation when the image information is displayed in the display information. In this way, when the image information is three-dimensional image information, the position and orientation in which the image information is displayed can be determined, and space recognition processing can be performed in the receiving device. Since it is not necessary to calculate the position and orientation, it is possible to synthesize image information without applying a load even in a television broadcast in which video changes in real time.

また、表示情報が、映像情報の字幕情報が挿入される領域に含んでいてもよい。このようにすることにより、既存のデータ領域で映像や音声等に影響を及ぼさない領域に表示情報を含めることができ、新たなデータ領域を定義することなく表示情報を含めることができる。   Further, the display information may be included in an area where caption information of video information is inserted. In this way, display information can be included in an area that does not affect video, audio, or the like in an existing data area, and display information can be included without defining a new data area.

また、画像情報が、擬人化形状の画像を示す情報であってもよい。このようにすることにより、アバターなどの擬人化形状の画像情報をユーザ等の動きに連動させてテレビ画面上などで動作させることができ、よりコンテンツを楽しめることができる。   Further, the image information may be information indicating an anthropomorphic shape image. By doing so, anthropomorphic image information such as an avatar can be operated on a television screen or the like in conjunction with the movement of the user or the like, and the content can be enjoyed more.

本実施形態にかかる送信装置は、表示情報取得部で放送信号に映像情報とは異なる画像情報を合成して表示させるための情報である表示情報を取得し、送信部で表示情報取得部が取得した表示情報を放送信号に含めて送信するので、受信側で画像情報を合成して表示させるための情報である表示情報を放送信号に含めて送信するために、受信装置で空間認識処理を行わずに画像情報を合成することができる映像情報を放送することができる。   The transmission apparatus according to the present embodiment acquires display information that is information for combining and displaying image information different from video information on a broadcast signal in a display information acquisition unit, and the display information acquisition unit acquires in a transmission unit Since the received display information is included in the broadcast signal and transmitted, the receiving device performs spatial recognition processing in order to transmit the display information that is information for combining and displaying the image information in the broadcast signal. Therefore, it is possible to broadcast video information that can synthesize image information.

本発明の一実施形態にかかる受信方法は、動き認識工程で物体の動きを認識し、表示制御工程で、画像情報取得工程において取得された画像情報を、動き認識工程で認識した動きに連動して動作させているので、テレビ放送等による放送される映像コンテンツに対して、人物等(視聴者)の動きに連動した画像情報を重畳して表示することができる。そのため、視聴者は放送されるコンテンツにより没入して楽しむことができる。   A receiving method according to an embodiment of the present invention recognizes the motion of an object in a motion recognition process, and links the image information acquired in the image information acquisition process in the display control process with the motion recognized in the motion recognition process. Therefore, it is possible to superimpose and display image information linked to the movement of a person or the like (viewer) on video content broadcast by television broadcasting or the like. Therefore, the viewer can be immersed and enjoyed with the broadcast content.

本発明の一実施形態にかかる受信プログラムは、上述した受信方法をコンピュータに実行させてもよい。このようにすることにより、コンピュータを用いて映像情報に画像情報の表示情報を含まれているので、テレビ放送等による放送される映像コンテンツに対して、人物等(視聴者)の動きに連動した画像情報を重畳して表示することができる。そのため、視聴者は放送されるコンテンツにより没入して楽しむことができる。   A reception program according to an embodiment of the present invention may cause a computer to execute the reception method described above. By doing so, since the display information of the image information is included in the video information using the computer, the video content broadcast by the television broadcast or the like is linked to the movement of the person (viewer) Image information can be superimposed and displayed. Therefore, the viewer can be immersed and enjoyed with the broadcast content.

また、上述した受信プログラムをコンピュータ読み取り可能な記録媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。   Further, the reception program described above may be stored in a computer-readable recording medium. In this way, the program can be distributed as a single unit in addition to being incorporated in the device, and version upgrades can be easily performed.

本発明の一実施例にかかる受信装置10および送信装置20を図1乃至図6を参照して説明する。受信装置10は、図1に示すように、TS受信部11と、分離部12と、VideoDecoder13と、AudioDecoder14と、字幕−ARDecoder15と、UserObject格納部16と、画像解析部17と、3DMapper18と、Video出力部19と、を備えている。   A receiving apparatus 10 and a transmitting apparatus 20 according to an embodiment of the present invention will be described with reference to FIGS. As shown in FIG. 1, the receiving device 10 includes a TS receiving unit 11, a separating unit 12, a VideoDecoder 13, an AudioDecoder 14, a caption-ARDDecoder 15, a UserObject storage unit 16, an image analyzing unit 17, a 3DApper 18, and a Video. And an output unit 19.

TS受信部11は、図示しないアンテナ等で受信した例えば地上デジタル放送の放送波を復調し、放送信号としてのトランスポートストリーム(TS)を取り出して、当該トランスポートストリームを分離部12に出力する。   The TS receiver 11 demodulates, for example, a terrestrial digital broadcast wave received by an antenna (not shown), takes out a transport stream (TS) as a broadcast signal, and outputs the transport stream to the separator 12.

分離部12は、トランスポートストリームを分離するデマルチプレクサを含む。分離部12は、受信したトランスポートストリームのヘッダ部に基づいて、映像PES(Packetized Elementary Stream)、音声PES、字幕PES等に分離する。また、映像PES、音声PESおよび字幕PESには同期再生のための時間情報であるPTS(Presentation Time Stamp)が含まれている。そして、分離された映像PESはVideoDecoder13に出力され、音声PESはAudioDecoder14に出力され、字幕PESは字幕PES−ARDecoder15に出力される。以上のTS受信部11と分離部が、映像情報を含む放送信号を受信する受信部として機能する。   The separation unit 12 includes a demultiplexer that separates the transport stream. The separating unit 12 separates into a video PES (Packetized Elementary Stream), an audio PES, a subtitle PES, and the like based on the header portion of the received transport stream. The video PES, audio PES, and subtitle PES include a PTS (Presentation Time Stamp) that is time information for synchronous reproduction. The separated video PES is output to the VideoDecoder 13, the audio PES is output to the AudioDecoder 14, and the subtitle PES is output to the subtitle PES-ARDDecoder 15. The TS receiver 11 and the separator described above function as a receiver that receives a broadcast signal including video information.

VideoDecoder13は、分離部12が出力した映像PESを解読(デコード)し、映像情報を取り出してVideo出力部19に出力する。   The video decoder 13 decodes (decodes) the video PES output from the separation unit 12, extracts video information, and outputs the video information to the video output unit 19.

AudioDecoder14は、分離部12が出力した音声PESを解読し、音声情報を取り出して図示しないAudio出力部等から外部に出力される。   The AudioDecoder 14 decodes the audio PES output from the separation unit 12, extracts audio information, and outputs the audio information to the outside from an audio output unit or the like (not shown).

字幕−ARDecoder15は、分離部12が出力した字幕PESを解読し字幕情報またはAR情報を取り出して3DMpapper18に出力する。例えば、地上デジタル放送で送られてくる字幕情報には、普通文字(本文)の他に、文字放送およびデータ放送文字符号化の規格に基づく外字をビットマップデータで表すDRCS(Dynamically Re-definable Character Set)が含まれている。DRCSは、文字または記号をビットマップデータで表したものである。   The subtitle-ARD Decoder 15 decodes the subtitle PES output from the separation unit 12, extracts subtitle information or AR information, and outputs the subtitle information or the AR information to the 3DMpaper 18. For example, in subtitle information sent by terrestrial digital broadcasting, DRCS (Dynamically Re-definable Character) that expresses external characters based on character broadcasting and data broadcasting character encoding standards in addition to ordinary characters (text). Set) is included. DRCS represents characters or symbols as bitmap data.

本実施例では字幕情報のうちDRCSのデータフィールドに後述するUserObjectを映像情報に重畳する際の位置と姿勢の情報が挿入されている。字幕PES−ARDecoder15は、この位置と姿勢の情報をAR情報として取り出して3DMapper18に出力する。即ち、このUserObjectを映像情報に重畳する際の位置と姿勢の情報が、特許請求の範囲の表示情報、つまり、画像情報に表示される際の位置と姿勢を示す情報である。そして、表示情報が、放送信号の字幕情報が挿入される領域に含まれている。なお、UserObjectを映像情報に重畳する際の位置と姿勢の情報は、以降、UserObjectの位置と姿勢の情報と記載する。   In the present embodiment, position and orientation information when a UserObject (to be described later) is superimposed on video information is inserted into the DRCS data field of the caption information. The caption PES-ARD Decoder 15 extracts the position and orientation information as AR information and outputs it to the 3D Mapper 18. That is, the position and orientation information when the UserObject is superimposed on the video information is the display information of the claims, that is, the information indicating the position and orientation when displayed in the image information. The display information is included in the area where the caption information of the broadcast signal is inserted. Note that the position and orientation information when the UserObject is superimposed on the video information is hereinafter referred to as the position and orientation information of the UserObject.

UserObject格納部16は、画像情報としてのUserObjectが格納されるメモリ等で構成されている。UserObjectは、本実施例では3次元画像情報とし、具体的には例えばアバターなどの擬人化形状の画像情報が挙げられる。   The UserObject storage unit 16 includes a memory or the like in which UserObject as image information is stored. UserObject is three-dimensional image information in the present embodiment, and specifically, for example, image information of anthropomorphic shape such as an avatar.

画像解析部17は、受信装置10に接続されたカメラ30が撮影したユーザ等の人物の動きを検出し、3DMapper18に出力する。具体的にはカメラ30が撮影した画像から人物を認識し、モーションキャプチャなどによってその動作を検出して3DMapper18に出力する。   The image analysis unit 17 detects the movement of a person such as a user photographed by the camera 30 connected to the receiving apparatus 10 and outputs the detected movement to the 3D Mapper 18. Specifically, a person is recognized from an image taken by the camera 30, the operation is detected by motion capture or the like, and is output to the 3D Mapper 18.

3DMapper18は、字幕−ARDecoder15から出力されたUserObjectの位置と姿勢の情報に基づいて、UserObject格納部16から読み出されたUserObjectをVideoDecoder13が解読した映像情報の画面における所定の位置に所定の姿勢で配置してUserObjectが配置されている映像の情報をVideo出力部19に出力する。また。3DMapper18は、画像解析部17から出力された動き検出情報に基づいて、UserObjectを動作させる。   The 3D Mappeder 18 arranges the UserObject read from the UserObject storage unit 16 in a predetermined position on the screen of the video information decoded by the VideoDecoder 13 based on the position and attitude information of the UserObject output from the subtitle-ARDDecoder 15. Then, the information of the video in which the UserObject is arranged is output to the Video output unit 19. Also. The 3DMapper 18 operates UserObject based on the motion detection information output from the image analysis unit 17.

Video出力部19は、VideoDecoder13から出力された映像情報に3DMapper18から出力されたUserObjectの情報を重畳(合成)し外部の表示装置等に出力する。UserObjectは3DMapper18で映像情報における所定の位置に配置されているので、Video出力部19では、単に重畳(重ね合わせて合成)するだけでよい。   The video output unit 19 superimposes (combines) the information of the UserObject output from the 3D Mapper 18 on the video information output from the VideoDecoder 13 and outputs the information to an external display device or the like. Since the UserObject is arranged at a predetermined position in the video information by the 3D Mapper 18, the Video output unit 19 may simply superimpose (superimpose and combine).

カメラ30は、例えばユーザ等の人物を撮影するための撮像装置であり、画像解析部17で動きを検出するために動画像を撮影することできるカメラで構成されている。なお、カメラ30と受信装置10とは、有線で接続されていてもよいし無線でもよい。   The camera 30 is an imaging device that captures a person such as a user, for example, and includes a camera that can capture a moving image so that the image analysis unit 17 can detect a motion. Note that the camera 30 and the receiving device 10 may be connected by wire or may be wireless.

送信装置20は、VideoEncoder21と、AudioEncoder22と、字幕−AREncoder23と、混合部24と、TS送信部25と、を備えている。   The transmission device 20 includes a VideoEncoder 21, an AudioEncoder 22, a caption-AREncoder 23, a mixing unit 24, and a TS transmission unit 25.

VideoEncoder21は、送信する映像信号が入力され、例えば地上デジタル放送であれば、MPEG−2(Moving Picture Experts Group phase 2)規格で定められた符号化方式で符号化され、映像PESを生成し混合部24に出力する。   The VideoEncoder 21 receives a video signal to be transmitted, and, for example, in the case of terrestrial digital broadcasting, the video encoder 21 is encoded by an encoding method defined in the MPEG-2 (Moving Picture Experts Group phase 2) standard, generates a video PES, and mixes the video signal. 24.

AudioEncoder22は、送信する音声信号が入力され、例えば地上デジタル放送であれば、AAC(Advanced Audio Coding)方式で符号化され、音声PESを生成し混合部24に出力する。   The audio encoder 22 receives an audio signal to be transmitted. For example, in the case of terrestrial digital broadcasting, the audio encoder 22 is encoded by an AAC (Advanced Audio Coding) method, generates an audio PES, and outputs the audio PES to the mixing unit 24.

字幕−AREncoder23は、送信する字幕情報が入力され、普通文字以外の外字等の情報はDRCSのフォーマットに変換して、字幕PESを生成し混合部24に出力する。また、字幕−AREncoder23は、本来の字幕情報をDRCSフォーマットに変換するだけでなく、当該送信装置20から送信される映像に受信装置10側でUserObject等の画像情報を重畳することが容易にできるように、UserObjectの位置と姿勢の情報をDRCSフォーマットに変換する(含める)ことができる。DRCSに字幕を含めるかUserObjectの位置と姿勢の情報を含めるかは、予め外部から切り替え情報等を入力して指定すればよい。即ち、字幕−AREncoder23が、放送信号に映像情報とは異なる画像情報を重畳して表示させるための情報である表示情報を取得する表示情報取得部として機能する。   The subtitle-AREncoder 23 receives subtitle information to be transmitted, converts information such as external characters other than ordinary characters into a DRCS format, generates a subtitle PES, and outputs the subtitle PES to the mixing unit 24. In addition, the caption-AREncoder 23 not only converts the original caption information into the DRCS format, but can easily superimpose image information such as UserObject on the video transmitted from the transmission apparatus 20 on the reception apparatus 10 side. Further, the position and orientation information of UserObject can be converted (included) into the DRCS format. Whether to include subtitles in the DRCS or information on the position and orientation of the UserObject may be specified by inputting switching information from the outside in advance. That is, the subtitle-AREncoder 23 functions as a display information acquisition unit that acquires display information that is information for displaying image information different from video information superimposed on a broadcast signal.

混合部24は、VideoEncoder21から出力された映像PESと、AudioEncoder22から出力された音声PESと、字幕PES−AREncoder23から出力された字幕PESと、を混合するマルチプレクサを含み、トランスポートストリームを生成しTS送信部25に出力する。   The mixing unit 24 includes a multiplexer that mixes the video PES output from the VideoEncoder 21, the audio PES output from the AudioEncoder 22, and the subtitle PES output from the subtitle PES-AREncoder 23, generates a transport stream, and transmits TS To the unit 25.

TS送信部25は、混合部24から出力されたトランスポートストリームを変調して、所定の搬送波により図示しないアンテナ等から送信する。即ち、混合部24とTS送信部25で、表示情報取得部が取得した表示情報を映像情報とともに放送信号に含めて送信する送信部として機能する。   The TS transmission unit 25 modulates the transport stream output from the mixing unit 24 and transmits it from a not-shown antenna or the like using a predetermined carrier wave. That is, the mixing unit 24 and the TS transmission unit 25 function as a transmission unit that transmits display information acquired by the display information acquisition unit together with video information in a broadcast signal.

次に、上述した字幕−AREncoder23で生成され、DRCSDecoder15で解読されるDRCSのデータフォーマットと、本発明において、当該データフォーマットにどのようにUserObjectの位置と姿勢の情報を含めるかについて図2を参照して説明する。   Next, refer to FIG. 2 for the DRCS data format generated by the above-mentioned caption-AREncoder 23 and decoded by the DRCSDecoder 15 and how the position and orientation information of the UserObject is included in the data format in the present invention. I will explain.

図2は、DRCSのデータフォーマットである。DRCSは、NumberOfCodeと、CharacterCodeと、NumberOfFontと、fontIdと、modeと、depthと、widthと、heightと、複数のpatternDataと、から構成されている。   FIG. 2 shows a DRCS data format. The DRCS is composed of a NumberOfCode, a CharacterCode, a NumberOfFont, a fontId, a mode, a depth, a width, a height, and a plurality of patternData.

NumberOfCodeは外字符号数を表している。CharacterCodeは外字の符号を表している。NumberOfFontはフォントの総数を表している。fontIdはフォントの識別を表している。modeは伝送モードを表している。depthはフォントの階調深さを表している。widthはDRCS図形の横方向サイズを表している。heightとはDRCS図形の縦方向サイズを表している。patternDataはDRCS図形パターンのデータを表している。   NumberOfCode represents the number of external characters. CharacterCode represents an external character code. NumberOfFont represents the total number of fonts. fontId represents the identification of the font. “mode” represents a transmission mode. Depth represents the tone depth of the font. The width represents the horizontal size of the DRCS graphic. “height” represents the vertical size of the DRCS figure. patternData represents data of a DRCS graphic pattern.

これらのデータのうち、fontIdをUserObjectの位置と姿勢の情報が含まれているか否かを示すデータとし、patternDataにUserObjectの位置と姿勢の情報を含める。   Among these data, fontId is data indicating whether or not the position and orientation information of the UserObject is included, and the information of the position and orientation of the UserObject is included in the patternData.

fontIdは通常“0”が指定され、“0”以外が指定されても受信側では“0”とみなすようになっているために、このfontIdに“0”以外の値を指定することで、UserObjectの位置と姿勢の情報が含まれているかを示すことが可能となる。つまり、本実施例にかかる受信装置であれば、fontIdに“0”以外の予め決められた値が設定されている場合は、UserObjectの位置と姿勢の情報が設定されていることが認識でき、従来の受信装置では、fontIdに“0”以外の予め決められた値が設定されても強制的に“0”とみなされるため動作に影響は無い。   The fontId is normally designated as “0”, and even if a value other than “0” is designated, the receiving side regards it as “0”. Therefore, by specifying a value other than “0” in this fontId, It is possible to indicate whether information on the position and orientation of the UserObject is included. That is, in the case of the receiving apparatus according to the present embodiment, when a predetermined value other than “0” is set in the fontId, it can be recognized that the position and orientation information of the UserObject is set. In the conventional receiving apparatus, even if a predetermined value other than “0” is set in the fontId, it is regarded as “0” forcibly, so that the operation is not affected.

patternDataには、UserObjectの位置と姿勢の情報を含める。この位置と姿勢の情報とは、UserObjectをテレビ放送の画面上のどの位置にどのような姿勢で配置すればよいかを示すデータであり、例えば、位置としてX,Y,Zの各座標情報、姿勢としてPitch,Roll,Panの各情報をそれぞれ1バイトで指定する。そのため本実施例では6バイト(図2の場合patternData6つ分)で位置と姿勢の情報を表すことができる。   In patternData, information on the position and orientation of UserObject is included. The position and orientation information is data indicating in what position the UserObject should be placed on the screen of the television broadcast, for example, coordinate information of X, Y, and Z as the position, Each information of Pitch, Roll, and Pan is designated by 1 byte as the posture. Therefore, in this embodiment, the position and orientation information can be represented by 6 bytes (for 6 patternData in the case of FIG. 2).

次に、上述した構成の送信装置20における送信動作を図3のフローチャートを、受信装置10における受信動作を図4のフローチャートを、受信装置10におけるカメラ30で撮影された人物の動き検出動作を図5のフローチャートを、それぞれ参照して説明する。なお、送信動作と受信動作においては、DRCSによる字幕情報の生成と、当該字幕情報からUserObjectを配置して映像情報に重畳する動作を中心に説明し、映像情報や音声情報の送受信については周知の地上デジタル放送における送受信と同様であるので説明を省略する。   Next, the transmission operation in the transmission apparatus 20 having the above-described configuration is illustrated in the flowchart of FIG. 3, the reception operation in the reception apparatus 10 is illustrated in FIG. 4, and the motion detection operation of a person photographed by the camera 30 in the reception apparatus 10 is illustrated. 5 will be described with reference to the respective flowcharts. In the transmission operation and the reception operation, description will be made centering on the generation of caption information by DRCS and the operation of arranging UserObject from the caption information and superimposing it on the video information. Transmission / reception of video information and audio information is well known. Since it is the same as transmission / reception in terrestrial digital broadcasting, description thereof is omitted.

まず、図3の送信装置20における送信動作を説明する。ステップS11において、字幕−AREncoder23にUserObjectの位置と姿勢の情報が入力されステップS12に進む。UserObjectの位置と姿勢の情報は、例えば、図示しない放送局のテレビカメラ等が撮影した映像情報を3次元空間認識する装置等で空間認識を行わせ、UserObject等の画像情報を受信側で重畳する際の位置と姿勢の情報を生成し、字幕−AREncoder23に入力すればよい。   First, the transmission operation in the transmission device 20 of FIG. 3 will be described. In step S11, information on the position and orientation of the UserObject is input to the caption-AREncoder 23, and the process proceeds to step S12. As for the position and orientation information of the UserObject, for example, the image information captured by a television camera or the like of a broadcasting station (not shown) is spatially recognized by a three-dimensional space recognition device or the like, and the image information such as the UserObject is superimposed on the receiving side. Information on the position and orientation at the time may be generated and input to the caption-AREncoder 23.

次に、ステップS12において、ステップS11で字幕−AREncoder23に入力された位置と姿勢の情報をDRCSのデータフィールドに含めるように変換してステップS13に進む。本ステップで上述したfontIdに“0”以外の予め定めた値が設定されpatternDataにUserObjectの位置と姿勢のデータが設定される。   Next, in step S12, the position and orientation information input to the subtitle-AREEncoder 23 in step S11 is converted to be included in the DRCS data field, and the process proceeds to step S13. In this step, a predetermined value other than “0” is set in the above-described fontId, and the position and orientation data of the UserObject are set in the patternData.

次に、ステップS13において、字幕−AREncoder23で字幕PESを生成しステップS24に進む。   Next, in step S13, a caption PES is generated by the caption-AREncoder 23, and the process proceeds to step S24.

次に、ステップS14において、混合部24でトランスポートストリーム(TS)を生成し、TS送信部25から送信する。   Next, in step S <b> 14, the mixing unit 24 generates a transport stream (TS) and transmits it from the TS transmission unit 25.

次に、図4の受信装置における受信動作を説明する。ステップS21において、TS受信部11でトランスポートストリームを受信してステップS22に進む。   Next, the receiving operation in the receiving apparatus of FIG. 4 will be described. In step S21, the TS receiving unit 11 receives the transport stream and proceeds to step S22.

次に、ステップS22において、分離部12でトランスポートストリームを映像PES、音声PES、字幕PESに分離してステップS23に進む。   Next, in step S22, the separation unit 12 separates the transport stream into video PES, audio PES, and subtitle PES, and the process proceeds to step S23.

次に、ステップS23において、字幕−ARDecoder15で字幕PESのデコード(解読)を行ってステップS24に進む。即ち、字幕−ARDecoder15が放送信号に含まれている画像情報の表示情報を抽出する表示情報抽出部として機能している。   Next, in step S23, the subtitle PES is decoded (decoded) by the subtitle-ARD Decoder 15 and the process proceeds to step S24. That is, the subtitle-ARD Decoder 15 functions as a display information extraction unit that extracts display information of image information included in the broadcast signal.

次に、ステップS24において、ステップS23でデコードしたDRCSからUserObjectの位置と姿勢の情報が検出されたか否かを判断し、検出された場合(Yesの場合)はステップS25に進み、検出されない場合(Noの場合)はステップS27に進む。UserObjectの位置と姿勢の情報が検出されたか否かは、上述したようにfontIdが“0”以外の予め定めた値か否かで判断すればよい。   Next, in step S24, it is determined whether or not the information on the position and orientation of the UserObject is detected from the DRCS decoded in step S23. If it is detected (in the case of Yes), the process proceeds to step S25. In the case of No), the process proceeds to step S27. Whether or not the position and orientation information of the UserObject is detected may be determined based on whether or not the fontId is a predetermined value other than “0” as described above.

次に、ステップS25において、ステップS24で検出したUserObjectの位置と姿勢の情報に基づいて映像情報における所定の位置に所定の姿勢で配置してステップS26に進む。また、このステップで配置されたUserObject(例えば3次元立体画像として人型のアバター)は、後述する図5のフローチャートによりカメラ30で撮影された人物等の物体の動きに合わせた動作をしている。なお、本実施例では、カメラ30で撮影された人物等の物体の動きに合わせた動作であるが、カメラ30で撮影された人物等と全く同じ動きをしなくとも人物等の動きと連動して何らかの動作をすればよい。   Next, in step S25, based on the information on the position and orientation of the UserObject detected in step S24, it is arranged at a predetermined position in the video information with a predetermined posture, and the process proceeds to step S26. Further, the UserObject (for example, a humanoid avatar as a three-dimensional stereoscopic image) arranged in this step operates in accordance with the movement of an object such as a person photographed by the camera 30 according to the flowchart of FIG. 5 described later. . In the present embodiment, the operation is in accordance with the movement of an object such as a person photographed by the camera 30, but it does not move exactly the same as the person photographed by the camera 30 but interlocks with the movement of the person or the like. To do something.

次に、ステップS26において、ステップS25で配置したUserObjectをVideoDecoder13でデコードされた映像情報にVideo出力部19で重畳して表示装置等に出力する。このようにすることで、図6に示したように映像情報に座標系未定状態のアバターが重畳されて表示される。即ち、3DMapper18が字幕−ARDecoder15が抽出した表示情報に基づいて配置し、Video出力部19が動作部が動作させている画像情報を受信部が受信した映像情報に重畳するので、3DMapper18とVideo出力部19が表示制御部として機能する。また、本ステップS26は表示制御工程となる。   Next, in Step S26, the UserObject arranged in Step S25 is superimposed on the video information decoded by the VideoDecoder 13 by the Video output unit 19 and output to a display device or the like. By doing in this way, as shown in FIG. 6, the avatar in a coordinate system undetermined state is superimposed and displayed on video information. That is, since the 3D Mapper 18 is arranged based on the display information extracted by the subtitle-ARD Decoder 15 and the video output unit 19 superimposes the image information operated by the operating unit on the video information received by the receiving unit, the 3D Mapper 18 and the Video output unit 19 functions as a display control unit. Moreover, this step S26 becomes a display control process.

一方、ステップS27においては、UserObjectの位置と姿勢の情報が検出されなかったので通常のDRCSの字幕処理を行う。   On the other hand, in Step S27, since the information of the position and orientation of UserObject is not detected, normal DRCS subtitle processing is performed.

次に、図5の受信装置における動き検出動作を説明する。ステップS31において、カメラ30で撮影された画像(動画像)が画像解析部17に入力されてステップS31に進む。   Next, a motion detection operation in the receiving apparatus in FIG. 5 will be described. In step S31, an image (moving image) captured by the camera 30 is input to the image analysis unit 17, and the process proceeds to step S31.

次に、ステップS32において、画像解析部17が、ステップS31で入力された画像から当該画像に含まれる人物の動きを検出(認識)し、動きや姿勢等を示す情報を3DMapper18に出力してステップS33に進む。即ち、画像解析部17が物体の動きを認識する動き認識部として機能し、本ステップが動き認識工程となる。   Next, in step S32, the image analysis unit 17 detects (recognizes) the movement of the person included in the image from the image input in step S31, and outputs information indicating the movement, posture, and the like to the 3D Mapper 18. Proceed to S33. That is, the image analysis unit 17 functions as a motion recognition unit that recognizes the movement of an object, and this step is a motion recognition process.

次に、ステップS33において、3DMapper18が、UserObject格納部16からUserObjectを読み出し、そして、ステップS32で画像解析部17から入力された動きや姿勢を示す情報に基づいて、その動きを反映するようにUserObjectを動作させる。即ち、3DMapper18が物体の動きに連動して動作する画像情報を取得する画像情報取得部として機能し、本ステップが画像情報取得工程となる。さらに、3DMapper18が画像情報取得部が取得した画像情報を動き認識部が認識した動きに連動して動作させる表示制御部としても機能し、本ステップは表示制御工程にもなる。   Next, in step S33, the 3DMapper 18 reads the UserObject from the UserObject storage unit 16, and based on the information indicating the motion and posture input from the image analysis unit 17 in step S32, UserObject is reflected to reflect the motion. To work. That is, the 3D Mapper 18 functions as an image information acquisition unit that acquires image information that operates in conjunction with the movement of the object, and this step is an image information acquisition step. Further, the 3D Mapper 18 also functions as a display control unit that operates the image information acquired by the image information acquisition unit in conjunction with the movement recognized by the motion recognition unit, and this step is also a display control process.

以上のフローチャートの説明から明らかなように、受信装置10では、受信動作と動き検出動作が同時に行われている。   As is clear from the above description of the flowchart, the receiving apparatus 10 performs the receiving operation and the motion detecting operation at the same time.

以上の説明のようにすることで、例えば歌番組等で、歌手が立つステージ上に視聴者の動きに連動するアバターを表示させて、歌手の振りに合わせて視聴者が動くことで、カメラ30で撮影した視聴者の動きに合わせてアバターも動作することができ、視聴者は、歌手と一緒に歌っているようか感覚を得て、よりコンテンツに没入することができる。   As described above, for example, in a song program, the avatar linked to the movement of the viewer is displayed on the stage where the singer stands, and the viewer moves according to the swing of the singer, so that the camera 30 The avatar can also move in accordance with the movement of the viewer photographed in, and the viewer can feel more like singing with the singer and can be more immersed in the content.

本実施例によれば、受信装置10では、字幕−ARDecoder15で受信したDRCSからUserObjectの位置と姿勢の情報を取得し、3DMapper18でUserObject格納部16からUserObjectを読み出して取得したUserObjectの位置と姿勢の情報に基づいて配置し、VideoDecoder13でデコードされた映像情報に配置されたUserObjectを重畳して出力するので、テレビ放送等による放送される映像コンテンツに対して、UserObjectを人物等(視聴者)の動きに連動して表示できるために、UserObjectを容易に操作することができる。そのため、視聴者は放送されるコンテンツにより没入して楽しむことができる。   According to the present embodiment, the receiving apparatus 10 acquires the position and orientation information of the UserObject from the DRCS received by the subtitle-ARDDecoder 15, reads out the UserObject from the UserObject storage unit 16 using the 3D Manager 18, and acquires the position and orientation of the UserObject acquired. Since the UserObject arranged based on the information and decoded on the video information decoded by the VideoDecoder 13 is superimposed and output, the UserObject is moved with respect to the video content broadcast by the television broadcast or the like. UserObject can be easily operated because it can be displayed in conjunction with. Therefore, the viewer can be immersed and enjoyed with the broadcast content.

また、受信装置10側でUserObjectの配置するための空間認識処理をする必要が無くなり、放送される映像情報にアバターなどのUserObjectを重畳する際に、空間認識処理を行わずに重畳することができるので、リアルタイムに映像が変化するテレビ放送などでも受信装置の処理負荷を軽減できる。また、表示情報に位置と姿勢の情報が含まれているので、UserObjectを適切に表示することができる。   In addition, it is not necessary to perform space recognition processing for placing the UserObject on the receiving apparatus 10 side, and when the UserObject such as an avatar is superimposed on the broadcast video information, it can be superimposed without performing the space recognition processing. Therefore, it is possible to reduce the processing load of the receiving apparatus even in a television broadcast in which video changes in real time. In addition, since the display information includes position and orientation information, UserObject can be appropriately displayed.

また、UserObjectの位置と姿勢の情報がDRCSに挿入されているので、既存のデータ領域で映像や音声等に影響を及ぼさない領域に表示情報を含めることができ、新たなデータ領域を定義することなく表示情報を含めることができる。また、字幕情報の一部であるDRCSに含めることで、字幕PESに含まれているPTSを利用して映像情報と同期させることができ、映像情報に合わせてUserObjectの配置や姿勢を変化させることができる。   Also, since the position and orientation information of UserObject is inserted into DRCS, display information can be included in an area that does not affect video, audio, etc. in the existing data area, and a new data area is defined. Display information can be included. Also, by including it in the DRCS that is part of the caption information, it is possible to synchronize with the video information using the PTS included in the caption PES, and to change the layout and orientation of the UserObject according to the video information. Can do.

また、送信装置20で、映像情報に重畳する際のUserObjectの位置と姿勢の情報を字幕−AREncoder23がDRCSに含め、トランスポートストリームに当該DRCSを含めて送信しているので、UserObjectの位置と姿勢の情報をトランスポートストリームに含めて送信するために、受信装置10で空間認識処理を行わずにUserObjectを重畳することができる放送を行うことができる。   In addition, since the transmission apparatus 20 transmits information on the position and orientation of the UserObject when superimposing it on the video information, the caption-AREncoder 23 includes the DRCS in the transport stream and transmits the DRCS in the transport stream. Therefore, it is possible to perform broadcasting in which the UserObject can be superimposed without performing spatial recognition processing in the receiving apparatus 10.

なお、図2に示したDRCSのデータフォーマットは字幕情報中に複数指定することが可能であるので、複数種類の位置と姿勢の情報を字幕情報中に挿入し、字幕情報のヘッダ等でどれを選択するかを指定するようしてもよい。   It is possible to specify a plurality of DRCS data formats shown in FIG. 2 in the caption information. Therefore, a plurality of types of position and orientation information are inserted into the caption information, and any of the header information of the caption information is selected. It may be specified whether to select.

また、上述した実施例では、UserObjectとして人型のアバターとしていたが、それに限らず、動物等他の形態としてもよい。つまり、UserObjectは、カメラ30で撮影した人物等の物体の動きに連動して動作できる画像であればよい。   In the above-described embodiment, the human object is a human avatar as the UserObject. However, the present invention is not limited thereto, and other forms such as an animal may be used. That is, UserObject may be an image that can operate in conjunction with the movement of an object such as a person photographed by the camera 30.

また、上述した実施例では、UserObjectはUserObject格納部16に格納されていたが、外部記憶装置や外部ネットワーク等を介して取得するようにしてもよい。   In the above-described embodiment, the UserObject is stored in the UserObject storage unit 16, but may be acquired via an external storage device, an external network, or the like.

また、上述した実施例では、主に地上デジタル放送で説明したが、それに限らず、例えば衛星放送など映像情報を含む放送であればよい。また、UserObjectの位置と姿勢の情報もDRCSに含めるに限らず他の領域に含めてもよい。例えば、字幕情報では、表示する字幕のフォントと表示位置の指定が可能であり、この表示位置を用いて、UserOjectの位置の情報を指定し、姿勢の情報はフォントのコード指定の部分に挿入する。そして、大きさの情報を例えば字幕文字の2文字目を大きさとすることで、UserObjectの位置と姿勢の情報と同等の表示情報を字幕情報に挿入することが可能となる。   In the above-described embodiments, the description has been mainly made on the terrestrial digital broadcast. However, the present invention is not limited thereto, and any broadcast including video information such as a satellite broadcast may be used. Further, the position and orientation information of the UserObject is not limited to be included in the DRCS, but may be included in other areas. For example, in the subtitle information, it is possible to specify the font and display position of the subtitle to be displayed. Using this display position, the position information of the UserObject is specified, and the posture information is inserted into the code specification portion of the font. . Then, by setting the size information to the size of the second character of the subtitle character, for example, it becomes possible to insert display information equivalent to the position and orientation information of the UserObject into the subtitle information.

また、上述した図4のフローチャートをコンピュータで動作するプログラムとして構成することで、本発明を受信プログラムとして構成することができる。即ち、字幕−ARDecoder15、画像解析部17、3DMapper18、Video出力部19をコンピュータに機能させるプログラムとして構成しても良い。   In addition, the present invention can be configured as a reception program by configuring the above-described flowchart of FIG. 4 as a program that runs on a computer. That is, the subtitle-ARD Decoder 15, the image analysis unit 17, 3D Mapper 18, and the Video output unit 19 may be configured as a program that causes a computer to function.

前述した実施例によれば、以下の受信装置10、受信方法、送信装置20が得られる。   According to the embodiment described above, the following receiving device 10, receiving method, and transmitting device 20 are obtained.

(付記1)映像情報を含むトランスポートストリームを受信するTS受信部11、分離部12を備えた受信装置10において、
人物の動きを認識する画像解析部17と、
人物の動きに連動して動作するUserObjectを取得する3DMapper18と、
3DMapper18が取得したUserObjectを、画像解析部17が認識した動きに連動して動作させ、TS受信部11、分離部12が受信したトランスポートストリームに含まれる映像情報に重畳させて、表示部に表示させる3DMapper18、Video出力部19と、
を備えていることを特徴とする受信装置10。
(Supplementary Note 1) In the receiving apparatus 10 including the TS receiving unit 11 and the separating unit 12 that receive a transport stream including video information,
An image analysis unit 17 for recognizing a person's movement;
3D Mapper 18 that acquires UserObject that operates in conjunction with the movement of a person,
The UserObject acquired by the 3D Mapper 18 is operated in conjunction with the movement recognized by the image analysis unit 17 and superimposed on the video information included in the transport stream received by the TS reception unit 11 and the separation unit 12 and displayed on the display unit A 3D Mapper 18 and a Video output unit 19,
A receiving apparatus 10 comprising:

(付記2)映像情報を含むトランスポートストリームを受信するTS受信部11、分離部12を備えた受信装置10の受信方法において、
人物の動きを認識するステップS32と、
人物の動きに連動して動作するUserObjectを取得するステップS33と、
ステップS25で取得したUserObjectをステップS32が認識した動きに連動して動作させ、TS受信部11、分離部12が受信した放送信号に含まれる映像情報に重畳させて、表示部に表示させるステップS26、S33と、
を含むことを特徴とする受信方法。
(Supplementary Note 2) In the reception method of the reception apparatus 10 including the TS reception unit 11 and the separation unit 12 that receive a transport stream including video information,
Step S32 for recognizing the movement of a person;
Step S33 for obtaining a UserObject that operates in conjunction with the movement of a person;
The UserObject acquired in step S25 is operated in conjunction with the movement recognized in step S32, and is superimposed on the video information included in the broadcast signal received by the TS receiver 11 and the separator 12, and is displayed on the display unit. , S33,
A receiving method comprising:

これらの受信装置10、受信方法によれば、テレビ放送等による放送される映像コンテンツに対して、人物等(視聴者)の動きに連動したUserObjectを重畳して表示することができる。そのため、視聴者は放送されるコンテンツにより没入して楽しむことができる。   According to the receiving device 10 and the receiving method, UserObject linked to the movement of a person or the like (viewer) can be superimposed and displayed on video content broadcast by television broadcasting or the like. Therefore, the viewer can be immersed and enjoyed with the broadcast content.

(付記3)映像情報を含むトランスポートストリームを送信する混合部24、TS送信部25を備えた送信装置20において、
トランスポートストリームに該映像信号とは異なるUserObjectを重畳して表示させるための情報であるUserObjectの位置と姿勢の情報を取得する字幕PES−AREncoder23を備え、
混合部24、TS送信部25が、字幕PES−AREncoder23が取得したUserObjectの位置と姿勢の情報をトランスポートストリームに含めて送信する、
ことを特徴とする送信装置20。
(Supplementary Note 3) In the transmission device 20 including the mixing unit 24 and the TS transmission unit 25 that transmit a transport stream including video information,
A subtitle PES-AREncoder 23 that obtains information on the position and orientation of UserObject, which is information for displaying a UserObject different from the video signal on the transport stream,
The mixing unit 24 and the TS transmission unit 25 transmit information including the position and orientation information of the UserObject acquired by the subtitle PES-AREncoder 23 in the transport stream.
A transmitting apparatus 20 characterized by that.

この送信装置20によれば、UserObjectの位置と姿勢の情報をトランスポートストリームに含めて送信するために、受信装置10で空間認識処理を行わずにUserObjectを重畳することができるトランスポートストリームを放送することができる。   According to this transmission apparatus 20, in order to transmit the information of the position and orientation of the UserObject in the transport stream, the transport stream that can superimpose the UserObject without performing the spatial recognition process in the reception apparatus 10 is broadcast. can do.

なお、前述した実施例は本発明の代表的な形態を示したに過ぎず、本発明は、実施例に限定されるものではない。すなわち、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。   In addition, the Example mentioned above only showed the typical form of this invention, and this invention is not limited to an Example. That is, various modifications can be made without departing from the scope of the present invention.

10 受信装置
11 TS受信部(受信部)
12 分離部(受信部)
15 字幕−ARDecoder(表示情報抽出部)
17 画像解析部(動き認識部)
18 3DMapper(画像情報取得部、動作部、表示制御部)
19 Video出力部(表示制御部)
20 送信装置
23 字幕−AREncoder(表示情報取得部)
24 混合部(送信部)
25 TS送信部(送信部)
S23 DRCSデコード(表示情報抽出工程)
S25 UserObject配置(画像情報取得工程)
S26 重畳(表示制御工程)
S32 動き認識(動き認識工程)
S33 動き反映(表示制御工程)
10 Receiving Device 11 TS Receiver (Receiver)
12 Separation unit (reception unit)
15 Subtitle-ARD Decoder (Display Information Extraction Unit)
17 Image analysis unit (motion recognition unit)
18 3D Mapper (image information acquisition unit, operation unit, display control unit)
19 Video output unit (display control unit)
20 Transmitter 23 Subtitle-AREncoder (Display Information Acquisition Unit)
24 Mixer (transmitter)
25 TS transmitter (transmitter)
S23 DRCS decoding (display information extraction process)
S25 UserObject arrangement (image information acquisition process)
S26 Superimposition (display control process)
S32 Motion recognition (motion recognition process)
S33 Motion reflection (display control process)

Claims (9)

映像情報を含む放送信号を受信する受信部を備えた受信装置において、
物体の動きを認識する動き認識部と、
前記物体の動きに連動して動作する画像情報を取得する画像情報取得部と、
前記画像情報取得部が取得した前記画像情報を、前記動き認識部が認識した動きに連動して動作させ、前記受信部が受信した放送信号に含まれる映像情報に重畳させて、表示部に表示させる表示制御部と、
を備えていることを特徴とする受信装置。
In a receiving device including a receiving unit that receives a broadcast signal including video information,
A motion recognition unit for recognizing the movement of an object;
An image information acquisition unit that acquires image information that operates in conjunction with the movement of the object;
The image information acquired by the image information acquisition unit is operated in conjunction with the motion recognized by the motion recognition unit, and is superimposed on the video information included in the broadcast signal received by the reception unit and displayed on the display unit A display control unit
A receiving apparatus comprising:
前記放送信号に含まれている前記画像情報の表示情報を抽出する表示情報抽出部を更に備え、
前記表示制御部は、前記表示情報抽出部が抽出した前記表示情報に基づいて、前記画像情報を前記映像情報に重畳させて前記表示部に表示させる、
ことを特徴とする請求項1に記載の受信装置。
A display information extraction unit that extracts display information of the image information included in the broadcast signal;
The display control unit causes the display unit to display the image information superimposed on the video information based on the display information extracted by the display information extraction unit.
The receiving apparatus according to claim 1.
前記表示情報が、前記画像情報に表示される際の位置と姿勢を示す情報であることを特徴とする請求項2に記載の受信装置。   The receiving apparatus according to claim 2, wherein the display information is information indicating a position and a posture when displayed in the image information. 前記表示情報が、前記放送信号の字幕情報が挿入される領域に含まれていることを特徴とする請求項2または3に記載の受信装置。   The receiving apparatus according to claim 2 or 3, wherein the display information is included in an area in which caption information of the broadcast signal is inserted. 前記画像情報が、擬人化形状の画像を示す情報であることを特徴とする請求項1乃至4のうちいずれか一項に記載の受信装置。   The receiving apparatus according to claim 1, wherein the image information is information indicating an anthropomorphic shape image. 映像情報を含む放送信号を送信する送信部を備えた送信装置において、
前記放送信号に前記映像情報とは異なる画像情報を重畳して表示させるための情報である表示情報を取得する表示情報取得部を備え、
前記送信部が、前記表示情報取得部が取得した前記表示情報を前記放送信号に含めて送信する、
ことを特徴とする送信装置。
In a transmission device including a transmission unit that transmits a broadcast signal including video information,
A display information acquisition unit that acquires display information that is information for displaying the image information different from the video information superimposed on the broadcast signal;
The transmission unit includes the display information acquired by the display information acquisition unit and transmits it in the broadcast signal.
A transmission apparatus characterized by the above.
映像情報を含む放送信号を受信する受信部を備えた受信装置の受信方法において、
物体の動きを認識する動き認識工程と、
前記物体の動きに連動して動作する画像情報を取得する画像情報取得工程と、
前記画像情報取得工程で取得した前記画像情報を、前記動き認識工程において認識した動きに連動して動作させ、前記受信部が受信した放送信号に含まれる映像情報に重畳させて、表示部に表示させる表示制御工程と、
を含むことを特徴とする受信方法。
In a receiving method of a receiving device including a receiving unit that receives a broadcast signal including video information,
A motion recognition process for recognizing the motion of an object;
An image information acquisition step of acquiring image information that operates in conjunction with the movement of the object;
The image information acquired in the image information acquisition step is operated in conjunction with the motion recognized in the motion recognition step, and is superimposed on the video information included in the broadcast signal received by the reception unit and displayed on the display unit A display control process for
A receiving method comprising:
請求項7に記載の受信方法を、コンピュータにより実行させることを特徴とする受信プログラム。   A receiving program that causes a computer to execute the receiving method according to claim 7. 請求項8に記載の受信プログラムを格納したことを特徴とするコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium storing the receiving program according to claim 8.
JP2012072858A 2012-03-28 2012-03-28 Receiving device, transmitting device, receiving method, receiving program, and recording medium storing receiving program Pending JP2013207454A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012072858A JP2013207454A (en) 2012-03-28 2012-03-28 Receiving device, transmitting device, receiving method, receiving program, and recording medium storing receiving program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012072858A JP2013207454A (en) 2012-03-28 2012-03-28 Receiving device, transmitting device, receiving method, receiving program, and recording medium storing receiving program

Publications (1)

Publication Number Publication Date
JP2013207454A true JP2013207454A (en) 2013-10-07

Family

ID=49526160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012072858A Pending JP2013207454A (en) 2012-03-28 2012-03-28 Receiving device, transmitting device, receiving method, receiving program, and recording medium storing receiving program

Country Status (1)

Country Link
JP (1) JP2013207454A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108600858A (en) * 2018-05-18 2018-09-28 高新兴科技集团股份有限公司 A kind of video broadcasting method of simultaneous display AR information
CN111833139A (en) * 2019-04-19 2020-10-27 苹果公司 Product comparison techniques

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006013978A (en) * 2004-06-28 2006-01-12 Sharp Corp Television broadcast transmitter and receiver, broadcast program participation system, and method
JP2009212857A (en) * 2008-03-04 2009-09-17 Sharp Corp Content reproducing unit, content reproducing method, content reproducing system, program, and recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006013978A (en) * 2004-06-28 2006-01-12 Sharp Corp Television broadcast transmitter and receiver, broadcast program participation system, and method
JP2009212857A (en) * 2008-03-04 2009-09-17 Sharp Corp Content reproducing unit, content reproducing method, content reproducing system, program, and recording medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108600858A (en) * 2018-05-18 2018-09-28 高新兴科技集团股份有限公司 A kind of video broadcasting method of simultaneous display AR information
EP3595323A4 (en) * 2018-05-18 2020-05-13 Gosuncn Technology Group Co., Ltd. Video playing method for synchronously displaying ar information
CN111833139A (en) * 2019-04-19 2020-10-27 苹果公司 Product comparison techniques

Similar Documents

Publication Publication Date Title
EP2462736B1 (en) Recommended depth value for overlaying a graphics object on three-dimensional video
US10958890B2 (en) Method and apparatus for rendering timed text and graphics in virtual reality video
CN102783175B (en) Reduce via television white space from subscriber equipment to receive device transmission information end-to-end time delay
US9699439B2 (en) 3D caption signal transmission method and 3D caption display method
JP4715886B2 (en) Video display device, video display system, and video display method
US20100315493A1 (en) Receiving apparatus, transmitting apparatus, communication system, display control method, program, and data structure
JP4869310B2 (en) Video display apparatus and method
US20110141233A1 (en) Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, and three-dimensional image data reception method
TW201036437A (en) Systems and methods for providing closed captioning in three-dimensional imagery
CN104584562A (en) Transmission device, transmission method, reception device, and reception method
CN103416069A (en) Transmission device, transmission method, receiving device, and receiving method
CN102088631B (en) Live and demand broadcast method of digital television (TV) programs as well as related device and system
JP2010245618A (en) Digital television broadcast receiver, and method of controlling the same
KR101769353B1 (en) Augmented broadcasting stream transmission device and method, and augmented broadcasting service providing device and method
JP6934052B2 (en) Display control device, display control method and program
US9338429B2 (en) Video processing apparatus capable of reproducing video content including a plurality of videos and control method therefor
KR101883178B1 (en) Image display apparatus, and method for operating the same
JP5110978B2 (en) Transmitting apparatus, receiving apparatus, and reproducing apparatus
JP2013207454A (en) Receiving device, transmitting device, receiving method, receiving program, and recording medium storing receiving program
KR101951326B1 (en) Image display apparatus, server and method for operating the same
US20120098944A1 (en) 3-dimensional image display apparatus and image display method thereof
JP2007189354A (en) Digital broadcasting receiver, and digital television broadcasting receiver
JP2015173442A (en) receiver
JP2009260685A (en) Broadcast receiver
JP6046961B2 (en) Video composition device and video composition program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150901

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160105