JP2003319351A - Service providing system, broadcast apparatus and method, receiving apparatus and method, recording medium, and program - Google Patents

Service providing system, broadcast apparatus and method, receiving apparatus and method, recording medium, and program

Info

Publication number
JP2003319351A
JP2003319351A JP2002120206A JP2002120206A JP2003319351A JP 2003319351 A JP2003319351 A JP 2003319351A JP 2002120206 A JP2002120206 A JP 2002120206A JP 2002120206 A JP2002120206 A JP 2002120206A JP 2003319351 A JP2003319351 A JP 2003319351A
Authority
JP
Japan
Prior art keywords
image
display
broadcast
instruction
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002120206A
Other languages
Japanese (ja)
Inventor
Teiji Koga
禎治 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002120206A priority Critical patent/JP2003319351A/en
Publication of JP2003319351A publication Critical patent/JP2003319351A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To display a video image with higher resolution in the case of displaying the video image with magnification. <P>SOLUTION: A broadcast video frame includes an omnidirectional video image 251 and zooming images C1 to C5. For example, areas a and h of the omnidirectional video image 251 correspond to the zooming image C4. An receiving apparatus segments a designated area from the omnidirectional video image 251 and displays the image of the area on a display apparatus of a television receiver (TV). When a user enters an instruction of magnifying the displayed image and the instructed area includes 80 percentages of the area a or h, the receiving apparatus displays the zooming image C4 with higher resolution in place of segmenting the omnidirectional video image 251 and displaying the segmented image. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、サービス提供シス
テム、放送装置および方法、受信装置および方法、記録
媒体、並びにプログラムに関し、特に、映像を拡大表示
する際に、より高解像度の映像を表示させることができ
るようにしたサービス提供システム、放送装置および方
法、受信装置および方法、記録媒体、並びにプログラム
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a service providing system, a broadcasting apparatus and method, a receiving apparatus and method, a recording medium, and a program, and particularly, when displaying an enlarged image, a higher resolution image is displayed. The present invention relates to a service providing system, a broadcasting device and method, a receiving device and method, a recording medium, and a program capable of performing the above.

【0002】[0002]

【従来の技術】ユーザに、360度の風景画像を提供す
る装置として全方位カメラシステムが知られている。全
方位カメラは、例えば、複数台のカメラが放射状に配置
されて構成される。この放射状に配置された複数台のカ
メラにより撮影された映像は、所定の処理により、その
境界同士が整合するように張り合わされる。このように
して張り合わされた映像(以下、この映像のことを、全
方位映像もしくは全方位画像と称する)を、ユーザが視
聴する場合、ユーザは、自らを中心として、360度、
全ての方角の風景の中から、所望する方角の映像を視聴
することができる。このように、全方位カメラシステム
においては、個々のカメラの視野よりもはるかに広い領
域を、1枚の画像として生成することができる。
2. Description of the Related Art An omnidirectional camera system is known as a device for providing a 360-degree landscape image to a user. The omnidirectional camera is configured, for example, by arranging a plurality of cameras radially. The images photographed by the plurality of cameras arranged in a radial pattern are pasted so that their boundaries are matched by a predetermined process. When the user views the image thus pasted (hereinafter, this image is referred to as an omnidirectional image or an omnidirectional image), the user views 360 degrees around himself.
It is possible to view an image in a desired direction from among landscapes in all directions. As described above, in the omnidirectional camera system, a region much wider than the field of view of each camera can be generated as one image.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来、
例えば全方位映像を放送する場合、放送を受信したユー
ザが、全方位映像の一部を拡大(ズームアップ)して視
聴するとき、映像の解像度が低いため、細部まで鮮明に
表示することができないという課題があった。
[Problems to be Solved by the Invention]
For example, in the case of broadcasting an omnidirectional video, when a user who receives the broadcast views a part of the omnidirectional video by enlarging (zooming up), the resolution of the video is low, so that details cannot be clearly displayed. There was a problem.

【0004】全方位カメラを構成する個々のカメラの撮
影解像度を向上させることにより、全方位映像の解像度
を向上させることも可能であるが、その場合、放送する
データ量が大きくなってしまうという課題があった。
It is possible to improve the resolution of the omnidirectional video by improving the shooting resolution of each camera constituting the omnidirectional camera, but in that case, the amount of data to be broadcast becomes large. was there.

【0005】複数のチャンネルを利用して、高解像度の
映像を送り、ユーザが視聴する映像の範囲に応じて、チ
ャンネルを切り替える方法もあるが、この場合、高コス
トになってしまうという課題があった。
There is also a method of transmitting a high-resolution video by using a plurality of channels and switching the channel according to the range of the video viewed by the user, but in this case, there is a problem that the cost becomes high. It was

【0006】本発明は、このような状況に鑑みてなされ
たものであり、映像を拡大表示する際に、より高解像度
の映像を表示させることを目的とする。
The present invention has been made in view of such a situation, and an object thereof is to display a video of higher resolution when the video is enlarged and displayed.

【0007】[0007]

【課題を解決するための手段】本発明のサービス提供シ
ステムは、放送装置は、第1の撮影装置により撮影され
た第1の画像、および第1の撮影装置の撮影範囲の一部分
を拡大して撮影する第2の撮影装置により撮影された第
2の画像を取得する取得手段と、取得手段により取得さ
れた第1の画像に対する第2の画像の位置を示す位置情
報を作成する作成手段と、作成手段により作成された位
置情報を、第1の画像および第2の画像とともに放送す
る放送手段とを備え、受信装置は、放送装置より、放送
を受信する受信手段と、受信手段により受信された放送
に含まれる第1の画像を表示する表示手段と、表示手段
により表示されている第1の画像の一部を拡大表示する
指示の入力を受け付ける受付手段と、受付手段により、
第1の画像の一部を拡大表示する指示の入力が受け付け
られた場合、拡大表示する指示の入力が受け付けられた
範囲に対応する第2の画像が、放送に含まれているか否
かを、位置情報に基づいて判定する判定手段と、判定手
段により、拡大表示する指示の入力が受け付けられた範
囲に対応する第2の画像が、放送に含まれていると判定
された場合、表示手段に第2の画像を表示させる制御手
段とを備えることを特徴とする。
In the service providing system of the present invention, the broadcasting device expands the first image taken by the first photographing device and a part of the photographing range of the first photographing device. An acquisition unit that acquires the second image captured by the second image capturing apparatus that captures an image; a creation unit that creates position information indicating the position of the second image with respect to the first image acquired by the acquisition unit; The position information created by the creating unit is provided with a broadcasting unit that broadcasts the position information together with the first image and the second image, and the receiving device receives the broadcast from the broadcasting device and the receiving unit receives the broadcast. The display means for displaying the first image included in the broadcast, the receiving means for receiving the input of the instruction to enlarge and display a part of the first image displayed by the display means, and the receiving means,
When the input of the instruction to enlarge and display a part of the first image is received, whether or not the second image corresponding to the range in which the input of the instruction to enlarge and display is received is included in the broadcast is displayed. When it is determined that the determination unit that determines based on the position information and the second image corresponding to the range in which the input of the instruction to enlarge and display is accepted are included in the broadcast by the determination unit, the display unit displays the second image. And a control unit for displaying the second image.

【0008】本発明の放送装置は、第1の撮影装置によ
り撮影された第1の画像、および第1の撮影装置の撮影範
囲の一部分を拡大して撮影する第2の撮影装置により撮
影された第2の画像を取得する取得手段と、取得手段に
より取得された第1の画像に対する第2の画像の位置を
示す位置情報を作成する作成手段と、作成手段により作
成された位置情報を、第1の画像および第2の画像とと
もに放送する放送手段とを備えることを特徴とする。
The broadcasting apparatus of the present invention is photographed by the first image photographed by the first photographing apparatus and the second photographing apparatus which magnifies a part of the photographing range of the first photographing apparatus. The acquisition unit that acquires the second image, the creation unit that creates the position information indicating the position of the second image with respect to the first image acquired by the acquisition unit, and the position information created by the creation unit And a broadcasting means for broadcasting together with the first image and the second image.

【0009】前記第1の撮影装置は全方位カメラであ
り、前記第1の画像は全方位映像であるようにすること
ができる。
The first photographing device may be an omnidirectional camera, and the first image may be an omnidirectional image.

【0010】前記放送手段には、前記第1の画像、前記
第2の画像、および前記位置情報とともに、前記第1の
画像が前記全方位映像であることを示す情報を放送する
ようにさせることができる。
[0010] The broadcasting means is caused to broadcast the information indicating that the first image is the omnidirectional video together with the first image, the second image, and the position information. You can

【0011】前記作成手段には、前記第1の画像に対応
する前記第2の画像の位置を指定する操作の入力を受け
付ける受付手段と、受付手段により入力が受け付けられ
た操作に基づいて前記第2の画像の、前記第1の画像に
対応する座標を演算する演算手段とを設けるようにさ
せ、演算手段により演算された座標を含む所定のフォー
マットの前記位置情報を作成するようにさせることがで
きる。
The creating means receives the input of an operation for designating the position of the second image corresponding to the first image, and the first means based on the operation received by the receiving means. A calculation means for calculating the coordinates of the second image corresponding to the first image may be provided, and the position information in a predetermined format including the coordinates calculated by the calculation means may be created. it can.

【0012】前記取得手段には、前記第1の画像の一部
を拡大して撮影する複数の前記第2の撮影装置により撮
影された複数の前記第2の画像を取得するようにさせる
ことができる。
The acquisition means may be configured to acquire a plurality of the second images photographed by a plurality of the second photographing devices that magnify and photograph a part of the first image. it can.

【0013】前記作成手段には、複数の前記第2の画像
の、前記第1の画像に対する位置関係を含む前記位置情
報を作成するようにさせることができる。
The creating means may create the position information including the positional relationship of the plurality of second images with respect to the first image.

【0014】本発明の放送方法は、第1の撮影装置によ
り撮影された第1の画像、および第1の撮影装置の撮影範
囲の一部分を拡大して撮影する第2の撮影装置により撮
影された第2の画像を取得する取得ステップと、取得ス
テップの処理により取得された第1の画像に対する第2
の画像の位置を示す位置情報を作成する作成ステップ
と、作成ステップの処理により作成された位置情報を、
第1の画像および第2の画像とともに放送する放送ステ
ップとを含むことを特徴とする。
In the broadcasting method of the present invention, the first image captured by the first image capturing device and the second image capturing device capturing a part of the image capturing range of the first image capturing device by enlarging the image are captured. An acquisition step of acquiring the second image and a second step of acquiring the first image by the processing of the acquisition step.
The creation step of creating the position information indicating the position of the image of, and the position information created by the processing of the creation step,
A broadcast step of broadcasting with the first image and the second image.

【0015】本発明の第1の記録媒体のプログラムは、
第1の撮影装置により撮影された第1の画像、および第1
の撮影装置の撮影範囲の一部分を拡大して撮影する第2
の撮影装置により撮影された第2の画像を取得する取得
ステップと、取得ステップの処理により取得された第1
の画像に対する第2の画像の位置を示す位置情報を作成
する作成ステップと、作成ステップの処理により作成さ
れた位置情報を、第1の画像および第2の画像とともに
放送する放送ステップとを含むことを特徴とする。
The program of the first recording medium of the present invention is
The first image captured by the first image capturing device, and the first image
Second part of the shooting device to enlarge the shooting range
An acquisition step of acquiring a second image captured by the image capturing apparatus and a first image acquired by the processing of the acquisition step.
Including a creating step for creating position information indicating the position of the second image with respect to the image, and a broadcasting step for broadcasting the position information created by the process of the creating step together with the first image and the second image. Is characterized by.

【0016】本発明の第1のプログラムは、第1の撮影
装置により撮影された第1の画像、および第1の撮影装置
の撮影範囲の一部分を拡大して撮影する第2の撮影装置
により撮影された第2の画像を取得する取得ステップ
と、取得ステップの処理により取得された第1の画像に
対する第2の画像の位置を示す位置情報を作成する作成
ステップと、作成ステップの処理により作成された位置
情報を、第1の画像および第2の画像とともに放送する
放送ステップとをコンピュータに実行させる。
The first program of the present invention is the first image captured by the first image capturing device and the second image capturing device for enlarging and capturing a part of the image capturing range of the first image capturing device. An acquisition step of acquiring the acquired second image, a creation step of creating position information indicating the position of the second image with respect to the first image acquired by the processing of the acquisition step, and a creation step of the creation step. And causing the computer to execute a step of broadcasting the location information together with the first image and the second image.

【0017】本発明の受信装置は、第1の画像、第1の
画像の一部を拡大した画像である第2の画像、および第
1の画像に対する第2の画像の位置を示す位置情報が含
まれる放送を受信する受信手段と、受信手段により受信
された放送に含まれる第1の画像を表示する表示手段
と、表示手段により表示されている第1の画像の一部を
拡大表示する指示の入力を受け付ける第1の受付手段
と、第1の受付手段により、第1の画像の一部を拡大表
示する指示の入力が受け付けられた場合、拡大表示する
指示の入力が受け付けられた範囲に対応する第2の画像
が、放送に含まれているか否かを、位置情報に基づいて
判定する第1の判定手段と、第1の判定手段により、拡
大表示する指示の入力が受け付けられた範囲に対応する
第2の画像が、放送に含まれていると判定された場合、
表示手段に第2の画像を表示させるように制御する制御
手段とを備えることを特徴とする。
The receiving apparatus of the present invention has the first image, the second image which is an enlarged image of a part of the first image, and the position information indicating the position of the second image with respect to the first image. Receiving means for receiving the included broadcast, display means for displaying the first image included in the broadcast received by the receiving means, and instruction for enlarging and displaying a part of the first image displayed by the display means If the input of the instruction to display the portion of the first image is received by the first receiving unit that receives the input of the, the range of the input of the instruction to display the enlarged image is received. A first determination unit that determines whether or not the corresponding second image is included in the broadcast based on the position information, and a range in which the input of the instruction to enlarge the display is accepted by the first determination unit. The second image corresponding to If it is determined that the rare,
And a control unit that controls the display unit to display the second image.

【0018】前記第1の画像は、全方位映像であるよう
にすることができる。
The first image may be an omnidirectional image.

【0019】前記放送は、前記第1の画像は、全方位映
像であることを示す情報を含むようにし、前記全方位映
像であることを示す情報の有無に従って、前記第1の画
像が前記全方位映像であるか否かを判定する第2の判定
手段をさらに設けるようにすることができる。
In the broadcast, the first image includes information indicating that the first image is an omnidirectional image, and the first image is omnidirectional according to the presence or absence of information indicating that the first image is the omnidirectional image. A second determination means for determining whether or not the image is a azimuth image can be further provided.

【0020】前記制御手段には、前記第2の判定手段に
より、前記第1の画像が前記全方位映像であると判定さ
れた場合、前記表示手段に、前記全方位映像の一部を表
示させるようにさせることができる。
The control means causes the display means to display a part of the omnidirectional image when the second determining means determines that the first image is the omnidirectional image. Can be made to.

【0021】前記表示手段に表示させる前記全方位映像
の範囲を移動させる指示の入力を受け付ける第2の受付
手段をさらに設けるようにし、前記制御手段には、前記
第2の受付手段により入力が受け付けられた前記指示に
従って、前記表示手段に表示させる前記全方位映像の範
囲を移動させるようにさせることができる。
A second receiving means for receiving an input of an instruction to move the range of the omnidirectional image displayed on the display means is further provided, and the control means receives the input by the second receiving means. The range of the omnidirectional image displayed on the display unit can be moved according to the instruction.

【0022】前記第1の判定手段には、前記第1の画像
のうち、前記拡大表示する指示の入力が受け付けられた
前記範囲が、前記第2の画像のうちの、予め設定された
所定の割合の範囲を含んでいる場合、前記拡大表示する
指示の入力が受け付けられた範囲に対応する前記第2の
画像が、前記放送に含まれていると判定するようにさせ
ることができる。
In the first determination means, the range of the first image in which the input of the instruction to enlarge and display is accepted is set in the second image by a predetermined preset value. When the range of the ratio is included, it is possible to determine that the second image corresponding to the range in which the input of the instruction for the enlarged display is accepted is included in the broadcast.

【0023】前記受信手段が受信する前記放送は、複数
の前記第2の画像を含むようにすることができる。
The broadcast received by the receiving means may include a plurality of the second images.

【0024】前記第1の判定手段により、前記拡大表示
する指示の入力が受け付けられた前記範囲に対応する前
記第2の画像が、前記放送には含まれていないと判定さ
れた場合、前記制御手段には、前記表示手段に前記第1
の画像のうちの一部を拡大表示させるように制御するよ
うにさせることができる。
If it is determined by the first determination means that the second image corresponding to the range in which the input of the instruction to enlarge the display is accepted is not included in the broadcast, the control is performed. The means includes the display means and the first
It is possible to control so as to display a part of the image of FIG.

【0025】本発明の受信方法は、第1の画像、第1の
画像の一部を拡大した画像である第2の画像、および第
1の画像に対する第2の画像の位置を示す位置情報が含
まれる放送を受信する受信ステップと、受信ステップの
処理により受信された放送に含まれる第1の画像を表示
する表示ステップと、表示ステップの処理により表示さ
れている第1の画像の一部を拡大表示する指示の入力を
受け付ける受付ステップと、受付ステップの処理によ
り、第1の画像の一部を拡大表示する指示の入力が受け
付けられた場合、拡大表示する指示の入力が受け付けら
れた範囲に対応する第2の画像が、放送に含まれている
か否かを、位置情報に基づいて判定する判定ステップ
と、判定ステップの処理により、拡大表示する指示の入
力が受け付けられた範囲に対応する第2の画像が、放送
に含まれていると判定された場合、第2の画像を表示さ
せるように制御する制御ステップとを含むことを特徴と
する。
According to the receiving method of the present invention, the first image, the second image which is an enlarged image of a part of the first image, and the position information indicating the position of the second image with respect to the first image are stored. A reception step of receiving the included broadcast, a display step of displaying the first image included in the broadcast received by the processing of the reception step, and a part of the first image displayed by the processing of the display step. When the input of the instruction to display the enlarged image is received by the receiving step of receiving the input of the instruction to display the enlarged image and the processing of the receiving step, the range of the input of the instruction to display the enlarged image is received. The determination step of determining whether the corresponding second image is included in the broadcast based on the position information, and the processing of the determination step, the range in which the input of the enlarged display instruction is accepted. Second image corresponding to the, if it is determined to be included in the broadcast, characterized in that it comprises a control step of controlling so as to display the second image.

【0026】本発明の第2の記録媒体のプログラムは、
第1の画像、第1の画像の一部を拡大した画像である第
2の画像、および第1の画像に対する第2の画像の位置
を示す位置情報が含まれる放送の受信を制御する受信制
御ステップと、受信制御ステップの処理により受信が制
御された放送に含まれる第1の画像の表示を制御する第
1の表示制御ステップと、第1の表示制御ステップの処
理により表示が制御されている第1の画像の一部を拡大
表示する指示の入力を受け付ける受付ステップと、受付
ステップの処理により、第1の画像の一部を拡大表示す
る指示の入力が受け付けられた場合、拡大表示する指示
の入力が受け付けられた範囲に対応する第2の画像が、
放送に含まれているか否かを、位置情報に基づいて判定
する判定ステップと、判定ステップの処理により、拡大
表示する指示の入力が受け付けられた範囲に対応する第
2の画像が、放送に含まれていると判定された場合、第
2の画像を表示させるように制御する第2の表示制御ス
テップとを含むことを特徴とする。
The program of the second recording medium of the present invention is
Reception control for controlling reception of a broadcast including a first image, a second image that is an enlarged image of a part of the first image, and position information indicating the position of the second image with respect to the first image And a first display control step for controlling the display of the first image included in the broadcast whose reception is controlled by the processing of the reception control step, and the display is controlled by the processing of the first display control step. An accepting step of accepting an input of an instruction to magnify and display a part of the first image, and an instruction to magnify and display an input of an instruction to magnify and display a part of the first image by the processing of the accepting step The second image corresponding to the range where the input of
The determination step of determining whether or not it is included in the broadcast based on the position information, and the second image corresponding to the range in which the input of the instruction to enlarge the display is accepted is included in the broadcast by the processing of the determination step. If it is determined that the second image is displayed, a second display control step of controlling the second image to be displayed is included.

【0027】本発明の第2のプログラムは、第1の画
像、第1の画像の一部を拡大した画像である第2の画
像、および第1の画像に対する第2の画像の位置を示す
位置情報が含まれる放送の受信を制御する受信制御ステ
ップと、受信制御ステップの処理により受信が制御され
た放送に含まれる第1の画像の表示を制御する第1の表
示制御ステップと、第1の表示制御ステップの処理によ
り表示が制御されている第1の画像の一部を拡大表示す
る指示の入力を受け付ける受付ステップと、受付ステッ
プの処理により、第1の画像の一部を拡大表示する指示
の入力が受け付けられた場合、拡大表示する指示の入力
が受け付けられた範囲に対応する第2の画像が、放送に
含まれているか否かを、位置情報に基づいて判定する判
定ステップと、判定ステップの処理により、拡大表示す
る指示の入力が受け付けられた範囲に対応する第2の画
像が、放送に含まれていると判定された場合、第2の画
像を表示させるように制御する第2の表示制御ステップ
とをコンピュータに実行させる。
A second program of the present invention is a position indicating the position of the second image with respect to the first image, the second image which is an enlarged image of a part of the first image, and the position indicating the position of the second image with respect to the first image. A reception control step for controlling reception of a broadcast including information; a first display control step for controlling display of a first image included in the broadcast whose reception is controlled by the processing of the reception control step; An acceptance step of accepting an input of an instruction to magnify and display a part of the first image whose display is controlled by the processing of the display control step, and an instruction to magnify and display a part of the first image by the processing of the acceptance step. And a determination step of determining, based on the position information, whether or not the second image corresponding to the range in which the input of the enlarged display instruction is received is included in the broadcast. Su When it is determined that the second image corresponding to the range in which the input of the instruction to magnify the display is received is included in the broadcast by the processing of the pop-up, the second image is controlled to be displayed. And causing the computer to execute the two display control steps.

【0028】本発明のサービス提供システムにおいて
は、放送装置では、第1の撮影装置により撮影された第1
の画像、および第1の撮影装置の撮影範囲の一部分を拡
大して撮影する第2の撮影装置により撮影された第2の
画像が取得され、取得された第1の画像に対する第2の
画像の位置を示す位置情報が作成される。そして、作成
された位置情報が、第1の画像および第2の画像ととも
に放送される。また、受信装置では、放送装置より、放
送が受信され、まず、受信された放送に含まれる第1の
画像が表示される。そして、表示されている第1の画像
の一部を拡大表示する指示の入力が受け付けられた場
合、拡大表示する指示の入力が受け付けられた範囲に対
応する第2の画像が、放送に含まれているか否かが、位
置情報に基づいて判定され、拡大表示する指示の入力が
受け付けられた範囲に対応する第2の画像が、放送に含
まれていると判定された場合、第2の画像が表示され
る。
In the service providing system of the present invention, in the broadcasting device, the first image captured by the first image capturing device is used.
Of the second image captured by the second image capturing device that captures a part of the image capturing range of the first image capturing device in an enlarged manner, and the second image of the second image with respect to the acquired first image is acquired. Position information indicating the position is created. Then, the created position information is broadcast together with the first image and the second image. Further, in the receiving device, the broadcast is received from the broadcasting device, and first, the first image included in the received broadcast is displayed. When the input of the instruction to enlarge and display a part of the displayed first image is accepted, the second image corresponding to the range in which the input of the instruction to enlarge and receive is accepted is included in the broadcast. If it is determined that the second image corresponding to the range in which the input of the instruction to enlarge and display is accepted is included in the broadcast, the second image is determined. Is displayed.

【0029】本発明の放送装置および方法、記録媒体、
並びにプログラムにおいては、第1の撮影装置により撮
影された第1の画像、および第1の撮影装置の撮影範囲の
一部分を拡大して撮影する第2の撮影装置により撮影さ
れた第2の画像が取得され、取得された第1の画像に対
する第2の画像の位置を示す位置情報が作成される。そ
して、作成された位置情報は、第1の画像および第2の
画像とともに放送される。
Broadcasting apparatus and method of the present invention, recording medium,
In the program, the first image captured by the first image capturing device and the second image captured by the second image capturing device that enlarges and captures a part of the image capturing range of the first image capturing device are recorded. The acquired position information indicating the position of the second image with respect to the acquired first image is created. Then, the created position information is broadcast together with the first image and the second image.

【0030】本発明の受信装置および方法、記録媒体、
並びにプログラムにおいては、第1の画像、第1の画像
の一部を拡大した画像である第2の画像、および第1の
画像に対する第2の画像の位置を示す位置情報が含まれ
る放送が受信され、受信された放送に含まれる第1の画
像が表示される。そして、表示されている第1の画像の
一部を拡大表示する指示の入力が受け付けられた場合、
拡大表示する指示の入力が受け付けられた範囲に対応す
る第2の画像が、放送に含まれているか否かが、位置情
報に基づいて判定され、拡大表示する指示の入力が受け
付けられた範囲に対応する第2の画像が、放送に含まれ
ていると判定された場合、第2の画像を表示させるよう
に制御される。
Receiving apparatus and method of the present invention, recording medium,
In addition, the program receives the broadcast including the first image, the second image that is an enlarged image of a part of the first image, and position information indicating the position of the second image with respect to the first image. Then, the first image included in the received broadcast is displayed. Then, when the input of the instruction to enlarge and display a part of the displayed first image is accepted,
Whether or not the second image corresponding to the range in which the input of the enlarged display is accepted is included in the broadcast is determined based on the position information, and the second image is included in the range in which the input of the enlarged display instruction is accepted. When it is determined that the corresponding second image is included in the broadcast, the second image is controlled to be displayed.

【0031】[0031]

【発明の実施の形態】図1は、本発明を適用したサービ
ス提供システムの構成例を表している。このサービス提
供システムにおいては、放送局11が保有する全方位カ
メラ31および5台のカメラ32−1乃至32−5を使
用して撮影された映像が、放送装置33において所定の
処理(詳細は後述する)を施された後、人工衛星12を介
して、放送される。
1 shows an example of the configuration of a service providing system to which the present invention is applied. In this service providing system, an image captured using the omnidirectional camera 31 and five cameras 32-1 to 32-5 owned by the broadcasting station 11 is subjected to a predetermined process in the broadcasting device 33 (details will be described later). Then, the data is broadcast via the artificial satellite 12.

【0032】受信装置13は、人工衛星12を介した衛
星放送を受信し、受信したデータに基づいて、所定の処
理を施した映像を、テレビジョン受像機14のディスプ
レイに表示させ、ユーザ15に視聴させる。
The receiving device 13 receives the satellite broadcast via the artificial satellite 12, displays an image which has been subjected to a predetermined process based on the received data on the display of the television receiver 14, and causes the user 15 to display the image. Make them watch.

【0033】次に、図2は、全方位カメラ31、および
カメラ32−1乃至32−5(以下、カメラ32−1乃
至32−5の個々を区別する必要がない場合、まとめて
カメラ32と称する。他の機器、または部位を示す符号
についても同様とする)により周囲の風景を撮影する場
合の、各カメラの配置例を示す図である。図2におい
て、全方位カメラ31を中心として、その周囲に、カメ
ラ32−1乃至32−5が、同心円状に配置されてい
る。図2の例においては、カメラ32−1およびカメラ
32−2が近接して配置され、カメラ32−3乃至32
−5が近接して配置されている。なお、カメラ32−1
乃至32−5は、図2に示されたように配置することに
限定されるものではない。全方位カメラ31を中心とし
て、放射状に配置されてさえいれば、カメラ32同士の
間隔は、任意に設定することができる。
Next, FIG. 2 shows an omnidirectional camera 31 and cameras 32-1 to 32-5 (hereinafter, if it is not necessary to distinguish the cameras 32-1 to 32-5 from each other, they are collectively referred to as the camera 32). This is also the case with other devices or reference numerals indicating parts), and is a diagram showing an arrangement example of each camera when a surrounding landscape is photographed. In FIG. 2, with the omnidirectional camera 31 as the center, the cameras 32-1 to 32-5 are concentrically arranged around the omnidirectional camera 31. In the example of FIG. 2, the camera 32-1 and the camera 32-2 are arranged close to each other, and the cameras 32-3 to 32
-5 are placed in close proximity. Note that the camera 32-1
32 to 32-5 are not limited to the arrangement as shown in FIG. The intervals between the cameras 32 can be set arbitrarily as long as they are arranged radially around the omnidirectional camera 31.

【0034】次に、図3は、全方位カメラ31の外観の
構成を示す図である。図3において、全方位カメラ31
の上部に示されるように、8台のカメラ51−1乃至5
1−8が、同一の円周上に略等間隔に配置されている。
カメラ51−1乃至51−8は、映像を取り込むレンズ
が、下方に向けられており、その下方には、各カメラ5
1−1乃至51−8に、それぞれ対応する8枚の平面鏡
が、所定の角度をもって8角錐状に配設された反射部5
2が設置されているカメラ51−1乃至51−8は、反
射部52に反射された風景を撮影する。
Next, FIG. 3 is a diagram showing an external configuration of the omnidirectional camera 31. In FIG. 3, the omnidirectional camera 31
8 cameras 51-1 to 5-5 as shown at the top of the
1-8 are arranged at substantially equal intervals on the same circumference.
The lenses of the cameras 51-1 to 51-8 for capturing images are directed downward, and the cameras 5-1 to 51-8 are located below the cameras 5-1 to 51-8.
1-1 to 51-8, each of which corresponds to eight plane mirrors, is provided with a reflecting portion 5 in which an eight-sided pyramid is arranged at a predetermined angle.
The cameras 51-1 to 51-8, in which No. 2 is installed, photograph the landscape reflected by the reflecting section 52.

【0035】各カメラ51−1乃至51−8が、それぞ
れ対応する平面鏡により反射された周囲の風景を撮影す
ることにより、全方位カメラ31全体として、水平方向
に360度の映像の鏡像を撮影することが可能となる。
Each of the cameras 51-1 to 51-8 captures the surrounding landscape reflected by the corresponding plane mirror, and the omnidirectional camera 31 as a whole captures a mirror image of a 360-degree image in the horizontal direction. It becomes possible.

【0036】全方位カメラ31により撮影された映像が
所定の処理により張り合わされた映像は、例えば、図4
に示されるようにして、ユーザに視聴される。図4にお
いて、全方位映像71は、全方位カメラ31を構成する
カメラ51−1乃至51−8により撮影され、所定の処
理により張り合わされた映像を示している。
An image obtained by combining the images photographed by the omnidirectional camera 31 by a predetermined process is shown in FIG.
Is viewed by the user as shown in FIG. In FIG. 4, an omnidirectional image 71 is an image captured by the cameras 51-1 to 51-8 forming the omnidirectional camera 31 and joined by a predetermined process.

【0037】すなわち、全方位映像を構成する映像71
−1は、カメラ51−1により撮影された映像であり、
映像71−2は、カメラ51−2により撮影された映像
であり、映像71−3は、カメラ51−3により撮影さ
れた映像であり、映像71−4は、カメラ51−4によ
り撮影された映像であり、映像71−5は、カメラ51
−5により撮影された映像であり、映像71−6は、カ
メラ51−6により撮影された映像であり、映像71−
7は、カメラ51−7により撮影された映像であり、映
像71−8は、カメラ51−8により撮影された映像で
ある。
That is, the image 71 forming an omnidirectional image
-1 is an image taken by the camera 51-1 and
The image 71-2 is an image captured by the camera 51-2, the image 71-3 is an image captured by the camera 51-3, and the image 71-4 is captured by the camera 51-4. The image 71-5 is an image.
-5 is an image captured by the camera 51-6, and an image 71-6 is an image captured by the camera 51-6.
Reference numeral 7 is an image captured by the camera 51-7, and image 71-8 is an image captured by the camera 51-8.

【0038】図4に示されるように、各カメラ51−1
乃至51−8により撮影された映像は、整合性が保たれ
るように張り合わされる。ユーザ15は、この全方位映
像71の中から、表示領域72の枠で囲まれた範囲内の
映像を、例えばテレビジョン受像機14のディスプレイ
に表示させて、視聴することが可能となる。
As shown in FIG. 4, each camera 51-1
The images captured by the cameras 51 through 51-8 are stitched together so as to maintain consistency. From this omnidirectional image 71, the user 15 can display an image within the range surrounded by the frame of the display area 72, for example, on the display of the television receiver 14 and watch it.

【0039】また、ユーザ15は、リモートコマンダ2
21(図7参照)に設置されたカーソルを操作すること
により、テレビジョン受像機14に表示させる表示領域
72を、図中の矢印A乃至Dで示される方向に、任意に
移動させることができる。
Further, the user 15 is the remote commander 2
By operating the cursor 21 (see FIG. 7), the display area 72 displayed on the television receiver 14 can be arbitrarily moved in the directions indicated by arrows A to D in the figure. .

【0040】また、ユーザ15は、リモートコマンダ2
21に設置された所定のボタンを操作することにより、
表示領域72を拡大および縮小することができる。例え
ば、図4においては、表示領域の上端と下端は、全方位
映像71の上端および下端より狭い範囲に設定されてい
るが、表示領域の上端および下端を、全方位映像71の
上端および下端と一致させることができる。この場合、
テレビジョン受像機14には、より広い範囲の映像が表
示される。反対に、ユーザ15は、リモートコマンダ2
21に設置された所定のボタンを操作することにより、
図4に示される表示領域72の面積をより小さくするこ
とができる。この場合、テレビジョン受像機14には、
より狭い範囲がズームアップして表示される。
Further, the user 15 is the remote commander 2
By operating the predetermined button installed in 21,
The display area 72 can be enlarged and reduced. For example, in FIG. 4, the upper and lower edges of the display area are set to be narrower than the upper and lower edges of the omnidirectional image 71, but the upper and lower edges of the display area are set as the upper and lower edges of the omnidirectional image 71. Can be matched. in this case,
A wider range of images are displayed on the television receiver 14. On the contrary, the user 15 is the remote commander 2
By operating the predetermined button installed in 21,
The area of the display region 72 shown in FIG. 4 can be made smaller. In this case, the television receiver 14
The narrower area is zoomed up and displayed.

【0041】以上、図4に示されるようにして、ユーザ
15は、全方位映像71の中から、リモートコマンダ2
21により、所望する表示領域72を切り出して、テレ
ビジョン受像機14のディスプレイに表示させることが
できる。
As described above, as shown in FIG. 4, the user 15 selects the remote commander 2 from the omnidirectional image 71.
By 21, the desired display area 72 can be cut out and displayed on the display of the television receiver 14.

【0042】次に、図5は、放送局11内部の詳細な構
成の例を示している。図5に示されるように、全方位カ
メラ31を構成する各カメラ51−1乃至51−8は、
それぞれVTR(Videotape Recorder)102−1乃至10
2−8に接続されている。VTR102−1乃至102−
8は、それぞれ、カメラ51−1乃至51−8により撮
影された映像ストリームを記録する。また、VTR102
−1には、マイクロフォン101も接続されており、VT
R102−1は、マイクロフォン101から入力される
音声も、映像ストリームとともに記録する。
Next, FIG. 5 shows an example of a detailed configuration inside the broadcasting station 11. As shown in FIG. 5, each of the cameras 51-1 to 51-8 forming the omnidirectional camera 31 includes
VTR (Video tape Recorder) 102-1 to 10 respectively
It is connected to 2-8. VTR 102-1 to 102-
8 records the video streams photographed by the cameras 51-1 to 51-8, respectively. Also, VTR102
A microphone 101 is also connected to -1, and VT
The R 102-1 also records the audio input from the microphone 101 together with the video stream.

【0043】また、カメラ32−1乃至32−5には、
それぞれVTR102−9乃至102−13が接続されて
いる。VTR102−9乃至102−13は、それぞれ、
カメラ32−1乃至32−5により撮影された映像スト
リームを記録する。
Further, the cameras 32-1 to 32-5 have
VTRs 102-9 to 102-13 are respectively connected. The VTRs 102-9 to 102-13 are respectively
The video stream captured by the cameras 32-1 to 32-5 is recorded.

【0044】VTR102−1乃至102−13により記
録された映像ストリームは、放送装置33の切換器12
1を介して、コンピュータ122に供給される。その
際、切換器121は、VTR102−1乃至102−13
との接続を、順次切り替えることにより、各VTR102
−1乃至102−13から、コンピュータ122に、映
像ストリームを供給する。
The video stream recorded by the VTRs 102-1 to 102-13 is sent to the switch 12 of the broadcasting device 33.
1 to the computer 122. At that time, the switching device 121 is operated by the VTRs 102-1 to 102-13.
By sequentially switching the connection with, each VTR102
-1 to 102-13 supplies the video stream to the computer 122.

【0045】コンピュータ122は、切換器121を介
してVTR102−1乃至102−13より入力されたビ
デオデータを、ビデオキャプチャして、例えば、Window
s(登録商標)やOS/2の標準画像データ保管用ファイル
フォーマットであるビットマップ(BMP)ファイル形式
の画像データを作成する。そして、コンピュータ122
は、ビットマップファイルに変換した画像データのう
ち、全方位カメラ31により撮影された画像に対応する
データに、回転処理、反転処理などを施した後、後述す
る所定の処理を施して、画像を張り合わせ、全方位画像
データを生成する。
The computer 122 video-captures the video data input from the VTRs 102-1 to 102-13 via the switch 121, and, for example, Window
Creates image data in the bitmap (BMP) file format, which is a standard image data storage file format for s (registered trademark) and OS / 2. Then, the computer 122
Among the image data converted into the bitmap file, the data corresponding to the image captured by the omnidirectional camera 31 is subjected to rotation processing, inversion processing, etc., and then subjected to predetermined processing to be described later to display the image. Laminate and generate omnidirectional image data.

【0046】また、コンピュータ122は、ビットマッ
プファイルに変換した画像データのうち、カメラ32−
1乃至32−5により撮影された画像に対応する画像デ
ータと、全方位画像データとの対応関係を表す座標対応
テーブルを作成し、BML(Broadcast markup Language)
入力装置125に供給する。
Further, the computer 122 uses the camera 32-- among the image data converted into the bit map file.
A coordinate correspondence table that represents the correspondence between the image data corresponding to the images captured by 1 to 32-5 and the omnidirectional image data is created, and BML (Broadcast markup Language) is created.
It is supplied to the input device 125.

【0047】さらに、コンピュータ122は、全方位映
像データ、およびカメラ32−1乃至32−5により撮
影された画像に対応する画像データを、所定の位置に配
置した配信用映像フレームを生成し、MPEG(Moving Pic
ture Experts Group)エンコーダ123に供給する。
Further, the computer 122 generates a distribution video frame in which the omnidirectional video data and the image data corresponding to the images photographed by the cameras 32-1 to 32-5 are arranged at a predetermined position, and the MPEG for MPEG is generated. (Moving Pic
ture Experts Group) to the encoder 123.

【0048】MPEGエンコーダ123は、コンピュータ1
22から供給された配信用映像フレームに、HD(High De
finition)-MPEG方式で符号化処理を施すことにより映像
ストリームを作成し、マルチプレクサ(MUX)126に
供給する。
The MPEG encoder 123 is the computer 1
The HD (High De
finition) -A video stream is created by performing an encoding process in the MPEG system and supplied to the multiplexer (MUX) 126.

【0049】PSI(Program Service Information)入力装
置124は、配信用映像フレームが視点自由形の全方位
映像であることを示すフラグを設定し、マルチプレクサ
126に送信する。既存の衛星放送においては、放送さ
れたデータの種類などを規定するPSIデータがあるの
で、そこに当該放送番組が360度全方位映像である旨
を示すフラグなどを付加することができる。受信装置1
3側では、このフラグを判別することにより、リモート
コマンダ221上のカーソルキーをアクティブにして、
視点自由形の全方位映像の視聴を許可することができ
る。なお、伝送制御信号の中で、ISO/IEC13818-1で規格
化された部分をPSIと称する。PSIデータは、4種類のテ
ーブル(PAT,CAT,PMT,NIT)からなり、セクション形式
で、伝送される。
A PSI (Program Service Information) input device 124 sets a flag indicating that the distribution video frame is a viewpoint free-form omnidirectional video and transmits it to the multiplexer 126. In existing satellite broadcasting, since there is PSI data that defines the type of broadcasted data, a flag or the like indicating that the broadcast program is a 360-degree omnidirectional video can be added thereto. Receiver 1
On the 3rd side, the cursor key on the remote commander 221 is activated by determining this flag,
Viewing of free-viewpoint omnidirectional images can be permitted. A portion of the transmission control signal standardized by ISO / IEC13818-1 is called PSI. PSI data consists of four types of tables (PAT, CAT, PMT, NIT) and is transmitted in section format.

【0050】BML入力装置125は、予め編集されてい
るBML形式で記述されたデータ放送用コンテンツをマル
チプレクサ126に供給する。BMLコンテンツには、全
方位映像の表示領域72の移動ルールや、拡大縮小ルー
ルを記述したスクリプトが含まれる。この拡大縮小ルー
ルには、コンピュータ122から供給された座標対応テ
ーブルが含まれている。すなわち、コンピュータ122
より、座標対応テーブルが提供されると、BML入力装置
125は、座標対応テーブルを含む拡大縮小ルールを記
述したスクリプトを作成し、それを含むBMLコンテンツ
を作成する。作成されたBMLコンテンツは、マルチプレ
クサ126に供給される。
The BML input device 125 supplies to the multiplexer 126 the content for data broadcasting described in the BML format which has been edited in advance. The BML content includes a script describing a movement rule of the omnidirectional video display area 72 and a scaling rule. The scaling rule includes a coordinate correspondence table supplied from the computer 122. That is, the computer 122
Thus, when the coordinate correspondence table is provided, the BML input device 125 creates a script that describes the scaling rule including the coordinate correspondence table, and creates BML content including the script. The created BML content is supplied to the multiplexer 126.

【0051】マルチプレクサ126は、MPEGエンコーダ
123から供給されたHD-MPEG方式で符号化された映像
ストリーム、PSI入力装置124から供給されたPSIデー
タ、および、BML入力装置125から供給されたBMLコン
テンツを多重化して送信部(TX)127に供給する。
The multiplexer 126 receives the video stream encoded by the HD-MPEG system supplied from the MPEG encoder 123, the PSI data supplied from the PSI input device 124, and the BML content supplied from the BML input device 125. The multiplexed data is supplied to the transmission unit (TX) 127.

【0052】送信部127は、マルチプレクサ126よ
り供給された、PSIデータおよびBMLコンテンツが多重化
された映像ストリームを、変調、A/D変換し、ベースバ
ンド信号を衛星波にアップコンバートした後、これを送
出する。送出された映像ストリームは、人工衛星12を
経由して、受信装置13に受信される。
The transmitting section 127 modulates and A / D-converts the video stream in which the PSI data and the BML content are supplied, which is supplied from the multiplexer 126, up-converts the baseband signal into a satellite wave, and Is sent. The sent video stream is received by the receiving device 13 via the artificial satellite 12.

【0053】次に、図6は、コンピュータ122の内部
の構成例を示すブロック図である。図6において、CPU
151は、ROM152に記憶されているプログラム、ま
たは記憶部161からRAM153にロードされたプログ
ラムに従って各種の処理を実行する。RAM153にはま
た、CPU151が各種の処理を実行する上において必要
なデータなども適宜記憶される。
Next, FIG. 6 is a block diagram showing an example of the internal structure of the computer 122. In FIG. 6, the CPU
The 151 executes various processes according to the program stored in the ROM 152 or the program loaded from the storage unit 161 to the RAM 153. The RAM 153 also appropriately stores data necessary for the CPU 151 to execute various processes.

【0054】CPU151、ROM152、およびRAM153
は、バス154を介して相互に接続されている。このバ
ス154にはまた、入出力インターフェース155も接
続されている。
CPU 151, ROM 152, and RAM 153
Are mutually connected via a bus 154. An input / output interface 155 is also connected to the bus 154.

【0055】入出力インターフェース155には、ユー
ザからの操作の入力を受け付ける複数のボタンなどによ
り構成される操作部156、音声を出力する音声出力部
157、CRT(Cathode-Ray Tube)、LCD(Liquid Cryst
al Display)などよりなるディスプレイ158、切換器
121を介して、VTR102−1乃至102−13より
ビデオデータの供給を受け付ける入力部159、MPEGエ
ンコーダ123、およびBML入力装置125などに、所
定のデータを出力する出力部160、ハードディスクな
どより構成される記憶部161、および、モデム、ター
ミナルアダプタなどより構成される通信部162が接続
されている。通信部162は、インターネットを含むネ
ットワークを介しての通信処理を行う。
The input / output interface 155 includes an operation unit 156 composed of a plurality of buttons for receiving an operation input from a user, a voice output unit 157 for outputting a voice, a CRT (Cathode-Ray Tube), an LCD (Liquid). Cryst
via a display 158 such as an al display) and a switching device 121, a predetermined data is input to an input unit 159 that receives supply of video data from the VTRs 102-1 to 102-13, an MPEG encoder 123, a BML input device 125, and the like. An output unit 160 for outputting, a storage unit 161 including a hard disk, and a communication unit 162 including a modem and a terminal adapter are connected. The communication unit 162 performs communication processing via a network including the Internet.

【0056】入出力インターフェース155にはまた、
必要に応じてドライブ163が接続され、磁気ディスク
181、光ディスク182、光磁気ディスク183、或
いは半導体メモリ184などが適宜装着され、それらか
ら読み出されたコンピュータプログラムが、必要に応じ
て記憶部161にインストールされる。
The input / output interface 155 also has
A drive 163 is connected as necessary, a magnetic disk 181, an optical disk 182, a magneto-optical disk 183, a semiconductor memory 184, or the like is appropriately mounted, and a computer program read from them is stored in the storage unit 161 as necessary. Installed.

【0057】次に、図7は、受信装置13の内部の構成
例を示すブロック図である。
Next, FIG. 7 is a block diagram showing an example of the internal structure of the receiving device 13.

【0058】制御部201は、操作部202、または赤
外線受信部203から入力された指令信号、あるいは、
予め記憶されたプログラムに従って、受信装置13の全
体の処理を制御する。制御部201は、例えば、リモー
トコマンダ221より受信された、全方位映像71から
切り出して表示させる表示領域72の移動、および拡大
縮小に関する指令を、BMLエンジン207に通知する。
The control unit 201 receives a command signal input from the operation unit 202 or the infrared receiving unit 203, or
The entire processing of the receiving device 13 is controlled according to a program stored in advance. For example, the control unit 201 notifies the BML engine 207 of a command received from the remote commander 221 that is related to movement of the display area 72 to be cut out from the omnidirectional image 71 and displayed, and enlargement / reduction.

【0059】操作部202は、複数のボタンなどにより
構成され、ユーザ15からの操作の入力を受け付け、対
応する信号を、制御部201に送信する。
The operation unit 202 is composed of a plurality of buttons and the like, receives an operation input from the user 15, and transmits a corresponding signal to the control unit 201.

【0060】赤外線受信部203は、リモートコマンダ
221により発信される赤外線信号を受信し、対応する
信号を、制御部201に送信する。
The infrared receiver 203 receives the infrared signal transmitted by the remote commander 221, and sends a corresponding signal to the controller 201.

【0061】受信部(RX)204は、人工衛星12より
衛星波を受信し、これをベースバンド信号にダウンコン
バートし、A/D変換、および復調処理をする。受信部2
04は、復調したデータを、フレームバッファ205に
供給する。フレームバッファ205は、受信部204か
ら供給されたデータを記憶し、所定の段階で、デマルチ
プレクサ(DEMUX)206に供給する。
The receiver (RX) 204 receives satellite waves from the artificial satellite 12, down-converts the satellite waves into baseband signals, and performs A / D conversion and demodulation processing. Receiver 2
04 supplies the demodulated data to the frame buffer 205. The frame buffer 205 stores the data supplied from the reception unit 204, and supplies the data to the demultiplexer (DEMUX) 206 at a predetermined stage.

【0062】デマルチプレクサ206は、フレームバッ
ファ205から供給されたデータを、MPEG方式の映像ス
トリームとBMLコンテンツに分離し、BMLコンテンツをBM
Lエンジン207に供給し、映像ストリームをMPEGデコ
ーダ208に供給する。
The demultiplexer 206 separates the data supplied from the frame buffer 205 into an MPEG system video stream and BML content, and the BML content is BM.
It is supplied to the L engine 207 and the video stream is supplied to the MPEG decoder 208.

【0063】BMLエンジン207は、デマルチプレクサ
206よりBMLコンテンツの供給を受け、BMLコンテンツ
に対応する処理を実行する。BMLエンジン207は、例
えば、データ放送用のBMLコンテンツを解析して、それ
から得られる表示データをフレームバッファ209中の
全方位映像フレーム上に重畳させる。また、スクリプト
として記述された全方位映像の移動ルールや、拡大縮小
ルールを解析処理する。BMLエンジン207は、例え
ば、制御部201からの通知に基づいて、全方位映像7
1から切り出して表示させる表示領域72の移動、およ
び拡大縮小に関する処理を実行する。また、BMLエンジ
ン207は、後述するズーム処理を実行する。
The BML engine 207 receives the BML content supplied from the demultiplexer 206, and executes the processing corresponding to the BML content. The BML engine 207 analyzes, for example, BML content for data broadcasting, and superimposes display data obtained from the BML content on the omnidirectional video frame in the frame buffer 209. In addition, it analyzes the omnidirectional video movement rules and scaling rules described as scripts. The BML engine 207 uses the omnidirectional image 7 based on the notification from the control unit 201, for example.
The process of moving the display area 72 to be cut out from 1 and displayed, and the scaling is executed. Further, the BML engine 207 executes zoom processing described later.

【0064】MPEGデコーダ208は、デマルチプレクサ
206より供給された映像ストリームをMPEG復号化し
て、もとの全方位映像フレームに再現して、これをフレ
ームバッファ209に供給する。
The MPEG decoder 208 MPEG-decodes the video stream supplied from the demultiplexer 206 to reproduce the original omnidirectional video frame, and supplies this to the frame buffer 209.

【0065】フレームバッファ209は、MPEGデコーダ
208より供給された全方位映像フレームを記憶し、所
定のタイミングで切り出しドライバ210に供給する。
The frame buffer 209 stores the omnidirectional video frame supplied from the MPEG decoder 208 and supplies it to the clipping driver 210 at a predetermined timing.

【0066】切り出しドライバ210は、フレームバッ
ファ209に記憶されている全方位映像フレームから、
BMLエンジン207が表示すべきとして指定した画角を
切り出して、テレビジョン受像機14のディスプレイに
表示させる。
The clipping driver 210 extracts the omnidirectional video frame stored in the frame buffer 209 from the omnidirectional video frame.
The angle of view designated to be displayed by the BML engine 207 is cut out and displayed on the display of the television receiver 14.

【0067】リモートコマンダ221は、ユーザからの
種々の操作の入力を受け付ける複数のボタン、および全
方位映像71中の表示領域72の移動を受け付けるカー
ソルキーを備えている。ボタンの中には、ユーザから
の、表示領域72の拡大縮小の指示を受け付けるボタン
が含まれている。リモートコマンダ221は、ボタンお
よびカーソルキーに入力された操作に対応する赤外線信
号を出力する。
The remote commander 221 is provided with a plurality of buttons for receiving inputs of various operations from the user and a cursor key for receiving movement of the display area 72 in the omnidirectional image 71. The buttons include a button for accepting an instruction for enlarging or reducing the display area 72 from the user. The remote commander 221 outputs an infrared signal corresponding to the operation input to the button and the cursor key.

【0068】次に、図8のフローチャートを参照して、
放送装置33の放送処理について説明する。
Next, referring to the flow chart of FIG.
The broadcast processing of the broadcast device 33 will be described.

【0069】ステップS11において、放送装置33
は、全方位映像素材データ加工処理を実行する。ここ
で、図9のフローチャートを参照して、図8のステップ
S11の処理について詳細に説明する。なお、図9のフ
ローチャートの処理は、コンピュータ122のCPU15
1により実行される。
In step S11, the broadcasting device 33
Executes omnidirectional video material data processing. Here, the process of step S11 of FIG. 8 will be described in detail with reference to the flowchart of FIG. The process of the flowchart of FIG. 9 is performed by the CPU 15 of the computer 122.
It is executed by 1.

【0070】図9のステップS31においてCPU151
は、RAM153にカメラの台数を示す値n=1を記憶さ
せる。ステップS32において、CPU151は、フレー
ム数を示すm=1を記憶させる。ステップS33におい
て、CPU151は、n台目のカメラのmフレーム目の映
像でタについてのキャプチャリングを行う。
In step S31 of FIG. 9, the CPU 151
Stores a value n = 1 indicating the number of cameras in the RAM 153. In step S32, the CPU 151 stores m = 1 indicating the number of frames. In step S33, the CPU 151 performs capturing on the mth frame image of the nth camera.

【0071】ステップS34において、CPU151は、
ステップS33でキャプチャリングされたビットマップ
映像フレームに対して、n台目のカメラが有する歪みパ
ラメータを基に、レンズ歪み補正を行う。そして、ステ
ップS35において、CPU151は、図10に示される
ようにレンズ歪み補正されたビットマップ映像フレーム
を90度回転し、ステップS36において、ミラー反転
を施し、ステップS37において、ステップS36でミ
ラー反転された画像データを、記憶部161に記憶させ
る。
In step S34, the CPU 151
Lens distortion correction is performed on the bitmap video frame captured in step S33 based on the distortion parameter of the nth camera. Then, in step S35, the CPU 151 rotates the lens distortion-corrected bitmap image frame by 90 degrees as shown in FIG. 10, performs mirror inversion in step S36, and in step S37, mirror inverts in step S36. The stored image data is stored in the storage unit 161.

【0072】ステップS38において、CPU151は、
mを、1だけインクリメントし、ステップS39におい
て、CPU151は、フレーム数mが最大フレーム数Mに
達したか否かを判定し、フレーム数mが最大フレーム数
Mに達していない場合、ステップS33に戻り、ステッ
プS33以降の映像フレームデータの加工処理を繰り返
す。ステップS39において、CPU151が、フレーム
数mは最大フレーム数Mに達したと判定した場合、ステ
ップS40に進み、CPU151は、nを1だけインクリ
メントする。
In step S38, the CPU 151
Increment m by 1 and in step S39, the CPU 151 determines whether or not the frame number m has reached the maximum frame number M. If the frame number m has not reached the maximum frame number M, the process proceeds to step S33. Returning to step S33, the processing for processing the video frame data is repeated. When the CPU 151 determines in step S39 that the frame number m has reached the maximum frame number M, the process proceeds to step S40, and the CPU 151 increments n by 1.

【0073】ステップS41において、CPU151は、
nが8に達したか否かを判定し、nが8に達していない
場合、ステップS32に戻り、次のカメラの映像フレー
ムについて、上述したステップS32以降の処理を繰り
返す。ステップS41において、CPU151が、nが8
に達したと判定した場合、処理はステップS42に進
む。ステップS42において、CPU151は、8台全て
のカメラ51−1乃至51−8のデータを保存して、図
9に示される処理を終了する。
In step S41, the CPU 151
It is determined whether or not n has reached 8. If n has not reached 8, the process returns to step S32 and the above-described processing from step S32 is repeated for the video frame of the next camera. In step S41, the CPU 151 determines that n is 8
If it is determined that the value has reached, the process proceeds to step S42. In step S42, the CPU 151 saves the data of all eight cameras 51-1 to 51-8, and ends the processing shown in FIG.

【0074】その後、処理は、図8のステップS12に
進む。ステップS12において、コンピュータ122
は、配信用全方位映像フレーム作成処理を実行する。コ
ンピュータ122のCPU151は、ステップS12にお
いて、各カメラ51−1乃至51−8の同期した8枚の
フレームを、図11に示すように張り合わせて、1枚の
フレームを生成する。このとき、全方位カメラ31の構
成として、各カメラ51−1乃至51−8が設置された
順番(図3参照)に従って、各映像フレームを円筒側面
上に配置することにより、張り合わせた映像フレーム
は、全方位カメラ31が捉えた360度の全方位映像を
表すことができる。
Thereafter, the process proceeds to step S12 in FIG. In step S12, the computer 122
Executes a distribution omnidirectional video frame creation process. In step S12, the CPU 151 of the computer 122 combines the eight synchronized frames of the cameras 51-1 to 51-8 as shown in FIG. 11 to generate one frame. At this time, as the configuration of the omnidirectional camera 31, by arranging the video frames on the cylindrical side surface in the order in which the cameras 51-1 to 51-8 are installed (see FIG. 3), the bonded video frames are , 360 ° omnidirectional images captured by the omnidirectional camera 31 can be displayed.

【0075】このような全方位映像フレームを、地上波
放送、衛星放送、ケーブルテレビ放送、ハイビジョン放
送などによって配信した場合、受信装置13側では、受
信した全方位映像フレームの中から、ユーザ15が指定
した画角を切り出して表示することにより、元はどのカ
メラ51−1乃至51−8で撮影した映像であるかを意
識することなく、全方位の情景から、任意の画角を、シ
ームレスに視聴することができる。
When such an omnidirectional video frame is distributed by terrestrial broadcasting, satellite broadcasting, cable television broadcasting, high-definition broadcasting, etc., on the receiving device 13 side, the user 15 selects from the received omnidirectional video frames. By cutting out and displaying the specified angle of view, any angle of view can be seamlessly selected from the omnidirectional scene without being aware of which camera 51-1 to 51-8 originally captured the image. You can watch.

【0076】例えば、図11に示す全方位映像フレーム
において、画角F1がユーザ15によって指定された場
合、受信装置13上では、これに該当する映像フレーム
が切り出されて表示されるが、カメラ51−1およびカ
メラ51−2で撮影した映像フレームを接続してできた
ものであることを、ユーザ15が識別することができな
いようになっている。同様に、画角をF2に移動させた
場合であっても、受信装置13上では、これに該当する
映像フレームが切り出されて表示されるが、カメラ51
−3およびカメラ51−4で撮影した映像フレームを接
続してできたものであることを、ユーザは識別すること
はできない。
For example, in the omnidirectional video frame shown in FIG. 11, when the angle of view F1 is designated by the user 15, the video frame corresponding to this is cut out and displayed on the receiving device 13, but the camera 51 is displayed. -1 and the video frame captured by the camera 51-2 are connected to each other so that the user 15 cannot identify them. Similarly, even when the angle of view is moved to F2, the video frame corresponding to this is cut out and displayed on the receiving device 13, but the camera 51
-3 and the video frame captured by the camera 51-4 are connected to each other, the user cannot identify them.

【0077】全方位映像のような視点自由形映像フレー
ムを地上放送、衛星放送、ケーブルテレビ放送、ハイビ
ジョン放送などによって配信する場合、映像フレームは
データ量が膨大であることから、例えば、HD-MPEG2方
式などによって、画像圧縮を行う。このとき、全方位映
像をHD-MPEG2のサイズに合わせこむという要請から、縦
横比を、HD-MPEG2の画像圧縮方式に、より近いものにす
る必要がある。
When a viewpoint free-form video frame such as an omnidirectional video is distributed by terrestrial broadcasting, satellite broadcasting, cable television broadcasting, high-definition broadcasting, etc., since the video frame has an enormous amount of data, for example, HD-MPEG2 Image compression is performed according to the method. At this time, it is necessary to make the aspect ratio closer to the image compression method of HD-MPEG2 because of the request to fit the omnidirectional video in the size of HD-MPEG2.

【0078】このために、図11に示したように、元は
各カメラ51−1乃至51−8の映像フレームを円筒側
面上に配置されてなる全方位映像を、2等分して、後半
のフレーム分割部分を前半の分割フレームの下部に配置
するようにしている。このようなフレーム分割、および
再配置を行った結果として、カメラ51−1とカメラ5
1−8の映像フレーム、およびカメラ51−4とカメラ
51−5の映像フレームは、本来連続したものである
が、データ配信される全方位映像フレーム上では、図1
1に示すように、離れた位置に配置されてしまう。
For this reason, as shown in FIG. 11, an omnidirectional image originally formed by arranging the image frames of the cameras 51-1 to 51-8 on the cylindrical side surface is divided into two equal parts, and the latter half is divided into two parts. The frame-divided part of is arranged below the first half of the divided frame. As a result of such frame division and rearrangement, the camera 51-1 and the camera 5
The video frames 1-8 and the video frames of the cameras 51-4 and 51-5 are essentially continuous, but on the omnidirectional video frame that is data-distributed, as shown in FIG.
As shown in FIG. 1, they are arranged at distant positions.

【0079】このような場合、受信装置13側で、全方
位映像の画角を移動させていった場合、カメラ51−8
とカメラ51−1の映像フレームにまたがる領域や、カ
メラ51−4とカメラ51−5の映像フレームにまたが
る領域をシームレスに切り替えることは困難である。
In such a case, when the angle of view of the omnidirectional image is moved on the receiving device 13 side, the camera 51-8
It is difficult to seamlessly switch the area extending over the video frame of the camera 51-1 and the area extending over the video frame of the camera 51-4 and the camera 51-5.

【0080】そこで、本実施の形態においては、円筒側
面状の全方位映像フレームを、分割および再配置する際
に、分割された一方の端縁に隣接するカメラの映像フレ
ームを余分に張り合わせるようにした。すなわち、全方
位映像の両端縁付近では、貼り付けられたカメラの映像
フレームが重複するように再配置することとした。
Therefore, in the present embodiment, when dividing and rearranging the omnidirectional video frame having a cylindrical side surface, the video frames of the cameras adjacent to one of the divided edges are excessively pasted together. I chose That is, near the both edges of the omnidirectional video, the video frames of the attached cameras are rearranged so that they overlap.

【0081】図12には、円筒側面状の全方位映像フレ
ームを、分割および再配置する際に、分割された一方の
端縁に隣接するカメラの映像フレームを余分に張り合わ
せるようにして構成された全方位映像フレームを示して
いる。
In FIG. 12, when dividing and rearranging a cylindrical side-view omnidirectional video frame, the video frames of the cameras adjacent to one of the divided edges are superposed together. 3 shows an omnidirectional video frame.

【0082】同図に示す例では、前半の全方位映像フレ
ーム分割部分の先頭には、カメラ51−1に隣接するカ
メラ51−8、およびカメラ51−8に隣接するカメラ
51−7の映像フレームを順次張り合わせると共に、後
半の全方位映像フレーム分割部分の先頭には、カメラ5
1−5に隣接するカメラ51−4、およびカメラ51-
4に隣接するカメラ51−3の映像フレームを順次張り
合わせている。
In the example shown in the figure, the video frame of the camera 51-8 adjacent to the camera 51-1 and the video frame of the camera 51-7 adjacent to the camera 51-8 are provided at the head of the first half omnidirectional video frame divided portion. And the camera 5 at the beginning of the omnidirectional video frame division in the latter half.
Camera 51-4 adjacent to 1-5, and camera 51-
The video frames of the camera 51-3 adjacent to No. 4 are sequentially laminated.

【0083】従って、図示の全方位映像フレームでは、
カメラ51−3およびカメラ51−4の映像フレーム
が、前半と後半で重複して存在すると共に、カメラ51
−7およびカメラ51−8の映像フレームが、前半と後
半で重複して存在する。
Therefore, in the illustrated omnidirectional video frame,
Video frames of the camera 51-3 and the camera 51-4 overlap in the first half and the second half, and
Video frames of -7 and the camera 51-8 are duplicated in the first half and the second half.

【0084】次に、図13のフローチャートを参照し
て、図8のステップS12の処理、すなわち、配信用全
方位映像フレーム作成処理について説明する。なお、図
13のフローチャートに示される処理は、コンピュータ
122のCPU151により実行される。
Next, with reference to the flow chart of FIG. 13, the processing of step S12 of FIG. 8, that is, the distribution omnidirectional video frame creation processing will be described. The process shown in the flowchart of FIG. 13 is executed by the CPU 151 of the computer 122.

【0085】ステップS61において、CPU151は、
変数nに初期値1を代入する。ステップS62におい
て、CPU151は、図8のステップS11の処理により
記憶部161に記憶された映像データの中から、n台目
のカメラのmフレーム目の映像データを読み出す。
In step S61, the CPU 151
The initial value 1 is substituted for the variable n. In step S62, the CPU 151 reads the video data of the mth frame of the nth camera from the video data stored in the storage unit 161 by the processing of step S11 of FIG.

【0086】ステップS63において、CPU151は、
ステップS62で読み出されたn台目のカメラのmフレ
ーム目の映像データを、3次元座標系において、円筒側
面上に貼り付ける。これは、平面曲面変換を行うことに
よって実現される。
In step S63, the CPU 151
The image data of the mth frame of the nth camera read in step S62 is pasted on the side surface of the cylinder in the three-dimensional coordinate system. This is realized by performing a plane curved surface conversion.

【0087】ステップS64において、CPU151は、
ステップS63で円筒側面上に貼り付けられた映像デー
タを、カメラ方向に応じて配置する。
In step S64, the CPU 151
The image data pasted on the side surface of the cylinder in step S63 is arranged according to the camera direction.

【0088】ステップS65において、CPU151は、
nを1だけインクリメントする。ステップS66におい
て、CPU151は、nが8に達したか否かを判定し、n
が8に達していない場合、処理はステップS62に戻
り、次のカメラの映像フレームについて、上述したステ
ップS62以降の処理を繰り返し実行する。
In step S65, the CPU 151
Increment n by 1. In step S66, the CPU 151 determines whether n has reached 8, and n
Is less than 8, the process returns to step S62, and the process of step S62 and subsequent steps described above is repeatedly executed for the video frame of the next camera.

【0089】ステップS65において、CPU151が、
nが8に達した(8台全てのカメラ51−1乃至51−
8について、映像フレームの円筒側面への貼り付け処理
が終了した)と判定した場合、処理はステップS67に
進む。
In step S65, the CPU 151
n has reached 8 (all eight cameras 51-1 to 51-
8, it is determined that the process of attaching the video frame to the side surface of the cylinder is completed), the process proceeds to step S67.

【0090】ステップS67において、CPU151は、
隣接する画像の整合性を調節しながら、円筒半径や、そ
の他のパラメータの算出を行う。
In step S67, the CPU 151
The cylinder radius and other parameters are calculated while adjusting the matching between adjacent images.

【0091】ステップS68において、CPU151は、
円筒側面を切断して、長方形平面に変換する。ステップ
S69において、CPU151は、長方形平面を横方向
(カメラ51の配置方向)の半分のところで分割して、
その右半分を左半分の下部に配置する。
In step S68, the CPU 151
Cut the side of the cylinder and transform it into a rectangular plane. In step S69, the CPU 151 divides the rectangular plane at half of the horizontal direction (arrangement direction of the camera 51),
The right half is placed below the left half.

【0092】引き続き、図14のステップS70におい
て、CPU151は、配置された長方形平面の右下4分の
1面積分を複製し、左上部の左端に配置すると共に、長
方形平面の右上4分の1面積分を複製して、左下部の左
端に配置する。
Subsequently, in step S70 of FIG. 14, the CPU 151 duplicates the lower right quarter area of the arranged rectangular plane and arranges it at the left end of the upper left portion, and at the same time, the upper right quarter of the rectangular plane. Duplicate the area and place it on the left edge of the lower left.

【0093】次に、ステップS71において、CPU15
1は、マッチング処理を実行する。ここで、マッチング
処理について、図15のフローチャートおよび図16を
参照して説明する。
Next, in step S71, the CPU 15
1 executes the matching process. Here, the matching process will be described with reference to the flowchart of FIG. 15 and FIG.

【0094】図15のステップS91において、CPU1
51は、ディスプレイ158の中央に、図16に示され
るように、ステップS70で作成された全方位画像25
1を表示させると共に、ディスプレイの下方に、カメラ
32−1乃至32−5により撮影されたズーム用画像2
52−1乃至252−5を表示させる。なお、個々で表
示されているズーム用画像252は、全方位画像251
と同一のタイミングで、カメラ32により撮影されたフ
レームが基になっている。
In step S91 of FIG. 15, the CPU1
51 is the omnidirectional image 25 created in step S70 in the center of the display 158, as shown in FIG.
1 is displayed, and a zoom image 2 captured by the cameras 32-1 to 32-5 is displayed below the display.
52-1 to 252-5 are displayed. The zoom image 252 displayed individually is the omnidirectional image 251.
It is based on the frame captured by the camera 32 at the same timing as.

【0095】ステップS92において、CPU151は、
ズーム用画像252−1乃至252−5の中から、1つ
のズーム用画像の選択を受け付ける。マッチング処理を
行う人(以下、編集者と称する)は、操作部156を操
作することにより、ズーム用画像を選択することができ
る。
In step S92, the CPU 151
The selection of one zoom image is received from the zoom images 252-1 to 252-5. A person who performs the matching process (hereinafter referred to as an editor) can select a zoom image by operating the operation unit 156.

【0096】ステップS93において、CPU151は、
ステップS92で選択されたズーム用画像に対応する全
方位画像251中の領域の指定を受け付ける。編集者
は、操作部156を操作することにより、ステップS9
2で選択されたズーム用画像に対応する全方位画像25
1中の領域の指定することができる。
In step S93, the CPU 151
The designation of the area in the omnidirectional image 251 corresponding to the zoom image selected in step S92 is accepted. The editor operates step S9 by operating the operation unit 156.
Omnidirectional image 25 corresponding to the zoom image selected in 2
The area in 1 can be designated.

【0097】ステップS94において、CPU151は、
ステップS93で指定が受け付けられたズーム用画像に
対応する全方位画像251中の領域の周辺で、ズーム用
画像252と、全方位画像251の相関が最も高くな
る、全方位画像251中のズーム用画像252の座標を
検索し、全方位画像251中のズーム用画像252の座
標を特定する。
In step S94, the CPU 151
For the zoom in the omnidirectional image 251, the correlation between the zoom image 252 and the omnidirectional image 251 is highest around the area in the omnidirectional image 251 corresponding to the zoom image whose designation is received in step S93. The coordinates of the image 252 are searched and the coordinates of the zoom image 252 in the omnidirectional image 251 are specified.

【0098】編集者は、例えば、図16において、ステ
ップS92で、ズーム用画像252−3を選択し、ステ
ップS93で、ズーム用画像252−3と同様の風景が
表示されている、全方位画像251中の位置の指定を、
ディスプレイ158に表示される枠253を利用するこ
とにより、行うことができる。編集者により、ズーム用
画像252−3の、全方位画像251中における、大体
の位置が指定されると、CPU151は、ステップS93
で指定された枠253の周囲を検索することにより、全
方位画像251とズーム用画像252−3の、画像の相
関が最も高くなるような、全方位映像251中のズーム
用画像252−3の座標を、パターンマッチングの処理
により、特定する。
For example, in FIG. 16, the editor selects the zoom image 252-3 in step S92, and in step S93 the omnidirectional image in which the same landscape as the zoom image 252-3 is displayed. Specify the position in 251
This can be done by using the frame 253 displayed on the display 158. When the editor specifies the approximate position of the zoom image 252-3 in the omnidirectional image 251, the CPU 151 determines in step S93.
By searching the periphery of the frame 253 designated by, the omnidirectional image 251 and the zoom image 252-3 have the highest image correlation. The coordinates are specified by the pattern matching process.

【0099】ステップS94の処理により、ズーム用画
像252−1乃至252−5全ての、全方位画像251
中の座標が特定されたら、処理は、図14のステップS
72に進む。
By the processing of step S94, the omnidirectional images 251 of all the zoom images 252-1 to 252-5.
When the inside coordinates are specified, the process proceeds to step S in FIG.
Proceed to 72.

【0100】ステップS72において、CPU151は、
図17に示されるような座標対応テーブルを作成する。
図17に示される座標対応テーブルのファイルサイズ
は、「ヘッダ301(48ビット)+テーブルユニット
302(96ビット)×テーブルユニット数(n個)」
である。タイムコードに24ビット、ズーミングポイン
ト数に24ビットを要する。ズーミングポイント数31
2は、全方位画像251中において、ズーム用画像25
2が対応するエリアの数を示している。
In step S72, the CPU 151
A coordinate correspondence table as shown in FIG. 17 is created.
The file size of the coordinate correspondence table shown in FIG. 17 is “header 301 (48 bits) + table unit 302 (96 bits) × table unit number (n)”.
Is. It requires 24 bits for the time code and 24 bits for the number of zooming points. Number of zooming points 31
2 is the zoom image 25 in the omnidirectional image 251.
2 indicates the number of corresponding areas.

【0101】すなわち、図18には、全方位画像251
に対応するズーム用画像252のエリアがa乃至iの枠
により示されている。図18に示されるように、例え
ば、全方位映像251において、cおよびeで示された
枠の中の画像には、ズーム用画像252−1(以下、こ
の画像をC1とも称する)が対応する。また、全方位映
像251において、dおよびfで示された枠の中の画像
には、ズーム用画像252−2(以下、この画像をC2
とも称する)が対応する。また、全方位映像251にお
いて、gで示された枠の中の画像には、ズーム用画像2
52−3(以下、この画像をC3とも称する)が対応す
る。また、全方位映像251において、aおよびhで示
された枠の中の画像には、ズーム用画像252−4(以
下、この画像をC4とも称する)が対応する。また、全
方位映像251において、bおよびiで示された枠の中
の画像には、ズーム用画像252−5(以下、この画像
をC5とも称する)が対応する。
That is, FIG. 18 shows an omnidirectional image 251.
The area of the zoom image 252 corresponding to is indicated by the frames a to i. As shown in FIG. 18, for example, in the omnidirectional image 251, the image in the frame indicated by c and e corresponds to the zoom image 252-1 (hereinafter, this image is also referred to as C1). . Further, in the omnidirectional video image 251, the image in the frame indicated by d and f is the zoom image 252-2 (hereinafter, this image is C2.
Also referred to as). In the omnidirectional image 251, the image in the frame indicated by g is the zoom image 2
52-3 (hereinafter, this image is also referred to as C3) corresponds. In the omnidirectional image 251, the image in the frame indicated by a and h corresponds to the zoom image 252-4 (hereinafter, this image is also referred to as C4). Further, in the omnidirectional image 251, the image in the frame indicated by b and i corresponds to the zoom image 252-5 (hereinafter, this image is also referred to as C5).

【0102】以上のように、全方位映像251の中に、
ズーム用画像C1乃至C5に対応するa乃至iまでの9
つのエリアが存在する場合、図17のズーミングポイン
ト数312には、「9」が記録される。図18のa乃至
iまでの9つのエリアと、ズーム用画像C1乃至C5の
座標対応が、図17のテーブルユニット302−1乃至
302−9に記録される。
As described above, in the omnidirectional image 251,
9 from a to i corresponding to the zoom images C1 to C5
When there are two areas, “9” is recorded in the number of zooming points 312 in FIG. The nine areas from a to i in FIG. 18 and the coordinate correspondences of the zoom images C1 to C5 are recorded in the table units 302-1 to 302-9 in FIG.

【0103】すなわち、例えば、全方位映像251中の
エリアaとズーム用画像C4との座標対応が、テーブル
ユニット302−1に記録される。テーブルユニット3
02−1において、マスターエリア・スタートポイント
321には、全方位映像251における、エリアaの左
上隅の座標(X,Y)が記録される。XおよびYの、そ
れぞれの記録に12ビットを要する(以下のXおよびY
も同様である)。また、マスターエリア・エンドポイン
ト322には、全方位映像251における、エリアaの
右下隅の座標(X,Y)が記録される。
That is, for example, the coordinate correspondence between the area a in the omnidirectional image 251 and the zoom image C4 is recorded in the table unit 302-1. Table unit 3
In 02-1, the coordinates (X, Y) of the upper left corner of the area a in the omnidirectional image 251 are recorded at the master area start point 321. Each recording of X and Y requires 12 bits (X and Y below)
Is also the same). In the master area endpoint 322, the coordinates (X, Y) of the lower right corner of the area a in the omnidirectional image 251 are recorded.

【0104】また、テーブルユニット302−1におい
て、ズーミングエリア・スタートポイント323には、
全方位映像251のエリアaに対応するズーム用画像C
4の左上隅の座標(X,Y)が記録される。また、テー
ブルユニット302−1において、ズーミングエリア・
エンドポイント324には、全方位映像251のエリア
aに対応するズーム用画像C4の右下隅の座標(X,
Y)が記録される。
In the table unit 302-1, the zooming area start point 323 is
Zoom image C corresponding to area a of omnidirectional image 251
The coordinates (X, Y) of the upper left corner of 4 are recorded. In addition, in the table unit 302-1, the zooming area
At the end point 324, the coordinates (X, X, at the lower right corner of the zoom image C4 corresponding to the area a of the omnidirectional image 251 are displayed.
Y) is recorded.

【0105】テーブルユニット302−2には、全方位
映像251中のエリアbとズーム用画像C5との座標対
応が記録される。その詳細な記録内容は、図示されてい
ないが、上述したテーブルユニット302−1の場合と
同様である。以下、同様に、テーブルユニット302−
3には、全方位映像251中のエリアcとズーム用画像
C1との座標対応が記録され、テーブルユニット302
−4には、全方位映像251中のエリアdとズーム用画
像C2との座標対応が記録され、テーブルユニット30
2−5には、全方位映像251中のエリアeとズーム用
画像C1との座標対応が記録され、テーブルユニット3
02−6には、全方位映像251中のエリアfとズーム
用画像C2との座標対応が記録され、テーブルユニット
302−7には、全方位映像251中のエリアgとズー
ム用画像C3との座標対応が記録され、テーブルユニッ
ト302−8には、全方位映像251中のエリアhとズ
ーム用画像C4との座標対応が記録され、テーブルユニ
ット302−9には、全方位映像251中のエリアiと
ズーム用画像C5との座標対応が記録される。
On the table unit 302-2, the coordinate correspondence between the area b in the omnidirectional video image 251 and the zoom image C5 is recorded. Although detailed recording contents are not shown, they are the same as the case of the table unit 302-1 described above. Hereinafter, similarly, the table unit 302-
3, the coordinate correspondence between the area c in the omnidirectional video 251 and the zoom image C1 is recorded.
In -4, the coordinate correspondence between the area d in the omnidirectional image 251 and the zoom image C2 is recorded, and the table unit 30
In 2-5, the coordinate correspondence between the area e in the omnidirectional image 251 and the zoom image C1 is recorded, and the table unit 3
In 02-6, the coordinate correspondence between the area f in the omnidirectional video 251 and the zoom image C2 is recorded, and in the table unit 302-7, the area g in the omnidirectional video 251 and the zoom image C3 are recorded. The coordinate correspondence is recorded, the coordinate correspondence between the area h in the omnidirectional image 251 and the zoom image C4 is recorded in the table unit 302-8, and the area in the omnidirectional image 251 is recorded in the table unit 302-9. The coordinate correspondence between i and the zoom image C5 is recorded.

【0106】CPU151は、図14のステップS72に
おいて、以上のような座標対応テーブルを作成する。次
に、ステップS73において、CPU151は、ステップ
S72で作成した座標対応テーブルを、フレームと対応
付けて、記憶部161に記憶させる。ステップS74に
おいて、CPU151は、全方位映像251を、1386
×684画素のサイズに縮小する。
The CPU 151 creates the coordinate correspondence table as described above in step S72 of FIG. Next, in step S73, the CPU 151 stores the coordinate correspondence table created in step S72 in the storage unit 161 in association with the frame. In step S74, the CPU 151 displays the omnidirectional image 251 at 1386.
The size is reduced to 684 pixels.

【0107】ステップS75において、CPU151は、
ステップS74でサイズを縮小した全方位画像251、
およびズーム用画像C1乃至C5を、図19に示される
ように配置し、フレーム全体のサイズを、1920×1
080画素のサイズにする。図19には、配信用映像フ
レームが示されている。図19に示されるように、配信
用映像フレームには、左方に全方位映像251が配置さ
れ、右方に、上から順番に、ズーム用画像C1、ズーム
用画像C2、ズーム用画像C3が配置され、ズーム用画
像C3の左方に、ズーム用画像C5、およびズーム用画
像C2が配置されている。
At step S75, the CPU 151
An omnidirectional image 251, whose size has been reduced in step S74,
And zoom images C1 to C5 are arranged as shown in FIG. 19, and the size of the entire frame is 1920 × 1.
The size is 080 pixels. FIG. 19 shows a video frame for distribution. As shown in FIG. 19, in the distribution video frame, an omnidirectional video 251 is arranged on the left side, and a zoom image C1, a zoom image C2, and a zoom image C3 are displayed on the right side in order from the top. The zoom image C5 and the zoom image C2 are arranged to the left of the zoom image C3.

【0108】ステップS76において、図13および図
14のフローチャートに示されるステップS62乃至ス
テップS75に示される処理により作成された、各種幾
何学パラメータを記憶部161に記憶させる。以上で、
配信用全方位映像フレーム作成処理が終了される。その
後、処理は、図8のステップS13に進む。
In step S76, the storage unit 161 stores various geometrical parameters created by the processes of steps S62 to S75 shown in the flowcharts of FIGS. Above,
The distribution omnidirectional video frame creation process ends. Then, the process proceeds to step S13 in FIG.

【0109】ステップS13において、コンピュータ1
22のCPU151は、配信用全方位映像フレーム作成処
理によって、ビットマップ連番ファイルにされた全方位
映像フレームを、レンダリングして、HD-SDI(Serial D
igital Interface)出力の信号に変換し、MPEGエンコー
ダ123に供給する。
In step S13, the computer 1
The CPU 151 of the 22 renders the omnidirectional video frame made into the bit map serial number file by the omnidirectional video frame creation process for distribution, and HD-SDI (Serial D
signal is output to the MPEG encoder 123.

【0110】ステップS14において、MPEGエンコーダ
123は、コンピュータ122から供給された映像スト
リームを、HD-MPEG方式で符号化処理して、マルチプレ
クサ126に供給する。
In step S14, the MPEG encoder 123 encodes the video stream supplied from the computer 122 by the HD-MPEG system and supplies it to the multiplexer 126.

【0111】ステップS15において、PSI入力装置1
24は、映像ストリームが視点自由形の全方位映像であ
ることを示すフラグを設定する。
In step S15, the PSI input device 1
Reference numeral 24 sets a flag indicating that the video stream is a viewpoint free-form omnidirectional video.

【0112】ステップS16において、コンピュータ1
22は、図14のステップS72で作成した座標対応テ
ーブルを、BML入力装置125に供給する。BML入力装置
125は、供給された座標対応テーブルに基づいて、所
定の処理を実行し、座標対応テーブルを含むBMLコンテ
ンツを作成し、マルチプレクサ126に供給する。
In step S16, the computer 1
22 supplies the coordinate correspondence table created in step S72 of FIG. 14 to the BML input device 125. The BML input device 125 executes a predetermined process based on the supplied coordinate correspondence table, creates BML content including the coordinate correspondence table, and supplies the BML content to the multiplexer 126.

【0113】ステップS17において、マルチプレクサ
126は、MPEGエンコーダ123から供給された映像ス
トリーム、PSI入力装置124から入力されたPSIデー
タ、およびBML入力装置125から供給されたBMLコンテ
ンツを多重化して、送信部127に供給する。送信部1
27は、PSIデータおよびBMLコンテンツが多重化された
映像ストリームがマルチプレクサ126より供給される
と、これを変調、A/D変換、およびベースバンド信号を
衛星波にアップコンバートしてから送出する。
In step S17, the multiplexer 126 multiplexes the video stream supplied from the MPEG encoder 123, the PSI data input from the PSI input device 124, and the BML content supplied from the BML input device 125, and the transmission unit Supply to 127. Transmitter 1
When the video stream in which the PSI data and the BML content are multiplexed is supplied from the multiplexer 126, the reference numeral 27 modulates this, performs A / D conversion, and up-converts the baseband signal into a satellite wave, and then transmits the satellite wave.

【0114】以上で、放送装置33の放送処理の説明を
終了する。
This is the end of the description of the broadcasting process of the broadcasting device 33.

【0115】次に、図20のフローチャート参照して、
受信装置13の表示制御処理について説明する。
Next, referring to the flowchart of FIG. 20,
The display control process of the receiving device 13 will be described.

【0116】ステップS121において、受信部204
は、人工衛星12より衛星波を受信し、これをベースバ
ンド信号にダウンコンバートし、A/D変換、復調して、
フレームバッファ205に記憶させる。
In step S121, the receiving section 204
Receives the satellite wave from the artificial satellite 12, down-converts it to a baseband signal, A / D converts it, demodulates it,
It is stored in the frame buffer 205.

【0117】ステップS122において、制御部201
は、受信された映像ストリームが、視点自由形の全方位
映像であることを示すPSIデータのフラグデータを抽出
する。ステップS123において、制御部201は、ス
テップS122で抽出したフラグデータに基づいて、受
信データが視点自由形の映像ストリームであるか否かを
判定し、受信データが視点自由形の映像ストリームであ
る場合、ステップS124に進み、制御部201は、デ
マルチプレクサ206、BMLエンジン207、MPEGデコ
ーダ208、および切り出しドライバ210を制御し
て、視点自由形の映像をテレビジョン受像機14のディ
スプレイに表示させる処理を実行する。
In step S122, the control unit 201
Extracts PSI data flag data indicating that the received video stream is a viewpoint free-form omnidirectional video. In step S123, the control unit 201 determines whether the received data is a viewpoint free-form video stream based on the flag data extracted in step S122, and when the received data is a viewpoint free-form video stream. In step S124, the control unit 201 controls the demultiplexer 206, the BML engine 207, the MPEG decoder 208, and the cutout driver 210 to display a viewpoint-free image on the display of the television receiver 14. Run.

【0118】すなわち、フレームバッファ205に記憶
されたデータは、デマルチプレクサ206により、BML
コンテンツとMPEGストリームとに分離され、BMLコンテ
ンツはBMLエンジン207に供給され、MPEGストリーム
はMPEGデコーダ208に供給される。BMLエンジン20
7はBMLコンテンツに従って、全方位映像71から切り
出して表示させる表示領域72の移動、拡大縮小の処理
(ズーム処理)を実行する。
That is, the data stored in the frame buffer 205 is sent to the BML by the demultiplexer 206.
The content and the MPEG stream are separated, the BML content is supplied to the BML engine 207, and the MPEG stream is supplied to the MPEG decoder 208. BML engine 20
7 is a process of moving and enlarging / reducing the display area 72 which is cut out from the omnidirectional image 71 and displayed according to the BML content.
(Zoom processing) is executed.

【0119】MPEGデコーダ208は、MPEGストリームを
MPEG復号化して、元の視点自由形映像フレームに再現し
て、これをフレームバッファ209に記憶させる。
The MPEG decoder 208 outputs the MPEG stream.
MPEG decoding is performed to reproduce the original viewpoint free-form video frame, and this is stored in the frame buffer 209.

【0120】切り出しドライバ210は、BMLエンジン
207が実行するBMLスクリプトに従って、フレームバ
ッファ209に記憶されている視点自由形映像フレーム
から、表示領域72の画像を切り出して、テレビジョン
受像機14に供給する。テレビジョン受像機14は、供
給された画像を、ディスプレイに表示させる。
The clipping driver 210 clips the image in the display area 72 from the viewpoint free-form video frame stored in the frame buffer 209 in accordance with the BML script executed by the BML engine 207 and supplies it to the television receiver 14. . The television receiver 14 displays the supplied image on the display.

【0121】図20のステップS123において、制御
部201が、受信データが視点自由形の映像ストリーム
ではないと判定した場合、処理はステップS125に進
み、受信したデータを、通常の放送データとして、MPEG
デコードして、復号化された映像ストリームを、テレビ
ジョン受像機14に供給する。テレビジョン受像機14
は、供給された画像を、ディスプレイに表示させる。
If the control unit 201 determines in step S123 of FIG. 20 that the received data is not a viewpoint free-form video stream, the process proceeds to step S125, and the received data is treated as normal broadcast data by MPEG.
The video stream is decoded and the decoded video stream is supplied to the television receiver 14. Television receiver 14
Displays the supplied image on the display.

【0122】ステップS126において、制御部201
は、ステップS124、またはステップS125の処理
を実行しつつ、リモートコマンダ221(または操作部
202)より、視聴終了の指示が入力されたか否かを判
定し、視聴終了の指示が入力されるまで、ステップS1
24または、ステップS125の、視聴処理を実行す
る。リモートコマンダ221(または操作部202)よ
り、視聴終了の指示が入力された場合、制御部201
は、テレビジョン受像機14への画像の供給を停止し、
処理を終了する。
In step S126, the control unit 201
Determines whether or not an instruction to end viewing is input from the remote commander 221 (or the operation unit 202) while executing the processing in step S124 or step S125, until the instruction to end viewing is input. Step S1
24 or the viewing process of step S125 is executed. When an instruction to end viewing is input from the remote commander 221 (or the operation unit 202), the control unit 201
Stops the supply of images to the television receiver 14,
The process ends.

【0123】次に、図20のステップS124におい
て、受信装置13が、テレビジョン受像機14に視点自
由形の映像を表示させる際の、受信装置13のズーム処
理について、図21のフローチャートを参照しつつ説明
する。
Next, in step S124 of FIG. 20, referring to the flowchart of FIG. 21, for the zoom process of the receiving device 13 when the receiving device 13 causes the television receiver 14 to display a free-viewpoint image. While explaining.

【0124】制御部201は、常時、リモートコマンダ
221から赤外線受信部203により受信される信号を
監視し、リモートコマンダ221から、テレビジョン受
像機14のディスプレイに表示させる画像の拡大縮小の
指示が入力されたか否かを判定し続けている。
The control unit 201 always monitors the signal received by the infrared receiving unit 203 from the remote commander 221, and inputs an instruction for enlarging or reducing an image to be displayed on the display of the television receiver 14 from the remote commander 221. It keeps judging whether it was done.

【0125】そこで、ステップS201において、制御
部201は、リモートコマンダ221を介して、画像の
拡大の指示が入力されたか否かを判定しつづけ、画像の
拡大の指示が入力された場合、ステップS202に進
み、BMLエンジン207に、リモートコマンダ221か
らの画像の拡大の指令を通知する。BMLエンジン207
は、制御部201からの通知に基づいて、まず、拡大が
指示された表示エリアの80%に、表示エリアcまたは
表示エリアeが含まれるか否かを判定する。
Therefore, in step S201, the control unit 201 continues to determine whether or not an image enlargement instruction has been input via the remote commander 221, and if an image enlargement instruction has been input, step S202. Then, the BML engine 207 is notified of the image enlargement command from the remote commander 221. BML engine 207
First, based on the notification from the control unit 201, it is first determined whether 80% of the display area instructed to be enlarged includes the display area c or the display area e.

【0126】図18に示されるように、表示エリアcお
よび表示エリアeは、同一の画像に対応するエリアであ
り、拡大が指示された表示エリアの80%に表示エリア
cおよび表示エリアeのいずれかが含まれていた場合、
処理はステップS203に進み、BMLエンジン207
は、切り出しドライバ210に、ズーム用画像C1を切
り出すように指令する。切り出しドライバ210は、BM
Lエンジン207からの指令に従い、ズーム用画像C1
を切り出して、テレビジョン受像機14に供給する。テ
レビジョン受像機14は、供給されたズーム用画像C1
を、ディスプレイに表示させる。その後、処理はステッ
プS213に進む。
As shown in FIG. 18, the display area c and the display area e are areas corresponding to the same image, and the display area c and the display area e are included in 80% of the display area instructed to be enlarged. If it is included,
The process proceeds to step S203, and BML engine 207
Instructs the cutout driver 210 to cut out the zoom image C1. The cutting driver 210 is a BM
Image C1 for zooming according to the command from the L engine 207
Is cut out and supplied to the television receiver 14. The television receiver 14 displays the supplied zoom image C1.
Is displayed on the display. Then, a process progresses to step S213.

【0127】ステップS202において、BMLエンジン
207が、拡大が指示された表示エリアの80%に、表
示エリアcまたは表示エリアeは含まれていないと判定
した場合、処理はステップS204に進む。
In step S202, when the BML engine 207 determines that 80% of the display area instructed to be enlarged does not include the display area c or the display area e, the process proceeds to step S204.

【0128】ステップS204において、BMLエンジン
207は、拡大が指示された表示エリアの80%に、表
示エリアdまたは表示エリアfが含まれるか否かを判定
する。
In step S204, the BML engine 207 determines whether 80% of the display area instructed to be enlarged includes the display area d or the display area f.

【0129】図18に示されるように、表示エリアdお
よび表示エリアfは、同一の画像に対応するエリアであ
り、拡大が指示された表示エリアの80%に表示エリア
dおよび表示エリアfのいずれかが含まれていた場合、
処理はステップS205に進み、BMLエンジン207
は、切り出しドライバ210に、ズーム用画像C2を切
り出すように指令する。切り出しドライバ210は、BM
Lエンジン207からの指令に従い、ズーム用画像C2
を切り出して、テレビジョン受像機14に供給する。テ
レビジョン受像機14は、供給されたズーム用画像C2
を、ディスプレイに表示させる。その後、処理はステッ
プS213に進む。
As shown in FIG. 18, the display area d and the display area f are areas corresponding to the same image, and the display area d and the display area f are included in 80% of the display area instructed to be enlarged. If it is included,
The process proceeds to step S205, and BML engine 207
Instructs the cutout driver 210 to cut out the zoom image C2. The cutting driver 210 is a BM
Image C2 for zooming according to the command from the L engine 207
Is cut out and supplied to the television receiver 14. The television receiver 14 displays the supplied zoom image C2.
Is displayed on the display. Then, a process progresses to step S213.

【0130】ステップS204において、BMLエンジン
207が、拡大が指示された表示エリアの80%に、表
示エリアdまたは表示エリアfは含まれていないと判定
した場合、処理はステップS206に進む。
When the BML engine 207 determines in step S204 that 80% of the display area instructed to be enlarged does not include the display area d or the display area f, the process proceeds to step S206.

【0131】ステップS206において、BMLエンジン
207は、拡大が指示された表示エリアの80%に、表
示エリアgが含まれるか否かを判定する。
In step S206, the BML engine 207 determines whether the display area g is included in 80% of the display area instructed to be enlarged.

【0132】拡大が指示された表示エリアの80%に表
示エリアgが含まれていた場合、処理はステップS20
7に進み、BMLエンジン207は、切り出しドライバ2
10に、ズーム用画像C3を切り出すように指令する。
切り出しドライバ210は、BMLエンジン207からの
指令に従い、ズーム用画像C3を切り出して、テレビジ
ョン受像機14に供給する。テレビジョン受像機14
は、供給されたズーム用画像C3を、ディスプレイに表
示させる。その後、処理はステップS213に進む。
If the display area g is included in 80% of the display area instructed to be enlarged, the process proceeds to step S20.
7, the BML engine 207 determines the cutout driver 2
10 is instructed to cut out the zoom image C3.
The cut-out driver 210 cuts out the zoom image C3 according to a command from the BML engine 207 and supplies the zoom image C3 to the television receiver 14. Television receiver 14
Displays the supplied zoom image C3 on the display. Then, a process progresses to step S213.

【0133】ステップS206において、BMLエンジン
207が、拡大が指示された表示エリアの80%に、表
示エリアgは含まれていないと判定した場合、処理はス
テップS208に進む。
If the BML engine 207 determines in step S206 that the display area g is not included in 80% of the display area instructed to be enlarged, the process proceeds to step S208.

【0134】ステップS208において、BMLエンジン
207は、拡大が指示された表示エリアの80%に、表
示エリアaまたは表示エリアhが含まれるか否かを判定
する。
In step S208, the BML engine 207 determines whether 80% of the display area instructed to be enlarged includes the display area a or the display area h.

【0135】図18に示されるように、表示エリアaお
よび表示エリアhは、同一の画像に対応するエリアであ
り、拡大が指示された表示エリアの80%に表示エリア
aおよび表示エリアhのいずれかが含まれていた場合、
処理はステップS209に進み、BMLエンジン207
は、切り出しドライバ210に、ズーム用画像C4を切
り出すように指令する。切り出しドライバ210は、BM
Lエンジン207からの指令に従い、ズーム用画像C4
を切り出して、テレビジョン受像機14に供給する。テ
レビジョン受像機14は、供給されたズーム用画像C4
を、ディスプレイに表示させる。その後、処理はステッ
プS213に進む。
As shown in FIG. 18, the display area a and the display area h are areas corresponding to the same image, and the display area a and the display area h are included in 80% of the display area instructed to be enlarged. If it is included,
The process proceeds to step S209, and BML engine 207
Instructs the cutout driver 210 to cut out the zoom image C4. The cutting driver 210 is a BM
Image C4 for zooming according to the command from the L engine 207
Is cut out and supplied to the television receiver 14. The television receiver 14 displays the supplied zoom image C4.
Is displayed on the display. Then, a process progresses to step S213.

【0136】ステップS208において、BMLエンジン
207が、拡大が指示された表示エリアの80%に、表
示エリアaまたは表示エリアhは含まれていないと判定
した場合、処理はステップS210に進む。
If the BML engine 207 determines in step S208 that 80% of the display area instructed to be expanded does not include the display area a or the display area h, the process proceeds to step S210.

【0137】ステップS210において、BMLエンジン
207は、拡大が指示された表示エリアの80%に、表
示エリアbまたは表示エリアiが含まれるか否かを判定
する。
In step S210, the BML engine 207 determines whether 80% of the display area instructed to be enlarged includes the display area b or the display area i.

【0138】図18に示されるように、表示エリアbお
よび表示エリアiは、同一の画像に対応するエリアであ
り、拡大が指示された表示エリアの80%に表示エリア
bおよび表示エリアiのいずれかが含まれていた場合、
処理はステップS211に進み、BMLエンジン207
は、切り出しドライバ210に、ズーム用画像C5を切
り出すように指令する。切り出しドライバ210は、BM
Lエンジン207からの指令に従い、ズーム用画像C5
を切り出して、テレビジョン受像機14に供給する。テ
レビジョン受像機14は、供給されたズーム用画像C5
を、ディスプレイに表示させる。その後、処理はステッ
プS213に進む。
As shown in FIG. 18, the display area b and the display area i are areas corresponding to the same image, and the display area b and the display area i are included in 80% of the display area instructed to be enlarged. If it is included,
The process proceeds to step S211, and the BML engine 207
Instructs the cutout driver 210 to cut out the zoom image C5. The cutting driver 210 is a BM
Image C5 for zooming according to the command from the L engine 207
Is cut out and supplied to the television receiver 14. The television receiver 14 displays the supplied zoom image C5.
Is displayed on the display. Then, a process progresses to step S213.

【0139】ステップS210において、BMLエンジン
207が、拡大が指示された表示エリアの80%に、表
示エリアbまたは表示エリアiは含まれていないと判定
した場合、処理はステップS212に進む。
In step S210, if the BML engine 207 determines that 80% of the display area instructed to be enlarged does not include the display area b or the display area i, the process proceeds to step S212.

【0140】ステップS212において、BMLエンジン
207は、全方位映像251の中から、拡大が指示され
たエリアを切り出して、表示させるように、切り出しド
ライバ210に指令する。切り出しドライバ210は、
BMLエンジン207からの指令に従って、全方位映像2
51の中の、拡大が指示されたエリアの画像を切り出し
て、テレビジョン受像機14に供給する。テレビジョン
受像機14は、供給された画像を、ディスプレイに表示
させる。その後、処理はステップS213に進む。
In step S212, the BML engine 207 instructs the cut-out driver 210 to cut out and display the area instructed to be enlarged from the omnidirectional image 251. The cutout driver 210 is
Omnidirectional image 2 according to the command from BML engine 207
The image of the area instructed to be enlarged in 51 is cut out and supplied to the television receiver 14. The television receiver 14 displays the supplied image on the display. Then, a process progresses to step S213.

【0141】ステップS213において、制御部201
は、赤外線受信部203より入力される信号に、表示領
域72の変更の指令が含まれていた場合、これをBMLエ
ンジン207に通知する。BMLエンジン207は、制御
部201より供給される通知に基づいて、リモートコマ
ンダ221より、テレビジョン受像機14のディスプレ
イに表示させる表示領域72を移動する指示が入力され
たか否かを判定し、テレビジョン受像機14のディスプ
レイに表示させる表示領域72を移動する指示が入力さ
れたと判定した場合、ステップS202に戻って、上述
したステップS202以降の処理を繰り返す。ステップ
S213において、BMLエンジン207が、リモートコ
マンダ221より、テレビジョン受像機14のディスプ
レイに表示させる表示領域72を移動する指示は入力さ
れていない判定した場合、処理はステップS214に進
む。
In step S213, the control unit 201
If the signal input from the infrared receiver 203 includes a command to change the display area 72, the BML engine 207 is notified of this. The BML engine 207 determines whether or not an instruction to move the display area 72 to be displayed on the display of the television receiver 14 has been input from the remote commander 221 based on the notification supplied from the control unit 201. When it is determined that the instruction to move the display area 72 to be displayed on the display of the John receiver 14 is input, the process returns to step S202, and the processes of step S202 and subsequent steps described above are repeated. If the BML engine 207 determines in step S213 that the remote commander 221 has not input an instruction to move the display area 72 to be displayed on the display of the television receiver 14, the process proceeds to step S214.

【0142】ステップS214において、BMLエンジン
207は、リモートコマンダ221より、テレビジョン
受像機14のディスプレイに表示させる表示領域72の
拡大が解除されたか否かを判定し、拡大指令が解除され
た場合、処理はステップS201に戻り、ステップS2
01以降の処理が繰り返される。ステップS214にお
いて、BMLエンジン207が、拡大指令が解除されてい
ないと判定した場合、処理はステップS213に戻り、
ステップS213以降の処理が繰り返される。
In step S214, the BML engine 207 determines from the remote commander 221 whether or not the enlargement of the display area 72 to be displayed on the display of the television receiver 14 has been canceled. If the enlargement command has been canceled, The process returns to step S201, and step S2
The processing from 01 onward is repeated. When the BML engine 207 determines in step S214 that the enlargement command has not been released, the processing returns to step S213,
The processing from step S213 onward is repeated.

【0143】以上のようにして、受信装置13のズーム
処理が実行される。
The zoom process of the receiving device 13 is executed as described above.

【0144】なお、図21を参照して上述した説明にお
いては、拡大が指示された表示エリアの80%に、表示
エリアa乃至iのいずれかが含まれているか否かを判定
するようにしているが、判定の基準は、80%に限定さ
れるものではない。判定の基準は、受信装置13の製造
者が、任意の値に設定することが可能である。この設定
は、ユーザ15が、任意で行えるようにしても良い。
In the above description with reference to FIG. 21, it is determined whether 80% of the display area instructed to be enlarged includes any of the display areas a to i. However, the criterion for judgment is not limited to 80%. The criterion of determination can be set to an arbitrary value by the manufacturer of the receiving device 13. The user 15 may optionally make this setting.

【0145】以上のようにすることにより、拡大が指示
された表示エリアに対応するズーム用画像252が存在
する場合、全方位映像251からズーム用画像252
に、表示を切り替えることにより、より高解像度の画像
を、表示させることが可能となる。
As described above, when the zoom image 252 corresponding to the display area instructed to be enlarged exists, the omnidirectional image 251 to the zoom image 252 are displayed.
Further, by switching the display, it becomes possible to display a higher resolution image.

【0146】特に、図18にも示されるように、人の顔
などのように、拡大の指示を受けやすいポイントに対応
するズーム用画像252を用意しておくことにより、高
い割合で、ユーザ15が拡大指示をしたポイントに対応
するズーム用画像252を、表示させることが可能とな
る。従って、ユーザ15は、より高い割合で、より鮮明
な画像を視聴することが可能となる。
In particular, as shown in FIG. 18, by preparing a zoom image 252 corresponding to a point such as a person's face where it is easy to receive an instruction for enlargement, a high rate of user 15 can be obtained. It becomes possible to display the zoom image 252 corresponding to the point for which the enlargement instruction is given. Therefore, the user 15 can view a clearer image at a higher rate.

【0147】なお、以上の説明においては、全方位映像
を例にして説明したが、このことは、本発明が、全方位
映像に限定されることを意味するものではない。例え
ば、全方位映像ではない従来の映像の中の、1以上の範
囲に対応するズーム用画像を予め用意しておき、ユーザ
により、所望する範囲の拡大の指示が入力された場合
に、その範囲に対応するズーム用画像を表示させるよう
にしても良い。
In the above description, the omnidirectional image is taken as an example, but this does not mean that the present invention is limited to the omnidirectional image. For example, if a zoom image corresponding to one or more ranges in a conventional image that is not an omnidirectional image is prepared in advance and the user inputs an instruction to enlarge the desired range, the range is expanded. The zoom image corresponding to may be displayed.

【0148】また、以上の説明においては、受信装置1
3とテレビジョン受像機14を異なる機器として説明し
たが、受信装置13とテレビジョン受像機14を一体的
に構成することも勿論可能である。
In the above description, the receiving device 1
3 and the television receiver 14 have been described as different devices, but the receiver 13 and the television receiver 14 can of course be integrally configured.

【0149】また、以上の説明においては、放送装置3
3により実行される処理の一部をコンピュータ122に
実行させるものとして説明したが、放送装置33全体の
処理をコンピュータ122に実行させるようにすること
も勿論可能である。
Further, in the above description, the broadcasting device 3
Although it has been described that the computer 122 executes a part of the processing executed by the computer 3, the computer 122 may of course execute the entire processing of the broadcasting device 33.

【0150】また、以上の説明においては、人工衛星1
2を介した放送を例にして説明したが、配信方法は、衛
星放送以外の任意の方法にすることが可能である。例え
ば、地上波放送、ケーブルテレビ放送、インターネット
などのネットワークを利用して、配信するようにしても
良い。また、映像データを、例えばDVDなどの記録メ
ディアに記録して、販売、配布するようにしても良い。
Also, in the above description, the artificial satellite 1
Although the description has been made by taking the broadcasting via 2 as an example, the distribution method can be any method other than the satellite broadcasting. For example, the distribution may be performed using a network such as terrestrial broadcasting, cable television broadcasting, or the Internet. Further, the video data may be recorded in a recording medium such as a DVD and sold or distributed.

【0151】上述した一連の処理は、ハードウェアによ
り実行させることもできるが、ソフトウェアにより実行
させることもできる。一連の処理をソフトウェアにより
実行させる場合には、そのソフトウェアを構成するプロ
グラムが、専用のハードウェアに組み込まれているコン
ピュータ(例えばCPU151)、または、各種のプログ
ラムをインストールすることで、各種の機能を実行する
ことが可能な、例えば、汎用のパーソナルコンピュータ
などに、プログラム格納媒体からインストールされる。
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processes is executed by software, a program (for example, CPU 151) in which a program configuring the software is installed in dedicated hardware or various programs are installed to perform various functions. It is installed from a program storage medium into a general-purpose personal computer or the like that can be executed.

【0152】コンピュータにインストールされ、コンピ
ュータによって実行可能な状態とされるプログラムを格
納するプログラム格納媒体は、例えば、磁気ディスク1
81(フレキシブルディスクを含む)、光ディスク18
2(CD-ROM(Compact Disk-Read Only Memory),DVDを
含む)、光磁気ディスク183、もしくは半導体メモリ
184などよりなるパッケージメディアなどにより構成
される。プログラム格納媒体へのプログラム格納媒体へ
のプログラムの格納は、必要に応じてルータ、モデムな
どのインターフェースを介して、ローカルエリアネット
ワーク、インターネット、デジタル衛星放送といった有
線または無線の通信媒体を利用して行われる。
A program storage medium for storing a program installed in a computer and made executable by the computer is, for example, the magnetic disk 1.
81 (including flexible disk), optical disk 18
2 (including CD-ROM (Compact Disk-Read Only Memory) and DVD), a magneto-optical disk 183, a package medium including a semiconductor memory 184, and the like. Storing the program in the program storage medium stores the program in a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via an interface such as a router or a modem as necessary. Be seen.

【0153】また、本明細書において、媒体により提供
されるプログラムを記述するステップは、記載された順
序に従って、時系列的に行われる処理は勿論、必ずしも
時系列的に処理されなくとも、並列的あるいは個別に実
行される処理をも含むものである。
Further, in the present specification, the steps for writing the program provided by the medium may be performed in parallel in the order described, not necessarily in the time series. Alternatively, it also includes processes that are individually executed.

【0154】なお、本明細書において、システムとは、
複数の装置により構成される装置全体を表すものであ
る。
In the present specification, the system means
It represents the entire apparatus composed of a plurality of devices.

【0155】[0155]

【発明の効果】以上のごとく、本発明によれば、映像を
拡大表示させることが可能となる。
As described above, according to the present invention, it is possible to enlarge and display an image.

【0156】また、本発明によれば、映像を拡大表示す
る際に、より高解像度の映像を表示させることが可能に
なる。
Further, according to the present invention, it is possible to display a higher resolution video when the video is enlarged and displayed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を適用したサービス提供システムの一実
施の形態の構成を示す図である。
FIG. 1 is a diagram showing a configuration of an embodiment of a service providing system to which the present invention is applied.

【図2】全方位カメラおよびその他のカメラの配置の例
を示す図である。
FIG. 2 is a diagram showing an example of arrangement of omnidirectional cameras and other cameras.

【図3】全方位カメラの外観の構成を示す図である。FIG. 3 is a diagram showing an external configuration of an omnidirectional camera.

【図4】全方位映像の表示例を説明する図である。FIG. 4 is a diagram illustrating a display example of an omnidirectional image.

【図5】全方位カメラ、カメラ、および放送装置の構成
例を示すブロック図である。
FIG. 5 is a block diagram showing a configuration example of an omnidirectional camera, a camera, and a broadcasting device.

【図6】コンピュータの構成例を示すブロック図であ
る。
FIG. 6 is a block diagram illustrating a configuration example of a computer.

【図7】受信装置の構成例を示すブロック図である。FIG. 7 is a block diagram illustrating a configuration example of a receiving device.

【図8】放送装置の放送処理を説明するフローチャート
である。
FIG. 8 is a flowchart illustrating a broadcast process of a broadcast device.

【図9】図8のステップS11の処理を詳細に説明する
フローチャートである。
9 is a flowchart illustrating in detail the process of step S11 of FIG.

【図10】コンピュータの画像処理を説明する図であ
る。
FIG. 10 is a diagram illustrating image processing of a computer.

【図11】全方位映像の画像処理を説明する図である。FIG. 11 is a diagram illustrating image processing of an omnidirectional image.

【図12】全方位映像の画像処理を説明する他の図であ
る。
FIG. 12 is another diagram illustrating image processing of an omnidirectional image.

【図13】図8のステップS12を詳細に説明するフロ
ーチャートである。
FIG. 13 is a flowchart illustrating in detail step S12 of FIG.

【図14】図8のステップS12を詳細に説明する図1
3に続くフローチャートである。
FIG. 14 is a diagram for explaining step S12 in FIG. 8 in detail.
It is a flowchart following 3.

【図15】図14のステップS71を詳細に説明するフ
ローチャートである。
FIG. 15 is a flowchart illustrating in detail step S71 of FIG.

【図16】コンピュータのディスプレイに表示される画
面の例を示す図である。
FIG. 16 is a diagram showing an example of a screen displayed on a display of a computer.

【図17】座標対応テーブルのフォーマットを説明する
図である。
FIG. 17 is a diagram illustrating a format of a coordinate correspondence table.

【図18】全方位映像とズーム用画像の対応を説明する
図である。
FIG. 18 is a diagram illustrating correspondence between an omnidirectional video image and a zoom image.

【図19】放送装置から放送される配信用映像フレーム
の例を示す図である。
FIG. 19 is a diagram showing an example of a distribution video frame broadcast from a broadcasting device.

【図20】受信装置の表示制御処理を説明するフローチ
ャートである。
FIG. 20 is a flowchart illustrating a display control process of the receiving device.

【図21】受信装置のズーム処理を説明するフローチャ
ートである。
FIG. 21 is a flowchart illustrating zoom processing of the reception device.

【符号の説明】[Explanation of symbols]

11 放送局, 12 人工衛星, 13 受信装置,
14 テレビジョン受像機, 31 全方位カメラ,
32 カメラ, 33 放送装置, 51カメラ,
52 反射部, 71 全方位映像, 72 表示領
域, 101マイクロフォン, 102 VTR, 12
1 切換器, 122 コンピュータ, 123 MPEG
エンコーダ, 124 PSI入力装置, 125 BML入
力装置, 126 マルチプレクサ, 127 送信
部, 151 CPU, 201制御部, 202 操作
部, 203 赤外線受信部, 204 受信部, 2
05 フレームバッファ, 206 デマルチプレク
サ, 207 BMLエンジン, 208 MPEGでコー
ダ, 209 フレームバッファ, 210 切り出し
ドライバ, 221 リモートコマンダ
11 broadcasting stations, 12 artificial satellites, 13 receivers,
14 television receiver, 31 omnidirectional camera,
32 cameras, 33 broadcasting equipment, 51 cameras,
52 reflector, 71 omnidirectional image, 72 display area, 101 microphone, 102 VTR, 12
1 switching device, 122 computer, 123 MPEG
Encoder, 124 PSI input device, 125 BML input device, 126 multiplexer, 127 transmission unit, 151 CPU, 201 control unit, 202 operation unit, 203 infrared reception unit, 204 reception unit, 2
05 frame buffer, 206 demultiplexer, 207 BML engine, 208 MPEG coder, 209 frame buffer, 210 clip driver, 221 remote commander

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 映像を放送する放送装置、および前記放
送を受信する受信装置から構成されるサービス提供シス
テムにおいて、 前記放送装置は、 第1の撮影装置により撮影された第1の画像、および前記
第1の撮影装置の撮影範囲の一部分を拡大して撮影する
第2の撮影装置により撮影された第2の画像を取得する
取得手段と、 前記取得手段により取得された前記第1の画像に対する
前記第2の画像の位置を示す位置情報を作成する作成手
段と、 前記作成手段により作成された前記位置情報を、前記第
1の画像および前記第2の画像とともに放送する放送手
段とを備え、 前記受信装置は、 前記放送装置より、放送を受信する受信手段と、 前記受信手段により受信された前記放送に含まれる前記
第1の画像を表示する表示手段と、 前記表示手段により表示されている前記第1の画像の一
部を拡大表示する指示の入力を受け付ける受付手段と、 前記受付手段により、前記第1の画像の一部を拡大表示
する指示の入力が受け付けられた場合、前記拡大表示す
る指示の入力が受け付けられた範囲に対応する前記第2
の画像が、前記放送に含まれているか否かを、前記位置
情報に基づいて判定する判定手段と、 前記判定手段により、前記拡大表示する指示の入力が受
け付けられた前記範囲に対応する前記第2の画像が、前
記放送に含まれていると判定された場合、前記表示手段
に前記第2の画像を表示させる制御手段とを備えること
を特徴とするサービス提供システム。
1. A service providing system comprising a broadcasting device for broadcasting a video and a receiving device for receiving the broadcasting, wherein the broadcasting device comprises a first image taken by a first imaging device, and An acquisition unit for acquiring a second image captured by the second image capturing apparatus for enlarging and capturing a portion of the image capturing range of the first image capturing apparatus; and the acquisition unit for acquiring the second image for the first image. And a broadcasting unit configured to broadcast position information indicating the position of the second image, and the position information generated by the creating unit together with the first image and the second image. A receiving device for receiving a broadcast from the broadcasting device; a displaying device for displaying the first image included in the broadcasting received by the receiving device; and a displaying device. And a reception unit that receives an input of an instruction to enlarge and display a part of the first image that is being displayed, and an input of an instruction to enlarge and display a portion of the first image by the reception unit. In the case of the second area corresponding to the range in which the input of the instruction to enlarge the display is accepted.
Of the image is included in the broadcast based on the position information, the determining unit, the determining unit, the first corresponding to the range in which the input of the instruction to enlarge the display is accepted. A service providing system comprising: a control unit that causes the display unit to display the second image when it is determined that the second image is included in the broadcast.
【請求項2】 第1の撮影装置により撮影された第1の画
像、および前記第1の撮影装置の撮影範囲の一部分を拡
大して撮影する第2の撮影装置により撮影された第2の
画像を取得する取得手段と、 前記取得手段により取得された前記第1の画像に対する
前記第2の画像の位置を示す位置情報を作成する作成手
段と、 前記作成手段により作成された前記位置情報を、前記第
1の画像および前記第2の画像とともに放送する放送手
段とを備えることを特徴とする放送装置。
2. A first image photographed by a first photographing device, and a second image photographed by a second photographing device for enlarging and photographing a part of a photographing range of the first photographing device. An acquisition unit that acquires position information, a creation unit that creates position information indicating a position of the second image with respect to the first image acquired by the acquisition unit, and the position information created by the creation unit, A broadcasting device comprising: a broadcasting unit that broadcasts together with the first image and the second image.
【請求項3】 前記第1の撮影装置は全方位カメラであ
り、前記第1の画像は全方位映像であることを特徴とす
る請求項2に記載の放送装置。
3. The broadcasting apparatus according to claim 2, wherein the first image capturing device is an omnidirectional camera, and the first image is an omnidirectional video image.
【請求項4】 前記放送手段は、前記第1の画像、前記
第2の画像、および前記位置情報とともに、前記第1の
画像が前記全方位映像であることを示す情報を放送する
ことを特徴とする請求項3に記載の放送装置。
4. The broadcasting means broadcasts information indicating that the first image is the omnidirectional video together with the first image, the second image, and the position information. The broadcasting device according to claim 3.
【請求項5】 前記作成手段は、 前記第1の画像に対応する前記第2の画像の位置を指定
する操作の入力を受け付ける受付手段と、 前記受付手段により入力が受け付けられた前記操作に基
づいて前記第2の画像の、前記第1の画像に対応する座
標を演算する演算手段とを備え、 前記演算手段により演算された前記座標を含む所定のフ
ォーマットの前記位置情報を作成することを特徴とする
請求項2に記載の放送装置。
5. The creating means is based on an accepting means for accepting an input of an operation for designating a position of the second image corresponding to the first image, and based on the operation accepted by the accepting means. Calculating means for calculating coordinates of the second image corresponding to the first image, and creating the position information in a predetermined format including the coordinates calculated by the calculating means. The broadcasting device according to claim 2.
【請求項6】 前記取得手段は、前記第1の画像の一部
を拡大して撮影する複数の前記第2の撮影装置により撮
影された複数の前記第2の画像を取得することを特徴と
する請求項2に記載の放送装置。
6. The acquisition means acquires a plurality of the second images photographed by a plurality of the second photographing devices that magnify and photograph a part of the first image. The broadcasting device according to claim 2.
【請求項7】 前記作成手段は、複数の前記第2の画像
の、前記第1の画像に対する位置関係を含む前記位置情
報を作成することを特徴とする請求項6に記載の放送装
置。
7. The broadcasting apparatus according to claim 6, wherein the creating unit creates the position information including a positional relationship of the plurality of second images with respect to the first image.
【請求項8】 第1の撮影装置により撮影された第1の画
像、および前記第1の撮影装置の撮影範囲の一部分を拡
大して撮影する第2の撮影装置により撮影された第2の
画像を取得する取得ステップと、 前記取得ステップの処理により取得された前記第1の画
像に対する前記第2の画像の位置を示す位置情報を作成
する作成ステップと、 前記作成ステップの処理により作成された前記位置情報
を、前記第1の画像および前記第2の画像とともに放送
する放送ステップとを含むことを特徴とする放送方法。
8. A first image photographed by a first photographing device and a second image photographed by a second photographing device for enlarging and photographing a part of a photographing range of the first photographing device. An acquisition step of acquiring a position information indicating a position of the second image with respect to the first image acquired by the processing of the acquisition step; A broadcast step of broadcasting position information together with the first image and the second image.
【請求項9】 第1の撮影装置により撮影された第1の画
像、および前記第1の撮影装置の撮影範囲の一部分を拡
大して撮影する第2の撮影装置により撮影された第2の
画像を取得する取得ステップと、 前記取得ステップの処理により取得された前記第1の画
像に対する前記第2の画像の位置を示す位置情報を作成
する作成ステップと、 前記作成ステップの処理により作成された前記位置情報
を、前記第1の画像および前記第2の画像とともに放送
する放送ステップとを含むことを特徴とするコンピュー
タが読み取り可能なプログラムが記録されている記録媒
体。
9. A first image photographed by a first photographing device, and a second image photographed by a second photographing device which magnifies and photographs a part of the photographing range of the first photographing device. An acquisition step of acquiring a position information indicating a position of the second image with respect to the first image acquired by the processing of the acquisition step; A recording medium having a computer-readable program recorded thereon, which comprises a step of broadcasting position information together with the first image and the second image.
【請求項10】 第1の撮影装置により撮影された第1の
画像、および前記第1の撮影装置の撮影範囲の一部分を
拡大して撮影する第2の撮影装置により撮影された第2
の画像を取得する取得ステップと、 前記取得ステップの処理により取得された前記第1の画
像に対する前記第2の画像の位置を示す位置情報を作成
する作成ステップと、 前記作成ステップの処理により作成された前記位置情報
を、前記第1の画像および前記第2の画像とともに放送
する放送ステップとをコンピュータに実行させるプログ
ラム。
10. A first image photographed by a first photographing device, and a second image photographed by a second photographing device for enlarging and photographing a part of a photographing range of the first photographing device.
An acquisition step of acquiring the image of the image, a creation step of creating position information indicating the position of the second image with respect to the first image acquired by the processing of the acquisition step, and a creation step of the processing of the creation step. And a broadcast step of broadcasting the position information together with the first image and the second image.
【請求項11】 第1の画像、前記第1の画像の一部を
拡大した画像である第2の画像、および前記第1の画像
に対する前記第2の画像の位置を示す位置情報が含まれ
る放送を受信する受信手段と、 前記受信手段により受信された前記放送に含まれる前記
第1の画像を表示する表示手段と、 前記表示手段により表示されている前記第1の画像の一
部を拡大表示する指示の入力を受け付ける第1の受付手
段と、 前記第1の受付手段により、前記第1の画像の一部を拡
大表示する指示の入力が受け付けられた場合、前記拡大
表示する指示の入力が受け付けられた範囲に対応する前
記第2の画像が、前記放送に含まれているか否かを、前
記位置情報に基づいて判定する第1の判定手段と、 前記第1の判定手段により、前記拡大表示する指示の入
力が受け付けられた前記範囲に対応する前記第2の画像
が、前記放送に含まれていると判定された場合、前記表
示手段に前記第2の画像を表示させるように制御する制
御手段とを備えることを特徴とする受信装置。
11. A first image, a second image which is an enlarged image of a part of the first image, and position information indicating a position of the second image with respect to the first image are included. Receiving means for receiving the broadcast, display means for displaying the first image included in the broadcast received by the receiving means, and a part of the first image displayed by the display means First accepting means for accepting an input of an instruction to be displayed; and, if the first accepting means accepts an instruction of an enlarged display of a part of the first image, an input of the instruction of an enlarged display. Is determined by the first determining means and the first determining means to determine whether or not the second image corresponding to the received range is included in the broadcast. Input of enlarged display instruction And a control unit that controls the display unit to display the second image when it is determined that the second image corresponding to the received range is included in the broadcast. A receiver characterized by.
【請求項12】 前記第1の画像は、全方位映像である
ことを特徴とする請求項11に記載の受信装置。
12. The receiving device according to claim 11, wherein the first image is an omnidirectional image.
【請求項13】 前記放送は、前記第1の画像は、全方
位映像であることを示す情報を含み、 前記全方位映像であることを示す情報の有無に従って、
前記第1の画像が前記全方位映像であるか否かを判定す
る第2の判定手段をさらに備えることを特徴とする請求
項12に記載の受信装置。
13. The broadcast includes information indicating that the first image is an omnidirectional video, and whether or not there is information indicating that the first image is the omnidirectional video,
The receiving device according to claim 12, further comprising a second determining unit that determines whether or not the first image is the omnidirectional image.
【請求項14】 前記制御手段は、前記第2の判定手段
により、前記第1の画像が前記全方位映像であると判定
された場合、前記表示手段に、前記全方位映像の一部を
表示させることを特徴とする請求項13に記載の受信装
置。
14. The control unit displays a part of the omnidirectional image on the display unit when the second determining unit determines that the first image is the omnidirectional image. The receiving device according to claim 13, wherein the receiving device is configured to:
【請求項15】 前記表示手段に表示させる前記全方位
映像の範囲を移動させる指示の入力を受け付ける第2の
受付手段をさらに備え、 前記制御手段は、前記第2の受付手段により入力が受け
付けられた前記指示に従って、前記表示手段に表示させ
る前記全方位映像の範囲を移動させることを特徴とする
請求項14に記載の受信装置。
15. The apparatus further comprises second receiving means for receiving an input of an instruction to move the range of the omnidirectional image displayed on the display means, wherein the control means receives the input by the second receiving means. 15. The receiving apparatus according to claim 14, wherein the range of the omnidirectional image displayed on the display unit is moved according to the instruction.
【請求項16】 前記第1の判定手段は、前記第1の画
像のうち、前記拡大表示する指示の入力が受け付けられ
た前記範囲が、前記第2の画像のうちの、予め設定され
た所定の割合の範囲を含んでいる場合、前記拡大表示す
る指示の入力が受け付けられた範囲に対応する前記第2
の画像が、前記放送に含まれていると判定することを特
徴とする請求項11に記載の受信装置。
16. The first determination means is configured such that, in the first image, the range in which the input of the instruction to enlarge the display is accepted is a preset predetermined value in the second image. If the range of the ratio is included, the second number corresponding to the range in which the input of the instruction to enlarge the display is accepted.
The receiving device according to claim 11, wherein the image is determined to be included in the broadcast.
【請求項17】 前記受信手段が受信する前記放送は、
複数の前記第2の画像を含むことを特徴とする請求項1
1に記載の受信装置。
17. The broadcast received by the receiving means is
2. A plurality of said second images are included.
1. The receiving device according to 1.
【請求項18】 前記第1の判定手段により、前記拡大
表示する指示の入力が受け付けられた前記範囲に対応す
る前記第2の画像が、前記放送には含まれていないと判
定された場合、前記制御手段は、前記表示手段に前記第
1の画像のうちの一部を拡大表示させるように制御する
ことを特徴とする請求項11に記載の受信装置
18. When the first determination unit determines that the second image corresponding to the range in which the input of the instruction to enlarge the display is accepted is not included in the broadcast, The receiving device according to claim 11, wherein the control unit controls the display unit to display a part of the first image in an enlarged manner.
【請求項19】 第1の画像、前記第1の画像の一部を
拡大した画像である第2の画像、および前記第1の画像
に対する前記第2の画像の位置を示す位置情報が含まれ
る放送を受信する受信ステップと、 前記受信ステップの処理により受信された前記放送に含
まれる前記第1の画像を表示する表示ステップと、 前記表示ステップの処理により表示されている前記第1
の画像の一部を拡大表示する指示の入力を受け付ける受
付ステップと、 前記受付ステップの処理により、前記第1の画像の一部
を拡大表示する指示の入力が受け付けられた場合、前記
拡大表示する指示の入力が受け付けられた範囲に対応す
る前記第2の画像が、前記放送に含まれているか否か
を、前記位置情報に基づいて判定する判定ステップと、 前記判定ステップの処理により、前記拡大表示する指示
の入力が受け付けられた前記範囲に対応する前記第2の
画像が、前記放送に含まれていると判定された場合、前
記第2の画像を表示させるように制御する制御ステップ
とを含むことを特徴とする受信方法。
19. A first image, a second image which is an enlarged image of a part of the first image, and position information indicating a position of the second image with respect to the first image are included. A reception step of receiving a broadcast; a display step of displaying the first image included in the broadcast received by the processing of the reception step; and a first step displayed by the processing of the display step.
A receiving step of receiving an input of an instruction to enlarge and display a part of the image, and the processing of the receiving step causes the enlarged display when an input of an instruction to display a portion of the first image is received. A determination step of determining whether or not the second image corresponding to the range in which the input of the instruction is accepted is included in the broadcast based on the position information; When it is determined that the second image corresponding to the range in which the input of the instruction to display is accepted is included in the broadcast, a control step of controlling the second image to be displayed. Receiving method characterized by including.
【請求項20】 第1の画像、前記第1の画像の一部を
拡大した画像である第2の画像、および前記第1の画像
に対する前記第2の画像の位置を示す位置情報が含まれ
る放送の受信を制御する受信制御ステップと、 前記受信制御ステップの処理により受信が制御された前
記放送に含まれる前記第1の画像の表示を制御する第1
の表示制御ステップと、 前記第1の表示制御ステップの処理により表示が制御さ
れている前記第1の画像の一部を拡大表示する指示の入
力を受け付ける受付ステップと、 前記受付ステップの処理により、前記第1の画像の一部
を拡大表示する指示の入力が受け付けられた場合、前記
拡大表示する指示の入力が受け付けられた範囲に対応す
る前記第2の画像が、前記放送に含まれているか否か
を、前記位置情報に基づいて判定する判定ステップと、 前記判定ステップの処理により、前記拡大表示する指示
の入力が受け付けられた前記範囲に対応する前記第2の
画像が、前記放送に含まれていると判定された場合、前
記第2の画像を表示させるように制御する第2の表示制
御ステップとを含むことを特徴とするコンピュータが読
み取り可能なプログラムが記録されている記録媒体。
20. A first image, a second image which is an enlarged image of a part of the first image, and position information indicating a position of the second image with respect to the first image are included. A reception control step of controlling reception of a broadcast, and a first control of displaying the first image included in the broadcast whose reception is controlled by the processing of the reception control step.
A display control step, a reception step of receiving an input of an instruction to enlarge and display a part of the first image whose display is controlled by the processing of the first display control step, and the processing of the reception step, When the input of the instruction to enlarge and display a part of the first image is accepted, whether the second image corresponding to the range in which the input of the instruction to enlarge and receive is accepted is included in the broadcast. The determination step of determining whether or not the position information is based on the position information, and the processing of the determination step includes the second image corresponding to the range in which the input of the instruction to enlarge the display is accepted, A second display control step of controlling the second image to be displayed when it is determined that the computer-readable process is performed. Recording medium grams is recorded.
【請求項21】 第1の画像、前記第1の画像の一部を
拡大した画像である第2の画像、および前記第1の画像
に対する前記第2の画像の位置を示す位置情報が含まれ
る放送の受信を制御する受信制御ステップと、 前記受信制御ステップの処理により受信が制御された前
記放送に含まれる前記第1の画像の表示を制御する第1
の表示制御ステップと、 前記第1の表示制御ステップの処理により表示が制御さ
れている前記第1の画像の一部を拡大表示する指示の入
力を受け付ける受付ステップと、 前記受付ステップの処理により、前記第1の画像の一部
を拡大表示する指示の入力が受け付けられた場合、前記
拡大表示する指示の入力が受け付けられた範囲に対応す
る前記第2の画像が、前記放送に含まれているか否か
を、前記位置情報に基づいて判定する判定ステップと、 前記判定ステップの処理により、前記拡大表示する指示
の入力が受け付けられた前記範囲に対応する前記第2の
画像が、前記放送に含まれていると判定された場合、前
記第2の画像を表示させるように制御する第2の表示制
御ステップとをコンピュータに実行させるプログラム。
21. A first image, a second image that is an enlarged image of a part of the first image, and position information indicating a position of the second image with respect to the first image are included. A reception control step of controlling reception of a broadcast, and a first control of displaying the first image included in the broadcast whose reception is controlled by the processing of the reception control step.
A display control step, a reception step of receiving an input of an instruction to enlarge and display a part of the first image whose display is controlled by the processing of the first display control step, and the processing of the reception step, When the input of the instruction to enlarge and display a part of the first image is accepted, whether the second image corresponding to the range in which the input of the instruction to enlarge and receive is accepted is included in the broadcast. The determination step of determining whether or not the position information is based on the position information, and the processing of the determination step includes the second image corresponding to the range in which the input of the instruction to enlarge the display is accepted, And a second display control step of controlling the second image to be displayed when it is determined that the second image is displayed.
JP2002120206A 2002-04-23 2002-04-23 Service providing system, broadcast apparatus and method, receiving apparatus and method, recording medium, and program Withdrawn JP2003319351A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002120206A JP2003319351A (en) 2002-04-23 2002-04-23 Service providing system, broadcast apparatus and method, receiving apparatus and method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002120206A JP2003319351A (en) 2002-04-23 2002-04-23 Service providing system, broadcast apparatus and method, receiving apparatus and method, recording medium, and program

Publications (1)

Publication Number Publication Date
JP2003319351A true JP2003319351A (en) 2003-11-07

Family

ID=29536493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002120206A Withdrawn JP2003319351A (en) 2002-04-23 2002-04-23 Service providing system, broadcast apparatus and method, receiving apparatus and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP2003319351A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008085524A (en) * 2006-09-27 2008-04-10 Olympus Imaging Corp Imaging apparatus
KR100941516B1 (en) * 2007-11-08 2010-02-10 주식회사 지니프릭스 Image display method and Image display system applying the method
KR101436231B1 (en) 2013-01-21 2014-08-29 이선구 An omnidirectional recording system without black image in display screen and the recording method.
KR101754700B1 (en) * 2016-05-17 2017-07-19 주식회사 카이 OTT service system and method for changing video mode based on 2D video and VR video
JP2017126868A (en) * 2016-01-13 2017-07-20 株式会社リコー Image display system, information processing device, image display method and image display program
WO2018117533A1 (en) * 2016-12-19 2018-06-28 Samsung Electronics Co., Ltd. Electronic device and method for controlling the same
JP2018142934A (en) * 2017-02-28 2018-09-13 株式会社ピクセラ Video distribution system
WO2020059327A1 (en) * 2018-09-18 2020-03-26 ソニー株式会社 Information processing device, information processing method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008085524A (en) * 2006-09-27 2008-04-10 Olympus Imaging Corp Imaging apparatus
JP4734207B2 (en) * 2006-09-27 2011-07-27 オリンパスイメージング株式会社 Imaging device
KR100941516B1 (en) * 2007-11-08 2010-02-10 주식회사 지니프릭스 Image display method and Image display system applying the method
KR101436231B1 (en) 2013-01-21 2014-08-29 이선구 An omnidirectional recording system without black image in display screen and the recording method.
JP2017126868A (en) * 2016-01-13 2017-07-20 株式会社リコー Image display system, information processing device, image display method and image display program
KR101754700B1 (en) * 2016-05-17 2017-07-19 주식회사 카이 OTT service system and method for changing video mode based on 2D video and VR video
WO2018117533A1 (en) * 2016-12-19 2018-06-28 Samsung Electronics Co., Ltd. Electronic device and method for controlling the same
JP2018142934A (en) * 2017-02-28 2018-09-13 株式会社ピクセラ Video distribution system
WO2020059327A1 (en) * 2018-09-18 2020-03-26 ソニー株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
US7145947B2 (en) Video data processing apparatus and method, data distributing apparatus and method, data receiving apparatus and method, storage medium, and computer program
JP4153146B2 (en) Image control method for camera array and camera array
US5703604A (en) Immersive dodecaherdral video viewing system
US6559846B1 (en) System and process for viewing panoramic video
US20110050963A1 (en) Image capturing apparatus and image encoding apparatus
WO2015174501A1 (en) 360-degree video-distributing system, 360-degree video distribution method, image-processing device, and communications terminal device, as well as control method therefor and control program therefor
Schreer et al. Ultrahigh-resolution panoramic imaging for format-agnostic video production
WO2013021656A1 (en) Playback device, playback method, integrated circuit, broadcasting system, and broadcasting method
JP2005500721A (en) VTV system
KR20130105637A (en) Content supplying device, content supplying method, content reproduction device, content reproduction method, program, and content viewing system
BG62114B1 (en) Method and system of building in of an image in a video flow
JP2006229768A (en) Video signal processing device, method therefor, and virtual reality creator
JP5555068B2 (en) Playback apparatus, control method thereof, and program
US8767067B2 (en) Broadcasting system, sending apparatus and sending method, receiving apparatus and receiving method, and program
JP2001188525A (en) Image display device
CN107835435B (en) Event wide-view live broadcasting equipment and associated live broadcasting system and method
JP2003319351A (en) Service providing system, broadcast apparatus and method, receiving apparatus and method, recording medium, and program
US9338429B2 (en) Video processing apparatus capable of reproducing video content including a plurality of videos and control method therefor
JP5520146B2 (en) Video receiving apparatus and control method thereof
JP2004328204A (en) Video signal processor
JP2002152646A (en) Device and method for recording image
JPH08336128A (en) Video viewing device
JP2012004991A (en) Broadcast receiving apparatus and control method for the same
JP2003224838A (en) Free view point type image display apparatus and method, charging apparatus and charging method, storage medium, and computer program
EP4007261A1 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050705